Pentru mai multe informații despre programele profesionale și postuniversitare de inteligență artificială de la Stanford, vizitați: https://stanford.io/3BcmeEA
Jure Leskovec
Informatică, dr
După ce ați definit un strat GNN, următorul pas de proiectare este modul de stivuire a straturilor GNN împreună. Pentru a motiva diferite moduri de stivuire a straturilor GNN, introducem mai întâi problema netezirii excesive care împiedică GNN-urile să învețe înglobări semnificative de noduri. Învățăm 2 lecții din problema netezirii excesive: (1) Ar trebui să fim precauți când adăugăm straturi GNN; (2) putem adăuga conexiuni de ignorare în GNN-uri pentru a atenua problema de netezire excesivă. Când numărul de straturi GNN este mic, putem îmbunătăți expresivitatea GNN prin crearea de mesaje multi-strat de calcul/agregare sau adăugând straturi de pre-procesare/post-procesare în GNN.
Pentru a urma programul cursului și programa, vizitați:
http://web.stanford.edu/class/cs224w/
Cursuri interesante:
- Stanford CS229: Învățare automată | Vara 2019 | Cursul 7 – GDA, Naive Bayes & Laplace Smoothing
- Stanford CS234: Învățare prin consolidare | Iarna 2019 | Curs 4 – Model Free Control
- Stanford CS229: Învățare automată | Vara 2019 | Cursul 3 – Probabilitate și Statistică
- Stanford CS330: Multi-Task și Meta-Learning, 2019 | Cursul 4 – Meta-Învățători non-parametrici
- Stanford CS229: Învățare automată | Vara 2019 | Cursul 16 – K-means, GMM și EM
- Stanford CS330: Multi-Task și Meta-Learning, 2019 | Cursul 3 – Meta-Learning bazat pe optimizare
- Stanford CS229: Învățare automată | Vara 2019 | Curs 1 – Introducere și Algebră Lineară
- Stanford CS229: Învățare automată | Vara 2019 | Curs 2 – Calcul Matriceal și Teoria Probabilității
- Stanford CS229: Învățare automată | Vara 2019 | Cursul 20 – Autoencoder variațional
- Stanford CS229M – Curs 13: Neural Tangent Kernel