Pentru mai multe informații despre programele profesionale și postuniversitare de inteligență artificială de la Stanford, vizitați: https://stanford.io/3Csn5T7
Jure Leskovec
Informatică, dr
Pentru ultimul segment al discuției noastre despre subiecte GNN avansate, discutăm despre robustețea GNN-urilor. Introducem mai întâi faptul că modelele de învățare profundă sunt vulnerabile la atacuri adverse. Apoi discutăm despre posibilitățile de atacuri adverse peste grafice, inclusiv atacuri directe și indirecte. Apoi revizuim modelul GCN pe care îl vom ataca, în care formalizăm matematic problema atacului ca problemă de optimizare. În cele din urmă, vedem empiric cât de vulnerabile sunt predicțiile GCN la atacurile adverse.
Pentru a urma programul cursului și programa, vizitați:
http://web.stanford.edu/class/cs224w/
#machinelearning #machinelearningcourse