Zico Kolter, profesor asociat, Universitatea Carnegie Mellon
4 mai 2022
Această discuție analizează sarcina de a verifica rețelele profunde, garantând că ieșirile unei rețele respectă anumite proprietăți pentru anumite clase de intrări. Asemenea abordări pot fi folosite pentru a valida robustețea și siguranța rețelelor neuronale, dar o astfel de verificare exactă este o problemă combinatorică dificilă, iar soluțiile standard au rezultate destul de slabe. Cu toate acestea, în ultimii câțiva ani s-au înregistrat progrese mari în domeniu, iar metodele recente sunt capabile să verifice rețelele de dimensiuni medii de mii de ori mai rapid decât solutoarele generice. În această discuție, voi oferi o privire de ansamblu asupra problemei verificării, apoi voi evidenția câteva progrese pe care noi și alții le-am făcut în ultimii ani pentru a obține aceste accelerări. Multe dintre aceste abordări au fost implementate în depunerea noastră la Verificarea rețelelor neuronale Competition (VNNCOMP) în 2021, unde echipa noastră, o colaborare cu UCLA, Northeastern și Columbia, a câștigat primul loc în majoritatea categoriilor.
Despre vorbitor: Zico Kolter este profesor asociat la Departamentul de Informatică al Școlii de Informatică de la Universitatea Carnegie Mellon. Pe lângă rolul său cu normă întreagă la CMU, el servește și ca om de știință șef al cercetării AI pentru Centrul Bosch pentru IA (BCAI), lucrând în Biroul din Pittsburgh.
Cursuri interesante:
- Seminar Stanford – Obiecte neuronale multi-senzoriale: modelare, inferență și aplicații în robotică
- Machine Learning 2 – Caracteristici, rețele neuronale | Stanford CS221: AI (toamna 2019)
- Curs intensiv de învățare profundă pentru începători
- Cum funcționează rețelele neuronale profunde – Curs complet pentru începători
- Stanford CS224N NLP cu Deep Learning | Iarna 2021 | Cursul 2 – Clasificatori neuronali
- Stanford – Cum facem IA centrată pe om pentru predicția sănătății mintale în datele din rețelele sociale?
- Stanford CS224W: ML cu grafice | 2021 | Cursul 6.1 – Introducere în rețelele neuronale grafice
- Stanford CS25: V3 I Dincolo de LLMs: agenți, abilități emergente, raționament ghidat intermediar, BabyLM
- Logica 2 – Logica de ordinul întâi | Stanford CS221: AI (toamna 2019)
- Învățare statistică: 10.6 Montarea rețelelor neuronale