Daniel S. Brown
6 mai 2022
În această discuție, voi discuta progresele recente în ceea ce privește utilizarea intrării umane pentru a permite sisteme AI sigure și robuste. Multă muncă privind învățarea și controlul mașinilor robuste încearcă să fie rezistentă la, sau să elimine complet nevoia de aport uman. Prin contrast, cercetarea mea urmărește să încorporeze direct și eficient aportul uman în studiul sistemelor AI robuste. O problemă care apare atunci când roboții și alte sisteme AI învață din aportul uman este că există adesea o mare incertitudine cu privire la adevărata intenție a omului și comportamentul dorit corespunzător al robotului. Pentru a aborda această problemă, voi discuta cercetările anterioare și în curs de desfășurare pe trei subiecte principale:
(1) cum să permită sistemelor AI să mențină eficient și precis incertitudinea asupra intenției umane
(2) cum se generează comportamente adverse față de risc care sunt robuste la această incertitudine
(3) modul în care roboții și alte sisteme de inteligență artificială pot solicita eficient aportul uman suplimentar pentru a reduce în mod activ incertitudinea și a-și îmbunătăți performanța.
Discuția mea se va încheia cu o discuție despre viziunea mea pe termen lung pentru sisteme AI sigure și robuste, inclusiv învățarea din input uman multimodal, robustețe interpretabilă și verificabilă și dezvoltarea tehnicilor de învățare automată robustă uman-în-buclă care generalizează dincolo de incertitudinea funcției de recompensă.
Cursuri interesante:
- Seminar Stanford – Învățare prin imitație interactivă: planificare alături de oameni
- Seminar Stanford – Alinierea reprezentărilor robot și umane
- Seminar web Stanford – Construirea de sisteme autonome sigure și fiabile
- Seminar Stanford – Considerații pentru colaborarea om-robot
- Seminar Stanford – Autonomie interactivă: O abordare centrată pe om pentru interacțiuni sigure
- Seminar web Stanford – Frontiera învățării profunde pentru robotică, Chelsea Finn
- Seminar Stanford – Către o autonomie de încredere – Generalizare, siguranță, întruchipare
- Seminar Stanford – Utilizarea teoriilor sociale pentru a îmbunătăți interacțiunea om-AI
- Seminar Stanford – Modelare și interacțiune cu alți agenți, Claire Tomlin
- Seminar Stanford – Combinarea aproximărilor CBF bazate pe date cu accesibilitatea HJ