Carlos Guestrin, Universitatea Stanford
11 mai 2022
Sistemele de învățare automată (ML) și AI devin părți integrante ale fiecărui aspect al vieții noastre. Definirea, dezvoltarea și implementarea acestor sisteme sunt conduse de alegeri umane (complexe). Și, pe măsură ce aceste IA iau din ce în ce mai multe decizii pentru noi, iar sistemele ML subiacente devin din ce în ce mai complexe, este firesc să ne punem întrebarea: „Cum poți avea încredere în învățarea automată?”
În această discuție, voi prezenta un cadru, ancorat pe trei piloni: Claritate, Competență și Aliniere. Pentru fiecare, voi descrie procese algoritmice și umane care pot ajuta la conducerea către AI-uri mai eficiente, de impact și de încredere. Pentru Clarity, voi aborda metode pentru a face predicțiile învățării automate mai explicabile. Pentru Competență, mă voi concentra pe metode de evaluare și testare a modelelor ML cu rigoarea pe care o aplicăm produselor software complexe. În cele din urmă, pentru aliniere, voi descrie complexitățile alinierii comportamentelor unei IA cu valorile pe care dorim să le reflectăm în lume, împreună cu metode care pot produce rezultate mai aliniate. Prin această discuție, vom acoperi atât conceptele fundamentale, cât și algoritmi și instrumente acționabile care pot duce la creșterea încrederii în ML.
Lectură suplimentară recomandată:
https://arxiv.org/abs/1602.04938
https://homes.cs.washington.edu/~marcotcr/acl20_checklist.pdf
https://www.vox.com/2015/9/18/9348821/photography-race-bias
Aflați mai multe despre difuzor: https://guestrin.su.domains/
Urmăriți mai multe videoclipuri din această serie de seminarii aici:
https://www.youtube.com/playlist?list=PLoROMvodv4rNtnS3JSRRZzLWQo2dd6XNs/>
#incredere #machinelearning