6 aprilie 2022
Jerry Lopez de la Motional
Există o moștenire îndelungată de implementare a software-ului complex în aplicații critice pentru siguranță în industrii precum aviația și industria auto. Utilizarea din ce în ce mai mare a modelelor de învățare automată (ML) în aceste aplicații a forțat comunitatea de ingineri să regândească ce înseamnă să se asigure că aplicațiile software pot funcționa cu probabilități extrem de scăzute de eșec. Această discuție va evidenția unele dintre cele mai mari provocări ale siguranței AI în comunitatea de conducere autonomă și va discuta unele dintre cele mai promițătoare metode cercetate în prezent pentru asigurarea unui grad ridicat de siguranță.
https://arxiv.org/pdf/2107.09918.pdf
https://arxiv.org/pdf/2012.07170.pdf
Cursuri interesante:
- Seminar Stanford – Facerea vizibilității invizibilului: observarea dinamicii software complexe
- Seminar Stanford – De la software-ul robotizat open-source la certificat de siguranță
- Globalizarea I – Partea pozitivă: curs intensiv de istorie mondială #41
- Herakles. Sau Hercule. A Problematic Hero: Crash Course World Mythology #30
- Seminar Stanford – Înțelegerea utilității feedback-ului haptic în dispozitivele telerobotice
- Curs de Managementul Sigurantei Alimentare – Haccp
- 25. Sfârșitul teoriei?; Neo-pragmatism
- Cursuri Administrator De Retea
- Curs Kubernetes – Tutorial complet pentru începători (Containerizați-vă aplicațiile!)
- Seminar Stanford – Explicabilitate ML Partea 3 I Metode de explicație post-hoc