Pentru mai multe informații despre programele profesionale și postuniversitare de inteligență artificială de la Stanford, vizitați: https://stanford.io/3CvTOGY
Această prelegere acoperă:
1. Impactul transformatoarelor asupra NLP (și ML mai larg)
2. De la recurență (RNN) la modele NLP bazate pe atenție
3. Înțelegerea modelului transformatorului
4. Dezavantaje și variante ale transformatoarelor
Pentru a afla mai multe despre acest curs, vizitați: https://online.stanford.edu/courses/cs224n-natural-language-processing-deep-learning
Pentru a urmări programul cursului și programa, vizitați: http://web.stanford.edu/class/cs224n/
John Hewitt
Doctorand in Informatica la Universitatea Stanford
Profesorul Christopher Manning
Thomas M. Siebel Profesor în Machine Learning, Profesor de Lingvistică și Informatică
Director, Stanford Artificial Intelligence Laboratory (SAIL)
#deeplearning #prelucrare a limbajului natural
Cursuri interesante:
- Stanford CS224N NLP cu Deep Learning | 2023 | Cursul 8 – Autoatenție și transformatoare
- Stanford CS224N: NLP cu Deep Learning | Iarna 2019 | Curs 4 – Backpropagation
- Stanford CS224N: NLP cu Deep Learning | Iarna 2019 | Cursul 5 – Analiza dependențelor
- Stanford CS224N NLP cu Deep Learning | 2023 | Cursul 9 – Preinstruire
- Stanford CS224N NLP cu Deep Learning | 2023 | Tutorial PyTorch, Drew Kaul
- Stanford CS224N NLP cu Deep Learning | 2023 | Tutorial Hugging Face, Eric Frankel
- Stanford CS224N: NLP cu Deep Learning | Iarna 2019 | Cursul 13 – Înglobări de cuvinte contextuale
- Stanford CS224N: NLP cu Deep Learning | Iarna 2020 | Traducere automată cu resurse reduse
- Stanford CS224N: NLP cu Deep Learning | Iarna 2020 | BERT și alte modele de limbaj pre-instruit
- Stanford CS224N: NLP cu Deep Learning | Iarna 2019 | Cursul 19 – Prejudecata în IA