Yann LeCun, professeur à NYU et scientifique en chef sur l’IA à Meta
Partie 1 : Aux origines de l’apprentissage profond
- 00:08 Aux origines de l’apprentissage profond
- 08:10 Que manque-t-il aux grands modèles de langage (LLMs) ?
- 16:00 D’accord avec Geoff Hinton que les LLMs comprennent ?
- 22:31 Des risques existentiels pour l’humanité ?
- 23:23 Deux liens avec les neurosciences
- 24:16 Apprentissage auto-supervisé
- 27:09 Abandonner les modèles génératifs pour l’image et la vidéo
Partie 2 : Apprendre des modèles internes du monde
- 00:08 Apprendre des modèles internes du monde
- 03:45 Un seul ou plusieurs modèles internes du monde ?
- 09:07 Une motivation intrinsèque à apprendre
- 15:48 Optimisation multi-objectifs
Partie 3 : hallucinations et autres risques sociétaux
- 00:08 Résoudre le problème des hallucinations des LLMs
- 03:09 Aspect « boîte noire » des réseaux de neurones
- 06:49 Parallèle avec l’explicabilité chez l’humain
- 11:39 Risques liés à l’IA
- 13:50 Désinformation
- 18:05 Souligner aussi les potentiels positifs de l’IA
- 19:16 Quels sont les vrais dangers ?
- 20:26 Possible amplification par l’IA de risques pré-existants ?
- 23:19 Questions environnementales et coût énergétique de l’IA
- 26:37 Utiliser l’IA pour trouver des solutions au changement climatique
- 28:54 Affaiblissement des universités face aux géants du Web