Yann LeCun, professeur à NYU et scientifique en chef sur l’IA à Meta
Partie 1 : Aux origines de l’apprentissage profond
00:08
Aux origines de l’apprentissage profond08:10
Que manque-t-il aux grands modèles de langage (LLMs) ?16:00
D’accord avec Geoff Hinton que les LLMs comprennent ?22:31
Des risques existentiels pour l’humanité ?23:23
Deux liens avec les neurosciences24:16
Apprentissage auto-supervisé27:09
Abandonner les modèles génératifs pour l’image et la vidéo
Partie 2 : Apprendre des modèles internes du monde
00:08
Apprendre des modèles internes du monde03:45
Un seul ou plusieurs modèles internes du monde ?09:07
Une motivation intrinsèque à apprendre15:48
Optimisation multi-objectifs
Partie 3 : hallucinations et autres risques sociétaux
00:08
Résoudre le problème des hallucinations des LLMs03:09
Aspect « boîte noire » des réseaux de neurones06:49
Parallèle avec l’explicabilité chez l’humain11:39
Risques liés à l’IA13:50
Désinformation18:05
Souligner aussi les potentiels positifs de l’IA19:16
Quels sont les vrais dangers ?20:26
Possible amplification par l’IA de risques pré-existants ?23:19
Questions environnementales et coût énergétique de l’IA26:37
Utiliser l’IA pour trouver des solutions au changement climatique28:54
Affaiblissement des universités face aux géants du Web