Yann LeCun, professeur à NYU et scientifique en chef sur l’IA à Meta
Partie 1 : Aux origines de l’apprentissage profond
00:08Aux origines de l’apprentissage profond08:10Que manque-t-il aux grands modèles de langage (LLMs) ?16:00D’accord avec Geoff Hinton que les LLMs comprennent ?22:31Des risques existentiels pour l’humanité ?23:23Deux liens avec les neurosciences24:16Apprentissage auto-supervisé27:09Abandonner les modèles génératifs pour l’image et la vidéo
Partie 2 : Apprendre des modèles internes du monde
00:08Apprendre des modèles internes du monde03:45Un seul ou plusieurs modèles internes du monde ?09:07Une motivation intrinsèque à apprendre15:48Optimisation multi-objectifs
Partie 3 : hallucinations et autres risques sociétaux
00:08Résoudre le problème des hallucinations des LLMs03:09Aspect « boîte noire » des réseaux de neurones06:49Parallèle avec l’explicabilité chez l’humain11:39Risques liés à l’IA13:50Désinformation18:05Souligner aussi les potentiels positifs de l’IA19:16Quels sont les vrais dangers ?20:26Possible amplification par l’IA de risques pré-existants ?23:19Questions environnementales et coût énergétique de l’IA26:37Utiliser l’IA pour trouver des solutions au changement climatique28:54Affaiblissement des universités face aux géants du Web