Yann LeCun, professeur à NYU et scientifique en chef sur l’IA à Meta
Partie 1 : Aux origines de l’apprentissage profond
- 00:08Aux origines de l’apprentissage profond
- 08:10Que manque-t-il aux grands modèles de langage (LLMs) ?
- 16:00D’accord avec Geoff Hinton que les LLMs comprennent ?
- 22:31Des risques existentiels pour l’humanité ?
- 23:23Deux liens avec les neurosciences
- 24:16Apprentissage auto-supervisé
- 27:09Abandonner les modèles génératifs pour l’image et la vidéo
Partie 2 : Apprendre des modèles internes du monde
- 00:08Apprendre des modèles internes du monde
- 03:45Un seul ou plusieurs modèles internes du monde ?
- 09:07Une motivation intrinsèque à apprendre
- 15:48Optimisation multi-objectifs
Partie 3 : hallucinations et autres risques sociétaux
- 00:08Résoudre le problème des hallucinations des LLMs
- 03:09Aspect « boîte noire » des réseaux de neurones
- 06:49Parallèle avec l’explicabilité chez l’humain
- 11:39Risques liés à l’IA
- 13:50Désinformation
- 18:05Souligner aussi les potentiels positifs de l’IA
- 19:16Quels sont les vrais dangers ?
- 20:26Possible amplification par l’IA de risques pré-existants ?
- 23:19Questions environnementales et coût énergétique de l’IA
- 26:37Utiliser l’IA pour trouver des solutions au changement climatique
- 28:54Affaiblissement des universités face aux géants du Web