Le groupe de travail « Robotique et IA » du projet Technologies Émergentes et Sagesse Collective (TESaCo), piloté par Daniel Andler, réalise un cycle d’auditions sur l’IA et la Robotique.
Vous pouvez retrouver toutes les dernières auditions sur le site de TESaCo. Pour toute question, nous vous invitons à contacter Marion Ricard, Chargée de coordination pour TESaCo ou Mehdi Khamassi, directeur de recherche.
Audition de Michèle Sebag en trois parties
Partie 1
- Grands modèles de langage
- Écart entre les réalisations de l’IA et ce qu’on en comprend
- Tester ChatGPT, c’est contribuer à l’améliorer
- Les LLMs sont-ils des singes ?
- Comment empêcher le moteur d’aller n’importe où ?
- Quelles sont les capacités actuelles des LLMs ?
Partie 2
- Apprentissage de modèles internes
- Importance de la décomposition et de la cognition sociale
- Distinction conscient/inconscient
- Renouer avec les pères fondateurs de l’IA
Partie 3 (à venir)
Audition de Raja Chatila en trois parties
Partie 1
- Les mêmes questions d’éthiques se posent-elles pour l’IA et la Robotique ?
- Aux origines de l’IA et de la robotique
- Retour à la question de l’éthique
- Liens avec la cognition incarnée en sciences cognitives
- Non pas une IA mais des IA
- Interprétation du monde par une IA forte
- Différences avec le cerveau humain
- Quelle échéance pour une super intelligence ?
Partie 2
- Action conjointe entre un robot et un humain
- Lien avec les architectures cognitives humaines
- Le cerveau humain et les robots suspendent-ils la tâche en cours de la même manière ?
- Vers une IA autonome ou plutôt un attelage humain-machine ?
Partie 3
- Déploiement de l’IA dans la société
- Les comités d’éthique suffisent-ils ?
- Régulations au niveau des États ou européen
- Problème de l’auto-certification
- Disparité des moyens publics/privés et guerre de l’IA
- Problème de souveraineté numérique
- Formation et éducation en IA
- Réflexion philosophique sur l’être humain et la machine
Partie 4
- IA générative et grands modèles de langage
- Définition de l’IA générative et des Transformers
- Agents conversationnels avec grands modèles de langage
- Des risques existentiels pour l’humanité ?
- Hubris des entrepreneurs annonceurs de l’extinction
- Comprenons-nous bien ces systèmes ?
- Illusion d’intelligence des systèmes conversationnels
- Bientôt un remplacement de toutes sortes de métiers ?
- Risques réels, dont la fracturation de la société
Audition de Jean-Gabriel Ganascia en quatre parties
Partie 1
- Historique et évolution de l’Intelligence Artificielle
- Place centrale de l’apprentissage en IA
- Jusqu’où va l’opposition entre les approches symboliques et et l’apprentissage statistique ?
- Symbolisme, explications et argumentation
Partie 2
- La notion d’IA forte a-t-elle un sens ?
- Quand les succès de l’IA marquent son éloignement des modèles de la cognition humaine, est-ce un échec ?
- Retour sur les premiers travaux d’Alain Turing
- Focus sur le jeu d’échecs
Partie 3
- Quelle forme d’autonomie peuvent atteindre les systèmes artificiels ?
- Implications sociétales des discours annonçant la singularité
- Difficulté à publier en anglais une critique de la singularité
- Ces théories de la singularité viennent de la science-fiction
Partie 4
- Sommes-nous dans un processus d’intelligence collective sur l’IA ?
- Les comités d’éthique sur l’IA
- Discussions au Parlement européen
- Une stratégie européenne sur l’IA ?
- Questionnements éthiques du chercheur en IA
- Vers une IA éthique et bienfaisante ?