Dans le cadre de ses travaux, TESaCo a organisé plusieurs auditions d’experts que vous pouvez revisionner sur la chaîne Youtube du cycle d’étude.
Audition de Michèle Sebag, Directrice de Recherche au CNRS, par Daniel Andler et Mehdi Khamassi
Première partie de l’audition : Grands modèles de langage
02:15 Écart entre les réalisations de l’IA et ce qu’on en comprend
06:07 Tester ChatGPT c’est contribuer à l’améliorer
15:09 Les LLMs sont-ils des singes ?
22:09 Comment empêcher le moteur d’aller n’importe où ?
24:53 Quelles sont les capacités actuelles des LLMs ?
Deuxième partie de l’audition : Apprentissage de modèles internes
00:08 Apprentissage de modèles internes 06:38 Importance de la décomposition et de la cognition sociale
12:24 Distinction conscient/inconscient
13:03 Renouer avec les pères fondateurs de l’IA
Troisième partie de l’audition : Applications de l’IA et soutenabilité
00:08 Applications de l’IA et soutenabilité
03:22 La formation à l’éthique est-elle la solution ?
06:13 Utiliser l’IA pour aider à résoudre des problèmes de société
14:46 Souligner les potentiels positifs de l’IA sans négliger les possibles effets négatifs
15:32 Y a-t-il encore une tendance à aller vers des IA de plus en plus autonomes ?
18:40 Règlementations européennes sur l’IA
Audition de Raja Chatila, Professeur émérite à Sorbonne Université, sur l’Intelligence Artificielle (IA) par Daniel Andler et Mehdi Khamassi
Première partie de l’audition : Les mêmes questions d’éthiques se posent-elles pour l’IA et la Robotique ?
00:16 Les mêmes questions d’éthiques se posent-elles pour l’IA et la Robotique ?
06:31 Aux origines de l’IA et de la robotique
13:19 Retour à la question de l’éthique
16:40 Liens avec la cognition incarnée en sciences cognitives
20:04 Non pas une IA mais des IA
20:38 Interprétation du monde par une IA forte
27:22 Différences avec le cerveau humain
34:41 Quelle échéance pour une super intelligence ?
Deuxième partie de l’audition : Action conjointe entre un robot et un humain
00:12 Action conjointe entre un robot et un humain
05:54 Lien avec les architectures cognitives humaines
09:12 Le cerveau humain et les robots suspendent-ils la tâche en cours de la même manière ?
16:58 Vers une IA autonome ou plutôt un attelage humain-machine ?
Troisième partie de l’audition : Déploiement de l’IA dans la société
00:12 Déploiement de l’IA dans la société
01:12 Les comités d’éthique suffisent-ils ?
06:32 Régulations au niveau des États ou européen
14:30 Problème de l’auto-certification
17:01 Disparité des moyens publics/privés et guerre de l’IA
23:35 Problème de souveraineté numérique
28:09 Formation et éducation en IA
32:08 Réflexion philosophique sur l’être humain et la machine
Quatrième partie de l’audition : IA générative et grands modèles de langage
00:12 IA générative et grands modèles de langage
01:31 Définition de l’IA générative et des Transformers
07:25 Agents conversationnels avec grands modèles de langage
12:27 Des risques existentiels pour l’humanité ?
20:06 Hubris des entrepreneurs annonceurs de l’extinction
22:44 Comprenons-nous bien ces systèmes ?
30:51 Illusion d’intelligence des systèmes conversationnels
40:17 Bientôt un remplacement de toutes sortes de métiers ?
48:58 Risques réels, dont la fracturation de la société
Audition de Jean-Gabriel Ganascia, Professeur à Sorbonne Université, sur l’Intelligence Artificielle (IA) par Mehdi Khamassi – 6 juin 2022
Première partie de l’audition : Historique de l’IA
- 00:48 Historique et évolution de l’intelligence artificielle
- 06:58 Place centrale de l’apprentissage en IA
- 13:02 Jusqu’où va l’opposition entre les approches symboliques et l’apprentissage statistique ?
- 20:01 Symbolisme, explications et argumentation
Deuxième partie de l’audition : La notion d’IA forte a-t-elle un sens ?
00:12 La notion d’IA forte a-t-elle un sens ?
07:27 Quand les succès de l’IA marquent sont éloignement des modèles de la cognition humaine [, est-ce un échec ?]
08:49 Retour sur les premiers travaux d’Alan Turing
13:00 Focus sur le jeu d’échecs
Troisième partie de l’audition : L’autonomie des machines bien loin de la singularité
00:11 Quelle forme d’autonomie peuvent atteindre les systèmes artificiels ?
08:42 Implications sociétales des discours annonçant la singularité
17:51 Difficulté à publier en anglais une critique de la singularité
21:37 Ces théories de la singularité viennent de la science-fiction
Quatrième partie de l’audition : Un processus d’intelligence collective sur l’IA ?
00:19 Sommes-nous dans un processus d’intelligence collective sur l’IA ?
04:00 Les comités d’éthique sur l’IA
06:45 Discussions au Parlement européen
10:30 Une stratégie européenne sur l’IA ?
12:32 Questionnements éthiques du chercheur en IA
17:03 Vers une IA éthique et bienfaisante ?
Colloque « Cracking the code of pandemic origins » – 23 décembre 2021
Understanding how this crisis began has massive implications for preventing the next one, but no international investigation has yet been carried out nor is one currently planned. This seminar will host two early « COVID-19 whistleblowers” with different backgrounds, recognized for their pioneering work into probing the origins of the pandemic.
Colloque « Talking Machine : Conversation and creation with artificiel intelligence »
Talking Machine : Conversation and creation with artificiel intelligence
GPT-3, a cutting-edge artificial language model, has largely fueled the scientific debate about its promises and limitations. However, many questions remain open concerning not only the technical aspects but also the possible applications of «talking machines» in their uncanny ability to imitate and simulate human language.
This workshop aims to bring together scholars from several fields to discuss three types of questions raised by these artificial languages:
(1) the principles, perspectives and limits of artificial intelligence applied to language;
(2) the problem of the economic and material conditions of their conception and creation, including the role of public research in the development of very costly language models such as GPT-3;
(3) the uses of AI in conversation and creation, as well as in digital humanities. The more promising these models are and the better the conversational agents simulate dialogical interaction with humans, the more pressing the questions they raise concerning social dynamics, emotional and affective reactions, and the identity status attached to these artificial intelligences.
00.00 Daniel Andler – Introduction
10.26 Aldo Gangemi – Grounding symbols in model-theoretic and distributional semantics
51.10 Valentina Presutti – Extracting Musical Heritage Knowledge from text: the problem of relevant implicit knowledge and language evolution over time
1h54 Justine Cassell – Break The Difference between Conversational Agents and Conversation
2.34.24 Emmanuel Dupoux – Can AI help developmental science and vice versa?
3.10.12 Roundtable I
3.57.03 Serena Ciranna – Introduction
3.59.50 Jacqueline Feldman – Turing Tests: Writing With and Against AI
4.48.18 Joanna Walsh Zombie Creativity: the death and resurrection of the author in the age of AI
5.44.26 Raphaël Millière – The linguistic competence of large language models
6.35.00 Alexei Grinbaum – Break Chatbots and humans, from the book of Genesis to the opinion of the French national digital ethics committee
7.24.38 Roundtable II
By Jamie Metzl and Virginie Courtier
