Colloque sur les libéralités philanthropiques et les fondations

Ce lundi 25 mars 2024, l’Académie des sciences morales et politiques a organisé un colloque, à l’initiative de l’Association du Master 2 Gestion du Patrimoine Privé et Professionnel de l’Université Paris Panthéon-Assas, consacré aux libéralités philanthropiques et aux fondations.

Le colloque s’est tenu en présence d’Yves Gaudemet, membre de l’Académie et Professeur émérite de Droit public à l’Université Paris 2 Panthéon-Assas.

Propos introductifs par Xavier Darcos, Chancelier de l’Institut de France et président de fondations

Premier temps : LE CADRE JURIDIQUE : L’ŒUVRE PHILANTHROPIQUE, sous la présidence de Bernard Stirn, Secrétaire perpétuel de l’Académie des sciences morales et politiques

  • Propos introductifs par Bernard Stirn, secrétaire perpétuel et président de fondations
  • Quelles libéralités ? par Sophie Gaudemet, Professeur à l’Université Paris-Panthéon-Assas

  • Pour quelles fondations ? par Gilles Dumont, Professeur à l’Université Paris Cité

Deuxième temps : LES RÉALISATIONS PRATIQUES, sous la présidence de Sophie Gaudemet, Professeur à l’Université Paris-Panthéon-Assas

  • Les rôles du notaire par Laurent Mazeyrie, Notaire à Paris
  • L’expérience des fondations de l’Institut de France par Diane Margerit, Chef des affaires juridiques de l’Institut de France

Questions-Réponses

Bilan de TESaCo dans la grande salle des séances

Daniel Andler a dressé, ce lundi 5 février devant l’Académie, le bilan des travaux du cycle d’étude TESaCo qui a pour objet d’évaluer l’impact des technologies émergentes sur la société et de réfléchir aux moyens d’en tirer le meilleur en limitant le pire. Les travaux sont menés par une équipe pluridisciplinaire présidée par Daniel Andler et composée de Stefana Broadbent, Serena Ciranna, Sonia Desmoulin-Canselier, Florian Forestier, Mehdi Khamassi et Célia Zolynski.

3 tables rondes structurent le colloque ouvert par le secrétaire perpétuel Bernard Stirn :

  • 1ère table ronde : La personne – L’individu et ses données, entre encapacitation et vulnérabilité avec Philippe Huneman, Pascal Guitton et Hubert Guillaud
  • 2ème table ronde : La cité – Les technologies émergentes dans la cité : politique, droit, éthique et intelligence avec l’académicien Jean-Claude Trichet, présidée par Stefana Broadbent à laquelle interviennent l’académicien Jean-Claude Trichet, Dominique Boullier et Florian Forestier
  • 3ème table ronde : Le cerveau – Les promesses neurotechnologiques et la question de “l’amélioration” présidée par Mehdi Khamassi, modérée par sonia desmoulin-canselier, à laquelle interviennent l’académicien Jean-François Mattei, Yves Agid et Denis Forest

Cycle d’auditions sur l’IA et la Robotique

Le groupe de travail « Robotique et IA » du projet Technologies Émergentes et Sagesse Collective (TESaCo), piloté par Daniel Andler, réalise un cycle d’auditions sur l’IA et la Robotique.

Vous pouvez retrouver toutes les dernières auditions sur le site de TESaCo. Pour toute question, nous vous invitons à contacter Marion Ricard, Chargée de coordination pour TESaCo ou Mehdi Khamassi, directeur de recherche.

Audition de Michèle Sebag en trois parties

Partie 1

  • Grands modèles de langage
  • Écart entre les réalisations de l’IA et ce qu’on en comprend
  • Tester ChatGPT, c’est contribuer à l’améliorer
  • Les LLMs sont-ils des singes ?
  • Comment empêcher le moteur d’aller n’importe où ?
  • Quelles sont les capacités actuelles des LLMs ?

Partie 2

  • Apprentissage de modèles internes
  • Importance de la décomposition et de la cognition sociale
  • Distinction conscient/inconscient
  • Renouer avec les pères fondateurs de l’IA

Partie 3 (à venir)

Audition de Raja Chatila en trois parties

Partie 1

  • Les mêmes questions d’éthiques se posent-elles pour l’IA et la Robotique ?
  • Aux origines de l’IA et de la robotique
  • Retour à la question de l’éthique
  • Liens avec la cognition incarnée en sciences cognitives
  • Non pas une IA mais des IA
  • Interprétation du monde par une IA forte
  • Différences avec le cerveau humain
  • Quelle échéance pour une super intelligence ?

Partie 2

  • Action conjointe entre un robot et un humain
  • Lien avec les architectures cognitives humaines
  • Le cerveau humain et les robots suspendent-ils la tâche en cours de la même manière ?
  • Vers une IA autonome ou plutôt un attelage humain-machine ?

Partie 3

  • Déploiement de l’IA dans la société
  • Les comités d’éthique suffisent-ils ?
  • Régulations au niveau des États ou européen
  • Problème de l’auto-certification
  • Disparité des moyens publics/privés et guerre de l’IA
  • Problème de souveraineté numérique
  • Formation et éducation en IA
  • Réflexion philosophique sur l’être humain et la machine

Partie 4

  • IA générative et grands modèles de langage
  • Définition de l’IA générative et des Transformers
  • Agents conversationnels avec grands modèles de langage
  • Des risques existentiels pour l’humanité ?
  • Hubris des entrepreneurs annonceurs de l’extinction
  • Comprenons-nous bien ces systèmes ?
  • Illusion d’intelligence des systèmes conversationnels
  • Bientôt un remplacement de toutes sortes de métiers ?
  • Risques réels, dont la fracturation de la société

Audition de Jean-Gabriel Ganascia en quatre parties

Partie 1

  • Historique et évolution de l’Intelligence Artificielle
  • Place centrale de l’apprentissage en IA 
  • Jusqu’où va l’opposition entre les approches symboliques et et l’apprentissage statistique ?
  • Symbolisme, explications et argumentation 

Partie 2

  • La notion d’IA forte a-t-elle un sens ?
  • Quand les succès de l’IA marquent son éloignement des modèles de la cognition humaine, est-ce un échec ?
  • Retour sur les premiers travaux d’Alain Turing
  • Focus sur le jeu d’échecs

Partie 3

  • Quelle forme d’autonomie peuvent atteindre les systèmes artificiels ?  
  • Implications sociétales des discours annonçant la singularité 
  • Difficulté à publier en anglais une critique de la singularité
  • Ces théories de la singularité viennent de la science-fiction

Partie 4

  • Sommes-nous dans un processus d’intelligence collective sur l’IA ?
  • Les comités d’éthique sur l’IA
  • Discussions au Parlement européen
  • Une stratégie européenne sur l’IA ? 
  • Questionnements éthiques du chercheur en IA
  • Vers une IA éthique et bienfaisante ?