single-emission.php

Par

Et si l’intelligence artificielle échappait à tout contrôle ?


Un groupe de spécialistes se sont réunis pour échanger sur les "risques catastrophiques" de l'intelligence artificielle

Retranscription des premières minutes du podcast :

- Sud Radio, curieux comme Rémi, Rémi André.
- 6h21 sur Sud Radio, on retrouve Rémi André. Rebonjour Rémi.
- Bonjour Maxime.
- Avec cette question, et si l'intelligence artificielle échappait à tout contrôle ? En tout cas, un groupe de spécialistes, Rémi, dont deux des pères fondateurs de cette intelligence artificielle, se sont réunis pour échanger sur les risques catastrophiques de l'IA.
- Rémi, y a-t-il un véritable risque que l'IA échappe au contrôle de ses fondateurs ? Eh bien, disons que pour éviter ça, il vaut mieux se poser la question sans tabou.
- Les risques inhérents à l'intelligence artificielle continuent à diviser les spécialistes du domaine.
- Tandis que certains n'y voient qu'un outil relativement inoffensif, d'autres s'inquiètent qu'ils pourraient échapper au contrôle des humains.
- C'est le cas notamment de Geoffrey Hinton et Joshua Bengio, considérés comme deux des pères fondateurs de l'IA, ayant reçu d'ailleurs le prix Turing en 2018 pour leurs travaux sur l'apprentissage profond avec le français Yann Leclerc.
- Les deux hommes étaient récemment à la troisième rencontre IDAIS pour les dialogues internationaux sur la sécurité de l'IA, qui s'est tenue à Venise et qui a réuni différents spécialistes du secteur.
- Le groupe a publié un communiqué soulignant les risques liés à l'arrivée imminente ou au plus tard d'ici quelques décennies d'une IA capable de dépasser l'intelligence humaine.
- Voilà pour le constat. Maintenant, Rémi, que faut-il faire pour éviter ça ? Eh bien, le communiqué, également signé par des noms comme Zang, Yaking, ancien président du géant chinois Baidu, ou encore Stuart Russell, met en avant trois propositions pour éviter des scénarios catastrophiques.
- Tout d'abord, la communauté internationale devrait mettre en place des accords et institutions pour permettre d'inscrire les modèles d'IA sur un registre et de communiquer tout incident.
- Ensuite, les développeurs devraient être tenus de démontrer la sûreté de leurs modèles si leurs capacités dépassent certains seuils.
- Enfin, il faudrait une recherche mondiale indépendante sur la sécurité de l'IA qui peut vérifier la validité des affirmations en matière de sécurité formulée par les développeurs.
- Mais devrait, faudrait, ça reste un peu vague encore, mon cher Rémi.
- Oui, vous avez raison, le communiqué ne donne pas de pistes sur ce qui pourrait constituer un risque ni quel seuil devrait être mis en place, mais il est bon de partager les inquiétudes des créateurs de l'IA.
- Ce n'est pas la première fois que Geoffrey Hinton s'exprime sur ce sujet.
- Il avait notamment démissionné de chez Google en 2023 pour être libre de partager ses inquiétudes sur le développement de l'intelligence artificielle.
- Et oui, attention, danger. Merci beaucoup Rémi.
- .

Transcription générée par IA

Revenir
au direct

À Suivre
/