Le mercredi 29 mars, une pétition signée par des centaines d’experts mondiaux, dont Elon Musk et Yuval Noah Harari, a été publiée sur le site futureoflife.org. Dans cette pétition, les signataires appellent à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT 4, le modèle d’OpenAI lancé mi-mars, en raison de “risques majeurs pour l’humanité”. Ils réclament la mise en place de systèmes de sécurité, de nouvelles autorités réglementaires, la surveillance des systèmes d’IA, des techniques pour aider à distinguer le réel de l’artificiel et des institutions capables de gérer les “perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera”.
Les signataires de la pétition sont préoccupés par l’évolution rapide de l’intelligence artificielle et les conséquences imprévues que cela pourrait avoir sur l’humanité. Selon eux, les laboratoires d’IA sont actuellement engagés dans une course effrénée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne, pas même leurs créateurs, ne peut comprendre, prédire ou contrôler de manière fiable. Les signataires posent également des questions sur l’utilisation potentielle de l’IA pour la désinformation à grande échelle, les cyberattaques, l’automatisation de tous les emplois et le risque de perdre le contrôle de notre civilisation.
Le patron d’OpenAI, Sam Altman, a également exprimé sa préoccupation quant à l’utilisation de l’IA pour la désinformation à grande échelle ou les cyberattaques, affirmant que “la société a besoin de temps pour s’adapter”.
La pétition conclut que ces décisions ne doivent pas être laissées entre les mains de leaders technologiques non élus et appelle à une pause dans la recherche sur l’IA jusqu’à ce que des mesures de sécurité adéquates soient mises en place.
Désiré Kammogné