Dans un contexte marqué par une méfiance croissante envers le développement rapide de l’intelligence artificielle, les mastodontes technologiques que sont Microsoft, Google, OpenAI et la start-up Anthropic ont décidé de joindre leurs forces au sein du « Frontier Model Forum ». Ce regroupement vise à prévenir toute dérive en matière d’IA et à prôner l’autorégulation. Toutefois, derrière ces bonnes intentions, des intérêts personnels pourraient bien se profiler.
Les bonnes intentions de l’auto-régulation
Les entreprises à l’origine des avancées en intelligence artificielle affirment leur responsabilité quant à la sécurité de ces technologies, leur non-dangerosité et leur maintien sous contrôle humain. Le forum est ouvert à toute entreprise désireuse de les rejoindre, mais il est à noter l’absence de poids lourds du secteur tels que Meta, la maison-mère de Facebook, Apple et Twitter, pour n’en citer que quelques-uns.
Un objectif aux contours flous
Les objectifs précis du « Frontier Model Forum » demeurent flous. Il est question d’identifier les « bonnes pratiques », d’améliorer la communication avec les autorités et les gouvernements, ainsi que de mettre en place un conseil d’administration. Cette démarche semble sincère, rappelant que le créateur du docteur Frankenstein était le mieux placé pour évaluer les risques liés à sa créature. Néanmoins, il est probable que les régulateurs se méfient de cette apparente bonne volonté.
Les enjeux de l’autorégulation face à une régulation plus stricte
Si pour l’instant, la Maison Blanche accorde sa confiance à ces acteurs qui se contentent de fixer des grands principes, l’Union européenne quant à elle, avance vers une régulation beaucoup plus contraignante. L’enjeu de réguler l’intelligence artificielle ne peut être pris à la légère, car une régulation superficielle ne suffira pas à répondre aux défis que pose cette technologie en pleine expansion.