Le chercheur canadien Geoffrey Hinton, spécialiste de l’intelligence artificielle (IA), quitte Google pour pouvoir s’exprimer librement sur les risques que représente cette technologie. Il a consacré une grande partie de sa vie à la recherche sur les réseaux de neurones et a notamment participé au développement de ChatGPT, un logiciel d’IA créé par la startup américaine OpenAI. Selon Hinton, les progrès dans ce domaine sont de plus en plus dangereux, et l’IA peut notamment provoquer une inondation d’informations fausses sur internet, tout en bouleversant le marché du travail.
Des craintes sur les progrès de l’IA
En 2012, Geoffrey Hinton, avec deux étudiants de l’université de Toronto, a développé un système capable d’apprendre à identifier des objets communs en analysant des milliers de photos. Cette découverte a conduit Google à investir 44 millions de dollars dans ce projet. Mais aujourd’hui, Hinton est inquiet de la course effrénée des entreprises dans le domaine de l’IA, notamment la compétition entre Microsoft et Google, qui accentue les risques. Il estime que les IA peuvent générer des fausses informations sur internet et bouleverser le marché du travail en faisant disparaître certains métiers.
La nécessité d’une réglementation mondiale
En mars dernier, le milliardaire Elon Musk, un des fondateurs d’OpenAI, et plusieurs scientifiques réclamaient une pause de six mois dans la recherche sur les IA plus puissantes que GPT-4, en évoquant des risques majeurs pour l’humanité. Geoffrey Hinton partage ces inquiétudes et appelle à une réglementation mondiale de l’IA avant que ces technologies ne soient mises en place. Selon lui, les scientifiques ne devraient pas faire monter en puissance ces IA avant de savoir s’ils sont capables de les contrôler.
Les enjeux de la démission de Geoffrey Hinton
Geoffrey Hinton ne critique pas Google, qui, selon lui, s’est comporté de façon responsable. En démissionnant, il cherche simplement à préserver sa liberté de parole pour alerter sur les dangers de l’IA. Cette décision a une forte portée symbolique, car elle montre que les scientifiques s’inquiètent de l’impact de l’IA sur notre société. Cette démission illustre également la nécessité de réglementer les progrès de l’IA pour éviter des dérives qui pourraient mettre en danger notre monde.