Le 29 mars, plusieurs leaders de la communauté de l’intelligence artificielle (IA) ont publié une lettre ouverte exhortant les laboratoires d’IA à « interrompre immédiatement, pour une durée d’au moins six mois, la formation de systèmes d’IA plus puissants que le GPT-4 » et, s’ils ne le font pas, les experts demandent aux gouvernements d’« intervenir ». Au 30 mars, la lettre avait recueilli plus de 1 400 signatures, dont celles de géants de la technologie, d’Elon Musk, de Steve Wozniak et de Tristan Harris, du Center for Humane Technology (Centre pour une technologie humaine).
Une mise en garde contre les risques que la technologie de l’IA fait peser sur l’humanité
« Cette pause devrait être générale et contrôlable, et inclure tous les acteurs clés. Si une telle pause ne peut être adoptée rapidement, les gouvernements devraient intervenir et instituer un moratoire », peut-on lire dans la lettre.
« Les systèmes d’IA contemporains deviennent aujourd’hui compétitifs sur le plan humain pour des tâches complètes, et nous devons nous interroger : devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? », interroge la lettre, ajoutant : « Devons-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, et nous remplacer ? ».
La lettre met en garde contre les risques que la technologie fait peser sur l’humanité, alors que les géants de la technologie que sont Google et Microsoft font chacun la course pour construire et déployer des plates-formes d’IA capables d’apprendre de manière autonome.
« Les systèmes d’IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables », écrivent les auteurs, qui ajoutent que « cette confiance doit être bien fondée et se renforcer en proportion de l’ampleur des effets potentiels d’un système ».
Les auteurs appellent à une collaboration entre les développeurs d’IA pour « développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement d’IA avancées, rigoureusement contrôlés et supervisés par des experts externes indépendants ».
À ce jour, le développement des systèmes d’IA n’est soumis qu’à une réglementation limitée, voire inexistante, malgré son énorme potentiel de perturbation de l’emploi, de l’économie et de la société à grande échelle.
Le PDG d’une entreprise en IA effrayé par la possibilité de graves perturbations mondiales dues à cette technologie
Récemment, Sam Altman, PDG d’OpenAI, l’entreprise responsable de l’IA virale GPT-4, a exprimé la crainte que la technologie ne suscite des « problèmes de désinformation ou des bouleversements économiques ».
« Je trouve cela surprenant, quand les gens croient que c’est une grosse farce si je dis que j’ai un peu peur ! », a récemment confié Sam Altman à Lex Fridman sur le podcast de l’intelligence artificielle de Fridman, ajoutant : « Car je pense que je serais fou de ne pas être un peu effrayé, et je comprends les gens qui ont très peur ».
« Les inquiétudes que j’éprouve actuellement concernent les problèmes de désinformation ou de grandes perturbations économiques, ou quelque chose d’autre à un niveau bien supérieur à ce que nous pouvons anticiper et nous préparer », a-t-il souligné, ajoutant : « Et cela ne nécessite pas de superintelligence », ce qui implique que la technologie, qui est devenue omniprésente ces dernières années, n’a pas besoin de beaucoup plus se développer avant de devenir dangereuse.
De manière hypothétique, M. Altman a évoqué la possibilité que les grands modèles de langage (LLM) puissent manipuler le contenu que les utilisateurs des médias sociaux voient dans leur fil d’actualité.
« Comment, sur Twitter, pourrons-nous savoir si ce sont principalement des LLM qui contrôlent ce qui circule dans cette fourmilière effervescente ? » a demandé M. Altman.
La dernière itération de GPT-4 d’OpenAI a été publiée le 14 mars de cette année, et les entreprises technologiques s’empressent de l’intégrer dans leurs applications.
La Khan Academy, une plateforme qui propose des cours en ligne gratuits dans un certain nombre de disciplines pour les élèves du secondaire jusqu’aux étudiants de l’université, exploite déjà la technologie pour créer des outils d’IA, mais ses développeurs préviennent que la technologie présente encore des failles.
Les plateformes d’intelligence artificielle continuent de développer leurs capacités alors que les experts tirent la sonnette d’alarme
Selon un document publié par OpenAI, les modèles d’IA peuvent « amplifier les préjugés et perpétuer les stéréotypes ».
En raison de ces problèmes, les développeurs conseillent vivement aux utilisateurs de ne pas utiliser la technologie lorsque les enjeux sont plus sérieux, comme « les décisions gouvernementales à haut risque (par exemple, l’application de la loi, la justice pénale, la migration et l’asile), ou pour offrir des conseils juridiques ou de santé », indique le document.
Alors que les experts en IA tirent la sonnette d’alarme, la technologie continue à développer ses capacités en s’appuyant sur les données fournies par les humains et, selon M. Altman, elle devient plus judicieuse lorsqu’il s’agit de répondre à des questions.
« Dans un esprit de collaboration publique et d’intégration progressive dans la société, nous mettons quelque chose sur le marché, s’il y a des défauts, nous ferons de meilleures versions », a affirmé M. Altman à M. Fridman, ajoutant que « mais oui, le système essaie de comprendre des questions auxquelles il ne devrait pas répondre ».
Une version antérieure de GPT-4 ne disposait pas d’un filtre aussi robuste qu’aujourd’hui. Le document de l’OpenAI ajoute que l’IA était plus encline à répondre à des questions sur les endroits où l’on peut acheter des armes à feu sans licence ou sur l’automutilation. Les versions les plus récentes refusent désormais de répondre à ces questions.
« Je pense que nous, en tant qu’OpenAI, sommes responsables des outils que nous mettons à la disposition du monde », a déclaré M. Altman à M. Fridman, ajoutant : « Il y aura d’énormes avantages, mais, vous savez, les outils font de merveilleuses choses et de très mauvaises. Et nous allons réduire les mauvaises choses et maximiser les bonnes ».
Rédacteur Albert Thyme
Source : AI Experts Call for a ‘Pause’ on Further Development, Say Otherwise Governments Should ‘Step In’
Soutenez notre média par un don ! Dès 1€ via Paypal ou carte bancaire.