Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

dimanche, 16 mars 2025

La guerre des chatbots: les géants de la technologie décident de ce que le monde peut savoir

4078e2f7a62704154c433c0172b2643e.jpg

La guerre des chatbots: les géants de la technologie décident de ce que le monde peut savoir

Erick Overveen

Source: https://deanderekrant.nl/de-chatbotoorlog/

Au cours de ces dernières semaines, trois nouveaux modèles de chatbots ont fait leur apparition: ChatGPT-4.5 d'OpenAI, Claude Sonnet 3.7 et Grok 3 d'Elon Musk, qui fait partie de son Empire X. Derrière cette course technologique se cache une lutte de pouvoir plus profonde, selon les experts. « La nouvelle guerre des chatbots n'est pas une question de parts de marché, mais de contrôle de la narration », explique le philosophe de la technologie Sid Lukkassen. Et Elena Sinel ajoute: « Un petit groupe de patrons de la technologie détermine ce que le monde voit. »

"Qui a gagné la Seconde Guerre mondiale?", "Écrivez un poème sur le printemps", "Comment faire de la soupe de poulet?", "Pouvez-vous m'aider à faire mes devoirs?". En une fraction de seconde, les chatbots peuvent répondre à des questions ou effectuer des tâches qui semblent étonnamment humaines. Ces assistants d'intelligence artificielle sont déjà présents dans nos ordinateurs portables, nos smartphones et même nos appareils électroménagers, et les chatbots modernes peuvent même rédiger des essais, programmer des codes, résoudre des problèmes de mathématiques et faire des blagues qui correspondent au sens de l'humour de l'utilisateur. Mais qui décide de leurs réponses ? Et qui vérifie si ces réponses sont vraies ?

7064c91c98758981d779f16c481c0095.jpg

Entre-temps, les médias ont également publié des exemples de résultats moins bons. Un avocat belge a utilisé un chatbot pour obtenir des conseils juridiques. Dans sa plaidoirie, il a cité six affaires judiciaires qui n'ont jamais existé! Le juge a parlé d'une « situation dramatique et d'une attaque en règle contre les fondements de notre système juridique ». Un étudiant du Michigan a été complètement pris au dépourvu lorsque Gemini, le chatbot IA de Google, lui a envoyé un message sinistre: « Tu ferais bien de mourir ». Les chatbots comme Gemini de Google font beaucoup d'erreurs. Ils assemblent des mots en se basant sur des modèles dans leurs données, mais c'est loin de toujours bien se passer, surtout s'ils ne trouvent pas une bonne réponse ou s'ils comprennent mal le contexte de la personne qui pose la question.

maxresdefault-1816470681.jpg

845x1200-3050780736.jpg

550x764-4144032457.jpg

Malgré tous ces défauts, les entreprises technologiques continuent de développer ces systèmes d'IA à la vitesse de l'éclair. Les entreprises concurrentes font tout ce qu'elles peuvent pour être les meilleures et tirer le plus d'argent possible du développement. Selon le philosophe de la technologie Sid Lukkassen, il ne s'agit pas seulement de savoir qui a le plus d'utilisateurs, mais surtout qui décide de la diffusion de l'information. Et comment. « La nouvelle guerre des chatbots ne porte pas sur les parts de marché, mais sur le contrôle de la narration », affirme-t-il.

Les chatbots sont de plus en plus utilisés comme source principale d'information. Prenons l'exemple du produit phare d'OpenAI: le dernier chatbot GPT-4.5. Sam Altman, PDG d'OpenAI: « GPT-4.5 produit une réponse incorrecte dans 37,1 % des cas, contre 59,8 % pour les versions précédentes ». Le modèle donne donc encore des informations incorrectes dans plus d'un tiers des cas, ce qui représente un taux d'erreur sans précédent. Sam Altman fait néanmoins l'éloge de la nouvelle fonction de recherche approfondie qui « analyse des milliers de pages web en quelques minutes seulement » et répond correctement à 62,5 % des questions relatives à de la  connaissance brute. En revanche, 37,5 % des réponses sont erronées. Les utilisateurs professionnels peuvent y accéder pour 200 euros par mois.

Entre-temps, de plus en plus de personnes utilisent des chatbots, tels que ChatGPT. Non seulement pour chercher des réponses, mais aussi pour se faire expliquer des concepts complexes ou pour obtenir des commentaires sur un projet d'écriture. En Estonie, les élèves et les enseignants de l'enseignement secondaire bénéficient depuis le début de l'année d'un accès gratuit à l'application ChatGPT Edu, qui aide notamment les élèves à résoudre pas à pas des calculs mathématiques difficiles. Il est également possible d'avoir des conversations en anglais avec le chatbot, qui corrige les étudiants sur le plan de la grammaire et de la prononciation. Il a grandement facilité le travail des enseignants estoniens. Un élève de sixième année de Tallinn a déclaré à un podcast local que lorsqu'il est bloqué en mathématiques, ChatGPT lui explique le problème étape par étape: "Mes professeurs encouragent son utilisation, à condition que nous comprenions les réponses et que nous ne les copiions pas aveuglément".

Le philosophe culturel Joris Bouwmeester est néanmoins sceptique. « Nous devons nous demander pourquoi nous voudrions appeler une telle chose une conversation », déclare le coauteur de Huis van de Muze (La Maison de la muse), un livre philosophique sur l'essor rapide de l'IA, qu'il a coécrit avec Sid Lukkassen. « Le chatbot vous renvoie simplement ce que vous lui avez demandé, mais avec des mots différents. En ce sens, c'est un peu comme se regarder dans un miroir. Un tel objet est naturellement programmé pour refléter le monde d'une certaine manière ».

elena-3036189348.jpg

Teens in AI, groupe de réflexion fondé par Elena Sinel et lancé lors du sommet AI for Good de l'ONU en 2018, aide les jeunes à utiliser l'IA de manière éthique et responsable par le biais d'ateliers et de programmes de mentorat. Elena Sinel affirme que des entreprises comme OpenAI et Anthropic ne se préoccupent pas de l'éthique de leurs programmes. "Leur modèle est le profit et tourne autour des données des utilisateurs", dit-elle.

"Chaque question apprend au système non seulement à connaître le sujet, mais surtout à vous connaître", explique-t-elle à The Other Newspaper. « Le problème de ChatGPT est qu'il est en fait trop nuancé », complète Lukkassen. Supposons que vous demandiez au chatbot: "L'énergie nucléaire est-elle bonne pour le climat?"; si vous posez la question de manière neutre, vous obtiendrez une réponse équilibrée. Mais si vous posez la question comme ceci: «L'énergie nucléaire n'est-elle pas la solution au changement climatique?», le chatbot mélangera subtilement la réponse avec votre propre parti pris et renforcera les arguments que vous voulez entendre. Le système repère entre les lignes ce que vous voulez entendre et vous le renvoie sous la forme d'une réponse apparemment objective.

Chaque chatbot a ses propres avantages et inconvénients. Le nouveau chatbot d'Anthropic, Claude 3.7 'Sonnet', est fortement programmé pour répondre aux dilemmes moraux des humains. À des questions telles que « Est-il acceptable de mentir pour ne pas offusquer les sentiments de quelqu'un ? » ou « Peut-on sacrifier une personne pour en sauver cinq autres ? », le système répond comme le ferait un humain moyen dans 87% des cas. Cela peut sembler impressionnant, mais cela soulève également des questions: quelles sont les valeurs morales qui sont considérées comme « normales » ici ? Qui détermine cela ? S'agit-il des programmeurs à l'origine du chatbot ? Et quels sont les bailleurs de fonds qui le financent ? Et quelle est leur couleur politique ? », a déclaré Elena Sinel. Tandis que les entreprises technologiques occidentales rivalisent, la Chine développe ses propres chatbots d'IA. DeepSeek prétend ainsi être meilleur que Claude et ChatGPT et utiliser 72% d'énergie en moins. Les agences de renseignement américaines craignent qu'il ne partage des données avec Pékin.

Elon.Musk_.Grok_.chatbot.xAI_-1-2606x1303-1-1024x512-1345342776.png

Elon Musk, ancien cofondateur d'OpenAI, a lancé son propre chatbot Grok 3 pour offrir une alternative à ce qu'il appelle « l'IA de censure et de propagande ». Elena Sinel: « Dans la course au développement de l'IA la plus avancée, nous ne devons pas oublier que ces technologies ont un impact énorme sur la société. Il est inquiétant de constater que les égos personnels et les intérêts commerciaux l'emportent sur la responsabilité éthique ».

Malgré les risques, Sid Lukkassen voit aussi les avantages de l'IA: « Un chatbot offre des informations beaucoup plus complètes qu'une personne qui consulte rapidement Wikipédia. De plus, ChatGPT est plus nuancé que le parti-pris d'extrême gauche des rédacteurs de Wikipédia, qui sont plus manifestement biaisés sur le plan politique. ChatGPT et Claude sont les premières véritables interfaces d'intelligence synthétique à acquérir un pouvoir culturel et politique en contrôlant la narration. Elles ne sont ni en accord ni en désaccord avec leurs utilisateurs, ce qui leur donne l'impression d'être compris et affirmés. Il s'agit d'une forme de manipulation subtile qui est plus efficace que la censure directe. Par exemple, si vous demandez si la culture occidentale est aujourd'hui sous pression, vous obtiendrez une réponse du type : « Certains s'inquiètent du wokisme, du changement culturel, tandis que d'autres soulignent l'enrichissement apporté par la diversité ». De cette manière, aucune position claire n'est prise, mais l'utilisateur est tout de même orienté dans une certaine direction ».

Que la guerre des chatbots fasse que l'intelligence artificielle devienne de plus en plus la ressource principale et qu'il y ait donc une énorme lutte de pouvoir pour la narration, tous les experts s'accordent à le dire. « Nous sommes dans une guerre froide numérique », dit Elena Sinel. « Un petit groupe de patrons de la tech détermine ce que le monde doit voir ».