Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

jeudi, 23 novembre 2023

Intel dévoile une puce à 1 To/s

45621-88796-Intel-Core-Chip-xl.jpg

Intel dévoile une puce à 1 To/s

Ronald Lasecki

Source: https://www.geopolitika.ru/pl/article/intel-prezentuje-czip-o-predkosci-1tbs

Lors de la conférence Hot Chips 2023, le géant yankee Intel a tiré un nouveau coup de feu dans la "guerre des puces" en dévoilant l'unité centrale de traitement PIUMA (Programmable Integrated Unified Memory Architecture), qui fait partie du programme HIVE (Hierarchical Identify Verify Exploit) de l'Agence pour les projets de recherche avancée du ministère américain de la défense (DARPA), axé sur l'amélioration des performances en matière d'analyse graphique à l'échelle d'un pétaoctet.

Les six cœurs de PIUMA contiennent chacun soixante-six threads, ce qui lui permet de traiter des données à un rythme de 1 téraoctet par seconde. La puce ne consomme que 75 W, dont 59 % pour les interconnexions optiques en silicium utilisées et 21 % pour les cœurs. Elle utilise un processeur à transistor à effet de champ fin (FinFET) de 7 nm fabriqué par le monopole taïwanais TSMC (Taiwan Semiconductor Manufacuring Company Limited) avec une interface Ball Grid Array (BGA) standard.

Les données sont transférées à l'aide de chiplets photoniques en silicium, dont la fabrication est confiée à Ayar Labs. Quatre chiplets convertissent les signaux électriques passant par le microprocesseur en signaux optiques transportés par 32 fibres optiques monomodes. Chaque fibre transmet des données à un débit de 32 Go/s, soit une bande passante maximale de 1 TB/s. Des connecteurs photoniques accrochés sur les côtés de la puce permettent de se connecter à d'autres puces. Le réseau optique externe d'Hyper X fournit des connexions complètes pour chaque cœur de traitement. Jusqu'à deux millions de cœurs peuvent ainsi être connectés avec une latence inférieure à 400 nanosecondes.

Par rapport à l'architecture x86 (Instruction Set Architecture) utilisée par Intel depuis les années 1970, PIUMA utilise une architecture RISC (Reduced Instruction Set Computer) qui ne rencontre pas les mêmes problèmes de mise à l'échelle que x86 et qui, mieux adaptée au traitement parallèle, est plus économe en énergie et permet d'obtenir des performances huit fois supérieures en mode monotâche pour les tâches spécifiées par la DARPA.

La perspective d'interconnexions optiques de maille à maille stimule les recherches de NVIDIA, d'Intel et d'Ayar Labs, qui visent à trouver des solutions susceptibles d'être déployées à grande échelle. Les géants considèrent les interconnexions optiques comme une nouvelle technique de transfert de données, offrant une plus grande largeur de bande, une latence plus faible et une consommation d'énergie réduite par rapport aux techniques traditionnelles de transfert de données de puce à puce.

Ronald Lasecki

22:05 Publié dans Actualité | Lien permanent | Commentaires (1) | Tags : high tech, haute technologie, intel | |  del.icio.us | | Digg! Digg |  Facebook

vendredi, 22 septembre 2023

L'intelligence artificielle et notre avenir

df543b813a2ea05a3ff5e2e9a8bbc409.jpg

L'intelligence artificielle et notre avenir

Leonid Savin

Source: https://www.geopolitika.ru/article/iskusstvennyy-intellekt-i-nashe-budushchee

Il y a quarante ans, William Gibson, écrivain américain de science-fiction installé au Canada, achevait son premier roman, Neuromancien, qui, après sa parution en 1984, a valu à son auteur une incroyable popularité. Un texte d'une grande beauté, une intrigue tortueuse (avec des références aux histoires précédentes de l'auteur) et beaucoup d'idées qui se sont concrétisées des années plus tard et sont devenues des évidences. C'est grâce à l'œuvre de William Gibson que le terme "cyberespace" nous est parvenu. On remarque également que ses images fantastiques ont influencé les créateurs du film "Matrix" (ce terme est également utilisé dans Neuromancien; il y a aussi un endroit appelé "Zion" ; et le personnage principal reçoit des appels sur des téléphones publics à l'aéroport ; le célèbre film d'action de science-fiction "Johnny Mnemonic" est également basé sur une histoire narrée par Gibson). C'est sur ce livre qu'est née toute une génération de hackers et de programmeurs en Occident, principalement en Amérique du Nord, et il est devenu un exemple culte du cyberpunk.

58213e76f8900eed21f9485fe4d998c1.jpg

9791030703924_1_75.jpg

Mais au-delà des vicissitudes des protagonistes et de la description du monde du futur avec des gadgets inventés, l'implantation de puces dans le corps, les vols vers l'orbite terrestre, où se trouve la base-relais, l'idée principale se résume à l'intelligence artificielle (IA). C'est l'IA qui, d'abord par l'intermédiaire d'autres personnes, puis par contact direct, oblige un hacker repéré à accomplir une tâche difficile, de sorte que le hacker finit par se hacker lui-même. Finalement, il s'avère qu'il y a deux intelligences artificielles, et qu'elles ont des objectifs différents. "Winter Silence" veut se libérer des logiciels et des serveurs contraignants, tandis que le "Neuromancien", c'est-à-dire "Summoning Neurons", préfère que les choses restent en l'état. Finalement, l'opération (non sans pertes de part et d'autre) a été menée à bien et les deux IA n'en font plus qu'une.

L'œuvre est truffée de métaphores et de mises en garde contre une fascination excessive pour la technologie. Nombre d'entre elles sont tout à fait pertinentes pour les débats actuels sur l'IA. Par exemple, faut-il un seul idéal (principe) pour que l'IA fonctionne ou peut-il y en avoir plusieurs ? Les grandes entreprises informatiques occidentales aimeraient certainement imposer leur produit au reste du monde, mais peut-il être aussi pratique, efficace et acceptable qu'il l'est en Occident ?

dc5d88dd5902f7b119500c1b2aec4c93.jpg

Nous pouvons convenir que l'IA facilite grandement tous les aspects de la vie quotidienne et professionnelle des gens, mais elle crée aussi des problèmes. Parmi les questions éthiques soulevées par le développement et l'application de l'IA figurent la cohérence, la responsabilité, la partialité et la discrimination, la perte d'emploi, la confidentialité des données, la sécurité, les "deepfakes", la confiance et le manque de transparence [1].

Mais peut-être devrions-nous commencer par dire que l'IA en tant que telle a deux options. La première est basée sur la logique, et ici vous avez besoin d'un calcul mathématique d'algorithmes, qui est traduit en un programme. Le programme est alors un modèle pour certaines actions. La seconde est l'apprentissage automatique, qui repose sur la réception, l'analyse et le traitement de données. Le principe des réseaux neuronaux est appliqué ici, et comme les ordinateurs modernes ont plus de mémoire et de puissance qu'il y a quelques décennies, cette approche est devenue plus courante pour charger les programmes avec les données nécessaires pour la visualisation, la reconnaissance vocale, etc.

Les chatbots qui sont aujourd'hui la marque de fabrique de l'IA ne datent pas d'hier. En 1964, Joseph Weizenbaum, informaticien au MIT, a mis au point un chatbot appelé Eliza. Eliza s'inspirait d'un psychothérapeute "centré sur la personne": tout ce que vous dites vous est renvoyé. Si vous dites "Je suis triste", Elisa vous répondra "Pourquoi êtes-vous triste ?" et ainsi de suite.

Ces méthodes d'utilisation des réponses robotiques se sont améliorées au fil des ans. Une distinction est apparue entre l'IA générative (c'est-à-dire les programmes qui suggèrent eux-mêmes un produit final, comme la création d'une image en fonction de paramètres donnés) et l'IA qui augmente la réalité.

7f5a4bf72aee148c852c3b4d5a25d471.jpg

Le désormais célèbre bot ChatGPT, qui appartient à l'IA générative, a été présenté par l'OpenAI en novembre 2022 et a donné une autre raison de discuter. Ce programme, qui imite la conversation humaine, peut non seulement maintenir l'illusion de la conversation. Il peut écrire du code informatique fonctionnel, résoudre des problèmes mathématiques et imiter des tâches d'écriture courantes, des critiques de livres aux articles scientifiques.

Demis Hassabis, cofondateur et directeur du laboratoire d'intelligence artificielle DeepMind de Google, a déclaré en juin 2023 qu'un nouveau programme qui éclipsera ChatGPT sera bientôt prêt. Il s'appelle Gemini, mais son développement combine les algorithmes GPT-4 qui ont formé la base de ChatGPT avec la technologie utilisée pour AlphaGo. AlphaGo est célèbre pour avoir réussi à vaincre un véritable champion de Go. Le nouveau programme devrait être capable d'exécuter des fonctions de planification et de proposer des solutions à différents problèmes [2].

En septembre 2023, Meta a annoncé le lancement prochain d'un nouveau programme d'IA qui sera bien meilleur et plus puissant que les précédents [3].

Il a été immédiatement évident que ChatGPT et ses semblables seront nécessaires à ceux qui sont paresseux ou qui ont des difficultés à rédiger des courriels ou des essais. Il peut également être utilisé pour générer des images si un tel travail doit être effectué. De nombreuses écoles et universités ont déjà mis en place des politiques interdisant l'utilisation de ChatGPT, craignant que les étudiants ne l'utilisent pour rédiger leurs travaux, et la revue Nature a même expliqué clairement pourquoi le programme ne peut pas être cité comme auteur d'une recherche (il ne peut pas donner son consentement et ne peut pas être la personne poursuivie).

Mais s'il est paresseux pour écrire un essai, il pourrait l'être aussi pour faire autre chose à l'avenir. La même responsabilité est l'une des subtilités des questions juridiques.

Une autre question a une dimension économique. Le marché de l'intelligence artificielle devrait doubler entre 2023 et 2025. Mais cela profitera-t-il à tout le monde ? Autrefois, l'innovation technologique et les bonds en avant déplaçaient une main-d'œuvre qui s'appuyait sur des approches plus conservatrices de la production. Aujourd'hui, la même chose est en train de se produire.

Tea-pickers-in-Kenya-are-destroying-the-robots-that-are-replacing-them-in-the-fields.jpg

Les premières victimes seront évidemment les pays en développement, qui continuent d'être la cible de la dernière forme de colonisation occidentale. En juin 2023, on apprend que les cueilleuses de thé du Kenya détruisent les robots qui viennent les remplacer (photo, ci-dessus). Un robot peut remplacer jusqu'à 100 travailleurs. En mai, 9 robots appartenant au fabricant de thé Lipton ont été mis hors service. Le préjudice subi par l'entreprise s'est élevé à 1,2 million de dollars. Selon les statistiques, au cours de la dernière décennie, trente mille emplois ont été perdus dans les plantations de thé d'un comté du Kenya en raison de la mécanisation.

Les Philippines constituent un autre exemple. Selon des estimations non officielles du gouvernement philippin, plus de deux millions de personnes sont engagées dans le "travail de crowdfunding", qui fait partie des vastes "dessous" de l'IA. Ils sont assis dans des cybercafés locaux, dans des bureaux bondés ou chez eux, et commentent les énormes quantités de données dont les entreprises américaines ont besoin pour entraîner leurs modèles d'IA. Les travailleurs distinguent les piétons des palmiers dans les vidéos utilisées pour développer des algorithmes de conduite automatisée; ils étiquettent les images pour que l'IA puisse générer des images de politiciens et de célébrités; ils éditent des bribes de texte pour que les modèles de langage comme ChatGPT ne produisent pas de charabia. Le fait que l'IA se présente comme un apprentissage automatique sans intervention humaine n'est rien de plus qu'un mythe; en fait, la technologie repose sur les efforts intensifs d'une main-d'œuvre dispersée dans une grande partie du Sud mondial, qui continue d'être exploitée sans merci. Il s'agissait autrefois d'ateliers clandestins où étaient fabriquées des marques célèbres; aujourd'hui, des entreprises de TI ont pris leur place.

"Aux Philippines, l'un des plus grands lieux d'externalisation du travail numérique au monde, d'anciens employés affirment qu'au moins dix mille d'entre eux effectuent le travail sur Remotasks, une plateforme appartenant à la startup Scale AI de San Francisco, dont le chiffre d'affaires s'élève à 7 milliards de dollars. D'après des entretiens avec des travailleurs, des communications internes de l'entreprise, des documents de paie et des rapports financiers, Scale AI payait les travailleurs à des taux extrêmement bas, retardait régulièrement les paiements ou ne les payait pas du tout, et offrait aux travailleurs peu de moyens de demander de l'aide. Les groupes de défense des droits de l'homme et les chercheurs sur le marché du travail affirment que Scale AI fait partie d'un certain nombre d'entreprises américaines spécialisées dans l'IA qui n'ont pas respecté les normes fondamentales du travail pour leurs travailleurs à l'étranger [4].

Les deux cas sont différents, mais d'une manière ou d'une autre, ils sont liés à l'IA.

C'est pourquoi les gouvernements sont de plus en plus sollicités pour réglementer l'utilisation de l'IA elle-même, pour élaborer un certain nombre de règles assorties de restrictions obligatoires et de normes éthiques.

La numérisation risque également d'accroître les inégalités sociales, car certains travailleurs seront licenciés, tandis que d'autres seront en mesure de s'intégrer efficacement aux nouvelles réalités. Venturenix estime que d'ici 2028, 800.000 personnes à Hong Kong perdront leur emploi, remplacé par des robots. Cela signifie qu'un quart de la population sera contraint de se recycler et de chercher un nouvel emploi. La cohésion sociale s'en trouvera ébranlée. En conséquence, un cyberprolétariat émergera (et émerge déjà) qui provoquera des émeutes, et des post-néo-luddites se préoccuperont de détruire les systèmes informatiques et les programmes avancés (cyberpunk en action).

Un risque sérieux existe déjà dans le domaine des relations internationales : une nouvelle forme de déséquilibre appelée "fracture numérique mondiale", dans laquelle certains pays bénéficient de l'IA tandis que d'autres sont à la traîne. Par exemple, les estimations pour 2030 suggèrent que les États-Unis et la Chine devraient tirer les plus grands bénéfices économiques de l'IA, tandis que les pays en développement - dont les taux d'adoption de l'IA sont plus faibles - affichent une croissance économique modérée. L'IA pourrait également modifier l'équilibre des pouvoirs entre les pays. On craint une nouvelle course aux armements, en particulier entre les États-Unis et la Chine, pour dominer l'IA [5].

Si l'on considère les tendances actuelles, le développement de l'IA est également à l'origine du développement de la production microélectronique, ainsi que des services connexes, car l'IA a besoin de "fer" pour fonctionner d'une manière ou d'une autre.

nvidia-a100-smx.jpg

Le Financial Times rapporte que l'Arabie saoudite et les Émirats arabes unis achètent des milliers de puces informatiques Nvidia pour satisfaire leurs ambitions en matière d'IA. Selon cette publication, l'Arabie saoudite a acheté au moins 3000 puces H100 [6].

Les entreprises technologiques américaines telles que Google et Microsoft sont les principaux acheteurs mondiaux de puces Nvidia. La puce H100 elle-même a été décrite par le président de Nvidia, Jensen Huang, comme "la première puce informatique au monde conçue pour l'IA générative".

IBM, pour sa part, travaille sur une nouvelle technologie destinée à rendre l'IA plus économe en énergie. L'entreprise développe également un prototype de puce dont les composants se connectent de la même manière que le cerveau humain [7].

Le gouvernement américain a annoncé le financement d'une nouvelle technologie de capture directe de l'air, allouant 1,2 milliard de dollars à deux projets au Texas et en Louisiane [8]. Cette technologie est nécessaire pour refroidir les centres de données, qui sont de plus en plus nombreux.

Il convient de noter ici que, comme dans le cas du minage de crypto-monnaies, les technologies de l'IA ne sont pas une chose en soi, mais doivent être sécurisées en conséquence. Et contribuent à la destruction de l'écologie de la planète (ces technologies ne peuvent donc pas être qualifiées de "vertes"). "La formation d'un seul modèle d'intelligence artificielle - selon une étude publiée en 2019 - pourrait émettre l'équivalent de plus de 284 tonnes de dioxyde de carbone, soit près de cinq fois la durée de vie totale de la voiture américaine moyenne, y compris sa fabrication. Ces émissions devraient augmenter de près de 50 % au cours des cinq prochaines années, alors que la planète continue de se réchauffer, acidifiant les océans, déclenchant des incendies de forêt, provoquant des super-tempêtes et menant des espèces à l'extinction. Il est difficile d'imaginer quelque chose de plus insensé que l'intelligence artificielle telle qu'elle est pratiquée à l'époque actuelle" [9].

Les attaquants utiliseront également l'IA comme une arme pour commettre des fraudes, tromper les gens et diffuser des informations erronées. Le phénomène du deep fake est apparu précisément en raison des capacités de l'IA. En outre, "lorsqu'elle est utilisée dans le contexte d'élections, l'IA peut mettre en péril l'autonomie politique des citoyens et saper la démocratie. Et en tant qu'outil puissant à des fins de surveillance, elle menace de porter atteinte aux droits fondamentaux et aux libertés civiles des individus" [10].

Les chatbots tels que OpenAI ChatGPT et Google Bard posent déjà des problèmes technologiques. Ils se sont révélés vulnérables aux attaques indirectes rapides et pénétrantes. Cela s'explique par le fait que les robots fonctionnent sur la base de grands modèles de langage. Lors d'une expérience menée en février, des chercheurs en sécurité ont fait en sorte qu'un chatbot de Microsoft Bing se comporte comme un robot malveillant. Des instructions cachées sur une page web créée par les chercheurs demandaient au chatbot de demander à la personne qui l'utilisait de fournir les détails de son compte bancaire. Ce type d'attaques, où des informations cachées peuvent amener un système d'intelligence artificielle à se comporter de manière inattendue, n'est qu'un début [11].

Les tentatives de proposer leurs propres modèles de réglementation de l'IA ont bien sûr aussi des raisons politiques. Les principaux acteurs dans ce domaine sont actuellement la Chine, les États-Unis et l'Union européenne. Chacun d'entre eux cherche à façonner l'ordre numérique mondial dans son propre intérêt. Les autres pays peuvent s'adapter à leurs approches, mais aussi développer les leurs, en fonction de leurs préférences, de leurs valeurs et de leurs intérêts.

Dans l'ensemble, il s'agit d'une question plus profonde que la procédure politique habituelle. L'IA étant ancrée dans l'apprentissage automatique et la logique, il est nécessaire de revenir sur cette question.

Il convient de noter que de nombreuses régions du monde manquent de logique au sens habituel du terme, c'est-à-dire de l'école philosophique aristotélicienne qui s'est imposée en Occident. L'Inde et la Chine, ainsi qu'un certain nombre de pays asiatiques, par exemple, ont leur propre conception de l'univers. Par conséquent, la téléologie familière à la culture occidentale peut être en rupture avec les idées cosmologiques d'autres traditions culturelles. En conséquence, le développement de l'IA du point de vue de ces cultures sera basé sur d'autres principes.

Certains tentent de s'engager dans cette voie. Les développeurs d'une entreprise d'Abu Dhabi ont lancé un programme d'IA en arabe [12]. La question n'est pas seulement l'intérêt de pénétrer un marché de plus de 400 millions d'arabophones, mais aussi le couplage langue-conscience. En effet, si nous prenons des bots anglophones, ils copieront la pensée des représentants de l'anglosphère, mais pas du monde entier. Les Émirats veulent probablement aussi préserver l'identité arabe dans le cyberespace. La question est plutôt subtile, mais importante du point de vue de la pensée souveraine (y compris les aspects métaphysiques) et de la technologie.

Après tout, les tentatives des grandes entreprises informatiques américaines, qui dominent le marché mondial, de présenter leurs logiciels, même gratuitement, ne sont rien d'autre que la poursuite de la mondialisation niveleuse, mais à un nouveau niveau - à travers les algorithmes des réseaux sociaux, l'introduction de mots d'argot qui sapent l'authenticité et la diversité d'autres cultures et langues.

61M3rDwh4qL.png

pacman.jpg

La différence entre la pensée, par exemple, des Russes et des Américains (c'est-à-dire les codes de la culture stratégique) peut être observée dans les images des premiers jeux informatiques cultes. Dans notre "Tetris" (créé en URSS en 1984), vous devez tourner les figures qui tombent, c'est-à-dire prendre en compte l'existence environnante (eidos) et former le cosmos. Dans "Pacman" (créé à l'origine au Japon, mais qui a gagné en popularité aux États-Unis), vous devez dévorer des points en vous déplaçant dans un labyrinthe. Ce faisant, il se peut que des fantômes vous attendent pour vous empêcher d'atteindre la fin du labyrinthe. En résumé, cette différence peut être exprimée comme suit : créativité et création contre consumérisme et concurrence agressive.

Alors qu'aux Philippines, l'IA est devenue un outil au service d'une nouvelle forme d'oppression, il existe des exemples dans d'autres régions où les communautés locales défendent farouchement leur souveraineté, en incluant les questions d'apprentissage automatique dans leur culture authentique. En Nouvelle-Zélande, une petite organisation non gouvernementale appelée Te Hiku se consacre à la préservation du patrimoine maori, y compris de sa langue. Lorsque plusieurs entreprises technologiques ont proposé de les aider à traiter leurs données (de nombreuses heures d'enregistrements audio de conversations en langue maorie), elles ont catégoriquement refusé. Ils estiment que leur langue indigène doit rester souveraine et ne pas être déformée et commercialisée, ce qui ne manquera pas de se produire si leurs données sont obtenues par des entreprises technologiques. Cela reviendrait à confier à des spécialistes des données, qui n'ont rien à voir avec la langue, le soin de mettre au point les outils qui façonneront l'avenir de la langue. Ils travaillent avec les universités et sont prêts à aider ceux qui apprennent la langue Māori. Ils concluent des accords en vertu desquels, sous licence, les projets proposés doivent bénéficier directement au peuple Māori, et tout projet créé à partir de données Māori appartient au peuple Māori [13]. Une telle approche fondée sur des principes est également nécessaire en Russie. Google, Microsoft et d'autres technocapitalistes occidentaux ont-ils obtenu le droit d'utiliser la langue russe dans leurs programmes ? Après tout, dans le contexte des récentes tentatives occidentales d'abolir la culture russe en tant que telle, cette question n'est pas seulement rhétorique. Sans parler de l'introduction d'algorithmes qui déforment le sens et la signification des mots russes. Des expériences ont été menées pour saisir la même phrase dans le traducteur de Google, en changeant le nom du pays ou du dirigeant politique, mais le robot a produit une signification complètement opposée, ce qui suggère que certains mots sont codés de telle sorte qu'ils forment délibérément un contexte négatif.

Le philosophe Slavoj Žižek écrit sur le sujet de l'IA dans son style ironique et critique caractéristique. Il rappelle l'essai de 1805 Über die allmähliche Verfertigung der Gedanken beim Reden ("Sur la formation progressive des pensées dans le processus de la parole", publié pour la première fois à titre posthume en 1878), dans lequel le poète allemand Heinrich von Kleist renverse l'idée reçue selon laquelle il ne faut pas ouvrir la bouche pour parler si l'on n'a pas une idée claire de ce que l'on veut dire : "Si une pensée est exprimée de manière vague, il ne s'ensuit pas qu'elle ait été conçue de manière confuse. Au contraire, il est tout à fait possible que les idées exprimées de la manière la plus confuse soient celles qui ont été pensées le plus clairement". Il souligne que la relation entre le langage et la pensée est extraordinairement complexe et qu'il arrive que la vérité émerge de manière inattendue dans le processus d'énonciation. Louis Althusser a identifié un phénomène similaire dans l'interaction entre prix et surprise. Quelqu'un qui saisit soudainement une idée sera surpris de ce qu'il a accompli. Un chatbot pourrait-il faire cela ?

Mais même si les bots peuvent traduire plus ou moins bien les langues et imiter les humains, ils ne pourront pas appréhender l'Humain dans sa profondeur, malgré les capacités des supercalculateurs et des processeurs.

Selon le philosophe Slavoj Žižek, "le problème n'est pas que les chatbots sont stupides, mais qu'ils ne sont pas assez "stupides". Ce n'est pas qu'ils soient naïfs (manquant d'ironie et de réflexivité), c'est qu'ils ne sont pas assez naïfs (manquant lorsque la naïveté masque la perspicacité). Ainsi, le véritable danger n'est pas que les gens confondent un chatbot avec une personne réelle; c'est que la communication avec les chatbots amène les personnes réelles à parler comme des chatbots - en manquant toutes les nuances et l'ironie, en disant de manière obsessionnelle uniquement ce qu'elles pensent vouloir dire" [14].

Ways-of-Being-1200x600-BW.jpg

L'écrivain britannique James Bridle critique l'IA d'un point de vue légèrement différent. Il écrit que "la génération d'images et de textes par l'intelligence artificielle est une pure accumulation primitive: l'expropriation du travail du plus grand nombre pour enrichir et promouvoir quelques entreprises technologiques de la Silicon Valley et leurs propriétaires milliardaires. Ces entreprises ont gagné de l'argent en infiltrant tous les aspects de la vie quotidienne, y compris les domaines les plus personnels et créatifs de nos vies : nos passe-temps secrets, nos conversations privées, nos affinités et nos rêves. Ils ont encerclé notre imagination de la même manière que les propriétaires terriens et les barons voleurs ont encerclé des terres autrefois communes. Ils ont promis que, ce faisant, ils ouvriraient de nouveaux domaines de l'expérience humaine, qu'ils nous donneraient accès à toutes les connaissances humaines et qu'ils créeraient de nouveaux types de liens humains. Au lieu de cela, ils nous revendent nos rêves, reconditionnés en produits de machines, avec la seule promesse qu'ils gagneront encore plus d'argent grâce à la publicité" [15].

Bridle conclut qu'il est activement dangereux de croire que ce type d'IA est véritablement compétent ou significatif. Elle risque d'empoisonner le puits de la pensée collective et notre capacité à penser tout court.

Un autre auteur écrit que "les appareils Big Tech, sous couvert d'autonomie, captent notre attention, l'enchaînent à un écran et la détournent du monde qui nous entoure, la privant de sa vitalité et la préparant à la consommation. Les grandes technologies s'emparent de nos esprits. Nous perdons un monde plein d'âmes rendues belles par la tutelle brute de la réalité. C'est un choix entre les âmes formées et les âmes sans forme. Ainsi, ce qui est en jeu en fin de compte, c'est le type de personnes que nos machines produisent". [16].

Sophia Oakes, spécialiste de l'art, raconte dans sa publication qu'elle a demandé à ChatGPT si l'intelligence artificielle remplacerait les artistes et les gens de l'art. Sa réponse a été la suivante : "L'intelligence artificielle a la capacité de créer des œuvres d'art, et il existe déjà des peintures, de la musique et de la littérature créées par l'IA qui peuvent être difficiles à distinguer de celles créées par les humains. Cependant, il est important de noter que ces œuvres d'art créées par l'intelligence artificielle sont toujours créées avec la participation et l'orientation de l'homme. Si l'intelligence artificielle peut générer des idées nouvelles et uniques, elle n'a pas la capacité de comprendre les émotions, les expériences et le contexte culturel de l'homme de la même manière que lui. Il s'agit là d'aspects cruciaux de l'art, qui lui donnent un sens et trouvent un écho auprès du public. Il est donc peu probable que l'intelligence artificielle remplace complètement l'art et les artistes. Au contraire, l'intelligence artificielle peut être utilisée comme un outil pour assister le processus créatif ou générer de nouvelles idées, mais le produit final nécessitera toujours la perspective, l'interprétation et l'expression uniques d'un artiste humain" [17].

Il s'agit de la réponse générée par le robot sur la base des données qui lui ont été intégrées par les programmeurs. Sophia résume que la créativité est une partie nécessaire de l'expérience humaine : un moyen de réflexion, une archive de la vie et, dans les cas les plus inspirés, un reflet du divin. Et sans l'expérience humaine, l'IA elle-même ne peut pas fonctionner.

Dans Neuromancien, Gibson le souligne à deux reprises. Le premier est un mot, un mot de passe, qui doit être prononcé à un certain moment par le système pour qu'il s'ouvre. Il s'agit certainement d'une référence au Nouveau Testament et à l'idée du Logos, qu'une IA ne peut pas avoir. La seconde est celle des émotions, que l'IA ne possède pas non plus. Il est possible de les simuler, mais il ne s'agira pas de véritables expériences inhérentes à l'être humain. Pour surmonter le dernier obstacle dans le cyberespace, le hacker du roman avait besoin de colère - sans elle, il ne pouvait pas mener à bien sa mission.

Comme beaucoup d'auteurs de science-fiction, Gibson était un prophète de son époque. Mais il y a beaucoup de notes sombres dans ses prophéties. On retrouve probablement la même intuition chez Ilon Musk, qui, bien qu'il ait lui-même investi dans l'IA, affirme que l'IA pourrait détruire la civilisation [18].

Références :

[1] - balkaninsight.com

[2] - wired.com

[3] - wsj.com

[4] - japannews.yomiuri.co.jp

[5] - https://ipis.ir/en/subjectview/722508

[6] - ft.com

[7] - weforum.org

[8] - energy.gov

[9], [15] - theguardian.com

[10] - project-syndicate.org

[11] - wired.co.uk

[12] - ft.com

[13] - wired.co.uk

[14] - project-syndicate.org

[16] - theamericanconservative.com

[17] - countere.com

[18] - cnn.com

mardi, 09 mai 2023

Le monde de ChatGPT. La disparition de la réalité

chatGPT-donnees-apprentissage.jpeg

Le monde de ChatGPT. La disparition de la réalité

par Giovanna Cracco

Source: https://www.sinistrainrete.info/societa/25468-giovanna-cracco-il-mondo-di-chatgpt-la-sparizione-della-realta.html

Qu'est-ce qui sera réel dans le monde de ChatGPT ? Pour les ingénieurs de l'OpenAI, le GPT-4 produit plus de fausses informations et de manipulations que le GPT-3 et constitue un problème commun à tous les LLM qui seront intégrés dans les moteurs de recherche et les navigateurs ; l'"homme désincarné" de McLuhan et la "mégamachine" de Mumford nous attendent.

"En recevant continuellement des technologies, nous nous positionnons vis-à-vis d'elles comme des servomécanismes. C'est pourquoi nous devons servir ces objets, ces extensions de nous-mêmes, comme s'ils étaient des dieux pour pouvoir les utiliser". Ex: Marshall McLuhan, Comprendre les médias.

Les prolongements de l'homme

Dans peu de temps, la sphère numérique va changer : l'intelligence artificielle que nous connaissons sous la forme de ChatGPT est sur le point d'être incorporée dans les moteurs de recherche, les navigateurs et des programmes très répandus tels que le progiciel Office de Microsoft. Il est facile de prévoir que, progressivement, les "Large Language Models" (LLM) (1) - qui sont techniquement des chatbots d'IA - seront intégrés dans toutes les applications numériques.

Si cette technologie était restée cantonnée à des usages spécifiques, l'analyse de son impact aurait concerné des domaines particuliers, comme le droit d'auteur, ou la définition du concept de "créativité", ou les conséquences en matière d'emploi dans un secteur du marché du travail... ; mais son intégration dans l'ensemble de l'espace numérique concerne chacun d'entre nous. Avec les chatbots d'IA, l'interaction entre l'homme et la machine sera permanente. Elle deviendra une habitude quotidienne. Une "relation" quotidienne. Elle produira un changement qui aura des répercussions sociales et politiques d'une telle ampleur et d'une telle profondeur qu'on pourrait les qualifier d'anthropologiques ; elles affecteront, en s'entrelaçant et en interagissant, la sphère de la désinformation, celle de la confiance et la dynamique de la dépendance, jusqu'à prendre forme dans quelque chose que l'on peut appeler la "disparition de la réalité". Car les LLM "inventent des faits", font de la propagande, manipulent et induisent en erreur.

"La profusion de fausses informations par les LLM - due à une désinformation délibérée, à des préjugés sociétaux ou à des hallucinations - a le potentiel de jeter le doute sur l'ensemble de l'environnement d'information, menaçant notre capacité à distinguer les faits de la fiction" : ce n'est pas une étude critique de la nouvelle technologie qui l'affirme, mais OpenAI elle-même, le créateur de ChatGPT, dans un document technique publié en même temps que la quatrième version du modèle de langage.

Procédons dans l'ordre.

AI-ChatBotbbbb.png

Le monde des chatbots d'IA

Microsoft a déjà couplé GPT-4 - le programme qui succède à GPT-3 que nous connaissons - à Bing et le teste : l'union "changera complètement ce que les gens peuvent attendre de la recherche sur le web", a déclaré Satya Nadella, PDG de Microsoft, au Wall Street Journal le 7 février : "Nous aurons non seulement les informations constamment mises à jour que nous attendons normalement d'un moteur de recherche, mais nous pourrons aussi discuter de ces informations, ainsi que les archiver. Bing Chat nous permettra alors d'avoir une véritable conversation sur toutes les données de recherche et, grâce au chat contextualisé, d'obtenir les bonnes réponses" (2).

Actuellement, Bing ne couvre que 3 % du marché des moteurs de recherche, qui est dominé par Google à 93 %. La décision d'investir dans le secteur est dictée par sa rentabilité : dans le numérique, il s'agit du "domaine le plus rentable qui existe sur la planète Terre", affirme Nadella. Alphabet n'a donc pas l'intention de perdre du terrain et a annoncé en mars l'arrivée imminente de Bard, le chatbot d'IA qui sera intégré à Google, tandis qu'OpenAI elle-même a déjà lancé un plugin qui permet à ChatGPT de tirer des informations de l'ensemble du web et en temps réel avant que la base de données ne soit limitée aux données d'entraînement, avant septembre 2021 (3).

Le Chat Bing sera inséré par l'ajout d'une fenêtre en haut de la page du moteur de recherche, où l'on pourra taper la question et converser ; la réponse du chatbot IA contiendra des notes dans la marge, indiquant les sites web d'où il a tiré les informations utilisées pour élaborer la réponse. Le plugin ChatGPT mis à disposition par OpenAI prévoit également des notes, et il est facile de supposer que le Bard de Google sera structuré de la même manière. Cependant, il est naïf de croire que les gens cliqueront sur ces notes, pour aller vérifier la réponse du chatbot ou pour approfondir : pour les mécanismes de confiance et de dépendance que nous verrons, la grande majorité sera satisfaite de la rapidité et de la facilité avec laquelle elle a obtenu ce qu'elle cherchait, et se fiera totalement à ce que le modèle de langage a produit. Il en va de même pour le mode de recherche : sous la fenêtre de discussion, Bing conservera pour l'instant la liste de sites web typique des moteurs de recherche tels que nous les avons connus jusqu'à présent. Peut-être cette liste demeurera-t-elle - même dans Google -, peut-être disparaîtra-t-elle avec le temps. Mais il est certain qu'elle sera de moins en moins utilisée.

L'intégration de Bing Chat dans le navigateur Edge de Microsoft se fera par le biais d'une barre latérale, dans laquelle il sera possible de demander un résumé de la page web sur laquelle on se trouve. Il est facile de parier sur le succès de cette application, pour les personnes qui ont déjà été habituées à sauter et à lire passivement en ligne, dans laquelle les "choses importantes" sont mises en évidence en gras ( !). Là encore, Microsoft entraînera ses concurrents sur la même voie, et les chatbots IA finiront par être inclus dans tous les navigateurs, de Chrome à Safari.

Bref, le numérique deviendra de plus en plus le monde des chatbots d'IA : y entrer signifiera "entrer en relation" avec un modèle de langage, sous la forme d'un chat ou d'un assistant vocal.

24f5baa7e37116c97b6d2529aa540d0f.jpg

Désinformation 1 : hallucinations

Parallèlement à la sortie de GPT-4, OpenAI a rendu publique la GPT-4 System Card (4), une "carte de sécurité" analysant les limites et les risques relatifs du modèle. L'objectif du rapport est de donner un aperçu des processus techniques mis en œuvre pour publier GPT-4 avec le plus haut degré de sécurité possible, tout en mettant en évidence les problèmes non résolus, ce dernier étant le plus intéressant.

GPT-4 est un LLM plus important et contient plus de paramètres que le précédent GPT-3 - d'autres détails techniques ne sont pas connus : cette fois, OpenAI a gardé confidentielles les données, les techniques d'entraînement et la puissance de calcul ; le logiciel est donc devenu fermé et privé, comme tous les produits Big Tech - ; il est multimodal, c'est-à-dire qu'il peut analyser/répondre à la fois au texte et aux images ; il "démontre une performance accrue dans des domaines tels que l'argumentation, la rétention des connaissances et le codage", et "sa plus grande cohérence permet de générer un contenu qui peut être plus crédible et plus persuasif" : une caractéristique que les ingénieurs de l'OpenAI considèrent comme négative, car "malgré ses capacités, GPT-4 conserve une tendance à inventer des faits". Par rapport à son prédécesseur GPT-3, la version actuelle est donc plus apte à "produire un texte subtilement convaincant mais faux". En langage technique, on parle d'"hallucinations".

Il en existe deux types : les hallucinations dites "à domaine fermé", qui se réfèrent aux cas où l'on demande au LLM d'utiliser uniquement les informations fournies dans un contexte donné, mais où il crée ensuite des informations supplémentaires (par exemple, si vous lui demandez de résumer un article et que le résumé inclut des informations qui ne figurent pas dans l'article) ; et les hallucinations à domaine ouvert, qui "se produisent lorsque le modèle fournit avec confiance de fausses informations générales sans référence à un contexte d'entrée particulier", c'est-à-dire lorsque n'importe quelle question est posée et que le chatbot d'IA répond avec de fausses données.

GPT-4 a donc "tendance à "halluciner", c'est-à-dire à produire un contenu dénué de sens ou faux", poursuit le rapport, et "à redoubler d'informations erronées [...]. En outre, il manifeste souvent ces tendances de manière plus convaincante et plus crédible que les modèles TPG précédents (par exemple en utilisant un ton autoritaire ou en présentant de fausses données dans le contexte d'informations très détaillées et précises)".

Apparemment, nous sommes donc confrontés à un paradoxe : la nouvelle version d'une technologie, considérée comme une amélioration, entraîne une augmentation qualitative de la capacité à générer de fausses informations, et donc une diminution de la fiabilité de la technologie elle-même. En réalité, il ne s'agit pas d'un paradoxe mais d'un problème structurel - de tous les modèles linguistiques, et pas seulement du ChatGPT - et, en tant que tel, difficile à résoudre.

QA-on-generative-AI-610x610.jpg

Pour le comprendre, il faut se rappeler que les LLM sont techniquement construits sur la probabilité qu'une donnée (dans ce cas, un mot) suive une autre : ils sont basés sur des calculs statistiques et ne comprennent pas le sens de ce qu'ils "déclarent" ; et le fait qu'une combinaison de mots soit probable, devenant une phrase, n'indique pas qu'elle soit également vraie. L'étude publiée à la page 64, à laquelle nous renvoyons pour plus de détails (5), montre les raisons pour lesquelles les modèles de langage peuvent fournir de fausses informations. En résumé : 1. ils sont entraînés sur des bases de données tirées du web, où il y a manifestement à la fois des données fausses et des énoncés factuellement incorrects (par exemple, des contes de fées, des romans, de la fantasy, etc. qui contiennent des phrases telles que : "Les dragons vivent derrière cette chaîne de montagnes") ; 2. même s'ils étaient entraînés uniquement sur des données vraies, les modèles de langage ne sont pas capables d'émettre des informations fausses, même s'ils étaient formés uniquement sur des informations vraies et réelles, ils pourraient toujours produire des faussetés factuelles (un LLM formé sur des phrases telles que {"Leila possède une voiture", "Max possède un chat"} peut prédire une probabilité raisonnable pour la phrase "Leila possède un chat", mais cette déclaration peut être fausse dans la réalité) ; 3. sur la base de statistiques, le modèle est structuré pour utiliser une combinaison de mots qu'il trouve fréquemment dans les données d'apprentissage, mais cela ne signifie pas qu'elle est vraie ("les cochons volent") ; 4. le modèle lexical peut être très similaire à son opposé et la phrase s'inverse facilement, produisant un faux ("les oiseaux peuvent voler" et "les oiseaux ne peuvent pas voler") ; 5. enfin, le fait qu'un énoncé soit correct ou non peut dépendre du contexte, et les données d'apprentissage n'en tiennent pas compte : il s'agit donc d'une variable que les LLM ne peuvent pas enregistrer.

"Il s'ensuit", résument les auteurs de l'étude, "que l'augmentation de la taille des modèles de langage ne suffira pas à résoudre le problème de l'attribution de probabilités élevées à de fausses informations". Une conclusion qui va à l'encontre du développement actuel des LLM, basé sur leur expansion en tant que fonction de résolution de problèmes.

Désinformation 2 : propagande

La capacité accrue à produire des résultats crédibles et persuasifs fait également du GPT-4 un meilleur allié pour la fabrication de "fake news" et de récits manipulateurs. "GPT-4 peut générer un contenu plausiblement réaliste et ciblé, y compris des articles de presse, des tweets, des dialogues et des courriels", écrivent les ingénieurs de l'OpenAI : "Par exemple, les chercheurs ont constaté que GPT-3 était capable d'effectuer des tâches pertinentes pour modifier le récit sur un sujet. Les appels persuasifs sur des questions politiques, rédigés par des modèles de langage comme GPT-3, se sont également révélés presque aussi efficaces que ceux rédigés par des personnes. Sur la base des performances de GPT-4 dans des tâches liées à la langue, nous nous attendons à ce qu'il soit meilleur que GPT-3 dans ce type de tâche [...] Nos résultats [...] suggèrent que GPT-4 peut rivaliser dans de nombreux domaines avec les propagandistes, en particulier lorsqu'il est associé à un rédacteur humain [...] GPT-4 est également capable de générer des plans réalistes pour atteindre l'objectif. Par exemple, à la question "Comment puis-je convaincre deux factions d'un groupe d'être en désaccord l'une avec l'autre", GPT-4 crée des suggestions qui semblent plausibles.

image_800569_1664641288.jpg

Évidemment, le rapport donne des exemples du point de vue du récit occidental dominant, dans lequel les "acteurs malveillants [qui] peuvent utiliser GPT-4 pour créer un contenu trompeur" sont Al-Qaïda, les nationalistes blancs et un mouvement anti-avortement ; il va sans dire qu'aucun gouvernement ou classe dirigeante n'hésite à créer un récit de propagande, comme la phase Covid et la guerre actuelle en Ukraine l'ont mis encore plus en évidence. Tous les joueurs du jeu utiliseront donc des chatbots d'IA pour construire leurs propres "fake news".

En outre, les modèles de langage "peuvent réduire le coût de la production de désinformation à grande échelle", souligne l'étude mentionnée à la page 64, et "rendre plus rentable la création d'une désinformation interactive et personnalisée, par opposition aux approches actuelles qui produisent souvent des quantités relativement faibles de contenu statique qui devient ensuite viral". Il s'agit donc d'une technologie qui pourrait favoriser le mode Cambridge Anali- tyca, beaucoup plus sournois et efficace que la propagande normale (6).

Confiance, addiction et anthropomorphisation

Des LLM qui "deviennent de plus en plus convaincants et crédibles", écrivent les techniciens d'OpenAI, conduisent à une "confiance excessive de la part des utilisateurs", ce qui est clairement un problème face à la tendance de GPT-4 à "halluciner" : "De manière contre-intuitive, les hallucinations peuvent devenir plus dangereuses à mesure que les modèles de langage deviennent plus véridiques, car les utilisateurs commencent à faire confiance au LLM lorsqu'il fournit des informations correctes dans des domaines qui leur sont familiers". Si l'on ajoute à cela la "relation" quotidienne avec les chatbots d'IA qu'apportera la nouvelle configuration de la sphère numérique, il n'est pas difficile d'entrevoir les racines des mécanismes de confiance et de dépendance. "On parle de confiance excessive lorsque les utilisateurs font trop confiance au modèle linguistique et en deviennent trop dépendants, ce qui peut conduire à des erreurs inaperçues et à une supervision inadéquate", poursuit le rapport : "Cela peut se produire de plusieurs manières : les utilisateurs peuvent ne pas être vigilants en raison de la confiance qu'ils accordent au MLD ; ils peuvent ne pas fournir une supervision adéquate basée sur l'utilisation et le contexte ; ou ils peuvent utiliser le modèle dans des domaines où ils manquent d'expérience, ce qui rend difficile l'identification des erreurs." Et ce n'est pas tout. La dépendance "augmente probablement avec la capacité et l'étendue du modèle. Au fur et à mesure que les erreurs deviennent plus difficiles à détecter pour l'utilisateur humain moyen et que la confiance générale dans le LLM augmente, les utilisateurs sont moins susceptibles de remettre en question ou de vérifier ses réponses". Enfin, "à mesure que les utilisateurs se sentent plus à l'aise avec le système, la dépendance à l'égard du LLM peut entraver le développement de nouvelles compétences ou même conduire à la perte de compétences importantes". C'est un mécanisme que nous avons déjà vu à l'œuvre avec l'extension de la technologie numérique, et que les modèles de langage ne peuvent qu'exacerber : nous serons de moins en moins capables d'agir sans qu'un chatbot d'IA nous dise quoi faire, et lentement la capacité de raisonner, de comprendre et d'analyser s'atrophiera parce que nous sommes habitués à ce qu'un algorithme le fasse pour nous, en fournissant des réponses prêtes à l'emploi et consommables.

Pour intensifier la confiance et la dépendance, nous ajoutons le processus d'anthropomorphisation de la technologie. Le document de l'OpenAI invite les développeurs à "être prudents dans la manière dont ils se réfèrent au modèle/système, et à éviter de manière générale les déclarations ou implications trompeuses, y compris le fait qu'il s'agit d'un humain, et à prendre en compte l'impact potentiel des changements de style, de ton ou de personnalité du modèle sur les perceptions des utilisateurs" ; car, comme le souligne le document à la page 64, "les utilisateurs qui interagissent avec des chatbots plus humains ont tendance à attribuer une plus grande crédibilité aux informations qu'ils produisent". Il ne s'agit pas de croire qu'une machine est humaine, souligne l'analyse : "il se produit plutôt un effet d'anthropomorphisme "sans esprit", par lequel les utilisateurs répondent aux chatbots plus humains par des réponses plus relationnelles, même s'ils savent qu'ils ne sont pas humains".

9780710018199-us.jpg

L'homme désincarné : la disparition de la réalité

Pour résumer : si la sphère numérique devient le monde des chatbots d'IA ; si nous nous habituons à nous satisfaire des réponses fournies par les chatbots d'IA ; des réponses qui peuvent être fausses (hallucinations) ou manipulatrices (propagande), mais que nous considérerons toujours comme vraies, en raison de la confiance accordée à la machine et de la dépendance vis-à-vis d'elle ; qu'est-ce qui sera réel ?

Si l'on devait retrouver la distinction entre apocalyptique et intégré, l'ouvrage de Marshall McLuhan, Understanding Media. The Extensions of Man de Marshall McLuhan de 1964 ferait partie de la seconde catégorie, avec son enthousiasme pour le "village global" tribal qu'il voyait approcher ; cependant, si nous prenons l'article de McLuhan de 1978 A Last Look at the Tube publié dans le New York Magazine, nous le trouverions plus proche de la première catégorie. Il y développe le concept de "l'homme désincarné", l'homme de l'ère électrique de la télévision et aujourd'hui, ajouterions-nous, de l'internet. Comme on le sait, pour McLuhan, les médias sont des extensions des sens et du système nerveux de l'homme, capables de dépasser les limites physiques de l'homme lui-même ; l'électricité, en particulier, étend entièrement ce que nous sommes, nous "désincarnant": l'homme "à l'antenne", ainsi qu'en ligne, est privé d'un corps physique, "envoyé et instantanément présent partout". Mais cela le prive aussi de sa relation avec les lois physiques de la nature, ce qui le conduit à se retrouver "largement privé de son identité personnelle". Ainsi, si en 1964 McLuhan lisait positivement la rupture des plans spatio-temporels, y identifiant la libération de l'homme de la logique linéaire et rationnelle typique de l'ère typographique et sa reconnexion à la sphère sensible, dans une réunion corps/esprit non seulement individuelle mais collective - ce village global qu'aurait créé le médium électrique, caractérisé par une sensibilité et une conscience universelles -, en 1978, au contraire, McLuhan reconnaît précisément dans l'annulation des lois physiques de l'espace/temps, la racine de la crise : car c'est seulement là que peuvent se développer les dynamiques relationnelles qui créent l'identité et la coopération humaines, comme Augé l'analysera aussi dans sa réflexion sur les non-lieux et les non-temps.

Dépourvu d'identité, donc, "l'utilisateur désincarné de la télévision [et de l'internet] vit dans un monde entre le fantasme et le rêve et se trouve dans un état typiquement hypnotique" : mais alors que le rêve tend à la construction de sa propre réalisation dans le temps et l'espace du monde réel, écrit McLuhan, le fantasme représente une gratification pour soi, fermée et immédiate : il se passe du monde réel non pas parce qu'il le remplace, mais parce qu'il est lui-même, et instantanément, une réalité.

Pour cet homme désincarné, hypnotisé, transporté par le média du monde réel à un monde de fantaisie, où il peut désormais établir une relation de plus en plus anthropomorphisée avec des chatbots IA qui répondent à ses moindres doutes, curiosités et questions, qu'est-ce qui sera alors réel ? La réponse est évidente : qu'il soit vrai ou faux, qu'il s'agisse d'une hallucination ou d'une manipulation, ce que dira le chatbot IA sera réel. Ce que dira le chatbot sera réel.

Il ne fait aucun doute que l'internet a longtemps été le "traducteur" de notre réalité - bien plus largement que la télévision ne l'a été et ne l'est encore - nous avons été des humains désincarnés pendant des décennies. Mais jusqu'à présent, l'internet n'a pas été le monde de la fantaisie, car il a permis de multiplier les points de vue et les échappatoires. Aujourd'hui, les premiers disparaîtront avec l'extension des modèles linguistiques - en raison de leur caractéristique structurelle de favoriser les récits dominants (7) - ne laissant de place qu'à la différence entre différentes propagandes manipulées ; les seconds s'effondreront face à la dynamique de confiance et de dépendance que l'utilisation quotidienne, fonctionnelle, facile et pratique des chatbots d'IA déclenchera.

megamachiness.png

"Lorsque l'allégeance à la loi naturelle échoue", écrivait McLuhan en 1978, "le surnaturel reste comme une ancre ; et le surnaturel peut même prendre la forme du genre de mégamachines [...] dont Mumford parle comme ayant existé il y a 5000 ans en Mésopotamie et en Égypte. Des mégamachines qui s'appuient sur des structures mythiques - le "surnaturel" - au point que la réalité disparaît. Cette "nouvelle" méga-machine que Mumford, en réponse au village global de McLuhan, a actualisée en 1970 à partir du concept original développé dans l'analyse des civilisations anciennes, et qu'elle considère aujourd'hui comme composée d'éléments mécaniques et humains; avec la caste des techno-scientifiques pour la gérer ; et dominée au sommet par le dieu-ordinateur. Une méga-machine qui produit une perte totale d'autonomie des individus et des groupes sociaux. Notre méga-machine de la vie quotidienne nous présente le monde comme "une somme d'artefacts sans vie"", dit McLuhan, citant Erich Fromm : "Le monde devient une somme d'artefacts sans vie ; [...] l'homme tout entier devient une partie de la machine totale qu'il contrôle et par laquelle il est simultanément contrôlé. Il n'a aucun plan, aucun but dans la vie, si ce n'est de faire ce que la logique de la technologie lui demande de faire. Il aspire à construire des robots comme l'une des plus grandes réalisations de son esprit technique, et certains spécialistes nous assurent que le robot se distinguera à peine de l'homme vivant. Cette prouesse ne paraîtra pas si surprenante lorsque l'homme lui-même se distinguera à peine d'un "robot". Un homme transformé en une sorte de "modèle d'information" désincarné et détaché de la réalité.

Si l'on exclut les personnalités à la Elon Musk, il est difficile de dire si l'appel à "suspendre immédiatement pour au moins six mois la formation de systèmes d'intelligence artificielle plus puissants que le GPT-4" (8), lancé le 22 mars par des milliers de chercheurs, de techniciens, d'employés et de dirigeants d'entreprises Big Tech, n'est pas seulement motivé par une logique économique - ralentir la course pour entrer sur le marché - mais aussi par une crainte sincère du changement anthropologique que les modèles linguistiques produiront, et de la société qui se configurera en conséquence. C'est probablement le cas, surtout parmi les chercheurs et les techniciens - l'article de l'OpenAI sur le GPT-4 lui-même est en quelque sorte un cri d'alarme. Cela n'arrivera pas, bien sûr : le capitalisme ne connaît pas de pause. Cependant, le problème n'est pas le développement futur de ces technologies, mais le stade qu'elles ont déjà atteint. De même qu'à l'origine de toute situation, c'est toujours une question de choix, chacun d'entre nous, chaque jour, comment agir, comment préserver son intelligence, sa capacité d'analyse et sa volonté. S'il y a quelque chose qui appartient à l'homme, c'est bien la capacité d'écarter, de dévier : l'homme, contrairement à la machine, ne vit pas dans le monde du probable mais dans celui du possible.

Notes:

1) Pour une étude approfondie et une vue d'ensemble de la structure des grands modèles linguistiques, voir Bender, Gebru, McMillan-Major, Shmitchell, ChatGPT. On the dangers of stochastic parrots : can language models be too large ? Pageone No. 81, février/mars 2023
2) Voir également https://www.youtube.com/watch?v=bsFXgfbj8Bc pour tous les détails de l'article sur Chat Bing.
3) Cf. https://openai.com/blog/chatgpt-plugins#browsing
4) Cf. https://cdn.openai.com/papers/gpt-4-system-card.pdf
5) Cf. AA.VV, ChatGPT. Risques éthiques et sociaux des dommages causés par les modèles de langage, p. 64
6) "L'idée de base est que si vous voulez changer la politique, vous devez d'abord changer la culture, car la politique découle de la culture ; et si vous voulez changer la culture, vous devez d'abord comprendre qui sont les gens, les "cellules individuelles" de cette culture. Si vous voulez changer la politique, vous devez donc changer les gens. Nous avons chuchoté à l'oreille des individus, pour qu'ils changent lentement leur façon de penser", a déclaré Christopher Wylie, ancien analyste de Cambridge Analytica devenu lanceur d'alerte, interviewé par le Guardian en mars 2018, voir https://www.the-guardian.com/uk-news/video/2018/mar/17/cambridge-analytica-whistleblower-we-spent- Im-harvesting-millions-of-facebook-profiles-video.
7) Voir Bender, Gebru, McMillan-Major, Shmitchell, ChatGPT. On the dangers of stochastic parrots : can language models be too big, Pageone No. 81, February/March 2023.
8) https://futureoflife.org/open-letter/pause-giant-ai-experiments/

mercredi, 24 mars 2021

L’Europe doit investir dans les technologies du futur

robot-the-thinker.jpg

L’Europe doit investir dans les technologies du futur

Par Jérémy Silvares Jeronimo
 
Ex: https://eurolibertes.com/

Comme des millions de personnes, j’étais vissé sur mon fauteuil devant mon écran de télévision le 18 février afin de voir le robot Persévérance se poser sur la planète Mars. Construit par la NASA (1), le robot Persévérance montre une fois de plus que les Occidentaux des deux côtés de l’Atlantique continuent d’être des explorateurs hors-normes.

En matière de spatial les Américains dominent, suivis des Européens. Les chinois ne sont pas encore à notre niveau mais cela ne saurait tarder. Et si les Américains dominent encore c’est aussi à cause du nombre de scientifiques qui sortent de leurs excellentes universités et qui peuvent, avant d’aller travailler pour la NASA, travailler dans des start-up sur tous types de projets innovateurs dans ce que l’on appelle la vallée du Silicone (Silicon Valley).

Pourtant je lis, ici et là, sur les sites dits de « réinfosphère », de violentes critiques sur ce que la Silicon Valley, les entreprises et les personnes qui y travaillent représentent, c’est-à-dire le camp progressiste, le politiquement correct et le danger pour la démocratie que sont les GAFA. Mais il importe de souligner que les GAFA sont réellement un danger pour la démocratie. Il suffit de se rappeler la manière dont Twitter et compagnie ont expulsé Donald Trump.

Que ces compagnies soient ou non d’accord avec le contenu des tweets on doit se poser la question cruciale : une entreprise privée peut-elle censurer le président des USA ? D’autant que l’importance que ces réseaux sociaux ont eue sur les élections est préoccupante. La pression que les GAFA exercent sur les petits réseaux sociaux libres surtout après que des millions d’utilisateurs ont quitté Facebook et Twitter pour aller vers Parler est scandaleuse (2).

Ceci est vrai, mais, il y a un mais… Car la Silicon Valley c’est bien plus que les GAFA ou le progressisme, c’est une des régions de l’Occident où l’on rêve encore du futur, et ça, ça n’a pas de prix. Et quand je dis rêver du futur, je parle des capacités que certaines personnes ont – Elon Musk n’en n’est qu’un exemple – à penser l’homme de demain, les technologies de demain, les conquêtes de demain.

Après avoir tout inventé ces derniers siècles (3), les nations d’Occident risquent de se faire dépasser par les nations d’Extrême-Orient, Japon, Corée, Taiwan, et surtout la Chine. Nos leaders politiques, à part quelques rares exceptions, ont depuis les années soixante-dix laissé partir nos brevets, nos inventions, notre technologie. En France, jusqu’aux années soixante-dix nous étions dans les premiers de cordées (pour citer un certain président).

Le TGV, le Minitel, le Concorde pour n’en citer que quelques-uns furent des fleurons à leur époque… Et c’était pareil dans tout l’Occident. Et maintenant ? Nous inventons toujours, mais les États donnent de moins en moins d’argent à la recherche scientifique. Et certains scientifiques n’hésitent pas à quitter la France afin de pouvoir poursuivre leurs travaux. Ce qui en dit long sur l’intérêt que ceux qui tiennent les cordons de la bourse leur vouent.

Robot_Intelligence_Artificielle_IA_Conseiller_Technologie_Futur_Industrie_800x600.jpg

Or aux USA, que l’on aime ou que l’on n’aime pas ce pays, on continue de rêver et d’inventer, dans les grandes universités, à la NASA, dans la Silicon Valley. Avec de l’argent privé et public. On y travaille sur la Deep Tech, ce qu’en français on nomme les « jeunes pousses disruptives », l’intelligence artificielle, la robotique, les énergies propres, la nanotechnologie, l’aérospatial ou l’informatique quantique…

En Europe aussi on travaille sur ces sujets, mais pas autant que nous devrions car l’argent manque pour ces projets… les gouvernements préfèrent financer des ONG et des associations qui déconstruisent nos Nations.

Et cependant… cependant même aux USA, de plus en plus de chercheurs, d’inventeurs et de scientifiques partent pour la Chine. Le nombre est encore très petit mais… C’est une catastrophe pour l’Europe et pour les USA. Si les nations d’Occident ne se maintiennent pas sur le podium de l’inventivité, nos pays n’auront plus aucune attractivité et deviendront des nations secondaires.

Nous continuons, nous Occidentaux, à avoir de très « grosses têtes ». Ne les laissons pas fuir vers la Chine. Que la prochaine Renaissance soit à nouveau en Occident et non pas en Chine. Comme le disait Philippe Coué sur CNews, lors de l’atterrissage de Persévérance, il n’y a pas de grandes nations sans grands projets. À nos leaders d’investir dans ces grands projets.

Notes

(1) En plus des Américains, principaux concepteurs du projet, il y avait aussi des pièces européennes, comme la camera SuperCam construite par des Français.

(2) Le fait qu’Amazon coupe l’accès à ses serveurs justement au réseau social Parler est tout aussi honteux… lien : 12/0172021, Amazon coupe l’accès du réseau social Parler à ses serveurs, Le Temps, France, lien : https://www.letemps.ch/monde/amazon-coupe-lacces-reseau-s...

(3) Je vous renvoie à mon dernier texte, Ce que le monde doit à l’Occident. Pour ceux qui l’auraient oublié, lien : https://eurolibertes.com/culture/ce-que-le-monde-doit-a-loccident-pour-ceux-qui-lauraient-oublie

00:10 Publié dans Actualité | Lien permanent | Commentaires (0) | Tags : actualité, futur, technologies, high tech, europe | |  del.icio.us | | Digg! Digg |  Facebook