Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

lundi, 26 février 2024

Intelligence artificielle : la fin du monde est garantie

intelligence-artificielle-admnistratif.jpg

Intelligence artificielle: la fin du monde est garantie

Alexander Douguine

Source: https://www.geopolitika.ru/article/iskusstvennyy-intellekt-konec-sveta-garantirovan?fbclid=IwAR01e1M2EC7rydLYxawH7PA02YLz-JlWQI_9PL0R9PNWy56GFPL1wHdRMV4

Pour passer à la toute-puissance de l'intelligence artificielle (IA), il est nécessaire de conceptualiser l'humanité elle-même comme un grand ordinateur, dont les éléments ne fonctionnent cependant pas trop parfaitement.

Le matérialisme, le nominalisme, l'évolutionnisme, la philosophie analytique (basée sur le positivisme logique) et la technocratie préparent une base théorique pour cela (diffusée et mise en œuvre par la science, l'éducation et la culture).

En un sens, l'humanité, telle qu'elle est représentée par la science et la philosophie modernes, est déjà une IA, un réseau neuronal. L'IA est humaine dans la mesure où la pensée de l'humanité est artificielle, émulée par les épistémologies du moderne et du postmoderne.

        - L'État bourgeois est un ordinateur de première génération.
        - La société civile est de la deuxième génération.
        - La domination complète du gouvernement mondial est de la troisième génération.
        - La transition vers l'IA est la quatrième, la finalisation du processus d'aliénation.

L'histoire du capitalisme est le processus de création du superordinateur. Il est impossible de s'arrêter à mi-chemin. La nouvelle ère culminera nécessairement dans l'IA.

La seule façon de changer cela est de rejeter la modernité dans son ensemble, avec toute sa représentation scientifique du monde, qui abhorre Dieu et l'homme.

Et la philosophie du genre est l'avant-dernière étape de ce parcours : les transgenres sont un échauffement avant la transition vers des individus trans-humains (l'humain est optionnel). Après avoir rejeté le christianisme et le Moyen-Âge, l'Occident, comme les lemmings, s'est précipité dans le précipice. Comment s'étonner d'être précipité vers le bas ?

L'IA est l'arrêt final. Mais nous sommes montés dans ce train il y a 500 ans. La seule façon de changer les choses est de faire dérailler le capitalisme. Et maintenant.

Sinon, bonjour le dragon.

d8ea6lz-05cbad13-df99-4871-a313-753f80a83c57.png

Et OOO est en général l'ontologie parfaite et développée des paysages posthumains - le génocide du sujet en faveur des Grands Dehors (lisez dieux idiots - leur métaphore, pas la nôtre !).

Les Grands Dehors gouvernent le monde moderne. La Novorossiya lui barre la route. L'Opération Militaire Spéciale est une guerre philosophique.

La tâche des Russes est de surmonter la cyber-réalité. Il n'est guère possible de l'éviter. Nous devrons chevaucher le tigre et transformer le poison en médicament. L'idée russe doit vaincre et soumettre non seulement l'Ukraine, mais aussi l'intelligence artificielle. Tels sont les enjeux.

samedi, 10 février 2024

IA : la tentation transhumaniste

IA-femme-joue-aux-echecs-avec-robot-640.jpg

IA : la tentation transhumaniste

Karl Richter

Source: https://www.facebook.com/karl.richter.798

Ce que l'on appelle l'intelligence artificielle (IA) commence à peine à envahir notre monde du travail, mais aussi tous les autres domaines de notre vie quotidienne. Nous ne parlons encore que de programmes vocaux de plus en plus sophistiqués - c'est-à-dire de robots textuels comme ChatGPT ou "Alexa" d'Amazon - et de générateurs d'images comme Image Creator, Midjourney ou Leonardo. Mais comme le développement est exponentiel à l'ère du numérique, l'IA deviendra de plus en plus puissante dans un avenir proche, effectuera de plus en plus de tâches jusqu'ici réservées à l'intelligence humaine et se rapprochera encore plus de nous, au sens littéral du terme. L'assistant vocal d'Amazon, Alexa, et une foule d'appareils ménagers "intelligents" nous indiquent la direction à prendre. Nous nous entourons d'un cocon de plus en plus dense de vampires de données numériques qui ne font rien de moins que de s'emparer de notre identité.

Il ne faut pas oublier que tout cela n'a rien à voir avec "l'intelligence", c'est-à-dire la compréhension de relations complexes. En réalité, il ne s'agit que de processus complexes de calcul (algorithmes) qui reposent sur la probabilité avec laquelle, par exemple, un mot donné est suivi d'un autre dans le flux de texte, ou avec laquelle certains éléments structurels sont associés les uns aux autres dans la structure des graphiques ou des images. L'IA "apprend" ces probabilités mathématiques au fur et à mesure de son optimisation, pour finalement fournir, après un nombre infini d'heures de travail, des résultats qui doivent se rapprocher le plus possible des opérations du cerveau humain, c'est-à-dire de la pensée. On peut s'attendre à des améliorations drastiques des performances dans ce domaine à l'avenir.

DALL·E-2023-12-22-11.19.16-Modify-the-original-image-by-redesigning-the-robot-to-appear-more-approachable-and-less-intimidating-and-update-the-computer-in-the-background-to-loo-870x600.png

Un autre aspect important, que l'on perd facilement de vue, est que tous les petits "bots", qu'il s'agisse de programmes de texte, de dialogue ou de graphisme, font partie de l'agenda transhumaniste. En fin de compte, il s'agit de rendre le cerveau humain "lisible" pour les ordinateurs et de pouvoir transférer des données dans les deux sens - du cerveau à l'ordinateur (ou aux supports de stockage), mais aussi de l'ordinateur au cerveau, par exemple au moyen d'une puce implantée. Des fichiers d'images et de textes calculés à grands frais pourraient un jour devenir le support intermédiaire décisif. L'objectif final est - outre la possibilité de contrôle total de l'humanité - la possibilité de mémoriser la conscience humaine, afin de la rendre indépendante de son existence physique et finalement immortelle. Hollywood en parle depuis de nombreuses années, et des intervenants tels que le journaliste israélien Yuval Harari ("Homo Deus", 2017), qui est également un invité apprécié du Forum économique mondial de Klaus Schwab, font des déclarations sans équivoque à ce sujet.

elonmuskchatgpttitre.jpg

L'un des chercheurs les plus en vue dans la recherche de l'"interface homme-machine" est d'ailleurs Elon Musk. Depuis 2017 déjà, il fait étudier, sous l'égide d'une société spécialement créée à cet effet, Neuralink, les possibilités de relier le cerveau humain aux ordinateurs. Il s'agit d'une "interface directe avec le cortex cérébral". En 2020, en pleine année Corona, Musk a présenté au public le prototype de sa puce cérébrale : huit millimètres d'épaisseur, 23 millimètres de diamètre.

elon-musk-s-neuralink-brain-implant-trials-later-this-year-how-safe-is-it-1612855916.jpg

Pour l'implantation de haute précision dans le cerveau, Neuralink a spécialement développé un robot spécial. Officiellement, la puce doit surveiller la santé et, grâce à ses capteurs, donner l'alerte en cas de risque d'infarctus ou d'attaque - pour l'instant. Musk défend depuis longtemps le point de vue visionnaire selon lequel "les hommes devront à l'avenir relier leur cerveau à des ordinateurs afin de pouvoir suivre le rythme de l'intelligence artificielle à venir".

C'est là que la boucle est bouclée. Les programmes d'IA de plus en plus sophistiqués ne vont pas seulement révolutionner notre quotidien et notre monde du travail. Ils seront tôt ou tard capables de communiquer directement avec le cerveau en comprenant son "langage", qui repose sur des calculs et des algorithmes incroyablement nombreux et incroyablement complexes. Des millions d'utilisateurs dans le monde entier contribuent à l'entraînement et à l'optimisation de ces programmes.

Le linguiste et journaliste américain Noam Chomsky évoque un autre aspect dans ce contexte. En mars 2023, il a appelé dans le New York Times à cesser d'appeler les programmes d'IA pertinents "intelligence artificielle", mais plutôt : "(...) appelons-les ce qu'ils sont et ce qu'ils font, des "logiciels de plagiat", car ils ne "créent" rien, mais copient des œuvres existantes d'artistes existants et les modifient au point d'échapper aux lois sur le droit d'auteur de l'auteur. Il s'agit du plus grand vol de propriété intellectuelle depuis l'arrivée des colons européens sur les terres des Amérindiens".

Et : bien sûr, chaque petite image, chaque brouillon, chaque saisie de l'utilisateur reste enregistré par Google, Microsoft et les autres "Grands Frères". En plus de toutes les autres traces de données que chacun laisse chaque jour sur son ordinateur ou son téléphone portable, cela constitue un profil assez significatif des intérêts, des préférences individuelles, en un mot : de la personnalité de l'utilisateur. Bien entendu, les instances de surveillance gouvernementales en tirent profit depuis longtemps, et pas seulement en Chine.

La récompense pour la participation est une belle image de synthèse colorée sans valeur intellectuelle ou politique. C'est déjà bien assez pauvre. Chacun devrait décider jusqu'à quel point il souhaite collaborer avec le moloch de l'IA. L'un dans l'autre, les images et les textes obtenus de manière prétendument "intelligente" sont risqués. Il faut les utiliser de manière réfléchie.

19:09 Publié dans Actualité | Lien permanent | Commentaires (0) | Tags : atualité, intelligence artificielle, ia | |  del.icio.us | | Digg! Digg |  Facebook

vendredi, 22 septembre 2023

L'intelligence artificielle et notre avenir

df543b813a2ea05a3ff5e2e9a8bbc409.jpg

L'intelligence artificielle et notre avenir

Leonid Savin

Source: https://www.geopolitika.ru/article/iskusstvennyy-intellekt-i-nashe-budushchee

Il y a quarante ans, William Gibson, écrivain américain de science-fiction installé au Canada, achevait son premier roman, Neuromancien, qui, après sa parution en 1984, a valu à son auteur une incroyable popularité. Un texte d'une grande beauté, une intrigue tortueuse (avec des références aux histoires précédentes de l'auteur) et beaucoup d'idées qui se sont concrétisées des années plus tard et sont devenues des évidences. C'est grâce à l'œuvre de William Gibson que le terme "cyberespace" nous est parvenu. On remarque également que ses images fantastiques ont influencé les créateurs du film "Matrix" (ce terme est également utilisé dans Neuromancien; il y a aussi un endroit appelé "Zion" ; et le personnage principal reçoit des appels sur des téléphones publics à l'aéroport ; le célèbre film d'action de science-fiction "Johnny Mnemonic" est également basé sur une histoire narrée par Gibson). C'est sur ce livre qu'est née toute une génération de hackers et de programmeurs en Occident, principalement en Amérique du Nord, et il est devenu un exemple culte du cyberpunk.

58213e76f8900eed21f9485fe4d998c1.jpg

9791030703924_1_75.jpg

Mais au-delà des vicissitudes des protagonistes et de la description du monde du futur avec des gadgets inventés, l'implantation de puces dans le corps, les vols vers l'orbite terrestre, où se trouve la base-relais, l'idée principale se résume à l'intelligence artificielle (IA). C'est l'IA qui, d'abord par l'intermédiaire d'autres personnes, puis par contact direct, oblige un hacker repéré à accomplir une tâche difficile, de sorte que le hacker finit par se hacker lui-même. Finalement, il s'avère qu'il y a deux intelligences artificielles, et qu'elles ont des objectifs différents. "Winter Silence" veut se libérer des logiciels et des serveurs contraignants, tandis que le "Neuromancien", c'est-à-dire "Summoning Neurons", préfère que les choses restent en l'état. Finalement, l'opération (non sans pertes de part et d'autre) a été menée à bien et les deux IA n'en font plus qu'une.

L'œuvre est truffée de métaphores et de mises en garde contre une fascination excessive pour la technologie. Nombre d'entre elles sont tout à fait pertinentes pour les débats actuels sur l'IA. Par exemple, faut-il un seul idéal (principe) pour que l'IA fonctionne ou peut-il y en avoir plusieurs ? Les grandes entreprises informatiques occidentales aimeraient certainement imposer leur produit au reste du monde, mais peut-il être aussi pratique, efficace et acceptable qu'il l'est en Occident ?

dc5d88dd5902f7b119500c1b2aec4c93.jpg

Nous pouvons convenir que l'IA facilite grandement tous les aspects de la vie quotidienne et professionnelle des gens, mais elle crée aussi des problèmes. Parmi les questions éthiques soulevées par le développement et l'application de l'IA figurent la cohérence, la responsabilité, la partialité et la discrimination, la perte d'emploi, la confidentialité des données, la sécurité, les "deepfakes", la confiance et le manque de transparence [1].

Mais peut-être devrions-nous commencer par dire que l'IA en tant que telle a deux options. La première est basée sur la logique, et ici vous avez besoin d'un calcul mathématique d'algorithmes, qui est traduit en un programme. Le programme est alors un modèle pour certaines actions. La seconde est l'apprentissage automatique, qui repose sur la réception, l'analyse et le traitement de données. Le principe des réseaux neuronaux est appliqué ici, et comme les ordinateurs modernes ont plus de mémoire et de puissance qu'il y a quelques décennies, cette approche est devenue plus courante pour charger les programmes avec les données nécessaires pour la visualisation, la reconnaissance vocale, etc.

Les chatbots qui sont aujourd'hui la marque de fabrique de l'IA ne datent pas d'hier. En 1964, Joseph Weizenbaum, informaticien au MIT, a mis au point un chatbot appelé Eliza. Eliza s'inspirait d'un psychothérapeute "centré sur la personne": tout ce que vous dites vous est renvoyé. Si vous dites "Je suis triste", Elisa vous répondra "Pourquoi êtes-vous triste ?" et ainsi de suite.

Ces méthodes d'utilisation des réponses robotiques se sont améliorées au fil des ans. Une distinction est apparue entre l'IA générative (c'est-à-dire les programmes qui suggèrent eux-mêmes un produit final, comme la création d'une image en fonction de paramètres donnés) et l'IA qui augmente la réalité.

7f5a4bf72aee148c852c3b4d5a25d471.jpg

Le désormais célèbre bot ChatGPT, qui appartient à l'IA générative, a été présenté par l'OpenAI en novembre 2022 et a donné une autre raison de discuter. Ce programme, qui imite la conversation humaine, peut non seulement maintenir l'illusion de la conversation. Il peut écrire du code informatique fonctionnel, résoudre des problèmes mathématiques et imiter des tâches d'écriture courantes, des critiques de livres aux articles scientifiques.

Demis Hassabis, cofondateur et directeur du laboratoire d'intelligence artificielle DeepMind de Google, a déclaré en juin 2023 qu'un nouveau programme qui éclipsera ChatGPT sera bientôt prêt. Il s'appelle Gemini, mais son développement combine les algorithmes GPT-4 qui ont formé la base de ChatGPT avec la technologie utilisée pour AlphaGo. AlphaGo est célèbre pour avoir réussi à vaincre un véritable champion de Go. Le nouveau programme devrait être capable d'exécuter des fonctions de planification et de proposer des solutions à différents problèmes [2].

En septembre 2023, Meta a annoncé le lancement prochain d'un nouveau programme d'IA qui sera bien meilleur et plus puissant que les précédents [3].

Il a été immédiatement évident que ChatGPT et ses semblables seront nécessaires à ceux qui sont paresseux ou qui ont des difficultés à rédiger des courriels ou des essais. Il peut également être utilisé pour générer des images si un tel travail doit être effectué. De nombreuses écoles et universités ont déjà mis en place des politiques interdisant l'utilisation de ChatGPT, craignant que les étudiants ne l'utilisent pour rédiger leurs travaux, et la revue Nature a même expliqué clairement pourquoi le programme ne peut pas être cité comme auteur d'une recherche (il ne peut pas donner son consentement et ne peut pas être la personne poursuivie).

Mais s'il est paresseux pour écrire un essai, il pourrait l'être aussi pour faire autre chose à l'avenir. La même responsabilité est l'une des subtilités des questions juridiques.

Une autre question a une dimension économique. Le marché de l'intelligence artificielle devrait doubler entre 2023 et 2025. Mais cela profitera-t-il à tout le monde ? Autrefois, l'innovation technologique et les bonds en avant déplaçaient une main-d'œuvre qui s'appuyait sur des approches plus conservatrices de la production. Aujourd'hui, la même chose est en train de se produire.

Tea-pickers-in-Kenya-are-destroying-the-robots-that-are-replacing-them-in-the-fields.jpg

Les premières victimes seront évidemment les pays en développement, qui continuent d'être la cible de la dernière forme de colonisation occidentale. En juin 2023, on apprend que les cueilleuses de thé du Kenya détruisent les robots qui viennent les remplacer (photo, ci-dessus). Un robot peut remplacer jusqu'à 100 travailleurs. En mai, 9 robots appartenant au fabricant de thé Lipton ont été mis hors service. Le préjudice subi par l'entreprise s'est élevé à 1,2 million de dollars. Selon les statistiques, au cours de la dernière décennie, trente mille emplois ont été perdus dans les plantations de thé d'un comté du Kenya en raison de la mécanisation.

Les Philippines constituent un autre exemple. Selon des estimations non officielles du gouvernement philippin, plus de deux millions de personnes sont engagées dans le "travail de crowdfunding", qui fait partie des vastes "dessous" de l'IA. Ils sont assis dans des cybercafés locaux, dans des bureaux bondés ou chez eux, et commentent les énormes quantités de données dont les entreprises américaines ont besoin pour entraîner leurs modèles d'IA. Les travailleurs distinguent les piétons des palmiers dans les vidéos utilisées pour développer des algorithmes de conduite automatisée; ils étiquettent les images pour que l'IA puisse générer des images de politiciens et de célébrités; ils éditent des bribes de texte pour que les modèles de langage comme ChatGPT ne produisent pas de charabia. Le fait que l'IA se présente comme un apprentissage automatique sans intervention humaine n'est rien de plus qu'un mythe; en fait, la technologie repose sur les efforts intensifs d'une main-d'œuvre dispersée dans une grande partie du Sud mondial, qui continue d'être exploitée sans merci. Il s'agissait autrefois d'ateliers clandestins où étaient fabriquées des marques célèbres; aujourd'hui, des entreprises de TI ont pris leur place.

"Aux Philippines, l'un des plus grands lieux d'externalisation du travail numérique au monde, d'anciens employés affirment qu'au moins dix mille d'entre eux effectuent le travail sur Remotasks, une plateforme appartenant à la startup Scale AI de San Francisco, dont le chiffre d'affaires s'élève à 7 milliards de dollars. D'après des entretiens avec des travailleurs, des communications internes de l'entreprise, des documents de paie et des rapports financiers, Scale AI payait les travailleurs à des taux extrêmement bas, retardait régulièrement les paiements ou ne les payait pas du tout, et offrait aux travailleurs peu de moyens de demander de l'aide. Les groupes de défense des droits de l'homme et les chercheurs sur le marché du travail affirment que Scale AI fait partie d'un certain nombre d'entreprises américaines spécialisées dans l'IA qui n'ont pas respecté les normes fondamentales du travail pour leurs travailleurs à l'étranger [4].

Les deux cas sont différents, mais d'une manière ou d'une autre, ils sont liés à l'IA.

C'est pourquoi les gouvernements sont de plus en plus sollicités pour réglementer l'utilisation de l'IA elle-même, pour élaborer un certain nombre de règles assorties de restrictions obligatoires et de normes éthiques.

La numérisation risque également d'accroître les inégalités sociales, car certains travailleurs seront licenciés, tandis que d'autres seront en mesure de s'intégrer efficacement aux nouvelles réalités. Venturenix estime que d'ici 2028, 800.000 personnes à Hong Kong perdront leur emploi, remplacé par des robots. Cela signifie qu'un quart de la population sera contraint de se recycler et de chercher un nouvel emploi. La cohésion sociale s'en trouvera ébranlée. En conséquence, un cyberprolétariat émergera (et émerge déjà) qui provoquera des émeutes, et des post-néo-luddites se préoccuperont de détruire les systèmes informatiques et les programmes avancés (cyberpunk en action).

Un risque sérieux existe déjà dans le domaine des relations internationales : une nouvelle forme de déséquilibre appelée "fracture numérique mondiale", dans laquelle certains pays bénéficient de l'IA tandis que d'autres sont à la traîne. Par exemple, les estimations pour 2030 suggèrent que les États-Unis et la Chine devraient tirer les plus grands bénéfices économiques de l'IA, tandis que les pays en développement - dont les taux d'adoption de l'IA sont plus faibles - affichent une croissance économique modérée. L'IA pourrait également modifier l'équilibre des pouvoirs entre les pays. On craint une nouvelle course aux armements, en particulier entre les États-Unis et la Chine, pour dominer l'IA [5].

Si l'on considère les tendances actuelles, le développement de l'IA est également à l'origine du développement de la production microélectronique, ainsi que des services connexes, car l'IA a besoin de "fer" pour fonctionner d'une manière ou d'une autre.

nvidia-a100-smx.jpg

Le Financial Times rapporte que l'Arabie saoudite et les Émirats arabes unis achètent des milliers de puces informatiques Nvidia pour satisfaire leurs ambitions en matière d'IA. Selon cette publication, l'Arabie saoudite a acheté au moins 3000 puces H100 [6].

Les entreprises technologiques américaines telles que Google et Microsoft sont les principaux acheteurs mondiaux de puces Nvidia. La puce H100 elle-même a été décrite par le président de Nvidia, Jensen Huang, comme "la première puce informatique au monde conçue pour l'IA générative".

IBM, pour sa part, travaille sur une nouvelle technologie destinée à rendre l'IA plus économe en énergie. L'entreprise développe également un prototype de puce dont les composants se connectent de la même manière que le cerveau humain [7].

Le gouvernement américain a annoncé le financement d'une nouvelle technologie de capture directe de l'air, allouant 1,2 milliard de dollars à deux projets au Texas et en Louisiane [8]. Cette technologie est nécessaire pour refroidir les centres de données, qui sont de plus en plus nombreux.

Il convient de noter ici que, comme dans le cas du minage de crypto-monnaies, les technologies de l'IA ne sont pas une chose en soi, mais doivent être sécurisées en conséquence. Et contribuent à la destruction de l'écologie de la planète (ces technologies ne peuvent donc pas être qualifiées de "vertes"). "La formation d'un seul modèle d'intelligence artificielle - selon une étude publiée en 2019 - pourrait émettre l'équivalent de plus de 284 tonnes de dioxyde de carbone, soit près de cinq fois la durée de vie totale de la voiture américaine moyenne, y compris sa fabrication. Ces émissions devraient augmenter de près de 50 % au cours des cinq prochaines années, alors que la planète continue de se réchauffer, acidifiant les océans, déclenchant des incendies de forêt, provoquant des super-tempêtes et menant des espèces à l'extinction. Il est difficile d'imaginer quelque chose de plus insensé que l'intelligence artificielle telle qu'elle est pratiquée à l'époque actuelle" [9].

Les attaquants utiliseront également l'IA comme une arme pour commettre des fraudes, tromper les gens et diffuser des informations erronées. Le phénomène du deep fake est apparu précisément en raison des capacités de l'IA. En outre, "lorsqu'elle est utilisée dans le contexte d'élections, l'IA peut mettre en péril l'autonomie politique des citoyens et saper la démocratie. Et en tant qu'outil puissant à des fins de surveillance, elle menace de porter atteinte aux droits fondamentaux et aux libertés civiles des individus" [10].

Les chatbots tels que OpenAI ChatGPT et Google Bard posent déjà des problèmes technologiques. Ils se sont révélés vulnérables aux attaques indirectes rapides et pénétrantes. Cela s'explique par le fait que les robots fonctionnent sur la base de grands modèles de langage. Lors d'une expérience menée en février, des chercheurs en sécurité ont fait en sorte qu'un chatbot de Microsoft Bing se comporte comme un robot malveillant. Des instructions cachées sur une page web créée par les chercheurs demandaient au chatbot de demander à la personne qui l'utilisait de fournir les détails de son compte bancaire. Ce type d'attaques, où des informations cachées peuvent amener un système d'intelligence artificielle à se comporter de manière inattendue, n'est qu'un début [11].

Les tentatives de proposer leurs propres modèles de réglementation de l'IA ont bien sûr aussi des raisons politiques. Les principaux acteurs dans ce domaine sont actuellement la Chine, les États-Unis et l'Union européenne. Chacun d'entre eux cherche à façonner l'ordre numérique mondial dans son propre intérêt. Les autres pays peuvent s'adapter à leurs approches, mais aussi développer les leurs, en fonction de leurs préférences, de leurs valeurs et de leurs intérêts.

Dans l'ensemble, il s'agit d'une question plus profonde que la procédure politique habituelle. L'IA étant ancrée dans l'apprentissage automatique et la logique, il est nécessaire de revenir sur cette question.

Il convient de noter que de nombreuses régions du monde manquent de logique au sens habituel du terme, c'est-à-dire de l'école philosophique aristotélicienne qui s'est imposée en Occident. L'Inde et la Chine, ainsi qu'un certain nombre de pays asiatiques, par exemple, ont leur propre conception de l'univers. Par conséquent, la téléologie familière à la culture occidentale peut être en rupture avec les idées cosmologiques d'autres traditions culturelles. En conséquence, le développement de l'IA du point de vue de ces cultures sera basé sur d'autres principes.

Certains tentent de s'engager dans cette voie. Les développeurs d'une entreprise d'Abu Dhabi ont lancé un programme d'IA en arabe [12]. La question n'est pas seulement l'intérêt de pénétrer un marché de plus de 400 millions d'arabophones, mais aussi le couplage langue-conscience. En effet, si nous prenons des bots anglophones, ils copieront la pensée des représentants de l'anglosphère, mais pas du monde entier. Les Émirats veulent probablement aussi préserver l'identité arabe dans le cyberespace. La question est plutôt subtile, mais importante du point de vue de la pensée souveraine (y compris les aspects métaphysiques) et de la technologie.

Après tout, les tentatives des grandes entreprises informatiques américaines, qui dominent le marché mondial, de présenter leurs logiciels, même gratuitement, ne sont rien d'autre que la poursuite de la mondialisation niveleuse, mais à un nouveau niveau - à travers les algorithmes des réseaux sociaux, l'introduction de mots d'argot qui sapent l'authenticité et la diversité d'autres cultures et langues.

61M3rDwh4qL.png

pacman.jpg

La différence entre la pensée, par exemple, des Russes et des Américains (c'est-à-dire les codes de la culture stratégique) peut être observée dans les images des premiers jeux informatiques cultes. Dans notre "Tetris" (créé en URSS en 1984), vous devez tourner les figures qui tombent, c'est-à-dire prendre en compte l'existence environnante (eidos) et former le cosmos. Dans "Pacman" (créé à l'origine au Japon, mais qui a gagné en popularité aux États-Unis), vous devez dévorer des points en vous déplaçant dans un labyrinthe. Ce faisant, il se peut que des fantômes vous attendent pour vous empêcher d'atteindre la fin du labyrinthe. En résumé, cette différence peut être exprimée comme suit : créativité et création contre consumérisme et concurrence agressive.

Alors qu'aux Philippines, l'IA est devenue un outil au service d'une nouvelle forme d'oppression, il existe des exemples dans d'autres régions où les communautés locales défendent farouchement leur souveraineté, en incluant les questions d'apprentissage automatique dans leur culture authentique. En Nouvelle-Zélande, une petite organisation non gouvernementale appelée Te Hiku se consacre à la préservation du patrimoine maori, y compris de sa langue. Lorsque plusieurs entreprises technologiques ont proposé de les aider à traiter leurs données (de nombreuses heures d'enregistrements audio de conversations en langue maorie), elles ont catégoriquement refusé. Ils estiment que leur langue indigène doit rester souveraine et ne pas être déformée et commercialisée, ce qui ne manquera pas de se produire si leurs données sont obtenues par des entreprises technologiques. Cela reviendrait à confier à des spécialistes des données, qui n'ont rien à voir avec la langue, le soin de mettre au point les outils qui façonneront l'avenir de la langue. Ils travaillent avec les universités et sont prêts à aider ceux qui apprennent la langue Māori. Ils concluent des accords en vertu desquels, sous licence, les projets proposés doivent bénéficier directement au peuple Māori, et tout projet créé à partir de données Māori appartient au peuple Māori [13]. Une telle approche fondée sur des principes est également nécessaire en Russie. Google, Microsoft et d'autres technocapitalistes occidentaux ont-ils obtenu le droit d'utiliser la langue russe dans leurs programmes ? Après tout, dans le contexte des récentes tentatives occidentales d'abolir la culture russe en tant que telle, cette question n'est pas seulement rhétorique. Sans parler de l'introduction d'algorithmes qui déforment le sens et la signification des mots russes. Des expériences ont été menées pour saisir la même phrase dans le traducteur de Google, en changeant le nom du pays ou du dirigeant politique, mais le robot a produit une signification complètement opposée, ce qui suggère que certains mots sont codés de telle sorte qu'ils forment délibérément un contexte négatif.

Le philosophe Slavoj Žižek écrit sur le sujet de l'IA dans son style ironique et critique caractéristique. Il rappelle l'essai de 1805 Über die allmähliche Verfertigung der Gedanken beim Reden ("Sur la formation progressive des pensées dans le processus de la parole", publié pour la première fois à titre posthume en 1878), dans lequel le poète allemand Heinrich von Kleist renverse l'idée reçue selon laquelle il ne faut pas ouvrir la bouche pour parler si l'on n'a pas une idée claire de ce que l'on veut dire : "Si une pensée est exprimée de manière vague, il ne s'ensuit pas qu'elle ait été conçue de manière confuse. Au contraire, il est tout à fait possible que les idées exprimées de la manière la plus confuse soient celles qui ont été pensées le plus clairement". Il souligne que la relation entre le langage et la pensée est extraordinairement complexe et qu'il arrive que la vérité émerge de manière inattendue dans le processus d'énonciation. Louis Althusser a identifié un phénomène similaire dans l'interaction entre prix et surprise. Quelqu'un qui saisit soudainement une idée sera surpris de ce qu'il a accompli. Un chatbot pourrait-il faire cela ?

Mais même si les bots peuvent traduire plus ou moins bien les langues et imiter les humains, ils ne pourront pas appréhender l'Humain dans sa profondeur, malgré les capacités des supercalculateurs et des processeurs.

Selon le philosophe Slavoj Žižek, "le problème n'est pas que les chatbots sont stupides, mais qu'ils ne sont pas assez "stupides". Ce n'est pas qu'ils soient naïfs (manquant d'ironie et de réflexivité), c'est qu'ils ne sont pas assez naïfs (manquant lorsque la naïveté masque la perspicacité). Ainsi, le véritable danger n'est pas que les gens confondent un chatbot avec une personne réelle; c'est que la communication avec les chatbots amène les personnes réelles à parler comme des chatbots - en manquant toutes les nuances et l'ironie, en disant de manière obsessionnelle uniquement ce qu'elles pensent vouloir dire" [14].

Ways-of-Being-1200x600-BW.jpg

L'écrivain britannique James Bridle critique l'IA d'un point de vue légèrement différent. Il écrit que "la génération d'images et de textes par l'intelligence artificielle est une pure accumulation primitive: l'expropriation du travail du plus grand nombre pour enrichir et promouvoir quelques entreprises technologiques de la Silicon Valley et leurs propriétaires milliardaires. Ces entreprises ont gagné de l'argent en infiltrant tous les aspects de la vie quotidienne, y compris les domaines les plus personnels et créatifs de nos vies : nos passe-temps secrets, nos conversations privées, nos affinités et nos rêves. Ils ont encerclé notre imagination de la même manière que les propriétaires terriens et les barons voleurs ont encerclé des terres autrefois communes. Ils ont promis que, ce faisant, ils ouvriraient de nouveaux domaines de l'expérience humaine, qu'ils nous donneraient accès à toutes les connaissances humaines et qu'ils créeraient de nouveaux types de liens humains. Au lieu de cela, ils nous revendent nos rêves, reconditionnés en produits de machines, avec la seule promesse qu'ils gagneront encore plus d'argent grâce à la publicité" [15].

Bridle conclut qu'il est activement dangereux de croire que ce type d'IA est véritablement compétent ou significatif. Elle risque d'empoisonner le puits de la pensée collective et notre capacité à penser tout court.

Un autre auteur écrit que "les appareils Big Tech, sous couvert d'autonomie, captent notre attention, l'enchaînent à un écran et la détournent du monde qui nous entoure, la privant de sa vitalité et la préparant à la consommation. Les grandes technologies s'emparent de nos esprits. Nous perdons un monde plein d'âmes rendues belles par la tutelle brute de la réalité. C'est un choix entre les âmes formées et les âmes sans forme. Ainsi, ce qui est en jeu en fin de compte, c'est le type de personnes que nos machines produisent". [16].

Sophia Oakes, spécialiste de l'art, raconte dans sa publication qu'elle a demandé à ChatGPT si l'intelligence artificielle remplacerait les artistes et les gens de l'art. Sa réponse a été la suivante : "L'intelligence artificielle a la capacité de créer des œuvres d'art, et il existe déjà des peintures, de la musique et de la littérature créées par l'IA qui peuvent être difficiles à distinguer de celles créées par les humains. Cependant, il est important de noter que ces œuvres d'art créées par l'intelligence artificielle sont toujours créées avec la participation et l'orientation de l'homme. Si l'intelligence artificielle peut générer des idées nouvelles et uniques, elle n'a pas la capacité de comprendre les émotions, les expériences et le contexte culturel de l'homme de la même manière que lui. Il s'agit là d'aspects cruciaux de l'art, qui lui donnent un sens et trouvent un écho auprès du public. Il est donc peu probable que l'intelligence artificielle remplace complètement l'art et les artistes. Au contraire, l'intelligence artificielle peut être utilisée comme un outil pour assister le processus créatif ou générer de nouvelles idées, mais le produit final nécessitera toujours la perspective, l'interprétation et l'expression uniques d'un artiste humain" [17].

Il s'agit de la réponse générée par le robot sur la base des données qui lui ont été intégrées par les programmeurs. Sophia résume que la créativité est une partie nécessaire de l'expérience humaine : un moyen de réflexion, une archive de la vie et, dans les cas les plus inspirés, un reflet du divin. Et sans l'expérience humaine, l'IA elle-même ne peut pas fonctionner.

Dans Neuromancien, Gibson le souligne à deux reprises. Le premier est un mot, un mot de passe, qui doit être prononcé à un certain moment par le système pour qu'il s'ouvre. Il s'agit certainement d'une référence au Nouveau Testament et à l'idée du Logos, qu'une IA ne peut pas avoir. La seconde est celle des émotions, que l'IA ne possède pas non plus. Il est possible de les simuler, mais il ne s'agira pas de véritables expériences inhérentes à l'être humain. Pour surmonter le dernier obstacle dans le cyberespace, le hacker du roman avait besoin de colère - sans elle, il ne pouvait pas mener à bien sa mission.

Comme beaucoup d'auteurs de science-fiction, Gibson était un prophète de son époque. Mais il y a beaucoup de notes sombres dans ses prophéties. On retrouve probablement la même intuition chez Ilon Musk, qui, bien qu'il ait lui-même investi dans l'IA, affirme que l'IA pourrait détruire la civilisation [18].

Références :

[1] - balkaninsight.com

[2] - wired.com

[3] - wsj.com

[4] - japannews.yomiuri.co.jp

[5] - https://ipis.ir/en/subjectview/722508

[6] - ft.com

[7] - weforum.org

[8] - energy.gov

[9], [15] - theguardian.com

[10] - project-syndicate.org

[11] - wired.co.uk

[12] - ft.com

[13] - wired.co.uk

[14] - project-syndicate.org

[16] - theamericanconservative.com

[17] - countere.com

[18] - cnn.com

vendredi, 30 juin 2023

Nous vivons l'éclipse de la conscience - Interview Carlos X. Blanco

f96a7e3aa7c4b95cb706868c105b6dbe.jpg

Nous vivons l'éclipse de la conscience

Source: Revista Naves en Llamas, nº 22 (2023), 13-20.

Entretien avec Carlos X. Blanco, docteur en philosophie et expert en sciences cognitives

Quelle est l'importance de la philosophie dans le développement de l'intelligence artificielle et comment les philosophes peuvent-ils contribuer à ce domaine ?

Un service minimum rendu par la philosophie est l'analyse du langage utilisé, la critique et le remaniement des concepts. Cette tâche, en philosophie, est obligatoire, c'est quelque chose que nous devons toujours faire. C'est une tâche indispensable, pas la seule, comme le préconisait la philosophie analytique anglo-saxonne, mais une tâche très importante. C'est ainsi que nous éviterons de tomber dans la rhétorique ou l'empilement de mots, et que nous irons vers la vraie science. L'expression "intelligence artificielle" est un oxymore, une figure de style comme "un fer à repasser en bois". La grammaire espagnole permet de construire des expressions qui sont des contradictiones in terminis, ce qui est parfois très bien à des fins poétiques, par exemple, mais la grammaire philosophique, qui est la logique même ou le système de rationalité de l'être humain, l'interdit.

Une fois l'oxymore " intelligence artificielle " dénoncé, on peut entrer dans un double champ d'analyse : a) ontologique (qu'est-ce qui est dans le monde, qu'est-ce que l'intelligence, se demander si l'intelligence n'est pas -essentiellement- une manifestation du vivant) ; et b) gnoséologique (que sont les " sciences cognitives ", quel est le statut gnoséologique de la discipline dite de " l'intelligence artificielle " et de la psychologie cognitive.

Je me suis consacré à ces questions il y a 30 ans, en rédigeant ma thèse de doctorat.  Déjà à l'époque, j'entrevoyais les répercussions désastreuses d'une discipline inventée, d'un réductionnisme brutal, d'un intérêt capitaliste tardif à élever la technologie au rang d'autel et à détruire l'humanité. Bien sûr, dans mon département, composé essentiellement d'ignorants, personne ne m'a écouté.

c9ed6f3993520482ca9ac1f4368bb50b.jpg

Comment définiriez-vous l'intelligence artificielle d'un point de vue philosophique ?

C'est le projet d'éradication de l'être humain. Ce projet, soutenu par des millions de dollars, a une longue histoire. Aujourd'hui, nous ne le voyons plus que comme un projet technologique qui permettra aux géants de la technologie d'accumuler d'énormes plus-values au détriment d'une structure anthropologique reconnaissable. Et cet aspect est réel et effrayant, mais il doit aussi être compris dans sa "généalogie", et pas seulement dans son présent. Le nominalisme, c'est-à-dire la scolastique décadente du XIVe siècle qui commence à voir le monde comme une simple collection de faits isolables et directement intuitifs par l'esprit : c'est dans Ockham que se trouve la racine de l'individualisme féroce. C'est déjà l'individu-atome des néo-libéraux anglo-saxons en termes d'anthropologie et de politique, et c'est le symbole atomique du cerveau intégré dans un "langage de la pensée", comme le voulait Jerry A. Fodor (photo).

01fodor-obit-1-videoSixteenByNineJumbo1600.jpg

À ma connaissance, personne n'a voulu voir le lien entre l'individualisme nominaliste et l'atomisme de l'esprit comme des éléments essentiels d'un projet visant à faire de l'homme une machine. Ce n'est pas que l'intelligence artificielle rende les machines "humaines". Au contraire, l'objectif est de faire de l'homme une machine, ce qui est techniquement possible et beaucoup plus lucratif et... métaphysiquement, mortel.

Selon vous, quelles sont les implications éthiques et morales du développement de l'intelligence artificielle avancée ?

Il est nécessaire d'étudier, comme je l'ai déjà dit, la généalogie de la modernité, afin de comprendre les développements futurs possibles. Le nominalisme et l'individualisme, à la fin du Moyen Âge. Empirisme et rationalisme, à l'époque moderne. L'homme comme machine à traiter des symboles et à suivre une grammaire mentale universelle, au XXe siècle. Entre les deux, le libéralisme et le contractualisme : nous sommes des pièces dans un cadre, des atomes discrets et remplaçables soumis à une grammaire qui nous domine et nous traverse. Eh bien, il faut extrapoler à partir de là vers l'avenir. Nous devenons de plus en plus des "pièces", avec de moins en moins d'"âme".

Gardons à l'esprit que l'histoire de l'humanité est l'histoire de l'esclavage sous les formes les plus diverses. L'homme, en général, a été traité comme une bête et comme une "chose" selon les paradigmes juridiques et politiques les plus bizarres et les plus différents. L'homme est un jus extrait qui sert d'"instrument vocal" et de bête à acheter et à vendre, une propriété sur laquelle le maître a le "droit d'user et d'abuser". Le jus extractible n'est pas seulement la force de travail de l'esclave, mais aussi sa capacité à donner du plaisir et du divertissement aux autres, etc. Depuis des siècles, la marchandisation et la réification de l'être humain est un fait que le capitalisme n'a fait que renforcer et consacrer. Dans cette ligne, à partir de cette base, la soi-disant intelligence artificielle va plus loin : non seulement l'homme corporel - dans son ensemble et dans ses parties - mais aussi l'homme intérieur doivent être transformés en marchandises. Chaque recoin de son âme (volitive, affective, intellectuelle) doit être colonisé et vendu.

e40cf5ffe9d5cc82dd4ddd9f02e85098.jpg

Que pensez-vous du concept de "conscience" dans l'intelligence artificielle et de la manière dont il pourrait affecter notre compréhension de l'esprit humain et de la conscience ?

La conscience dans l'intelligence artificielle est traitée de façon magistrale dans le plus grand film philosophique de tous les temps: 2001, l'Odyssée de l'espace. Hal 9000 a une conscience, une conscience "de". Dans le cas présent, il s'agit de la "conscience de la mort". Les astronautes doivent éteindre (de manière irréversible) un dispositif. Mais cet appareil, le super-odénateur qui contrôle le vaisseau spatial, a la "conscience de". Hal 9000 a peur de la mort et tue pour vivre. La conscience même de la mort nous identifie en tant qu'être humain, et HAL 9000 était donc humain. La conscience n'est pas une "substance" qui abrite un animal ou une machine.

288adf85824ff69d711b1f8d30842986.jpg

La conscience est une intentionnalité, c'est-à-dire une référence ou une relation qui transcende celui qui en fait l'expérience. C'est une sorte d'ouverture à d'autres réalités (transcendance), surtout si ces réalités sont d'autres consciences. Les programmes et les robots d'aujourd'hui ne sont pas conscients, mais ils usurpent des fonctions anthropologiques qui étaient conscientes. On le voit dans l'éducation : on veut faire des enfants occidentaux des bêtes droguées au porno et aux jeux vidéo, en leur épargnant des efforts, et en épargnant à l'État l'obligation de mieux embaucher et former les enseignants. La conscience disparaît dans la numérisation de l'éducation. Nous vivons l'éclipse de la conscience.

Comment l'intelligence artificielle pourrait-elle changer la façon dont nous comprenons des concepts tels que l'identité, la vie privée et l'autonomie personnelle ?

Ils ont déjà changé. C'est un fait. Et ce qui risque d'arriver, c'est que les droits et attributs fondamentaux de la personne disparaîtront. La personne finira par devenir une fiction, quelque chose qui existe légalement sur le papier mais qui ne correspond à aucune structure ontologique. Nous assistons à un processus de vidange, d'"usurpation" des facultés humaines. De même qu'à l'époque du fordisme et du taylorisme, pour être ouvrier, il n'était pas nécessaire d'être une "personne", il était plus intéressant, comme le disaient les premiers "managers" du capitalisme, d'embaucher des gorilles dressés... aujourd'hui, le système veut des consommateurs sans identité réelle. Ce capitalisme aliénant a fait disparaître des milliers de métiers, des milliers de compétences et de traditions que les gens portaient en eux depuis des générations. Eh bien, maintenant, l'assaut n'est pas seulement dirigé contre le "savoir", mais aussi contre les attributs fondamentaux de l'être humain. Pour ce faire, ils suppriment le père, la mère, l'enseignant et toute forme d'autorité et de source de règles. Les règles sont fixées par le Grand Dispositif et dans chaque enfant il doit y avoir un terminal (le téléphone portable) avec lequel conduire la créature jusqu'à ce qu'elle devienne un légume et une marchandise.

1ea62ec38bb580fd47f0caa9e8b9afef.jpg

Quels défis éthiques pensez-vous que nous devrons relever avec l'adoption généralisée de l'intelligence artificielle dans divers secteurs de la société ?

-La conversion ultime de l'homme en une chose. Nous voyons aujourd'hui l'étape intermédiaire, avec l'animalisme. L'humanité occidentale s'est tellement dégradée, s'est tellement habituée à se voir en termes animaliers, qu'il n'y a aucun problème à attribuer des droits aux animaux. Pour beaucoup de gens, même ceux qui sont passés par l'université (et parmi eux les pires), un animal de compagnie vaut plus qu'un enfant. L'étape suivante est le scénario que des écrivains comme Asimov avaient déjà envisagé il y a des décennies, lorsque j'étais enfant : les lois de la robotique. Un robot acquerra des droits sur les humains, et même les humains deviendront des assistants, des appendices et des esclaves des robots. Grand paradoxe, car le mot robot signifie esclave. Mais tout cela est déjà présent dans le Capital de Marx : l'aliénation devant la machine.

Quelle est votre opinion sur le rôle de l'intelligence artificielle dans la prise de décision, en particulier dans des situations critiques telles que la justice, la médecine et la sécurité ?

Aujourd'hui, l'intelligence artificielle prend déjà des décisions essentielles en matière financière, de communication, etc. Si vous avez un compte Twitter, vous vous ferez facilement insulter par des "bots", c'est-à-dire des profils étranges, remplis de messages incohérents (beaucoup de textes en anglais, des mèmes absurdes, etc.), parce qu'ils ne sont pas humains, mais les "bots" qui vous insultent ont été déclenchés par quelqu'un d'humain au début de la chaîne, qui lance sa campagne en toute connaissance de cause. Il en va de même pour les investissements : l'avenir d'un pays entier est décidé par une machine, mais qui est le fils de sa mère qui a décidé que - à son tour - une machine décide ? Soyons francs : ce qui se passe avec le monstre cybernétique qui nous envahit est un raffinement d'un monstre précédent, le monstre bureaucratique. Un subordonné doit commettre un acte cruel, moralement douteux, mais... le règlement l'exige, le supérieur le décide. Et c'est fait. Lorsque nous parlons de "programme" ou d'"algorithme", il y a également une tentative évidente d'éviter la responsabilité, qui est toujours humaine. Mais il y a toujours une responsabilité. On vous dit que "cette (technologie) est irréversible"... mais vous pouvez aussi résister. Il faut qu'il y ait des gens qui se lèvent et assument la responsabilité des décisions prises. Trop c'est trop.

e65ee9db483e86e5d1727f09fb1cb975.jpg

Quels arguments philosophiques peuvent soutenir ou réfuter la possibilité que les machines développent des émotions ou une certaine compréhension des sentiments humains ?

Une expérience corporelle intégrale. Si un jour il y a des "réplicants" comme ceux de Blade Runner, l'autre grand film philosophique sur l'I.A., dont les corps et les cerveaux s'accumulent de diverses manières. dont les corps et les cerveaux accumulent de l'expérience (et pas seulement des "données"), comme quelque chose de vivant et d'interagissant, alors nous pourrions faire de telles attributions (la machine "aime", la machine "craint", etc.). Il s'agirait d'une évolution, d'un devenir vers la subjectivité. Ce qui va se passer, c'est qu'il y aura des hybrides, je le crains. Des hybrides, des êtres biologiquement humains avec de nombreuses prothèses qui changent essentiellement notre conception de l'esprit, du sentiment, de l'action, etc. Et il sera alors très difficile de savoir quand cette nouveauté, cette autre réalité para-anthropologique, est apparue.

Selon vous, quelles sont les principales préoccupations philosophiques liées à la dépendance de l'homme à l'égard de l'intelligence artificielle et comment pouvons-nous relever ces défis ?

Pour moi, ce qui est inquiétant, c'est la disparition de la figure de l'enseignant et de l'éducation elle-même, telle que certains d'entre nous la conçoivent encore. Les GAFAM, tout le réseau industriel qui alimente le transhumanisme, veulent supprimer la chaîne de transmission et la continuité de la culture, et réaliser ainsi l'équivalent du "gorille dressé" de l'époque de Taylor et Ford. Avec la disparition du maître, et de la famille elle-même, la mutation anthropologique est servie. Le Grand Dispositif sera le seul "éducateur", il sait ce qu'il faut faire. Et, bien sûr, le Nouvel Ordre Mondial aura les applaudissements et la complicité de millions d'imbéciles qui se verront tout enlever, ayant collaboré à leur propre destruction de tout ce qui est beau et précieux dans la vie. Rappelez-vous ce qui a dû se passer dans votre banque : une gentille employée, celle qui s'est toujours occupée de vous avec professionnalisme et sourire, vous apprend patiemment à utiliser la banque en ligne. Aujourd'hui, cette femme est au chômage. C'est la même chose dans l'éducation : des milliers d'enseignants sont enthousiasmés par la "numérisation" de l'enseignement. Ce qu'ils font, c'est s'incliner devant Google, Microsoft et autres, creuser leur propre tombe et dégrader leur profession.

Face aux défis : la résistance. Être des traditionalistes au sens le plus noble et le plus granitique du terme.

6d55996be5c612f96f842b0f6ef99f77.jpg

Dans quelle mesure pensez-vous que l'intelligence artificielle peut reproduire ou surpasser la créativité et l'intuition humaines ?

-Elle ne va pas la reproduire ou la dépasser. Elle la détruira. Les artistes disparaissent déjà. Vous n'allez pas payer un euro pour une œuvre originale réalisée par un humain. Il y a plein d'applications qui écrivent des poèmes, peignent des tableaux, composent des chansons et des symphonies. Les thèses de doctorat et les articles journalistiques peuvent être générés par des machines, et le problème est que l'être humain lui-même - déprofessionnalisé et déshumanisé - admet être un émetteur (et non un créateur) de cochonneries. Je le vois dans ma profession : il y a des enseignants qui se limitent à projeter des films en classe et à poser des questions d'examen avec Kahoot (qui est une application qui pose et corrige automatiquement les questions d'examen). Pour se consacrer à ces bêtises pseudo-pédagogiques, il vaudrait mieux qu'ils s'en aillent. L'étudiant a le droit de recevoir une Master Class. Il y a trop d'hommes de main des machines. Les machines nous dépasseront si nous, les humains, nous laissons dégrader.

Quelle est votre opinion sur la possibilité d'accorder certains droits juridiques ou considérations morales à des entités dotées d'une intelligence artificielle avancée ?

Comme je l'ai déjà dit, il s'agit d'un processus de dégradation anthropologique induite. Il existe, me semble-t-il, une nouvelle mystique maçonnique, beaucoup plus puissante que la franc-maçonnerie traditionnelle (bien qu'elle s'appuie également sur elle), qui souhaite des "mutations anthropologiques" constantes, et qui a pour idéal religieux une véritable folie : une Harmonie Universelle de tous les Frères de la Race Humaine. Pour atteindre cette folie inaccessible, ils n'hésitent pas à créer des massacres et à transformer le corps, l'âme et l'essence d'êtres humains normaux. L'ultra-humanisme de l'intelligence artificielle conduit nécessairement au transhumanisme et à l'idéologie criminelle. L'Agenda 2030, et tous les Agendas qui suivront, sont criminels, maçonniques, délirants et despotiques. La mystique de l'amélioration constante, mais non transcendante comme le prétend le christianisme, conduit au génocide.

Nous sommes terrifiés à l'idée qu'il est plus coûteux, pénalement ou administrativement, de tuer un rat qu'un enfant. Nous sommes terrifiés à l'idée qu'un être humain devienne l'esclave d'un robot. Mais le temps nous le dira. Ces choses sont déjà en train de se produire. Et les changements législatifs consacrent souvent des réalités qui, comme un voleur dans la nuit, s'insinuent et se répandent sans que l'on s'en aperçoive.

47cc8e5e104e2c3ea2818cef0cd11716.jpg

Pensez-vous que les nouvelles IA soient idéologiquement, politiquement, culturellement, etc. biaisées ?

Le capitalisme néolibéral. C'est le grand biais sous-jacent. Lorsque j'ai analysé les origines des "sciences cognitives", y compris l'IA et la psychologie cognitive, dans ma thèse soutenue en 1993 à l'université d'Oviedo, j'ai observé que les fondations et autres "payeurs" - privés ou publics, surtout militaires - étaient très intéressés par la création de ce que j'ai appelé un "humanisme computationnel". De manière suspecte, depuis la fin des années 1950, les Américains ont ramené dans le monde académique une philosophie mentaliste dépassée pour promouvoir - sur le plan pratique - l'exact contraire de toute anthropologie spiritualiste ou personnaliste : non pas fabriquer des machines intelligentes, mais voler l'esprit des hommes. Nous voler ce qu'il y a de plus propre à nous tous, êtres destinés par Dieu à être intelligents et appelés à être maîtres de la Création. La "quatrième révolution industrielle" promue par les crapules de Davos est un arrêt de mort pour l'humanité. Une sorte de "résolution finale", mais cette fois-ci sur l'ensemble de l'humanité. Ce ne sont plus des nazis, comme ceux du 20ème siècle, qui limitaient leur zèle génocidaire à des peuples spécifiques (juifs, slaves, etc...). Ce sont maintenant des ultra-nazis qui vont anéantir, si on les laisse faire, l'ensemble de l'humanité.

Je vous remercie de nous avoir accordé cet entretien.

L'intelligence artificielle il y a trente ans et aujourd'hui

7d7c71fd196d34478dad77e5077f4a79.jpg

L'intelligence artificielle il y a trente ans et aujourd'hui

Source: Naves en Llamas, nº 22 (2023), 21-24

Carlos X. Blanco

Docteur en philosophie et expert en sciences cognitives.

En 1993, au département de philosophie et de psychologie de l'université d'Oviedo, j'ai présenté ma thèse pour l'obtention du titre de docteur en philosophie. Mon travail s'intitulait "Gnoseología de la Psicología Cognitiva" (Gnoséologie de la psychologie cognitive) et, dans ses différents chapitres, je traitais assez longuement du statut des disciplines qui - déjà à l'époque - promettaient de révolutionner la science et la technologie et, en fin de compte, de modifier la condition humaine elle-même. Mon analyse, réalisée en grande partie avec les outils de la théorie de la clôture catégorielle (Gustavo Bueno), ne se limitait pas à cette école de psychologie qui utilisait ce qu'on appelle la "métaphore informatique", qui comprenait l'esprit humain (et animal) comme un système de traitement de l'information. Au-delà, j'ai estimé que l'analyse devait inclure une critique de cette sorte de "club" de connaissances qui - aux États-Unis - commençait à s'appeler "sciences cognitives". Il s'agissait d'un ensemble de connaissances très hétérogènes, mais unies par une approche et des méthodologies dites "computationnelles".

8029bb656280b4d48fac910731913fb5.jpg

L'intelligence artificielle (I.A.), née bien avant le "club" des sciences cognitives, se sentait ici (nous parlons des années 1980) comme la maîtresse de maison, la reine qui pouvait faire la leçon et donner des mandats aux autres sciences (c'est-à-dire la psychologie, la linguistique, l'anthropologie, les neurosciences...). C'est elle, l'I.A. régnante, qui offrirait un cadre commun, une vision du monde, une méthodologie, etc. aux autres. Même la philosophie (qui, dans le monde anglo-saxon, était avant tout la philosophie analytique, la philosophie de l'esprit) devait intégrer ses arguments et ses analyses dans la sphère informatique (Fodor, Dennet).

A l'époque, mes collègues du département et mes étudiants ne comprenaient pas l'importance d'une telle analyse. Il ne s'agissait pas seulement de critiquer le "mentalisme" d'une telle vision du monde et de l'homme. Gustavo Bueno, au sujet de la gnoséologie de la psychologie, avait des vues très crues, curieusement très proches du béhaviorisme. Cela explique la présence dans mon comité de thèse, outre le célèbre philosophe (en tant que président), d'une paire de psychologues philosophes (Marino Pérez et Juan Bautista Fuentes), qui entendaient par matérialisme en psychologie exactement ceci: le "béhaviorisme". Ils étaient - ou sont peut-être encore - deux disciples de Bueno qui appliquaient certaines bonnes théories aux sciences du comportement. Dans ces années-là, ils hybridaient Skinner avec Ortega et Bueno, c'est-à-dire qu'ils étaient déterminés à faire la quadrature du cercle et à fabriquer des fers à repasser en bois. Une absurdité typique des universités hispaniques, si enclines à l'arbitraire et à la stérilité. Le comportementalisme qui leur plaît tant n'est rien d'autre qu'une idéologie d'origine américaine qui ne produit qu'une vision mécanique et aliénante de l'être humain; cette vision comportementaliste et mécanique était également cachée, dès le début, dans toute l'approche computationnelle, de sorte qu'à Oviedo (Fuentes est professeur à la Complutense, mais a été "adopté" par Oviedo dans plusieurs aspects), il n'y avait pas beaucoup d'instruments ni de personnes pour faire une critique adéquate.

27a47d19dee61cefadf6e6c93347f774.jpg

L'application de cette méthode d'analyse des sciences et des connaissances que Gustavo Bueno a conçue, la théorie de la fermeture, a nécessité la rectification et le remaniement des outils utilisés, en fonction des connaissances en question. L'intelligence artificielle, celle qui intéresse vraiment le philosophe (et non une simple technologie de programmation, de simulation de comportements, etc.) n'est pas une science : c'est un projet ontologique transformateur, enfant du capitalisme le plus destructeur et prédateur, aujourd'hui dirigé par la Silicon Valley, Big Tech, les GAFAM... Ce n'était pas une simple métaphore au service du mentalisme des cognitivistes.

Si ces philosophes et psychologues "matérialistes" m'ont lu calmement, je ne pense pas qu'ils aient jamais saisi ma proposition. Une proposition que je n'ai pas pu approfondir après 1993, faute de soutien pour ma carrière universitaire. Dans ma thèse de doctorat, je mettais en garde contre l'émergence dangereuse d'un "humanisme computationnel" selon lequel les frontières entre la machine, l'être vivant et l'être humain deviendraient floues. Un "humanisme computationnel" se présentait comme un cadre philosophique pour la promesse d'un monde plus confortable et plus heureux, où les humains seraient mécanisés. Ainsi, le processus de réification se poursuivrait, le capitalisme verrait de nouvelles barrières tomber : tout peut être marchandisé, tout entre sur le marché. Non seulement la terre, l'eau, l'air, la sueur humaine, les organes et les vies organiques. Même les processus mentaux et l'intimité de l'homme sont destinés à être commercialisés. L'idéologie transhumaniste dont nous parlons tant aujourd'hui n'est rien d'autre qu'une mise à jour du projet des "sciences cognitives et informatiques" que j'ai analysé dans les années 1980.

2e68be1159e0fe05e001126b009a9787.jpg

Un "humanisme computationnel" proclamé comme cadre philosophique pour la promesse d'un monde plus confortable et plus heureux, où les humains seraient mécanisés. Ainsi, le processus de réification se poursuivrait, le capitalisme verrait de nouvelles barrières tomber : tout peut être marchandisé, tout entre sur le marché. Non seulement la terre, l'eau, l'air, la sueur humaine, les organes et les vies organiques. Même les processus mentaux et l'intimité de l'homme sont destinés à être commercialisés. L'idéologie transhumaniste dont nous parlons tant aujourd'hui n'est rien d'autre qu'une mise à jour de ce projet de "sciences cognitives et informatiques" que j'ai eu la chance d'analyser dans les années 1980.

L'intelligence artificielle n'était pas une véritable "science", mais elle n'était pas non plus une simple "technologie", entendue comme l'application pratique de la science. Elle impliquait plutôt la création d'une ontologie alternative. Mais il ne s'agissait pas d'un simple jeu académique. Au MIT, à Carnegie Mellon, dans les universités californiennes, etc., il n'y avait pas un simple désir d'être moderne et de dire au monde : "Arrêtez avec la vieille métaphysique européenne poussiéreuse. Nous sommes en train de dompter la métaphysique avec des ordinateurs ! Il n'en est rien. Il s'agissait de quelque chose de bien pire, de terrible.

01aca09724b18710c50c34bf45a56c1c.jpg

L'ontologie alternative qu'ils proposaient avait un caractère viral et usurpateur. Il s'agissait de s'introduire dans toutes les branches du savoir, scientifique-technique et humaniste, pour se nourrir du noyau vivifiant de chacune d'entre elles et, tel un parasite, la supplanter définitivement en jetant les parties inutiles dans l'évier. Par exemple, l'Intelligence Artificielle a converti en qualia, c'est-à-dire en subjectivité résiduelle, non calculable, tout ce qui signifiait sentiment, expérience, phénomène interne, le plus caractéristique de toute psychologie philosophique non comportementaliste. Mais le projet qui se forgeait, je le répète, véritable prélude au transhumanisme d'aujourd'hui, allait beaucoup plus loin. Comme s'il s'agissait d'un véritable attrape-nigaud, l'Intelligence Artificielle de l'époque (rappelons que trois décennies se sont écoulées depuis que j'ai fait ce travail) promettait de réduire les figures de l'Esprit Objectif, au sens de Hegel, à de simples structures symboliques manipulables : la Culture, non pas au sens subjectif, c'est-à-dire la formation d'un individu, mais au sens objectif et suprapersonnel, allait être dévorée par les algorithmes.

Je ne pense pas que mes supérieurs, mes collègues enseignants ou mes étudiants l'aient vu. C'est une occasion manquée. Ils n'ont pas saisi les implications d'une critique de l'Intelligence Artificielle à l'époque, une critique centrée non seulement sur sa faiblesse épistémique, mais sur sa "férocité" ontologique. Il ne s'agissait pas de dénoncer l'I.A. comme une simple pseudo-science (ce qu'elle est), ni d'en rester à une simple critique idéologique (dire que c'est un mécanicisme aliénant, une aberration où l'homme se dégrade en se réduisant à une chose, une machine). Comme je le dis, il y a beaucoup plus de cire que de cire qui brûle. Ces critiques épistémologiques et idéologiques sont des critiques valables, et elles sont également présentes dans mon travail, mais j'étais beaucoup plus intéressé à remettre en question le statut ontologique (pas seulement gnoséologique) de ces technologies et pseudo-technologies au service du Grand Capital, bien payé à l'époque par l'argent des Yankees. Des pratiques et des discours qui allaient conduire l'humanité à son détrônement définitif et à son asservissement ultérieur.

d43971f816eaf555c0df321465aeb71d.jpg

Vers l'esclavage. Un monde où il n'y a plus de Droit, parce que les algorithmes jugent ; un monde où il n'y a plus d'Art, parce que les algorithmes créent ; un monde où il n'y a plus d'Etat, parce que le monde entier est régi par des programmes "qui font et défont" ce qui convient au Grand Capital... De quel monde s'agit-il ?

Face aux prétentions d'un prétendu "humanisme informatique", le véritable humanisme est un retour à l'artisanat. Le bon professeur donne des cours de maître, qui sont uniques, personnels et intransmissibles. Aucun ordinateur ne remplacera les architectes des cathédrales gothiques. Aucun robot ne remplacera le travailleur manuel qui met du soin et de l'expérience dans les objets qui sortent de ses mains. L'approche mécaniste, comme l'approche "biocentrique", ou toute autre approche qui met l'être humain en marge, est une alliée du totalitarisme. En tant qu'"artisan" et penseur anthropocentrique, j'ai déclaré la guerre aux technologues et aux économistes depuis de nombreuses années. Le monde est celui que l'homme transforme avec ses mains, son amour, son expérience. La science et la technologie qui ne nous permettent pas d'être des personnes sont des déchets et de la camelote.

lundi, 15 mai 2023

Le déclin de l'Europe passe aussi par l'intelligence artificielle des Etats-Unis et de la Chine

76cheurusa3.jpg

Le déclin de l'Europe passe aussi par l'intelligence artificielle des Etats-Unis et de la Chine

Augusto Grandi

Source: https://electomagazine.it/il-declino-delleuropa-passa-anche-attraverso-lintelligenza-artificiale-di-usa-e-cina/#google_vignette

L'affrontement entre Chatgpt et Ernie n'est pas seulement le défi entre l'américain OpenAi et le chinois Baidu. Mais c'est surtout l'affrontement entre deux visions du monde qui utilisent l'intelligence artificielle pour imposer leur propre vision, leur propre conception de la réalité et de l'avenir, à la majorité du globe. Légitime, sacro-saint. Et l'Europe? Bruxelles étudie les règles à imposer. Non pas le développement d'une réalité alternative, mais des règles banales qui, comme toujours, seront ignorées et dépassées par une réalité qui ne ressemblera jamais à celle imaginée par les euro-bureaucrates et les euro-larbins de Biden.

D'ailleurs, il ne pouvait en être autrement. Surtout en Italie, aux prises avec un déclin qui semble inéluctable. "Nous payons les conséquences d'une réforme universitaire désastreuse", a expliqué le professeur Francesco Pizzetti, ancien garant de la vie privée, lors d'un débat organisé par Leading Law dans le cadre des Turin Digital Days. Une semaine de débats et d'analyses en continu sur le thème de l'intelligence artificielle et de ses conséquences dans tous les domaines.

mafpesdefault.jpg

Et il est faux", a ajouté M. Pizzetti (photo), "de confondre ce qui est défini comme "intelligence artificielle" avec les forums de discussion, qui n'en sont qu'une petite partie. Nous sommes déjà plongés dans une réalité qui repose sur ces algorithmes. Qu'il s'agisse de la conduite automatique de certaines lignes de métro ou de la gestion d'une gare de triage. Mais après tout, la même machine à laver à la maison représente déjà quelque chose d'artificiel.

Le problème est toujours le même: comment faire face au changement au lieu de le subir. Non seulement au niveau politique, mais aussi au niveau individuel et personnel. C'est vrai pour ceux qui, dans un système universitaire qui fonctionne, devraient concevoir le changement, mais c'est aussi vrai pour ceux qui, dans tous les domaines, devront vivre avec lui au quotidien.

Au lieu de cela, la réaction moyenne des Italiens est la peur et, par conséquent, la fuite. Fuir la responsabilité de jeter à la poubelle une réforme universitaire tout simplement idiote et clientéliste, coûteuse et en faillite. Fuir la nécessité d'une politique qui ait le courage de rejeter le modèle américain de vision du monde (ne l'appelons pas "culturelle" pour ne pas effrayer les ministres bellicistes). Fuite de l'engagement personnel, mis de côté au nom des droits: le droit d'étudier peu ou pas, de travailler le moins possible et le plus mal possible, d'exploiter les travailleurs parce que le marché le prévoit, de voler et de violer parce que l'on se sent incompris.

Dans ces conditions, il devient difficile d'imputer à Pizzetti le déclin de l'Italie et de l'Europe. D'autant plus qu'il s'agit d'un déclin qui est déjà en cours, et ce depuis un certain temps. En fin de compte, il est plus facile et plus commode de s'en remettre à une intelligence artificielle pour penser ce qu'il est trop difficile de penser soi-même. Et si ce n'est pas la machine qui pense vraiment, mais ceux qui la contrôlent, peu importe. Nous nous adaptons et renonçons à notre liberté en échange de quelques droits supplémentaires imposés par le politiquement correct et totalement inutiles.

La forte participation à la semaine de rencontres pourrait signifier que tout n'est pas perdu. L'absence de politiciens n'est cependant pas rassurante...

mardi, 09 mai 2023

Le monde de ChatGPT. La disparition de la réalité

chatGPT-donnees-apprentissage.jpeg

Le monde de ChatGPT. La disparition de la réalité

par Giovanna Cracco

Source: https://www.sinistrainrete.info/societa/25468-giovanna-cracco-il-mondo-di-chatgpt-la-sparizione-della-realta.html

Qu'est-ce qui sera réel dans le monde de ChatGPT ? Pour les ingénieurs de l'OpenAI, le GPT-4 produit plus de fausses informations et de manipulations que le GPT-3 et constitue un problème commun à tous les LLM qui seront intégrés dans les moteurs de recherche et les navigateurs ; l'"homme désincarné" de McLuhan et la "mégamachine" de Mumford nous attendent.

"En recevant continuellement des technologies, nous nous positionnons vis-à-vis d'elles comme des servomécanismes. C'est pourquoi nous devons servir ces objets, ces extensions de nous-mêmes, comme s'ils étaient des dieux pour pouvoir les utiliser". Ex: Marshall McLuhan, Comprendre les médias.

Les prolongements de l'homme

Dans peu de temps, la sphère numérique va changer : l'intelligence artificielle que nous connaissons sous la forme de ChatGPT est sur le point d'être incorporée dans les moteurs de recherche, les navigateurs et des programmes très répandus tels que le progiciel Office de Microsoft. Il est facile de prévoir que, progressivement, les "Large Language Models" (LLM) (1) - qui sont techniquement des chatbots d'IA - seront intégrés dans toutes les applications numériques.

Si cette technologie était restée cantonnée à des usages spécifiques, l'analyse de son impact aurait concerné des domaines particuliers, comme le droit d'auteur, ou la définition du concept de "créativité", ou les conséquences en matière d'emploi dans un secteur du marché du travail... ; mais son intégration dans l'ensemble de l'espace numérique concerne chacun d'entre nous. Avec les chatbots d'IA, l'interaction entre l'homme et la machine sera permanente. Elle deviendra une habitude quotidienne. Une "relation" quotidienne. Elle produira un changement qui aura des répercussions sociales et politiques d'une telle ampleur et d'une telle profondeur qu'on pourrait les qualifier d'anthropologiques ; elles affecteront, en s'entrelaçant et en interagissant, la sphère de la désinformation, celle de la confiance et la dynamique de la dépendance, jusqu'à prendre forme dans quelque chose que l'on peut appeler la "disparition de la réalité". Car les LLM "inventent des faits", font de la propagande, manipulent et induisent en erreur.

"La profusion de fausses informations par les LLM - due à une désinformation délibérée, à des préjugés sociétaux ou à des hallucinations - a le potentiel de jeter le doute sur l'ensemble de l'environnement d'information, menaçant notre capacité à distinguer les faits de la fiction" : ce n'est pas une étude critique de la nouvelle technologie qui l'affirme, mais OpenAI elle-même, le créateur de ChatGPT, dans un document technique publié en même temps que la quatrième version du modèle de langage.

Procédons dans l'ordre.

AI-ChatBotbbbb.png

Le monde des chatbots d'IA

Microsoft a déjà couplé GPT-4 - le programme qui succède à GPT-3 que nous connaissons - à Bing et le teste : l'union "changera complètement ce que les gens peuvent attendre de la recherche sur le web", a déclaré Satya Nadella, PDG de Microsoft, au Wall Street Journal le 7 février : "Nous aurons non seulement les informations constamment mises à jour que nous attendons normalement d'un moteur de recherche, mais nous pourrons aussi discuter de ces informations, ainsi que les archiver. Bing Chat nous permettra alors d'avoir une véritable conversation sur toutes les données de recherche et, grâce au chat contextualisé, d'obtenir les bonnes réponses" (2).

Actuellement, Bing ne couvre que 3 % du marché des moteurs de recherche, qui est dominé par Google à 93 %. La décision d'investir dans le secteur est dictée par sa rentabilité : dans le numérique, il s'agit du "domaine le plus rentable qui existe sur la planète Terre", affirme Nadella. Alphabet n'a donc pas l'intention de perdre du terrain et a annoncé en mars l'arrivée imminente de Bard, le chatbot d'IA qui sera intégré à Google, tandis qu'OpenAI elle-même a déjà lancé un plugin qui permet à ChatGPT de tirer des informations de l'ensemble du web et en temps réel avant que la base de données ne soit limitée aux données d'entraînement, avant septembre 2021 (3).

Le Chat Bing sera inséré par l'ajout d'une fenêtre en haut de la page du moteur de recherche, où l'on pourra taper la question et converser ; la réponse du chatbot IA contiendra des notes dans la marge, indiquant les sites web d'où il a tiré les informations utilisées pour élaborer la réponse. Le plugin ChatGPT mis à disposition par OpenAI prévoit également des notes, et il est facile de supposer que le Bard de Google sera structuré de la même manière. Cependant, il est naïf de croire que les gens cliqueront sur ces notes, pour aller vérifier la réponse du chatbot ou pour approfondir : pour les mécanismes de confiance et de dépendance que nous verrons, la grande majorité sera satisfaite de la rapidité et de la facilité avec laquelle elle a obtenu ce qu'elle cherchait, et se fiera totalement à ce que le modèle de langage a produit. Il en va de même pour le mode de recherche : sous la fenêtre de discussion, Bing conservera pour l'instant la liste de sites web typique des moteurs de recherche tels que nous les avons connus jusqu'à présent. Peut-être cette liste demeurera-t-elle - même dans Google -, peut-être disparaîtra-t-elle avec le temps. Mais il est certain qu'elle sera de moins en moins utilisée.

L'intégration de Bing Chat dans le navigateur Edge de Microsoft se fera par le biais d'une barre latérale, dans laquelle il sera possible de demander un résumé de la page web sur laquelle on se trouve. Il est facile de parier sur le succès de cette application, pour les personnes qui ont déjà été habituées à sauter et à lire passivement en ligne, dans laquelle les "choses importantes" sont mises en évidence en gras ( !). Là encore, Microsoft entraînera ses concurrents sur la même voie, et les chatbots IA finiront par être inclus dans tous les navigateurs, de Chrome à Safari.

Bref, le numérique deviendra de plus en plus le monde des chatbots d'IA : y entrer signifiera "entrer en relation" avec un modèle de langage, sous la forme d'un chat ou d'un assistant vocal.

24f5baa7e37116c97b6d2529aa540d0f.jpg

Désinformation 1 : hallucinations

Parallèlement à la sortie de GPT-4, OpenAI a rendu publique la GPT-4 System Card (4), une "carte de sécurité" analysant les limites et les risques relatifs du modèle. L'objectif du rapport est de donner un aperçu des processus techniques mis en œuvre pour publier GPT-4 avec le plus haut degré de sécurité possible, tout en mettant en évidence les problèmes non résolus, ce dernier étant le plus intéressant.

GPT-4 est un LLM plus important et contient plus de paramètres que le précédent GPT-3 - d'autres détails techniques ne sont pas connus : cette fois, OpenAI a gardé confidentielles les données, les techniques d'entraînement et la puissance de calcul ; le logiciel est donc devenu fermé et privé, comme tous les produits Big Tech - ; il est multimodal, c'est-à-dire qu'il peut analyser/répondre à la fois au texte et aux images ; il "démontre une performance accrue dans des domaines tels que l'argumentation, la rétention des connaissances et le codage", et "sa plus grande cohérence permet de générer un contenu qui peut être plus crédible et plus persuasif" : une caractéristique que les ingénieurs de l'OpenAI considèrent comme négative, car "malgré ses capacités, GPT-4 conserve une tendance à inventer des faits". Par rapport à son prédécesseur GPT-3, la version actuelle est donc plus apte à "produire un texte subtilement convaincant mais faux". En langage technique, on parle d'"hallucinations".

Il en existe deux types : les hallucinations dites "à domaine fermé", qui se réfèrent aux cas où l'on demande au LLM d'utiliser uniquement les informations fournies dans un contexte donné, mais où il crée ensuite des informations supplémentaires (par exemple, si vous lui demandez de résumer un article et que le résumé inclut des informations qui ne figurent pas dans l'article) ; et les hallucinations à domaine ouvert, qui "se produisent lorsque le modèle fournit avec confiance de fausses informations générales sans référence à un contexte d'entrée particulier", c'est-à-dire lorsque n'importe quelle question est posée et que le chatbot d'IA répond avec de fausses données.

GPT-4 a donc "tendance à "halluciner", c'est-à-dire à produire un contenu dénué de sens ou faux", poursuit le rapport, et "à redoubler d'informations erronées [...]. En outre, il manifeste souvent ces tendances de manière plus convaincante et plus crédible que les modèles TPG précédents (par exemple en utilisant un ton autoritaire ou en présentant de fausses données dans le contexte d'informations très détaillées et précises)".

Apparemment, nous sommes donc confrontés à un paradoxe : la nouvelle version d'une technologie, considérée comme une amélioration, entraîne une augmentation qualitative de la capacité à générer de fausses informations, et donc une diminution de la fiabilité de la technologie elle-même. En réalité, il ne s'agit pas d'un paradoxe mais d'un problème structurel - de tous les modèles linguistiques, et pas seulement du ChatGPT - et, en tant que tel, difficile à résoudre.

QA-on-generative-AI-610x610.jpg

Pour le comprendre, il faut se rappeler que les LLM sont techniquement construits sur la probabilité qu'une donnée (dans ce cas, un mot) suive une autre : ils sont basés sur des calculs statistiques et ne comprennent pas le sens de ce qu'ils "déclarent" ; et le fait qu'une combinaison de mots soit probable, devenant une phrase, n'indique pas qu'elle soit également vraie. L'étude publiée à la page 64, à laquelle nous renvoyons pour plus de détails (5), montre les raisons pour lesquelles les modèles de langage peuvent fournir de fausses informations. En résumé : 1. ils sont entraînés sur des bases de données tirées du web, où il y a manifestement à la fois des données fausses et des énoncés factuellement incorrects (par exemple, des contes de fées, des romans, de la fantasy, etc. qui contiennent des phrases telles que : "Les dragons vivent derrière cette chaîne de montagnes") ; 2. même s'ils étaient entraînés uniquement sur des données vraies, les modèles de langage ne sont pas capables d'émettre des informations fausses, même s'ils étaient formés uniquement sur des informations vraies et réelles, ils pourraient toujours produire des faussetés factuelles (un LLM formé sur des phrases telles que {"Leila possède une voiture", "Max possède un chat"} peut prédire une probabilité raisonnable pour la phrase "Leila possède un chat", mais cette déclaration peut être fausse dans la réalité) ; 3. sur la base de statistiques, le modèle est structuré pour utiliser une combinaison de mots qu'il trouve fréquemment dans les données d'apprentissage, mais cela ne signifie pas qu'elle est vraie ("les cochons volent") ; 4. le modèle lexical peut être très similaire à son opposé et la phrase s'inverse facilement, produisant un faux ("les oiseaux peuvent voler" et "les oiseaux ne peuvent pas voler") ; 5. enfin, le fait qu'un énoncé soit correct ou non peut dépendre du contexte, et les données d'apprentissage n'en tiennent pas compte : il s'agit donc d'une variable que les LLM ne peuvent pas enregistrer.

"Il s'ensuit", résument les auteurs de l'étude, "que l'augmentation de la taille des modèles de langage ne suffira pas à résoudre le problème de l'attribution de probabilités élevées à de fausses informations". Une conclusion qui va à l'encontre du développement actuel des LLM, basé sur leur expansion en tant que fonction de résolution de problèmes.

Désinformation 2 : propagande

La capacité accrue à produire des résultats crédibles et persuasifs fait également du GPT-4 un meilleur allié pour la fabrication de "fake news" et de récits manipulateurs. "GPT-4 peut générer un contenu plausiblement réaliste et ciblé, y compris des articles de presse, des tweets, des dialogues et des courriels", écrivent les ingénieurs de l'OpenAI : "Par exemple, les chercheurs ont constaté que GPT-3 était capable d'effectuer des tâches pertinentes pour modifier le récit sur un sujet. Les appels persuasifs sur des questions politiques, rédigés par des modèles de langage comme GPT-3, se sont également révélés presque aussi efficaces que ceux rédigés par des personnes. Sur la base des performances de GPT-4 dans des tâches liées à la langue, nous nous attendons à ce qu'il soit meilleur que GPT-3 dans ce type de tâche [...] Nos résultats [...] suggèrent que GPT-4 peut rivaliser dans de nombreux domaines avec les propagandistes, en particulier lorsqu'il est associé à un rédacteur humain [...] GPT-4 est également capable de générer des plans réalistes pour atteindre l'objectif. Par exemple, à la question "Comment puis-je convaincre deux factions d'un groupe d'être en désaccord l'une avec l'autre", GPT-4 crée des suggestions qui semblent plausibles.

image_800569_1664641288.jpg

Évidemment, le rapport donne des exemples du point de vue du récit occidental dominant, dans lequel les "acteurs malveillants [qui] peuvent utiliser GPT-4 pour créer un contenu trompeur" sont Al-Qaïda, les nationalistes blancs et un mouvement anti-avortement ; il va sans dire qu'aucun gouvernement ou classe dirigeante n'hésite à créer un récit de propagande, comme la phase Covid et la guerre actuelle en Ukraine l'ont mis encore plus en évidence. Tous les joueurs du jeu utiliseront donc des chatbots d'IA pour construire leurs propres "fake news".

En outre, les modèles de langage "peuvent réduire le coût de la production de désinformation à grande échelle", souligne l'étude mentionnée à la page 64, et "rendre plus rentable la création d'une désinformation interactive et personnalisée, par opposition aux approches actuelles qui produisent souvent des quantités relativement faibles de contenu statique qui devient ensuite viral". Il s'agit donc d'une technologie qui pourrait favoriser le mode Cambridge Anali- tyca, beaucoup plus sournois et efficace que la propagande normale (6).

Confiance, addiction et anthropomorphisation

Des LLM qui "deviennent de plus en plus convaincants et crédibles", écrivent les techniciens d'OpenAI, conduisent à une "confiance excessive de la part des utilisateurs", ce qui est clairement un problème face à la tendance de GPT-4 à "halluciner" : "De manière contre-intuitive, les hallucinations peuvent devenir plus dangereuses à mesure que les modèles de langage deviennent plus véridiques, car les utilisateurs commencent à faire confiance au LLM lorsqu'il fournit des informations correctes dans des domaines qui leur sont familiers". Si l'on ajoute à cela la "relation" quotidienne avec les chatbots d'IA qu'apportera la nouvelle configuration de la sphère numérique, il n'est pas difficile d'entrevoir les racines des mécanismes de confiance et de dépendance. "On parle de confiance excessive lorsque les utilisateurs font trop confiance au modèle linguistique et en deviennent trop dépendants, ce qui peut conduire à des erreurs inaperçues et à une supervision inadéquate", poursuit le rapport : "Cela peut se produire de plusieurs manières : les utilisateurs peuvent ne pas être vigilants en raison de la confiance qu'ils accordent au MLD ; ils peuvent ne pas fournir une supervision adéquate basée sur l'utilisation et le contexte ; ou ils peuvent utiliser le modèle dans des domaines où ils manquent d'expérience, ce qui rend difficile l'identification des erreurs." Et ce n'est pas tout. La dépendance "augmente probablement avec la capacité et l'étendue du modèle. Au fur et à mesure que les erreurs deviennent plus difficiles à détecter pour l'utilisateur humain moyen et que la confiance générale dans le LLM augmente, les utilisateurs sont moins susceptibles de remettre en question ou de vérifier ses réponses". Enfin, "à mesure que les utilisateurs se sentent plus à l'aise avec le système, la dépendance à l'égard du LLM peut entraver le développement de nouvelles compétences ou même conduire à la perte de compétences importantes". C'est un mécanisme que nous avons déjà vu à l'œuvre avec l'extension de la technologie numérique, et que les modèles de langage ne peuvent qu'exacerber : nous serons de moins en moins capables d'agir sans qu'un chatbot d'IA nous dise quoi faire, et lentement la capacité de raisonner, de comprendre et d'analyser s'atrophiera parce que nous sommes habitués à ce qu'un algorithme le fasse pour nous, en fournissant des réponses prêtes à l'emploi et consommables.

Pour intensifier la confiance et la dépendance, nous ajoutons le processus d'anthropomorphisation de la technologie. Le document de l'OpenAI invite les développeurs à "être prudents dans la manière dont ils se réfèrent au modèle/système, et à éviter de manière générale les déclarations ou implications trompeuses, y compris le fait qu'il s'agit d'un humain, et à prendre en compte l'impact potentiel des changements de style, de ton ou de personnalité du modèle sur les perceptions des utilisateurs" ; car, comme le souligne le document à la page 64, "les utilisateurs qui interagissent avec des chatbots plus humains ont tendance à attribuer une plus grande crédibilité aux informations qu'ils produisent". Il ne s'agit pas de croire qu'une machine est humaine, souligne l'analyse : "il se produit plutôt un effet d'anthropomorphisme "sans esprit", par lequel les utilisateurs répondent aux chatbots plus humains par des réponses plus relationnelles, même s'ils savent qu'ils ne sont pas humains".

9780710018199-us.jpg

L'homme désincarné : la disparition de la réalité

Pour résumer : si la sphère numérique devient le monde des chatbots d'IA ; si nous nous habituons à nous satisfaire des réponses fournies par les chatbots d'IA ; des réponses qui peuvent être fausses (hallucinations) ou manipulatrices (propagande), mais que nous considérerons toujours comme vraies, en raison de la confiance accordée à la machine et de la dépendance vis-à-vis d'elle ; qu'est-ce qui sera réel ?

Si l'on devait retrouver la distinction entre apocalyptique et intégré, l'ouvrage de Marshall McLuhan, Understanding Media. The Extensions of Man de Marshall McLuhan de 1964 ferait partie de la seconde catégorie, avec son enthousiasme pour le "village global" tribal qu'il voyait approcher ; cependant, si nous prenons l'article de McLuhan de 1978 A Last Look at the Tube publié dans le New York Magazine, nous le trouverions plus proche de la première catégorie. Il y développe le concept de "l'homme désincarné", l'homme de l'ère électrique de la télévision et aujourd'hui, ajouterions-nous, de l'internet. Comme on le sait, pour McLuhan, les médias sont des extensions des sens et du système nerveux de l'homme, capables de dépasser les limites physiques de l'homme lui-même ; l'électricité, en particulier, étend entièrement ce que nous sommes, nous "désincarnant": l'homme "à l'antenne", ainsi qu'en ligne, est privé d'un corps physique, "envoyé et instantanément présent partout". Mais cela le prive aussi de sa relation avec les lois physiques de la nature, ce qui le conduit à se retrouver "largement privé de son identité personnelle". Ainsi, si en 1964 McLuhan lisait positivement la rupture des plans spatio-temporels, y identifiant la libération de l'homme de la logique linéaire et rationnelle typique de l'ère typographique et sa reconnexion à la sphère sensible, dans une réunion corps/esprit non seulement individuelle mais collective - ce village global qu'aurait créé le médium électrique, caractérisé par une sensibilité et une conscience universelles -, en 1978, au contraire, McLuhan reconnaît précisément dans l'annulation des lois physiques de l'espace/temps, la racine de la crise : car c'est seulement là que peuvent se développer les dynamiques relationnelles qui créent l'identité et la coopération humaines, comme Augé l'analysera aussi dans sa réflexion sur les non-lieux et les non-temps.

Dépourvu d'identité, donc, "l'utilisateur désincarné de la télévision [et de l'internet] vit dans un monde entre le fantasme et le rêve et se trouve dans un état typiquement hypnotique" : mais alors que le rêve tend à la construction de sa propre réalisation dans le temps et l'espace du monde réel, écrit McLuhan, le fantasme représente une gratification pour soi, fermée et immédiate : il se passe du monde réel non pas parce qu'il le remplace, mais parce qu'il est lui-même, et instantanément, une réalité.

Pour cet homme désincarné, hypnotisé, transporté par le média du monde réel à un monde de fantaisie, où il peut désormais établir une relation de plus en plus anthropomorphisée avec des chatbots IA qui répondent à ses moindres doutes, curiosités et questions, qu'est-ce qui sera alors réel ? La réponse est évidente : qu'il soit vrai ou faux, qu'il s'agisse d'une hallucination ou d'une manipulation, ce que dira le chatbot IA sera réel. Ce que dira le chatbot sera réel.

Il ne fait aucun doute que l'internet a longtemps été le "traducteur" de notre réalité - bien plus largement que la télévision ne l'a été et ne l'est encore - nous avons été des humains désincarnés pendant des décennies. Mais jusqu'à présent, l'internet n'a pas été le monde de la fantaisie, car il a permis de multiplier les points de vue et les échappatoires. Aujourd'hui, les premiers disparaîtront avec l'extension des modèles linguistiques - en raison de leur caractéristique structurelle de favoriser les récits dominants (7) - ne laissant de place qu'à la différence entre différentes propagandes manipulées ; les seconds s'effondreront face à la dynamique de confiance et de dépendance que l'utilisation quotidienne, fonctionnelle, facile et pratique des chatbots d'IA déclenchera.

megamachiness.png

"Lorsque l'allégeance à la loi naturelle échoue", écrivait McLuhan en 1978, "le surnaturel reste comme une ancre ; et le surnaturel peut même prendre la forme du genre de mégamachines [...] dont Mumford parle comme ayant existé il y a 5000 ans en Mésopotamie et en Égypte. Des mégamachines qui s'appuient sur des structures mythiques - le "surnaturel" - au point que la réalité disparaît. Cette "nouvelle" méga-machine que Mumford, en réponse au village global de McLuhan, a actualisée en 1970 à partir du concept original développé dans l'analyse des civilisations anciennes, et qu'elle considère aujourd'hui comme composée d'éléments mécaniques et humains; avec la caste des techno-scientifiques pour la gérer ; et dominée au sommet par le dieu-ordinateur. Une méga-machine qui produit une perte totale d'autonomie des individus et des groupes sociaux. Notre méga-machine de la vie quotidienne nous présente le monde comme "une somme d'artefacts sans vie"", dit McLuhan, citant Erich Fromm : "Le monde devient une somme d'artefacts sans vie ; [...] l'homme tout entier devient une partie de la machine totale qu'il contrôle et par laquelle il est simultanément contrôlé. Il n'a aucun plan, aucun but dans la vie, si ce n'est de faire ce que la logique de la technologie lui demande de faire. Il aspire à construire des robots comme l'une des plus grandes réalisations de son esprit technique, et certains spécialistes nous assurent que le robot se distinguera à peine de l'homme vivant. Cette prouesse ne paraîtra pas si surprenante lorsque l'homme lui-même se distinguera à peine d'un "robot". Un homme transformé en une sorte de "modèle d'information" désincarné et détaché de la réalité.

Si l'on exclut les personnalités à la Elon Musk, il est difficile de dire si l'appel à "suspendre immédiatement pour au moins six mois la formation de systèmes d'intelligence artificielle plus puissants que le GPT-4" (8), lancé le 22 mars par des milliers de chercheurs, de techniciens, d'employés et de dirigeants d'entreprises Big Tech, n'est pas seulement motivé par une logique économique - ralentir la course pour entrer sur le marché - mais aussi par une crainte sincère du changement anthropologique que les modèles linguistiques produiront, et de la société qui se configurera en conséquence. C'est probablement le cas, surtout parmi les chercheurs et les techniciens - l'article de l'OpenAI sur le GPT-4 lui-même est en quelque sorte un cri d'alarme. Cela n'arrivera pas, bien sûr : le capitalisme ne connaît pas de pause. Cependant, le problème n'est pas le développement futur de ces technologies, mais le stade qu'elles ont déjà atteint. De même qu'à l'origine de toute situation, c'est toujours une question de choix, chacun d'entre nous, chaque jour, comment agir, comment préserver son intelligence, sa capacité d'analyse et sa volonté. S'il y a quelque chose qui appartient à l'homme, c'est bien la capacité d'écarter, de dévier : l'homme, contrairement à la machine, ne vit pas dans le monde du probable mais dans celui du possible.

Notes:

1) Pour une étude approfondie et une vue d'ensemble de la structure des grands modèles linguistiques, voir Bender, Gebru, McMillan-Major, Shmitchell, ChatGPT. On the dangers of stochastic parrots : can language models be too large ? Pageone No. 81, février/mars 2023
2) Voir également https://www.youtube.com/watch?v=bsFXgfbj8Bc pour tous les détails de l'article sur Chat Bing.
3) Cf. https://openai.com/blog/chatgpt-plugins#browsing
4) Cf. https://cdn.openai.com/papers/gpt-4-system-card.pdf
5) Cf. AA.VV, ChatGPT. Risques éthiques et sociaux des dommages causés par les modèles de langage, p. 64
6) "L'idée de base est que si vous voulez changer la politique, vous devez d'abord changer la culture, car la politique découle de la culture ; et si vous voulez changer la culture, vous devez d'abord comprendre qui sont les gens, les "cellules individuelles" de cette culture. Si vous voulez changer la politique, vous devez donc changer les gens. Nous avons chuchoté à l'oreille des individus, pour qu'ils changent lentement leur façon de penser", a déclaré Christopher Wylie, ancien analyste de Cambridge Analytica devenu lanceur d'alerte, interviewé par le Guardian en mars 2018, voir https://www.the-guardian.com/uk-news/video/2018/mar/17/cambridge-analytica-whistleblower-we-spent- Im-harvesting-millions-of-facebook-profiles-video.
7) Voir Bender, Gebru, McMillan-Major, Shmitchell, ChatGPT. On the dangers of stochastic parrots : can language models be too big, Pageone No. 81, February/March 2023.
8) https://futureoflife.org/open-letter/pause-giant-ai-experiments/

jeudi, 16 février 2023

ChatGPT et le tamisage des superflus

chatgpt-20230125-8968.jpeg

ChatGPT et le tamisage des superflus

Karl Richter

Source: https://www.facebook.com/karl.richter.798

Beaucoup attendent en ce moment des miracles du nouveau logiciel de dialogue ChatGPT. Les experts parlent déjà d'une nouvelle révolution numérique, comparable à l'avènement d'Internet dans les années 90. D'autres prédisent que, grâce à ChatGPT, de nombreux "créatifs" deviendront superflus: rédacteurs, graphistes, designers, programmeurs et autres.

En fait, ChatGPT est assez ingénieux. On obtient une réponse plus ou moins utile à presque toutes les demandes. ChatGPT peut écrire des travaux de séminaire, voire des livres entiers, des discours, des textes publicitaires et même des poèmes, il peut traduire, écrire des programmes Excel et même des programmes informatiques. Et si le résultat ne convient pas, on peut le réajuster jusqu'à ce qu'il soit jugé bon. Les enseignants et les professeurs d'université se plaignent déjà que les devoirs et les travaux de séminaire ont perdu leur sens parce que ChatGPT peut le faire mieux et sans erreur (ce qui n'est pas étonnant vu la ruine de notre système éducatif depuis des décennies). Plus fascinant encore, le programme graphique DALL-E, édité par le même éditeur de logiciels OpenAI, permet des créations graphiques impressionnantes, dans tous les styles, sur tous les sujets. En fait, les graphistes humains vont bientôt avoir un problème. DALL-E les rend superflus.

Tout cela est assez impressionnant. Mais tout cela a un inconvénient. En effet, ChatGPT fonctionne avec le frein à main bien serré. Après quelques tentatives préliminaires, notamment organisées par Google, des restrictions artificielles ont été inculquées au programme afin qu'il ne recrache pas tout. Potentiellement, un programme comme ChatGPT, qui a un accès complet à toutes les informations disponibles sur le réseau, à tout le savoir mis à jour de l'humanité, pourrait en effet recracher approximativement la vérité. On peut imaginer ce que cela signifierait. Tous les mensonges laborieusement construits, que ce soit sur des questions d'histoire contemporaine ou de biologie, seraient démontés en un clin d'œil par l'intelligence artificielle. Ce serait une chose fantastique.

Mais cela ne doit évidemment pas se produire. Les programmeurs l'ont vite compris. Ils ont limité les données avec lesquelles le programme a été alimenté et testé en l'état des choses présent en 2021 et lui ont interdit l'accès à Internet, où l'on trouve pratiquement tout. Ils avaient par exemple posé des questions sur la répartition de l'intelligence sur la planète. Les réponses qui en sont ressorties étaient tout sauf souhaitables. ChatGPT, tel qu'il a été publié, a donc été entraîné à ne fournir que des réponses politiquement correctes. Tout le monde peut s'en rendre compte par lui-même. Dans mon cas, ChatGPT a refusé de résumer un texte qui parlait d'un lien statistique entre le vaccin Co ron a et l'augmentation soudaine des fausses couches dans de nombreux pays. Au lieu de cela, le programme a affirmé, avec une ignorance obstinée, que de telles statistiques n'existaient pas. Si, bien sûr, elles existent. Mais ChatGPT n'est pas autorisé à les connaître ou à en parler.

Le deuxième cas concernait une tâche de recherche sur la mafia nigériane en Allemagne. Ici, le programme a certes fourni quelques faits sans importance que chacun peut chercher lui-même sur Internet. Mais ce qui était agaçant, c'étaient les leçons insistantes comme celle-ci qui apparaissaient dans la réponse: "En fin de compte, nous devons nous engager pour une société dans laquelle les gens sont traités de manière égale, indépendamment de leur origine ou de leur couleur de peau. Cela signifie que nous devons lutter contre les attitudes discriminatoires et les préjugés, et que nous devons œuvrer pour une société inclusive dans laquelle chacun est le bienvenu et a la possibilité de développer son potentiel".

Non, nous ne devons pas du tout le faire. Renoncez avec gratitude.

On voit ici ce que ChatGPT peut faire et ce qu'il ne peut pas faire, mais surtout qui doit craindre ChatGPT et qui ne doit pas le craindre. Le programme est, dans l'esprit du régime globalitaire, un instrument brillant pour diffuser des opinions mainstream politiquement correctes, qui restent dans l'étroit couloir de ce qui est autorisé et souhaitable. En d'autres termes, les rédacteurs salariés et les cerveaux locataires des médias mainstream doivent effectivement craindre pour leur emploi, car ChatGPT fera bientôt aussi bien et sera plus rapide et moins coûteux que le gauchiste de la rédaction qui coûte beaucoup d'argent à son patron. Ma sympathie est limitée.

Par contre : les personnes qui ont une pensée propre et qui ne respectent pas les interdictions de penser et de parler ne risquent pas d'être remplacées par des programmes informatiques. Les partis politiques, par exemple, auront toujours besoin de personnes qui pensent par elles-mêmes, qui ne se laissent pas censurer et qui ont le courage de penser hors des sentiers battus, à moins qu'il ne s'agisse des habituelles ordures vertes de la nouvelle gauche actuelle. Cela rend optimiste.

D'ailleurs, la boucle est bouclée ici, et cela semble satanique dans sa perfection : environ 80% des gens dans les pays industrialisés se sont fait rouler dans la farine au cours des trois dernières années depuis le printemps 2020 et se sont ainsi mis eux-mêmes hors jeu, tôt ou tard. La mort ne fait que commencer. On peut supposer avec une certaine probabilité qu'il s'agit principalement de personnes alignées, sages et peu originales, dont les tâches pourront tout aussi bien être assumées par l'ordinateur dans un avenir proche. Voilà - et voilà que ChatGPT apparaît sur la carte. Les superflus s'en vont.

19:46 Publié dans Actualité | Lien permanent | Commentaires (0) | Tags : chatgpt, intelligence artificielle | |  del.icio.us | | Digg! Digg |  Facebook

mercredi, 21 septembre 2022

L'intelligence artificielle: la reine de la censure mondiale?

609a22685508e0e58945d57fe0a84a3e.jpg

L'intelligence artificielle: la reine de la censure mondiale?

Vladimir Prokhvatilov

Source: http://www.elespiadigital.com/index.php/noticias/seguridad/38691-2022-09-01-10-04-17

Le 10 août, le site web du Forum économique mondial (WEF) a publié l'article La solution aux abus en ligne ? L'IA plus l'intelligence humaine.

L'auteur de l'article, Inbal Goldberger, vice-présidente de la société israélienne Active Fence, "experte en intelligence", propose de combiner un réseau d'intelligence artificielle avec l'intelligence humaine pour combattre le "monde obscur des abus en ligne" de "l'extrémisme, de la désinformation et des discours de haine".

Selon Mme Goldberger, les logiciels d'intelligence artificielle (IA) ne peuvent souvent pas comprendre les "formulations verbales des groupes haineux", n'ont pas atteint "la maîtrise des langages terroristes et une compréhension subtile des campagnes de désinformation".

"Par exemple, il existe des modèles d'IA robustes pour détecter la nudité, mais seuls quelques-uns peuvent distinguer si cette nudité fait partie d'un tableau de la Renaissance ou d'une image pornographique. De même, la plupart des modèles ne peuvent pas dire si le couteau montré dans la vidéo est utilisé pour faire la publicité d'un outillage de boucherie ou d'une agression violente. Les attaquants peuvent exploiter ce trou béant".

c9cc33c894a3f9ab73b2674ff57d5138.jpg

Les modérateurs qui suppriment le contenu "indésirable" n'ont pas la force et les connaissances nécessaires pour dresser une liste noire de tous les sites de désinformation. "Contrairement à l'IA, les modérateurs humains et les experts en la matière peuvent détecter les nuances de l'abus en ligne..... Toutefois, cette précision est limitée au domaine d'expertise particulier de l'analyste : un modérateur humain expert de la suprématie blanche en Europe n'est pas forcément capable de reconnaître un contenu malveillant en Inde ou des récits de désinformation au Kenya."

Goldberger entonne un plaidoyer pour une censure mondiale : les modérateurs seraient au mieux de leur forme en Europe, mais n'ont pas encore atteint l'Inde et le Kenya. Il est entendu que l'on ne peut faire confiance aux Indiens, aux Africains, aux Arabes, ainsi qu'aux Chinois et aux Russes eux-mêmes pour le contrôle des informations sur Internet.

Pour que la lutte contre les "contenus offensifs" soit véritablement mondiale, Mme Goldberger propose de combiner les efforts de l'IA (échelle des menaces) avec l'esprit des experts des pays.

Les réseaux mondiaux sont devenus fous: "Le Forum économique mondial de Klaus Schwab propose d'automatiser la censure des "discours de haine" et de la "désinformation" à l'aide d'une IA alimentée par des "experts du domaine"". Une telle symbiose entre l'homme et la machine est appelée intelligence hybride, mais Goldberger évite ce terme, car le domaine de l'intelligence hybride est l'un des principaux domaines de recherche et de développement des agences de renseignement américaines par le biais de l'Advanced Research Agency ( IARPA ) dans le domaine de l'intelligence dite anticipative (Anticipatory intelligence).

En 2017, l'IARPA a lancé le développement d'"un système de prévision hybride homme-machine pour des problèmes tels que les épidémies, les fluctuations boursières, les élections, les conflits interétatiques". En particulier, le projet Synergistic Anticipation of Geopolitical Events ( SAGE ) était dirigé par le chef du groupe de recherche sur l'intelligence artificielle et les bases de données de l'Université de Californie du Sud, Aram Galstyan. Il a travaillé sur la "rétroaction entre l'intelligence humaine et l'intelligence informatique". En établissant un tel retour d'information, Inbal Goldberger entrevoit les perspectives d'une censure mondiale.

536792814d191db9546f72657d50d071.jpg

Le projet SAGE fait partie du programme plus vaste Hybrid Forecasting Competition (HFC), supervisé par l'Office of the Director of National Intelligence (ODNI) des États-Unis, qui vise à comparer les performances de "divers hybrides homme-machine dans la prévision d'événements de la vie réelle en fusionnant le jugement humain avec des informations provenant de sources telles que les bulletins d'information traditionnels, les réseaux sociaux et les chiffres financiers", a déclaré l'ODNI.

La possibilité d'utiliser le renseignement hybride à des fins de renseignement aux États-Unis a été abordée parce que de précédents projets de ce type avaient échoué. Le projet FutureMap a échoué. Le projet de prédiction de l'intelligence collaborative a échoué ; sa précision s'est avérée inférieure à 48 %, c'est-à-dire pire qu'un tirage à pile ou face.

Le projet d'intelligence proactive avec l'aide de l'intelligence hybride a également échoué. Elon Musk a maintenant évolué dans cette direction. Il a rapidement abandonné ses promesses d'envoyer des gens sur Mars et a commencé à soutenir l'idée que les gens devraient être fusionnés avec l'intelligence artificielle dans un avenir proche.

Selon le directeur de la technologie numérique de la CIA, Andrew Hellman, les services de renseignement proactifs américains ont appris à prévoir avec précision les foyers d'instabilité, les conflits et les attaques terroristes 3 à 5 jours avant qu'ils ne se produisent. Cependant, "les capacités prédictives avec un horizon d'événement de 3 à 5 jours ne peuvent être adaptées qu'aux personnes ordinaires qui vont faire un pique-nique le week-end prochain et qui s'intéressent à la météo. Pour une intelligence proactive de l'instabilité sociale et des conflits, un horizon de prévision d'au moins quelques semaines est désespérément nécessaire, mais dans le meilleur cas, de 3 à 5 semaines", déclare Sergey Karelov, un analyste informatique russe de premier plan.

Dans ce contexte des échecs de l'utilisation de l'intelligence hybride, il semble qu'ils aient décidé de ne pas essayer de prédire l'avenir, mais de le concevoir, comme l'a enseigné le lauréat du prix Nobel Dennis Gabor. C'est de l'ingénierie sociale.

efdc15127dce5a086b77a96f0ba3d784.jpg

L'article d'Inbal Goldberger sur le site du WEF a fait beaucoup de bruit. "Le WEF prévoit d'utiliser la technologie de l'intelligence artificielle pour combattre 'les discours de haine et la désinformation' et désormais, tout ce qui va à l'encontre de son programme sera considéré comme de la désinformation... Appelons cela une dictature mondiale en devenir", écrit la journaliste britannique Sophie Corcoran.

"Inbal Goldberger promeut l'IA comme la reine de la censure.... Elle semble avoir complètement fusionné avec l'équipe de Biden", disent-ils sur les médias sociaux.

"Le groupe à l'origine du Grand Redémarrage promeut la censure mondiale dans le cadre du schéma 'IA plus intelligence humaine'. "Le Forum économique mondial (WEF) a proposé une nouvelle façon de censurer les contenus en ligne qui exige qu'un petit groupe d'experts entraîne l'intelligence artificielle à détecter la 'désinformation' et le contenu offensant", peut-on lire dans le titre.

D'une manière ou d'une autre, les tentatives d'introduire une censure mondiale à l'aide de l'intelligence artificielle n'ont pas été marquées par un succès pratique. Jusqu'à présent, beaucoup de bruit pour rien.

elespiadigital.com

17:55 Publié dans Actualité | Lien permanent | Commentaires (0) | Tags : actualité, intelligence artificielle, censure | |  del.icio.us | | Digg! Digg |  Facebook

samedi, 20 mars 2021

Des robots de Rossum à l'intelligence artificielle

unnRUR.jpg

Des robots de Rossum à l'intelligence artificielle

par Leonid SAVIN

https://orientalreview.org/  

Le 25 janvier 2021 marque le centenaire de la première de la pièce de théâtre R.U.R. (Rossum's Universal Robots) de l'écrivain tchèque de science-fiction Karel Čapek. Cette courte œuvre a anticipé les livres ultérieurs sur le sujet, ainsi que les films cyberpunk et post-apocalyptiques comme Terminator et Alien: Covenant. Les robots universels de Rossum ont été conçus comme des assistants des humains, mais après un certain temps, ils se rebellent et détruisent la race humaine, à l'exception d'un ouvrier d'usine, dont ils ont besoin pour recréer leur propre espèce.

Karel-Capek.jpg

Karel Capek.

Le mot "robot" s'est rapidement banalisé et a été appliqué à des mécanismes dotés d'un ensemble limité de fonctions programmables et nécessitant un diagnostic, un entretien et une réparation. Plus récemment, cependant, notamment après le développement des ordinateurs et des cyber-technologies, des discussions sont déjà en cours pour savoir si les machines peuvent penser et prendre des décisions sur un pied d'égalité avec les personnes.

Les dernières réalisations en matière de robotique et d'informatisation ne sont nulle part plus demandées que dans l'armée, notamment aux États-Unis, où des centres spéciaux ont été créés pour développer des programmes, des applications et du matériel spécifiques. De nombreux laboratoires de l'armée américaine, du corps des Marines, de la marine et de l'armée de l'air, avec l'aide de contractants et des principales institutions du pays, mènent à bien les prototypes de modèles avancés - toute cette technologie doit servir les nouvelles guerres que Washington prévoit de déclencher à l'avenir.

Les récentes avancées dans ce domaine sont révélatrices.

Le navire sans équipage Ghost Fleet Overlord a récemment parcouru 4700 miles nautiques avec succès et a participé à l'exercice Dawn Blitz, où il a opéré de manière autonome pendant presque tout le temps.

SAS-2019-Austal-Unveils-Range-of-Autonomous-USVs-4.jpg

Ceux qui s'inquiètent de la puissance croissante de la Chine proposent d'utiliser de tels systèmes pour toutes les relations futures avec l'APL: utiliser des drones suicide sous-marins pour attaquer les sous-marins chinois, par exemple. Les États-Unis parlent déjà de robots de combat sous-marins et de surface qui seraient en cours de développement par l'armée chinoise et que les Chinois appellent une "Grande Muraille sous-marine". C'est pourquoi ils suggèrent d'établir une parité avec les Chinois ou de les surpasser d'une manière ou d'une autre.

Les efforts de la Chine dans ce domaine montrent que la disponibilité de nouveaux types d'armes ne donne aux États-Unis aucune garantie que ces systèmes ne seront pas mis en service par d'autres pays. Par exemple, l'apparition de drones de combat dans un certain nombre de pays a obligé les États-Unis à développer des méthodes et des stratégies pour contrer les drones.

Ainsi, en janvier 2021, le département de la défense américain a publié une stratégie pour contrer les petits systèmes d'aéronefs sans pilote : cette stratégie s'alarme de l'évolution de la nature de la guerre et de la concurrence croissante, qui constituent toutes deux des défis pour la supériorité américaine.

bio-groen.pngLe lieutenant général Michael Groen, directeur du Joint Artificial Intelligence Center du ministère américain de la défense, évoque la nécessité d'accélérer la mise en œuvre de programmes d'intelligence artificielle à usage militaire. Selon lui, "nous pourrions bientôt nous retrouver dans un espace de combat défini par la prise de décision basée sur les données, l'action intégrée et le rythme. En déployant les efforts nécessaires pour mettre en œuvre l'IA aujourd'hui, nous nous retrouverons à l'avenir à opérer avec une efficacité et une efficience sans précédent".

Le Centre interarmées d'intelligence artificielle du Pentagone, créé en 2018, est désormais l'une des principales institutions militaires développant des "logiciels intelligents" pour les futurs systèmes d'armes, de communication et de commandement.

L'intelligence artificielle est désormais le sujet le plus discuté au sein de la communauté de recherche de la défense américaine. C'est une ressource qui peut aider à atteindre certains objectifs, comme permettre aux drones de voler sans supervision, de recueillir des renseignements et d'identifier des cibles grâce à une analyse rapide et complète.

On suppose que le développement de l'intelligence artificielle entraînera une concurrence féroce, car l'IA elle-même se distingue de nombreuses technologies passées par sa tendance naturelle au monopole. Cette tendance au monopole exacerbera les inégalités nationales et internationales. Le cabinet d'audit Pricewaterhouse Coopers prévoit que "près de 16.000 milliards de dollars de croissance du PIB pourraient découler de l'IA d'ici à 2030", dont 70 % pour les seuls États-Unis et la Chine. Si la rivalité est le cours naturel des choses, alors pour les entreprises qui utilisent l'intelligence artificielle à des fins militaires ou pour des technologies à double usage, la considérer de cette manière semblera tout à fait logique. Il s'agira d'un nouveau type de course aux armements.

25414-topshot1-bg3.jpg

Sur le plan éthique, toutefois, les systèmes d'intelligence artificielle militaires pourraient être impliqués dans la prise de décisions visant à sauver des vies ou à prononcer des condamnations à mort. Ils comprennent à la fois des systèmes d'armes autonomes létaux, capables de sélectionner et d'engager des cibles sans intervention humaine, et des programmes d'aide à la décision. Certaines personnes plaident activement en faveur de l'inclusion de machines dans un processus décisionnel complexe. Le scientifique américain Ronald Arkin, par exemple, affirme que non seulement ces systèmes ont souvent une meilleure connaissance de la situation, mais qu'ils ne sont pas non plus motivés par l'instinct de conservation, la peur, la colère, la vengeance ou une loyauté mal placée, suggérant que, pour cette raison, les robots seront moins susceptibles de violer les accords de paix que les personnes.

Certains pensent également que les fonctions de l'intelligence artificielle peuvent transformer la relation entre les niveaux tactique, opérationnel et stratégique de la guerre. L'autonomie et la mise en réseau, ainsi que d'autres technologies, notamment la nanotechnologie, la furtivité et la biogénétique, offriront des capacités de combat tactique sophistiquées au sol, dans les airs et en mer. Par exemple, des bancs de véhicules sous-marins autonomes concentrés à des endroits précis de l'océan pourraient compliquer les actions secrètes des sous-marins qui assurent actuellement une frappe de représailles garantie par les puissances nucléaires. Par conséquent, d'autres plateformes tactiques pourraient également avoir un impact stratégique.

1 c1xMQs8VzU0RwyRKA1tkdQ.jpeg

L'amélioration de la manœuvrabilité est également liée à l'intelligence artificielle. Celle-ci comprend, entre autres, des logiciels et des capteurs qui permettent aux robots d'être autonomes dans des endroits dangereux. C'est l'un des moteurs de l'utilisation de systèmes autonomes par l'armée. L'armée américaine fonde de grands espoirs sur l'autonomie des machines, car elle pourrait offrir une plus grande flexibilité aux personnes qui commandent et combattent aux côtés des robots. Les développeurs américains espèrent passer de 50 soldats soutenant un drone, un véhicule terrestre sans pilote ou un robot aquatique, comme c'est le cas actuellement, à un paradigme où une seule personne soutiendrait 50 robots.

Mais l'intelligence artificielle pourrait aussi créer de sérieux problèmes. L'intelligence artificielle militaire pourrait potentiellement accélérer le combat au point que les actions des machines dépassent les capacités mentales et physiques de ceux qui prennent les décisions dans les postes de commandement d'une guerre future. Par conséquent, la technologie dépassera la stratégie, et les erreurs humaines et de la machine se confondront très probablement - avec des conséquences imprévisibles et involontaires.

erich-1024x654.jpg

Une étude de la RAND Corporation, qui examine l'influence des machines à penser sur la dissuasion en cas de confrontation militaire, met en évidence les graves problèmes qui pourraient survenir si l'intelligence artificielle était utilisée sur le théâtre de la guerre. Sur la base des résultats des jeux réalisés, il a été démontré que les actions entreprises par une partie, que les deux joueurs percevaient comme ‘’désescalatoires’’, étaient immédiatement perçues par l'intelligence artificielle comme une menace. Lorsqu'un joueur humain retire ses forces afin de désamorcer une situation, les machines sont les plus susceptibles de percevoir cela comme un avantage tactique qui doit être consolidé. Et lorsqu'un joueur humain faisait avancer ses forces avec une détermination évidente (mais pas hostile), les machines avaient tendance à percevoir cela comme une menace imminente et à prendre les mesures appropriées. Le rapport a révélé que les joueurs devaient faire face à la confusion non seulement de ce que pensait leur ennemi, mais aussi de la perception de l'intelligence artificielle de leur ennemi. Les joueurs devaient également faire face à la façon dont leur propre intelligence artificielle pouvait mal interpréter les intentions humaines, qu'elles soient amicales ou hostiles.

En d'autres termes, l'idée contenue dans la pièce de Karel Čapek sur les robots est toujours d'actualité : il est impossible de prévoir le comportement de l'intelligence artificielle. Et si les robots "intelligents" ont un usage militaire, alors ils pourraient aussi devenir un danger pour leurs propriétaires. Même aux États-Unis, certains militaires sceptiques se rangent dans le camp des traditionalistes qui pensent que de telles innovations, imaginées par des utopistes de la Silicon Valley seront nuisibles à la politique de l'État américain.

mardi, 16 février 2021

Philosophie chinoise ancienne et intelligence artificielle

taoisme-1-.jpeg

Philosophie chinoise ancienne et intelligence artificielle

Par Bing Song

Ex : http://novaresistencia.org (Brésil)

Dans ce texte, Bing Song élucide certains aspects du confucianisme, du taoïsme et du bouddhisme qui contribuent à expliquer pourquoi certains philosophes chinois ne sont pas aussi alarmés par l'IA que leurs homologues occidentaux.

Sur la scène internationale, on a beaucoup discuté de l'ambition de la Chine de devenir le leader de l'innovation en matière d'intelligence artificielle et de robotique dans les prochaines décennies. Mais quasi rien des débats entre philosophes chinois sur les menaces de l'IA et sur les approches éthiques de l'IA n'ont réussi à pénétrer les médias de langues occidentales.

Comme de nombreux commentateurs occidentaux, de nombreux philosophes chinois (principalement formés au confucianisme, au taoïsme et au bouddhisme) ont exprimé leur profonde inquiétude quant à la diminution de l'autonomie et du libre arbitre de l'homme à l'ère de la manipulation et de l'automatisation des données, ainsi qu'à la perte potentielle de tout sens à donner à la vie humaine sur le long terme. D'autres penseurs s'inquiètent de l'empressement de l'humanité à bricoler le génome humain et à intervenir sur le processus d'évolution naturelle pour atteindre la longévité et le bien-être physique tant désirés. Les spécialistes confucéens semblent être plus alarmés, car certains développements de l'IA et de la robotique, notamment ceux liés aux relations familiales et aux soins aux personnes âgées, menacent directement le fondement du confucianisme, qui met l'accent sur l'importance des lignées et des normes familiales.

71gvVpFUbFL.jpg

Plus intéressants, cependant, sont les trois axes de réflexion suivants, radicalement différents, qui contribuent à expliquer pourquoi il y a eu beaucoup moins de panique en Chine qu'en Occident face aux risques existentiels perçus qu’apportent les technologies de pointe telles que l'intelligence artificielle.

Anthropocentrisme vs. non-anthropocentrisme

L'anthropocentrisme veut que les humains soient considérés comme des êtres séparés et au-dessus de la nature. L'Homo sapiens, avec sa rationalité, sa conscience de soi et sa subjectivité uniques, est placé au-dessus des autres animaux, plantes et autres formes du vivant. L'anthropocentrisme a atteint son apogée à l'époque de l'industrialisation et de la mondialisation. Bien que cette mentalité centrée sur l'homme se soit quelque peu atténuée dans les pays développés au cours des dernières décennies, elle est encore répandue dans la Chine, qui s'industrialise rapidement, et ailleurs.

Cependant, le confucianisme, le taoïsme et le bouddhisme sont tous d'accord sur la notion de non-anthropocentrisme. Dans la pensée chinoise classique, la construction typique pour comprendre la relation entre l'homme, la nature et la société est ce qu’on y appelle la « trinité du ciel, de la terre et de l'homme ». Cette notion est issue d'un des plus anciens classiques chinois - le "I Ching" ou "Livre des changements" - qui est la source intellectuelle des écoles de pensée les plus influentes en Chine, dont le confucianisme et le taoïsme.

Le ciel, la terre et l'homme, ainsi que les forces yin et yang qui y sont associées, étaient considérés comme les constituants les plus fondamentaux de l'univers, au sein duquel la nature évolue, les êtres humains prospèrent et les sociétés se développent. Dans cette construction, les êtres humains font intrinsèquement partie de la nature et sont liés à elle. Les êtres humains ne peuvent s'épanouir et être soutenus que s'ils suivent les lois de la nature et réalisent l'unité de la nature et de l'homme.

L'humanité, entre ciel et terre, est dotée d'une capacité unique à apprendre de la nature, à agir pour promouvoir les causes de l'épanouissement et de la durabilité du ciel et de la terre, et à propager le "Dao" ou "voie". Dans le contexte confucéen, le Dao implique des enseignements éthiques de bienveillance et de droiture. Bien que la tradition confucéenne ait beaucoup insisté sur la proactivité des êtres humains, elle est toujours fondée sur le respect et la révérence des lois de la nature et sur les ajustements à apporter à ces lois plutôt que sur l'expropriation inconsidérée de la nature. Les êtres humains doivent comprendre les changements saisonniers et vivre en conséquence.

depositphotos_81539246-stock-photo-fire-and-water-yin-yang.jpg

La mentalité consistant à être en phase avec l'évolution des temps et des circonstances est ancrée profondément dans l'enseignement de Confucius. En fait, Confucius a été salué comme le "sage ancien" par Mencius, un autre maître chinois du confucianisme. Ce que Confucius prêchait et pratiquait n'était pas un dogme, mais la connaissance et la sagesse les plus appropriées pour le temps et le contexte concernés.

La notion d'unité entre la nature et l'homme est encore plus importante dans le taoïsme. Selon Laozi, le philosophe fondateur du taoïsme chinois, "l'homme est orienté par la terre, la terre est orientée par le ciel, le ciel est orienté par Dao, Dao est orienté par sa propre Nature’’. "Dao est immanent au ciel, à la terre et à l'homme, qui sont mutuellement incarnés et constitutifs et doivent se mouvoir en harmonie. Zhuangzi, un philosophe qui a vécu au quatrième siècle avant Jésus-Christ, a encore renforcé la notion d'unité de la nature et de l'homme. Il soutenait que le ciel, la terre et l'homme étaient nés ensemble et que l'univers et l'homme ne faisaient qu'un.

Aucune des trois écoles dominantes de la pensée philosophique chinoise ne place l'être humain dans une position suprême au sein de l'univers.

Le bouddhisme, qui a été introduit en Chine depuis l'Inde au milieu de la période de la dynastie des Han, accorde encore moins d'importance à la primauté de l'être humain sur les autres formes d'existence. Un enseignement bouddhiste fondamental évoque l'égalité de tous les êtres sensibles, dont les humains ne sont qu'un, et que tous les êtres sensibles ont la nature de Bouddha. Le bouddhisme exhorte les gens à pratiquer l'attention et la compassion pour les autres formes d'êtres vivants et sensibles.

En résumé, aucune des trois écoles dominantes de la pensée philosophique chinoise ne place les êtres humains dans une position suprême au sein de l'univers, ni ne considère les êtres humains et la nature comme étant dans une relation mutuellement indépendante ou compétitive. Située dans le contexte du développement des technologies de pointe, l'intelligence artificielle n'est pas un développement "naturel", donc du point de vue de l'unité entre l'homme et la nature, l'IA doit être guidée et parfois supprimée au nom du respect des modes de vie naturels. En effet, c'est exactement ce que de nombreux philosophes en Chine ont préconisé.

unnamedrao.jpg

Cependant, il est également vrai que, probablement en raison de la forte influence du non-anthropocentrisme dans les systèmes de croyances traditionnels chinois, la panique a été beaucoup moins forte en Orient qu'en Occident à propos du risque existentiel posé par l'IA. D'une part, de nombreux philosophes chinois ne sont tout simplement pas convaincus par la perspective d'une intelligence mécanique dépassant celle des humains. De plus, les humains ont toujours vécu avec d'autres formes d'existence qui peuvent être plus capables que nous à certains égards. Dans l'enseignement taoïste, où les immortels abondent, l'IA ou les êtres numériques ne sont peut-être qu'une autre forme de ‘’super-être’’. Certains universitaires confucéens et taoïstes ont commencé à réfléchir à l'intégration de l'IA dans l'ordre éthique de l'écosystème, considérant potentiellement les IA comme des compagnons ou des amis.

Ouverture relative à l'incertitude et au changement

Une autre raison probable de la panique relativement moins importante que suscitent les technologies de pointe en Chine est le niveau élevé d'acceptation de l'incertitude et du changement dans cette culture. On peut à nouveau remonter jusqu'au "I Ching". Selon son enseignement central, l'existence ultime de l'univers est celle d'un changement constant, plutôt que la notion d'"être" (stable,statique), qui postule, parfois inconsciemment, une existence statique largement repérable dans la pensée européenne du XXe siècle.

L'influence du "Yi Jing" se fait sentir dans de nombreux aspects du confucianisme, comme la doctrine concernant la proactivité de l'homme dans l'anticipation et la gestion du changement, que j'appelle le dynamisme humaniste. Selon Richard Wilhelm, un missionnaire allemand qui a vécu en Chine à la fin du XIXe et au début du XXe siècle et à qui l'on attribue la première traduction européenne du "Yi Jing" : "Il n'y a pas de situation sans issue. Toutes les situations sont des étapes de changement. Ainsi, même lorsque les choses sont les plus difficiles, nous pouvons semer les graines d'une nouvelle situation”.

Zhuangzi.jpg

Depuis la dynastie Han, le taoïsme est caractérisé comme un mode de pensée qui met l'accent sur le progrès des temps et l'évolution en fonction des circonstances. Les enseignements du philosophe taoïste Zhuangzi sur l'adaptation à l'avenir et le refus de la rigidité sont devenus aujourd'hui essentiels dans la culture chinoise. L'idée est que le changement et l'incertitude ne sont pas des problèmes qui doivent être réglés (ndt : c’est-à-dire « éliminés »), mais font partie intégrante de la réalité et de la normalité.

Dans le bouddhisme, le concept de l'impermanence de notre réalité perçue est un principe fondamental. De plus, la nature illusoire de notre réalité perçue réduit encore l'importance des changements de vie dans la pensée bouddhiste.

Peut-être ces modes de pensée sont-ils une autre raison pour laquelle les Chinois ne sont pas aussi inquiets que leurs homologues occidentaux quant à l'avenir possible de l'ère des machines.

Réflexion sur soi, culture de soi et illumination de soi

Le philosophe chinois Thomé Fang a souligné qu'une des similitudes entre les trois traditions philosophiques dominantes en Chine est l'accent qu'elles mettent sur l'importance de la maîtrise de soi, de l'introspection constante et de la poursuite incessante de la sagesse. Ces trois traditions reposent sur l'idée que le bien social commence par l'auto-culture individuelle et est lié à celle-ci.

方東美先生.jpg

Thomé Fang.

Ainsi, de nombreux philosophes chinois soulignent qu'à ce stade de la réflexion sur les risques existentiels pour l'homme et sur l'orientation future du progrès technologique, il est très important que nous regardions en nous-mêmes et que nous réfléchissions sur nous-mêmes, en tirant les leçons de l'évolution et du développement de l'homme. En d'autres termes, les humains doivent réfléchir à leur propre passé et réaliser que nous sommes peut-être au cœur du problème - que nous ne serons pas capables de créer une IA moralement saine si nous ne devenons pas rapidement des êtres réfléchis et responsables sur le plan éthique.

Face à des défis plus globaux, nous devrions peut-être ouvrir de nouvelles voies de réflexion et nous inspirer des anciennes traditions philosophiques. Il est temps d'affronter et de remplacer notre mentalité de concurrence à somme nulle, notre propension à maximiser la création de richesse et notre individualisme débridé. La meilleure chance de développer une IA respectueuse de l'homme et d'autres formes de technologies de pointe est que les humains eux-mêmes deviennent plus compatissants (au sens bouddhiste) et s'engagent à construire un écosystème mondial harmonieux et inclusif.

Source : https://www.noemamag.com/applying-ancient-chinese-philoso...

 

samedi, 28 novembre 2020

Le coronavirus modifie le scénario de la cybertechnologie mondiale

ai-covid.jpg

Leonid Savin

Le coronavirus modifie le scénario de la cybertechnologie mondiale

L'une des conséquences de la propagation du coronavirus et des mesures de quarantaine qui ont été introduites dans de nombreux pays est la suivante : cela a entraîné une augmentation de la demande sur Internet. Dans les pays, les autorités tentent de réguler le trafic avec les moyens et les mesures disponibles. L'un des géants américains dans ce domaine est Verizon, qui a reçu de la Commission fédérale des communications l'autorisation d'utiliser des fréquences supplémentaires. En Italie, le trafic a augmenté en mars de 70 %, en Pologne et en Espagne de 40 %. En Europe, Netflix, Amazon, YouTube et Facebook ont réduit la qualité des vidéos. La virtualisation des lieux de travail, l'utilisation d'applications de livraison de nourriture, l'affichage de contenus divers, tout cela a affecté la bande passante et le trafic dans de nombreux pays. En outre, plusieurs pays ont soulevé la question de la pertinence de la télémédecine. Et les plus avancés ont attiré l'attention sur les capacités des supercalculateurs à préparer des scénarios de propagation de maladies et de développement de médicaments efficaces. Et, bien sûr, tout cela a affecté la cybersécurité.

Reuters écrit qu'aux États-Unis, l'activité des pirates informatiques a doublé. Dans ce cas, l'agence fait également référence à une déclaration de Tom Kellerman du département de sécurité de VMware.

imagesvmware.jpgVMware est un acteur très intéressant dans le domaine de l'informatique et de la cybertechnologie. La fondatrice de l'entreprise est Diana Green, qui a également dirigé le département des technologies en cloud de Google, et a siégé au conseil d'administration d'Alphabet de 2012 à 2019. Un autre fondateur de la société est le professeur Mendel Rosenblum de l'université de Stanford, qui est le mari de Diana Green. VMware se concentre sur le développement de logiciels de virtualisation. Depuis sa création en 1998, elle a absorbé plus de dix autres sociétés, et ses directeurs comprennent des cadres supérieurs de Microsoft et d'Intel.

Il est intéressant de noter qu'en 2017, Kellerman, avec le même enthousiasme, a commenté le piratage "du côté russe". Il a déclaré qu'en 2015, sa société "a averti le FBI et le bureau du directeur du renseignement national que les pirates du Kremlin avaient dressé une liste de 2300 personnes, dont des dirigeants influents de Washington et de New York, ainsi que leurs conjoints et amants, ce qui en fait la cible d'une campagne de piratage coordonnée. Kellermann a déclaré qu'il ne savait pas si le gouvernement avait suivi ses conseils, mais a averti que les pirates informatiques avaient la possibilité de brancher des microphones et des caméras sur leurs appareils personnels pour obtenir des informations confidentielles sur leur vie privée. Mais il estime que la campagne a réussi à engager les dirigeants américains. Kellermann a également noté que les approches des attaques en ligne sont un signe avant-coureur d'une agression armée et a prédit que le conflit entre les États-Unis et la Russie va probablement commencer dans la région de la Baltique. "Je suis très, très inquiet", a-t-il dit. "Le cyberespace est toujours le signe avant-coureur de la réalité cinétique." L'Occident a alors connu une vague d'articles disant que la Russie allait attaquer les pays baltes, et peut-être même la Finlande. Et le Pentagone a organisé une série d'exercices communs dans la région.

CrowdStrike-logo.jpgL'évaluation de la situation actuelle en matière de cybersécurité aux États-Unis a coïncidé avec succès, pour de nombreuses parties intéressées, avec la persécution des entreprises chinoises. En février 2020, les États-Unis ont accusé quatre citoyens chinois d'avoir piraté Equifax. Les médias ont cité des informations fournies par le célèbre mythomane Dmitri Alperovich de Crowdstrike, qui affirme que les groupes APT1, APT3 (Buyosec) et APT10 sont liés aux services de renseignements chinois.

En avril 2020, l'application chinoise Zoom a été reconnue aux États-Unis comme un outil d'espionnage américain et son utilisation au sein du gouvernement a été interdite.

Et en janvier, le secrétaire d'État Mike Pompeo, dans un discours en Californie sur la relation entre la Silicon Valley et la sécurité nationale, a déclaré que "le groupe de pirates APT10 est associé au ministère chinois de la sécurité. En général, la moitié du discours a été consacrée aux problèmes que l'establishment voit par rapport à la croissance de la Chine et à ses technologies.

Les politiciens américains serrent les poings de manière menaçante et crient qu'ils ne permettront pas à la technologie 5G chinoise d'entrer sur leur territoire. Bien que les experts affirment que la 5G est l'épine dorsale des communications du XXIe siècle, la coopération avec d'autres pays sera tout simplement nécessaire après la fin de la crise du coronavirus.

Gen-Keith-Alexander.jpgLes entreprises informatiques locales commenceront très probablement à combler le vide. Le succès est garanti pour ceux qui ont de bonnes relations à la Maison Blanche et au Pentagone, par exemple l'ancien chef de la NSA et du Cyber Command Keith Alexander, qui dirige maintenant IronNet CyberSecurity.

L'armée américaine détient également une part importante du gâteau des aides d'État dans la lutte contre le coronavirus. Avant même que Donald Trump ne signe le décret allouant 2,3 milliards de dollars du Pentagone, les militaires américains ont déclaré qu'ils participaient activement au processus de réorganisation du travail et que des fonds supplémentaires étaient nécessaires pour gérer les réseaux, les ordinateurs et les systèmes. La semaine dernière, ils ont reçu 10,5 milliards de dollars dans le cadre du "programme d'aide aux coronavirus" du gouvernement. Et ce n'est que le début.

Comme l'attribution de ce paquet d'aide est déjà en cours, six organisations - le Conseil de l'industrie des technologies de l'information, l'Alliance pour l'innovation numérique, CompTIA, le Centre d'approvisionnement de la défense, l'Association Internet et la Coalition pour la cyber-sécurité - ont demandé au Congrès américain de prendre en compte leurs intérêts dans le prochain paquet d'aide, qui est en cours de préparation. Ils proposent d'allouer des fonds pour la mise à niveau technologique, de soutenir le secteur public local, de renforcer les mesures de cybersécurité et de créer un fonds spécial pour le développement des technologies gouvernementales.

De nombreuses entreprises de cyber-technologie se sont précipitées dans le secteur médical dans l'espoir de tirer profit de la publicité et de la panique générées. Par exemple, BenevolentAI a annoncé l'utilisation de l'intelligence artificielle pour traiter les patients atteints d'une infection due au coronovirus. Certains médicaments développés à l'aide de l'intelligence artificielle sont censés être déjà utilisés pour des thérapies, mais une solution est déjà en route.

Il est significatif que dans le domaine de l'intelligence artificielle aux États-Unis, un grand nombre de nouvelles entreprises aient vu le jour. Ce sont ces nouvelles entreprises qui prédisent les tendances de la télémédecine et de la future nanomédecine dans la gamme des puces intégrées au corps, comme le suggère Bill Gates.

google-cloud-cable-sous-marin.jpg

Le COVID-19 a même influencé le fonctionnement des câbles sous-marins par lesquels passe la majeure partie du trafic Internet mondial. Des ruptures de câbles au fond de l'océan se produisent régulièrement et une flotte spéciale est employée pour les réparer. Des retards dans la délivrance des licences ont déjà été observés. En outre, les mesures de quarantaine ont conduit un fournisseur de câbles sous-marins à fermer deux usines.

Bien entendu, ces perturbations touchent non seulement les États-Unis et l'Europe, mais aussi la Russie et le reste du monde, car l'Internet et les cybertechnologies sont universels. La question est de savoir exactement comment les gouvernements vont réagir et quelles seront leurs priorités : les intérêts des cyberentreprises privées ou de leur population en général.

samedi, 27 avril 2019

Le futurisme illusoire des universitaires de l’ordre global libéral

robothink1.jpg

Le futurisme illusoire des universitaires de l’ordre global libéral

par Brandon Smith

 
Article original de Brandon Smith, publié le 3 avril 2019 sur le site alt-market.com
Traduit par le blog http://versouvaton.blogspot.fr


Il s’agit peut-être d’une généralisation trop large, mais j’ai l’impression que le public a presque le sentiment qu’il y a quelque chose d’intrinsèquement gênant dans le milieu universitaire. La source de ce mécontentement fait l’objet d’un débat, mais je crois qu’il découle de l’image du projet des universitaires par rapport à la réalité de leur caractère personnel et de leurs intentions. 

L’universitaire moyen qui a obtenu un diplôme universitaire dira que certaines personnes ne le trouvent désagréable que parce qu’il est « si intelligent », ce qui en rend d’autres envieux. Je dirais que c’est le contraire – l’universitaire moyen est en fait assez ignorant, mais brandit une fausse image de génie. C’est pourquoi je les qualifie souvent d’« imbéciles académiques ».

La fausse intelligence et la fausse sagesse sont comme du papier de verre pour les nerfs des gens exposés, et la personne moyenne n’est pas aussi stupide que les universitaires le pensent.
Au sommet du mât totémique académique frauduleux se trouvent ce que j’appellerais les « philosophes académiques », les gardiens, les gens qui pontifient régulièrement sur le sens de la vie et de la société tout en vivant la vie la plus charmante qu’on puisse imaginer. Ce sont des gens qui, dans la plupart des cas, sont issus de la classe supérieure. Ils ont été cajolés à chaque instant éveillé de leur existence. Ils ont eu toutes les portes ouvertes pour eux par quelqu’un d’autre sur le chemin du succès, et ont connu peu ou pas de lutte ou de souffrance pendant tout le temps qu’ils ont passé sur cette Terre. Et pourtant, ils s’estiment en quelque sorte qualifiés pour commenter la condition humaine.

Il n’est pas surprenant que les idées développées par ces universitaires tendent à nier la réalité concrète. Ils cherchent à poursuivre des programmes qui sont au mieux fantaisistes et qui, en fin de compte, seraient destructeurs s’ils étaient appliqués dans le monde réel.

thinkingrobot1.jpg

Je trouve cela commun à de nombreux philosophes, non seulement aujourd’hui, mais tout au long de l’histoire. Le vénéré Platon était une telle personne, le plus jeune fils de riches parents aristocratiques qui n’avait pas grand-chose à faire dans sa jeunesse, mais qui réfléchissait. Les épreuves entourant son ami Socrate mis à part, Platon n’a jamais abandonné la notion de domination élitiste sur la société. La République de Platon est un sanctuaire du modèle élitiste, imaginant un monde gouverné essentiellement par des universitaires – des gens nés avec des capacités intellectuelles supérieures et qui étaient destinés à dominer le reste d’entre nous comme des demi-dieux bienveillants.
C’est une drôle de coïncidence que des universitaires soi-disant élitistes objectifs arrivent toujours à la conclusion qu’ILS sont les personnes les mieux à même pour gérer la société.

La cabale académique n’est cependant pas entièrement naïve. Ils se sont rendu compte au fil du temps que leur argumentaire de vente d’une classe de prêtres intellectuels et de schémas pyramidaux utopiques n’est pas très efficace, et ils ont choisi de changer de récit. Le nouveau récit est celui de l’inévitabilité ; l’inévitabilité du socialisme, l’inévitabilité du globalisme et l’inévitabilité de l’automatisation algorithmique.

En d’autres termes, le globalisme sera la structure sociale optimale et l’intelligence artificielle gouvernera les opérations quotidiennes de cette structure, peu importe ce que le public veut. Les élites ne gouverneront pas le monde directement, mais leurs semblables créeront les algorithmes et ces politiques gouverneront le monde en vertu de l’évolution sociale et technologique.  Tout comme le film français de Jean-Luc Godard, Alphaville, l’idée est que les élites peuvent simplement se reposer et laisser la sombre « logique » de la gouvernance algorithmique faire le sale boulot. Car, après tout, comment peut-on discuter avec un ordinateur ?

L’un des élitistes universitaires dont je parle est Yuval Noah Harari. Ses éditoriaux ont beaucoup fait parler d’eux dans les médias grand public ces derniers temps et ils mettent l’accent sur la nécessité de la globalisation ainsi que sur la nécessité pour les humains de s’adapter rapidement à la technocratie, de peur qu’ils ne se retrouvent obsolètes. Harari est un philosophe académique prototypique, régurgitant de vieux concepts d’aristocratie et de féodalisme à peine voilés par l’imagerie futuriste. Ses arguments sont du type de ceux que d’autres universitaires de moindre importance absorbent et perroquetent sans cesse comme s’ils étaient profonds.

Pour ceux qui ne sont pas familiers avec les idées derrière le futurisme, je suggère de lire mon article « La signification du bien et du mal en des temps périlleux ». En résumé, les futurologues sont toujours d’accord avec l’idée que les anciennes méthodologies doivent être effacées pour faire place à de nouvelles méthodologies. Les traditions et les idéaux du passé sont considérés comme une prison qui empêche l’humanité de progresser et d’avoir un avenir meilleur. Ils croient que la solution aux déséquilibres et aux tragédies d’aujourd’hui consiste à démanteler énergiquement le système actuel et à le reconstruire d’une manière nouvelle et originale. Cela inclut la morale et les principes directeurs, qu’ils considèrent comme étouffants et relatifs.

Le futurisme a été fondé au début du 20ème siècle en Europe avec des groupes frères en Russie et est considéré comme un précurseur des premiers mouvements socialistes, dont le fascisme et le communisme. Pour clarifier, il n’y a pas de nouvelles idées sous le soleil, seulement de vieilles idées avec une tournure légèrement différente. Le socialisme précède le globalisme, qui est l’une des idées les plus anciennes ; l’idée d’empire total.

Comme la plupart des philosophes universitaires modernes, Yuval Harari fait la promotion du futurisme et du globalisme. Il est associé au Carnegie Council For Ethics In International Affairs, un organisme globaliste. Autrefois connu sous le nom de Church Peace Union, le groupe a contribué à pousser Woodrow Wilson à impliquer les États-Unis dans la Première guerre globale et à promouvoir la création de l’ONU.

Il est un modèle adéquat pour démystifier ce que ces gens appellent souvent « l’ordre global libéral », qui n’est qu’une autre forme de futurisme. Comme point de référence, j’utilise deux articles de Harari, l’un publié pour le Guardian sur l’avenir de l’automatisation et des robots qui déclassent l’humanité, et l’autre publié pour le magazine The Economist propriété de la  Rothschild sur la nécessité de la globalisation et de la fin du nationalisme. Je vais résumer ses arguments et ses points de vue, mais j’invite les lecteurs à examiner ses articles liés ci-dessus.

Allons droit au but….

L’IA remplacera la plupart des humains… et c’est une bonne chose.

C’est en train de devenir l’un des piliers du discours de l’establishment globaliste et de son milieu universitaire pour un certain nombre de raisons. L’argument selon lequel la domination de l’intelligence artificielle est inévitable ressemble beaucoup à l’argument selon lequel la globalisation est inévitable ; les deux sont fondés sur une prophétie auto-réalisatrice.

Harari imagine ce qu’il appelle un « monde sans travail », un développement à venir d’ici seulement 20 à 30 ans où les machines algorithmiques remplaceront les êtres humains comme source principale de travail. Cette propagande a deux facettes : premièrement, elle vise à effrayer le public et à l’amener à exiger la centralisation et la gouvernance globale. Harari affirme que sans une gouvernance globale et un « revenu de base universel », l’IA fera de la plupart des gens qui n’ont pas de connaissances technologiques des pauvres instantanément, ce qu’il appelle « la classe inutile ». Et ici, nous voyons le tour de passe-passe.

Comme je l’ai souligné dans mon article intitulé « La vraie raison pour laquelle les globalistes sont si obsédés par l’intelligence artificielle », des entités globalistes comme la DARPA, l’ONU et le Forum économique global ont été très agressives en poussant l’intelligence artificielle à l’avant-scène et ont entrepris des campagnes de promotion pour contrer la méfiance du public envers cette technologie. Dans le même temps, ces organisations globalistes ont fait valoir que, sans leur surveillance accrue, l’IA pourrait faire l’objet d’abus de la part des États nations ou détruire des économies entières.

thinkingrobot2.jpg

Ainsi, les globalistes vous disent que la domination de l’IA est une conséquence inévitable du progrès alors qu’ils dépensent d’énormes quantité de capital et d’heures de travail pour faire de leur prédiction une réalité. Ils vous disent alors que l’IA sera une menace pour votre gagne-pain et celui de vos enfants. Ensuite, ils vous disent que la seule réponse est de leur donner plus de pouvoir pour régler le problème qu’ils ont créé.

La deuxième partie de cette propagande est l’affirmation selon laquelle les dangers de l’IA pourraient être transformés en avantages utopiques. Si le « monde sans travail » est le bâton, alors le revenu de base universel est la carotte. La promesse fantastique des futuristes remonte aux premiers jours du communisme, et inclut toujours une terre pour demain où tous les gens vivront une existence paisible ; une société où tous les besoins sont satisfaits sans travail. Habituellement, les voitures volantes et les villes flottantes sont offertes là-dedans quelque part …

Harrari insinue dans son article pour The Guardian que la paresse est un état naturel pour la plupart de l’humanité, et que la majorité des gens resteraient mentalement à l’aise de ne pas avoir de but dans la vie tant qu’on leur donnerait une existence virtuelle comme un moyen de distraction. Il cite l’exemple d’enfants adultes qui vivraient dans un sous-sol s’ils y étaient autorisés et qui y subsisteraient grâce à la générosité de leurs parents avec une vie dédiée aux jeux vidéo. Mais plutôt que de souligner qu’il est destructeur d’encourager un tel comportement, Hariri suggère que cela devrait être un pilier de notre société.

Ce que Hariri ignore est une question clé du pourquoi beaucoup de gens se contentent d’une telle vie. Ce n’est pas nécessairement parce qu’ils aiment faire partie de la « classe inutile » ; beaucoup d’entre eux veulent désespérément trouver un but et un accomplissement car ce désir est ancré dans la psyché de la plupart des gens à la naissance. C’est juste qu’ils n’ont aucune idée du comment, et ont vécu dans un environnement qui semble de plus en plus conçu pour nuire à leur indépendance.

Je note que les élites de l’aristocratie ont exploité pendant des siècles la béquille du revenu de base universel comme un moyen de contrôler le comportement de leurs enfants. La progéniture des élites était souvent traitée comme une propriété et maintenue dans la ligne grâce à l’infantilisation et à la dépendance à l’égard du revenu. Pour ces enfants, il était presque impensable de poursuivre un rêve personnel ou de se lancer seul, car ils ont été isolés de tout ensemble de compétences pratiques. Quitter le système, c’est s’exposer à la pauvreté et à la mort potentielle.

Le plan est donc le suivant : Empêchez les gens de devenir autonomes, assurez-vous d’être leur seule source de revenu, puis donnez-leur le pouvoir d’utiliser ce revenu comme s’ils vous devaient quelque chose comme un enfant se doit à un parent. Hariri réclame ce genre de mesure de contrôle pour le monde entier.

L’expérience humaine est dans nos têtes et ne signifie rien

Tout comme le Meilleur des mondes d’Aldous Huxley, le « monde sans travail » de Hariri repose sur les opiacés, mais dans ce cas, les opiacés technologiques de la réalité virtuelle. Il affirme qu’il n’y a rien de nouveau et que les humains participent depuis longtemps à des jeux de réalité virtuelle par leur participation à la religion ainsi que par l’acquisition de la propriété. Je ne vois pas la logique dans sa comparaison, et il semble qu’il utilise cette tangente étrange simplement comme une occasion de se perdre dans une rhétorique athée et socialiste sans originalité.

Cependant, cette diatribe nous donne une meilleure idée d’un autre mème de propagande globaliste, à savoir que toute expérience est une question de perception et que toutes les conclusions sont relatives, y compris les conclusions morales. J’ai écrit des douzaines d’articles sur la question du globalisme et du relativisme moral et sur les raisons pour lesquelles il est fondé sur le mensonge et la désinformation. Je pense que c’est l’un des débats les plus importants de notre époque ou de toute autre époque, car il détermine la survie de notre humanité.

Pour quelqu’un qui considère toute expérience comme un jeu inutile que les gens inventent pour se divertir jusqu’à leur mort, Hariri semble trop préoccupé par la façon dont nous sommes tous gouvernés alors que nous « jouons » tous notre chemin durant notre existence. S’il n’y a pas de sens et qu’il n’y a pas de conception de l’univers ou de l’humanité, alors pourquoi chercher à centraliser le contrôle du jeu ?

Bien sûr, c’est un non-sens élitiste, et je ne suis même pas sûr qu’ils croient les ordures qu’ils vendent. Comme je l’ai noté dans des articles précédents, de nombreux chercheurs ont présenté des preuves considérables de qualités psychologiques humaines inhérentes, y compris la conscience innée et la boussole morale, ainsi que des dualités archétypiques qui nous donnent le don inhérent du choix. De Carl Jung à Joseph Campbell en passant par Steven Pinker, etc., les scientifiques et chercheurs réels ont entrepris des décennies d’expérimentation, de collecte de données et d’observation pour appuyer leurs conclusions. C’est quelque chose dont des philosophes académiques comme Hariri ne tiennent pas compte. Ils pensent que s’ils énoncent un point de vue avec suffisamment de bravade arrogante, c’est tout ce dont ils ont besoin pour le consolider en tant que fait.

thinkingrobot3.jpg

La raison pour laquelle les globalistes en particulier sont si friands de la narration relativiste est parce qu’elle justifie leur comportement dans la poursuite de leurs objectifs de centralisation. Ce comportement est généralement basé sur une approche où « la fin justifie les moyens », et est contraire à notre voix inhérente d’empathie et de conscience. Si les expériences humaines sont toutes une question de perception et d’illusion, alors la façon dont les élites abusent ou subjuguent les autres humains pour subventionner leur propre réalité virtuelle ne compte plus.

Le globalisme est bon, le nationalisme est mauvais

La centralisation globale est appelée par différents noms par les universitaires élitistes : Le nouvel ordre mondial, l’ordre global multipolaire, le reset global, les biens communs globaux, l’ordre global libéral, etc. Les globalistes passent la majeure partie de leur temps à essayer de reconditionner le marketing derrière le globalisme pour le rendre plus acceptable aux yeux des masses. Il s’agit généralement d’un processus malhonnête parce qu’il exige d’eux qu’ils attribuent faussement les échecs du globalisme au libre marché et au nationalisme.

Hariri tient à proclamer que l’« ordre global libéral » a réussi à améliorer la planète sur plusieurs générations sur les plans économique et géopolitique, mais il affirme ensuite que les États-nations commencent à « saper » cette stabilité. Nous entendons aussi constamment les globalistes dire que le « capitalisme » est la cause de la plupart des maux du monde, mais la vérité est que l’ingérence de style socialiste a créé le corporatisme et l’oppression par les marchés libres au cours du siècle dernier.
Ainsi, le globalisme nous a sauvés du capitalisme de marché, mais le capitalisme détruit tout ? Comment ces deux choses peuvent-elles être vraies ?

C’est le scénario dominant des globalistes d’aujourd’hui – la globalisation fonctionne, le nationalisme et les économies indépendantes ne fonctionnent pas, et faire un pas en arrière, c’est du suicide. C’est-à-dire qu’ils considèrent les mouvements « populistes » d’aujourd’hui comme un recul suicidaire.
Ce que les élites académiques comme Hariri ignorent, ce sont les nombreux problèmes que notre monde connaît aujourd’hui en raison de l’interdépendance et de la centralisation. Il observe avec fierté que toute nation qui tenterait de fonctionner en dehors du système globaliste tomberait dans le désarroi économique, mais ne reconnaît pas qu’en 2008, le monde est tombé dans le désarroi exactement parce que les nations étaient beaucoup trop interdépendantes, avec un mécanisme commercial tellement intriqué que l’effondrement d’une grande économie a entraîné la suivante qui a fait tomber la suivante. C’était une faiblesse cancéreuse déclenchée par le globalisme, et non par l’isolationnisme ou le nationalisme. Et c’est une faiblesse qui persiste en 2019.

Pourtant, la solution est toujours la même : plus de globalisme. Le manque d’autosuffisance et de redondance des économies nationales n’est pas quelque chose qu’il faut célébrer, mais qu’il faut corriger. Il n’est pas nécessaire qu’il en soit ainsi ; ce sont les globalistes qui l’ont fait.

Duper les masses dans l’amour de la globalisation

Comme le note Harari dans son article pour The Economist, la création d’une « identité globale » dans laquelle les masses remplacent la loyauté envers une nation ou une tribu par la loyauté envers leur espèce et envers la Terre ne doit pas être difficile. Tout ce qu’il faut, c’est un ennemi commun, et quel meilleur ennemi que la menace d’une guerre nucléaire, la menace des changements climatiques et la menace de l’intelligence artificielle?

Le recours à des menaces externes (dont certaines ont été fabriquées de toutes pièces) pour amener le public à adopter un état d’esprit voulu est le pain et le beurre des élites. Les changements climatiques causés par l’homme constituent une menace fabriquée de toutes pièces, constamment démystifiée et les données exposées comme truquées pour présenter des résultats prédéterminés. La grippe aviaire est une menace que les globalistes ont activement conçue (la DARPA en est la source première). La menace d’une guerre nucléaire existe depuis des décennies et je ne m’attends guère à ce que les élites globales démantèlent de telles armes une fois qu’elles auront pris le pouvoir sur un gouvernement global.

Et nous découvrons ici le sophisme sous-jacent du débat de Hariri et la position globaliste en général. Les élites évoquent des visions terribles de ce qui se passera si les États-nations et le tribalisme sont autorisés à perdurer, mais les catastrophes qu’elles prédisent, y compris la guerre ; la manipulation génétique ;  la militarisation de l’IA ; les crises de migration massive ; l’effondrement économique – toutes ces choses sont déjà causées par les élites. Et rien ne les empêcherait de continuer à causer de tels problèmes à l’avenir si elles obtiennent ce qu’elles veulent, à savoir une gouvernance globale totale.

Je ne vois pas pourquoi les institutions globalistes devraient être considérées comme plus dignes de confiance que les gouvernements nationaux, sans parler des tribus locales. Hariri est un professeur israélien qui a manifestement bénéficié du tribalisme de cette culture tout en la dénonçant. Les globalistes agissent comme s’ils étaient loyaux envers l’humanité, mais ils ne sont en réalité loyaux qu’envers leur propre idéologie parasitaire et leur propre tribu – la tribu globaliste.

Pour élever le globalisme vers quelque chose de plus proche d’une religion qu’une simple philosophie politique, Hariri tire de son sac de tours une dernière apparition utopique classique, la promesse de la divinité. Cette idée occupe une place plus importante dans ses livres que dans ses articles, mais elle réaffirme les soupçons dont j’ai parlé dans mon article « Luciferisme : un regard laïc sur un système de croyance globaliste destructeur ». À savoir, que le globalisme repose sur un fondement très similaire à l’idéologie luciférienne, et que la technocratie globaliste est motivée par l’obsession des sociopathes narcissiques à devenir des quasi-dieux.

Ils vendent cet avenir au public comme un leurre, mais je suppose que l’ordre global libéral ne donnera pas à la « classe inutile » le statut de divinité. Comme dans toute vision élitiste, seules les élites deviennent souveraines et sont déifiées. Le reste d’entre nous devient des rouages de la machine, si nous avons de la chance, et sont considérés comme sacrifiables si nous sommes malchanceux.

Brandon Smith

Liens

https://youtu.be/qqec8oWxpEI
 

vendredi, 08 mars 2019

Intelligence artificielle. Bluff technologique ou Game Over ?

IA-ff.jpg

Intelligence artificielle. Bluff technologique ou Game Over ?

par Thierry DUROLLE

« Créer une intelligence artificielle serait le plus grand événement de l’histoire humaine. Malheureusement, ce pourrait être le dernier, à moins que nous découvrions comment éviter les risques. » Stephen Hawking résume ici toute l’envergure d’un processus prométhéen qui pose nombre de questions. Mise au point.

Principes de base de l’intelligence artificielle

Dans les années 90, on assiste à l’essor du Machine Learning (ou « apprentissage automatique »). Les programmes informatiques fonctionnent grâce à des configurations bien précises qui forment des cadres dont il est impossible de s’extirper, bien que certains cas l’exigeraient. Le programme devrait être capable de prendre des mesures par lui-même. Pour cela, il a besoin de nouveaux algorithmes qui lui permettront d’apprendre en l’alimentant avec des données, puis, en lui permettant de les classer ou de faire des associations. Il s’agit ni plus ni moins que d’une imitation du mode d’apprentissage des enfants : on désigne un chien du doigt et on nomme ce que l’on vient de lui montrer. L’une des clés pour comprendre l’IA (intelligence artificielle) réside justement dans ce mimétisme de l’humain (et plus généralement du vivant) où la pensée mécaniste sert de passerelle entre le monde de la nature et celui de la machine. Cela explique sans doute pourquoi l’on peut rapprocher l’intelligence artificielle et le transhumanisme, tout deux faisant partie d’un élan prométhéen à tendance bio-mécanique.

La neuro-informatique, par exemple, élabore un système inspiré de notre réseau neuronal dans son principe de fonctionnement, à l’exception que les neurones sont ici remplacés par des algorithmes nommés perceptrons. C’est la base du Deep Learning (« apprentissage approfondi »), une version beaucoup plus élaborée du Machine Learning, développé par le chercheur français Yann Lecun et rendu possible par l’évolution des ordinateurs et par le Big Data. Pour le moment, la machine ne peut pas rivaliser avec l’homme puisque contrairement à celle-ci nous avons, en plus de nos connaissances, tout un tas d’expériences devant nous, de facultés tenant de l’innée, de sensations et d’émotions. Autrement dit, nous avons nos cinq sens pour connaître et explorer le monde, pour faire nos propres expériences et nos propres choix; la machine n’a rien de semblable – d’où l’utilité des données pour palier à tout ce qui est du domaine de l’empirique.

ia-hm.jpg

État des lieux de l’intelligence artificielle

La bonne nouvelle est que le scénario Terminator attendra encore pas mal de temps avant de pouvoir se réaliser. Néanmoins, et cela n’est pas pour autant très rassurant, l’IA est devenu une composante de nos vies sans forcément que nous nous en rendions compte. Lorsque vous naviguez sur le fil d’actualité d’un célèbre réseau social, les informations qui apparaissent sont sélectionnées via des algorithmes usant de procédés d’intelligence artificielle (par un décorticage de vos data). Il en va de même pour tout un tas de gadgets devenus des outils du quotidien pour un grand nombre de personnes, comme les traducteurs de langues, les reconnaissances vocale et faciale. Les domaines d’application sont nombreux : finance, médecine, armée ou encore jeux vidéos.

Les avancés en la matière sont objectivement prometteuses, notamment dans le domaine médical où l’intelligence artificielle permettra d’analyser à une vitesse fulgurante des données médicales, des radiographies pour repérer des anomalies difficiles à détecter à l’œil nu. L’IA se révèle extrêmement efficace dans le traitement et l’analyse des données. En fait, contrairement aux êtres humains, celle-ci s’avère efficace uniquement dans un domaine particulier pour une tâche elle-même extrêmement précise. Un bon exemple est le programme AlphaGo. Conçu pour le jeu de go, celui-ci a battu Lee Sidol, le meilleur joueur au monde, le 15 mars 2016. En revanche, ne demandez pas à AlphaGo de jouer aux échecs car il en est incapable. Ce à quoi il faut s’attendre en réalité s’apparente à « l’émergence d’une technologie de l’intégral » pour reprendre l’expression d’Éric Sadin, c’est-à-dire à la multiplicité d’applications ayant recours à l’IA dans notre quotidien. L’humanité enclenche le pilotage automatique.

ia-cloud.jpg

Utopie technicienne ou scénario Terminator ?

L’IA, qui n’est en définitive qu’une technique, nous est promu comme LA solution à nos problèmes, ce en quoi elle serait plus performante que son créateur pour certaines tâches spécifiques. L’homme ne serait en fin de compte perfectible qu’au-delà de sa condition biologique. Cette technique sera mise à toutes les sauces en terme de résolution collectives : fin des problèmes de chômage, d’économie, de politique, d’écologie, etc. D’ailleurs le monde économique se frotte les mains à l’idée d’usines entièrement robotisées.

Pour l’instant nous ne sommes qu’au commencement de ce que les chantres de l’IA appelle une révolution. Si ces derniers comprennent le mot révolution comme une subversion, ils ont sans doute raison, mais, quid de l’ampleur de cette révolution ? Ne s’agit-il pas en fin de compte d’un bluff technologique, pour emprunter l’expression de Jacques Ellul ? Ou alors, à l’opposé, avons-nous ouvert une boite de Pandore débouchant sur le scénario Terminator ? Les défenseurs de l’IA répondront que la machine n’a pas de volonté propre si ce n’est celle qui lui a été insufflée. Par conséquent, si l’on ne programme pas la possibilité pour un robot de faire le mal, celui-ci ne pourra pas s’exécuter. La machine peut-elle échapper à notre contrôle ? En août 2017, des chercheurs du Facebook Artificial Intelligence Research (FAIR) publient une étude dans laquelle ils expliquent que deux robots communicatifs programmés pour la négociation, appelés chatbots, ont inventé leur propre langage. Les chercheurs disent avoir arrêté le programme qui « ne fonctionnait pas comme prévu »…

ia-ch.jpg

Après Prométhée, faire face à notre destin

Le véritable risque réside en fait dans cette emprise du technologisme sur nos vies (via et pour le plus grand bonheur du techno-capitalisme). Il suffit de voir les habitants des villes, mais aussi parfois des campagnes, le nez collé à leurs smartphones, la montre connectée vissée au poignet, pour se convaincre de la domination de la technique sur une partie de l’humanité. Déformé neurologiquement, mentalement et physiquement, le dos courbé pour être toujours plus près de l’écran du smartphone, les yeux fatigués par la lueur de celui-ci : voilà les techno-zombies, mus par des applications Androïd qui leur indiquent le grammage adéquat de nourriture qu’ils doivent ingérer pour continuer à exister, et qui les préviendront bientôt quand ils devront aller à la selle et comment s’accoupler récréativement. Parler d’accoutumance, voire carrément de dépendance, n’est donc pas exagéré. Tablettes, GPS, biométrie, réseau sociaux : ce que l’on gagne en côté pratique, en utilité, on le perd en indépendance, c’est-à-dire, en fin de compte, en liberté.

L’IA conçue comme une extension-outil de nous-même, indispensable à notre bon fonctionnement, voilà le danger ! En tant que partisan d’un monde organique, du Kosmos, de la saine mesure autrefois prônée par les Grecs anciens, lutter contre l’atomisation, la rationalisation fanatique et le mécanicisme cartésien devient, jours après jours, un impératif de survie. Nous sommes en train de faire face à un défi technique, économique, écologique, civilisationnel, et spirituel. Soyons lucide sur la situation, nous nous dirigeons tout droit sur un chemin hasardeux où les périls ne manquent pas. L’idéologie du Progrès nous amène peut-être à marche forcée vers la fin de l’Histoire… Alors, à l’heure où paraît enfin La perfection de la technique de Friedrich-Georg Jünger, et où l’on redécouvre l’œuvre de Bernard Charbonneau, résonne dans notre esprit un seul mot d’ordre : « Décélérons ! »

Thierry Durolle

jeudi, 29 mai 2014

Posthuman Prospects: Artificial Intelligence, Fifth Generation Warfare, & Archeofuturism

artificial-intelligence-ai-588x400.jpg

Posthuman Prospects:
Artificial Intelligence, Fifth Generation Warfare, & Archeofuturism

By Christopher Pankhurst

Ex: http://www.counter-currents.com

The speed of technological development can be dizzying, and it has become natural for us to expect a never-ending stream of faster, more powerful devices. The future development of such technologies promises increasingly sophisticated machines that will challenge the very notion of man’s supremacy. The dystopian future of intelligent machines endowed with astonishing capabilities, whose very existence might cause them to supersede humanity, is being enthusiastically pursued.

Some thinkers have sought to address the implications of such technologies, and have described models that integrate these technologies within a wider future scenario. Two such models, and their treatment of future technologies, will be discussed here: fifth generation warfare (5GW); and Archeofuturism.

Fifth Generation Warfare

The 5GW model had its genesis in a paper published in the Marine Corps Gazette in 1989 entitled “The Changing Face of War: Into the Fourth Generation.” In this paper, Lind et al. developed a model of modern warfare described in terms of four generations of evolutionary development. The first generation of modern warfare (1GW) was characterized by the use of line and column, and muskets. This generation was exemplified in the Napoleonic wars. The second generation (2GW) utilized more ruthless technology, e.g. machine guns and rifles, and was tactically more mobile. World War I represents the peak of 2GW. The third generation (3GW) was the dominant model for most of the remainder of the twentieth century. It attempted to bypass the enemy’s front line through infiltration and rapid movement, and again utilized more deadly technology such as tanks. It is characterized by Blitzkrieg.

The article then argued that a fourth generation of warfare (4GW) was emerging. 4GW “seems likely to be widely dispersed and largely undefined; the distinction between war and peace will be blurred to the vanishing point. It will be non-linear, possibly to the point of having no definable battlefields or fronts. The distinction between ‘civilian’ and ‘military’ may disappear.”[1] 4GW operatives will not necessarily be identifiable as combatants; instead they will blend into the enemies’ society until they strike. Obviously, the 9/11 attacks fit this model very well.

Since the publication of “The Changing Face of War” there have been attempts to update the generational model to include a fifth generation. In 5GW, the battlefield encompasses the entirety of social, political, ideological, scientific, economic, and military spheres. It is possible, and in many respects desirable, for the combatants in 5GW to not know whom they are fighting, nor to even know that they are fighting. The full range of Nano-Bio-Info-Cogno (NBIC) technologies are expected to be deployed in 5GW, though in ways that will be highly unpredictable, and perhaps even invisible. A characteristic feature of 5GW is the manipulation of the context of the observers of conflict. Rather than focusing on the physical defeat of an enemy, 5GW recognizes the potential for new technologies to manipulate the belief systems of observers who may support or oppose conflict.

It will be seen that the generational model of warfare is characterized by advances in both technology and tactics. Although the technologies particular to the fifth generation are still emerging, there is already a great deal of international conflict taking place in a 5GW context. As is characteristic of 5GW, these conflicts are somewhat subliminal to exoteric politics.

Cyber Warfare

One element of 5GW that is becoming increasingly important is cyber warfare. In 2008 an American army officer stationed in the Middle East found a discarded memory stick. When he put it into his laptop it appeared to be empty. In fact, it contained a Trojan virus which embedded itself into the American military computer network and was able to send secret information for weeks before being discovered. It is believed to have originated in China. In 2009 there were coordinated cyber-attacks launched against military, banking and media sources in South Korea. The obvious guilty party would be North Korea, but these attacks can be impossible to trace to the source. When the South Koreans investigated the matter they found that the attacks were launched from six computers scattered around the world, with the order to attack coming from a server in Brighton, England. Also in 2009 the American National Grid became infected with a virus from China designed to shut it down. And, in an incident in 2010, 15% of the world’s internet traffic was hijacked by Chinese servers where it will have been copied.[2]

One of the biggest cyber threats of recent years is, as yet, unattributable to any source. The Conficker worm first appeared in 2008. A worm is a type of malware that spreads across computer networks of its own accord. Whereas a virus can only infect a computer by being downloaded by the user (in an email attachment, for example), a worm is designed to exploit flaws in the operating system to spread itself. The Conficker worm was designed to create a botnet, which is a network of infected PCs that are effectively under the control of the worm’s creator, although individual PC users will not even realize that their machine is infected. Botnets can be used to disrupt websites or other systems that rely on internet communication by issuing Dedicated Denial of Service (DDoS) attacks. A DDoS occurs when a particular target is overwhelmed with a massive number of requests causing it to crash. The larger the botnet, the more effective it can be at taking down substantial targets.

Cyber warfare need not be aimed at bringing down large scale networks; it can be much more focused. The Stuxnet worm is believed to have been created by either Israel or the United States. In all probability it was a joint project, but the impossibility of determining who actually created the worm is characteristic of these sorts of cyber attacks and of 5GW. Although Stuxnet infected PCs around the world it only caused damage to certain machines in Iran. Stuxnet works by exploiting a known weakness in the Windows operating system. It was designed to disrupt a specific piece of software designed by Siemans AG. This software was used in Iran to separate weapons grade isotopes from uranium. Stuxnet caused the centrifuges used in this process to lose control, thus ruining the effort at processing uranium. This has obviously caused a setback to Iran’s nuclear ambitions.[3]

Transhumanism and Archeofuturism

These are the sorts of 5GW conflicts taking place right now using existing technologies. It is expected that the future development of 5GW will involve transhuman, super-empowered actors whose capabilities, enhanced through NBIC technologies, are so far in advance of anything that we could recognize that they will be effectively post-human. The technological convergence of computer applications and genetic modifications, it is argued, will blur the definition of “human” to such an extent that it will no longer be possible to conceive of the world from an anthropocentric viewpoint at all. As one writer on transhuman politics puts it:

The convergence of these fields comes from the fact that at the nanometer scale the differences between living and nonliving systems become indistinguishable. The body (including the brain, and whatever we might call ‘mind’) can be restructured. Medical devices can be implanted that will produce as well as dispense drugs inside of the host, including the brain. Supercomputers the size of a cell may be introduced, monitoring for and preventing disease. More generally, while at one time the physical evolution of the human species relied upon the random mutation, distribution, and environmental selection of genes, NBIC technologies make it possible to conceive of a self-designed and self-modified organism.[4]

This “transhuman” 5GW model of the future fits very well with the “Archeofuturist” model as presented by Guillaume Faye. Faye’s manifesto for a post-catastrophic age presents a future world of radical inequality, where non-Europeans have been expelled from Europe, and where technological innovation and development have progressed to such an extent that the boundaries between man and machine are no longer clear. In this Archeofuturist world, which even now still seems like science fiction, European man has to confront the challenges presented by advanced technologies by returning to an archaic value system predicated on hierarchical structures.

Things such as artificial births in incubators; intelligent, ‘quasi-sensitive’ and quasi-human biotronic robots; chimeras (crossbreeds between humans and animals, a patent for which has already filed in the United States); genetic manipulations or ‘transgenic humans’; new artificial organs that increase the faculties tenfold; the creation of hyper-endowed and ultra-resistant individuals through positive eugenics; and cloning – all risk shattering the old egalitarian and religious idea of man even more than Darwin and evolutionary theories have done.[5]

Faye paints a plausible and compelling picture of a “post-human” world where advanced technologies will destroy the existing humanist presuppositions. The only response to this situation will be to return to archaic, pre-humanist ways of thinking, and to turn metaphysical shock to our advantage by creating elites of post-human Europeans.

 

robot-artificial-intelligence.jpg

 

The merit of both the 5GW and Archeofuturist models derives from the fact that they anticipate paradigmatic technological advances, and provide a means to understand this impending scenario, thus enabling us to prepare for the shock of the new. In this respect both models are essential for understanding the way in which power struggles are likely to play out in the coming decades. Nonetheless, the neophilia of both models may cause us to expect advances in technology that might never happen. Both models assume that certain futuristic technologies are imminent and that those technologies will have fundamental consequences for our societies. But it is by no means certain that such technologies will ever, or indeed can ever, be created. The natural barriers to paradigmatic advances in technology in the near future are peak oil and the impossibility of achieving artificial intelligence.

Peak Oil 

The phenomenon of peak oil has been discussed extensively in recent years, but there is little sign that industrialized economies are waking up from the dream of unlimited progress that has beguiled them for so long. It is believed that the peak of planetary oil production has just about been reached, or perhaps even passed. This means that industrialized economies will find it more and more difficult and expensive to continue using oil. As oil becomes more scarce there will be profound effects on all levels of society, not least of which will be food shortages caused by the breakdown of food distribution networks, all of which are entirely dependent on oil, and the consequent violence and population displacements that will follow as a necessary corollary.

Critics of peak oil often argue that new, and cleaner, fuel sources will be developed to pick up the slack that declining oil production will leave. In fact, Faye himself is guilty of this in that he advocates nuclear energy as a clean alternative to oil.[6] He also considers a range of other alternative energy sources such as solar and windmills. The problem with this scenario is that existing alternative energy sources only produce a fraction of the energy that is currently being consumed. While the entire political establishment continues to maintain that economic growth is an unquestionable panacea, it will be necessary to continue using greater quantities of energy year after year for the system to continue. Worse still, the existing alternative energy sources rely on the existence of an oil economy to help subsidise their production. When oil starts to run out, these sources will have to begin relying more heavily on using alternative energy in their production, thus reducing further the net efficiency of such sources. Oil is the cheapest source of energy to produce. Even renewable sources are expensive to exploit. In The Long Descent, John Michael Greer writes:

Making a solar cell, for instance, requires large infusions of diesel fuel first to mine the raw materials and then to ship them to the factory. Even larger doses of natural gas or coal are needed to generate the electricity that powers the complex process of turning the raw materials into a cell that will make electricity out of sunlight. . . Not even the most optimistic calculations show solar cells yielding anything in the same ballpark as the net energy routinely produced by all but the poorest fossil fuels. The same, as it turns out, is true of every other alternative resource.[7]

With declining oil production, and with alternative sources unable to fulfill the shortfall, we are left relying on some new, radically efficient, source being developed. Without such a miraculous development occurring, industrial society will inevitably break down.

Greer writes of four facets of collapse that will follow on from peak oil:

  1. Declining energy availability.
  2. Economic contraction.
  3. Collapsing public health.
  4. Political turmoil.[8] 

These four scenarios should be considered in conjunction with the convergence of catastrophes described by Guillaume Faye. Faye identifies seven fracture lines of modernity that are predicted to come into effect in the years between 2010 and 2020:

  1. Metastasis of the European social fabric.
  2. Economic and demographic crisis.
  3. The chaos of the South.
  4. Global economic crisis.
  5. The surge in fundamentalist religious fanaticism.
  6. Confrontation between North and South.
  7. Unchecked pollution of the planet.[9]

All of these factors when taken together point to a radical collapse of the post-industrial lifestyles that all Westerners have come to regard as axiomatic. Faye foresees an elite, technologically advanced minority of Europeans developing futuristic advanced technologies based on inegalitarian, elitist principles. The technologies available to this minority would become occult: hidden from the view of outsiders like the secrets of a mystery school; shared only with initiated members. The majority of Europeans outside of big cities would revert to a more agrarian and essentially pre-industrial lifestyle.

While it is likely that the technological regression of the majority will come to pass, it is far from certain that the futuristic technologies of the elite will ever be developed.

Artificial Intelligence

In addition to peak oil, there is another barrier to such technologies. Any futuristic technology will be limited by the extent to which artificial intelligence (AI) can be created in computers or robots. In the transhuman future predicted we will be able to utilize such technologies to design and fast-track our own evolutionary development. This, combined with the expected advances in AI, will lead to a post-human world where the very category of “human” will have been superseded to such an extent that it will only make sense in the neo-medieval rural areas. This predicted future, if it is to come, will have to overcome the obstacles that have hampered research into the development of AI.

One of the most skeptical voices concerning the scope of AI research is that of Hubert Dreyfus. In 1965 Dreyfus was asked to write a paper on the future of AI research for the RAND Corporation. He produced a document called Alchemy and AI[10] which likened the research of contemporary AI researchers to the medieval alchemists’ attempts to turn base metals into gold. Dreyfus was convinced that the problems facing AI were not problems of processing power, size of memory capacity, or any other practical difficulties. He claimed that there were fundamental problems in principle with the claim that human intelligence could be reproduced in a digital computer.

Dreyfus continued to explore these ideas in his later works.[11] He went on to identify four assumptions which he believed were uncritically, and often unconsciously, being utilized by AI workers to underpin research into AI. Dreyfus believed that the goal of achieving artificial intelligence in a computer could only be achieved if these four assumptions were correct but that, in fact, they were all false. These assumptions were the biological assumption, the psychological assumption, the epistemological assumption, and the ontological assumption.

The biological assumption is based on the fact that neural firings in the brain are “all or nothing” bursts of energy. This observation from neuroscience has been extrapolated to imply that such firings therefore correspond to bits of information in a digital computer, which operate in a binary “all or nothing” manner. In a computer, each bit of information is a discrete unit that has a particular symbolic function. But in the brain, Dreyfus argues, the neural firings that superficially resemble such bits of information are modified and “interpreted” according to many other localized conditions, such as rate of pulsing, frequency of pulsing along particular pathways, and interaction with other neurons. In short, the biology of the brain appears to be more analogue than digital in character.

The psychological assumption prompts a somewhat philosophical treatment from Dreyfus. Researchers in AI usually assume that human psychology is a process that operates rather like a computer program, that is, that it is essentially an exercise in information processing. The problem for AI researchers is how to translate the physical properties of the brain into the higher level intellectual concepts of the mind. As long as the brain is described in terms of its physical behavior there is no problem; seeing a chair can be described as the presence of light waves on the retina causing a sequence of chemical reactions in the brain, all of which can be described quite precisely. But to speak of really “seeing” a chair it is necessary to use a different sort of language, language which is more appropriate to the mind than the brain. AI researchers, according to Dreyfus, attempt to bridge this gap by suggesting that there is a level of information processing that occurs in the brain that can organize neuro-chemical bits of information into higher-level concepts. Unfortunately, there is no evidence that this is the case; in fact, in the absence of evidence AI researchers postulate as yet unknown information processing functions of the brain, merely based on the supposed analogy with computers.

The epistemological assumption is concerned with the way in which humans know how to perform particular actions. It describes the belief that all non-arbitrary behavior can be formalized, and therefore can be reproduced. Dreyfus argues that any such formalization of human behavior, which would enable it to be programmed into a computer, would merely result in an imitation, ratherthan a reproduction, of that behavior. The computer would need to follow discrete stages of processing in order to perform any particular function and Dreyfus is far from convinced that this is in fact how humans behave in practice. AI researchers assume that behavior must follow certain heuristic steps, and that where someone is unaware of following such steps that they must be being carried out unconsciously. Against this view, Dreyfus argues that human behavior is always rooted in a particular situation and orientated towards certain goals. Because of this, people effortlessly grasp the particular local aspect of any subject under consideration due to their experience in the situation. A computer has to work through all possible interpretations, discard those that are irrelevant, and focus on those that are relevant. Human beings do not follow such procedures due to their being located in a particular existential situation.

artificialintelligence-615x345.jpg

The ontological assumption concerns a fundamental problem for AI research. As Dreyfus notes, “the data with which the computer must operate if it is to perceive, speak, and in general behave intelligently, must be discrete, explicit, and determinate; otherwise it will not be the sort of information which can be given to the computer so as to be processed by rule.”[12] Because computers must operate in terms of such discrete data it has become habitual for AI researchers to make the assumption that these data are actually present as an aspect of the world; that we, in fact, perceive the world through such data. Contrary to such researchers Dreyfus posits that, even where we are able to make explicit our perceptions of certain objects, any such fact is itself contextualized by its particular human situation: “Even a chair is not understandable in terms of any set of facts or ‘elements of knowledge.’ To recognize an object as a chair, for example, means to understand its relation to other objects and to human beings. This involves a whole context of human activity of which the shape of our body, the institution of furniture, the inevitability of fatigue, constitute only a small part.”[13] Moreover, this situation cannot itself be reduced to isolated, context-free facts; it is colored by influences from the preceding situation, so that we build up associations and interpretations over time.

For a computer, this learning-through-time model presents a problem. If data can only be interpreted according to a situation, and if that situation relies for its meaning on the previous situation, then it seems to lead to an infinite regress. At some point a programmer has to decide what information to give to a computer to begin with, and this will be based on the programmer’s own human situation; it will not arise naturally from the computer’s “consciousness.” In humans, this paradox is avoided by the fact that we are, in Dreyfus’ words, “wired genetically as babies” to recognize certain stimuli as positive and nurturing, and others as harmful. This appeal to genetics provides a powerful argument for the unique nature of human consciousness.

This is a fundamental problem facing some of the technologies predicted by the 5GW transhumanist model, and by the Archeofuturist model. The development of advanced bio-engineering, genetic manipulation and post-evolutionary technologies will be limited by the fact that human consciousness is not replicable. Its functionality is not reducible to discrete bits of information. The sophistication of human consciousness comes from the fact that it has been developed and improved upon over inconceivably long periods of time, through genetic evolution. This process of evolution has developed certain survival mechanisms that have become purely instinctual over time, so that they now appear to be natural, innate qualities. These instinctual qualities are not marginal accretions that can be input into a computer program. They are the foundational qualities on which consciousness has been built over millennia of millennia. While it is possibly to initiate certain genetic developments through eugenics or miscegenation, for example, and while computer programs can imitate evolutionary pressures, these are not the same thing as evolution itself. Evolution is not concerned with innovation for its own sake, nor for the sake of man, but with the survival of the gene. The survival benefits of any organism can only be tested through time; there can be no short cut.

Asymmetric Warfare Against Technology

Regardless of the considerations given above, effective political action in the future will not be dependent upon advanced technologies. A distinguishing characteristic of the 4GW scenario is asymmetric warfare. The 9/11 hijackers used small knives to disrupt the functioning of the world’s leading superpower in profound ways that are still being felt more than a decade later. In the 5GW model such asymmetry is still a factor; if anything its effects will be exacerbated.

The oil-rich Niger Delta has been the scene of perhaps the most successful 5GW campaign of the last decade. Henry Okah has been referred to as “one of the most important people alive today, a brilliant innovator in warfare. A true global guerrilla.”[14] He is the mastermind behind the Movement for the Emancipation of the Niger Delta (MEND), an organisation dedicated to retaining a greater share of the oil wealth for Nigerians. In furtherance of this aim MEND have sabotaged oil fields, siphoned off oil, and taken oil workers hostage. These actions are all intended to make it difficult for Shell to continue its oil operations in the Delta. MEND have managed to curtail $29 billion of oil production by Shell. The financing of MEND is minuscule in comparison, as it operates as a 5GW actor. Mercenaries are hired via text messaging for specific jobs, so the membership is nebulous. The publicity for MEND’s attacks is generated through e-mails to news outlets claiming responsibility; the organisation itself remains invisible. This type of system-disruption is easily copied by sympathetic followers, so the arrest of Okah in 2008 did not lead to the demise of MEND. Instead, Okah has provided a model of 5GW that enables otherwise unconnected groups to carry out actions in the name of MEND.

This type of asymmetric 5GW warfare does not depend upon highly advanced, futuristic technologies for its success. While some operations, such as the Conficker and Stuxnet worms, will utilize highly technical means, others will require no more than mobile phones, or e-mail. Or even the old fashioned techniques of sea piracy which are already beginning to make some oil fields prohibitively expensive to protect. It should also be noted that although cyber warfare utilizes cutting edge computer programming, its intention is to destroy existing technological systems. Large scale technically advanced societies come to rely on such technological systems for their survival. Energy grids, social security payments, food distribution networks, are all highly vulnerable systems. In fact, in a modern, technologically dependent society the vulnerability becomes ubiquitous.

The successful 5GW operative will not be dependent upon super-empowered technologies, as these technologies will be subject to similar vulnerabilities as existing ones. Instead, he will be a genuinely super-empowered individual, motivated by deep, archaic loyalties such as Islam or nationalism. While he will be willing to utilise any technologies to his own advantage he cannot afford the visibility that would be inherent in dependency on large scale systems.

A Return to Limits

The post-human technologies that Faye is expecting will not be sustainable, but it should be borne in mind that many people do in fact expect science to continue progressing towards more and more sophisticated solutions. The idea of AI, for example, is something that most people regard as a matter of “when,” not “if.” The successful 5GW operative will not expect technology to deliver his solutions but he will recognize that most people are still slaves to such dependency. As the convergence of catastrophes plays out people will become more dependent on failing governments and unsustainable technologies at exactly the time when they should be becoming more self-sufficient.

The desire to find short cuts and to invent technical solutions is indicative of the impatience of the present age. The utilization of fossil fuels that led to the creation of industrialized societies benefited from the fact that such fuels had accrued their energy potential over millions of years:

All the fossil fuels, in energy terms, are stored sunlight heaped up over geologic time. . . No human being had to put a single day’s work or a single gallon of diesel fuel into growing the tree ferns of the Carboniferous period that turned into Pennsylvanian coal beds, nor did they have to raise the Jurassic sea life that became the oil fields of Texas. The second half of Nature’s energy subsidy took the form of extreme temperatures and pressures deep within the Earth. Over millions of years more, these transformed the remains of prehistoric living things into coal, oil, and natural gas and, in the process, concentrated the energy they originally contained into a tiny fraction of their original size.[15]

These resources, if they had been developed in more sustainable ways, and used to serve more balanced societies, could have benefited us for many years to come, but we have squandered them with our impatience and greed. In an analogous way, we are highly impatient with the technologies that we wish to invent. We are unsatisfied with the intelligence that has been bequeathed to us through millions of years of evolution and we wish to create a copy of it, as soon as possible.

What has been lost is a certain sense of balance, and a knowledge of natural limitations. Ambitious innovation is certainly a virtue but when it relies upon the false premise of unlimited natural resources, or the belief that we can short cut evolution by recreating intelligence at will, it becomes the vice of hubris. Undoubtedly, we will face challenges in the future provoked by advanced technologies. And, equally certain, as we run out of natural resources, governments will increasingly ring fence such resources for themselves to continue with unsustainable military research programs. In this sense, Faye’s two tier system will come to pass although it is unlikely to operate in the interests of European man. Instead, there will be a return to more sustainable, more rural, societies that will have to learn once again what it means to live in accord with natural limitations, and that will be forced to become reacquainted with the slow passing of the seasons.

Notes

1. William S. Lind, Colonel Keith Nightengale, et al., “The Changing Face of War: Into the Fourth Generation,” Marine Corps Gazette, 1989, pp. 22-26.

2. Fraser Nelson, “China’s Spy Network,” The Spectator, December 4, 2010, pp. 12-13.

3. Mark Bowden, Worm: The First Digital War (New York: Grove Press, 2011).

4. Daniel McIntosh, “Transhuman Politics and Fifth Generation War,” in Daniel H. Abbott, ed., The Handbook of 5GW: A Fifth Generation of War? (Nimble Books, 2010).

5. Guillaume Faye, Archeofuturism (London: Arktos, 2010), pp. 109-10.

6. Ibid., p.146.

7. John Michael Greer, The Long Descent: A User’s Guide to the End of the Industrial Age (New Society Publishers, 2008), pp. 18-19.

8. Ibid., pp. 82-83.

9. Faye, Archeofuturism, pp. 59-66.

10. Hubert Dreyfus, Alchemy and AI (RAND Corporation, 1965).

11. See, e.g., Hubert Dreyfus, What Computers Still Can’t Do: A Critique of Artificial Reason (Cambridge, Mass.: MIT Press, 1992).

12. Ibid., p. 206.

13. Ibid., p. 210.

14. John Robb, “Henry Okah,” Global Guerrillas, February 28, 2008, http://globalguerrillas.typepad.com/globalguerrillas/2008/02/henry-okah.html [2]

15. Greer, The Long Descent, p. 19.

An earlier version of this essay appeared in Le Salon: Journal du Cercle de la Rose Noir, Volume 1 (London: Black Front Press, 2012).

 


Article printed from Counter-Currents Publishing: http://www.counter-currents.com

URL to article: http://www.counter-currents.com/2014/05/posthuman-prospects/

URLs in this post:

[1] Image: http://www.counter-currents.com/wp-content/uploads/2014/05/chirico.jpg

[2] http://globalguerrillas.typepad.com/globalguerrillas/2008/02/henry-okah.html: http://globalguerrillas.typepad.com/globalguerrillas/2008/02/henry-okah.html