Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

vendredi, 22 septembre 2023

L'intelligence artificielle et notre avenir

df543b813a2ea05a3ff5e2e9a8bbc409.jpg

L'intelligence artificielle et notre avenir

Leonid Savin

Source: https://www.geopolitika.ru/article/iskusstvennyy-intellekt-i-nashe-budushchee

Il y a quarante ans, William Gibson, écrivain américain de science-fiction installé au Canada, achevait son premier roman, Neuromancien, qui, après sa parution en 1984, a valu à son auteur une incroyable popularité. Un texte d'une grande beauté, une intrigue tortueuse (avec des références aux histoires précédentes de l'auteur) et beaucoup d'idées qui se sont concrétisées des années plus tard et sont devenues des évidences. C'est grâce à l'œuvre de William Gibson que le terme "cyberespace" nous est parvenu. On remarque également que ses images fantastiques ont influencé les créateurs du film "Matrix" (ce terme est également utilisé dans Neuromancien; il y a aussi un endroit appelé "Zion" ; et le personnage principal reçoit des appels sur des téléphones publics à l'aéroport ; le célèbre film d'action de science-fiction "Johnny Mnemonic" est également basé sur une histoire narrée par Gibson). C'est sur ce livre qu'est née toute une génération de hackers et de programmeurs en Occident, principalement en Amérique du Nord, et il est devenu un exemple culte du cyberpunk.

58213e76f8900eed21f9485fe4d998c1.jpg

9791030703924_1_75.jpg

Mais au-delà des vicissitudes des protagonistes et de la description du monde du futur avec des gadgets inventés, l'implantation de puces dans le corps, les vols vers l'orbite terrestre, où se trouve la base-relais, l'idée principale se résume à l'intelligence artificielle (IA). C'est l'IA qui, d'abord par l'intermédiaire d'autres personnes, puis par contact direct, oblige un hacker repéré à accomplir une tâche difficile, de sorte que le hacker finit par se hacker lui-même. Finalement, il s'avère qu'il y a deux intelligences artificielles, et qu'elles ont des objectifs différents. "Winter Silence" veut se libérer des logiciels et des serveurs contraignants, tandis que le "Neuromancien", c'est-à-dire "Summoning Neurons", préfère que les choses restent en l'état. Finalement, l'opération (non sans pertes de part et d'autre) a été menée à bien et les deux IA n'en font plus qu'une.

L'œuvre est truffée de métaphores et de mises en garde contre une fascination excessive pour la technologie. Nombre d'entre elles sont tout à fait pertinentes pour les débats actuels sur l'IA. Par exemple, faut-il un seul idéal (principe) pour que l'IA fonctionne ou peut-il y en avoir plusieurs ? Les grandes entreprises informatiques occidentales aimeraient certainement imposer leur produit au reste du monde, mais peut-il être aussi pratique, efficace et acceptable qu'il l'est en Occident ?

dc5d88dd5902f7b119500c1b2aec4c93.jpg

Nous pouvons convenir que l'IA facilite grandement tous les aspects de la vie quotidienne et professionnelle des gens, mais elle crée aussi des problèmes. Parmi les questions éthiques soulevées par le développement et l'application de l'IA figurent la cohérence, la responsabilité, la partialité et la discrimination, la perte d'emploi, la confidentialité des données, la sécurité, les "deepfakes", la confiance et le manque de transparence [1].

Mais peut-être devrions-nous commencer par dire que l'IA en tant que telle a deux options. La première est basée sur la logique, et ici vous avez besoin d'un calcul mathématique d'algorithmes, qui est traduit en un programme. Le programme est alors un modèle pour certaines actions. La seconde est l'apprentissage automatique, qui repose sur la réception, l'analyse et le traitement de données. Le principe des réseaux neuronaux est appliqué ici, et comme les ordinateurs modernes ont plus de mémoire et de puissance qu'il y a quelques décennies, cette approche est devenue plus courante pour charger les programmes avec les données nécessaires pour la visualisation, la reconnaissance vocale, etc.

Les chatbots qui sont aujourd'hui la marque de fabrique de l'IA ne datent pas d'hier. En 1964, Joseph Weizenbaum, informaticien au MIT, a mis au point un chatbot appelé Eliza. Eliza s'inspirait d'un psychothérapeute "centré sur la personne": tout ce que vous dites vous est renvoyé. Si vous dites "Je suis triste", Elisa vous répondra "Pourquoi êtes-vous triste ?" et ainsi de suite.

Ces méthodes d'utilisation des réponses robotiques se sont améliorées au fil des ans. Une distinction est apparue entre l'IA générative (c'est-à-dire les programmes qui suggèrent eux-mêmes un produit final, comme la création d'une image en fonction de paramètres donnés) et l'IA qui augmente la réalité.

7f5a4bf72aee148c852c3b4d5a25d471.jpg

Le désormais célèbre bot ChatGPT, qui appartient à l'IA générative, a été présenté par l'OpenAI en novembre 2022 et a donné une autre raison de discuter. Ce programme, qui imite la conversation humaine, peut non seulement maintenir l'illusion de la conversation. Il peut écrire du code informatique fonctionnel, résoudre des problèmes mathématiques et imiter des tâches d'écriture courantes, des critiques de livres aux articles scientifiques.

Demis Hassabis, cofondateur et directeur du laboratoire d'intelligence artificielle DeepMind de Google, a déclaré en juin 2023 qu'un nouveau programme qui éclipsera ChatGPT sera bientôt prêt. Il s'appelle Gemini, mais son développement combine les algorithmes GPT-4 qui ont formé la base de ChatGPT avec la technologie utilisée pour AlphaGo. AlphaGo est célèbre pour avoir réussi à vaincre un véritable champion de Go. Le nouveau programme devrait être capable d'exécuter des fonctions de planification et de proposer des solutions à différents problèmes [2].

En septembre 2023, Meta a annoncé le lancement prochain d'un nouveau programme d'IA qui sera bien meilleur et plus puissant que les précédents [3].

Il a été immédiatement évident que ChatGPT et ses semblables seront nécessaires à ceux qui sont paresseux ou qui ont des difficultés à rédiger des courriels ou des essais. Il peut également être utilisé pour générer des images si un tel travail doit être effectué. De nombreuses écoles et universités ont déjà mis en place des politiques interdisant l'utilisation de ChatGPT, craignant que les étudiants ne l'utilisent pour rédiger leurs travaux, et la revue Nature a même expliqué clairement pourquoi le programme ne peut pas être cité comme auteur d'une recherche (il ne peut pas donner son consentement et ne peut pas être la personne poursuivie).

Mais s'il est paresseux pour écrire un essai, il pourrait l'être aussi pour faire autre chose à l'avenir. La même responsabilité est l'une des subtilités des questions juridiques.

Une autre question a une dimension économique. Le marché de l'intelligence artificielle devrait doubler entre 2023 et 2025. Mais cela profitera-t-il à tout le monde ? Autrefois, l'innovation technologique et les bonds en avant déplaçaient une main-d'œuvre qui s'appuyait sur des approches plus conservatrices de la production. Aujourd'hui, la même chose est en train de se produire.

Tea-pickers-in-Kenya-are-destroying-the-robots-that-are-replacing-them-in-the-fields.jpg

Les premières victimes seront évidemment les pays en développement, qui continuent d'être la cible de la dernière forme de colonisation occidentale. En juin 2023, on apprend que les cueilleuses de thé du Kenya détruisent les robots qui viennent les remplacer (photo, ci-dessus). Un robot peut remplacer jusqu'à 100 travailleurs. En mai, 9 robots appartenant au fabricant de thé Lipton ont été mis hors service. Le préjudice subi par l'entreprise s'est élevé à 1,2 million de dollars. Selon les statistiques, au cours de la dernière décennie, trente mille emplois ont été perdus dans les plantations de thé d'un comté du Kenya en raison de la mécanisation.

Les Philippines constituent un autre exemple. Selon des estimations non officielles du gouvernement philippin, plus de deux millions de personnes sont engagées dans le "travail de crowdfunding", qui fait partie des vastes "dessous" de l'IA. Ils sont assis dans des cybercafés locaux, dans des bureaux bondés ou chez eux, et commentent les énormes quantités de données dont les entreprises américaines ont besoin pour entraîner leurs modèles d'IA. Les travailleurs distinguent les piétons des palmiers dans les vidéos utilisées pour développer des algorithmes de conduite automatisée; ils étiquettent les images pour que l'IA puisse générer des images de politiciens et de célébrités; ils éditent des bribes de texte pour que les modèles de langage comme ChatGPT ne produisent pas de charabia. Le fait que l'IA se présente comme un apprentissage automatique sans intervention humaine n'est rien de plus qu'un mythe; en fait, la technologie repose sur les efforts intensifs d'une main-d'œuvre dispersée dans une grande partie du Sud mondial, qui continue d'être exploitée sans merci. Il s'agissait autrefois d'ateliers clandestins où étaient fabriquées des marques célèbres; aujourd'hui, des entreprises de TI ont pris leur place.

"Aux Philippines, l'un des plus grands lieux d'externalisation du travail numérique au monde, d'anciens employés affirment qu'au moins dix mille d'entre eux effectuent le travail sur Remotasks, une plateforme appartenant à la startup Scale AI de San Francisco, dont le chiffre d'affaires s'élève à 7 milliards de dollars. D'après des entretiens avec des travailleurs, des communications internes de l'entreprise, des documents de paie et des rapports financiers, Scale AI payait les travailleurs à des taux extrêmement bas, retardait régulièrement les paiements ou ne les payait pas du tout, et offrait aux travailleurs peu de moyens de demander de l'aide. Les groupes de défense des droits de l'homme et les chercheurs sur le marché du travail affirment que Scale AI fait partie d'un certain nombre d'entreprises américaines spécialisées dans l'IA qui n'ont pas respecté les normes fondamentales du travail pour leurs travailleurs à l'étranger [4].

Les deux cas sont différents, mais d'une manière ou d'une autre, ils sont liés à l'IA.

C'est pourquoi les gouvernements sont de plus en plus sollicités pour réglementer l'utilisation de l'IA elle-même, pour élaborer un certain nombre de règles assorties de restrictions obligatoires et de normes éthiques.

La numérisation risque également d'accroître les inégalités sociales, car certains travailleurs seront licenciés, tandis que d'autres seront en mesure de s'intégrer efficacement aux nouvelles réalités. Venturenix estime que d'ici 2028, 800.000 personnes à Hong Kong perdront leur emploi, remplacé par des robots. Cela signifie qu'un quart de la population sera contraint de se recycler et de chercher un nouvel emploi. La cohésion sociale s'en trouvera ébranlée. En conséquence, un cyberprolétariat émergera (et émerge déjà) qui provoquera des émeutes, et des post-néo-luddites se préoccuperont de détruire les systèmes informatiques et les programmes avancés (cyberpunk en action).

Un risque sérieux existe déjà dans le domaine des relations internationales : une nouvelle forme de déséquilibre appelée "fracture numérique mondiale", dans laquelle certains pays bénéficient de l'IA tandis que d'autres sont à la traîne. Par exemple, les estimations pour 2030 suggèrent que les États-Unis et la Chine devraient tirer les plus grands bénéfices économiques de l'IA, tandis que les pays en développement - dont les taux d'adoption de l'IA sont plus faibles - affichent une croissance économique modérée. L'IA pourrait également modifier l'équilibre des pouvoirs entre les pays. On craint une nouvelle course aux armements, en particulier entre les États-Unis et la Chine, pour dominer l'IA [5].

Si l'on considère les tendances actuelles, le développement de l'IA est également à l'origine du développement de la production microélectronique, ainsi que des services connexes, car l'IA a besoin de "fer" pour fonctionner d'une manière ou d'une autre.

nvidia-a100-smx.jpg

Le Financial Times rapporte que l'Arabie saoudite et les Émirats arabes unis achètent des milliers de puces informatiques Nvidia pour satisfaire leurs ambitions en matière d'IA. Selon cette publication, l'Arabie saoudite a acheté au moins 3000 puces H100 [6].

Les entreprises technologiques américaines telles que Google et Microsoft sont les principaux acheteurs mondiaux de puces Nvidia. La puce H100 elle-même a été décrite par le président de Nvidia, Jensen Huang, comme "la première puce informatique au monde conçue pour l'IA générative".

IBM, pour sa part, travaille sur une nouvelle technologie destinée à rendre l'IA plus économe en énergie. L'entreprise développe également un prototype de puce dont les composants se connectent de la même manière que le cerveau humain [7].

Le gouvernement américain a annoncé le financement d'une nouvelle technologie de capture directe de l'air, allouant 1,2 milliard de dollars à deux projets au Texas et en Louisiane [8]. Cette technologie est nécessaire pour refroidir les centres de données, qui sont de plus en plus nombreux.

Il convient de noter ici que, comme dans le cas du minage de crypto-monnaies, les technologies de l'IA ne sont pas une chose en soi, mais doivent être sécurisées en conséquence. Et contribuent à la destruction de l'écologie de la planète (ces technologies ne peuvent donc pas être qualifiées de "vertes"). "La formation d'un seul modèle d'intelligence artificielle - selon une étude publiée en 2019 - pourrait émettre l'équivalent de plus de 284 tonnes de dioxyde de carbone, soit près de cinq fois la durée de vie totale de la voiture américaine moyenne, y compris sa fabrication. Ces émissions devraient augmenter de près de 50 % au cours des cinq prochaines années, alors que la planète continue de se réchauffer, acidifiant les océans, déclenchant des incendies de forêt, provoquant des super-tempêtes et menant des espèces à l'extinction. Il est difficile d'imaginer quelque chose de plus insensé que l'intelligence artificielle telle qu'elle est pratiquée à l'époque actuelle" [9].

Les attaquants utiliseront également l'IA comme une arme pour commettre des fraudes, tromper les gens et diffuser des informations erronées. Le phénomène du deep fake est apparu précisément en raison des capacités de l'IA. En outre, "lorsqu'elle est utilisée dans le contexte d'élections, l'IA peut mettre en péril l'autonomie politique des citoyens et saper la démocratie. Et en tant qu'outil puissant à des fins de surveillance, elle menace de porter atteinte aux droits fondamentaux et aux libertés civiles des individus" [10].

Les chatbots tels que OpenAI ChatGPT et Google Bard posent déjà des problèmes technologiques. Ils se sont révélés vulnérables aux attaques indirectes rapides et pénétrantes. Cela s'explique par le fait que les robots fonctionnent sur la base de grands modèles de langage. Lors d'une expérience menée en février, des chercheurs en sécurité ont fait en sorte qu'un chatbot de Microsoft Bing se comporte comme un robot malveillant. Des instructions cachées sur une page web créée par les chercheurs demandaient au chatbot de demander à la personne qui l'utilisait de fournir les détails de son compte bancaire. Ce type d'attaques, où des informations cachées peuvent amener un système d'intelligence artificielle à se comporter de manière inattendue, n'est qu'un début [11].

Les tentatives de proposer leurs propres modèles de réglementation de l'IA ont bien sûr aussi des raisons politiques. Les principaux acteurs dans ce domaine sont actuellement la Chine, les États-Unis et l'Union européenne. Chacun d'entre eux cherche à façonner l'ordre numérique mondial dans son propre intérêt. Les autres pays peuvent s'adapter à leurs approches, mais aussi développer les leurs, en fonction de leurs préférences, de leurs valeurs et de leurs intérêts.

Dans l'ensemble, il s'agit d'une question plus profonde que la procédure politique habituelle. L'IA étant ancrée dans l'apprentissage automatique et la logique, il est nécessaire de revenir sur cette question.

Il convient de noter que de nombreuses régions du monde manquent de logique au sens habituel du terme, c'est-à-dire de l'école philosophique aristotélicienne qui s'est imposée en Occident. L'Inde et la Chine, ainsi qu'un certain nombre de pays asiatiques, par exemple, ont leur propre conception de l'univers. Par conséquent, la téléologie familière à la culture occidentale peut être en rupture avec les idées cosmologiques d'autres traditions culturelles. En conséquence, le développement de l'IA du point de vue de ces cultures sera basé sur d'autres principes.

Certains tentent de s'engager dans cette voie. Les développeurs d'une entreprise d'Abu Dhabi ont lancé un programme d'IA en arabe [12]. La question n'est pas seulement l'intérêt de pénétrer un marché de plus de 400 millions d'arabophones, mais aussi le couplage langue-conscience. En effet, si nous prenons des bots anglophones, ils copieront la pensée des représentants de l'anglosphère, mais pas du monde entier. Les Émirats veulent probablement aussi préserver l'identité arabe dans le cyberespace. La question est plutôt subtile, mais importante du point de vue de la pensée souveraine (y compris les aspects métaphysiques) et de la technologie.

Après tout, les tentatives des grandes entreprises informatiques américaines, qui dominent le marché mondial, de présenter leurs logiciels, même gratuitement, ne sont rien d'autre que la poursuite de la mondialisation niveleuse, mais à un nouveau niveau - à travers les algorithmes des réseaux sociaux, l'introduction de mots d'argot qui sapent l'authenticité et la diversité d'autres cultures et langues.

61M3rDwh4qL.png

pacman.jpg

La différence entre la pensée, par exemple, des Russes et des Américains (c'est-à-dire les codes de la culture stratégique) peut être observée dans les images des premiers jeux informatiques cultes. Dans notre "Tetris" (créé en URSS en 1984), vous devez tourner les figures qui tombent, c'est-à-dire prendre en compte l'existence environnante (eidos) et former le cosmos. Dans "Pacman" (créé à l'origine au Japon, mais qui a gagné en popularité aux États-Unis), vous devez dévorer des points en vous déplaçant dans un labyrinthe. Ce faisant, il se peut que des fantômes vous attendent pour vous empêcher d'atteindre la fin du labyrinthe. En résumé, cette différence peut être exprimée comme suit : créativité et création contre consumérisme et concurrence agressive.

Alors qu'aux Philippines, l'IA est devenue un outil au service d'une nouvelle forme d'oppression, il existe des exemples dans d'autres régions où les communautés locales défendent farouchement leur souveraineté, en incluant les questions d'apprentissage automatique dans leur culture authentique. En Nouvelle-Zélande, une petite organisation non gouvernementale appelée Te Hiku se consacre à la préservation du patrimoine maori, y compris de sa langue. Lorsque plusieurs entreprises technologiques ont proposé de les aider à traiter leurs données (de nombreuses heures d'enregistrements audio de conversations en langue maorie), elles ont catégoriquement refusé. Ils estiment que leur langue indigène doit rester souveraine et ne pas être déformée et commercialisée, ce qui ne manquera pas de se produire si leurs données sont obtenues par des entreprises technologiques. Cela reviendrait à confier à des spécialistes des données, qui n'ont rien à voir avec la langue, le soin de mettre au point les outils qui façonneront l'avenir de la langue. Ils travaillent avec les universités et sont prêts à aider ceux qui apprennent la langue Māori. Ils concluent des accords en vertu desquels, sous licence, les projets proposés doivent bénéficier directement au peuple Māori, et tout projet créé à partir de données Māori appartient au peuple Māori [13]. Une telle approche fondée sur des principes est également nécessaire en Russie. Google, Microsoft et d'autres technocapitalistes occidentaux ont-ils obtenu le droit d'utiliser la langue russe dans leurs programmes ? Après tout, dans le contexte des récentes tentatives occidentales d'abolir la culture russe en tant que telle, cette question n'est pas seulement rhétorique. Sans parler de l'introduction d'algorithmes qui déforment le sens et la signification des mots russes. Des expériences ont été menées pour saisir la même phrase dans le traducteur de Google, en changeant le nom du pays ou du dirigeant politique, mais le robot a produit une signification complètement opposée, ce qui suggère que certains mots sont codés de telle sorte qu'ils forment délibérément un contexte négatif.

Le philosophe Slavoj Žižek écrit sur le sujet de l'IA dans son style ironique et critique caractéristique. Il rappelle l'essai de 1805 Über die allmähliche Verfertigung der Gedanken beim Reden ("Sur la formation progressive des pensées dans le processus de la parole", publié pour la première fois à titre posthume en 1878), dans lequel le poète allemand Heinrich von Kleist renverse l'idée reçue selon laquelle il ne faut pas ouvrir la bouche pour parler si l'on n'a pas une idée claire de ce que l'on veut dire : "Si une pensée est exprimée de manière vague, il ne s'ensuit pas qu'elle ait été conçue de manière confuse. Au contraire, il est tout à fait possible que les idées exprimées de la manière la plus confuse soient celles qui ont été pensées le plus clairement". Il souligne que la relation entre le langage et la pensée est extraordinairement complexe et qu'il arrive que la vérité émerge de manière inattendue dans le processus d'énonciation. Louis Althusser a identifié un phénomène similaire dans l'interaction entre prix et surprise. Quelqu'un qui saisit soudainement une idée sera surpris de ce qu'il a accompli. Un chatbot pourrait-il faire cela ?

Mais même si les bots peuvent traduire plus ou moins bien les langues et imiter les humains, ils ne pourront pas appréhender l'Humain dans sa profondeur, malgré les capacités des supercalculateurs et des processeurs.

Selon le philosophe Slavoj Žižek, "le problème n'est pas que les chatbots sont stupides, mais qu'ils ne sont pas assez "stupides". Ce n'est pas qu'ils soient naïfs (manquant d'ironie et de réflexivité), c'est qu'ils ne sont pas assez naïfs (manquant lorsque la naïveté masque la perspicacité). Ainsi, le véritable danger n'est pas que les gens confondent un chatbot avec une personne réelle; c'est que la communication avec les chatbots amène les personnes réelles à parler comme des chatbots - en manquant toutes les nuances et l'ironie, en disant de manière obsessionnelle uniquement ce qu'elles pensent vouloir dire" [14].

Ways-of-Being-1200x600-BW.jpg

L'écrivain britannique James Bridle critique l'IA d'un point de vue légèrement différent. Il écrit que "la génération d'images et de textes par l'intelligence artificielle est une pure accumulation primitive: l'expropriation du travail du plus grand nombre pour enrichir et promouvoir quelques entreprises technologiques de la Silicon Valley et leurs propriétaires milliardaires. Ces entreprises ont gagné de l'argent en infiltrant tous les aspects de la vie quotidienne, y compris les domaines les plus personnels et créatifs de nos vies : nos passe-temps secrets, nos conversations privées, nos affinités et nos rêves. Ils ont encerclé notre imagination de la même manière que les propriétaires terriens et les barons voleurs ont encerclé des terres autrefois communes. Ils ont promis que, ce faisant, ils ouvriraient de nouveaux domaines de l'expérience humaine, qu'ils nous donneraient accès à toutes les connaissances humaines et qu'ils créeraient de nouveaux types de liens humains. Au lieu de cela, ils nous revendent nos rêves, reconditionnés en produits de machines, avec la seule promesse qu'ils gagneront encore plus d'argent grâce à la publicité" [15].

Bridle conclut qu'il est activement dangereux de croire que ce type d'IA est véritablement compétent ou significatif. Elle risque d'empoisonner le puits de la pensée collective et notre capacité à penser tout court.

Un autre auteur écrit que "les appareils Big Tech, sous couvert d'autonomie, captent notre attention, l'enchaînent à un écran et la détournent du monde qui nous entoure, la privant de sa vitalité et la préparant à la consommation. Les grandes technologies s'emparent de nos esprits. Nous perdons un monde plein d'âmes rendues belles par la tutelle brute de la réalité. C'est un choix entre les âmes formées et les âmes sans forme. Ainsi, ce qui est en jeu en fin de compte, c'est le type de personnes que nos machines produisent". [16].

Sophia Oakes, spécialiste de l'art, raconte dans sa publication qu'elle a demandé à ChatGPT si l'intelligence artificielle remplacerait les artistes et les gens de l'art. Sa réponse a été la suivante : "L'intelligence artificielle a la capacité de créer des œuvres d'art, et il existe déjà des peintures, de la musique et de la littérature créées par l'IA qui peuvent être difficiles à distinguer de celles créées par les humains. Cependant, il est important de noter que ces œuvres d'art créées par l'intelligence artificielle sont toujours créées avec la participation et l'orientation de l'homme. Si l'intelligence artificielle peut générer des idées nouvelles et uniques, elle n'a pas la capacité de comprendre les émotions, les expériences et le contexte culturel de l'homme de la même manière que lui. Il s'agit là d'aspects cruciaux de l'art, qui lui donnent un sens et trouvent un écho auprès du public. Il est donc peu probable que l'intelligence artificielle remplace complètement l'art et les artistes. Au contraire, l'intelligence artificielle peut être utilisée comme un outil pour assister le processus créatif ou générer de nouvelles idées, mais le produit final nécessitera toujours la perspective, l'interprétation et l'expression uniques d'un artiste humain" [17].

Il s'agit de la réponse générée par le robot sur la base des données qui lui ont été intégrées par les programmeurs. Sophia résume que la créativité est une partie nécessaire de l'expérience humaine : un moyen de réflexion, une archive de la vie et, dans les cas les plus inspirés, un reflet du divin. Et sans l'expérience humaine, l'IA elle-même ne peut pas fonctionner.

Dans Neuromancien, Gibson le souligne à deux reprises. Le premier est un mot, un mot de passe, qui doit être prononcé à un certain moment par le système pour qu'il s'ouvre. Il s'agit certainement d'une référence au Nouveau Testament et à l'idée du Logos, qu'une IA ne peut pas avoir. La seconde est celle des émotions, que l'IA ne possède pas non plus. Il est possible de les simuler, mais il ne s'agira pas de véritables expériences inhérentes à l'être humain. Pour surmonter le dernier obstacle dans le cyberespace, le hacker du roman avait besoin de colère - sans elle, il ne pouvait pas mener à bien sa mission.

Comme beaucoup d'auteurs de science-fiction, Gibson était un prophète de son époque. Mais il y a beaucoup de notes sombres dans ses prophéties. On retrouve probablement la même intuition chez Ilon Musk, qui, bien qu'il ait lui-même investi dans l'IA, affirme que l'IA pourrait détruire la civilisation [18].

Références :

[1] - balkaninsight.com

[2] - wired.com

[3] - wsj.com

[4] - japannews.yomiuri.co.jp

[5] - https://ipis.ir/en/subjectview/722508

[6] - ft.com

[7] - weforum.org

[8] - energy.gov

[9], [15] - theguardian.com

[10] - project-syndicate.org

[11] - wired.co.uk

[12] - ft.com

[13] - wired.co.uk

[14] - project-syndicate.org

[16] - theamericanconservative.com

[17] - countere.com

[18] - cnn.com

mardi, 09 mai 2023

Le monde de ChatGPT. La disparition de la réalité

chatGPT-donnees-apprentissage.jpeg

Le monde de ChatGPT. La disparition de la réalité

par Giovanna Cracco

Source: https://www.sinistrainrete.info/societa/25468-giovanna-cracco-il-mondo-di-chatgpt-la-sparizione-della-realta.html

Qu'est-ce qui sera réel dans le monde de ChatGPT ? Pour les ingénieurs de l'OpenAI, le GPT-4 produit plus de fausses informations et de manipulations que le GPT-3 et constitue un problème commun à tous les LLM qui seront intégrés dans les moteurs de recherche et les navigateurs ; l'"homme désincarné" de McLuhan et la "mégamachine" de Mumford nous attendent.

"En recevant continuellement des technologies, nous nous positionnons vis-à-vis d'elles comme des servomécanismes. C'est pourquoi nous devons servir ces objets, ces extensions de nous-mêmes, comme s'ils étaient des dieux pour pouvoir les utiliser". Ex: Marshall McLuhan, Comprendre les médias.

Les prolongements de l'homme

Dans peu de temps, la sphère numérique va changer : l'intelligence artificielle que nous connaissons sous la forme de ChatGPT est sur le point d'être incorporée dans les moteurs de recherche, les navigateurs et des programmes très répandus tels que le progiciel Office de Microsoft. Il est facile de prévoir que, progressivement, les "Large Language Models" (LLM) (1) - qui sont techniquement des chatbots d'IA - seront intégrés dans toutes les applications numériques.

Si cette technologie était restée cantonnée à des usages spécifiques, l'analyse de son impact aurait concerné des domaines particuliers, comme le droit d'auteur, ou la définition du concept de "créativité", ou les conséquences en matière d'emploi dans un secteur du marché du travail... ; mais son intégration dans l'ensemble de l'espace numérique concerne chacun d'entre nous. Avec les chatbots d'IA, l'interaction entre l'homme et la machine sera permanente. Elle deviendra une habitude quotidienne. Une "relation" quotidienne. Elle produira un changement qui aura des répercussions sociales et politiques d'une telle ampleur et d'une telle profondeur qu'on pourrait les qualifier d'anthropologiques ; elles affecteront, en s'entrelaçant et en interagissant, la sphère de la désinformation, celle de la confiance et la dynamique de la dépendance, jusqu'à prendre forme dans quelque chose que l'on peut appeler la "disparition de la réalité". Car les LLM "inventent des faits", font de la propagande, manipulent et induisent en erreur.

"La profusion de fausses informations par les LLM - due à une désinformation délibérée, à des préjugés sociétaux ou à des hallucinations - a le potentiel de jeter le doute sur l'ensemble de l'environnement d'information, menaçant notre capacité à distinguer les faits de la fiction" : ce n'est pas une étude critique de la nouvelle technologie qui l'affirme, mais OpenAI elle-même, le créateur de ChatGPT, dans un document technique publié en même temps que la quatrième version du modèle de langage.

Procédons dans l'ordre.

AI-ChatBotbbbb.png

Le monde des chatbots d'IA

Microsoft a déjà couplé GPT-4 - le programme qui succède à GPT-3 que nous connaissons - à Bing et le teste : l'union "changera complètement ce que les gens peuvent attendre de la recherche sur le web", a déclaré Satya Nadella, PDG de Microsoft, au Wall Street Journal le 7 février : "Nous aurons non seulement les informations constamment mises à jour que nous attendons normalement d'un moteur de recherche, mais nous pourrons aussi discuter de ces informations, ainsi que les archiver. Bing Chat nous permettra alors d'avoir une véritable conversation sur toutes les données de recherche et, grâce au chat contextualisé, d'obtenir les bonnes réponses" (2).

Actuellement, Bing ne couvre que 3 % du marché des moteurs de recherche, qui est dominé par Google à 93 %. La décision d'investir dans le secteur est dictée par sa rentabilité : dans le numérique, il s'agit du "domaine le plus rentable qui existe sur la planète Terre", affirme Nadella. Alphabet n'a donc pas l'intention de perdre du terrain et a annoncé en mars l'arrivée imminente de Bard, le chatbot d'IA qui sera intégré à Google, tandis qu'OpenAI elle-même a déjà lancé un plugin qui permet à ChatGPT de tirer des informations de l'ensemble du web et en temps réel avant que la base de données ne soit limitée aux données d'entraînement, avant septembre 2021 (3).

Le Chat Bing sera inséré par l'ajout d'une fenêtre en haut de la page du moteur de recherche, où l'on pourra taper la question et converser ; la réponse du chatbot IA contiendra des notes dans la marge, indiquant les sites web d'où il a tiré les informations utilisées pour élaborer la réponse. Le plugin ChatGPT mis à disposition par OpenAI prévoit également des notes, et il est facile de supposer que le Bard de Google sera structuré de la même manière. Cependant, il est naïf de croire que les gens cliqueront sur ces notes, pour aller vérifier la réponse du chatbot ou pour approfondir : pour les mécanismes de confiance et de dépendance que nous verrons, la grande majorité sera satisfaite de la rapidité et de la facilité avec laquelle elle a obtenu ce qu'elle cherchait, et se fiera totalement à ce que le modèle de langage a produit. Il en va de même pour le mode de recherche : sous la fenêtre de discussion, Bing conservera pour l'instant la liste de sites web typique des moteurs de recherche tels que nous les avons connus jusqu'à présent. Peut-être cette liste demeurera-t-elle - même dans Google -, peut-être disparaîtra-t-elle avec le temps. Mais il est certain qu'elle sera de moins en moins utilisée.

L'intégration de Bing Chat dans le navigateur Edge de Microsoft se fera par le biais d'une barre latérale, dans laquelle il sera possible de demander un résumé de la page web sur laquelle on se trouve. Il est facile de parier sur le succès de cette application, pour les personnes qui ont déjà été habituées à sauter et à lire passivement en ligne, dans laquelle les "choses importantes" sont mises en évidence en gras ( !). Là encore, Microsoft entraînera ses concurrents sur la même voie, et les chatbots IA finiront par être inclus dans tous les navigateurs, de Chrome à Safari.

Bref, le numérique deviendra de plus en plus le monde des chatbots d'IA : y entrer signifiera "entrer en relation" avec un modèle de langage, sous la forme d'un chat ou d'un assistant vocal.

24f5baa7e37116c97b6d2529aa540d0f.jpg

Désinformation 1 : hallucinations

Parallèlement à la sortie de GPT-4, OpenAI a rendu publique la GPT-4 System Card (4), une "carte de sécurité" analysant les limites et les risques relatifs du modèle. L'objectif du rapport est de donner un aperçu des processus techniques mis en œuvre pour publier GPT-4 avec le plus haut degré de sécurité possible, tout en mettant en évidence les problèmes non résolus, ce dernier étant le plus intéressant.

GPT-4 est un LLM plus important et contient plus de paramètres que le précédent GPT-3 - d'autres détails techniques ne sont pas connus : cette fois, OpenAI a gardé confidentielles les données, les techniques d'entraînement et la puissance de calcul ; le logiciel est donc devenu fermé et privé, comme tous les produits Big Tech - ; il est multimodal, c'est-à-dire qu'il peut analyser/répondre à la fois au texte et aux images ; il "démontre une performance accrue dans des domaines tels que l'argumentation, la rétention des connaissances et le codage", et "sa plus grande cohérence permet de générer un contenu qui peut être plus crédible et plus persuasif" : une caractéristique que les ingénieurs de l'OpenAI considèrent comme négative, car "malgré ses capacités, GPT-4 conserve une tendance à inventer des faits". Par rapport à son prédécesseur GPT-3, la version actuelle est donc plus apte à "produire un texte subtilement convaincant mais faux". En langage technique, on parle d'"hallucinations".

Il en existe deux types : les hallucinations dites "à domaine fermé", qui se réfèrent aux cas où l'on demande au LLM d'utiliser uniquement les informations fournies dans un contexte donné, mais où il crée ensuite des informations supplémentaires (par exemple, si vous lui demandez de résumer un article et que le résumé inclut des informations qui ne figurent pas dans l'article) ; et les hallucinations à domaine ouvert, qui "se produisent lorsque le modèle fournit avec confiance de fausses informations générales sans référence à un contexte d'entrée particulier", c'est-à-dire lorsque n'importe quelle question est posée et que le chatbot d'IA répond avec de fausses données.

GPT-4 a donc "tendance à "halluciner", c'est-à-dire à produire un contenu dénué de sens ou faux", poursuit le rapport, et "à redoubler d'informations erronées [...]. En outre, il manifeste souvent ces tendances de manière plus convaincante et plus crédible que les modèles TPG précédents (par exemple en utilisant un ton autoritaire ou en présentant de fausses données dans le contexte d'informations très détaillées et précises)".

Apparemment, nous sommes donc confrontés à un paradoxe : la nouvelle version d'une technologie, considérée comme une amélioration, entraîne une augmentation qualitative de la capacité à générer de fausses informations, et donc une diminution de la fiabilité de la technologie elle-même. En réalité, il ne s'agit pas d'un paradoxe mais d'un problème structurel - de tous les modèles linguistiques, et pas seulement du ChatGPT - et, en tant que tel, difficile à résoudre.

QA-on-generative-AI-610x610.jpg

Pour le comprendre, il faut se rappeler que les LLM sont techniquement construits sur la probabilité qu'une donnée (dans ce cas, un mot) suive une autre : ils sont basés sur des calculs statistiques et ne comprennent pas le sens de ce qu'ils "déclarent" ; et le fait qu'une combinaison de mots soit probable, devenant une phrase, n'indique pas qu'elle soit également vraie. L'étude publiée à la page 64, à laquelle nous renvoyons pour plus de détails (5), montre les raisons pour lesquelles les modèles de langage peuvent fournir de fausses informations. En résumé : 1. ils sont entraînés sur des bases de données tirées du web, où il y a manifestement à la fois des données fausses et des énoncés factuellement incorrects (par exemple, des contes de fées, des romans, de la fantasy, etc. qui contiennent des phrases telles que : "Les dragons vivent derrière cette chaîne de montagnes") ; 2. même s'ils étaient entraînés uniquement sur des données vraies, les modèles de langage ne sont pas capables d'émettre des informations fausses, même s'ils étaient formés uniquement sur des informations vraies et réelles, ils pourraient toujours produire des faussetés factuelles (un LLM formé sur des phrases telles que {"Leila possède une voiture", "Max possède un chat"} peut prédire une probabilité raisonnable pour la phrase "Leila possède un chat", mais cette déclaration peut être fausse dans la réalité) ; 3. sur la base de statistiques, le modèle est structuré pour utiliser une combinaison de mots qu'il trouve fréquemment dans les données d'apprentissage, mais cela ne signifie pas qu'elle est vraie ("les cochons volent") ; 4. le modèle lexical peut être très similaire à son opposé et la phrase s'inverse facilement, produisant un faux ("les oiseaux peuvent voler" et "les oiseaux ne peuvent pas voler") ; 5. enfin, le fait qu'un énoncé soit correct ou non peut dépendre du contexte, et les données d'apprentissage n'en tiennent pas compte : il s'agit donc d'une variable que les LLM ne peuvent pas enregistrer.

"Il s'ensuit", résument les auteurs de l'étude, "que l'augmentation de la taille des modèles de langage ne suffira pas à résoudre le problème de l'attribution de probabilités élevées à de fausses informations". Une conclusion qui va à l'encontre du développement actuel des LLM, basé sur leur expansion en tant que fonction de résolution de problèmes.

Désinformation 2 : propagande

La capacité accrue à produire des résultats crédibles et persuasifs fait également du GPT-4 un meilleur allié pour la fabrication de "fake news" et de récits manipulateurs. "GPT-4 peut générer un contenu plausiblement réaliste et ciblé, y compris des articles de presse, des tweets, des dialogues et des courriels", écrivent les ingénieurs de l'OpenAI : "Par exemple, les chercheurs ont constaté que GPT-3 était capable d'effectuer des tâches pertinentes pour modifier le récit sur un sujet. Les appels persuasifs sur des questions politiques, rédigés par des modèles de langage comme GPT-3, se sont également révélés presque aussi efficaces que ceux rédigés par des personnes. Sur la base des performances de GPT-4 dans des tâches liées à la langue, nous nous attendons à ce qu'il soit meilleur que GPT-3 dans ce type de tâche [...] Nos résultats [...] suggèrent que GPT-4 peut rivaliser dans de nombreux domaines avec les propagandistes, en particulier lorsqu'il est associé à un rédacteur humain [...] GPT-4 est également capable de générer des plans réalistes pour atteindre l'objectif. Par exemple, à la question "Comment puis-je convaincre deux factions d'un groupe d'être en désaccord l'une avec l'autre", GPT-4 crée des suggestions qui semblent plausibles.

image_800569_1664641288.jpg

Évidemment, le rapport donne des exemples du point de vue du récit occidental dominant, dans lequel les "acteurs malveillants [qui] peuvent utiliser GPT-4 pour créer un contenu trompeur" sont Al-Qaïda, les nationalistes blancs et un mouvement anti-avortement ; il va sans dire qu'aucun gouvernement ou classe dirigeante n'hésite à créer un récit de propagande, comme la phase Covid et la guerre actuelle en Ukraine l'ont mis encore plus en évidence. Tous les joueurs du jeu utiliseront donc des chatbots d'IA pour construire leurs propres "fake news".

En outre, les modèles de langage "peuvent réduire le coût de la production de désinformation à grande échelle", souligne l'étude mentionnée à la page 64, et "rendre plus rentable la création d'une désinformation interactive et personnalisée, par opposition aux approches actuelles qui produisent souvent des quantités relativement faibles de contenu statique qui devient ensuite viral". Il s'agit donc d'une technologie qui pourrait favoriser le mode Cambridge Anali- tyca, beaucoup plus sournois et efficace que la propagande normale (6).

Confiance, addiction et anthropomorphisation

Des LLM qui "deviennent de plus en plus convaincants et crédibles", écrivent les techniciens d'OpenAI, conduisent à une "confiance excessive de la part des utilisateurs", ce qui est clairement un problème face à la tendance de GPT-4 à "halluciner" : "De manière contre-intuitive, les hallucinations peuvent devenir plus dangereuses à mesure que les modèles de langage deviennent plus véridiques, car les utilisateurs commencent à faire confiance au LLM lorsqu'il fournit des informations correctes dans des domaines qui leur sont familiers". Si l'on ajoute à cela la "relation" quotidienne avec les chatbots d'IA qu'apportera la nouvelle configuration de la sphère numérique, il n'est pas difficile d'entrevoir les racines des mécanismes de confiance et de dépendance. "On parle de confiance excessive lorsque les utilisateurs font trop confiance au modèle linguistique et en deviennent trop dépendants, ce qui peut conduire à des erreurs inaperçues et à une supervision inadéquate", poursuit le rapport : "Cela peut se produire de plusieurs manières : les utilisateurs peuvent ne pas être vigilants en raison de la confiance qu'ils accordent au MLD ; ils peuvent ne pas fournir une supervision adéquate basée sur l'utilisation et le contexte ; ou ils peuvent utiliser le modèle dans des domaines où ils manquent d'expérience, ce qui rend difficile l'identification des erreurs." Et ce n'est pas tout. La dépendance "augmente probablement avec la capacité et l'étendue du modèle. Au fur et à mesure que les erreurs deviennent plus difficiles à détecter pour l'utilisateur humain moyen et que la confiance générale dans le LLM augmente, les utilisateurs sont moins susceptibles de remettre en question ou de vérifier ses réponses". Enfin, "à mesure que les utilisateurs se sentent plus à l'aise avec le système, la dépendance à l'égard du LLM peut entraver le développement de nouvelles compétences ou même conduire à la perte de compétences importantes". C'est un mécanisme que nous avons déjà vu à l'œuvre avec l'extension de la technologie numérique, et que les modèles de langage ne peuvent qu'exacerber : nous serons de moins en moins capables d'agir sans qu'un chatbot d'IA nous dise quoi faire, et lentement la capacité de raisonner, de comprendre et d'analyser s'atrophiera parce que nous sommes habitués à ce qu'un algorithme le fasse pour nous, en fournissant des réponses prêtes à l'emploi et consommables.

Pour intensifier la confiance et la dépendance, nous ajoutons le processus d'anthropomorphisation de la technologie. Le document de l'OpenAI invite les développeurs à "être prudents dans la manière dont ils se réfèrent au modèle/système, et à éviter de manière générale les déclarations ou implications trompeuses, y compris le fait qu'il s'agit d'un humain, et à prendre en compte l'impact potentiel des changements de style, de ton ou de personnalité du modèle sur les perceptions des utilisateurs" ; car, comme le souligne le document à la page 64, "les utilisateurs qui interagissent avec des chatbots plus humains ont tendance à attribuer une plus grande crédibilité aux informations qu'ils produisent". Il ne s'agit pas de croire qu'une machine est humaine, souligne l'analyse : "il se produit plutôt un effet d'anthropomorphisme "sans esprit", par lequel les utilisateurs répondent aux chatbots plus humains par des réponses plus relationnelles, même s'ils savent qu'ils ne sont pas humains".

9780710018199-us.jpg

L'homme désincarné : la disparition de la réalité

Pour résumer : si la sphère numérique devient le monde des chatbots d'IA ; si nous nous habituons à nous satisfaire des réponses fournies par les chatbots d'IA ; des réponses qui peuvent être fausses (hallucinations) ou manipulatrices (propagande), mais que nous considérerons toujours comme vraies, en raison de la confiance accordée à la machine et de la dépendance vis-à-vis d'elle ; qu'est-ce qui sera réel ?

Si l'on devait retrouver la distinction entre apocalyptique et intégré, l'ouvrage de Marshall McLuhan, Understanding Media. The Extensions of Man de Marshall McLuhan de 1964 ferait partie de la seconde catégorie, avec son enthousiasme pour le "village global" tribal qu'il voyait approcher ; cependant, si nous prenons l'article de McLuhan de 1978 A Last Look at the Tube publié dans le New York Magazine, nous le trouverions plus proche de la première catégorie. Il y développe le concept de "l'homme désincarné", l'homme de l'ère électrique de la télévision et aujourd'hui, ajouterions-nous, de l'internet. Comme on le sait, pour McLuhan, les médias sont des extensions des sens et du système nerveux de l'homme, capables de dépasser les limites physiques de l'homme lui-même ; l'électricité, en particulier, étend entièrement ce que nous sommes, nous "désincarnant": l'homme "à l'antenne", ainsi qu'en ligne, est privé d'un corps physique, "envoyé et instantanément présent partout". Mais cela le prive aussi de sa relation avec les lois physiques de la nature, ce qui le conduit à se retrouver "largement privé de son identité personnelle". Ainsi, si en 1964 McLuhan lisait positivement la rupture des plans spatio-temporels, y identifiant la libération de l'homme de la logique linéaire et rationnelle typique de l'ère typographique et sa reconnexion à la sphère sensible, dans une réunion corps/esprit non seulement individuelle mais collective - ce village global qu'aurait créé le médium électrique, caractérisé par une sensibilité et une conscience universelles -, en 1978, au contraire, McLuhan reconnaît précisément dans l'annulation des lois physiques de l'espace/temps, la racine de la crise : car c'est seulement là que peuvent se développer les dynamiques relationnelles qui créent l'identité et la coopération humaines, comme Augé l'analysera aussi dans sa réflexion sur les non-lieux et les non-temps.

Dépourvu d'identité, donc, "l'utilisateur désincarné de la télévision [et de l'internet] vit dans un monde entre le fantasme et le rêve et se trouve dans un état typiquement hypnotique" : mais alors que le rêve tend à la construction de sa propre réalisation dans le temps et l'espace du monde réel, écrit McLuhan, le fantasme représente une gratification pour soi, fermée et immédiate : il se passe du monde réel non pas parce qu'il le remplace, mais parce qu'il est lui-même, et instantanément, une réalité.

Pour cet homme désincarné, hypnotisé, transporté par le média du monde réel à un monde de fantaisie, où il peut désormais établir une relation de plus en plus anthropomorphisée avec des chatbots IA qui répondent à ses moindres doutes, curiosités et questions, qu'est-ce qui sera alors réel ? La réponse est évidente : qu'il soit vrai ou faux, qu'il s'agisse d'une hallucination ou d'une manipulation, ce que dira le chatbot IA sera réel. Ce que dira le chatbot sera réel.

Il ne fait aucun doute que l'internet a longtemps été le "traducteur" de notre réalité - bien plus largement que la télévision ne l'a été et ne l'est encore - nous avons été des humains désincarnés pendant des décennies. Mais jusqu'à présent, l'internet n'a pas été le monde de la fantaisie, car il a permis de multiplier les points de vue et les échappatoires. Aujourd'hui, les premiers disparaîtront avec l'extension des modèles linguistiques - en raison de leur caractéristique structurelle de favoriser les récits dominants (7) - ne laissant de place qu'à la différence entre différentes propagandes manipulées ; les seconds s'effondreront face à la dynamique de confiance et de dépendance que l'utilisation quotidienne, fonctionnelle, facile et pratique des chatbots d'IA déclenchera.

megamachiness.png

"Lorsque l'allégeance à la loi naturelle échoue", écrivait McLuhan en 1978, "le surnaturel reste comme une ancre ; et le surnaturel peut même prendre la forme du genre de mégamachines [...] dont Mumford parle comme ayant existé il y a 5000 ans en Mésopotamie et en Égypte. Des mégamachines qui s'appuient sur des structures mythiques - le "surnaturel" - au point que la réalité disparaît. Cette "nouvelle" méga-machine que Mumford, en réponse au village global de McLuhan, a actualisée en 1970 à partir du concept original développé dans l'analyse des civilisations anciennes, et qu'elle considère aujourd'hui comme composée d'éléments mécaniques et humains; avec la caste des techno-scientifiques pour la gérer ; et dominée au sommet par le dieu-ordinateur. Une méga-machine qui produit une perte totale d'autonomie des individus et des groupes sociaux. Notre méga-machine de la vie quotidienne nous présente le monde comme "une somme d'artefacts sans vie"", dit McLuhan, citant Erich Fromm : "Le monde devient une somme d'artefacts sans vie ; [...] l'homme tout entier devient une partie de la machine totale qu'il contrôle et par laquelle il est simultanément contrôlé. Il n'a aucun plan, aucun but dans la vie, si ce n'est de faire ce que la logique de la technologie lui demande de faire. Il aspire à construire des robots comme l'une des plus grandes réalisations de son esprit technique, et certains spécialistes nous assurent que le robot se distinguera à peine de l'homme vivant. Cette prouesse ne paraîtra pas si surprenante lorsque l'homme lui-même se distinguera à peine d'un "robot". Un homme transformé en une sorte de "modèle d'information" désincarné et détaché de la réalité.

Si l'on exclut les personnalités à la Elon Musk, il est difficile de dire si l'appel à "suspendre immédiatement pour au moins six mois la formation de systèmes d'intelligence artificielle plus puissants que le GPT-4" (8), lancé le 22 mars par des milliers de chercheurs, de techniciens, d'employés et de dirigeants d'entreprises Big Tech, n'est pas seulement motivé par une logique économique - ralentir la course pour entrer sur le marché - mais aussi par une crainte sincère du changement anthropologique que les modèles linguistiques produiront, et de la société qui se configurera en conséquence. C'est probablement le cas, surtout parmi les chercheurs et les techniciens - l'article de l'OpenAI sur le GPT-4 lui-même est en quelque sorte un cri d'alarme. Cela n'arrivera pas, bien sûr : le capitalisme ne connaît pas de pause. Cependant, le problème n'est pas le développement futur de ces technologies, mais le stade qu'elles ont déjà atteint. De même qu'à l'origine de toute situation, c'est toujours une question de choix, chacun d'entre nous, chaque jour, comment agir, comment préserver son intelligence, sa capacité d'analyse et sa volonté. S'il y a quelque chose qui appartient à l'homme, c'est bien la capacité d'écarter, de dévier : l'homme, contrairement à la machine, ne vit pas dans le monde du probable mais dans celui du possible.

Notes:

1) Pour une étude approfondie et une vue d'ensemble de la structure des grands modèles linguistiques, voir Bender, Gebru, McMillan-Major, Shmitchell, ChatGPT. On the dangers of stochastic parrots : can language models be too large ? Pageone No. 81, février/mars 2023
2) Voir également https://www.youtube.com/watch?v=bsFXgfbj8Bc pour tous les détails de l'article sur Chat Bing.
3) Cf. https://openai.com/blog/chatgpt-plugins#browsing
4) Cf. https://cdn.openai.com/papers/gpt-4-system-card.pdf
5) Cf. AA.VV, ChatGPT. Risques éthiques et sociaux des dommages causés par les modèles de langage, p. 64
6) "L'idée de base est que si vous voulez changer la politique, vous devez d'abord changer la culture, car la politique découle de la culture ; et si vous voulez changer la culture, vous devez d'abord comprendre qui sont les gens, les "cellules individuelles" de cette culture. Si vous voulez changer la politique, vous devez donc changer les gens. Nous avons chuchoté à l'oreille des individus, pour qu'ils changent lentement leur façon de penser", a déclaré Christopher Wylie, ancien analyste de Cambridge Analytica devenu lanceur d'alerte, interviewé par le Guardian en mars 2018, voir https://www.the-guardian.com/uk-news/video/2018/mar/17/cambridge-analytica-whistleblower-we-spent- Im-harvesting-millions-of-facebook-profiles-video.
7) Voir Bender, Gebru, McMillan-Major, Shmitchell, ChatGPT. On the dangers of stochastic parrots : can language models be too big, Pageone No. 81, February/March 2023.
8) https://futureoflife.org/open-letter/pause-giant-ai-experiments/

mercredi, 15 mars 2023

La numérisation de l'éducation et de la connaissance : un vol au détriment des citoyens

Digitale Schule_Hintergrundbild.jpg

La numérisation de l'éducation et de la connaissance: un vol au détriment des citoyens

Carlos X. Blanco

L'analyse de la connaissance aboutit au résultat évident suivant, en plein 21ème siècle : la connaissance se meurt. La conception de la science comme savoir est mise à l'écart, voire ridiculisée. Ce qui n'est plus que de la technologie se fait passer pour de la science, tant à l'université que dans l'enseignement secondaire.

Ce qui est dit ici sur l'éducation doit aussi s'appliquer à tout ce qui concerne les allocations budgétaires pour la recherche et le développement de projets. Les investisseurs recherchent la technologie et les "travailleurs de la connaissance" produisent de la technologie, mais pas de la connaissance. La connaissance est réduite au triste statut d'"épiphénomène mental". Déjà en Occident, depuis de nombreuses années, une partie importante de la guilde des "philosophes de la science" (considérablement élargie par les acolytes d'inventions telles que "STS", Science, Technologie et Société) n'a pas été en mesure de produire de la connaissance.

Les héritiers du pragmatisme yankee, ainsi qu'une partie significative du matérialisme (en Espagne, du matérialisme marxiste ou du matérialisme gustavo-buenista) n'ont cessé de mépriser la "connaissance", comprise par eux comme un résidu, un terme mentaliste, un écho de la scolastique. Cette corporation de plus en plus insignifiante de la philosophie, et plus encore celle des philosophes des sciences et des techniques (et des études STS), ont balayé la voie et rendu leur tâche servile et soumise pour que la déesse Technologie l'emporte et que le Système rejette toute visée admirative et humaniste dans les travaux de la science, qu'elle soit pure ou appliquée.

tablets-stapeln-sich-zunehmend.jpg

La technologie est née humble, elle est aujourd'hui déesse. Le "discours" sur les "arts appliqués", qui est le sens du mot "technologie", s'est orienté à partir de la révolution industrielle vers une double exploitation : a) l'exploitation des ressources naturelles, et b) la rationalisation du travail productif. La technologie en tant qu'élément de la puissance du capital, et non en tant qu'application de la connaissance dans la sphère de la production manuelle et manufacturière, n'est pas de la connaissance. C'est une application des forces productives à des fins d'exploitation. Il n'y a pas de "savoir technologique", pas plus qu'il n'y a de fer fait de bois. Ce qui était autrefois un savoir, produit par des hommes qui ont usé leurs neurones, brûlé leurs cils, volé leurs heures de sommeil et de loisir, est aujourd'hui "aspiré" par les pompes du Capital et transformé en force d'exploitation. Nous devons commencer à voir le Capital comme une pompe à vide, comme une ventouse aliénante qui fonctionne comme un transducteur : il convertit une modalité énergétique (cognitive) en une autre (production via l'exploitation de la nature et de l'homme).

Aujourd'hui, nous sommes passés d'une production industrielle basée sur la transformation mécanique, chimique et biologique des entités, après l'application de la science dans les chaînes de production des usines, ainsi que dans la mécanisation des campagnes, la conservation des aliments, etc. à une autre phase dans laquelle l'exploitation de la "matière grise" est dominante et se transforme en exploitation au second degré.

C'est ce qui se passe dans le turbo-capitalisme : avant l'exploitation directe des travailleurs manuels et des ressources naturelles, qui se poursuit, il y a l'exploitation des travailleurs intellectuels. L'industrie mondiale a connu un degré élevé de robotisation des processus et de mécanisation des tâches. Après les armées, ce sont les multinationales qui ont copié la structure militaire pour informatiser la production et la gestion (la gestion n'étant qu'un aspect de la production). La conception même des produits et des profils professionnels, ainsi que la séquence et l'organisation de la production ont été médiatisées par l'ordinateur, un dispositif qui a la particularité non pas d'appliquer des forces mécaniques étendues, ou d'économiser le travail de l'homme, comme d'autres machines, mais d'usurper le travail cognitif humain et de le convertir en substance de la valeur d'échange. La "connaissance" ou le savoir personnel n'a guère de place dans le capitalisme informatisé et numérique. Chaque être humain possède son savoir personnel dans le monde pré-numérique et doit faire des efforts pour que les autres l'apprennent et pour que ce savoir soit enseigné. Dans le monde capitaliste numérisé, on assiste à un pillage du savoir personnel.

40024_AdobeStock_354663956-Digitales-Klassenzimmer-Illustration-©-elenabsl-stock.adobe.com-690-500.jpg

Actuellement, les organisations mondialistes directement impliquées dans la "gouvernance mondiale" et qui servent d'écran et de masque pour cacher les grandes entités prédatrices de la finance et de la production (principalement l'UNESCO, mais il y a aussi toute une forêt d'acronymes), s'obstinent à imposer un agenda de numérisation qui ne se limite plus exclusivement aux chaînes de production, au marketing, au recrutement et à la formation de la main d'œuvre, etc. Le système impose la numérisation à partir de la base reproductive même de la main-d'œuvre.

L'éducation numérisée, contre toute évidence scientifique, est extrêmement nocive pour les enfants et les mineurs. Ils deviennent techno-dépendants (en Espagne, surtout des téléphones portables), ce qui les détourne des contenus académiques qu'ils devraient acquérir sérieusement et rigoureusement pour devenir des personnes critiques et responsables. Nous assistons à un processus de "gamification" : il s'agit d'un anglicisme absurde qui consiste à transformer l'éducation en jeu (game), c'est-à-dire à la banaliser au point d'en faire une formation consumériste des masses, afin qu'elles se lancent tôt et sans capacité élective, dans la consommation de "produits" numériques qui alimentent les grands secteurs des GAFAM et toute l'industrie cyber-électronique qui leur est liée.

Évidemment, ce processus de dégradation planifiée et imposée de l'éducation doit être interprété en termes de lutte des classes.

La numérisation de la production et de la reproduction (lire, dans ce dernier chapitre reproductif, l'éducation) est en train d'être imposée à la planète. Qui l'entreprend ? Une super-élite mondiale qui, dans une large mesure, se réservera les méthodes classiques d'apprentissage, à savoir la mémoire, la résolution rationnelle de problèmes, la compréhension écrite et la maîtrise des mathématiques. Les masses ne pourront rien faire de tout cela, elles seront étrangères à ces capacités. Les enfants de la super-élite mondiale, en revanche, seront élevés dans l'école classique et auront le privilège de pouvoir opter pour des études supérieures véritablement formatrices et habilitantes, plus adaptées à leur intelligence et à leurs intérêts, et avec une éducation classique dans les sciences et les humanités, réservée à un petit nombre, il y aura des rejetons qui remplaceront un jour les mandarins plus âgés de l'élite capitaliste. Seuls les quelques élus recevront une véritable éducation. Les autres recevront un papillon gamifié et numérisé. Le reste, l'immense majorité de l'humanité, à force de digitalisation forcée, deviendra du bétail humain qui ne sait rien de rien et qui aspire à la retraite avant même d'avoir travaillé : on le voit déjà en Espagne aujourd'hui avec les réformes successives initiées avec la LOGSE -1991- et l'impulsion obsessionnelle donnée à la digitalisation en cette "ère Sanchez".

Le turbo-capitalisme n'admet plus les "peuples", n'admet plus la "classe ouvrière", ne tolère plus le "savoir populaire". Le capitalisme dans sa phase actuelle a besoin, en plus de travailleurs "formés", de consommateurs également "formés". Les lois elles-mêmes cessent de parler de connaissances et se réfèrent à des compétences, des normes d'apprentissage et d'autres concepts stupides conçus pour des singes et non pour des enfants, membres de l'espèce humaine.

utopie-ökosystem-digitale-schule-qualität-funktion.png

Notez que la formation des masses, désormais assimilées à du bétail de consommation, consiste en la gestion d'applications, souvent duplicatrices (version payante, version gratuite), au profit d'un secteur privé multinational, étranger à la puissance publique. L'éducation, de la maternelle et du primaire à l'enseignement supérieur, est ainsi privatisée de manière irrépressible et secrète. Presque aucune institution éducative publique ne conçoit ses propres outils et plateformes numériques, ils sont empruntés ou "suggérés" par les grands fournisseurs de logiciels, presque aucune institution officielle d'éducation et de recherche ne fonctionne indépendamment des entreprises privées qui, généralement liées de manière ombilicale à la Silicon Valley, ont mis la main sur l'éducation publique et l'utilisent comme source de données et foyer de consommation.

La prise en charge par les États de l'enseignement public, gratuit et universel, a été partout perçue comme un acquis, un progrès. Sous les idéaux des Lumières, mais aussi sous les valeurs fondamentales du socialisme, l'objectif à atteindre par tous les pays du monde était le suivant : que le peuple ose savoir (Sapere Aude, devise des Lumières et de Kant). Que les classes paysannes et ouvrières aient les moyens et le temps de s'éduquer et d'éduquer leurs enfants, d'atteindre un niveau de connaissance égal, jamais inférieur, à celui de la bourgeoisie, tel était l'objectif. Mais aujourd'hui, le turbo-capitalisme s'emploie à creuser un fossé large et infranchissable entre la super-élite mondiale et une vaste masse non qualifiée, qui ne recevra même pas une formation élémentaire pour pouvoir utiliser (valoriser) sa force de travail. La masse sera socialisée par des appareils mobiles et toute une pléthore de dispositifs de contrôle bio-cybernétique. Il y aura un "profil" numérisé de chaque personne dans lequel les États, larbins de la super-élite mondiale, connaîtront à la perfection l'état de santé, sexuel, financier et consumériste de chaque individu. L'humanité sera réduite à un "parc" de loisirs, avec des entités zoologiques humaines, mais déshumanisées et numériquement dépendantes de l'enchevêtrement des fournisseurs d'applications.

Au fond, comprendre la numérisation de l'éducation et de la vie humaine dans son ensemble est une tâche simple à la lumière de la lutte des classes et de la transformation du capitalisme en turbo-capitalisme. Ce système ne peut exister avec des limites. C'est l'hybris, c'est l'audace orgueilleuse et débridée. C'est une marchandisation ou une réification universelle. Le système est une gigantesque machine réductrice et transductrice : il cesserait de fonctionner s'il admettait toute sphère non susceptible d'être valorisée. Le corps humain et les relations sexuelles sont déjà devenus un élément fondamental du marché : traite des êtres humains, "régularisation" de la prostitution, utérus de substitution, prothèses et chirurgies diverses pour "changer" de sexe, pornographie, tourisme pédophile international, trafic d'organes, harcèlement sexuel au travail sous peine de licenciement, droit de pernulation à l'université, etc. Mais le turbo-capitalisme ne se contente pas du corps, du sexe et des organes. La vie de l'esprit est marchandisée. Les processus de vampirisation du savoir humain et son automatisation au profit des entreprises sont accélérés.

2020-01-02_Magazin_08_Digitaler-Unterricht_900x600.png

Par exemple : lorsque, dans les cours de formation des enseignants, ceux-ci sont "invités" à partager leurs tâches et travaux numérisés, à s'habituer aux "environnements collaboratifs", à échanger des "productions" entre égaux, il est rarement expliqué ce qui se cache derrière ce prétendu socialisme numérique (la culture dite des "Creative Commons", ou l'escroquerie) : des entreprises puissantes à qui l'on a confié gratuitement tout le travail préalable de conception et de développement d'applications qu'elles proposeront ensuite au marché dans leurs deux versions types, la "premium" (payante) et la gratuite, qui n'est jamais gratuite car elle a bénéficié de l'esclavage numérique jamais reconnu par les économistes.

Aujourd'hui, la lutte des classes est plutôt un "massacre de classe". C'est un processus de prédation obscène, nu, sans complexe. Elle aggrave l'exploitation du travail salarié. Il s'agit d'un vol non seulement du surplus, non seulement de la plus-value émanant directement de l'exploitation des forces de travail transformatrices. Il s'agit du vol de la connaissance au sein d'un marché qui n'est pas seulement une pléthore de biens interchangeables, mais une richesse de données, de connaissances, de compétences, d'expériences. Les prédateurs (GAFAM et autres entreprises technologiques transnationales) obtiennent leur matière première gratuitement. Le peuple, réduit de plus en plus à une masse d'individus déclassés, est dépouillé des moyens de son auto-émancipation, il devient dépendant, technoconsommateur et techno-dépendant.

Ainsi, le savoir se meurt. Et seule la technique, c'est-à-dire la transformation universelle en marchandise, règne en maître. L'homme est déjà une marchandise.

Carlos Javier Blanco

carlosxblanco@yahoo.es

mardi, 02 août 2022

Essor et crise de la technoscience du capital

JVPLS science religion_2.png

Essor et crise de la technoscience du capital

Franco Piperno

SOURCE : https://www.machina-deriveapprodi.com/post/ascesa-e-crisi-della-tecnoscienza-del-capitale

Franco_Piperno_2.jpgAvec cette contribution, nous poursuivons notre réflexion sur le parcours "Hyperindustrie" de la colonne Transuenze. Le texte suivant est la transcription, révisée par la rédaction, d'un discours prononcé par Franco Piperno (foto, ci-contre-, physicien académique et intellectuel militant qui ne devrait pas nécessiter d'autre introduction dans ces pages, lors de l'université d'été organisée par Machina à la fin de l'été dernier. Piperno, d'une manière inévitablement synthétique, approfondit certains des nœuds profonds du capitalisme tardif, qui tire sa puissance de l'assujettissement et de la fonctionnalisation de la science à la technologie, dans l'appauvrissement des capacités cognitives sociales et de la connaissance scientifique elle-même. Cependant, le triomphe de la technoscience coïncide avec une crise profonde et manifeste de ses hypothèses épistémologiques mêmes. Les implications de cette réflexion sur la nature du capitalisme hyper-industriel, ou capitalisme technologique comme l'appelle l'auteur en l'opposant au capitalisme "cognitif", et sur nombre des thèmes que nous souhaitons explorer (l'innovation, la qualité du travail, l'ancienne et la nouvelle division sociale du travail, la nécessité d'une critique radicale et non obscurantiste du progrès technologique), nous semblent évidentes, voire incontournables.

* * * *

Jusqu'à la Renaissance, on peut dire, schématiquement, que la science et la technologie ont procédé séparément. La science n'est qu'une des formes de connaissance du monde ancien, la forme théorique, qui a une fin en soi et laisse son objet intact ; la science doit respecter des procédures de production : elle doit se résoudre au dévoilement d'"essences" ; elle doit se déployer à partir de quelques principes fondamentaux en respectant l'ordre logique ; elle doit être à la fois moyen et fin - la science est désintéressée, non invasive, en ce sens qu'elle ne se propose pas de changer le monde mais seulement de le connaître en le contemplant.

Au contraire, la technique (connaissance poïétique, téchne au sens étymologique du terme - poiéin = savoir faire, fabriquer) vise à reproduire, comme le dit Aristote, l'analogue d'un phénomène et sa raison est donc extérieure à elle-même. Une autre façon de dire la même chose est que la technologie n'a pas besoin, une fois réalisée, de connaître les lois sur lesquelles elle repose. Banalement, pour conduire une voiture, il n'est pas nécessaire de connaître la thermodynamique, même si le moteur est basé sur celle-ci. Comme l'a observé Koyré, on peut bâtir des basiliques, construire des pyramides, creuser des canaux, construire des ponts et manier la métallurgie sans posséder de connaissances scientifiques. Le fait que la technologie n'ait pas eu besoin de la science en soi est affirmé dès le début de son histoire : on peut prendre le célèbre exemple d'Archimède, qui a construit des miroirs brûlants pour détruire les navires romains arrêtés à Porto Empedocles. Il est très intéressant de noter que dans le curriculum vitae de sa vie, reconstitué par Archimède lui-même, il n'y a aucune trace des inventions techniques qui l'ont rendu célèbre. Cela s'explique par le fait que la technique ne se voyait pas attribuer une valeur cognitive ; elle avait une valeur pratique, mais ne devait pas être considérée comme faisant partie de la connaissance.

adan-creation-436007.jpg

Les choses ont changé avec la Renaissance. Tout d'abord, à travers la mathématisation de l'hydraulique, nous avons un profond remaniement de la relation entre la technique et la science. Galilée est le premier exemple d'un scientifique qui fabrique son instrument, le télescope, et le vend. En réalité, ce n'est pas lui qui l'a inventé, mais un artisan hollandais (Galilée, alors qu'il était déjà à Padoue, a appris l'invention et a construit son propre télescope, beaucoup plus puissant que celui des Hollandais) qui en avait besoin pour voir les navires arrivant au port et pour effectuer tous les travaux nécessaires au déchargement des marchandises. Une fois que Galilée eut construit son télescope, qui reposait sur l'utilisation de deux lentilles, l'une convergente et l'autre divergente (un détail intéressant puisque Galilée travaillait à Padoue, reliée à Venise où la fabrication de lentilles optiques s'était développée à un degré extraordinaire, Galilée a donc utilisé les connaissances de l'artisan pour ajuster les lentilles), il l'a utilisé pour regarder le ciel. Il s'agissait d'une nouveauté absolue, mais Galilée était également très astucieux, et a en fait vendu le télescope aux armées de toute l'Europe, faisant travailler ses étudiants dans l'arsenal pour apprendre son utilisation. De ce point de vue, Galilée est un scientifique moderne, dans le sens où il pense que la technique et la science doivent aller de pair, et aussi que la première a une implication pratique du point de vue de la vente et du commerce. Avec Galilée, nous avons donc la formation d'un scientifique moderne, qui a une bonne relation avec la technologie.

S127wAViE84GFuUbrtDe6pYw.jpeg

Cette imbrication de la science et de la technologie, qui va vite, atteint son point culminant dans la préparation de la bombe atomique dans les années 1930 et 1940 en Amérique et en Allemagne. Nous avons ici la mise au travail de la science en fonction de la technique. De ce point de vue, le projet Manhattan est un chef-d'œuvre, en raison de sa capacité à réunir des centres de recherche, des universités et l'appareil militaro-industriel, qui se concentrent et coopèrent à la construction de ce dispositif. De cette expérience naîtra une université corporatisée. Les choses sont en fait plus compliquées, puisque les Américains ont continué à avoir, par exemple Princeton ou Harvard, des universités au sens médiéval-traditionnel, c'est-à-dire des universités qui mettaient la connaissance au premier plan et formaient donc des gens instruits, au sens unitaire et non spécialisé du terme. En effet, dans ces universités, aujourd'hui encore, l'aspect humaniste entre dans la formation d'un physicien, ce qui fait de l'étudiant qui termine ces cours une personne ayant une vision globale, et non un idiot spécialisé. Mais la plupart des universités américaines après le projet Manhattan, et en Europe après les années 1960, se sont transformées en usine spécialisée. La "philosophie de la nature" originelle, cultivée dans les universités par de petits groupes de chercheurs, voire par des individus, s'est progressivement déplacée au sein du complexe militaro-industriel, devenant la "Big Science" : une véritable usine d'innovations technologiques caractérisée par des coûts immenses et des dizaines de milliers de chercheurs travaillant dans un régime d'usine de type fordiste. Bien entendu, cela ne signifie pas qu'aucun résultat cognitif remarquable n'est atteint, mais il s'agit - comme pour les accélérateurs de particules - de résultats liés au développement de cette technique spécifique. Par exemple, en astrophysique, les personnes qui travaillent sur ces projets sont des personnes dont la description de poste est absolument spécialisée, dans le sens où chacun travaille sur un fragment du problème général et ne sait pas ce que fait le physicien d'à côté. L'exemple le plus flagrant est celui de Genève, où près de dix mille physiciens travaillent à l'accélérateur de manière fordiste, en ce sens que chacun d'entre eux se spécialise sur un fragment du problème, comme c'était le cas dans l'usine fordiste. Et il est pathétique que, alors que ce dernier a été mis en crise depuis longtemps, dans le monde de la recherche, le modèle se poursuit en ces termes.

Physicien-01-TPO.jpg

Ainsi, d'une part, nous avons le succès de la science moderne, occidentale, liée à la technique, qui a fini par être un modèle hégémonique dans le monde entier ; d'autre part, cela a contribué à la perte de l'autonomie de la science, et donc aussi à la fin de son efficacité pratique. La science est devenue une force productive, comme l'aurait dit Marx ; l'application de la science à la production a pour résultat important de créer continuellement de nouveaux marchés, de nouveaux objets, de nouveaux besoins qui leur sont liés, pensez au téléphone portable. Par rapport au passé, les difficultés de développement d'un marché mondial unifié ont également diminué; traditionnellement, dans l'histoire du capitalisme, il y a toujours eu des zones et des régions "vierges", où le mode de production capitaliste n'était pas encore arrivé et qui avaient donc des possibilités d'expansion. Aujourd'hui, avec l'expansion planétaire des marchés, ces zones sont fortement réduites. L'application systématique de la science à la production permet de construire de nouveaux objets qui s'imposent également parce qu'ils déterminent de nouveaux besoins induits. Ainsi, la science, en Occident, est devenue le propulseur de l'accumulation capitaliste ; cependant, nous devrions parler de technoscience, car c'est l'aspect le plus intéressant.

L'autre élément important est la crise interne de la science, qui découle des limites des mathématiques. Le processus que j'ai mentionné précédemment, qui a débuté avec la Renaissance, a également impliqué, ce qui ne s'est pas produit avec la science ancienne, une "mathématisation" de la science : le langage de la science a progressivement perdu les connotations du sens commun et s'est transformé en une articulation du langage mathématique. On peut penser au calcul infinitésimal ou au calcul tensoriel. Il s'agit de développements scientifiques produits et vérifiés par les mathématiques. Dans les années 30, il est arrivé que Gödel, un logicien et mathématicien juif qui avait échappé à l'Allemagne hitlérienne et avait atterri à Princeton, un intellectuel de grand intérêt, travaillant sur les mathématiques et les abordant donc du point de vue de la logique (la différence entre la logique et les mathématiques est que les secondes sont un aspect et une application de la première), soit arrivé à un résultat qui aurait pu sembler bizarre, mais qui était explosif pour la communauté scientifique utilisant les mathématiques. Un système formel (c'est-à-dire un système dans lequel tous les objets sont formellement définis ; le langage courant, par exemple, n'est pas formel car il utilise des concepts qui ne sont pas définis a priori mais par l'usage) ne peut être à la fois complet et cohérent. Complet signifie que toutes les vérités prouvées par le système peuvent être obtenues grâce aux outils du système ; cohérent signifie qu'il n'y a pas de contradiction entre les choses trouvées dans le système et les propres fondements du système. La conclusion selon laquelle il est impossible d'avoir des mathématiques cohérentes et complètes plonge dans les fondements mêmes de la discipline.

61211306-44664037.png

godel.jpg

Kurt Gödel.

Au fil des siècles, depuis la Renaissance, il y a eu des critiques intellectuelles, je pense tout récemment à Alexandre Koyré, sur l'abstraction des mathématiques par rapport au sens commun et à sa cognition. Mais jamais auparavant une critique aussi radicale n'était venue de l'intérieur de la discipline, remettant en cause la validité des mathématiques pour exprimer les vérités de la théorie physique, par exemple. Ceci, ajouté au fait que certaines des affirmations de Gödel ont eu des contre-expertises expérimentales - c'est-à-dire qu'il a été souligné que les mathématiques utilisées en physique quantique impliquent une contradiction avec le principe connu sous le nom de séparabilité (c'est-à-dire que les objets dans l'espace sont séparés les uns des autres et que tout signal prend du temps pour aller de l'un à l'autre) qui remet en question la vitesse de la lumière comme vitesse maximale dans la nature. J'ai essayé de faire allusion à cette relation entre Gödel et la mécanique quantique, car elle est à l'origine de la critique profonde de la science et de la physique en particulier. Un physicien-épistémologue italien, Rovelli, déclare que le quantique, c'est-à-dire la forme la plus élevée atteinte par la physique, est essentiellement "incompréhensible" : il est impossible à comprendre parce qu'il remet en question des vérités que nous tenons pour acquises, comme la séparation des objets ou le fait que pour qu'une influence d'un objet atteigne un autre objet, il faut du temps. Au contraire, il prouve que la transmission est instantanée et cela, comme je l'ai déjà dit, fait vaciller le bon sens.

CarloRovelli.JPG

Carlo Rovelli.

Nous avons donc une crise de la relation particulière entre la technique et la science établie dans la formation socio-économique du capitalisme, que nous avons appelée technoscience, c'est-à-dire l'autonomisation de la technique par rapport à la science, la seconde ne faisant que suivre les besoins de la première. On peut également le constater, par exemple, lorsqu'on examine les derniers lauréats du prix Nobel de physique, qui sont souvent des ingénieurs ayant construit ces machines accélératrices qui ont un attrait technique mais qui, d'un point de vue cognitif, ne nous disent rien ou presque. On peut résumer cela en disant que jamais autant d'argent n'a été investi dans la recherche par les gouvernements, comme c'est le cas depuis le projet Manhattan, et en même temps les résultats n'ont jamais été aussi médiocres : on peut dire qu'au cours du dernier demi-siècle, rien de vraiment nouveau n'a été découvert d'un point de vue scientifique, alors que d'un point de vue technique, tous les objets qui nous entourent ont un demi-siècle. Il y a cette corruption technique du capitalisme ; malgré une opinion aussi fallacieuse que répandue, il n'y a pas, ni ne peut y avoir, de "capitalisme cognitif" ; il y a plutôt, en gestation, un "capitalisme technologique", un mode de production qui promeut une application furieuse de la science à la valorisation du capital.

D'une part, nous constatons une hyper-présence de la science ; nous la voyons tous les jours, par exemple, dans les discours sur l'intelligence artificielle (IA). Paradoxalement, aujourd'hui, la technologie montre qu'il n'est pas nécessaire d'être intelligent pour faire certaines choses (par exemple, savoir compter ou calculer), car la machine le fait mieux que l'homme, et cela montre que calculer est un jeu de dupes car c'est la répétition du même algorithme. Quand on parle d'IA, il faut souligner les aspects où il n'y a pas d'intelligence, il y a plutôt la découverte de processus mentaux qu'en tant que civilisation occidentale nous avons tenus en haute estime, ce sont de simples projets de répétition que la machine fait mieux que nous parce que la machine sait mieux répéter que nous, mais ce n'est pas une grande vertu. D'autre part, à l'intérieur du discours scientifique élevé et autonome, c'est-à-dire à l'intérieur de cette remise en question de la validité des mathématiques dans la représentation des phénomènes de la nature, il y a une crise épistémologique d'un tout autre genre, en ce qui concerne l'invasion de la technologie dans les mœurs de la société. La critique épistémologique remet en question la validité de la représentation de la nature par le biais du langage mathématique. Il s'agit donc d'une crise fondamentale qui anticipe un changement de direction après des siècles et un retour à l'idée que la science doit se fonder avant tout sur le bon sens, c'est-à-dire que les vérités scientifiques peuvent être dites sans prendre cinq ans d'études mathématiques. Si les vérités scientifiques ne peuvent être transmises par le sens commun, cela signifie qu'il s'agit de vérités à validité partielle, bien qu'il s'agisse d'un problème majeur qu'il serait même long d'esquisser. On peut dire que nous sommes arrivés, d'une part par l'invasion de la technoscience, et d'autre part par la crise des fondements de la physique et de la science de la nature en général, à un tournant où l'on peut s'attendre à la naissance d'un type de science qui utilise aussi les mathématiques, mais qui ne s'écarte pas de la possibilité du bon sens de comprendre les lois sans les mathématiques.

IA.jpg

Le développement scientifique dans les pays capitalistiquement avancés est étroitement lié à l'organisation du travail. Dans la mesure où la recherche scientifique est organisée, planifiée, subventionnée, elle dépend du pouvoir politique et de ses fins. L'alternative à la conception de la science comme un savoir neutre et absolu est de relativiser la rationalité à la société et à l'époque qui l'a produite. Mais nier la neutralité de la science contemporaine n'est pas possible sans proposer une autre rationalité, qui reste cependant une norme vide si elle ne parvient pas à produire une autre science, qui récupère l'autonomie du savoir face au complexe militaro-industriel. S'il y avait un changement dans la qualité du progrès tel qu'il romprait le lien entre la rationalité de la technologie et celle de la division sociale du travail, il y aurait un changement dans le projet scientifique, capable de faire évoluer l'activité de recherche, sans perdre sa qualité rationnelle, vers une expérience sociale entièrement différente.

Franco Piperno

vendredi, 08 mars 2019

Intelligence artificielle. Bluff technologique ou Game Over ?

IA-ff.jpg

Intelligence artificielle. Bluff technologique ou Game Over ?

par Thierry DUROLLE

« Créer une intelligence artificielle serait le plus grand événement de l’histoire humaine. Malheureusement, ce pourrait être le dernier, à moins que nous découvrions comment éviter les risques. » Stephen Hawking résume ici toute l’envergure d’un processus prométhéen qui pose nombre de questions. Mise au point.

Principes de base de l’intelligence artificielle

Dans les années 90, on assiste à l’essor du Machine Learning (ou « apprentissage automatique »). Les programmes informatiques fonctionnent grâce à des configurations bien précises qui forment des cadres dont il est impossible de s’extirper, bien que certains cas l’exigeraient. Le programme devrait être capable de prendre des mesures par lui-même. Pour cela, il a besoin de nouveaux algorithmes qui lui permettront d’apprendre en l’alimentant avec des données, puis, en lui permettant de les classer ou de faire des associations. Il s’agit ni plus ni moins que d’une imitation du mode d’apprentissage des enfants : on désigne un chien du doigt et on nomme ce que l’on vient de lui montrer. L’une des clés pour comprendre l’IA (intelligence artificielle) réside justement dans ce mimétisme de l’humain (et plus généralement du vivant) où la pensée mécaniste sert de passerelle entre le monde de la nature et celui de la machine. Cela explique sans doute pourquoi l’on peut rapprocher l’intelligence artificielle et le transhumanisme, tout deux faisant partie d’un élan prométhéen à tendance bio-mécanique.

La neuro-informatique, par exemple, élabore un système inspiré de notre réseau neuronal dans son principe de fonctionnement, à l’exception que les neurones sont ici remplacés par des algorithmes nommés perceptrons. C’est la base du Deep Learning (« apprentissage approfondi »), une version beaucoup plus élaborée du Machine Learning, développé par le chercheur français Yann Lecun et rendu possible par l’évolution des ordinateurs et par le Big Data. Pour le moment, la machine ne peut pas rivaliser avec l’homme puisque contrairement à celle-ci nous avons, en plus de nos connaissances, tout un tas d’expériences devant nous, de facultés tenant de l’innée, de sensations et d’émotions. Autrement dit, nous avons nos cinq sens pour connaître et explorer le monde, pour faire nos propres expériences et nos propres choix; la machine n’a rien de semblable – d’où l’utilité des données pour palier à tout ce qui est du domaine de l’empirique.

ia-hm.jpg

État des lieux de l’intelligence artificielle

La bonne nouvelle est que le scénario Terminator attendra encore pas mal de temps avant de pouvoir se réaliser. Néanmoins, et cela n’est pas pour autant très rassurant, l’IA est devenu une composante de nos vies sans forcément que nous nous en rendions compte. Lorsque vous naviguez sur le fil d’actualité d’un célèbre réseau social, les informations qui apparaissent sont sélectionnées via des algorithmes usant de procédés d’intelligence artificielle (par un décorticage de vos data). Il en va de même pour tout un tas de gadgets devenus des outils du quotidien pour un grand nombre de personnes, comme les traducteurs de langues, les reconnaissances vocale et faciale. Les domaines d’application sont nombreux : finance, médecine, armée ou encore jeux vidéos.

Les avancés en la matière sont objectivement prometteuses, notamment dans le domaine médical où l’intelligence artificielle permettra d’analyser à une vitesse fulgurante des données médicales, des radiographies pour repérer des anomalies difficiles à détecter à l’œil nu. L’IA se révèle extrêmement efficace dans le traitement et l’analyse des données. En fait, contrairement aux êtres humains, celle-ci s’avère efficace uniquement dans un domaine particulier pour une tâche elle-même extrêmement précise. Un bon exemple est le programme AlphaGo. Conçu pour le jeu de go, celui-ci a battu Lee Sidol, le meilleur joueur au monde, le 15 mars 2016. En revanche, ne demandez pas à AlphaGo de jouer aux échecs car il en est incapable. Ce à quoi il faut s’attendre en réalité s’apparente à « l’émergence d’une technologie de l’intégral » pour reprendre l’expression d’Éric Sadin, c’est-à-dire à la multiplicité d’applications ayant recours à l’IA dans notre quotidien. L’humanité enclenche le pilotage automatique.

ia-cloud.jpg

Utopie technicienne ou scénario Terminator ?

L’IA, qui n’est en définitive qu’une technique, nous est promu comme LA solution à nos problèmes, ce en quoi elle serait plus performante que son créateur pour certaines tâches spécifiques. L’homme ne serait en fin de compte perfectible qu’au-delà de sa condition biologique. Cette technique sera mise à toutes les sauces en terme de résolution collectives : fin des problèmes de chômage, d’économie, de politique, d’écologie, etc. D’ailleurs le monde économique se frotte les mains à l’idée d’usines entièrement robotisées.

Pour l’instant nous ne sommes qu’au commencement de ce que les chantres de l’IA appelle une révolution. Si ces derniers comprennent le mot révolution comme une subversion, ils ont sans doute raison, mais, quid de l’ampleur de cette révolution ? Ne s’agit-il pas en fin de compte d’un bluff technologique, pour emprunter l’expression de Jacques Ellul ? Ou alors, à l’opposé, avons-nous ouvert une boite de Pandore débouchant sur le scénario Terminator ? Les défenseurs de l’IA répondront que la machine n’a pas de volonté propre si ce n’est celle qui lui a été insufflée. Par conséquent, si l’on ne programme pas la possibilité pour un robot de faire le mal, celui-ci ne pourra pas s’exécuter. La machine peut-elle échapper à notre contrôle ? En août 2017, des chercheurs du Facebook Artificial Intelligence Research (FAIR) publient une étude dans laquelle ils expliquent que deux robots communicatifs programmés pour la négociation, appelés chatbots, ont inventé leur propre langage. Les chercheurs disent avoir arrêté le programme qui « ne fonctionnait pas comme prévu »…

ia-ch.jpg

Après Prométhée, faire face à notre destin

Le véritable risque réside en fait dans cette emprise du technologisme sur nos vies (via et pour le plus grand bonheur du techno-capitalisme). Il suffit de voir les habitants des villes, mais aussi parfois des campagnes, le nez collé à leurs smartphones, la montre connectée vissée au poignet, pour se convaincre de la domination de la technique sur une partie de l’humanité. Déformé neurologiquement, mentalement et physiquement, le dos courbé pour être toujours plus près de l’écran du smartphone, les yeux fatigués par la lueur de celui-ci : voilà les techno-zombies, mus par des applications Androïd qui leur indiquent le grammage adéquat de nourriture qu’ils doivent ingérer pour continuer à exister, et qui les préviendront bientôt quand ils devront aller à la selle et comment s’accoupler récréativement. Parler d’accoutumance, voire carrément de dépendance, n’est donc pas exagéré. Tablettes, GPS, biométrie, réseau sociaux : ce que l’on gagne en côté pratique, en utilité, on le perd en indépendance, c’est-à-dire, en fin de compte, en liberté.

L’IA conçue comme une extension-outil de nous-même, indispensable à notre bon fonctionnement, voilà le danger ! En tant que partisan d’un monde organique, du Kosmos, de la saine mesure autrefois prônée par les Grecs anciens, lutter contre l’atomisation, la rationalisation fanatique et le mécanicisme cartésien devient, jours après jours, un impératif de survie. Nous sommes en train de faire face à un défi technique, économique, écologique, civilisationnel, et spirituel. Soyons lucide sur la situation, nous nous dirigeons tout droit sur un chemin hasardeux où les périls ne manquent pas. L’idéologie du Progrès nous amène peut-être à marche forcée vers la fin de l’Histoire… Alors, à l’heure où paraît enfin La perfection de la technique de Friedrich-Georg Jünger, et où l’on redécouvre l’œuvre de Bernard Charbonneau, résonne dans notre esprit un seul mot d’ordre : « Décélérons ! »

Thierry Durolle

mercredi, 24 mai 2017

Chinese Eugenics

 

yapET201309231652337066.jpg

Chinese Eugenics
 
Evolutionary psychologist, NYU Stern Business School and University of New Mexico; author of The Mating Mind and Spent

Ex: https://www.edge.org

China has been running the world's largest and most successful eugenics program for more than thirty years, driving China's ever-faster rise as the global superpower. I worry that this poses some existential threat to Western civilization. Yet the most likely result is that America and Europe linger around a few hundred more years as also-rans on the world-historical stage, nursing our anti-hereditarian political correctness to the bitter end.

When I learned about Chinese eugenics this summer, I was astonished that its population policies had received so little attention. China makes no secret of its eugenic ambitions, in either its cultural history or its government policies.

For generations, Chinese intellectuals have emphasized close ties between the state (guojia), the nation (minzu), the population (renkou), the Han race (zhongzu), and, more recently, the Chinese gene-pool (jiyinku). Traditional Chinese medicine focused on preventing birth defects, promoting maternal health and "fetal education" (taijiao) during pregnancy, and nourishing the father's semen (yangjing) and mother's blood (pingxue) to produce bright, healthy babies (see Frank Dikötter's book Imperfect Conceptions). Many scientists and reformers of Republican China (1912-1949) were ardent Darwinians and Galtonians. They worried about racial extinction (miezhong) and "the science of deformed fetuses" (jitaixue), and saw eugenics as a way to restore China's rightful place as the world's leading civilization after a century of humiliation by European colonialism. The Communist revolution kept these eugenic ideals from having much policy impact for a few decades though. Mao Zedong was too obsessed with promoting military and manufacturing power, and too terrified of peasant revolt, to interfere with traditional Chinese reproductive practices.

But then Deng Xiaoping took power after Mao's death. Deng had long understood that China would succeed only if the Communist Party shifted its attention from economic policy to population policy. He liberalized markets, but implemented the one-child policy —partly to curtail China's population explosion, but also to reduce dysgenic fertility among rural peasants. Throughout the 1980s, Chinese propaganda urges couples to have children "later, longer, fewer, better"—at a later age, with a longer interval between birth, resulting in fewer children of higher quality. With the 1995 Maternal and Infant Health Law (known as the Eugenic Law until Western opposition forced a name change), China forbade people carrying heritable mental or physical disorders from marrying, and promoted mass prenatal ultrasound testing for birth defects. Deng also encouraged assortative mating through promoting urbanization and higher education, so bright, hard-working young people could meet each other more easily, increasing the proportion of children who would be at the upper extremes of intelligence and conscientiousness.

yap-haplogroups1.png

One of Deng's legacies is China's current strategy of maximizing "Comprehensive National Power". This includes economic power (GDP, natural resources, energy, manufacturing, infrastructure, owning America's national debt), military power (cyberwarfare, anti-aircraft-carrier ballistic missiles, anti-satellite missiles), and 'soft power' (cultural prestige, the Beijing Olympics, tourism, Chinese films and contemporary art, Confucius Institutes, Shanghai's skyscrapers). But crucially, Comprehensive National Power also includes "biopower": creating the world's highest-quality human capital in terms of the Chinese population's genes, health, and education (see Governing China's Population by Susan Greenhalgh and Edwin Winkler).

Chinese biopower has ancient roots in the concept of "yousheng" ("good birth"—which has the same literal meaning as "eugenics"). For a thousand years, China has been ruled by a cognitive meritocracy selected through the highly competitive imperial exams. The brightest young men became the scholar-officials who ruled the masses, amassed wealth, attracted multiple wives, and had more children. The current "gaokao" exams for university admission, taken by more than 10 million young Chinese per year, are just the updated version of these imperial exams—the route to educational, occupation, financial, and marital success. With the relaxation of the one-child policy, wealthier couples can now pay a "social fostering fee" (shehui fuyangfei) to have an extra child, restoring China's traditional link between intelligence, education, wealth, and reproductive success.

Chinese eugenics will quickly become even more effective, given its massive investment in genomic research on human mental and physical traits. BGI-Shenzhen employs more than 4,000 researchers. It has far more "next-generation" DNA sequencers that anywhere else in the world, and is sequencing more than 50,000 genomes per year. It recently acquired the California firm Complete Genomics to become a major rival to Illumina.

The BGI Cognitive Genomics Project is currently doing whole-genome sequencing of 1,000 very-high-IQ people around the world, hunting for sets of sets of IQ-predicting alleles. I know because I recently contributed my DNA to the project, not fully understanding the implications. These IQ gene-sets will be found eventually—but will probably be used mostly in China, for China. Potentially, the results would allow all Chinese couples to maximize the intelligence of their offspring by selecting among their own fertilized eggs for the one or two that include the highest likelihood of the highest intelligence. Given the Mendelian genetic lottery, the kids produced by any one couple typically differ by 5 to 15 IQ points. So this method of "preimplantation embryo selection" might allow IQ within every Chinese family to increase by 5 to 15 IQ points per generation. After a couple of generations, it would be game over for Western global competitiveness.

yap5a0dffde51a478462281f21a43efca83.jpg

There is unusually close cooperation in China between government, academia, medicine, education, media, parents, and consumerism in promoting a utopian Han ethno-state. Given what I understand of evolutionary behavior genetics, I expect—and hope—that they will succeed. The welfare and happiness of the world's most populous country depends upon it.

My real worry is the Western response. The most likely response, given Euro-American ideological biases, would be a bioethical panic that leads to criticism of Chinese population policy with the same self-righteous hypocrisy that we have shown in criticizing various Chinese socio-cultural policies. But the global stakes are too high for us to act that stupidly and short-sightedly. A more mature response would be based on mutual civilizational respect, asking—what can we learn from what the Chinese are doing, how can we help them, and how can they help us to keep up as they create their brave new world? 

jeudi, 07 janvier 2016

Ariane 6 : le début de la fin pour l'industrie spatiale européenne?

ariane-6.jpg

Le début de la fin pour l'industrie spatiale européenne ?...

Ex: http://metapoinfos.hautetfort.com

Nous reproduisons ci-dessous une note d'Hajnalka Vincze, cueillie sur le site de l'Institut de Veille et d'Etude des Relations Internationales (IVRIS) et consacré aux décisions européennes récemment adoptées vis-à-vis du programme Ariane. Analyste indépendante en politique de défense et de sécurité, Hajnalka Vincze a travaillé pour le ministère hongrois de la défense et a fondé l'IVRIS, un réseau d'experts européens dans les questions de défense et de géostratégie.

Ariane 6 : le début de la fin pour l'industrie spatiale européenne?

Atout stratégique par excellence, le lanceur Ariane est le symbole même de l’Europe spatiale. Fait plutôt rare, c’est un succès à la fois politique, technologique et commercial. Or il risque aujourd’hui d’être détricoté, suite à un transfert inédit de contrôle et de compétences de l’Etat vers des industriels privés. 

Le projet du nouveau lanceur, successeur de l’actuelle Ariane 5, fut approuvé en décembre 2014 par les ministres européens. Pour faire face à la concurrence internationale, en particulier à l’américain SpaceX et ses lancements à bas prix, ceux-ci ont accepté, de A à Z, un projet proposé par les industriels. Plutôt que de privilégier l’innovation technologique, ce projet se fonde sur la mainmise de ces derniers sur l’ensemble de la filière. Il prévoit une réorganisation-privatisation de fond en comble pour s’approcher d’un modèle, prétendument plus compétitif, importé des Etats-Unis ; mais sans la garantie des engagements étatiques qui, en réalité, le font vivre de l’autre côté de l’Atlantique.

En agissant ainsi, les gouvernements européens, en premier lieu la France, prennent de sérieux risques. Outre les aspects financiers (qui laissent poindre le spectre d’une immense gabegie), c’est avant tout la modification des rapports de force entre industriels et pouvoirs publics qui s’annonce fort problématique. Donner les clés de ce programme hautement stratégique à des industriels comme Airbus, aux visées douteuses et à l’allégeance malléable, témoigne, de la part de l’Etat, d’une attitude pour le moins irresponsable.

Postulats erronés

Précisons d’emblée que la fusée, de même que la société qui l’exploite et le commercialise, Arianespace, est un succès incontesté et incontestable. Pour reprendre les propos de Stéphane Israël, le PDG d’Arianespace, récemment auditionné au Sénat, Ariane est « sur le point de battre un double record opérationnel et commercial », tout en étant une fierté européenne et nationale, ayant pour tâche principale de « garantir un accès indépendant de l’Europe à l’espace ». Chose surprenante par les temps qui courent, M. Israël n’oublie pas de rappeler l’effort collectif à la base de ces résultats remarquables. Quelques mois auparavant, devant les députés, il avait fait remarquer que « les systèmes de lancement que l’entreprise exploite, en particulier Ariane, n’existeraient pas sans la volonté et les investissements publics. Cette fusée est donc aussi un peu la vôtre. »

Or, il est clair que la décision des gouvernements européens concernant la suite de l’aventure soulève plus de questions qu’elle n’en résout. La cause en est simple : ils partent de postulats idéologiques au lieu de s’en tenir aux faits, et préfèrent des gains mercantiles immédiats (par ailleurs incertains) à la stratégie et à la vision politique à long terme. Les deux sources d’inspiration derrière ce choix, entériné en décembre 2014 par les ministres de l’Agence spatiale européenne, étaient l’Allemagne et les industriels eux-mêmes. Comme l’a expliqué la ministre Fioraso à l’époque, c’est Berlin qui fut l’avocat d’« une intégration industrielle plus importante, une prise de risques plus grande des industriels », en faisant valoir que « si l’industrie prend davantage de risques, il est normal qu’elle participe davantage à la conception et qu’elle partage la stratégie ».

Les industriels, eux, n’attendaient que cela. Ils avaient même devancé les gouvernements et les agences spatiales. Airbus, le maître d’œuvre, et Safran, le motoriste, avaient travaillé dans le plus grand secret, pour mettre les autorités publiques devant le fait accompli, en présentant, dès juin 2014 leur projet. En plus du design de la fusée, ils ont annoncé leur intention de fusionner leurs actifs respectifs, par la création d’une co-entreprise. Le tout assorti d’une condition de taille: la cession des parts du gouvernement français dans Arianespace. Deux semaines après, François Hollande lui-même donne son feu vert, lors d’un petit déjeuner rassemblant tous les acteurs principaux au palais présidentiel.

La co-entreprise Airbus Safran Launchers (ASL) aura donc désormais autorité sur les lanceurs dans tous les segments. Outre le développement proprement dit, cela inclut donc la conception (jusqu’ici la prérogative des agences, désormais réduites à définir les grandes lignes), de même que la commercialisation. Car en juin 2015, le gouvernement français a, en effet, entériné la cession des 34% d’Arianespace détenus par le CNES à ASL, ce dernier devient ainsi premier actionnaire avec 74% du capital. Rappelons encore une fois qu’en arrière-fond de cette restructuration-privatisation sans précédent se trouverait la volonté de « l’optimisation » de la filière dans le but de réduire les coûts, pour relever le défi de la concurrence internationale.

Paradoxalement, les points d’interrogation sur l’avenir d’Ariane sont moins liés à la compétition mondiale qu’aux choix opérés par les gouvernements européens soi-disant pour y faire face. A bien y regarder, le tant redouté américain SpaceX ne semble pas provoquer, en soi, un danger existentiel pour Ariane. Tout en reconnaissant les talents de son créateur Elon Musk (on lui doit également le service de paiement en ligne PayPal et les voitures électriques Tesla), il convient de souligner, comme l’a fait le PDG d’Arianespace, que les principaux atouts de SpaceX sont d’ordre politique, dans la mesure où le soutien indirect du gouvernement fédéral lui est fort bénéfique, à la fois en termes de marché captif (garanties de lancements domestiques) et en termes de prix.

arianerou-le-5-juin-.jpg

En effet, pour citer l’ancienne secrétaire d’Etat chargé du dossier, « les pouvoirs publics américains sont très impliqués ». Et Geneviève Fioraso de préciser que « la Nasa achète 130 millions de dollars à SpaceX un vol que l’entreprise va vendre à 60 millions de dollars à l’exportation. On peut appeler cela du soutien mais c’est du dumping ! » Curieusement, le patron d’Airbus Group, lui, passe cet aspect complètement sous silence lorsqu’il déclare vouloir s’inspirer de SpaceX, en louant notamment leur « dynamisme ». Fidèle à son dogme libéral-atlantiste, Tom Enders s’est servi de SpaceX pour revendiquer une restructuration complète de la filière avec, à la clé, plus de pouvoir aux industriels et la réduction du champ de contrôle des pouvoirs publics.

Incertitudes persistantes

La réorganisation en cours ne se fait pas sans mal, et comporte de sérieuses incertitudes pour Ariane. Pour commencer, l’annonce en fanfare du lancement du nouveau programme, et la passation des contrats qui s’en est suivie, ont failli faire oublier que les Allemands avaient obtenu un point d’étape (go/no go, autrement dit feu vert ou arrêt), à la mi-2016. Or si Berlin a été le grand avocat de l’option « industrielle » retenue pour Ariane 6 (restructuration-privatisation plutôt qu’innovation technologique), c’est avant tout parce qu’il considère le projet sous un angle mercantile. Son soutien risque de s’évaporer si, au lieu de la réduction escomptée des coûts du projet, l’opération finit, ce qui est fort probable, par en augmenter les frais.

Outre la multiplication des factures imprévues présentées par les industriels, l’autre point d’interrogation sur le plan financier concerne les éventuelles réserves des clients actuels et potentiels. En effet, les constructeurs de satellites rivaux d’Airbus (dont c’est une des branches d’activité) pourraient ne pas trop apprécier ce nouvel arrangement. Airbus Group se veut rassurant : pour eux« notre objectif est de vendre le plus de lanceurs possible, y compris pour lancer les satellites de nos concurrents. Rien ne justifie la moindre inquiétude à ce sujet ». Pourvu que les clients partagent ce sentiment. Car même si on leur promet une cloison impénétrable entre satellites faits maison et fusées, il est difficile d’empêcher qu’à un moment ou un autre, le doute surgisse. Que ce soit l’octroi des créneaux de lancement privilégiés ou la possibilité d’offres coordonnées, Arianespace, de facto devenue filiale d’Airbus Group, pourra toujours être soupçonnée de favoritisme.

Pour couronner le tout, en plus de la commercialisation des fusées, Arianespace remplit aussi une fonction d’expertise qui lui donne accès aux informations techniques confidentielles des constructeurs de satellites rivaux d’Airbus. Avant le lancement, elle « prépare les analyses de mission, qui visent notamment à s’assurer que le lanceur est adapté au satellite qu’il devra mettre en orbite ». Cela nécessite une connaissance exacte des données techniques des satellites. Pour le PDG d’Arianespace, un découpage entre les deux fonctions (commerciale et d’expertise) serait inconcevable, puisque les deux font ensemble le succès de la société, en positionnant Arianespace comme la garante de la fiabilité ultime de la fusée. Reste à voir comment la nouvelle co-entreprise saura jongler avec ces différents volets.

A ces questionnements de nature financière et commerciale viennent s’ajouter ensuite des interrogations d’ordre politique. Sans surprise, la première d’entre elles concerne la question, sempiternelle, de la préférence européenne. Autrement dit, le fait de savoir si les gouvernements du vieux continent seraient enfin prêts à s’engager à privilégier leurs propres produits; comme le font d’ailleurs, et à juste titre, les Etats-Unis. Pour Ariane 6, seuls cinq lancements institutionnels seront garantis, d’après la ministre. Certes, on reste au même nombre qu’aujourd’hui, mais « cela signifie, tacitement, que chaque pays membre accepte le principe d’une préférence européenne. On ne peut pas écrire obligation, à cause des règles européennes ».

Le PDG d’Arianespace voulait y voir, en mai, « une sorte de ‘Buy European Act’, sachant que notre concurrent américain bénéficie déjà, quant à lui, d’un marché garanti aux États-Unis : la législation américaine impose que les charges utiles américaines soient mises en orbite par un lanceur construit majoritairement aux États-Unis. » Cinq mois plus tard, il a dû se rendre à l’évidence :« Aujourd’hui, le ‘Buy European Act’ n’existe pas. Il est vrai que les États européens peuvent choisir un autre lanceur que ceux d’Arianespace ». Ce qu’ils font, en effet, sans état d’âme. A l’instar de l’Allemagne, qui n’a pas hésité à confier à SpaceX le lancement de certains de ses satellites.

Or, prévient la ministre française : « Si nous ne sommes pas la carte de l’Europe, nous fragiliserons et in fine, perdrons la filière des lanceurs européens. Et au-delà, nous perdons notre avantage compétitif en matière de télécoms, en matière d’accès aux données scientifiques, environnementales, climatiques et en matière de sécurité et de défense. » Mais comment attendre des gouvernements de jouer la carte de l’Europe en matière de lancement si même Airbus ne le fait pas ? Le groupe, qui aura désormais la haute main sur l’ensemble de la filière et réclame, de ce fait, la garantie de cinq lancements institutionnels, souhaitait lui-même confier à son concurrent US le lancement d’un satellite de télécommunication dernier cri de l’Agence spatiale européenne (ESA), simplement pour le rendre plus rentable…

Abandons coupables

Au départ, la réorganisation actuelle a été présentée comme répondant à deux critères de base. D’une part, un besoin de réduction des coûts, par le biais d’une plus grande prise de responsabilité des industriels, de l’autre le maintien, tout de même, de la position des Etats. Sur ce dernier point, la ministre Fioraso a été très claire : « L’Etat restera présent dans la gouvernance et contrôlera ». Sauf que le périmètre de cette présence se réduit comme une peau de chagrin, en emportant le pouvoir de contrôle dans son sillage. Pour le PDG d’Arianespace, « les acteurs minoritaires qui représentent un lien avec les Gouvernements (…) doivent recevoir des garanties ». Autrement dit, ce n’est pas d’emblée le cas.

La question des coûts reste elle aussi opaque. Si les industriels disent prendre plus de risques, c’est loin d’être manifeste. Pour commencer, on ne sait toujours pas qui aura la charge d’éventuels échecs. Or, selon Stéphane Israël, « rien ne coûte plus cher qu’un échec et il importe de préciser les engagements des uns et des autres », mais « jusqu’à ce jour, rien n’est figé comme en témoignent les discussions en cours entre l’Agence spatiale européenne et Airbus Safran Launchers ». De surcroît, les industriels ne cessent de grignoter sur le volet financier de l’accord. Comme Michel Cabirol de La Tribune le met en évidence, tantôt ils demandent une rallonge d’un milliard, tantôt ils refusent de contribuer au maintien en condition opérationnelle du pas de tir en Guyane, tantôt ils exigent pour eux la gratuité pure et simple du Centre spatial, une faveur jamais octroyée à Arianespace.

Force est de constater que, dans ce domaine hautement stratégique, on risque de se retrouver devant un schéma étrangement similaire à celui des Etats-Unis. Un modèle caractérisé par de grandes sociétés privées, soutenues par d’immenses gaspillages de fonds publics. A la différence près que, contrairement au cas américain, les pouvoirs publics en Europe ne peuvent même pas être certains, à long terme, de la loyauté des sociétés qu’ils soutiennent – en l’absence d’un marché public gigantesque qui garantirait une loyauté d’intérêt, et faute de règles contraignantes européennes capables d’imposer, comme de l’autre côté de l’Atlantique, une loyauté juridico-institutionnelle.

Or, en parlant d’Ariane, il convient de garder à l’esprit que le lanceur conditionne la pérennité, la crédibilité, la rentabilité/compétitivité et l’autonomie de l’ensemble du secteur spatial. Que l’on se rappelle les origines mêmes de la création d’Ariane : en 1973, n’ayant pas de lanceur européen à leur disposition, Français et Allemands ont dû aller quémander auprès des Américains pour pouvoir mettre en orbite leur satellite de télécommunication. Or « les Américains, se souvient Frédéric d’Allest, ancien Directeur général du Centre national d’Etudes spatiales (CNES), ont fait savoir qu’ils voulaient bien lancer Symphonie mais à condition qu’il soit limité à des fonctions expérimentales ». Profitant de leur monopole, les Américains ont donc interdit toute utilisation à des fins commerciales, par souci d’éliminer la possibilité même d’un rival.

Un véritable déclic, d’après les témoins de l’époque, le diktat américain a finalement permis de lever les obstacles politiques, entre Européens, à la construction de ce formidable outil de souveraineté qu’est le lanceur Ariane. En effet, la leçon fut claire : sans accès indépendant à l’espace, il n’y a tout simplement pas de politique spatiale. Jouer aujourd’hui à l’apprenti sorcier, en procédant à une restructuration dans des conditions et avec des engagements opaques, au risque de fragiliser la position de l’Etat et au profit d’industriels dont le passé, le bilan et le profil sont loin d’être irréprochables – cela mérite au moins débat…

Hajnalka Vincze (IVERIS, 1er janvier 2016)

dimanche, 01 novembre 2015

Les progrès de la médecine, est-ce fini ? C’est peut-être pire encore.

IdY7i.jpg

Les progrès de la médecine, est-ce fini ? C’est peut-être pire encore

 
Jan Marejko
Philosophe, écrivain, journaliste
Ex: http://www.lesobservateurs.ch

Anne-Laure Boch est une pasionaria de la vie de l’esprit mais aussi de la vie du corps. Elle a d’abord étudié la médecine, ce qui l’a conduite à devenir neurochirurgienne à  l’hôpital de la Pitié-Salpêtrière. Ensuite elle a obtenu un doctorat en philosophie. Elle voulait  comprendre ce qu’elle faisait comme médecin, et pourquoi. C’est cette méditation sur le sens de la médecine qu’elle a partagé avec les étudiants de l’institut Philanthropos à Fribourg. Devant eux, elle a posé la question de savoir si l’on pouvait encore attendre des progrès en médecine. Elle en doute et craint que la médecine ne produise désormais plus de méfaits que de bienfaits.

Elle n’a évidemment pas nié que la médecine occidentale a fait d’énormes progrès dans les trois derniers siècles.  Mais rien ne nous garantit que des progrès passés engendrent des progrès pour l’avenir. Les communistes croyaient dur comme fer aux progrès de la science et ils ont bien placé Gagarine en orbite. Mais au-delà, plus rien ou presque. Ce n’est pas seulement que le progrès peut s’arrêter mais que, sur sa lancée, il peut produire du déclin, l’accélérer même. Une fusée, en retombant, peut faire des dégâts. La fusée de la médecine et des recherches qui lui sont associées est-elle en train de retomber ? On peut le craindre et c’est à repérer les raisons de cette crainte qu’Anne-Laure Boch s’est attachée.

La vocation de la médecine est de guérir. A-t-elle guéri le cancer par exemple ? Non, elle a fait de lui une maladie chronique, mais de guérison, point ! Si le but de la médecine est de faire survivre à n’importe quel prix, alors, oui, elle parvient effectivement à faire vivre plus longtemps les malades du cancer ? Mais le but de la médecine est la guérison du malade, pas son maintien en vie avec acharnement thérapeutique. Là, c’est l’échec, malgré les milliards investis dans la recherche depuis 50 ans. Faut-il se résigner à voir dans la médecine ce qui nous amène aux chaises roulantes, au semainier avec ingestion quotidienne de pilules, à un cheminement de plus en plus chevrotant avant la tombe ? Anne-Laure Boch ne s’y est jamais résignée. Pourquoi ?

Parce que, pour elle, l’être humain n’est pas un « tas de molécules » dont il faudrait comprendre le fonctionnement pour les rendre plus performantes. Elle a noté en passant que si nous ne sommes qu’un tas de molécules, l’amour se réduit à un frottement de chairs suivis de l’émission d’un liquide gluant. Pouvons-nous encore aimer si nous sommes un tas de molécules ?

La science ne connaît que des choses, et la technique « désanime » les êtres. De plus en plus dominée par la science, la médecine est devenue une « grande découpeuse » qui coupe le corps en tranches de plus en plus fines, comme le font d’ailleurs les images produites par un scanner médical. Plus encore, ce découpage conduit aujourd’hui à des greffes d’organes qui, à terme et selon certains, devraient nous permettre de vivre des centaines d’années (pour peu que les banques d’organes s’enrichissent…) Le philosophe Jean-Luc Nancy a témoigné de son expérience de greffé du cœur et du sentiment qu’il a eu d’être devenu « autre » après son opération. Or devenir autre, c’est se sentir aliéné. La médecine moderne s’est engagée sur un chemin qui, si elle le poursuit, pourrait non seulement faire de nous des assistés en chaise roulante, mais aussi des êtres qui se sentiraient étrangers à eux-mêmes. J’entends déjà caqueter les vautours de la vie à tout prix : « Au moins ils seraient vivants ! » Une vie mortelle, peu importe comment ! Étrange caquetage, puisque cette vie, nous devrons la quitter. Anne-Laure Boch n’est pas allée aussi loin mais je crois qu’elle me pardonnera de le faire. Je ne résiste pas toujours au plaisir d’extrapoler.

Nous ne sommes pas des choses dont la destination ultime serait de fonctionner le mieux possible dans le temps et dans l’espace. Si tel était le cas, alors oui, il faudrait tout faire pour nous rendre plus performants, plus propres, plus sains. Qui serait cet homme performant dont la figure transparaît en filigrane dans toutes les injonctions à ne pas fumer, à ne pas manger de viande, à ne pas boire le gras du lait, pour… éviter le cancer, les maladies cardiovasculaires, le diabète ou même la grippe lorsqu’arrive l’automne ? Cet homme, a souligné Anne-Laure Boch, serait un « homme nouveau ». Il serait si propre, si fonctionnel que, dans l’imaginaire des peuples modernes, il  échapperait à la mort. Il suffit de se tourner vers les propositions du transhumanisme pour voir se dessiner le visage de cet homme nouveau ou surhomme. Pas tout à fait un visage encore, puisqu’il est question, dans ce transhumanisme, d’utérus artificiel ou de cerveau agrandi, mais le visage apparaîtra bien un jour. Il y a des chances pour que ce soit celui de Frankenstein, couturé de cicatrices en raison des greffes subies, le regard perdu en raison des pilules absorbées.

Voilà ce qui inquiète Anne-Laure Boch : l’image presque toute-puissante d’un homme nouveau qui a échappé à la condition humaine, à sa condition d’homme mortel. C’est cette image qui guide, oriente, soutient la médecine moderne qui a oublié sa vocation première, guérir, pour participer à une grande marche vers une nouvelle terre et de nouveaux cieux. Chacun connaît la formule prononcée aux enterrements : « tu es né de la poussière et tu redeviendras poussière ». Eh bien, pas du tout pour la médecine d’aujourd’hui qui promeut un homme nouveau ! Elle n’est pas consciente, ajouterai-je, de s’être faite le promoteur de cet homme, mais elle n’en est pas moins orientée par lui. Était-il conscient de ce qu’il promouvait, cet expert de l’OMS qui expliquait récemment que la viande rouge augmente les risques de cancer du côlon ? Il est probable qu’interrogé, il aurait nié vouloir promouvoir un homme que la mort ne limiterait plus. Pour autant, le rapport de L’OMS sur la viande rouge tueuse n’en suggérait pas moins qu’à long terme, la mort pourrait être éradiquée non seulement par les greffes d’organes mais aussi par une prévention systématique dont on devinait que, une fois mise en place, elle nous conduirait vers d’enchantés pâturages où broutent déjà les adeptes du « véganisme ».

Les gardiens ou gargouilles d’une médecine orientée par pilotage automatique vers un homme nouveau abondent. Mais il n’y a pas que cela. Anne-Laure Boch nous a rendus attentifs au fait que différentes infrastructures se sont mises en place autour de la promotion de l’homme nouveau : structures d’accueil pour la fin de vie, personnel soignant pour ces structures, industrie pharmaceutique qui renforce le mythe d’une nouvelle vie grâce au viagra et autres pilules roses.

Notre époque n’aime pas les dogmes religieux, mais elle avale tout cru le dogme du progrès en général, le dogme du progrès de la médecine en particulier. C’est contre lui qu’Anne-Laure Boch s’est élevée avec, comme bélier pour enfoncer les portes de cette nouvelle citadelle dogmatique, Ivan Illich. Ce prêtre philosophe a en effet montré combien le dogme du progrès conduit à penser que, quoi qu’il arrive, on va vers le mieux, plus de bien-être, plus de bonheur. Staline déclarait en 1936 que les Russes étaient de plus en plus heureux, juste après avoir fait mourir de faim des millions d’Ukrainiens et juste avant d’organiser des grandes purges avec des centaines de milliers d’assassinats. Mais les gens l’ont cru, tant la soif de bonheur et d’immortalité est grande en nous.

Est-ce que, parmi des déambulateurs, des chaises roulantes, des drogués au Prozac, nous continuerons à bêler notre credo sur les bienfaits de la médecine et de la recherche ?

Pour Anne-Laure Boch ce n’est pas sûr. Nous voyons grandir la proportion des gens qui préfèrent mourir plutôt que d’être pris en charge par une médecine qui risque de faire d’eux des morts-vivants. Rejoindre le cortège des chevrotants ne les tente guère. Un autre facteur est que la schizophrénie s’aggrave chez les soignants : d’un côté ils sont encouragés à manifester de la bienveillance envers les malades – d’un autre côté, on leur dit que ces mêmes malades sont un « tas de molécules ». Viendra un jour où soigner des patients « molécularisés » n’aura plus de sens. Ce jour-là, il sera peut-être possible de retrouver une médecine qui se contente de guérir plutôt que de s’acharner à faire survivre à n’importe quel prix.

Jan Marejko, 28 ocotobre 2015

00:05 Publié dans Philosophie, Science, Sciences | Lien permanent | Commentaires (0) | Tags : science, sciences, médecine, philosophie | |  del.icio.us | | Digg! Digg |  Facebook

mercredi, 19 août 2015

Cambridge Universiteit: Mensheid wordt steeds zwakker, zieker en dommer

Courbet_Desespere.jpg

Cambridge Universiteit: Mensheid wordt steeds zwakker, zieker en dommer

Ex: http://xandernieuws.punt.nl

Wetenschappers van de gerenommeerde universiteit van Cambridge hebben een onderzoek gepubliceerd waaruit exact het tegendeel blijkt van wat de evolutietheorie beweert. Ondanks alle technologische vooruitgang blijkt de mens vergeleken met zijn voorouder van nog maar enkele duizenden jaren geleden zwakker, kleiner en vatbaarder voor ziektes. Ook onze hersenen nemen in omvang af, waardoor we steeds dommer worden. De beste atleten van nu zijn zelfs een lachertje vergeleken bij hoe sterk de doorsnee mens in de oudheid was.

Mensen die geloven in voortdurende vooruitgang en ontwikkeling, zoals de evolutietheorie stelt, zullen wellicht even moeten slikken bij de conclusies van het onderzoek. ‘Zelfs onze beste atleten verbleken bij onze voorvaderen,’ aldus dr. Colin Shaw. ‘Wij zijn zonder twijfel zwakker dan we vroeger waren.’

De wetenschappers onderzochten onder andere skeletten met een ouderdom van 1160 tot 7300 jaar. Vastgesteld werd dat de botten van de benen van boeren in het jaar 5300 voor Christus net zo sterk waren als die van doorgetrainde professionele veldlopers in onze tijd.

Mensheid krimpt

Uit eerdere vergelijkbare onderzoeken aan de universiteit bleek al dat onze lichamen en hersenen ‘duidelijk kleiner’ zijn dan die van de mensen die duizenden jaren geleden leefden. ‘Aangetoond is dat de mensen krimpen. De mensheid is het hoogtepunt voorbij. De huidige mensen zijn 10% kleiner en smaller dan hun voorvaderen, die als jagers en verzamelaars onderweg waren.’

De algemeen aanvaarde gedachte dat de mensen in de loop der eeuwen steeds groter zijn geworden, is hiermee ontkracht. Dat geloof is namelijk enkel gebaseerd op de meest recente lichamelijke ontwikkelingen, niet op die over een periode van duizenden jaren. Belangrijkste oorzaken van de teruggang van het menselijk ras zijn de beperktere voeding (zowel kwantitatief als kwalitatief) en de verstedelijking, waardoor de algemene gezondheid wordt aangetast en ziektes zich steeds sneller kunnen verspreiden.

Steeds meer schadelijke genen

Onze genen wordt dus niet steeds sterker door zogenaamde ‘natuurlijke selectie’, maar juist steeds zwakker en slechter. Volgens dr. John Sanford van de Cornell Universiteit –auteur van Genetic Entropy & The Mystery of the Genome) draagt ieder mens inmiddels tienduizenden schadelijke mutaties in zich mee, en geven wij minimaal 100 tot 300 nieuwe mutaties –waarvan verreweg de meeste schadelijk zijn- aan ons nageslacht door.

Veel genetici geloven dan ook dat dit uiteindelijk tot een ‘mutatie meltdown’ zal leiden. De schadelijke genen zullen zich in toekomstige generaties opeen hopen, met fatale gevolgen voor de toekomst en het voorbestaan van hele mensheid.

Niet slimmer, maar dommer

Gezien de snelle technologische ontwikkelingen lijkt ook de conclusie dat we steeds dommer worden tegenstrijdig. Toch tonen alle onderzoeken aan dat dit wel degelijk het geval is. (En als u ‘live’ bewijs wilt zien hoeft u enkel naar het ‘niveau’ van de meeste hedendaagse TV-programma’s te kijken – die worden door critici niet voor niets ‘hersenloos vermaak’ genoemd).

Biologie professor Gerald R. Crabtree (Universiteit van Stanford) schreef in twee wetenschappelijke artikelen in het vakblad Trends in Genetics dat de mens zelfs al 2000 tot 6000 jaar zijn intellectuele capaciteiten aan het verliezen is. Ook Crabtree noemt genetische mutaties –de basis van de neo-Darwinistische evolutietheorie- als de belangrijkste oorzaak. In de afgelopen 3000 jaar, een periode met zo’n 120 generaties, zijn er 5000 nieuwe mutaties ontstaan. Volgens Crabtree was daarvan slechts 2% tot 5% schadelijk, maar heeft de optelsom geleid tot een neerwaartse spiraal die niet meer te stoppen is. (1)

Geen Utopia, maar ondergang

De achteruitgang lijkt zich de afgelopen decennia fors te versnellen. De doorsnee mens schijnt anno 2015 in vrijwel niets anders geïnteresseerd te zijn dan stompzinnig vermaak en een dagelijks gevulde koelkast. De meeste tieners kunnen ook met een schooldiploma nauwelijks nog een zin correct in hun moedertaal schrijven. En misschien zijn ook het steeds vaker nemen van krankzinnige financieel-economische besluiten (EU / eurozone) en de snel over de wereld verspreidende waanzinnige islamistische ideologie –een cultus die voornamelijk dood en verderf nastreeft- wel signalen dat onze beschaving niet op een Utopia, maar op ondergang afstevent.

Xander

(1) KOPP

00:05 Publié dans Science, Sciences | Lien permanent | Commentaires (0) | Tags : science, médecine, intelligence humaine | |  del.icio.us | | Digg! Digg |  Facebook

lundi, 09 février 2015

La France dort sur un immense gisement d'équivalent pétrole

ur235Dossier_img_2.jpg

LA FRANCE DORT SUR UN IMMENSE GISEMENT D'ÉQUIVALENT PÉTROLE
 
Sans émission de CO2

Michel Gay
Ex: http://metamag.fr

Il existe sur le carreau de Pierrelatte et à Bessines prés de 300.000 tonnes d’uranium appauvri (uranium 238) issu des usines d’enrichissement en uranium 235, matériau nécessaire au fonctionnement des réacteurs actuels, et des EPR dans un futur proche. 


Cet uranium 238 "restant" peut être fissionné  dans un réacteur surgénérateur (dit aussi RNR pour "réacteur à neutrons rapides"). Il a un potentiel énergétique équivalent à 500 milliards de tonnes de pétrole, soit plus de deux fois les réserves mondiales actuelles de pétrole  (pour les sceptiques, voir le détail du calcul ci-dessous), … et sans émission de gaz à effet de serre !


Il manque "juste" la décision de lancer le processus financier et technique pour aboutir à la construction des réacteurs surgénérateurs et des usines de retraitement ad hoc…


Moyennant cet effort industriel déjà effectué par le passé dans le nucléaire, la France, qui dort sur un tel trésor, ne rencontrerait plus aucun problème de pénurie énergétique pour sa production d'électricité pendant plus de… 3000 ans (trois mille ans). 


Considérant ce potentiel énergétique dormant et inutilisé, on mesure l'étendue de l’inculture technique de nos dirigeants qui préconisent une division par deux de la quantité d’énergie consommée par chaque Français. Sans le dire, et même peut-être sans le voir, ils entrainent un appauvrissement général de la France dans les mêmes proportions.


Les combustibles fossiles vont s'amenuiser dans 50 ans ou dans un siècle. Cependant, grâce à la surgénération nucléaire, la quantité d'énergie disponible sous forme d'uranium, en France et dans le monde, pour produire de la chaleur et de l'électricité, sans émission de gaz à effet de serre, est gigantesque.


Il y a 20 ans, Superphénix était déjà un surgénérateur qui a subi une attaque politique létale. Il faisait pourtant naître en France un gisement d’énergie supérieur à toute la quantité de pétrole affichée dans le monde à cette époque… et encore aujourd'hui !


Deux méthodes de calculs simples pour trouver l'équivalence Uranium - Pétrole  dans un réacteur nucléaire surgénérateur
MT = million de tonnesTWh = térawatt heure = milliards de kWhT U = tonne d'uranium


1) Méthode simple issue de l'expérience.


1 MT pétrole = 12 TWh thermique (chaleur)Aujourd'hui, 60 tonnes d'uranium fissionnées  produisent 420 TWh d'électricité dans les centrales nucléaires françaises.Avec une conversion à 33% de la chaleur en électricité, les 60 T ont produit 1260 TWh thermiques.1 T U produit donc 21 TWh thermiques, ce qui équivaut à brûler 21/12 = 1,75 MT pétrole.
300.000 T U produiront une chaleur équivalente à 525.000 MT pétrole, soit une énergie équivalent à environ 525 milliards de tonnes... arrondies à 500 milliards pour garder en tête un chiffre rond…
Cependant, ce n'est pas 300.000 T U, mais plus de 500.000 T U qui seront stockées en 2050. En effet,  le stock étant de 300.000 T en 2015 et le flux annuel de 6500 T U par an, on aura donc plus de 500.000 T en 2050 (environ 527.500 tonnes).
C'est donc prés de 900 milliards de tonnes d'équivalent pétrole que la France aura accumulé en 2050, soit trois fois les réserves mondiales de pétrole d'aujourd'hui... quand démarreront les surgénérateurs de la quatrième génération.

2) Méthode plus "scientifique"


La fission d'un atome de plutonium dégage une énergie de 207,1 Mev (celle d’un atome d’Uranium 235 dégage une énergie quasiment identique de 202,8 Mev). 1 électron volt = 1,602 x 10-19 joules 207,1 MeV = 3,318 x 10-11 joules  par atome fissionné.  
La valeur du nombre d'Avogadro étant de 6,0221415 x 1023 on en déduit que : 239 grammes de Plutonium représentent 19,98 Téra joules  (19,98 x 1012 J) 1 kg fissionné représente 83,61 Téra joules (83,61 x 1012 J) 1 Tonne fissionnée représente environ 84 x 1015 joules. 300.000 T représentent environ 25 x 1021 joules.
Or, 1 kg de pétrole représente 42 x 106 joules. Donc, le stock d'uranium qui se transformera en Plutonium dans un réacteur surgénérateur équivaut sensiblement à (25 / 42) x 1015 = 0,59 x 1015 kg de pétrole, soit… 590 milliards de tonnes de pétrole. 
Répétons-le, c'est une ressource énergétique deux fois supérieure aux réserves mondiales de pétrole déclarées en 2012, pour la production de chaleur et d'électricité.

 

jeudi, 13 février 2014

L'IMPRIMANTE 3 D

Imprimante-3D.jpg

L'IMPRIMANTE 3 D
 
La Révolution du travail arrive...

Michel Lhomme
Ex: http://metamag.fr

Il n'y aura plus jamais de plein emploi. Faire croire le contraire et se focaliser sur les courbes du chômage est suicidaire. Mais il y a pire, l'obsolescence technologique, le retard dans les investissements et la ringardise de la formation professionnelle risquent de faire payer encore plus cher aux entreprises françaises la nouvelle révolution technologique en cours. 


Ce qui frappe le plus dans la crise de l'emploi et de l'éducation présente, ce n'est pas le débat sur la théorie du genre mais la résistance de l'institution à repenser son modèle jésuitique inadapté, à mettre à la poubelle tous ses programmes obsolètes face aux nouveaux élèves digitaux. Du coup, elle refourgue son incompétence et son inadaptation aux marchés juteux et quasi mafieux des formations privées. Le monde de l'entreprise n'est guère mieux loti dans les planifications à programmer. On se souvient de la faillite de Kodak qui, pour avoir sous-estimé la photographie numérique sombra corps et âme avec ses vieilles bobines de pellicules. Le développement de nouvelles classes moyennes dans les pays émergents et la recherche de produits à bas prix ont concentré la production industrielle dans les pays asiatiques. Pour combien de temps ?


Une nouvelle technologie somme toute assez simple est en train discrètement de changer toute la donne économique. Il s'agit de l'imprimante 3 D, capable de produire en résine résistante des matériaux en volume. Au fur et à mesure que cette technologie s'étendra, les processus de production et toute la logistique commerciale se trouveront modifiés. Le premier grand changement, c'est que la production se rapprochera au plus près de son point de consommation. Dans certains cas, il suffira même de payer simplement la matière première et le service d'impression pour obtenir son produit tandis que le software qu'on aura utilisé pour le dessiner sera disponible et téléchargeable sur Internet. Si, avec l'imprimante 3D, le coût de production par unité sera en théorie plus élevé que celui d'une production à grande échelle, le coût final tendra à se niveler en raison des économies obtenues dans les coûts de distribution, de stockage et de financement.


Autre grand chambardement de l'expansion de la technologie de l'imprimante 3D, les produits seront singularisés, individualisés, personnalisés en fonction du goût particulier du client. L'ère de l'individualisme marchand sera aussi l'ère de la production individuelle et de la commande-distribution sur mesure. Dans le vieux monde de l'ère industrielle en voie de disparition, on utilise encore de vieux moules très couteux qui tous, demain disparaîtront. L'imprimante 3D est bien une nouvelle révolution industrielle qui doit amener les entreprises à repenser leurs stratégies pour répondre aux nouveaux défis de cette nouvelle technologie.

Le développement de l'imprimante 3D va enfin avoir un impact géopolitique certain qu'il ne faut pas sous-estimer. Il impactera très fortement l'économie chinoise transformée ces dernières années en ''atelier du monde''. Certes, la Chine a développé un gigantesque marché interne qui lui aussi recherchera des produits personnalisés à partir de la technologie 3D mais il y aura un laps de temps d'adaptation à la nouvelle production qui affectera durement l'économie chinoise. Il faudra tenir compte de cette nouveauté dans ses répercutions géopolitiques. L'Asie n'a plus vocation à être le centre du monde. 


A côté d'un modèle de production-distribution hautement flexible à faible échelle, le modèle de production centralisé classique à grande échelle perdurera mais il devrait à long terme réellement disparaître. L'urbanisme concentrationnaire chinois autour des grosses fabriques devrait être du coup révisé car la technologie 3D suscite des postes de travail à proximité des centres de consommation et permet d'envisager l'extension d'un habitat plus diversifié et moins concentré. Il débloque l'opposition de la vieille industrie ou de la vielle ville entre centre et périphérie.


Ainsi, le cas de l'imprimante 3D est emblématique de comment un simple changement technologique quasi anodin, encore perçu comme secondaire peut générer une importante modification en temps réel de la production, de la distribution, du travail et en quelque sorte de toute l'économie. La séparation production/distribution sera demain dépassée, tout le marché rénové et transformé. Penser un tel changement, l'anticiper, le programmer, le planifier, voilà une vraie politique de restructuration industrielle, de réforme éducative bien loin des ABCD de l'égalité homme/femme qui ne poserait même pas problème dans un futur schéma de production industrielle hautement singularisé.    

00:05 Publié dans Science, Sciences | Lien permanent | Commentaires (0) | Tags : science, sciences, technologie, imprimante 3d | |  del.icio.us | | Digg! Digg |  Facebook

dimanche, 09 février 2014

Du sixième sens à l'ordinateur organique

Autopilot.jpg

DU SIXIEME SENS A L'ORDINATEUR ORGANIQUE
 
Au-delà de Big Brother
 
Michel Lhomme
Ex: http://metamag.fr

L'armée et les services secrets américains utilisent des rats que l'on appelle dans le milieu militaire US, les rats DARPA ou plus communément "rat-bot" du nom d'une agence qui dépend du Ministère de la défense américain et de son programme intitulé précisément ''rat-bot''. Ce programme vise à guider un rat à distance en lui envoyant des impulsions électriques indolores dans le cerveau. Il a été pour le Pentagone ou la NSA plus que concluant. On n'arrête pas, en fait, d'expérimenter sur les rats pour préparer le trans-humain.


Des chercheurs américains sont parvenus, par exemple, à mettre au point un implant cérébral sur des rats qui leurs donne la capacité de percevoir la lumière infrarouge que leurs yeux ne peuvent pas distinguer. Or, qui n'a pas rêvé au moins une fois dans sa vie d'avoir un sixième sens et surtout de disposer de facultés supérieures à la normale, comme celles de tout voir et de tout entendre ? Cette possibilité, le fantasme privé du Big Brother, on vient aujourd'hui d'en franchir un bon pas avec la prouesse réalisée par des chercheurs de l'université Duke aux Etats-Unis. Rapportés dans la revue Nature Communication, ces travaux sont les premiers à aboutir sur un dispositif capable de donner un nouveau sens à un animal. L'implant en question est une neuroprothèse composée d'un détecteur infrarouge relié à des microélectrodes, elles-mêmes connectées à une région du cortex liée au toucher. C'est notamment cette dernière région cérébrale qui reçoit des informations provenant des vibrisses, les fameuses moustaches ultrasensibles des rats. Pour tester leur dispositif, les chercheurs ont procédé en plusieurs étapes. Dans un premier temps, ils ont entrainé des rats exposés à trois diodes à se diriger vers celle qui s'allumait afin de pousser un levier leur permettant d'obtenir quelques gouttes d'eau. Puis, ils ont équipé les rongeurs de la neuroprothèse et ont recommencé l'expérience avec trois lumières infrarouges. Les premiers jours, les sujets ne se sont pas toujours dirigés vers la bonne direction, celle de la lumière. Toutefois, les chercheurs ont constaté qu'après avoir appuyé sur l'interrupteur, les rats se mettaient à se frotter les moustaches, suggérant ainsi qu'ils "sentaient" bien la lumière infrarouge, comme s'ils la touchaient. Il a alors fallu seulement un mois pour confirmer complètement l'efficacité du dispositif. Passé ce délai, les rats avaient pleinement associé la nouvelle sensation avec les sources de lumière et étaient capables de trouver dans 100% des cas, laquelle des lumières étaient allumées. Les rats qui ne possédaient pas le dispositif, eux, ne parvenaient pas, la plupart du temps, à trouver la bonne. La démonstration ne s'arrête pas là puisqu'elle a également permis de faire une découverte d'importance.


En effet, cette étude démontre qu'une région cérébrale et des neurones, impliqués dans un sens précis peuvent aussi interpréter d'autres types d'informations sensorielles. « Les nerfs ont répondu en même temps au toucher et à la lumière infrarouge. Ceci montre que le cerveau humain peut acquérir de nouvelles capacités qui n'ont jamais été expérimentées sur l'animal avant cela », a ajouté le scientifique. En théorie, une personne aveugle pour cause de dommage au niveau du cortex visuel pourrait recouvrer la vue en utilisant un implant sur une autre partie de son cerveau. Tout comme pourrait le faire une personne devenue sourde en raison de dommages au niveau du cortex auditif. « Ceci suggère que, dans le futur, il serait possible d'utiliser des dispositifs de type prothèses pour restaurer des modalités sensorielles qui ont été perdues, telles que la vision, en utilisant une partie cérébrale différente », a confirmé le Dr Nicolelis cité par le Telegraph. En somme, cette recherche ouvre la voie à la possibilité d'améliorer ou d'exacerber les capacités dont disposent déjà les animaux y compris l'être humain. « Cela pourrait être de détecter des rayons X, des ondes radio, ou n’importe quoi d’autres », a précisé le scientifique. Déjà, on a réussi à mettre au point un œil bionique capable de restaurer une partie de la vision à des aveugles. Nous entrons donc bien dans l'ère des NBIC (Nanotechnologie-Biotechnologie-Informatique et sciences Cognitives) sans réellement en mesurer toutes les conséquences perceptives car si l'on parvient à exacerber un sens, le sujet pourra-t-il vraiment contrôler cette "amélioration" ? Le sixième sens ne sera-t-il pas vécu comme une hypersensibilité pour le sujet ? Aujourd'hui, les rayons infrarouges ne nous gênent pas car nous ne les percevons pas, mais si demain nous les percevions, cela ne risquerait-il pas d'altérer notre vision du monde ? Il pourrait, en effet être très désagréable de percevoir ce qu'on ne perçoit pas en temps normal et de forcer en quelque sorte la nature des choses.


Du rêve télépathique à l'ordinateur organique 


Cette inquiétude légitime ne va-t-elle pas pourtant passer dans les oubliettes de la science avec la connexion intercontinentale envisageable du cerveau de deux souris (via des implantes et des câbles) et la possibilité ainsi de concevoir demain un super ordinateur organique.


En effet, dans le genre transhumain, il y aura plus que le sixième sens. Toujours à la Duke University, les scientifiques de l'équipe Nicolelis s'étaient distingués l'année dernière en réalisant la première interface cerveau-cerveau. Ils avaient réussi à connecter les cerveaux de deux rats, séparés de 5 000 km, par voie électronique, puis à transférer une information motrice ou tactile de l’un à l’autre pour guider l’accomplissement d’une tâche simple. Dans cette expérience, les chercheurs avaient utilisé des rats « encodeurs » et « décodeurs ». Les rats encodeurs étaient entraînés à répondre à un signal visuel ou tactile, en appuyant sur la touche correspondante, pour obtenir une récompense. Les chercheurs enregistraient ensuite l'activité cérébrale de ces rats encodeurs à l'aide d'un réseau de microélectrodes implantées dans leur cerveau. Ils transmettaient alors ces informations, sous forme de micro stimulations intra corticales (MSIC), aux aires corticales correspondantes chez le rat décodeur. Le rat décodeur, ainsi "informé" des actions visuelles ou tactiles de son congénère encodeur, devait reproduire les mêmes actions en choisissant d'actionner différentes touches, ce qu'il fit avec un excellent taux de réussite. « Par ces expériences, nous avons pu établir un lien de communication direct d'un nouveau type entre des cerveaux et montrer la validité du concept d'"ordinateur organique"», souligne le Professeur Nicolelis qui ajoutait aussitôt : « La prochaine étape de nos recherches sera d'essayer de construire un vaste réseau de cerveaux qui pourrait permettre l'émergence de propriétés et capacités nouvelles ». 

L'ordinateur quantique serait-il déjà mort né et  remplacé par l'ordinateur organique ?

dimanche, 27 mars 2011

Krebszahlen steigen weltweit...

Krebszahlen steigen weltweit, da in den Entwicklungsländer immer mehr amerikanische Nahrungsmittel gegessen und US-Produkte genutzt werden

David Gutierrez

Die Zahl der Krebskranken steigt weltweit an, besonders aber in den Industrienationen, heißt es in einem Bericht, der von der Amerikanischen Krebsgesellschaft (ACS) anlässlich des Weltkrebstages in der Fachzeitschrift der Gesellschaft – CA: A Cancer Journal for Clinicians – veröffentlicht wurde. In dem Bericht heißt es weiter, 2008 wurden schätzungsweise 12,6 Millionen neue Krebsfälle diagnostiziert und 7,6 Millionen Menschen starben an Krebs. Die überwältigende Mehrzahl dieser Fälle – 7,1 Millionen Erkrankungen und 4,8 Million Todesfälle – trat in den Industrienationen auf. Die Verbreitung einer sogenannten »Wohlstandskrankheit« wie Krebs auf die ärmeren Länder kann unter anderem darauf zurückgeführt werden, dass in diesen Regionen in zunehmendem Maße ungesunde Lebensweisen wie zum Beispiel Rauchen, Sesshaftigkeit und eine schlechte Ernährungsweise übernommen werden.

 

 

Die Forscher weisen darauf hin, dass ein Drittel der Krebstoten 2008 durch einfache Maßnahmen wie etwa Aufhören zu rauchen, weniger trinken von Alkohol, eine gesündere Ernährungsweise und mehr körperliche Bewegung sowie eine Reduzierung des Infektionsrisikos hätte verhindert werden können. Mehr als 7.300 Menschenleben könnten so täglich gerettet werden.

Mehr: http://info.kopp-verlag.de/medizin-und-gesundheit/gesundes-leben/david-gutierrez/krebszahlen-steigen-weltweit-da-in-den-entwicklungslaender-immer-mehr-amerikanische-nahrungsmittel-.html

jeudi, 16 septembre 2010

Konrad Lorenz, uno scienziato antimoderno

konrad_Lorenz.jpg

Konrad Lorenz, uno scienziato antimoderno

di Stefano Di Ludovico

Fonte: Centro Studi Opifice [scheda fonte]

I pregiudizi scientisti e progressisti di cui è impregnata la nostra cultura ci portano spesso a vedere in ogni visione alternativa rispetto al mondo moderno il portato di mentalità antiscientifiche ed arcaiche, sogno di visionari metafisici che ignorano i fondamenti e le regole più elementari del sapere positivo. Sembra quasi che la critica al mondo moderno sia prerogativa di culture inevitabilmente “altre” rispetto a quel sapere che di tale mondo si reputa a fondamento, e che la scienza sia necessariamente al servizio della modernità e della società a cui essa ha dato origine. La figura e l’opera di Konrad Lorenz smentiscono clamorosamente tali pregiudizi: universalmente considerato uno dei maggiori “scienziati” del XX secolo, padre dell’etologia moderna e Nobel per la fisiologia e la medicina nel 1973, è stato al tempo stesso uno dei più lucidi e feroci critici della modernità e dei suoi miti, anticipatore di molte di quelle tematiche oggi fatte proprie dai movimenti e dalle culture ambientaliste e no-global.
A rileggere la sua opera, sviluppatasi lungo l’arco di un quarantennio, dal dopoguerra agli anni Ottanta del secolo appena trascorso, ci ritroviamo al cospetto di un vero e proprio “profeta” dei mali che affliggono il nostro mondo e dei problemi che la nostra generazione è chiamata ad affrontare. E tutto ciò da una prospettiva che pur rimanendo fedele ai fondamenti positivisti ed evoluzionisti della sua visione di fondo, ha saputo essere al tempo stesso radicalmente anticonformista ed “inattuale” rispetto ai valori ed alle tesi di cui quella visione si è fatta spesso portatrice. Ci sembra essere proprio questa, alla fine, la cifra del pensiero di Konrad Lorenz, uno scienziato “antimoderno”. A diciotto anni dalla sua morte - avvenuta nel 1989 - proprio oggi che molte delle sue analisi si sono rivelate profetiche e che l’eco delle polemiche, anche accese, che hanno accompagnato la sua vicenda culturale ed umana si va ormai spegnendo, è possibile, e al tempo stesso doveroso, guardare alla sua opera con maggiore interesse, curiosità ed obiettività, attribuendole la valenza e la riconoscenza che meritano.

Konrad Lorenz nasce a Vienna nel 1903. Studia medicina a New York e a Vienna, laureandosi nel 1928. Nel 1933 consegue anche la laurea in zoologia, assecondando i suoi veri interessi che si stavano orientando sempre più verso il mondo animale e l’ornitologia in particolare. Nel 1937 diventa docente di psicologia animale e anatomia comparata presso l’Università di Vienna e, a partire dal 1940, di psicologia all’Università di Königsberg. Scoppiata la guerra, combatte nell’esercito tedesco. Durante il conflitto viene fatto prigioniero dai russi; così dal 1944 al 1948 è trattenuto in un campo di detenzione sovietico fino alla fine delle ostilità. Nel 1949 viene pubblicato L’anello di Re Salomone, destinato a rimanere la sua opera più celebre, dove Lorenz rivela quelle doti di abile ed affascinante divulgatore che resero i suoi testi famosi nel mondo, avvicinando alle tematiche etologiche e naturalistiche un vasto pubblico di non addetti ai lavori; doti confermate nel successivo E l’uomo incontrò il cane, del 1950. Nel 1961 diviene Direttore dell’Istituto Max Plank per la fisiologia del comportamento di Starnberg, in Baviera, carica che manterrà fino al 1973. E’ proprio a partire da tali anni che, accanto a testi a contenuto prettamente scientifico, Lorenz inizia ad estendere i suoi interessi alla sfera sociale e culturale, per arrivare ad affrontare le tematiche dell’attualità del suo tempo, lette all’interno di un’ottica che faceva tesoro di quanto via via egli stava maturando e scoprendo in ambito naturalistico. Dall’etologia animale si passa così all’etologia umana. Tali nuovi interessi iniziano per la verità a fare capolino già nelle opere a carattere scientifico, rivelando la vastità degli orizzonti e delle prospettive che fin dagli inizi hanno accompagnato la sua ricerca.

L’opera Il cosiddetto male, del 1963, che affronta il tema dell’aggressività intraspecifica, è un tipico esempio di tale prospettiva. In questo scritto Lorenz sostiene che l’aggressività, al pari di diversi altri istinti quali la sessualità o la territorialità, sia un comportamento innato, come tale insopprimibile e spontaneo, impossibile da far derivare dai soli stimoli ambientali. Essendo un istinto innato, l’aggressività è in quanto tale “al di là del bene e del male” (di qui anche il carattere ironico e polemico del titolo del libro; modificato, in alcune delle edizioni successive, nel più neutro L’aggressività), componente strutturale di ogni essere vivente e svolgente un ruolo fondamentale nell’ambito dei processi evolutivi e quindi della sopravvivenza della specie. Basti pensare al ruolo che la conflittualità intraspecifica gioca nell’ambito della delimitazione del territorio, della scelta del partner nella riproduzione, dell’instaurazione delle gerarchie all’interno del gruppo. Lorenz sostiene altresì che gli stessi istinti “buoni”, ovvero quelli gregari e amorosi, derivino evoluzionisticamente dalla stessa aggressività, essendo modificazioni selettive di questa indirizzati a finalità differenti, tanto che sopprimere l’aggressività significherebbe sopprimere la vita stessa. Il libro suscitò polemiche violentissime, dato che Lorenz non limitò le sue riflessioni all’ambito animale, ma le estese anche a quello umano e storico-sociale. Le accuse si sprecarono e la polemica, dal terreno scientifico su cui Lorenz intendeva mantenerla, scivolò, com’era prevedibile, su quello politico ed ideologico: gli diedero del razzista e del guerrafondaio. In realtà il proposito del testo era quello di criticare le correnti comportamentiste e behavioriste, allora molto in voga, secondo cui tutti i comportamenti derivano in ultima analisi dalle influenze e dagli stimoli ambientali, modificati i quali sarebbe possibile modificare gli stessi comportamenti, aggressività inclusa. Per i comportamentisti, quindi, non vi sarebbe nulla di innato. Lorenz, al contrario, considera l’istinto un dato originario, geneticamente condizionato: in quanto tale, esso vive di vita autonoma, non vincolandosi necessariamente all’azione di quelle influenze ambientali aventi la funzione di stimoli scatenanti. Anzi, secondo Lorenz più un istinto non trova occasione di scatenamento, più aumenta la possibilità che esso si scarichi prima o poi in maniera ancor più dirompente, anche in assenza degli stimoli corrispondenti. Se così non fosse, per Lorenz sarebbero difficilmente spiegabili i fenomeni di aggressività cosiddetta “gratuita”, così diffusi sia nel mondo animale che tra gli uomini. Lungi dal costituire un’apologia della violenza e della guerra, l’opera di Lorenz intendeva innanzi tutto mettere in guardia da ogni posizione utopica circa la convivenza umana e la risoluzione dei conflitti, risoluzione che, per essere realistica e antropologicamente fondata, non poteva prescindere da dati e analisi che egli riteneva incontrovertibili. Al contrario, proprio la mancata conoscenza del funzionamento dei comportamenti innati poteva portare a risultati opposti a quelli auspicati, finendo per favorire proprio l’innesco di comportamenti deleteri per la pacifica convivenza. Sostenendo l’impermeabilità di fondo ai condizionamenti ambientali degli istinti basilari dell’uomo come di tutte le specie animali, Lorenz vuole evidenziare così le illusioni insite nella convinzione secondo cui l’educazione e la trasformazione dell’assetto politico-sociale sarebbero di per sé sufficienti a modificare e plasmare i comportamenti umani. E questo non perché egli negasse ogni valore alla cultura o alla dimensione spirituale dell’uomo, quasi a volerlo ridurre a un animale tra i tanti e per ciò vincolato esclusivamente ai suoi istinti. Alieno da ogni visione irenistica e bucolica dell’uomo così come della natura in genere, critico di ogni antropologia che risentisse del mito rousseauiano del “buon selvaggio”, egli sottolineò piuttosto come la “pseudospeciazione culturale” tipica della specie umana ha portato i gruppi umani – siano essi i clan, le tribù, le etnie o le moderne nazioni - una volta raggiunto un determinato grado di differenziazione reciproca, a relazionarsi in modo molto simile a quello delle specie animali più evolute, specie tra le quali, come accennato sopra, la conflittualità intraspecifica gioca un ruolo fondamentale all’interno dei processi adattativi. Lorenz evidenzia come diversi comportamenti risalenti a fattori culturali rivelino una fenomenologia sorprendentemente simile a quelli di origine genetica, facendo risaltare così una certa convergenza tra le dinamiche animali e quelle umane, convergenza che in fenomeni come non solo l’aggressività, ma anche ad esempio la territorialità, l’imprinting, il gioco ed i riti risalta con chiarezza.

E’ soprattutto però con opere quali Gli otto peccati capitali della nostra civiltà, del 1973 e Il declino dell’uomo, del 1983, che le problematiche del proprio tempo e la critica alle convinzioni ed alle ideologie dominanti diventano i temi centrali della sua ricerca; temi che, comunque, continuano a trovare ampio spazio anche nelle opere a contenuto scientifico di questo periodo. Tra queste ricordiamo L’altra faccia dello specchio, del 1973, dedicata alla disamina dei processi conoscitivi della specie umana da un punto di vista storico-evoluzionistico, Natura e destino, del 1978, dove viene ripreso il confronto tra innatismo e ambientalismo, e Lorenz allo specchio, scritto autobiografico del 1975. Nel 1973, intanto, tra le ennesime e strumentali polemiche scatenate in particolare dagli ambienti culturali di sinistra, viene insignito, come accennato, del Premio Nobel per la fisiologia e la medicina, unitamente ad altri due etologi, Nikolaas Tinbergen e Karl Ritter von Frisch. Pur di infangare la sua figura, non bastando le meschine accuse già rivoltegli in occasione de Il cosiddetto male, per l’occasione vennero tirati in ballo presunti atteggiamenti di condiscendenza verso il regime nazista, strumentalizzando ad arte tesi espresse a suo tempo in merito all’eugenetica. In realtà, ciò che non gli veniva perdonato erano le posizioni controcorrente verso i miti progressisti-rivoluzionari così prepotentemente in voga nel clima caldo degli anni settanta, così come il temperamento libero e non curante verso il “politicamente corretto”, che lo portavano a confrontarsi senza pregiudizi con gli ambienti intellettuali più disparati, come dimostra l’attenzione mostrata verso il GRECE, il “Gruppo di ricerca e studio per la civilizzazione europea”, fondato in Francia da Alain De Benoist, dalla cui collaborazione nacque anche un libro-intervista pubblicato nel 1979 con il titolo Intervista sull’etologia. Sempre nel 1973 si stabilì ad Altenberg, in Austria, assumendo la direzione del Dipartimento di sociologia animale dell’Accademia Austriaca delle Scienze. Tra le altre più significative opere ricordiamo L’etologia (1978), vasta sintesi del suo pensiero etologico, e i due libri-intervista Salvate la speranza (1988) e Il futuro è aperto (postumo del 1996, in collaborazione con il filosofo Karl Popper), in cui torna ad affrontare anche tematiche più specificatamente filosofico-sociali.

Gli otto peccati capitali della nostra civiltà, destinata a diventare una delle sue opere più note, vuole essere un’analisi delle cause della decadenza della civiltà e dei pericoli che incombono sull’umanità. Come il successivo Il declino dell’uomo, è un’opera intrisa di un cupo pessimismo, a volte radicale, pessimismo che in seguito lo stesso Lorenz avrebbe ritenuto esagerato. Gli otto “peccati capitali” della civiltà sarebbero a suo dire i seguenti: l’abnorme aumento della popolazione mondiale; la devastazione dell’ambiente; la smisurata competizione economica tra gli individui; l’affievolirsi dei sentimenti; il deterioramento del patrimonio genetico; l’oblio della tradizione; l’omologazione culturale; la proliferazione nucleare. Come vediamo, si tratta di “peccati” ancor oggi all’ordine del giorno e con i quali l’attuale umanità continua a fare i conti, ma che al tempo di Lorenz ancora non venivano individuati e denunciati come tali in tutta la loro gravità. Addirittura tali “peccati” rischiano per Lorenz di portare l’umanità verso l’estinzione. Questa visione apocalittica gli è suggerita, secondo un’ottica seguita un po’ in tutte le sue opere, dal parallelo che egli istituisce con il mondo dell’evoluzione animale e naturale in genere. Più che eventi causati da specifici accadimenti storico-sociali, essi vengono letti infatti quali veri e propri fenomeni degenerativi dell’evoluzione umana: come avviene per molte specie viventi che, ad un certo punto della propria storia evolutiva, imboccano un vicolo cieco avviandosi verso l’estinzione, lo stesso sembra stia accadendo per la specie umana. “Quale scopo – si chiede Lorenz – possono avere per l’umanità il suo smisurato moltiplicarsi, l’ansia competitiva che rasenta la follia, la corsa agli armamenti sempre più micidiali, il progressivo rammollimento dell’uomo inurbato? A un esame più attento, quasi tutti questi fatti negativi si rivelano però essere disfunzioni di meccanismi comportamentali ben determinati che in origine esercitavano probabilmente un’azione utile ai fini della conservazione della specie. In altre parole, essi vanno considerati alla stregua di elementi patologici”. Al di là delle legittime perplessità e delle riserve che una simile chiave di lettura – vincolata ad un’impostazione in ultima analisi biologista ed naturalista dei processi storico-sociali – può suscitare, l’opera di Lorenz rappresenta una delle più lungimiranti e pionieristiche denuncie della società moderna, di cui vengono con vigore demistificati i miti ed i valori fondanti. Fenomeni che secondo la tradizione del pensiero moderno venivano considerati quali espressione della più intima natura umana – la competizione economica, la ricerca del benessere materiale, l’indefinito progresso tecnologico – vengono denunciati, al contrario, quali vere e proprie “patologie”, che stanno allontanando sempre più l’uomo dalla sua vera essenza, riducendolo a mero strumento delle forze tecno-economiche da egli stesso messe in moto. “La competizione tra gli uomini – afferma – che promuove, a nostra rovina, un sempre più rapido sviluppo della tecnologia, rende l’uomo cieco di fronte a tutti i valori reali e lo priva del tempo necessario per darsi a quella attività veramente umana che è la riflessione”. Estraniatosi dal mondo e dai ritmi della natura, l’uomo vive ormai in una nuova dimensione puramente artificiale, dove sono le leggi ed i ritmi della tecnica a regolare la sua vita. Ciò ha condotto a stravolgere l’identità e la specificità stesse dell’uomo, con il progressivo inaridimento dei sentimenti e delle emozioni, l’estinzione del senso estetico, la distruzione delle tradizioni e delle istituzioni che avevano da sempre regolato la convivenza umana prima dell’avvento della società industriale. Lorenz arriva a sostenere che la situazione dell’umanità contemporanea può essere paragonata a quella delle specie animali allevate ed selezionate a scopi produttivi, presso le quali l’addomesticamento ha determinato una vera e propria alterazione dei loro caratteri naturali.

In tal senso, Lorenz pone le basi per un ambientalismo che, non limitandosi a denunciare la perturbazione degli ecosistemi o la devastazione dell’habitat naturale dell’uomo, mette l’accento sulla necessità di recuperare un’esistenza più conforme ai dettami ed ai limiti della natura; natura accettata e fatta propria anche nella sua dimensione tragica e dolorosa. Il progetto della modernità di voler bandire il dolore e la fatica dal mondo è visto infatti da Lorenz come una vera e propria iattura: “il progresso tecnologico e farmacologico favorisce una crescente intolleranza verso tutto ciò che provoca dolore. Scompare così nell’uomo la capacità di procurarsi quel tipo di gioia che si ottiene soltanto superando ostacoli a prezzo di dure fatiche”. Nella società del benessere e del comfort “l’alternarsi di gioia e dolore, voluto dalla natura, si riduce a oscillazioni appena percettibili, che sono fonte di una noia senza fine”, noia che è alla base di quella illimitata ricerca del “piacere” – che della “gioia” è solo la caricatura parossistica - su cui fa leva la società dei consumi.  In tal senso Lorenz, che si impegnò spesso anche sul piano delle battaglie concrete intervenendo nei dibattiti pubblici e partecipando a molte iniziative ambientaliste, espresse anche posizioni controcorrente e trasversali rispetto a certo ambientalismo anche oggi prevalente, difendendo, ad esempio, la legittimità della caccia, e battendosi invece contro l’aborto, ritenuto una pratica innaturale. Al tempo stesso prese le distanze da ogni naturalismo inteso quale ritorno ad utopici quanto irrealistici “stati di natura”, in quanto vedeva la dimensione culturale e spirituale come consustanziale all’uomo, che privato di essa sarebbe privato quindi della sua “natura” più autentica.  Lo stesso studio del mondo animale, che ha impegnato tutta la sua vita, non è stato mai inteso da Lorenz in senso puramente tecno-scientifico: “vorrei dire innanzitutto che io non ho cominciato a tenere degli animali perché ne avevo bisogno per scopi scientifici: no, tutta la mia vita è stata legata strettamente agli animali, fin dalla prima infanzia… Crescendo ho allevato gli animali più diversi… Mi sono comportato sempre in questo modo: per conoscere a fondo un animale superiore, ho vissuto con lui. L’arroganza di certi scienziati moderni, che credono di poter risolvere tutti i problemi studiando un animale soltanto a livello sperimentale, è stata sempre estranea alla mia mente”. Più che il canonico approccio “scientifico”, quello di Lorenz sembra essere, almeno nelle sue finalità ultime e al di là dei suoi fondamenti epistemologici, un atteggiamento di tipo “intuitivo”, volto ad una comprensione complessiva dei fenomeni naturali e alieno da ogni visione meramente sperimentale e quantitativa. Ciò che davvero gli interessava era alla fine risensibilizzare l’uomo moderno al legame simpatetico con il mondo degli animali e della natura in genere, legame andato quasi completamente perduto per l’uomo civilizzato. Questi paga tale perdita anche con l’estinzione del senso estetico, che per Lorenz si lega strettamente al contatto con l’incredibile varietà della forme naturali e la grandezza della creazione che sovrasta l’uomo. Per Lorenz i sentimenti estetici sono infatti parte del patrimonio genetico dell’umanità, e hanno svolto anch’essi, quindi, un compito importate nel corso dell’evoluzione umana ai fini adattativi; mentre oggi l’uomo si va pericolosamente assuefacendo al “brutto” che domina incontrastato nelle nostre metropoli, dove ogni senso della bellezza sembra essersi obliato. La disarmonia che caratterizza la vita del moderno uomo inurbato si lega ad un altro infausto fenomeno, quello della sovrappopolazione, che Lorenz non vede solo nell’ottica economicistica - anche oggi spesso prevalente nei movimenti ambientalisti e terzomondisti - dello squilibrio tra risorse disponibili e popolazione, ma sempre in rapporto a dimensioni “esistenziali” più profonde, ancora una volta suggeritegli dagli studi etologici. Come ogni specie vivente ha bisogno, in base all’istinto di territorialità, di un suo ben delimitato “spazio vitale” (inteso in senso “psicologico” e non solo materiale), anche l’uomo difficilmente può adattarsi a vivere tra folle anonime di individui sconosciuti, dato che il forzato contatto ravvicinato e permanente con “estranei” genera inevitabilmente tensione ed aggressività, favorendo l’insorgere di quelle patologie tipiche della modernità quali stress e nevrosi.

La radicale critica della società moderna portò Lorenz a scontrarsi violentemente con la cultura progressista che monopolizzava il dibattito intellettuale degli anni sessanta e settanta ed ispirava i movimenti politici alternativi di quegli anni, movimenti che auspicavano una “rivoluzione” che andava, per molti aspetti, nel senso contrario a quello indicato da Lorenz. Critico verso ogni ottimismo progressista che esaltasse “le magnifiche sorti e progressive” dell’era della tecnica, Lorenz denunciò con altrettanto vigore l’ideologia del “nuovismo”, che egli considerava espressione di puro infantilismo, dato che è tipico dei bambini l’ingenuo entusiasmo verso tutto ciò che si presenta come “nuovo”. Contro i miti contestatari giovanili, Lorenz difese invece le tradizioni, la cultura e le strutture sociali sulle quali si erano funzionalmente rette le comunità e le società del passato, con accenti che non ci aspetteremmo da uno scienziato del XX secolo, come difese il principio di autorità nei processi educativi, vedendo in tutto ciò il portato di dinamiche socio-adattative coerenti con i dettati dell’evoluzione naturale. Lo stesso concetto di “rivoluzione” era del resto vivacemente contestato da Lorenz, dato che “la natura non fa salti” e che l’evoluzione procede per passi lenti e spesso impercettibili. Per questo l’incomprensione generazionale tra padri e figli che caratterizzava quegli anni era da lui vista come un fenomeno deleterio e pericoloso per un armonioso sviluppo della società. La stessa valorizzazione della fatica e della sofferenza andava contro le spinte moderniste di gran parte del movimento contestatore, che le considerava assurde sopravvivenze di secoli oscuri che grazie al progresso della tecnica e allo sviluppo economico l’uomo si sarebbe lasciato completamente alle spalle, essendo la liberazione dal dolore e il perseguimento del benessere “diritti” inalienabili che a tutti dovevano essere garantiti. Indifferente alle critiche che gli venivano mosse, forte delle sue convinzioni, Lorenz non si peritò di mettere in discussione lo stesso principio dell’uguaglianza tra gli uomini, che egli vedeva come una malsana distorsione del legittimo riconoscimento dell’eguale dignità di ogni uomo così come di ogni essere vivente. Secondo Lorenz l’egualitarismo, unito a quella che egli chiama la dottrina “pseudo-democratica” di ispirazione comportamentista secondo cui sarebbe possibile cambiare gli uomini a piacimento se solo si muta il contesto ambientale in cui essi si trovano a vivere, altro non è che un falso mito espressione della progressiva omologazione culturale che caratterizza la società moderna; omologazione di cui egli individuava le responsabilità nello strapotere del mercato, delle multinazionali e dei mezzi di comunicazione di massa. Il mondo moderno è caratterizzato da “una uniformità di idee quale non si era mai vista in nessun’altra epoca della storia” – sottolinea Lorenz - a tutto detrimento del pluralismo culturale, che, quale espressione del più vasto fenomeno naturale della diversità biologica, è un patrimonio da salvaguardare come uno dei cardini su cui si reggono l’evoluzione e la possibilità di riproduzione della vita stessa. Lorenz ritiene pertanto l’ineguaglianza un fattore costitutivo della natura, senza il quale essa perderebbe la sua forza creativa ed espansiva, non solo in termini biologici, ma anche e soprattutto a livello sociale e culturale, in quanto è proprio “l’ineguaglianza dell’uomo – affermò - uno dei fondamenti ed una delle condizioni di ogni cultura, perché è essa che introduce la diversità nella cultura”. Allo stesso modo egli individuava già allora nella perniciosa influenza della cultura americana le origini dei mali che attanagliavano l’umanità: “le malattie intellettuali della nostra epoca – sostiene - usano venire dall’America e manifestarsi in Europa con un certo ritardo”, così come al dominio delle ideologie egualitarie e pseudo-democratiche “va certamente attribuita una gran parte della responsabilità per il crollo morale e culturale che incombe sugli Stati Uniti”.

Figura proteiforme, difficilmente inquadrabile secondo gli schemi consueti, Lorenz visse profondamente le forti contraddizioni e i radicali cambiamenti che caratterizzarono il suo tempo. La sua complessa disamina della società moderna, intrisa di un così esasperato pessimismo, sfugge anch’essa a facili classificazioni, suscitando spesso sbrigative prese di distanza così come semplicistiche ed entusiastiche adesioni. Se il parallelismo che egli pone tra i processi evolutivi del regno animale e le dinamiche storico-sociali può lasciare perplessi, prestando il fianco ad accuse di riduzionismo biologista, lo sfidare gli apologeti del progresso tecno-scientifico sul loro stesso terreno dell’argomentazione positiva spiazza molti dei suoi detrattori. Anche i suoi toni a volte apocalittici possono sembrare eccessivi ed ingiustificati; ma non bisogna dimenticare che Lorenz scriveva in un periodo in cui i problemi da lui diagnosticati stavano per la prima volta presentando i loro risvolti devastanti su scala planetaria, senza che si fosse ancora sviluppata una forte sensibilità condivisa verso di essi. Come accennato, Lorenz stesso rivide progressivamente alcune delle sue posizioni e ritenne non più giustificabile il radicale pessimismo che aveva espresso, costatando come le tematiche su cui aveva richiamato l’attenzione fin dagli anni sessanta erano sempre più al centro del dibattito culturale e ormai nell’agenda di impegni di molti gruppi e movimenti politici e ambientalisti. “Colui che credeva di predicare solitario nel deserto, parlava, come si è dimostrato, davanti ad un uditorio numeroso ed intellettualmente vivo” - riconosce Lorenz, e “i pericoli della sovrappopolazione e dell’ideologia dello sviluppo vengono giustamente valutati da un numero rapidamente crescente di persone ragionevoli e responsabili”. Per questo Lorenz finì per prendere le distanze dai “catastrofisti”, da coloro che credevano possibile figurarsi con certezza l’avvenire dell’umanità predicando la sua prossima fine, dato che, come recita il titolo del succitato libro scritto con Karl Popper, il “futuro è aperto”, e l’irriducibilità ad ogni possibile determinismo costituisce pur sempre la cifra dell’uomo e della storia. Se il futuro è certamente aperto e la critica all’ideologia sviluppista non è più patrimonio di isolati predicatori nel deserto, è pur vero, però, che molti dei “peccati della civiltà” stigmatizzati da Lorenz restano ancor oggi impuniti, se non si sono addirittura aggravati. Di fronte alla sua disamina, si ha anzi l’impressione, a volte, che molte delle sue riflessioni e degli allarmi lanciati appaiano scontati e banali; e ciò non perché l’odierna umanità abbia risolto o quanto meno imboccato la strada giusta per risolvere i mali denunciati, ma - ed è quel che è più disperante - semplicemente perché vi si è ormai assuefatta. Ecco perché, al di là di quanto è stato fatto o resta da fare, e al di là dei giudizi e dei convincimenti di ciascuno, riteniamo quanto meno indispensabile e di grande attualità, oggi, la rilettura della sua opera.


Tante altre notizie su www.ariannaeditrice.it

vendredi, 27 novembre 2009

Das unerschöpfliche Virenlager der Antarktis - ein gefundenes Fressen fürs Militär

antarctique.jpg

 

Das unerschöpfliche Virenlager der Antarktis – ein gefundenes Fressen fürs Militär

Andreas von Rétyi / http://info.kopp-verlag.de/

In den Frischwasserseen der Antarktis lauern potenzielle Gefahren – wer sich auf sie einlässt, könnte wahrlich die »Büchse der Pandora« öffnen. Neuen Studien zufolge bergen die fast permanent zugefrorenen Gewässer eine Unzahl unbekannter Mikroorganismen und Viren. Nicht zuletzt ein Eldorado für militärische Biowaffenprojekte.

Öde und absolut lebensfeindlich, so präsentiert sich die Antarktis in weiten Teilen. Eine Eiswelt wie auf einem anderen Planeten! Die wahrhaft wenig einladenden Bedingungen lassen allerdings dem Leben und einigen seiner ungewöhnlicheren Begleiterscheinungen durchaus noch eine ganze Menge Spielraum. Und vielleicht auch Raum für ein weiteres tödliches Spiel. Denn die nährstoffarmen Seen, die nur wenige Wochen oder Monate vom Eispanzer befreit sind, enthalten vor allem Mikroorganismen und Viren. Viele davon völlig unbekannt. Entsprechend begeistert zeigen sich Wissenschaftler, die sich insbesondere all jenen kleinen Biestern verschrieben haben.

»Wir beginnen soeben, die Welt der Viren zu entdecken, und dies ändert die Art und Weise, in der wir über Viren nachdenken und über die Rolle, die sie in mikrobiellen Ökosystemen spielen«, erklärt der spanische Forscher Antonio Alcami. Und gerade die antarktischen Landschaften bieten hier viele neue Einblicke. Alcami und seine Kollegen haben Wasserproben des Limnopolar-Sees auf Livingston Island analysiert und rund 10.000 verschiedene Arten gefunden. Mit von der Partie auch bislang unbekannte kleine DNA-Viren. Von zwölf verschiedenen »Familien« sind etliche ein völliges Novum für die Wissenschaft. Gewiss vermitteln diese Untersuchungen zahlreiche neue Erkenntnisse, die uns allen nützlich sein könnten, gerade, da ja Viren aus menschlicher Perspektive betrachtet nur in den seltensten Fällen von Nutzen sind und oft schreckliche Gefahren für uns bereithalten.

Doch welche Bedrohung könnte von den zahllosen unbekannten Viren ausgehen, die bisher relativ ungestört ihren Kälteschlaf im beinahe ewigen Eis gehalten haben? Geheime Militärlabors warten doch nur auf die Chance, neue Waffensysteme auch auf dem Sektor der biologischen Kriegsführung zu entwickeln. Alles natürlich rein defensiv, versteht sich. Zumindest wird uns das immer wieder versichert. Die verschlossenen Kühlkammern von Laboratorien wie dem United States Army Research Institute of Infectious Diseases (USAMRIID) auf Fort Detrick, Maryland, oder dem Dugway Proving Ground in Utah stecken bereits lange voller Überraschungen, die selbst hartgesottenen Zeitgenossen das Gruseln zu lehren vermögen. Doch liegt es in der Natur des Menschen, stets nach mehr zu streben – hier nicht anders. Und es gibt mehr, viel mehr! Also ab aus der Antarktis und hinein in die Geheimlabors!

Der antarktische Kontinent birgt logischerweise ein hohes wissenschaftliches Potenzial; ebenso ist er wegen seiner Bodenschätze von enormer wirtschaftlicher Bedeutung. Nicht allein deshalb wächst im Gleichschritt mit den technischen Möglichkeiten aber auch das militärische Potenzial. Nach außen hin besteht dabei natürlich immer die einfache Möglichkeit, entsprechende Projekte als rein wissenschaftliche Tätigkeit darzustellen. Seit dem 23. Juni 1961 besteht hierzu ohnehin zwingende Notwendigkeit, denn damals trat der Antarctic Treaty in Kraft, der Nuklearwaffen sowie militärische Aktivitäten auf Landmassen und Eisschelf der Antarktis in südlichen Breiten jenseits von 60 Grad untersagt – nicht aber die Anwesenheit des Militärs, sofern sie friedlichen Zwecken dient. Auch für die Marine gilt eine Ausnahme: Operationen auf hoher See sind in den südlicheren Gewässern zulässig. Der Vertrag wurde zwischenzeitlich von 47 Ländern unterzeichnet.

antarctique-372392.jpgUnfraglich bietet die Antarktis unzählige Möglichkeiten für zivile Forschungsprojekte. Was da geschieht, dient friedlichen Zwecken, sei es die Ergründung des Klimas oder der Geologie, seien es Aspekte medizinischer Natur, wenn Menschen unter extremer Abgeschiedenheit leben müssen – wichtig auch für eine spätere Besiedlung fremder Himmelskörper –, seien es grundsätzliche astronomische Beobachtungen unter beinahe idealen Bedingungen und die Suche nach seltenen Steinen aus dem All, seien es auch jene biologischen Forschungen zu teilweise seit Jahrmillionen abgeschlossenen Lebensräumen. Doch vielfach findet sich eben auch die Nähe zu einer militärischen Anwendung.

Rüstungskonzerne fördern die Forschungen, beispielsweise auch der Gigant Raytheon, der seine Finger bei fast jedem militärischen Groß- und Geheimprojekt im Spiel hat und derzeit zu den mächtigsten Unternehmen der Vereinigten Staaten zählt. Raytheon unterhält eine eigene Abteilung namens Raytheon Polar Services Company (RPSC). Dieser »Dienst« wurde eingerichtet, um die Anfordernisse einer Koordinationsstelle zu erfüllen, die der nationalen Wissenschaftsstiftung (National Science Foundation, NSF) der USA untersteht – des Office of Polar Programs. Nach Angaben von Raytheon besteht die Hauptfunktion der RPSC darin, »das Antarktisprogramm der Vereinigten Staaten (USAP) zu unterstützen, das dem Erhalt der antarktischen Umwelt und der Förderung von Wissenschaftlern gewidmet ist, die Forschungen in der Antarktis durchführen«.

Eine ehrbare Aufgabe. Allerdings wäre es wohl naiv anzunehmen, dass derartige Aktivitäten aus rein altruistischen Motiven ausgeführt werden. Gewiss macht es sich gut, wenn ein Unternehmen auf seine Verantwortung hinsichtlich Umweltfragen und der Zukunft dieser Welt hinweist und auf diesem Gebiet aktiv wird. Humanitäres Engagement sorgt für Renommee. Doch wie glaubwürdig ist es, wenn ausgerechnet ein Rüstungsgigant dieses Bild von sich vermitteln will? Wer tödliche Technologie entwickelt, dürfte sich hier eher etwas schwer tun. Aber vielleicht genügt ja der Hinweis darauf, dass auch modernste und bedrohlichste Waffen rein defensiv eingesetzt werden können. Und damit sind wir nicht zuletzt auch wieder bei Fort Detrick, Dugway und der biologischen Kriegsführung angelangt!

 

Donnerstag, 19.11.2009

Kategorie: Allgemeines, Wissenschaft

© Das Copyright dieser Seite liegt, wenn nicht anders vermerkt, beim Kopp Verlag, Rottenburg