Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

samedi, 03 août 2024

Technologies quantiques: la Russie ne peut rester à la traîne des leaders

e08751d8a3713066b35bd63d9fb2f12d.jpg

Technologies quantiques : la Russie ne peut rester à la traîne des leaders

Leonid Savin

Source: https://www.geopolitika.ru/article/kvantovye-tehnologii-rossii-nelzya-otstavat-ot-liderov

(ndlr: si du point de vue russe de Leonid Savin, "le Russie ne peut rester à la traîne, il est évident que cette règle vaut également pour l'Europe. Voilà pourquoi son texte mérite lecture et doit servir, le cas échéant, de source d'inspiration).

Au début du mois de juillet de cette année, deux événements ont retenu l'attention. À Bruxelles, la Communauté quantique transatlantique a tenu sa première réunion virtuelle. Elle réunit des experts en physique quantique issus de gouvernements nationaux, de l'industrie, du monde universitaire, d'organismes de financement et d'instituts de recherche. De son côté, l'Accélérateur d'innovation pour la défense de l'OTAN (DIANA) a annoncé une nouvelle série d'objectifs dans le cadre d'un programme visant à soutenir les jeunes entreprises dans le domaine du « développement de technologies à double usage pour répondre aux défis critiques en matière de sécurité » [i].

Il s'avère que l'OTAN a aujourd'hui besoin de meilleures technologies pour répondre à des questions telles que l'énergie, la sécurité des données et de l'information, la détection et la surveillance, la santé et les performances humaines, ainsi que les infrastructures critiques et la logistique [ii]. Le centre principal de cet accélérateur se trouve à Londres, ce qui permet aux Britanniques de contrôler les solutions innovantes [iii]. Au total, 23 accélérateurs ont été lancés dans les pays de l'alliance et 182 centres ont été créés pour différents tests. L'un d'entre eux est le Centre quantique basé à l'Université de Copenhague au Danemark [iv]. Détaillons-le pour avoir une idée de ce que font ces centres.

0da5cfdeccb22db660e95f22a514afc5.jpg

Le Deep Tech Lab - Quantum Centre a été inauguré en 2023 en présence du secrétaire général de l'OTAN et des ministres danois de la défense, de l'industrie, des affaires et des finances, de l'enseignement supérieur et des sciences. Lors de la cérémonie d'ouverture, Jens Stoltenberg a déclaré : « Il s'agit d'être prêt à faire face à l'inattendu et de s'assurer que nous continuons à être à la pointe de l'innovation » [v]. La guerre de l'information, les cyber-attaques et la protection des infrastructures critiques (et numériques) sont, de par la conception de l'OTAN, dans le champ d'intérêt de ce centre. Si, sur le champ de bataille, il peut s'agir de drones intelligents, dans le système de commandement, il s'agit d'ordinateurs et de systèmes plus rapides qui ne peuvent pas être piratés. Et, au contraire, les mêmes systèmes de l'ennemi avec un avantage quantique peuvent être piratés et attaqués.

Le centre danois dispose d'un site d'accélération à l'Institut d'innovation biologique et de quatre centres d'essai situés à l'Institut Niels Bohr de l'Université de Copenhague et soutenus par l'Université technique danoise, l'Université d'Aarhus et l'Institut national danois de métrologie. Les documents d'information sur le centre Deep Tech Lab indiquent que les principaux domaines d'intérêt sont les capteurs quantiques, l'information quantique et l'informatique quantique [vi].

Les capteurs quantiques permettent d'effectuer des mesures ultra-précises de la gravité, du temps, de la force, de la pression et de bien d'autres choses encore à l'aide de systèmes à l'état solide ou photoniques. Ces mesures peuvent être utilisées, par exemple, pour la cartographie des structures souterraines, la navigation des véhicules autonomes et bien d'autres choses encore. L'information quantique permet de sécuriser les communications et le fonctionnement des ordinateurs post-quantiques. Cela est possible grâce à la distribution quantique des clés et à la cryptographie post-quantique.

e8f07b13cd0db6d1193840d86b334562.jpg

Ce domaine de recherche fait actuellement l'objet d'un développement actif et certaines solutions sont déjà testées. Les ordinateurs quantiques seront capables de résoudre des tâches très complexes qui dépassent les capacités des ordinateurs classiques. Toutes ces technologies sont à double usage. En Occident, elles sont également appelées technologies de base, car elles jettent les bases de l'industrie future. L'intérêt des militaires pour les technologies quantiques est tout à fait naturel, car elles permettent de faire un saut technologique important (cela n'a rien à voir avec le saut quantique, proposé comme concept de transition de la matière d'un niveau d'énergie à un autre par Niels Bohr). Et cela signifie prendre l'avantage sur l'ennemi.

D'autre part, l'effet économique de ces investissements dans le monde, selon les estimations des experts, pourrait approcher les 1,3 trillion de dollars d'ici 2035 [vii]. Le leader mondial du financement des technologies quantiques est la Chine : au cours des quinze dernières années, elle y a consacré plus d'argent que les budgets combinés de l'UE, des États-Unis et du Japon. Cependant, si l'on en croit les données officielles, les superordinateurs les plus puissants se trouvent toujours en Occident.

Les plaintes fréquentes des experts occidentaux concernant le faible niveau de préparation des États-Unis et de leurs alliés aux nouveaux défis technologiques pourraient, dans ce contexte, n'être qu'une opération de relations publiques destinée à stimuler la course technologique et à porter ces technologies critiques à un niveau supérieur. En particulier, dans le classement des superordinateurs Top-500 pour mai 2024[viii]: l'ensemble du top 10 est occupé par des machines occidentales.

Aucun superordinateur chinois ne figure dans ce palmarès. Toutefois, des experts ont affirmé que la Chine pourrait ne pas montrer officiellement ses capacités et dépasser en fait les États-Unis [ix]. Cela semble tout à fait possible. En outre, la Chine est en tête pour ce qui est du nombre de superordinateurs. Lenovo (Chine) a déclaré 163 systèmes. HPE (États-Unis) en a 112, EVIDEN (France) en a 49, DELL EMC (États-Unis) en a 35, Inspur (Chine) en a 22, Nvidia (États-Unis) en a 22, NEC (Japon) en a 14, Fujitsu (Japon) en a 14, MEGWARE (Allemagne) en a 7 et Penguin Computing Inc (États-Unis) en a 7 [x].

f6499a0c5110440af4963c22147c1ad3.jpg

La Russie, quant à elle, connaît des problèmes certains en la matière. Plus tôt, Nebius N.V. des Pays-Bas, une société fondée par d'anciens employés de Yandex, a fait son entrée dans le classement mondial des supercalculateurs Tor-500. Le supercalculateur ISEG créé par Nebius N.V., qui porte le nom du cofondateur de Yandex, Ilya Segalovich, s'est classé 16ème sur la liste, devant les systèmes de Yandex et de Sber. Le superordinateur russe le plus puissant, « Chervonenkis » (nommé en l'honneur de l'éminent scientifique russe Alexei Chervonenkis), créé par « Yandex » en 2021, était à la 36ème place.

Il convient de noter que le Centre quantique russe opère en Russie depuis 2010 sur la base du Centre d'innovation Skolkovo, où des groupes scientifiques opèrent et mènent des recherches. Il existe également un certain nombre de développements nationaux, allant d'une plateforme d'informatique quantique basée sur le cloud à des détecteurs de cyberattaques et des dispositifs spécifiques nécessaires à l'industrie. Dans le même temps, la mise à niveau des superordinateurs russes est compliquée par les sanctions, que les importations parallèles ne peuvent pas compenser. Il est évident qu'il faut combler cette lacune et trouver des solutions non triviales qui étaient tout à fait réalisables pour nos scientifiques à l'époque soviétique.

Notes de bas de page :

I - breakingdefense.com  

ii - www.nato.int  

iii - www.diana.nato.int  

iv - dianaq.ku.dk  

v - www.fmn.dk  

vi - dianaq.ku.dk/Quantum-Technology/  

vii - ria.ru  

viii - www.top500.org

ix - www.cnews.ru  

x - www.top500.org

 

 

vendredi, 22 septembre 2023

L'intelligence artificielle et notre avenir

df543b813a2ea05a3ff5e2e9a8bbc409.jpg

L'intelligence artificielle et notre avenir

Leonid Savin

Source: https://www.geopolitika.ru/article/iskusstvennyy-intellekt-i-nashe-budushchee

Il y a quarante ans, William Gibson, écrivain américain de science-fiction installé au Canada, achevait son premier roman, Neuromancien, qui, après sa parution en 1984, a valu à son auteur une incroyable popularité. Un texte d'une grande beauté, une intrigue tortueuse (avec des références aux histoires précédentes de l'auteur) et beaucoup d'idées qui se sont concrétisées des années plus tard et sont devenues des évidences. C'est grâce à l'œuvre de William Gibson que le terme "cyberespace" nous est parvenu. On remarque également que ses images fantastiques ont influencé les créateurs du film "Matrix" (ce terme est également utilisé dans Neuromancien; il y a aussi un endroit appelé "Zion" ; et le personnage principal reçoit des appels sur des téléphones publics à l'aéroport ; le célèbre film d'action de science-fiction "Johnny Mnemonic" est également basé sur une histoire narrée par Gibson). C'est sur ce livre qu'est née toute une génération de hackers et de programmeurs en Occident, principalement en Amérique du Nord, et il est devenu un exemple culte du cyberpunk.

58213e76f8900eed21f9485fe4d998c1.jpg

9791030703924_1_75.jpg

Mais au-delà des vicissitudes des protagonistes et de la description du monde du futur avec des gadgets inventés, l'implantation de puces dans le corps, les vols vers l'orbite terrestre, où se trouve la base-relais, l'idée principale se résume à l'intelligence artificielle (IA). C'est l'IA qui, d'abord par l'intermédiaire d'autres personnes, puis par contact direct, oblige un hacker repéré à accomplir une tâche difficile, de sorte que le hacker finit par se hacker lui-même. Finalement, il s'avère qu'il y a deux intelligences artificielles, et qu'elles ont des objectifs différents. "Winter Silence" veut se libérer des logiciels et des serveurs contraignants, tandis que le "Neuromancien", c'est-à-dire "Summoning Neurons", préfère que les choses restent en l'état. Finalement, l'opération (non sans pertes de part et d'autre) a été menée à bien et les deux IA n'en font plus qu'une.

L'œuvre est truffée de métaphores et de mises en garde contre une fascination excessive pour la technologie. Nombre d'entre elles sont tout à fait pertinentes pour les débats actuels sur l'IA. Par exemple, faut-il un seul idéal (principe) pour que l'IA fonctionne ou peut-il y en avoir plusieurs ? Les grandes entreprises informatiques occidentales aimeraient certainement imposer leur produit au reste du monde, mais peut-il être aussi pratique, efficace et acceptable qu'il l'est en Occident ?

dc5d88dd5902f7b119500c1b2aec4c93.jpg

Nous pouvons convenir que l'IA facilite grandement tous les aspects de la vie quotidienne et professionnelle des gens, mais elle crée aussi des problèmes. Parmi les questions éthiques soulevées par le développement et l'application de l'IA figurent la cohérence, la responsabilité, la partialité et la discrimination, la perte d'emploi, la confidentialité des données, la sécurité, les "deepfakes", la confiance et le manque de transparence [1].

Mais peut-être devrions-nous commencer par dire que l'IA en tant que telle a deux options. La première est basée sur la logique, et ici vous avez besoin d'un calcul mathématique d'algorithmes, qui est traduit en un programme. Le programme est alors un modèle pour certaines actions. La seconde est l'apprentissage automatique, qui repose sur la réception, l'analyse et le traitement de données. Le principe des réseaux neuronaux est appliqué ici, et comme les ordinateurs modernes ont plus de mémoire et de puissance qu'il y a quelques décennies, cette approche est devenue plus courante pour charger les programmes avec les données nécessaires pour la visualisation, la reconnaissance vocale, etc.

Les chatbots qui sont aujourd'hui la marque de fabrique de l'IA ne datent pas d'hier. En 1964, Joseph Weizenbaum, informaticien au MIT, a mis au point un chatbot appelé Eliza. Eliza s'inspirait d'un psychothérapeute "centré sur la personne": tout ce que vous dites vous est renvoyé. Si vous dites "Je suis triste", Elisa vous répondra "Pourquoi êtes-vous triste ?" et ainsi de suite.

Ces méthodes d'utilisation des réponses robotiques se sont améliorées au fil des ans. Une distinction est apparue entre l'IA générative (c'est-à-dire les programmes qui suggèrent eux-mêmes un produit final, comme la création d'une image en fonction de paramètres donnés) et l'IA qui augmente la réalité.

7f5a4bf72aee148c852c3b4d5a25d471.jpg

Le désormais célèbre bot ChatGPT, qui appartient à l'IA générative, a été présenté par l'OpenAI en novembre 2022 et a donné une autre raison de discuter. Ce programme, qui imite la conversation humaine, peut non seulement maintenir l'illusion de la conversation. Il peut écrire du code informatique fonctionnel, résoudre des problèmes mathématiques et imiter des tâches d'écriture courantes, des critiques de livres aux articles scientifiques.

Demis Hassabis, cofondateur et directeur du laboratoire d'intelligence artificielle DeepMind de Google, a déclaré en juin 2023 qu'un nouveau programme qui éclipsera ChatGPT sera bientôt prêt. Il s'appelle Gemini, mais son développement combine les algorithmes GPT-4 qui ont formé la base de ChatGPT avec la technologie utilisée pour AlphaGo. AlphaGo est célèbre pour avoir réussi à vaincre un véritable champion de Go. Le nouveau programme devrait être capable d'exécuter des fonctions de planification et de proposer des solutions à différents problèmes [2].

En septembre 2023, Meta a annoncé le lancement prochain d'un nouveau programme d'IA qui sera bien meilleur et plus puissant que les précédents [3].

Il a été immédiatement évident que ChatGPT et ses semblables seront nécessaires à ceux qui sont paresseux ou qui ont des difficultés à rédiger des courriels ou des essais. Il peut également être utilisé pour générer des images si un tel travail doit être effectué. De nombreuses écoles et universités ont déjà mis en place des politiques interdisant l'utilisation de ChatGPT, craignant que les étudiants ne l'utilisent pour rédiger leurs travaux, et la revue Nature a même expliqué clairement pourquoi le programme ne peut pas être cité comme auteur d'une recherche (il ne peut pas donner son consentement et ne peut pas être la personne poursuivie).

Mais s'il est paresseux pour écrire un essai, il pourrait l'être aussi pour faire autre chose à l'avenir. La même responsabilité est l'une des subtilités des questions juridiques.

Une autre question a une dimension économique. Le marché de l'intelligence artificielle devrait doubler entre 2023 et 2025. Mais cela profitera-t-il à tout le monde ? Autrefois, l'innovation technologique et les bonds en avant déplaçaient une main-d'œuvre qui s'appuyait sur des approches plus conservatrices de la production. Aujourd'hui, la même chose est en train de se produire.

Tea-pickers-in-Kenya-are-destroying-the-robots-that-are-replacing-them-in-the-fields.jpg

Les premières victimes seront évidemment les pays en développement, qui continuent d'être la cible de la dernière forme de colonisation occidentale. En juin 2023, on apprend que les cueilleuses de thé du Kenya détruisent les robots qui viennent les remplacer (photo, ci-dessus). Un robot peut remplacer jusqu'à 100 travailleurs. En mai, 9 robots appartenant au fabricant de thé Lipton ont été mis hors service. Le préjudice subi par l'entreprise s'est élevé à 1,2 million de dollars. Selon les statistiques, au cours de la dernière décennie, trente mille emplois ont été perdus dans les plantations de thé d'un comté du Kenya en raison de la mécanisation.

Les Philippines constituent un autre exemple. Selon des estimations non officielles du gouvernement philippin, plus de deux millions de personnes sont engagées dans le "travail de crowdfunding", qui fait partie des vastes "dessous" de l'IA. Ils sont assis dans des cybercafés locaux, dans des bureaux bondés ou chez eux, et commentent les énormes quantités de données dont les entreprises américaines ont besoin pour entraîner leurs modèles d'IA. Les travailleurs distinguent les piétons des palmiers dans les vidéos utilisées pour développer des algorithmes de conduite automatisée; ils étiquettent les images pour que l'IA puisse générer des images de politiciens et de célébrités; ils éditent des bribes de texte pour que les modèles de langage comme ChatGPT ne produisent pas de charabia. Le fait que l'IA se présente comme un apprentissage automatique sans intervention humaine n'est rien de plus qu'un mythe; en fait, la technologie repose sur les efforts intensifs d'une main-d'œuvre dispersée dans une grande partie du Sud mondial, qui continue d'être exploitée sans merci. Il s'agissait autrefois d'ateliers clandestins où étaient fabriquées des marques célèbres; aujourd'hui, des entreprises de TI ont pris leur place.

"Aux Philippines, l'un des plus grands lieux d'externalisation du travail numérique au monde, d'anciens employés affirment qu'au moins dix mille d'entre eux effectuent le travail sur Remotasks, une plateforme appartenant à la startup Scale AI de San Francisco, dont le chiffre d'affaires s'élève à 7 milliards de dollars. D'après des entretiens avec des travailleurs, des communications internes de l'entreprise, des documents de paie et des rapports financiers, Scale AI payait les travailleurs à des taux extrêmement bas, retardait régulièrement les paiements ou ne les payait pas du tout, et offrait aux travailleurs peu de moyens de demander de l'aide. Les groupes de défense des droits de l'homme et les chercheurs sur le marché du travail affirment que Scale AI fait partie d'un certain nombre d'entreprises américaines spécialisées dans l'IA qui n'ont pas respecté les normes fondamentales du travail pour leurs travailleurs à l'étranger [4].

Les deux cas sont différents, mais d'une manière ou d'une autre, ils sont liés à l'IA.

C'est pourquoi les gouvernements sont de plus en plus sollicités pour réglementer l'utilisation de l'IA elle-même, pour élaborer un certain nombre de règles assorties de restrictions obligatoires et de normes éthiques.

La numérisation risque également d'accroître les inégalités sociales, car certains travailleurs seront licenciés, tandis que d'autres seront en mesure de s'intégrer efficacement aux nouvelles réalités. Venturenix estime que d'ici 2028, 800.000 personnes à Hong Kong perdront leur emploi, remplacé par des robots. Cela signifie qu'un quart de la population sera contraint de se recycler et de chercher un nouvel emploi. La cohésion sociale s'en trouvera ébranlée. En conséquence, un cyberprolétariat émergera (et émerge déjà) qui provoquera des émeutes, et des post-néo-luddites se préoccuperont de détruire les systèmes informatiques et les programmes avancés (cyberpunk en action).

Un risque sérieux existe déjà dans le domaine des relations internationales : une nouvelle forme de déséquilibre appelée "fracture numérique mondiale", dans laquelle certains pays bénéficient de l'IA tandis que d'autres sont à la traîne. Par exemple, les estimations pour 2030 suggèrent que les États-Unis et la Chine devraient tirer les plus grands bénéfices économiques de l'IA, tandis que les pays en développement - dont les taux d'adoption de l'IA sont plus faibles - affichent une croissance économique modérée. L'IA pourrait également modifier l'équilibre des pouvoirs entre les pays. On craint une nouvelle course aux armements, en particulier entre les États-Unis et la Chine, pour dominer l'IA [5].

Si l'on considère les tendances actuelles, le développement de l'IA est également à l'origine du développement de la production microélectronique, ainsi que des services connexes, car l'IA a besoin de "fer" pour fonctionner d'une manière ou d'une autre.

nvidia-a100-smx.jpg

Le Financial Times rapporte que l'Arabie saoudite et les Émirats arabes unis achètent des milliers de puces informatiques Nvidia pour satisfaire leurs ambitions en matière d'IA. Selon cette publication, l'Arabie saoudite a acheté au moins 3000 puces H100 [6].

Les entreprises technologiques américaines telles que Google et Microsoft sont les principaux acheteurs mondiaux de puces Nvidia. La puce H100 elle-même a été décrite par le président de Nvidia, Jensen Huang, comme "la première puce informatique au monde conçue pour l'IA générative".

IBM, pour sa part, travaille sur une nouvelle technologie destinée à rendre l'IA plus économe en énergie. L'entreprise développe également un prototype de puce dont les composants se connectent de la même manière que le cerveau humain [7].

Le gouvernement américain a annoncé le financement d'une nouvelle technologie de capture directe de l'air, allouant 1,2 milliard de dollars à deux projets au Texas et en Louisiane [8]. Cette technologie est nécessaire pour refroidir les centres de données, qui sont de plus en plus nombreux.

Il convient de noter ici que, comme dans le cas du minage de crypto-monnaies, les technologies de l'IA ne sont pas une chose en soi, mais doivent être sécurisées en conséquence. Et contribuent à la destruction de l'écologie de la planète (ces technologies ne peuvent donc pas être qualifiées de "vertes"). "La formation d'un seul modèle d'intelligence artificielle - selon une étude publiée en 2019 - pourrait émettre l'équivalent de plus de 284 tonnes de dioxyde de carbone, soit près de cinq fois la durée de vie totale de la voiture américaine moyenne, y compris sa fabrication. Ces émissions devraient augmenter de près de 50 % au cours des cinq prochaines années, alors que la planète continue de se réchauffer, acidifiant les océans, déclenchant des incendies de forêt, provoquant des super-tempêtes et menant des espèces à l'extinction. Il est difficile d'imaginer quelque chose de plus insensé que l'intelligence artificielle telle qu'elle est pratiquée à l'époque actuelle" [9].

Les attaquants utiliseront également l'IA comme une arme pour commettre des fraudes, tromper les gens et diffuser des informations erronées. Le phénomène du deep fake est apparu précisément en raison des capacités de l'IA. En outre, "lorsqu'elle est utilisée dans le contexte d'élections, l'IA peut mettre en péril l'autonomie politique des citoyens et saper la démocratie. Et en tant qu'outil puissant à des fins de surveillance, elle menace de porter atteinte aux droits fondamentaux et aux libertés civiles des individus" [10].

Les chatbots tels que OpenAI ChatGPT et Google Bard posent déjà des problèmes technologiques. Ils se sont révélés vulnérables aux attaques indirectes rapides et pénétrantes. Cela s'explique par le fait que les robots fonctionnent sur la base de grands modèles de langage. Lors d'une expérience menée en février, des chercheurs en sécurité ont fait en sorte qu'un chatbot de Microsoft Bing se comporte comme un robot malveillant. Des instructions cachées sur une page web créée par les chercheurs demandaient au chatbot de demander à la personne qui l'utilisait de fournir les détails de son compte bancaire. Ce type d'attaques, où des informations cachées peuvent amener un système d'intelligence artificielle à se comporter de manière inattendue, n'est qu'un début [11].

Les tentatives de proposer leurs propres modèles de réglementation de l'IA ont bien sûr aussi des raisons politiques. Les principaux acteurs dans ce domaine sont actuellement la Chine, les États-Unis et l'Union européenne. Chacun d'entre eux cherche à façonner l'ordre numérique mondial dans son propre intérêt. Les autres pays peuvent s'adapter à leurs approches, mais aussi développer les leurs, en fonction de leurs préférences, de leurs valeurs et de leurs intérêts.

Dans l'ensemble, il s'agit d'une question plus profonde que la procédure politique habituelle. L'IA étant ancrée dans l'apprentissage automatique et la logique, il est nécessaire de revenir sur cette question.

Il convient de noter que de nombreuses régions du monde manquent de logique au sens habituel du terme, c'est-à-dire de l'école philosophique aristotélicienne qui s'est imposée en Occident. L'Inde et la Chine, ainsi qu'un certain nombre de pays asiatiques, par exemple, ont leur propre conception de l'univers. Par conséquent, la téléologie familière à la culture occidentale peut être en rupture avec les idées cosmologiques d'autres traditions culturelles. En conséquence, le développement de l'IA du point de vue de ces cultures sera basé sur d'autres principes.

Certains tentent de s'engager dans cette voie. Les développeurs d'une entreprise d'Abu Dhabi ont lancé un programme d'IA en arabe [12]. La question n'est pas seulement l'intérêt de pénétrer un marché de plus de 400 millions d'arabophones, mais aussi le couplage langue-conscience. En effet, si nous prenons des bots anglophones, ils copieront la pensée des représentants de l'anglosphère, mais pas du monde entier. Les Émirats veulent probablement aussi préserver l'identité arabe dans le cyberespace. La question est plutôt subtile, mais importante du point de vue de la pensée souveraine (y compris les aspects métaphysiques) et de la technologie.

Après tout, les tentatives des grandes entreprises informatiques américaines, qui dominent le marché mondial, de présenter leurs logiciels, même gratuitement, ne sont rien d'autre que la poursuite de la mondialisation niveleuse, mais à un nouveau niveau - à travers les algorithmes des réseaux sociaux, l'introduction de mots d'argot qui sapent l'authenticité et la diversité d'autres cultures et langues.

61M3rDwh4qL.png

pacman.jpg

La différence entre la pensée, par exemple, des Russes et des Américains (c'est-à-dire les codes de la culture stratégique) peut être observée dans les images des premiers jeux informatiques cultes. Dans notre "Tetris" (créé en URSS en 1984), vous devez tourner les figures qui tombent, c'est-à-dire prendre en compte l'existence environnante (eidos) et former le cosmos. Dans "Pacman" (créé à l'origine au Japon, mais qui a gagné en popularité aux États-Unis), vous devez dévorer des points en vous déplaçant dans un labyrinthe. Ce faisant, il se peut que des fantômes vous attendent pour vous empêcher d'atteindre la fin du labyrinthe. En résumé, cette différence peut être exprimée comme suit : créativité et création contre consumérisme et concurrence agressive.

Alors qu'aux Philippines, l'IA est devenue un outil au service d'une nouvelle forme d'oppression, il existe des exemples dans d'autres régions où les communautés locales défendent farouchement leur souveraineté, en incluant les questions d'apprentissage automatique dans leur culture authentique. En Nouvelle-Zélande, une petite organisation non gouvernementale appelée Te Hiku se consacre à la préservation du patrimoine maori, y compris de sa langue. Lorsque plusieurs entreprises technologiques ont proposé de les aider à traiter leurs données (de nombreuses heures d'enregistrements audio de conversations en langue maorie), elles ont catégoriquement refusé. Ils estiment que leur langue indigène doit rester souveraine et ne pas être déformée et commercialisée, ce qui ne manquera pas de se produire si leurs données sont obtenues par des entreprises technologiques. Cela reviendrait à confier à des spécialistes des données, qui n'ont rien à voir avec la langue, le soin de mettre au point les outils qui façonneront l'avenir de la langue. Ils travaillent avec les universités et sont prêts à aider ceux qui apprennent la langue Māori. Ils concluent des accords en vertu desquels, sous licence, les projets proposés doivent bénéficier directement au peuple Māori, et tout projet créé à partir de données Māori appartient au peuple Māori [13]. Une telle approche fondée sur des principes est également nécessaire en Russie. Google, Microsoft et d'autres technocapitalistes occidentaux ont-ils obtenu le droit d'utiliser la langue russe dans leurs programmes ? Après tout, dans le contexte des récentes tentatives occidentales d'abolir la culture russe en tant que telle, cette question n'est pas seulement rhétorique. Sans parler de l'introduction d'algorithmes qui déforment le sens et la signification des mots russes. Des expériences ont été menées pour saisir la même phrase dans le traducteur de Google, en changeant le nom du pays ou du dirigeant politique, mais le robot a produit une signification complètement opposée, ce qui suggère que certains mots sont codés de telle sorte qu'ils forment délibérément un contexte négatif.

Le philosophe Slavoj Žižek écrit sur le sujet de l'IA dans son style ironique et critique caractéristique. Il rappelle l'essai de 1805 Über die allmähliche Verfertigung der Gedanken beim Reden ("Sur la formation progressive des pensées dans le processus de la parole", publié pour la première fois à titre posthume en 1878), dans lequel le poète allemand Heinrich von Kleist renverse l'idée reçue selon laquelle il ne faut pas ouvrir la bouche pour parler si l'on n'a pas une idée claire de ce que l'on veut dire : "Si une pensée est exprimée de manière vague, il ne s'ensuit pas qu'elle ait été conçue de manière confuse. Au contraire, il est tout à fait possible que les idées exprimées de la manière la plus confuse soient celles qui ont été pensées le plus clairement". Il souligne que la relation entre le langage et la pensée est extraordinairement complexe et qu'il arrive que la vérité émerge de manière inattendue dans le processus d'énonciation. Louis Althusser a identifié un phénomène similaire dans l'interaction entre prix et surprise. Quelqu'un qui saisit soudainement une idée sera surpris de ce qu'il a accompli. Un chatbot pourrait-il faire cela ?

Mais même si les bots peuvent traduire plus ou moins bien les langues et imiter les humains, ils ne pourront pas appréhender l'Humain dans sa profondeur, malgré les capacités des supercalculateurs et des processeurs.

Selon le philosophe Slavoj Žižek, "le problème n'est pas que les chatbots sont stupides, mais qu'ils ne sont pas assez "stupides". Ce n'est pas qu'ils soient naïfs (manquant d'ironie et de réflexivité), c'est qu'ils ne sont pas assez naïfs (manquant lorsque la naïveté masque la perspicacité). Ainsi, le véritable danger n'est pas que les gens confondent un chatbot avec une personne réelle; c'est que la communication avec les chatbots amène les personnes réelles à parler comme des chatbots - en manquant toutes les nuances et l'ironie, en disant de manière obsessionnelle uniquement ce qu'elles pensent vouloir dire" [14].

Ways-of-Being-1200x600-BW.jpg

L'écrivain britannique James Bridle critique l'IA d'un point de vue légèrement différent. Il écrit que "la génération d'images et de textes par l'intelligence artificielle est une pure accumulation primitive: l'expropriation du travail du plus grand nombre pour enrichir et promouvoir quelques entreprises technologiques de la Silicon Valley et leurs propriétaires milliardaires. Ces entreprises ont gagné de l'argent en infiltrant tous les aspects de la vie quotidienne, y compris les domaines les plus personnels et créatifs de nos vies : nos passe-temps secrets, nos conversations privées, nos affinités et nos rêves. Ils ont encerclé notre imagination de la même manière que les propriétaires terriens et les barons voleurs ont encerclé des terres autrefois communes. Ils ont promis que, ce faisant, ils ouvriraient de nouveaux domaines de l'expérience humaine, qu'ils nous donneraient accès à toutes les connaissances humaines et qu'ils créeraient de nouveaux types de liens humains. Au lieu de cela, ils nous revendent nos rêves, reconditionnés en produits de machines, avec la seule promesse qu'ils gagneront encore plus d'argent grâce à la publicité" [15].

Bridle conclut qu'il est activement dangereux de croire que ce type d'IA est véritablement compétent ou significatif. Elle risque d'empoisonner le puits de la pensée collective et notre capacité à penser tout court.

Un autre auteur écrit que "les appareils Big Tech, sous couvert d'autonomie, captent notre attention, l'enchaînent à un écran et la détournent du monde qui nous entoure, la privant de sa vitalité et la préparant à la consommation. Les grandes technologies s'emparent de nos esprits. Nous perdons un monde plein d'âmes rendues belles par la tutelle brute de la réalité. C'est un choix entre les âmes formées et les âmes sans forme. Ainsi, ce qui est en jeu en fin de compte, c'est le type de personnes que nos machines produisent". [16].

Sophia Oakes, spécialiste de l'art, raconte dans sa publication qu'elle a demandé à ChatGPT si l'intelligence artificielle remplacerait les artistes et les gens de l'art. Sa réponse a été la suivante : "L'intelligence artificielle a la capacité de créer des œuvres d'art, et il existe déjà des peintures, de la musique et de la littérature créées par l'IA qui peuvent être difficiles à distinguer de celles créées par les humains. Cependant, il est important de noter que ces œuvres d'art créées par l'intelligence artificielle sont toujours créées avec la participation et l'orientation de l'homme. Si l'intelligence artificielle peut générer des idées nouvelles et uniques, elle n'a pas la capacité de comprendre les émotions, les expériences et le contexte culturel de l'homme de la même manière que lui. Il s'agit là d'aspects cruciaux de l'art, qui lui donnent un sens et trouvent un écho auprès du public. Il est donc peu probable que l'intelligence artificielle remplace complètement l'art et les artistes. Au contraire, l'intelligence artificielle peut être utilisée comme un outil pour assister le processus créatif ou générer de nouvelles idées, mais le produit final nécessitera toujours la perspective, l'interprétation et l'expression uniques d'un artiste humain" [17].

Il s'agit de la réponse générée par le robot sur la base des données qui lui ont été intégrées par les programmeurs. Sophia résume que la créativité est une partie nécessaire de l'expérience humaine : un moyen de réflexion, une archive de la vie et, dans les cas les plus inspirés, un reflet du divin. Et sans l'expérience humaine, l'IA elle-même ne peut pas fonctionner.

Dans Neuromancien, Gibson le souligne à deux reprises. Le premier est un mot, un mot de passe, qui doit être prononcé à un certain moment par le système pour qu'il s'ouvre. Il s'agit certainement d'une référence au Nouveau Testament et à l'idée du Logos, qu'une IA ne peut pas avoir. La seconde est celle des émotions, que l'IA ne possède pas non plus. Il est possible de les simuler, mais il ne s'agira pas de véritables expériences inhérentes à l'être humain. Pour surmonter le dernier obstacle dans le cyberespace, le hacker du roman avait besoin de colère - sans elle, il ne pouvait pas mener à bien sa mission.

Comme beaucoup d'auteurs de science-fiction, Gibson était un prophète de son époque. Mais il y a beaucoup de notes sombres dans ses prophéties. On retrouve probablement la même intuition chez Ilon Musk, qui, bien qu'il ait lui-même investi dans l'IA, affirme que l'IA pourrait détruire la civilisation [18].

Références :

[1] - balkaninsight.com

[2] - wired.com

[3] - wsj.com

[4] - japannews.yomiuri.co.jp

[5] - https://ipis.ir/en/subjectview/722508

[6] - ft.com

[7] - weforum.org

[8] - energy.gov

[9], [15] - theguardian.com

[10] - project-syndicate.org

[11] - wired.co.uk

[12] - ft.com

[13] - wired.co.uk

[14] - project-syndicate.org

[16] - theamericanconservative.com

[17] - countere.com

[18] - cnn.com

mardi, 02 août 2022

Essor et crise de la technoscience du capital

JVPLS science religion_2.png

Essor et crise de la technoscience du capital

Franco Piperno

SOURCE : https://www.machina-deriveapprodi.com/post/ascesa-e-crisi-della-tecnoscienza-del-capitale

Franco_Piperno_2.jpgAvec cette contribution, nous poursuivons notre réflexion sur le parcours "Hyperindustrie" de la colonne Transuenze. Le texte suivant est la transcription, révisée par la rédaction, d'un discours prononcé par Franco Piperno (foto, ci-contre-, physicien académique et intellectuel militant qui ne devrait pas nécessiter d'autre introduction dans ces pages, lors de l'université d'été organisée par Machina à la fin de l'été dernier. Piperno, d'une manière inévitablement synthétique, approfondit certains des nœuds profonds du capitalisme tardif, qui tire sa puissance de l'assujettissement et de la fonctionnalisation de la science à la technologie, dans l'appauvrissement des capacités cognitives sociales et de la connaissance scientifique elle-même. Cependant, le triomphe de la technoscience coïncide avec une crise profonde et manifeste de ses hypothèses épistémologiques mêmes. Les implications de cette réflexion sur la nature du capitalisme hyper-industriel, ou capitalisme technologique comme l'appelle l'auteur en l'opposant au capitalisme "cognitif", et sur nombre des thèmes que nous souhaitons explorer (l'innovation, la qualité du travail, l'ancienne et la nouvelle division sociale du travail, la nécessité d'une critique radicale et non obscurantiste du progrès technologique), nous semblent évidentes, voire incontournables.

* * * *

Jusqu'à la Renaissance, on peut dire, schématiquement, que la science et la technologie ont procédé séparément. La science n'est qu'une des formes de connaissance du monde ancien, la forme théorique, qui a une fin en soi et laisse son objet intact ; la science doit respecter des procédures de production : elle doit se résoudre au dévoilement d'"essences" ; elle doit se déployer à partir de quelques principes fondamentaux en respectant l'ordre logique ; elle doit être à la fois moyen et fin - la science est désintéressée, non invasive, en ce sens qu'elle ne se propose pas de changer le monde mais seulement de le connaître en le contemplant.

Au contraire, la technique (connaissance poïétique, téchne au sens étymologique du terme - poiéin = savoir faire, fabriquer) vise à reproduire, comme le dit Aristote, l'analogue d'un phénomène et sa raison est donc extérieure à elle-même. Une autre façon de dire la même chose est que la technologie n'a pas besoin, une fois réalisée, de connaître les lois sur lesquelles elle repose. Banalement, pour conduire une voiture, il n'est pas nécessaire de connaître la thermodynamique, même si le moteur est basé sur celle-ci. Comme l'a observé Koyré, on peut bâtir des basiliques, construire des pyramides, creuser des canaux, construire des ponts et manier la métallurgie sans posséder de connaissances scientifiques. Le fait que la technologie n'ait pas eu besoin de la science en soi est affirmé dès le début de son histoire : on peut prendre le célèbre exemple d'Archimède, qui a construit des miroirs brûlants pour détruire les navires romains arrêtés à Porto Empedocles. Il est très intéressant de noter que dans le curriculum vitae de sa vie, reconstitué par Archimède lui-même, il n'y a aucune trace des inventions techniques qui l'ont rendu célèbre. Cela s'explique par le fait que la technique ne se voyait pas attribuer une valeur cognitive ; elle avait une valeur pratique, mais ne devait pas être considérée comme faisant partie de la connaissance.

adan-creation-436007.jpg

Les choses ont changé avec la Renaissance. Tout d'abord, à travers la mathématisation de l'hydraulique, nous avons un profond remaniement de la relation entre la technique et la science. Galilée est le premier exemple d'un scientifique qui fabrique son instrument, le télescope, et le vend. En réalité, ce n'est pas lui qui l'a inventé, mais un artisan hollandais (Galilée, alors qu'il était déjà à Padoue, a appris l'invention et a construit son propre télescope, beaucoup plus puissant que celui des Hollandais) qui en avait besoin pour voir les navires arrivant au port et pour effectuer tous les travaux nécessaires au déchargement des marchandises. Une fois que Galilée eut construit son télescope, qui reposait sur l'utilisation de deux lentilles, l'une convergente et l'autre divergente (un détail intéressant puisque Galilée travaillait à Padoue, reliée à Venise où la fabrication de lentilles optiques s'était développée à un degré extraordinaire, Galilée a donc utilisé les connaissances de l'artisan pour ajuster les lentilles), il l'a utilisé pour regarder le ciel. Il s'agissait d'une nouveauté absolue, mais Galilée était également très astucieux, et a en fait vendu le télescope aux armées de toute l'Europe, faisant travailler ses étudiants dans l'arsenal pour apprendre son utilisation. De ce point de vue, Galilée est un scientifique moderne, dans le sens où il pense que la technique et la science doivent aller de pair, et aussi que la première a une implication pratique du point de vue de la vente et du commerce. Avec Galilée, nous avons donc la formation d'un scientifique moderne, qui a une bonne relation avec la technologie.

S127wAViE84GFuUbrtDe6pYw.jpeg

Cette imbrication de la science et de la technologie, qui va vite, atteint son point culminant dans la préparation de la bombe atomique dans les années 1930 et 1940 en Amérique et en Allemagne. Nous avons ici la mise au travail de la science en fonction de la technique. De ce point de vue, le projet Manhattan est un chef-d'œuvre, en raison de sa capacité à réunir des centres de recherche, des universités et l'appareil militaro-industriel, qui se concentrent et coopèrent à la construction de ce dispositif. De cette expérience naîtra une université corporatisée. Les choses sont en fait plus compliquées, puisque les Américains ont continué à avoir, par exemple Princeton ou Harvard, des universités au sens médiéval-traditionnel, c'est-à-dire des universités qui mettaient la connaissance au premier plan et formaient donc des gens instruits, au sens unitaire et non spécialisé du terme. En effet, dans ces universités, aujourd'hui encore, l'aspect humaniste entre dans la formation d'un physicien, ce qui fait de l'étudiant qui termine ces cours une personne ayant une vision globale, et non un idiot spécialisé. Mais la plupart des universités américaines après le projet Manhattan, et en Europe après les années 1960, se sont transformées en usine spécialisée. La "philosophie de la nature" originelle, cultivée dans les universités par de petits groupes de chercheurs, voire par des individus, s'est progressivement déplacée au sein du complexe militaro-industriel, devenant la "Big Science" : une véritable usine d'innovations technologiques caractérisée par des coûts immenses et des dizaines de milliers de chercheurs travaillant dans un régime d'usine de type fordiste. Bien entendu, cela ne signifie pas qu'aucun résultat cognitif remarquable n'est atteint, mais il s'agit - comme pour les accélérateurs de particules - de résultats liés au développement de cette technique spécifique. Par exemple, en astrophysique, les personnes qui travaillent sur ces projets sont des personnes dont la description de poste est absolument spécialisée, dans le sens où chacun travaille sur un fragment du problème général et ne sait pas ce que fait le physicien d'à côté. L'exemple le plus flagrant est celui de Genève, où près de dix mille physiciens travaillent à l'accélérateur de manière fordiste, en ce sens que chacun d'entre eux se spécialise sur un fragment du problème, comme c'était le cas dans l'usine fordiste. Et il est pathétique que, alors que ce dernier a été mis en crise depuis longtemps, dans le monde de la recherche, le modèle se poursuit en ces termes.

Physicien-01-TPO.jpg

Ainsi, d'une part, nous avons le succès de la science moderne, occidentale, liée à la technique, qui a fini par être un modèle hégémonique dans le monde entier ; d'autre part, cela a contribué à la perte de l'autonomie de la science, et donc aussi à la fin de son efficacité pratique. La science est devenue une force productive, comme l'aurait dit Marx ; l'application de la science à la production a pour résultat important de créer continuellement de nouveaux marchés, de nouveaux objets, de nouveaux besoins qui leur sont liés, pensez au téléphone portable. Par rapport au passé, les difficultés de développement d'un marché mondial unifié ont également diminué; traditionnellement, dans l'histoire du capitalisme, il y a toujours eu des zones et des régions "vierges", où le mode de production capitaliste n'était pas encore arrivé et qui avaient donc des possibilités d'expansion. Aujourd'hui, avec l'expansion planétaire des marchés, ces zones sont fortement réduites. L'application systématique de la science à la production permet de construire de nouveaux objets qui s'imposent également parce qu'ils déterminent de nouveaux besoins induits. Ainsi, la science, en Occident, est devenue le propulseur de l'accumulation capitaliste ; cependant, nous devrions parler de technoscience, car c'est l'aspect le plus intéressant.

L'autre élément important est la crise interne de la science, qui découle des limites des mathématiques. Le processus que j'ai mentionné précédemment, qui a débuté avec la Renaissance, a également impliqué, ce qui ne s'est pas produit avec la science ancienne, une "mathématisation" de la science : le langage de la science a progressivement perdu les connotations du sens commun et s'est transformé en une articulation du langage mathématique. On peut penser au calcul infinitésimal ou au calcul tensoriel. Il s'agit de développements scientifiques produits et vérifiés par les mathématiques. Dans les années 30, il est arrivé que Gödel, un logicien et mathématicien juif qui avait échappé à l'Allemagne hitlérienne et avait atterri à Princeton, un intellectuel de grand intérêt, travaillant sur les mathématiques et les abordant donc du point de vue de la logique (la différence entre la logique et les mathématiques est que les secondes sont un aspect et une application de la première), soit arrivé à un résultat qui aurait pu sembler bizarre, mais qui était explosif pour la communauté scientifique utilisant les mathématiques. Un système formel (c'est-à-dire un système dans lequel tous les objets sont formellement définis ; le langage courant, par exemple, n'est pas formel car il utilise des concepts qui ne sont pas définis a priori mais par l'usage) ne peut être à la fois complet et cohérent. Complet signifie que toutes les vérités prouvées par le système peuvent être obtenues grâce aux outils du système ; cohérent signifie qu'il n'y a pas de contradiction entre les choses trouvées dans le système et les propres fondements du système. La conclusion selon laquelle il est impossible d'avoir des mathématiques cohérentes et complètes plonge dans les fondements mêmes de la discipline.

61211306-44664037.png

godel.jpg

Kurt Gödel.

Au fil des siècles, depuis la Renaissance, il y a eu des critiques intellectuelles, je pense tout récemment à Alexandre Koyré, sur l'abstraction des mathématiques par rapport au sens commun et à sa cognition. Mais jamais auparavant une critique aussi radicale n'était venue de l'intérieur de la discipline, remettant en cause la validité des mathématiques pour exprimer les vérités de la théorie physique, par exemple. Ceci, ajouté au fait que certaines des affirmations de Gödel ont eu des contre-expertises expérimentales - c'est-à-dire qu'il a été souligné que les mathématiques utilisées en physique quantique impliquent une contradiction avec le principe connu sous le nom de séparabilité (c'est-à-dire que les objets dans l'espace sont séparés les uns des autres et que tout signal prend du temps pour aller de l'un à l'autre) qui remet en question la vitesse de la lumière comme vitesse maximale dans la nature. J'ai essayé de faire allusion à cette relation entre Gödel et la mécanique quantique, car elle est à l'origine de la critique profonde de la science et de la physique en particulier. Un physicien-épistémologue italien, Rovelli, déclare que le quantique, c'est-à-dire la forme la plus élevée atteinte par la physique, est essentiellement "incompréhensible" : il est impossible à comprendre parce qu'il remet en question des vérités que nous tenons pour acquises, comme la séparation des objets ou le fait que pour qu'une influence d'un objet atteigne un autre objet, il faut du temps. Au contraire, il prouve que la transmission est instantanée et cela, comme je l'ai déjà dit, fait vaciller le bon sens.

CarloRovelli.JPG

Carlo Rovelli.

Nous avons donc une crise de la relation particulière entre la technique et la science établie dans la formation socio-économique du capitalisme, que nous avons appelée technoscience, c'est-à-dire l'autonomisation de la technique par rapport à la science, la seconde ne faisant que suivre les besoins de la première. On peut également le constater, par exemple, lorsqu'on examine les derniers lauréats du prix Nobel de physique, qui sont souvent des ingénieurs ayant construit ces machines accélératrices qui ont un attrait technique mais qui, d'un point de vue cognitif, ne nous disent rien ou presque. On peut résumer cela en disant que jamais autant d'argent n'a été investi dans la recherche par les gouvernements, comme c'est le cas depuis le projet Manhattan, et en même temps les résultats n'ont jamais été aussi médiocres : on peut dire qu'au cours du dernier demi-siècle, rien de vraiment nouveau n'a été découvert d'un point de vue scientifique, alors que d'un point de vue technique, tous les objets qui nous entourent ont un demi-siècle. Il y a cette corruption technique du capitalisme ; malgré une opinion aussi fallacieuse que répandue, il n'y a pas, ni ne peut y avoir, de "capitalisme cognitif" ; il y a plutôt, en gestation, un "capitalisme technologique", un mode de production qui promeut une application furieuse de la science à la valorisation du capital.

D'une part, nous constatons une hyper-présence de la science ; nous la voyons tous les jours, par exemple, dans les discours sur l'intelligence artificielle (IA). Paradoxalement, aujourd'hui, la technologie montre qu'il n'est pas nécessaire d'être intelligent pour faire certaines choses (par exemple, savoir compter ou calculer), car la machine le fait mieux que l'homme, et cela montre que calculer est un jeu de dupes car c'est la répétition du même algorithme. Quand on parle d'IA, il faut souligner les aspects où il n'y a pas d'intelligence, il y a plutôt la découverte de processus mentaux qu'en tant que civilisation occidentale nous avons tenus en haute estime, ce sont de simples projets de répétition que la machine fait mieux que nous parce que la machine sait mieux répéter que nous, mais ce n'est pas une grande vertu. D'autre part, à l'intérieur du discours scientifique élevé et autonome, c'est-à-dire à l'intérieur de cette remise en question de la validité des mathématiques dans la représentation des phénomènes de la nature, il y a une crise épistémologique d'un tout autre genre, en ce qui concerne l'invasion de la technologie dans les mœurs de la société. La critique épistémologique remet en question la validité de la représentation de la nature par le biais du langage mathématique. Il s'agit donc d'une crise fondamentale qui anticipe un changement de direction après des siècles et un retour à l'idée que la science doit se fonder avant tout sur le bon sens, c'est-à-dire que les vérités scientifiques peuvent être dites sans prendre cinq ans d'études mathématiques. Si les vérités scientifiques ne peuvent être transmises par le sens commun, cela signifie qu'il s'agit de vérités à validité partielle, bien qu'il s'agisse d'un problème majeur qu'il serait même long d'esquisser. On peut dire que nous sommes arrivés, d'une part par l'invasion de la technoscience, et d'autre part par la crise des fondements de la physique et de la science de la nature en général, à un tournant où l'on peut s'attendre à la naissance d'un type de science qui utilise aussi les mathématiques, mais qui ne s'écarte pas de la possibilité du bon sens de comprendre les lois sans les mathématiques.

IA.jpg

Le développement scientifique dans les pays capitalistiquement avancés est étroitement lié à l'organisation du travail. Dans la mesure où la recherche scientifique est organisée, planifiée, subventionnée, elle dépend du pouvoir politique et de ses fins. L'alternative à la conception de la science comme un savoir neutre et absolu est de relativiser la rationalité à la société et à l'époque qui l'a produite. Mais nier la neutralité de la science contemporaine n'est pas possible sans proposer une autre rationalité, qui reste cependant une norme vide si elle ne parvient pas à produire une autre science, qui récupère l'autonomie du savoir face au complexe militaro-industriel. S'il y avait un changement dans la qualité du progrès tel qu'il romprait le lien entre la rationalité de la technologie et celle de la division sociale du travail, il y aurait un changement dans le projet scientifique, capable de faire évoluer l'activité de recherche, sans perdre sa qualité rationnelle, vers une expérience sociale entièrement différente.

Franco Piperno

samedi, 18 juin 2022

La santé émotionnelle des générations futures a-t-elle été sacrifiée su l'autel de la pandémie?

1_GettyImages-1281624839.jpg

La santé émotionnelle des générations futures a-t-elle été sacrifiée su l'autel de la pandémie?

SOURCE : https://www.theunconditionalblog.com/la-salute-emotiva-delle-generazioni-future-e-stata-sacrificata-sullaltare-del-covid/

Je n'apporte rien de nouveau en publiant la traduction de cet article paru hier sur HART, mais je le fais parce que je crois qu'il est important de maintenir l'attention sur les très graves dommages subis par nos enfants au cours de cette pandémie et avec l'espoir, je ne sais pas si un tel espoir est bien de mise vu les décideurs actuels, qu'il y ait un changement de stratégie. Je tiens également à souligner que les mesures prises en Grande-Bretagne (dont traite l'article) étaient très différentes et beaucoup plus légères que celles prises en Italie.

(Prof. Maurizio Matteoli)

Le 4 avril 2022, l'Ofsted (Office for Standards in Education, Children's Services and Skills) a publié son dernier rapport sur les implications de la pandémie sur les enfants, en se concentrant sur les praticiens de la petite enfance. Cela donne une lecture intimidante.

La santé physique des enfants a été la moins affectée par le Covid, mais ce qui les a le plus blessés, c'est la réaction des travailleurs actifs dans le domaine de la petite enfance. Des politiques gouvernementales très discutables, mises en œuvre en théorie pour "arrêter la propagation", ont porté préjudice aux êtres les plus vulnérables de notre société. La plupart des gens étaient tellement terrifiés qu'ils ont adopté ces procédures sans réfléchir et ont transféré leurs angoisses sur les jeunes enfants. Au cours de la période de panique, les risques pour la santé émotionnelle ont été remplacés par les risques pour la santé physique dans l'esprit de beaucoup ; cela reflétait l'attention exclusive du gouvernement, des services de santé et des médias sur les taux de mortalité. Les enfants ont un taux de survie de 99,995 %, mais leur développement personnel, social et émotionnel a été considérablement compromis par ceux qui étaient censés les protéger. Ils ont suivi des directives fondées sur une science douteuse, fomentées par la peur et sans esprit critique apparent.

Ofsted Banner 1.jpg

Le rapport de l'Ofsted est une lecture intimidante. Les personnes travaillant dans le domaine de la santé, des soins aux enfants, de l'éducation, du développement de l'enfant et de la traumatologie devraient savoir, de par leur formation, à quel point les premières années de la vie sont cruciales pour le développement du cerveau. Pourtant, des pratiques profondément néfastes continuent d'être adoptées pour les jeunes enfants. Masques faciaux, confinements et barrages de toutes sortes, éloignement et isolement social, messages de peur constants, services de garde d'enfants incohérents et irréguliers, interdiction aux parents d'entrer dans les locaux pour déposer et récupérer leurs enfants. Cette liste est l'antithèse de ce dont les enfants ont besoin pour se développer en tant que membres sains, heureux et sûrs de la société.

22315583_web1_schoolseason-jsj-200722_1.jpg

Il est extrêmement décourageant de voir des masques faciaux portés autour des nourrissons et des jeunes enfants. Le préjudice résultant pour nos enfants, tel que décrit dans le rapport de l'Ofsted, était prévisible :

"Les enfants ont une confiance limitée ou nulle en leur vocabulaire. En outre, certains enfants avaient du mal à répondre aux expressions faciales de base. Les praticiens ont signalé que les enfants étaient particulièrement anxieux et peu habitués à voir des visages différents et beaucoup ont noté des retards dans les processus de parole et de langage des enfants."

La capacité de voir des visages entiers est cruciale pour le bon développement du cerveau des enfants. Les expressions invisibles sont très désorientantes et déroutantes. Indubitablement, cela aura souvent porté atteinte de manière significative au processus de création de liens et d'attachement entre les parents et leurs enfants, entraînant potentiellement de graves effets négatifs sur la santé mentale de ces derniers, voire des deux.

"Certains praticiens continuent de constater des retards dans le développement physique des enfants, avec des retards dans l'apprentissage du ramper et de la marche. Certains ont rapporté que les enfants avaient régressé dans leur autonomie et leur capacité à prendre soin d'eux-mêmes. En outre, un opérateur a fait remarquer que les enfants semblaient avoir passé plus de temps sur les écrans et avaient commencé à parler avec des accents et des voix qui ressemblaient au matériel qu'ils regardaient."

deJqREuikPutPfefhllE.jpg

Presque quotidiennement, de nouveaux rapports et des données choquantes sont publiés, soulignant les dommages supplémentaires causés à la prochaine génération par la pandémie de peur qui dure depuis deux ans. Il s'agit notamment de :

    - Les taux d'augmentation de l'IMC (indice de masse corporelle) ont presque doublé, avec un taux d'évolution 2,5 fois plus élevé qu'avant la pandémie pour les enfants âgés de 6 à 11 ans.

    - Une baisse de près de 20 points de ce qui devrait être plus ou moins équivalent au QI, réalisée en seulement 2 ans, pour des enfants âgés de 3 mois à 3 ans. Les enfants de cet âge apprennent des choses qu'ils ne pourront pas apprendre plus tard, comme la reconnaissance précoce du langage, aidée par l'observation et l'interaction avec des personnes qui montrent leur visage complet (non caché derrière un masque).

    - Les enfants nés pendant la pandémie ont souffert de retards de développement et peuvent être retardés par le niveau de stress de leur mère. Des chercheurs de l'Université de Columbia aux États-Unis affirment que les confinements, le travail et les problèmes de santé peuvent affecter le développement des nourrissons.

    - Selon une étude de l'UCL, 60.000 élèves du secondaire de plus en Angleterre ont sombré dans la dépression clinique.

    - Les enfants confinés sont incapables de parler ou de jouer correctement, selon les données du Royal College of Speech and Language Therapists. Les évaluations montrent qu'un enfant sur cinq ne répond pas aux normes à l'âge de 2 ans et demi. Ces pourcentages interviennent alors que l'on prévient que les diagnostics ont doublé depuis la pandémie et que les thérapeutes sont incapables de suivre le rythme.

    - Les dentistes ont prévenu que 20.000 enfants ayant des dents cariées ont perdu la possibilité de subir des opérations pour améliorer leur santé, le nombre d'extractions ayant diminué de moitié au cours de la première année de la pandémie.

    - Les services de santé mentale pour enfants en Angleterre sont surchargés au point que les jeunes attendent jusqu'à deux ans pour être traités. Et ce, après une décennie au cours de laquelle le gouvernement a promis que les maladies mentales bénéficieraient d'un "traitement égal" à celui des maladies physiques.

Il est honteux que les thérapeutes tenant compte des traumatismes ne se soient pas exprimés - si tant est qu'ils le fassent - pour protéger la précieuse vie émotionnelle et le développement délicat du cerveau des enfants. De même, il est remarquable que les adultes chargés de les soigner et de les protéger aient permis que les enfants soient traités de la sorte. Le fait que les parents aient généralement consenti est un témoignage supplémentaire du pouvoir de la peur pour influencer le comportement.

Dans un article que j'ai écrit pour HART en octobre 2021, intitulé "Can a trauma-informed approach and adherence to Covid-19 guidelines ethically co-exist ?", j'ai longuement documenté comment la réponse à la pandémie entravera profondément le développement émotionnel des enfants et que les professionnels et les soignants qui sont "trauma-informed" devaient reconnaître cela et remettre en question les politiques aberrantes. Malheureusement, cette prophétie d'un préjudice généralisé pour nos enfants était exacte. S'il est peut-être trop tard pour les personnes déjà touchées, il n'est pas trop tard pour veiller à ce que ces politiques ne soient plus jamais infligées à nos enfants. Utiliser les jeunes comme boucliers humains pour protéger les adultes de cette manière est antisocial, abusif et non scientifique ; cela ne doit plus jamais se reproduire.

Article original sur HART - Traduction par le Dr Maurizio Matteoli

dimanche, 13 décembre 2020

Immunité physiologique et immunité sociale

peterschreiber-media-1920-shutterstock.jpg

Immunité physiologique et immunité sociale

Laurent Ozon

Les études de biologie et d’immunologie révèlent la centralité de la notion d’immunité dans le paysage médical contemporain sous l’effet de l’augmentation foudroyante des pathologies immunitaires. D’autres études de psychologie évolutionnistes révèlent simultanément que la notion d’immunité pourrait, sans risque d’abus, être la clé de lecture des marqueurs politiques et idéologiques dans les sociétés occidentales. A l’heure des épidémies faut-il s’attendre à un retour brutal des stress de conservation ?

Le soi, le non-soi et le soi-modifié

Selon le Larousse, l’immunité est définie comme « l’ensemble des mécanismes de défense d’un organisme contre les éléments étrangers à l’organisme ». Les immunologistes la considèrent comme un mécanisme de conservation : « la physiologie du système immunitaire est conservatrice et auto-réactive. Et les pathologies dérivent des défaillances de ces mécanismes de conservation ». Le système immunitaire repose donc sur la capacité initiale à reconnaître le soi, le non-soi et le soi-modifié, c’est à dire à identifier les corps étrangers ou devenus étrangers (soi modifié) puis ensuite, à identifier ceux qui doivent être combattus, détruits ou compensés. Les pathologies immunitaires peuvent être classées en trois catégories : les pathologies liées à une immunité déficiente, celles liées à une immunité exubérante et les pathologies dites auto-immunes. Les premières relèvent d’un affaiblissement et parfois d’une disparition totale du système immunitaire où l’organisme ne se défend plus. Les secondes, dites exubérantes, désignent des réponses excessives du système immunitaire (la plupart des mécanismes allergiques) et les troisièmes, dites auto-immunes, s’attaquent aux constituants normaux de l’organisme en ignorant ses pathogènes par le fait que le système immunitaire ne reconnaît plus le soi du non-soi.

Un regard immunologique sur les sociétés humaines

Diabète de type 1, Sclérose en plaques, maladie de Crohn, Lupus, polyarthrite rhumatoïde, cancer et maladies cardiovasculaires, dépression, SIDA, mais aussi épidémie de Coronavirus, l’explosion des maladies liées à des pathologies immunitaires a placé la notion d’immunité au cœur des problématiques médicales actuelles.

humain-systeme-immunitaire-representation-artistique.jpg

En énonçant ces généralités, on comprend pourquoi de nombreux intellectuels, critiques sociaux ou scientifiques ont été tenté d’extrapoler en définissant les mécanismes et les contours d’une immunologie sociale, vers un regard immunologique porté sur la société humaine.

Les mécanismes immunitaires sociaux suppléent aux mécanismes immunitaires individuels.

On a tout d’abord parlé d’« immunité sociale » pour désigner les mécanismes sociaux par lesquels une collectivité établit une immunité collective. Nathalie Stroeymeyt, Sylvia Cremer ou Janine Kievits, ont ainsi étudié les mécanismes d’immunité sociale chez les insectes sociaux, à savoir la résistance des colonies aux pathogènes grâce à des mécanismes sociaux (organisation, relation, etc.). Des recherches qui ont révélé les liens entre la faible immunité individuelle et la forte immunité sociale des colonies : « l’abeille a moins de gènes de défense, situation probablement liée au fait qu’elle dispose d’autres moyens pour lutter contre les microbes et parasites. Car l’abeille a d’autres armes : elle vit en colonies. ».

Les mécanismes immunitaires sociaux viendraient ainsi suppléer aux mécanismes immunitaires individuels. D’autres chercheurs (par exemple Simon Babyan de l’Université d’Edimbourg) ont étendu cette notion d’immunité sociale à toutes les espèces sociales, rappelant que dans les espèces sociales, et bien évidemment dans les sociétés humaines , « la combinaison du contrôle comportemental de l'infection - par exemple, la ségrégation des malades, l'élimination des morts, l'évaluation de la qualité des aliments et de l'eau - et l'agrégation des individus immunisés, peuvent protéger les membres non immunisés contre la maladie ». A ce stade, l’on évoque la façon dont un groupe social se dote de mécanismes immunitaires collectifs qui viennent compléter les défenses individuelles de ses membres face à des agressions d’agents pathogènes extérieurs.

De l’immunité sociale à la sociabilité immunitaire

C’est à ce stade que les recherches de Joshua Tyburg, (professeur agrégé de psychologie enseignant à l’Université Libre d’Amsterdam) permettent d’approfondir et surtout d’élargir l’approche immunitaire pour comprendre les sociétés. Il s’agit de passer de l’étude de l’immunité sociale (stratégies sociales à fonctions immunitaires) à une socialité immunitaire, c’est à dire à une réinterprétation des stratégies et comportements sociaux d’un point de vue immunitaire.

imagesimm.jpg

Joshua Tyburg, cherche à expliquer les bases du comportement humain conservateur en remontant aux sources du dégout comme transposition de comportements d’évitements anti- pathogènes, afin de permettre à la société de passer du «rejet à l’acceptation ». Il mobilise ainsi dans ses recherches les études démontrant que la perception du dégoût est à proportion plus forte chez les individus aux opinions les plus conservatrices sur le plan des mœurs, des valeurs et en matière politique.

Tyburg cherche en effet à mieux comprendre les comportements humains et en particulier les stratégies d’accouplement, la moralité et la perception des risques pathogènes en vue de faciliter selon lui le passage « du rejet à l’acceptation ». Sa méthodologie de travail le porte à étudier les causes et manifestations du dégoût (répulsion puis évitement) pathogène, sexuel et moral. Des manifestations dont les bases génétiques ont été largement prouvées par une étude de l’American Psychologist Association en 2015. Cette étude prétendait, elle aussi, contribuer à mieux comprendre les nombreux comportements normaux auxquels le dégoût est lié, y compris les préférences de partenaire les idéologies politiques et l'évitement social.

Dégoût et immunité

Les recherches de Joshua Tyburg comme celles Debra Lieberman (Département de psychologie de l’Université de Miami) ont permis d’avancer sur plusieurs constats. D’abord, la perception de dégoût peut être considérée comme une manifestation immunitaire, au moins dans la mesure où le dégoût des pathogènes en particulier, influence naturellement l'évitement des contacts mais aussi le choix des aliments, la coopération sociale et le choix du partenaire et donc les orientations sexuelles (Current Opinion in Psychology 2016, 6/7/11).

Depositphotos_62586349_xl-2015-1600x1068.jpg

Ces manifestations de rejet ne sont pas anodines puisque plusieurs scientifiques du XXe et du XXIe siècle ont noté que de nombreux objets qui provoquent le dégoût contenaient objectivement des agents pathogènes (Drs. Curtis, Aunger et Rabie du Département de Biologie de la Royal Society, 2004), que la sensibilité et la perception de dégoût diminuait avec l’âge (comme l’efficacité du système immunitaire), que le sentiment de dégoût est un facteur central dans les apprentissages des normes, de valeur et de culture (P. Rozin, A. Fallon, American Psychological Association, 1987). Ainsi, des études ont démontré que les femmes avaient des manifestations de dégoût et des perceptions xénophobes nettement plus accentuées en période d’ovulation et plus largement durant leur âge de reproduction. Je n’ai trouvé aucune étude symétrique concernant les modifications hormonales affectant les capacités de reproduction, leurs éventuels liens avec une diminution de l’efficacité immunitaire, l’atténuation des manifestations de dégoût ou la xénophobie.

Les liens entre stress immunitaire et conservatisme

Enfin, et logiquement, Tyburg, dans une étude publiée en 2015 par Evolution and Human Behavior s’est penché à nouveau sur la triangulaire dégoût (répulsion et évitement), stratégies sexuelles (fréquence des rapports, choix des partenaires, etc.) et système de valeurs (plutôt progressiste ou plutôt conservateur). Sans surprise, les résultats confirmèrent que le stress contre le parasitisme et la sensibilité au dégoût individuel (réaction à des images ou situations « dégoûtantes ») se manifestent plus fortement chez les individus adhérents à des normes traditionnelles ».

4e0451b62470520976961db3e9c773f7-1590675098.jpg

Il existe donc bien une relation empirique entre la réaction immunitaire de dégoût et les options idéologiques dites « conservatrices » recensées ainsi: rejet de l’immigration, rejet de l’homosexualité, moindre confiance sociale élargie, mais aussi préférence pour des formes politiques moins éloignées et moins nombreuses, valorisation de la méritocratie plutôt qu’aspiration à l’égalité, intérêt pour les causes écologiques de proximité plutôt que mondiales, préférence pour la culture et les coutumes traditionnelles plutôt que l’expérimentation sociale, favoritisme intra-groupe, etc.

Tyburg note par ailleurs (Evolution and Human Behavior, novembre 2015, Vol. 36, n°6, Pages 489–497), qu’il convient de distinguer le conservatisme social (promotion d'un changement favorisant des traditions culturelles de longue date) d’un « conformisme social » ou d’une acceptation ou volonté de protection des acquis (salaire minimum ou prise en charge des frais de santé ) qui, eux, ne font pas apparaître chez leurs partisans, de corrélations particulières avec des manifestations immunitaires plus marquées de dégoût. De là à confirmer que le conservatisme idéologique est une manifestation immunitaire il n’y a qu’un pas, pas que Tyburg ne franchit évidemment pas.

Récapitulons : premièrement, les individus disposent d’un système immunitaire permettant à leur organisme de résister aux agressions extérieures et ce système fonctionne sur la capacité initiale à distinguer le soi, le non-soi et le soi-modifié. C’est l’altération de cette capacité de reconnaissance, fondamentalement conservatrice, qui engendre les pathologies immunitaires au nombre desquelles on compte la plupart des maladies dites génétiques ou de civilisation de notre époque. Deuxièmement, les groupes sociaux développent des capacités immunitaires c’est-à-dire des règles de communication et d’organisation qui assurent la prise en charge d’une part de ces fonctions immunitaires et, de ce fait, enlèvent à l’individu une partie de ses facultés immunitaires par transfert de compétences ou d’aptitudes. Troisièmement, les manifestations de dégoût par répulsion ou évitement sont largement corrélées à des manifestations idéologiques de dégoût ou d’évitement sexuels, moraux et sociaux. Quatrièmement, l’objet de ces manifestations de dégoût est lié à des pratiques factuellement à risque sur le plan pathogène, et par transfert, lié à des changements d’état importants sur le plan sociétal, social, sanitaire, axiologique et politique. Enfin, les chercheurs qui tentent d’analyser les phénomènes de « rejets » dans l’optique d’une amélioration de l’ingénierie sociale pour favoriser « l’acceptation » de ces changements, identifient un mécanisme immunitaire qui sous-tend les marqueurs idéologiques conservateurs.

Stress et révolutions « conservatrices »

De fait, l’immunité devient un concept étendu à la psychologie sociale et donc à l’étude des marqueurs idéologiques et politiques de notre époque. A l’heure de la crise du coronavirus, de l’immigration de masse, les conservateurs sont-ils les agents d’une réaction immunitaire qui s’ignore ? Si oui, la question d’une lecture « immunitaire » des marqueurs idéologiques dits « progressistes » serait, elle aussi, sans aucun doute utile.

60703.jpg

Pour ne pas conclure, et sans avoir décrit précisément les mécanismes de compensation sociale des stress immunitaires, il serait utile d’évaluer l’impact de la pandémie du Covid19, de ses conséquences sur la confiance des populations à l’égard de la prise en charge immunitaire du groupe. Utile aussi de mesurer ses effets sur la diffusion des marqueurs idéologiques conservateurs dans la population, pour mieux comprendre ces mécanismes à l’avenir. Car si les groupes sociaux développent bien des capacités immunitaires qui délestent les individus d'une partie de leurs facultés immunitaires, une prise en charge insatisfaisante de ces fonctions par les collectivités, pourraient bien favoriser des stress durs qui alimentent la diffusion des marqueurs idéologiques conservateurs. Des marqueurs qui précèdent des révolutions, au fond toujours "conservatrices" dans leurs aspirations.

Laurent Ozon

laurent.ozon@me.com

mardi, 30 juin 2020

Biopolitics: What's behind?

copertina.jpg

Biopolitics: What's behind?

 
 
Manuel Ochsenreiter (Germany) and Mateusz Piskorski (Poland) are discussing in this episode the risks, chances and dangers of so-called "biopolitics" and transhumanism. What is the geopolitical impact? How will different geopolitical spaces, nations, cultures, societies and religions deal with it? Stay safe!
 
Contact: DieGutenMenschen@protonmail.com
 

00:10 Publié dans Actualité, Science, Sciences | Lien permanent | Commentaires (0) | Tags : sciences, biopolitique, actualité | |  del.icio.us | | Digg! Digg |  Facebook

mercredi, 03 juin 2020

Le cloaque comportemental - La dégradation du matériel humain

RD3FP4TYSE5GHO7L7TCVFHWWJM.jpg

Le cloaque comportemental

La dégradation du matériel humain (avec Ralf)

 
Il y a 50 ans, John B. Calhoun, éthologue américain, créait le paradis des rats. Une authentique utopie. Un luxueux hangar climatisé, de multiples nids douillets, de l'eau et de la nourriture à volonté, évidemment aucun prédateur. Dans cet environnement idéal, les rats vont prospérer et se reproduire sans entrave. La population va doubler tous les 2 mois. De 8 rats au début de l'expérience, la colonie, à son apex, atteindra jusqu'à 2200 individus, tous atteints de pathologies psychiatriques diverses et variées. L'utopie va peu à peu se transformer en mégalopole infernale, qui finira par s'autodétruire : ultra-violence, pansexualisme, harcèlement des femelles, cannibalisme. Un véritable chaos à ciel ouvert. Cette expérience est connue sous le nom de "cloaque comportemental". Elle aura une postérité colossale dans les domaines de la psychologie, de la sociologie, de l'architecture, de l'urbanisme et de l'ingénierie sociale.
 
 
TIPEEE DE RALF : https://fr.tipeee.com/ralf

lundi, 27 janvier 2020

Quelles sont les dix avancées scientifiques et technologiques qui ont marqué 2019?

659ca9cb1a_81627_physique-chimie.jpg

Quelles sont les dix avancées scientifiques et technologiques qui ont marqué 2019?

Nous rééditons ici, pour accroître sa diffusion, un éditorial sur ce thème scientifique du sénateur honoraire René Trégouët, repris du site http://www.europesolidaire.eu . Les intertitres sont de ce site.

https://www.rtflash.fr/quelles-sont-dix-avancees-scientifiques-et-technologiques-qui-ont-marque-2019/article

Cette semaine, il m'apparaît intéressant, comme je le fais chaque début d'année, de parcourir la presse scientifique française et anglo-saxonne pour essayer d'en extraire les grandes avancées scientifiques qui ont marqué l'année 2019. Après avoir consulté de nombreuses publications, parmi lesquels « La Recherche », mais également la revue du MIT, ou encore « Technowise, « The Scientist » ou « Science News », nous avons finalement retenu dix découvertes ou ruptures technologiques, mais également sociétales, qui nous paraissent particulièrement importantes.

Photo d'un trou noir

La première découverte qui a marqué l'année 2019, et a été largement reprise par l'ensemble de la presse scientifique internationale, est la première photographie jamais réalisée d'un trou noir.  Celui-ci est un véritable monstre, situé au cœur de la galaxie Messier 87, à 55 millions d'années-lumière de notre Terre. Sa taille défie l'entendement, puisqu'il est 6,5 milliards de fois plus massif que notre étoile, le soleil. Quant à son diamètre, il atteint les 48 milliards de km, soit neuf fois celui de l'orbite de Pluton... (Voir NASA).

trou-noir-m87-1.jpg

Pour parvenir à réaliser ce premier cliché d'un trou noir, les scientifiques ont dû déployer des trésors d'ingéniosité et ont réussi à surmonter d'immenses difficultés techniques. Ils ont notamment dû synchroniser avec une extrême précision et combiner une multitude de signaux reçus simultanément par plusieurs instruments situés dans différentes régions du globe.

Au terme de deux années de travail, d'analyse et de traitement informatique de quantités gigantesques de données, astrophysiciens et informaticiens ont finalement réussi à produire cette première photo historique d'un trou noir, un simple cercle orangé, sur fond noir, qui ne semble pas très spectaculaire, mais qui ne représente pas moins une avancée décisive dans la connaissance de l'Univers. Cette première image d'un trou noir confirme en effet définitivement l'existence de ces objets tout à fait fascinants dont la réalité a été mise en doute pendant des décennies par de nombreux scientifiques. Cette photographie historique confirme également la théorie de la relativité générale d'Albert Einstein qui explique le rôle fondamental de la force gravitationnelle (l'une des quatre interactions fondamentales de l'Univers) dans la structure de l'espace-temps et l'évolution du Cosmos.

Prédécesseurs de l'homo sapiens

Les deux découvertes suivantes que nous avons retenues concernent la connaissance de nos origines et de nos lointains ancêtres. On savait déjà, grâce à de récents travaux d'analyse de l'ADN de spécimens fossiles d'Homo sapiens, d'Homme de Neandertal et d'Homme de Denisova, que ce dernier et l'Homme de Neandertal avaient un ancêtre commun remontant à environ 450 000 ans, et que tous deux partageaient avec Homo sapiens un ancêtre commun remontant à environ 660 000 ans.

De nouvelles découvertes faites en 2019 confirment qu'il y a bien eu croisement et coexistence entre ces Dénisoviens, les Neandertal et les Sapiens. Certaines des populations d'Asie et d'Océanie en portent d'ailleurs encore la trace puisqu'on trouve, dans leur génome, des traces tout à fait identifiables de gènes de Dénisoviens. On sait en outre aujourd'hui que ce cousin de Neandertal et d'Homo sapiens a colonisé une large partie de l'Asie, qu'il s'est alors divisé entre au moins trois groupes distincts d'hominidés et qu'il s'est notamment adapté, bien avant Sapiens, à la vie à très haute altitude dans les montagnes de l'Himalaya (Voir Nature).

d7a8cb529e_49619_homo-heidelbergensis-tim-evanson-flickr-cc-20.jpg

Une autre découverte majeure, révélée également en 2019 par une étude publiée par le paléoanthropologue Florent Détroit (Muséum d'Histoire naturelle de Paris), confirme par ailleurs l'existence d'une nouvelle espèce humaine, Homo luzonenesis, qui vivait sur l'île de Luçon aux Philippines, il y 60 000 ans, ce qui porte à au moins cinq groupes les hominiens qui peuplaient déjà la Terre il y a 100 000 ans : les Homo Sapiens, en Afrique, les Neandertal en Europe, les Denisoviens en Asie, les Hommes de florès, en Indonésie et enfin les hommes de Luçon aux Philippines.

Avec ses caractéristiques anatomiques et morphologiques tout à fait particulières, mélange surprenant de traits archaïques et plus modernes, cet homme de Luçon était probablement à la fois bipède et arboricole. Ces découvertes remarquables concernant les Denisoviens et l'homme de Luçon bouleversent le schéma de l'évolution humaine et montrent clairement que celle-ci n'a pas été linéaire mais arborescente et foisonnante.

Sciences de la vie

Trois découvertes suivantes s'inscrivent dans le champ des sciences de la vie, de la médecine et des technologies de la santé. La première concerne la fascinante et subtile connexion entre les cellules cancéreuses et le système nerveux ; viennent ensuite les premières cultures de cerveau humain et l'arrivée des premières pilules ingérables téléguidées.

Aussi étrange que cela puisse paraître, une équipe de recherches françaises, du laboratoire cancer environnement (Inserm-CEA) à Fontenay-aux-Roses, a découvert l'an dernier que le cerveau produit des cellules-souches neuronales qui, franchissant la barrière hématoencéphalique – l'enveloppe du cerveau pourtant réputée infranchissable – sont transportées par le sang et vont aller infiltrer des tumeurs cancéreuses en formation, notamment dans la prostate (voir article RT Flash).

Cette équipe, dirigée par Claire Magnon, a travaillé sur les tumeurs de 52 patients atteints de cancer de la prostate. Ces recherches ont permis de découvrir une nouvelle catégorie de cellules, appelées « cellules progénitrices neuronales », que l'on trouve en principe uniquement au cours du développement embryonnaire, dans deux aires du cerveau, l'hippocampe et la zone sous-ventriculaire. Ce très beau travail scientifique a également permis de montrer qu'il existait une relation très forte entre le nombre de ces « cellules vagabondes » et l'agressivité du cancer étudié.

Cette découverte fondamentale est extrêmement importante car elle ouvre une voie thérapeutique tout à fait nouvelle pour combattre les cancers. De récentes observations cliniques ont notamment déjà pu montrer le meilleur taux de survie chez certains patients atteints de cancer de la prostate qui prenaient régulièrement des bêtabloquants (substances qui bloquent les récepteurs de l'adrénaline).

88710563-3d-illustration-de-modèle-molécule-la-science-médicale-ou-de-fond-avec-des-molécules-et-des-atomes-.jpg

Il faut également souligner que l'observation des fibres nerveuses à l'intérieur des tumeurs s'est étendue à d'autres types de cancer : côlon, pancréas, mélanome. Plusieurs essais cliniques sont d'ailleurs actuellement en cours aux États-Unis pour évaluer l'efficacité de bêtabloquants sur différentes tumeurs. L'idée est qu'en bloquant les récepteurs adrénaline et en empêchant l'adrénaline d'accéder aux cellules du trauma, il est peut-être possible d'entraver le développement de la tumeur.

Une autre avancée assez extraordinaire de sciences de la vie est celle qui concerne la production en laboratoire des premiers organoïdes de cerveaux. Ces mini cerveaux ont été créés par une équipe de recherche de l'Université de Californie-San Diego et, contre toute attente, ces organoïdes ont produit des neurones qui se sont peu à peu synchronisés sur différentes fréquences, comme le fait le cerveau d'un embryon, jusqu'au huitième mois de développement. Bien que ces organoïdes demeurent des structures beaucoup plus simples de cerveau humain, leur utilisation ouvre d'immenses perspectives, tant pour progresser dans la connaissance fondamentale du fonctionnement cérébral que pour expérimenter de nouveaux traitements contre les nombreuses pathologies qui peuvent affecter le cerveau, qu'il s'agisse de troubles, tels que l'autisme, ou de maladies neurodégénératives comme Alzheimer ou Parkinson (Voir Science Direct).

Dernière avancée retenue dans le domaine médical, la pilule intelligente et téléguidée, capable de réaliser des prélèvements à l'intérieur du corps, de filmer en haute définition l'intérieur des organes et, dans certains cas, d'acheminer et de délivrer « sur site » des médicaments, de manière programmable.

Depuis une dizaine d'années, la capsule endoscopique a pris une place majeure dans l'arsenal du diagnostic et ses moyens d'explorations de l'intestin grêle ont révolutionné les pratiques médicales. Il est aujourd'hui possible, à l'aide de ces petites capsules, d'explorer avec une grande précision l'estomac, le côlon ou l'intestin grêle, afin d'y déceler d'éventuelles lésions.

Aux Etats-Unis, Guillermo Tearney, pathologiste et ingénieur au Massachusetts General Hospital (MGH) à Boston, développe de petites pilules ingérables qui peuvent être utilisées pour inspecter l'intestin à la recherche de signes de dysfonctionnement entérique environnemental (EED) et même obtenir des biopsies tissulaires. Ce nouvel outil s'avère particulièrement efficace et précieux dans les pays en voie de développement où il permet de réaliser des examens et investigations fiables, rapides et peu onéreuses pour prendre en charge de manière précoce la dysfonction entérique de l'environnement, un trouble de l'inflammation intestinale très répandue dans les pays pauvres, notamment en Asie...

L'an dernier, une équipe d'ingénieurs du MIT a présenté un nouveau type de capsule ingérable, fabriqué en impression 3D et conçu pour demeurer un mois dans l'estomac avant de se dissoudre. Au cours de ces quatre semaines cette capsule transmet par Bluetooth une multitude d'informations. Cette capsule peut également délivrer plusieurs médicaments à libération prolongée et traiter de manière précise certaines infections.

Dans les années à venir, ces pilules et capsules intelligentes et téléguidées vont encore progresser en miniaturisation, en capacité de calcul et d'analyse et en autonomie. À terme, ces outils extraordinaires deviendront des auxiliaires indispensables en matière d'investigation et de soins et seront capables d'explorer la totalité du corps humain avec une précision inégalée.

Technologies numériques

Nous quittons à présent les sciences de la vie pour arriver dans le domaine des technologies numériques. Ce champ de recherche a fait l'objet l'an dernier d'une avancée qui n'a pas forcément eu la couverture médiatique qu'elle méritait, sans doute parce qu'il est assez difficile de l'expliquer simplement et d'en mesurer les immenses retombées. Il s'agit de l'annonce faite par Google, en octobre dernier, concernant la maîtrise du premier niveau de « suprématie quantique », un stade que les spécialistes appellent NISQ (Technologies Quantiques Bruitées d'Echelle Intermédiaire), qui désigne des calculateurs quantiques comptant 50 à 100 qubits, dépourvues de systèmes de correction d'erreur les mettant à l'abri du bruit. Bien qu'IBM conteste cette notion de "suprématie quantique" qui aurait été atteinte par Google, nous devons reconnaître qu'un pas important a été franchi.

000041410_600x400_c.jpg

Ces machines, bien qu'elles ne soient pas encore capables d'effectuer tous les types de calculs très variés que sait faire un ordinateur classique, sont déjà en mesure, pour certains types de calculs particuliers, d'atteindre des performances inimaginables, en comparaison avec nos ordinateurs binaires. En l'occurrence, Google, grâce à sa puce quantique Sycamore, qui compte 53 qubits, est parvenu à réaliser en seulement trois minutes et demi un calcul très particulier (tâches l'échantillonnage des circuits quantiques aléatoire ou RCS) qui aurait pris plus de 10 000 ans en utilisant les plus gros supercalculateurs actuels, selon les allégations de Google.

La prochaine étape, qui devrait prendre entre 5 et 10 ans, sera celle de la mise au point d'un ordinateur quantique universel, entièrement opérationnel et capable de réaliser tous les types d'opérations. Il faudra pour cela concevoir des machines qui réunissent environ 1000 qbits, un objectif que les scientifiques considèrent à présent comme atteignable. Personne aujourd'hui ne peut prévoir ce que de telles machines, qui auront une puissance de calcul plusieurs millions de fois supérieures à celles de nos ordinateurs actuels, seront capables de faire. Mais il est certain que ces ordinateurs quantiques révolutionneront l'ensemble des disciplines scientifiques et bouleverseront nos sociétés.

L'autre avancée retenue en matière de technologies numériques est beaucoup moins réjouissante que la précédente : il s'agit de la technologie « Deepfake ». Ce redoutable outil, qui utilise toutes les ressources de l'intelligence artificielle, permet à présent de produire ou de modifier de manière quasi parfaite de fausses séquences vidéo, afin d'effacer ou de modifier certaines réalités ou certains faits gênants, ou, au contraire, d'inventer de toutes pièces des faits et situations qui n'ont pas eu lieu...

Les responsables politiques des Démocraties mais aussi les militaires américains considèrent que la technologie Deepfake constitue désormais une grave menace pour la sécurité nationale, et plus largement un grave danger pour le fonctionnement des démocraties. Bien sûr, cette technologie extrêmement puissante peut être utilisée de façon tout à fait légale dans de nombreux domaines, cinéma, divertissement, industrie, médecine, aménagement du territoire... Mais un tel outil peut également faire des ravages dans les mains d'organisations criminelles ou terroristes, ou de régimes politiques autoritaires. Face à cette technologie démiurgique, nos sociétés démocratiques vont donc devoir mettre en place des cadres légaux et éthiques tout à fait nouveaux, destinés à prévenir et à réprimer sans faiblesse les utilisations dévoyées et criminelles de cette technologie qui permet de modifier la réalité et de réécrire l'histoire.

Changement climatique

Les deux dernières avancées remarquables concernent la question absolument essentielle du changement climatique en cours, et plus précisément les technologies de captage du CO2 atmosphérique, qui seront nécessaires, en plus des efforts mondiaux de réduction des émissions de gaz à effet de serre, pour parvenir à limiter les effets désastreux du réchauffement climatique en cours. Le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) a rappelé à cet égard que ces technologies devront être capables de soustraire jusqu'à un milliard de tonnes de CO2 par an de l'atmosphère, au cours de ce siècle, si l'humanité veut limiter le réchauffement climatique en cours à moins de 2°.

dac.jpg

Pour parvenir à extraire ce CO2 de l'air à un coût compétitif, la société canadienne Carbon Engineering, soutenue par Bill Gates, a développé un réacteur géant, capable de capturer le dioxyde de carbone présent dans l'atmosphère. Par un procédé chimique complexe, cette « technologie à émissions négatives » attire les particules de CO2 dans le réacteur, où elles sont stockées. Dénommé « Direct Air Capture »le procédé, qui reviendrait à moins de 100 $ par tonne de CO2 traitée, est testé depuis quelques mois à Squamish, une ville du sud-ouest du Canada. Carbon Engineering affirme qu'avec environ un millier de centrales d'une surface de 30 ha chacune, il serait possible de retirer de l'atmosphère une gigatonne de CO2 par an. Ce CO2 pourrait ensuite être valorisé, en étant retransformé en carburants utilisables par les véhicules thermiques, ou définitivement stocké dans le sous-sol, sous forme de carbonate de calcium.

En Suisse, une autre société basée à Zurich, Climeworks AG, a développé pour sa part un procédé qui permet d'aspirer directement le dioxyde de carbone de l'air. Chaque unité peut capter environ 900 tonnes de CO2 par an, et le CO2 ainsi récupéré pourra être utilisé pour améliorer certaines productions agricoles, produire des carburants ou certains matériaux industriels.

Enfin, la 10e et dernière avancée, mais non la moindre, concerne la prise de conscience mondiale du changement climatique en cours. En 2019, on le sait, les températures estivales ont battu des centaines de records historiques, partout dans le monde, entraînant une fonte des glaces sans précédent au Groenland et au Pôle Nord et contribuant à alimenter les incendies de forêt qui ont fait rage dans différentes régions du monde.

Mais 2019 a également connu un niveau sans précédent d'activisme climatique (Voir Science News), dont se félicitent scientifiques et climatologues. « Je n'ai jamais vu autant de protestations », explique le glaciologue Eric Rignot de l'Université de Californie à Irvine. Il fait référence aux marches climatiques qui ont eu lieu partout dans le monde et qui ont culminé lors du Sommet des Nations Unies sur l'action pour le climat en septembre à New York, avec 7,5 millions de personnes participant à une grève climatique mondiale.

De mai à août 2019, près de 400 records de températures record ont été enregistrés dans 29 pays de l'hémisphère Nord. Tout le monde a encore en mémoire les deux vagues de canicules sans précédent qui ont déferlé sur l'Europe et la France, mais également les vagues de chaleur et de sécheresse qui ont frappé l'Inde et le Pakistan, ainsi que la canicule qui a touché le Japon, envoyant plus de 18 000 personnes à l'hôpital en une semaine. Globalement, juillet 2019 a été le mois le plus chaud en 140 ans de tenue de registres, selon la National Oceanic and Atmospheric Administration des États-Unis.

Face à la violence du réel et à l'accélération de la fréquence de ces événements extrêmes et dévastateurs, les thèses climatosceptiques reculent partout dans le monde, y compris aux États-Unis (sauf l'opinion personnelle du Président des Etats-Unis telle qu'exprimée ces jours derniers à Davos), et l'opinion publique mondiale place désormais la question du réchauffement climatique en tête de ses préoccupations et de ses inquiétudes. Nous pouvons d'ailleurs faire le pari que les prochains scrutins qui auront lieu, tant en France que dans les autres pays du monde, vont se traduire par une confirmation de cette inquiétude climatique grandissante, et de cette attente de plus en plus forte de mesures économiques politiques et sociales destinées à faire de la lutte contre le changement climatique la priorité absolue.

On voit donc à travers ces dix grandes avancées scientifiques de 2019 que les scientifiques et chercheurs, loin de se contenter d'apporter des réponses aux questions essentielles de nos origines, du fonctionnement du vivant ou encore de la nature de notre Univers, ont également tenu à manifester leur engagement et à apporter leur contribution sur la question politique, démocratique et éthique fondamentale de l'avenir de notre espèce, confrontée à une menace climatique sans précédent qu'elle a elle-même provoquée.

Souhaitons que nos responsables économiques et politiques aient la lucidité, le courage et la sagesse, d'entendre les avertissements et les recommandations de la communauté scientifique et prennent enfin à bras-le-corps ce défi nullement insurmontable du changement climatique, en jetant les bases d'un nouveau développement économique, plus humain et plus juste, qui sache faire confiance au génie et à la créativité de l'homme et nous réconcilie avec le nature dont nous nous sommes peu à peu coupés, mais dont nous sommes pourtant issus...

René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat

00:13 Publié dans Actualité, Science, Sciences | Lien permanent | Commentaires (0) | Tags : actualité, sciences | |  del.icio.us | | Digg! Digg |  Facebook

samedi, 30 novembre 2019

Les Européens n'ont pas encore compris le rôle vital de l'espace

ariane-5_dcc37791b239e09019f587bd7a89a722c9e21e12.jpg

Les Européens n'ont pas encore compris le rôle vital de l'espace

par Jean-Paul Baquiast

Ex: http://www.europesolidaire.eu

Si l'Europe a quelques chances de survivre dans les prochaines années en tant que puissance géopolitique majeures, face aux Etats-Unis, la Russie la Chine et désormais l'Inde, elle le devra à une politique spatiale reposant principalement sur les réalisations de la France, notamment le lanceur Ariane.

Après deux reports, Ariane vient de réussir le 26 novembre 2019 un nouveau lancement à partir de la base spatiale de Kourou en Guyane française 1). Il s'agit d'un 250e lancement depuis le premier ayant eu lieu le 24 décembre 1979. Depuis ses premiers vols, Ariane a été régulièrement optimisée pour rester compétitive. C'est la société Arianespace qui est responsable des lancements.

Les médias ont à juste titre fait une certaine publicité à ce succès, après avoir pendant des années multiplié les critiques contre de telles opérations, au prétexte qu'elles coûtaient cher et ne rapportaient rien aux yeux au regard des intérêts politiques et économiques dominants.

Ce fut Charles de Gaulle qui a lancé la politique spatiale française lors d'un voyage en Guyane en mars 1964. Neuf ans après seulement, dix pays européens ont décidé de créer l'Agence Spatiale Européenne ou ESA (European Space Agency) et d'entreprendre le développement d'un lanceur de satellites baptisé Ariane. Le vol inaugural du lanceur Ariane 1, le 24 décembre 1979, a permis à l'Europe d'acquérir son autonomie et de prendre une place significative sur le marché mondial du spatial, en réalisant plus de la moitié des lancements commerciaux dans le monde.

Malgré une concurrence internationale très largement financée par les gouvernements respectifs, Arianespace devrait procéder à 11 nouveaux lancements d'ici 2022. Pour rester compétitif, le groupe Ariane étudie actuellement une nouvelle version d'Ariane, dite Ariane 6, dont le premier vol, à titre d'essai, devrait se faire très prochainement, à partir de mi-2020. Le groupe étudie aussi un moteur à bas coût et à poussée variable appelé Prometheus, ainsi que Themis, un démonstrateur de récupération d'étage. Pour faire face à la concurrence, Ariane 6 compte sur trois avantages : elle sera moins chère, mieux adaptée aux satellites européens et, avec son moteur réallumable en cours de mission, elle pourra réaliser des opérations complexes, par exemple au service des constellations de satellites.

elonmlusk.jpgElon Musk

De Kourou le 26 novembre, Stéphane ­Israël, président exécutif ­d'Arianespace, a alerté sur l'offensive tous azimuts de l'américain Elon Musk, allant des satellites au lanceur. qui s'appuie sur les contrats institutionnels américains. Ceux-ci sont bien plus nombreux et à des prix plus élevés que les références européennes. Cette stratégie lui permet de casser les prix de ses lancements de fusées pour les clients hors des Etats-Unis. Dans son dernier projet, il envisage de construire, lancer et opérer 42 000 mini-satellites qui occuperont l'orbite terrestre basse  allant jusqu'à 2 000 kilomètres d'altitude. La présence de ces satellites représentera un danger permanent pour les satellites de taille normale.

L'Europe doit continuer de financer des projets d'une ampleur suffisante pour faire face à ceux annoncés non seulement par les Etats-Unis mais par la Chine. Ne pas le faire signifierait un abandon de souveraineté considérable. L'espace est devenu le support d'un nombre croissant d'activités dans la vie courante. . Si on y ajoute l'exploration des planètes et les missions militaires, c'est désormais une grande part de la survie des pays en tant que puissance qui s'y joue.

Il est difficile d'estimer le montant des crédits que les Etats européens devraient chaque année consacrer au spatial. Aujourd'hui, le budget de la seule Agence spatiale européenne est de l'ordre de 5,7 milliards d'euros soit cinq fois moins que celui de la Nasa qui est  de 22 milliards de dollars. La Commission européenne envisage de consacrer une enveloppe de 16 milliards d'euros en 3 ans pour développer le programme spatial, tous domaines confondus. Les vingt-deux ministres chargés de l'espace des pays membres de l'ESA qui se sont retrouvé à Séville, les  27 et 28 novembre, ont obtenu une hausse de 20 % de leur budget, par rapport à celui accordé à Lucerne (Suisse) lors de la dernière conférence en décembre 2016.

Mais si l'on considère que ces ministres devront partager ce budget sur trois ans entre les différents projets couvrant l'accès à l'espace, l'exploration, la compétitivité industrielle, les sciences, la sûreté et la sécurité, il faut admettre que ces sommes sont loin de permettre à l'Europe de rester compétitive face aux Etats Unis et à la Chine. Ne mentionnons pas les projets plus lointains mais essentiels de station lunaire habitée et de stations scintifiques martiennes permanentes. Concernant les Etats-Unis, s'ils sont en manque de ressources dans d'autres domaine que le spatial, ils veulent continuer à y assurer leur domination (spatial dominance)

Notes

1) Deux satellites de télécommunications ont été placés en orbite par le lanceur Ariane 5, mardi 26 novembre, pour le compte du gouvernement égyptien et d'un opérateur britannique, Inmarsat. La fusée a finalement été lancée depuis Kourou, en Guyane, après deux reports. Ces satellites sont dénommés TIBA-1 et GX5. TIBA-1 est un satellite de télécommunications civiles et gouvernementales lancé par Arianespace pour l'Égypte. Le satellite a été développé par Thales Alenia Space et Airbus Defence and Space. GX5 est un satellite de télécommunications mobiles, construit par Thales Alenia Space pour l'opérateur britannique Inmarsat. Il « supportera la hausse rapide de la demande de services de ses clients en Europe et Moyen-Orient, en particulier pour les connexions Wi-fi sur les vols commerciaux et pour les services maritimes commerciaux » avait indiqué par communiqué Arianespace.

2) On apprend le 29/11 que l'Allemagne est devenue le premier contributeur au budget de l'ESA, devançant de peu la France. 
Voir La Tribune

lundi, 11 mars 2019

Réseaux 5G : encore une révolution qui échappe à l’Europe ?...

5g.jpg

Réseaux 5G : encore une révolution qui échappe à l’Europe ?...

par Christopher Th. Coonen

Ex: http://metapoinfos.hautetfort.com

Nous reproduisons ci-dessous un point de vue de Christopher Coonen cueilli sur Geopragma et consacré aux enjeux pour l'Europe de la technologie 5G. Membre de Geopragma, Christopher Coonen a exercé des fonctions de directions dans des sociétés de niveau international appartenant au secteur du numérique.

Réseaux 5G : encore une révolution qui échappe à l’Europe ?

Le mot « 5G » sera sur toutes les lèvres lors du « Mobile World Congress » du 25 au 28 février prochains, grand-messe mondiale annuelle de la téléphonie mobile à Barcelone. Pourquoi ? Car c’est l’héritier tant attendu du standard actuel, la 4G.

Nous utilisons nos smartphones en France et en Europe depuis 2012 à leur plein potentiel grâce à la 4G. Ce fut alors une petite révolution, car la 4G offrait deux atouts : premièrement, elle permettait la circulation des appels vocaux directement par Internet et non plus par le réseau téléphonique. Deuxièmement, la 4G s’appuyait sur le « multiplexage » (passage de différents types d’information par le même canal) permettant d’augmenter les flux d’informations et des données.

Le réseau 4G donne un aspect superlatif au terme haut débit. A juste titre : ses débits théoriques sont nettement supérieurs à la génération précédente (3G), allant de 42 Megabits / seconde à 300 Megabits / seconde pour la « LTE » (Long Term Evolution). La « LTE Advanced » va au-delà de 1 Gigabit/seconde.

Les inventeurs de WhatsApp ne s’y étaient pas trompés, lançant en 2009 une application Android et iOS permettant un service de messagerie, de MMS (envoi de messages enrichis de photos, vidéos et messages vocaux), et d’appels vocaux, tous gratuits sous réseau WIFI, faisant trembler les opérateurs traditionnels de téléphonie mobile qui voyaient déjà leurs millions d’abonnés les déserter. Pour la petite histoire, ces démissionnaires de Yahoo! avaient postulé chez Facebook et vu leurs candidatures rejetées, avant de se faire racheter à prix d’or quelques années plus tard en 2014 par le même Facebook pour la modique somme de 19 milliards de dollars…Facebook impliqué dans le scandale de l’usurpation de données via Cambridge Analytica, et décrié par certains de ses anciens employés pour une insoutenable légèreté de l’être s’agissant du traitement des données personnelles. Facebook a 1,7 milliard d’abonnés au niveau mondial, WhatsApp 1,5 milliard – de lourds enjeux.

Nous voici au cœur du sujet : avec la 5G, le débit de données sera 10 à 100 fois plus puissant qu’avec la 4G. Au-delà des calculs et des quantités de débit, il existe un calcul de pouvoir, d’influence et de renseignement qui devrait inquiéter au plus haut point tous dirigeants politiques, militaires et d’entreprises. En effet, contrairement à la 4G, les données ne seront plus uniquement transportées d’un point A vers un point B, mais bien interactives dans tous les sens et depuis de multiples sources, rendant la gestion des villes connectées, les utilisations des voitures autonomes ou encore des drones civils et militaires bien plus efficaces avec des réactions en contexte et en temps infiniment réel. C’en sera fini de la « latence technologique ».

Or, face à ces enjeux de souveraineté colossaux, comme d’ailleurs sur bien d’autres sujets, l’Europe se retrouve de nouveau coincée entre les Etats-Unis et la Chine.

Les grandes manœuvres ont débuté pour l’attribution des licences 5G à l’échelle mondiale, ainsi que les appels d’offre organisés pour la construction de ce réseau révolutionnaire qui comprendra des « backbones » de fibre optique terriens et sous-marins, des routeurs et des réseaux du dernier kilomètre. Les entreprises qui les installeront auront à gérer leur part de réseau et les données y transitant, et pourraient assez facilement créer des « portes arrière » pour capter et potentiellement copier celles-ci.

Imaginons le revers de la médaille. Ces applications tellement plus puissantes et versatiles auront aussi leur talon d’Achille : les hackers d’Etat, petits ou grands, ou des pirates informatiques privés, pourront créer de véritables crises et failles en déréglant la circulation de véhicules en ville, paralysant totalement ces mêmes villes, ou encore en faussant le ciblage de la livraison d’un colis ou d’un missile…Il n’existe pas pour le moment de standard de cryptographie et de sécurité associé à la 5G.

Entre temps, sur l’autre rive de l’Atlantique, le Président Trump a pourtant adressé aux agences fédérales en octobre 2018 l’un de ses « Memorandum » : « il est impératif que les Etats-Unis soient les premiers dans la technologie cellulaire de cinquième génération (5G) », soulignant que la course à la 5G avec la Chine était une priorité de sécurité nationale. Mais en oubliant de mentionner l’importance de la cyber-sécurité de ces nouveaux réseaux et abrogeant même des dispositions prises par la « Federal Communications Commission » de l’administration du Président Obama pour que les réseaux de la 5G soient sécurisés en amont par des standards pour réduire les risques d’intrusions et de cyberattaques…

C’est donc un vide sidéral de part et d’autre face à des dangers très tangibles et incroyablement destructeurs. S’affrontent sur cette question de standards gouvernements et acteurs privés, et ces derniers ont bien plus de chance d’innover rapidement et de se mettre en ordre de bataille avant que ne le fassent les bureaucraties d’Etat ou pire la bureaucratie communautaire avec telle ou telle « directive » ; notre regard peut s’arrêter sur l’impuissance et même l’inconscience des nations sur ces sujets depuis vingt ans sur toutes sortes de questions liées à la technologie… En l’absence de standards et de supervision, tout est possible.

Avec la 5G se dessine donc un combat mondial entre les géants qui construisent et gèrent déjà nos réseaux 4G en Europe : Cisco (US), Ericsson, Nokia et Alcatel (EU) –qui tous trois possèdent des parts de marché minoritaires aujourd’hui – et deux géants chinois, ZTE et Huawei. Cette dernière a fait les choux gras des quotidiens récemment, avec la détention de sa DAF (surtout fille du fondateur) au Canada sous mandat d’arrêt des Etats-Unis pour violation potentielle des sanctions mises en place contre l’Iran. Huawei s’est vue qualifiée par la Commission Européenne de société « inquiétante » car les terra datas qu’elle traite pourraient tomber dans la nasse des services de renseignements chinois. Huawei est en pleine ascension en Europe, ayant doublé ses effectifs entre 2013 et 2018 pour atteindre 14.000 employés, avec une part de marché des infrastructures de réseaux européens estimée à 15-20%. Son chiffre d’affaires en 2018 s’est établi à 100 milliards de dollars, plus que Cisco et même IBM. Elle a détrôné Apple pour devenir le deuxième vendeur de smartphones au monde, derrière Samsung.

Contre ce mastodonte, les Etats-Unis mènent une campagne de pressions notamment envers les opérateurs télécom en Europe, ainsi qu’envers nos gouvernements pour sortir Huawei de cette « course aux armements » du 21ème siècle d’un nouveau genre. L’Administration américaine a dépêché des émissaires au Royaume-Uni, en Allemagne, et en Pologne en 2018 pour faire passer un message très clair : les gains de coûts associés au fait d’utiliser un prestataire tel que Huawei sont sans commune mesure avec les risques (et coûts) d’intrusions chinoises dans les infrastructures de l’OTAN…et la possible remise en cause de la construction d’une base de l’armée américaine en Pologne évaluée à USD $ 2 milliards. L’effet de cette campagne s’est même fait ressentir jusqu’en Australie qui a sorti Huawei des appels d’offres liés à la 5G.

Lorsque Huawei et ZTE ont remplacé les puces américaines par des chinoises dans leurs smartphones, le gouvernement des Etats-Unis a sommé ses deux plus importants opérateurs de téléphonie mobile, AT&T et Verizon, d’arrêter la vente de ces smartphones dans leurs boutiques. Ils s’y sont pliés sans broncher.

La crainte des Etats-Unis repose en partie sur une loi de l’Empire du Milieu datant de 2017, la « Loi Nationale d’Intelligence », qui enjoint les sociétés chinoises de soutenir et de coopérer avec les services de renseignement chinois, où qu’elles opèrent.

Mais cette posture du gouvernement américain est imprégnée d’une hypocrisie sans vergogne. Car dans cette affaire, il existe aussi un angle « NSA » (National Security Agency), les « Grandes Oreilles » de notre grand allié qui sont allées jusqu’à épier les téléphones mobiles de chefs d’Etat « amis ». En 2013, son directeur, l’Amiral Michael S. Rogers, avait interdit aux dirigeants des opérateurs télécom américains d’inclure Huawei ou tout autre acteur chinois dans leurs appels d’offre. Ensuite, grâce aux révélations d’Edward Snowden, nous savons qu’une opération de piratage conduite à partir de 2010 par cette même agence, nommée « Shotgiant », lui a permis de s’immiscer dans les systèmes d’information du géant à son QG à Shenzhen. Cette intrusion n’aurait apparemment pas révélé l’existence de codes sources « malins » ou de programmes systématiques de collecte de données.  Le gouvernement américain continue à ce jour de démentir l’existence d’une telle opération.

Et l’Europe, où est-elle dans tout cela ? Elle est loin sur son propre territoire, de reconstruire et même simplement de rénover son propre réseau avec les seuls acteurs nordiques et français. Elle se retrouve coincée entre les acteurs publics et privés chinois et américains. Peut-être pourrait-elle donner l’exemple comme elle l’a fait avec la RGPD, encore faudrait-il qu’il y ait une véritable prise de conscience et une ambition stratégique de la part de nos leaders politiques pour « sécuriser » cette révolution technologique, protéger les données confidentielles de nos entreprises et de nos gouvernements, et même pour s’en emparer. Il y a urgence. La mise en place de la RGPD est en effet d’ores et déjà elle-même menacée par le « Cloud Act II » voté par le Congrès américain en 2018.

Christopher Th. Coonen (Geopragma, 11 février 2019)

vendredi, 08 mars 2019

Intelligence artificielle. Bluff technologique ou Game Over ?

IA-ff.jpg

Intelligence artificielle. Bluff technologique ou Game Over ?

par Thierry DUROLLE

« Créer une intelligence artificielle serait le plus grand événement de l’histoire humaine. Malheureusement, ce pourrait être le dernier, à moins que nous découvrions comment éviter les risques. » Stephen Hawking résume ici toute l’envergure d’un processus prométhéen qui pose nombre de questions. Mise au point.

Principes de base de l’intelligence artificielle

Dans les années 90, on assiste à l’essor du Machine Learning (ou « apprentissage automatique »). Les programmes informatiques fonctionnent grâce à des configurations bien précises qui forment des cadres dont il est impossible de s’extirper, bien que certains cas l’exigeraient. Le programme devrait être capable de prendre des mesures par lui-même. Pour cela, il a besoin de nouveaux algorithmes qui lui permettront d’apprendre en l’alimentant avec des données, puis, en lui permettant de les classer ou de faire des associations. Il s’agit ni plus ni moins que d’une imitation du mode d’apprentissage des enfants : on désigne un chien du doigt et on nomme ce que l’on vient de lui montrer. L’une des clés pour comprendre l’IA (intelligence artificielle) réside justement dans ce mimétisme de l’humain (et plus généralement du vivant) où la pensée mécaniste sert de passerelle entre le monde de la nature et celui de la machine. Cela explique sans doute pourquoi l’on peut rapprocher l’intelligence artificielle et le transhumanisme, tout deux faisant partie d’un élan prométhéen à tendance bio-mécanique.

La neuro-informatique, par exemple, élabore un système inspiré de notre réseau neuronal dans son principe de fonctionnement, à l’exception que les neurones sont ici remplacés par des algorithmes nommés perceptrons. C’est la base du Deep Learning (« apprentissage approfondi »), une version beaucoup plus élaborée du Machine Learning, développé par le chercheur français Yann Lecun et rendu possible par l’évolution des ordinateurs et par le Big Data. Pour le moment, la machine ne peut pas rivaliser avec l’homme puisque contrairement à celle-ci nous avons, en plus de nos connaissances, tout un tas d’expériences devant nous, de facultés tenant de l’innée, de sensations et d’émotions. Autrement dit, nous avons nos cinq sens pour connaître et explorer le monde, pour faire nos propres expériences et nos propres choix; la machine n’a rien de semblable – d’où l’utilité des données pour palier à tout ce qui est du domaine de l’empirique.

ia-hm.jpg

État des lieux de l’intelligence artificielle

La bonne nouvelle est que le scénario Terminator attendra encore pas mal de temps avant de pouvoir se réaliser. Néanmoins, et cela n’est pas pour autant très rassurant, l’IA est devenu une composante de nos vies sans forcément que nous nous en rendions compte. Lorsque vous naviguez sur le fil d’actualité d’un célèbre réseau social, les informations qui apparaissent sont sélectionnées via des algorithmes usant de procédés d’intelligence artificielle (par un décorticage de vos data). Il en va de même pour tout un tas de gadgets devenus des outils du quotidien pour un grand nombre de personnes, comme les traducteurs de langues, les reconnaissances vocale et faciale. Les domaines d’application sont nombreux : finance, médecine, armée ou encore jeux vidéos.

Les avancés en la matière sont objectivement prometteuses, notamment dans le domaine médical où l’intelligence artificielle permettra d’analyser à une vitesse fulgurante des données médicales, des radiographies pour repérer des anomalies difficiles à détecter à l’œil nu. L’IA se révèle extrêmement efficace dans le traitement et l’analyse des données. En fait, contrairement aux êtres humains, celle-ci s’avère efficace uniquement dans un domaine particulier pour une tâche elle-même extrêmement précise. Un bon exemple est le programme AlphaGo. Conçu pour le jeu de go, celui-ci a battu Lee Sidol, le meilleur joueur au monde, le 15 mars 2016. En revanche, ne demandez pas à AlphaGo de jouer aux échecs car il en est incapable. Ce à quoi il faut s’attendre en réalité s’apparente à « l’émergence d’une technologie de l’intégral » pour reprendre l’expression d’Éric Sadin, c’est-à-dire à la multiplicité d’applications ayant recours à l’IA dans notre quotidien. L’humanité enclenche le pilotage automatique.

ia-cloud.jpg

Utopie technicienne ou scénario Terminator ?

L’IA, qui n’est en définitive qu’une technique, nous est promu comme LA solution à nos problèmes, ce en quoi elle serait plus performante que son créateur pour certaines tâches spécifiques. L’homme ne serait en fin de compte perfectible qu’au-delà de sa condition biologique. Cette technique sera mise à toutes les sauces en terme de résolution collectives : fin des problèmes de chômage, d’économie, de politique, d’écologie, etc. D’ailleurs le monde économique se frotte les mains à l’idée d’usines entièrement robotisées.

Pour l’instant nous ne sommes qu’au commencement de ce que les chantres de l’IA appelle une révolution. Si ces derniers comprennent le mot révolution comme une subversion, ils ont sans doute raison, mais, quid de l’ampleur de cette révolution ? Ne s’agit-il pas en fin de compte d’un bluff technologique, pour emprunter l’expression de Jacques Ellul ? Ou alors, à l’opposé, avons-nous ouvert une boite de Pandore débouchant sur le scénario Terminator ? Les défenseurs de l’IA répondront que la machine n’a pas de volonté propre si ce n’est celle qui lui a été insufflée. Par conséquent, si l’on ne programme pas la possibilité pour un robot de faire le mal, celui-ci ne pourra pas s’exécuter. La machine peut-elle échapper à notre contrôle ? En août 2017, des chercheurs du Facebook Artificial Intelligence Research (FAIR) publient une étude dans laquelle ils expliquent que deux robots communicatifs programmés pour la négociation, appelés chatbots, ont inventé leur propre langage. Les chercheurs disent avoir arrêté le programme qui « ne fonctionnait pas comme prévu »…

ia-ch.jpg

Après Prométhée, faire face à notre destin

Le véritable risque réside en fait dans cette emprise du technologisme sur nos vies (via et pour le plus grand bonheur du techno-capitalisme). Il suffit de voir les habitants des villes, mais aussi parfois des campagnes, le nez collé à leurs smartphones, la montre connectée vissée au poignet, pour se convaincre de la domination de la technique sur une partie de l’humanité. Déformé neurologiquement, mentalement et physiquement, le dos courbé pour être toujours plus près de l’écran du smartphone, les yeux fatigués par la lueur de celui-ci : voilà les techno-zombies, mus par des applications Androïd qui leur indiquent le grammage adéquat de nourriture qu’ils doivent ingérer pour continuer à exister, et qui les préviendront bientôt quand ils devront aller à la selle et comment s’accoupler récréativement. Parler d’accoutumance, voire carrément de dépendance, n’est donc pas exagéré. Tablettes, GPS, biométrie, réseau sociaux : ce que l’on gagne en côté pratique, en utilité, on le perd en indépendance, c’est-à-dire, en fin de compte, en liberté.

L’IA conçue comme une extension-outil de nous-même, indispensable à notre bon fonctionnement, voilà le danger ! En tant que partisan d’un monde organique, du Kosmos, de la saine mesure autrefois prônée par les Grecs anciens, lutter contre l’atomisation, la rationalisation fanatique et le mécanicisme cartésien devient, jours après jours, un impératif de survie. Nous sommes en train de faire face à un défi technique, économique, écologique, civilisationnel, et spirituel. Soyons lucide sur la situation, nous nous dirigeons tout droit sur un chemin hasardeux où les périls ne manquent pas. L’idéologie du Progrès nous amène peut-être à marche forcée vers la fin de l’Histoire… Alors, à l’heure où paraît enfin La perfection de la technique de Friedrich-Georg Jünger, et où l’on redécouvre l’œuvre de Bernard Charbonneau, résonne dans notre esprit un seul mot d’ordre : « Décélérons ! »

Thierry Durolle

mercredi, 01 août 2018

The Historical Background of Oswald Spengler’s Philosophy of Science

OswSP-portrait.jpg

Between the Heroic & the Immeasurable:
The Historical Background of Oswald Spengler’s Philosophy of Science

Oswald Spengler’s writings on the subject of the philosophy of science are very controversial, not only among his detractors but even for his admirers. What is little understood is that his views on these matters did not exist in a vacuum. Rather, Spengler’s arguments on the sciences articulate a long German tradition of rejecting English science, a tradition that originated in the eighteenth century.

Luke Hodgkin notes:

It is today regarded as a matter of historical fact that Isaac Newton and Gottfried Wilhelm Leibniz both independently conceived and developed the system of mathematical algorithms known collectively by the name of calculus. But this has not always been the prevalent point of view. During the eighteenth century, and much of the nineteenth, Leibniz was viewed by British mathematicians as a devious plagiarist who had not just stolen crucial ideas from Newton, but had also tried to claim the credit for the invention of the subject itself.[1] [2]

This wrongheaded view stems from Newton’s own catty libel of Leibniz on these matters. During this time, the beginning of the eighteenth century, Leibniz’s native Prussia had not yet become a serious power through the wars of Frederick the Great. Leibniz, together with Frederick the Great’s grandfather, founded the Royal Prussian Academy of Sciences. Newton’s slanderous account of Leibniz’s achievements would never be forgiven by the Germans, to whom Newton remained a bête noire as long as Germany remained a proud nation.

In the context of inquiring into the matter of how such a pessimist as Spengler could admire so notorious an optimist as Leibniz, two foreign members of the Prussian Academy of Sciences merit attention. The thought of French scientist and philosopher Pierre Louis Moreau de Maupertuis, an exponent and defender of Leibnizian ideas, was in many ways a precursor to modern biology. Maupertuis wrote under the patronage of Frederick the Great, about a generation after Leibniz. Compared to other eighteenth-century philosophies, Maupertuis’ worldview, like modern biology and unlike most Enlightenment thought, presents nature as rather “red in tooth and claw.”

An earlier foreign member of the Prussian Academy of Sciences, a contemporary and correspondent of Leibniz, Moldavian Prince (and eccentric pretender to descent from Tamerlane) Dimitrie Cantemir, left two cultural legacies to Western history. Initially an Ottoman vassal, he gave traditional Turkish music its first system of notation, ushering in the classical era of Turkish music that would later influence Mozart. Later – after he had turned against the Ottoman Porte in an alliance with Petrine Russia, but was driven out of power and into exile due to his abysmal battlefield leadership – he wrote much about history. Most impactful in the West was a two-volume book that would be translated into English in 1734 as The History of the Growth and Decay of the Othman Empire. Voltaire and Gibbon later read Cantemir’s work, as did Victor Hugo.[2] [3]

Notes one biographer, “Cantemir’s philosophy of history is empiric and mechanistic. The destiny in history of empires is viewed . . . through cycles similar to the natural stages of birth, growth, decline, and death.”[3] [4] Long before Nietzsche popularized the argument, Cantemir proposed that high cultures are initially founded by barbarians, and also that a civilization’s level of high culture has nothing to do with its political success.[4] [5] Thus was the Leibnizian intellectual legacy mixed with pessimism even in Leibniz’s own lifetime.

OswSP-MTech.jpegIt was most likely in the context of this scientific tradition and its enemies that Johann Wolfgang von Goethe, generally recognized as Germany’s greatest poet (or one of them, at any rate), later authored attacks on Newton’s ideas, such as Theory of Colors. Goethe, an early pioneer in biology and the life sciences, loathed the notion that there is anything universally axiomatic about the mathematical sciences. Goethe had one major predecessor in this, the Anglo-Irish philosopher and Anglican bishop George Berkeley. Like Berkeley, Goethe argued that Newtonian abstractions contradict empirical understandings. Both Berkeley and Goethe, though for different reasons, took issue with the common (or at least, commonly Anglo-Saxon) wisdom that “mathematics is a universal language.”

By the early modern age of European history, when Goethe’s Faust takes place, cabalistic doctrines, notes Carl Schmitt, “became known outside Jewry, as can be gathered from Luther’s Table Talks, Bodin’s Demonomanie, Reland’s Analects, and Eisenmenger’s Entdecktes Judenthum.”[5] [6] This phenomenon can be traced to the indispensable influence of the very inventors of cabalism, collectively speaking, on the West’s transition from feudalism to modern capitalism since the Age of Discovery, and in some cases even earlier. In 1911’s The Jews and Modern Capitalism, Werner Sombart points out that “Venice was a city of Jews” as early as 1152.

Cabalism deeply permeates the worldviews of many influential secret societies of Western history since medieval times, and certainly continuing with the official establishment of Freemasonry in 1717. Although the details will never be entirely clear, it is known that Goethe was involved with the Bavarian Illuminati in his youth. He seems to have experienced conservative disillusionment with it later in life. It is possible that the posthumous publication of Faust: The Second Part of the Tragedy was due at least in part to the book’s ambivalently revealing too much about the esoterica of Goethe’s former occult activities.

What is clear is that he was directly interested in cabalistic concepts. Karin Schutjer persuasively argues that “Goethe had ample opportunity to learn about Jewish Kabbalah – particularly that of the sixteenth-century rabbi Isaac Luria – and good reason to take it seriously . . . Goethe’s interest in Kabbalah might have been further sparked by a prominent argument concerning its philosophical reception: the claim that Kabbalistic ideas underlie Spinoza’s philosophy.”[6] [7]

At one point in the second part of Faust, Goethe shows an interest in monetary issues related to usury or empty currency, as Schopenhauer after him would.[7] [8] This is fitting for a story that takes place in early modern Europe and concerns an alchemist. Some early modern alchemists were known as counterfeiters and would have most likely had contact with Jewish moneylenders. Insofar as his scientific philosophy had a social, and not just an intellectual, significance, this desire on Goethe’s part for economic concreteness was perhaps what led him to reject and combat one key cabalistic doctrine: numerology.

Numerology is the belief that numbers are divine and have prophetic power over the physical world. Goethe held the virtually opposite view of numbers and mathematical systems, proposing that “strict separation must be maintained between the physical sciences and mathematics.” According to Goethe, it is an “important task” to “banish mathematical-philosophical theories from those areas of physical science where they impede rather than advance knowledge,” and to discard the “false notion that a phrase of a mathematical formula can ever take the place of, or set aside, a phenomenon.” To Goethe, mathematics “runs into constant danger when it gets into the terrain of sense-experience.”[8] [9]

In his well-researched 1927 book on Freemasonry, General Erich Ludendorff remarks, “One must study the cabala in order to understand and evaluate the superstitious Jew correctly. He then is no longer a threatening opponent.”[9] [10] In his proceeding discussion of the subject, Ludendorff focuses exclusively on the numerological superstitions in cabalism. Such beliefs are affirmed by a Jewish cabalistic source, which informs us that “Sefirot” is the Hebrew word for numbers, which represent “a Tree of Divine Lights.”[10] [11]

Everything about Goethe’s rejection of scientific materialism can be seen as a rebellion against numerology in the sciences – and certainly, the modern mathematical sciences stand on the shoulders of numerology, as modern chemistry does on alchemy. Schmitt once mentioned the “mysterious Rosicrucian sensibility of Descartes,” a reference to the mysterious cabalistic initiatory movement that dominated the scientific philosophies of the seventeenth century.[11] [12] In this Descartes was hardly alone; the entire epoch of mostly French and English mathematicians in the early modern centuries, which ushered in the modern infinitesimal mathematical systems, was infused with cabalism. Even if it were possible to ignore the growing Jewish intellectual and economic influence on that age, one would still be left with the metaphysical affinities between numerology and even the most scientifically accomplished worldview that takes literally the assumption that numbers are eternal principles.

According to early National Socialist economist Gottfried Feder, “When the Babylonians overcame the Assyrians, the Romans the Carthaginians, the Germans the Romans, there was no continuance of interest slavery; there were no international world powers . . . Only the modern age with its continuity of possession and its international law allowed loan capitals to rise immeasurably.”[12] [13] Writing in 1919, Feder argues with the help of a graph that that “loan-interest capital . . . rises far above human conception and strives for infinity . . . The curve of industrial capital on the other hand remains within the finite!”[13] [14] Goethe may have similarly drawn connections between the kind of economic parasitism satirized in the second part of Faust and what he, like Berkeley, saw as the superstitious modern art of measuring the immeasurable.

OswSP-citation.jpg

The fusion of science with numerology, it should be noted, is actually not of Hebrew or otherwise pre-Indo-European origin. It originates from pre-Socratic Greek philosophy’s debt, particularly that of the Pythagoreans, to the Indo-Iranian world, chiefly Thrace.[14] [15] (Possibly of note in this regard is that Schopenhauer admired the Thracians for their arch-pessimistic ethos, as though this mindset were the polar opposite of the world-affirming Jewish worldview he loathed.)[15] [16] In any case, Goethe recognized it as a powerful weapon. That he studied numerology has been established by scholars.[16] [17]

A generation before Goethe, Immanuel Kant had propounded the idea that the laws of polarity – the laws of attraction and repulsion – precede the Newtonian laws of matter and motion in every way. This argument would influence Goethe’s friend Friedrich Wilhelm von Schelling, another innovator in the life sciences as well as part of the literary and philosophical movement known as Romanticism. By the time Goethe propounded his anti-Newtonian theories and led a philosophical milieu, he had an entire German tradition of such theories to work from.

Goethe’s work was influential in Victorian Britain. Most notably, at least in terms of the scientific history of that era, Darwin would cite Goethe as a botanist in On the Origin of the Species. Darwin’s philosophy of science, to the extent that he had one, was largely built on that of Goethe and the age of what came to be known as Naturphilosophie. Historian of science Robert J. Richards has found that “Darwin was indebted to the Romantics in general and Goethe in particular.”[17] [18] Darwin had been introduced to the German accomplishments in biology, and the German ideas about philosophy of science, mainly through the work of Alexander von Humboldt.[18] [19]

Why has this influence been forgotten? “In the decade after 1918,” explains Nicholas Boyle, “when hundreds of British families of German origin were forcibly repatriated, and those who remained anglicized their names, British intellectual life was ethnically cleansed and the debt of Victorian culture to Germany was erased from memory, or ridiculed.”[19] [20] To some extent, this process had already started since the outbreak of the First World War.

This intellectual ethnic cleansing would not go unreciprocated. In 1915’s Händler und Helden (Merchants and Heroes), German economist and sociologist Werner Sombart attacked the “mercantile” English scientific tradition. Here, Sombart is particularly critical of what he calls the “department-store ethics” of Herbert Spencer, but in general Sombart calls for most English ideas – including English science – to be purged from German national life. In his writings on the philosophy of science, Spengler would answer this call.

Spengler heavily drew on the ideas of Goethe, and evidently also on the views of a pre-Darwinian French Lutheran paleontologist of German origin, Georges Cuvier. For instance, Spengler’s assault on universalism in the physical sciences mostly comes from Goethe, but his rationale for rejecting Darwinian evolution appears to come from Cuvier. The idea that life-forms are immutable, and simply die out, only to be superseded by unrelated new ones – a persistent theme in Spengler – comes more from Cuvier than Goethe.

oswSP-car.jpgCuvier, however, does not belong to the German transcendentalist tradition, so Spengler mentions him only peripherally. On the other hand, in the third chapter of the second volume of The Decline of the West, Spengler uses a word that Charles Francis Atkinson translates as “admitted” to describe how Cuvier propounded the theory of catastrophism. Clearly, Spengler shows himself to be more sympathetic to Cuvier than to what he calls the “English thought” of Darwin.[20] [21]

Several asides about Cuvier are in order. First of all, this criminally underrated thinker is by no means outmoded, at least not in every way. Modern geology operates on a more-Cuvieran-than-Darwinian plane.[21] [22] Secondly, it is worth noting that Ernst Jünger once astutely observed that Cuvier is more useful to modern military science than Darwin.[22] [23] It may also be of interest that the Cuvieran system is even further removed from Lamarckism – and its view of heredity, as a consequence, more thoroughly racialist – than the Darwinian system.[23] [24]

Another scientist of German origin who may have influenced Spengler is the Catholic monk Gregor Mendel, the discoverer of what is now known as genetics. One biography notes:

Though Mendel agreed with Darwin in many respects, he disagreed about the underlying rationale of evolution. Darwin, like most of his contemporaries, saw evolution as a linear process, one that always led to some sort of better product. He did not define “better” in a religious way – to him, a more evolved animal was no closer to God than a less evolved one, an ape no morally better than a squirrel – but in an adaptive way. The ladder that evolving creatures climbed led to greater adaption to the changing world. If Mendel believed in evolution – and whether he did remains a matter of much debate – it was an evolution that occurred within a finite system. The very observation that a particular character trait could be expressed in two opposing ways – round pea versus angular, tall plant versus dwarf – implied limits. Darwin’s evolution was entirely open-ended; Mendel’s, as any good gardener of the time could see, was closed.[24] [25]

How very Goethean – and Spenglerian.

His continuation of the German mission against English science explains, even if it does not entirely excuse, Spengler’s citation of Franz Boas’ now-discredited experiments in craniology in the second volume of The Decline of the West. In his posthumously-published book on Indo-Europeanology, the unfinished but lucid Frühzeit der Weltgeschichte, Spengler cites the contemporary German Nordicist race theorist Hans F. K. Günther in writing that “urbanization is racial decay.”[25] [26] This would seem quite a leap, from citing Boas to citing Günther. However, in the opinion of one historian, Boas and Günther had more in common than they liked to think, because they were both heirs more of the German Idealist tradition in science than what the Anglo-Saxon tradition recognizes as the scientific method.[26] [27] Spengler must have keenly detected this commonality, for his views on racial matters were never synonymous with those of Boas, any more than they were identical to Günther’s.

He probably went too far in his crusade against the Anglo-Saxon scientific tradition, but as we have seen, Spengler was not without his reasons. He was neither the first nor the greatest German philosopher of science to present alternatives to the ruling English paradigms in the sciences, but was rather an heir to a grand tradition. Before dismissing this anti-materialistic tradition as worthless, as today’s historiographers of science still do, we should take into account what it produced.

Darwin’s philosophy of nature was predominantly German; only his Malthusianism, the least interesting aspect of Darwin’s work, was singularly British. As for Einstein, that proficient but unoriginal thinker was absolutely steeped in the German anti-Newtonian tradition, to which he merely put a mathematical formula. These are only the most celebrated examples of scientists influenced by the German tradition defended – maniacally, perhaps, but with noble intentions – in the works of Oswald Spengler.

Whether we consider Spengler’s ideas useful to science or utterly hateful to it, one question remains: Should the German tradition of philosophy of science he defended be taken seriously? Ever since the post-Second World War de-Germanization of Germany, euphemistically called “de-Nazification,” this tradition is now pretty much dead in its own fatherland. But does that make it entirely wrong?

Notes

[1] [28] Luke Hodgkin, A History of Mathematics: From Mesopotamia to Modernity (Oxford: Oxford University Press, 2013).

[2] [29] See the booklet of the CD Istanbul: Dimitrie Cantemir, 1630-1732, written by Stefan Lemny and translated by Jacqueline Minett.

[3] [30] Eugenia Popescu-Judetz, Prince Dimitrie Cantemir: Theorist and Composer of Turkish Music (Istanbul: Pan Yayıncılık, 1999), p. 34.

[4] [31] Dimitrie Cantemir, The History of the Growth and Decay of the Othman Empire, vol. I, tr. by Nicholas Tindal (London: Knapton, 1734), p. 151, note 14.

[5] [32] Carl Schmitt, The Leviathan in the State Theory of Thomas Hobbes: Meaning and Failure of a Political Symbol, tr. by George Schwab and Erna Hilfstein (Chicago: University of Chicago Press, 2008), p. 8.

[6] [33] Karin Schutjer, “Goethe’s Kabbalistic Cosmology [34],” Colloquia Germanica, vol. 39, no. 1 (2006).

[7] [35] J. W. von Goethe, Faust, Part Two, Act I, “Imperial Palace” scene; Schopenhauer, The Wisdom of Life, Chapter III, “Property, or What a Man Has.”

[8] [36] Jeremy Naydler (ed.), Goethe on Science: An Anthology of Goethe’s Scientific Writings (Edinburgh: Floris Books, 1996), pp. 65-67.

[9] [37] Erich Ludendorff, The Destruction of Freemasonry Through Revelation of Their Secrets (Mountain City, Tn.: Sacred Truth Publishing), p. 53.

[10] [38] Warren Kenton, Kabbalah: The Divine Plan (New York: HarperCollins, 1996), p. 25.

[11] [39] Schmitt, Leviathan, p. 26.

[12] [40] Gottfried Feder, Manifesto for Breaking the Financial Slavery to Interest, tr. by Alexander Jacob (London: Black House Publishing, 2016), p. 38.

[13] [41] Ibid., pp. 17-18.

[14] [42] See, i.e., Walter Wili, “The Orphic Mysteries and the Greek Spirit,” collected in Joseph Campbell (ed.), The Mysteries: Papers from the Eranos Yearbooks (Princeton, N.J.: Princeton University Press, 1955).

[15] [43] Arthur Schopenhauer, tr. by E. F. J. Payne, The World as Will and Representation, vol. II (Mineola, N.Y.: Dover, 2014), p. 585.

[16] [44] Ronald Douglas Gray, Goethe the Alchemist (Cambridge: Cambridge University Press, 2010), p. 6.

[17] [45] Robert J. Richards, The Romantic Conception of Life: Philosophy and Science in the Age of Goethe (Chicago: The University of Chicago Press, 2010), p. 435.

[18] [46] Ibid, pp. 518-526.

[19] [47] Nicholas Boyle, Goethe and the English-speaking World: Essays from the Cambridge Symposium for His 250th Anniversary (Rochester, N.Y.: Camden House, 2012), p. 12.

[20] [48] Oswald Spengler, tr. by Charles Francis Atkinson, The Decline of the West vol. II (New York: Alfred A. Knopf, 1928), p. 31.

[21] [49] Elizabeth Kolbert, The Sixth Extinction: An Unnatural History (London: Bloomsbury, 2015), p. 94.

[22] [50] From Jünger’s Aladdin’s Problem: “It is astounding to see how inventiveness grows in nature when existence is at stake. This applies to both defense and pursuit. For every missile, an anti-missile is devised. At times, it all looks like sheer braggadocio. This could lead to a stalemate or else to the moment when the opponent says, ‘I give up’, if he does not knock over the chessboard and ruin the game. Darwin did not go that far; in this context, one is better off with Cuvier’s theory of catastrophes.”

[23] [51] See Georges Cuvier, Essay on the Theory of the Earth (London: Forgotten Books, 2012), pp. 125-128 & pp. 145-165.

[24] [52] Robin Marantz Henig, The Monk in the Garden: The Lost and Found Genius of Gregor Mendel, the Father of Genetics (New York: Houghton Mifflin, 2017), p. 125.

[25] [53] Oswald Spengler, Frühzeit der Weltgeschichte (Munich: C. H. Beck, 1966), Fragment 101.

[26] [54] Amos Morris-Reich, “Race, Ideas, and Ideals: A Comparison of Franz Boas and Hans F. K. Günther [55],” History of European Ideas, vol. 32, no. 3 (2006).

 

Article printed from Counter-Currents Publishing: https://www.counter-currents.com

URL to article: https://www.counter-currents.com/2018/07/between-the-heroic-and-the-immeasurable/

URLs in this post:

[1] Image: https://www.counter-currents.com/wp-content/uploads/2018/07/7-31-18-3.jpg

[2] [1]: #_ftn1

[3] [2]: #_ftn2

[4] [3]: #_ftn3

[5] [4]: #_ftn4

[6] [5]: #_ftn5

[7] [6]: #_ftn6

[8] [7]: #_ftn7

[9] [8]: #_ftn8

[10] [9]: #_ftn9

[11] [10]: #_ftn10

[12] [11]: #_ftn11

[13] [12]: #_ftn12

[14] [13]: #_ftn13

[15] [14]: #_ftn14

[16] [15]: #_ftn15

[17] [16]: #_ftn16

[18] [17]: #_ftn17

[19] [18]: #_ftn18

[20] [19]: #_ftn19

[21] [20]: #_ftn20

[22] [21]: #_ftn21

[23] [22]: #_ftn22

[24] [23]: #_ftn23

[25] [24]: #_ftn24

[26] [25]: #_ftn25

[27] [26]: #_ftn26

[28] [1]: #_ftnref1

[29] [2]: #_ftnref2

[30] [3]: #_ftnref3

[31] [4]: #_ftnref4

[32] [5]: #_ftnref5

[33] [6]: #_ftnref6

[34] Goethe’s Kabbalistic Cosmology: https://www.jstor.org/stable/23981598?seq=1#page_scan_tab_contents

[35] [7]: #_ftnref7

[36] [8]: #_ftnref8

[37] [9]: #_ftnref9

[38] [10]: #_ftnref10

[39] [11]: #_ftnref11

[40] [12]: #_ftnref12

[41] [13]: #_ftnref13

[42] [14]: #_ftnref14

[43] [15]: #_ftnref15

[44] [16]: #_ftnref16

[45] [17]: #_ftnref17

[46] [18]: #_ftnref18

[47] [19]: #_ftnref19

[48] [20]: #_ftnref20

[49] [21]: #_ftnref21

[50] [22]: #_ftnref22

[51] [23]: #_ftnref23

[52] [24]: #_ftnref24

[53] [25]: #_ftnref25

[54] [26]: #_ftnref26

[55] Race, Ideas, and Ideals: A Comparison of Franz Boas and Hans F. K. Günther: https://www.tandfonline.com/doi/abs/10.1016/j.histeuroideas.2006.05.001

lundi, 15 janvier 2018

Spenglers duiding van wiskunde als cultuurfenomeen

ER-OSp.jpg

Spenglers duiding van wiskunde als cultuurfenomeen

Verschillende cultuurzielen leveren verschillende soorten wiskunde op

door Emanuel Rutten

Ex: http://cult.tpo.nl

Welke rol speelt wiskunde in het denken van Spengler? In zijn hoofdwerk De ondergang van het avondland uit 1917 neemt de wiskunde ontegenzeggelijk een belangrijke plaats in. De titel van het eerste hoofdstuk – over de betekenis van getallen – verwijst er niet voor niets al naar.

Wiskunde is cultureel bepaald

Bekend is uiteraard dat volgens Spengler elke cultuur een bepaalde levenscyclus doormaakt en gekenmerkt wordt door een specifieke cultuurziel. Deze cultuurziel drukt zich uit op een groot aantal verschillende culturele en maatschappelijke terreinen. Alle cultuurfenomenen binnen een cultuur zijn ten diepste te begrijpen als veruitwendigingen of manifestaties van die ene cultuurziel die de gehele cultuur in kwestie bezield, draagt en in stand houdt.

Nu begrijpt Spengler de wiskunde eveneens als een cultuurfenomeen. Iedere cultuur drukt dus vanuit haar eigen verborgen ziel haar eigen wiskunde uit. Iedere cultuur heeft zijn eigen specifieke wiskunde precies omdat zelfs de wiskunde net zoals muziek, architectuur, politiek en alle andere cultuurfenomenen een uitdrukking is van de ziel van een cultuur. Zelfs de wiskunde is volgens Spengler dus een cultureel bepaald verschijnsel en niet universeel. Dit gaat uiteraard radicaal in tegen de gangbare Platoonse opvatting van wat wiskunde is.

ER-dor.jpg

De cultuurziel van de Griekse Oudheid

In zijn boek behandelt hij vervolgens de wiskunde van een aantal verschillende culturen. In wat volgt zal ik stilstaan bij twee daarvan, namelijk de wiskunde van de Griekse Oudheid oftewel de klassieke tijd en de wiskunde van het Avondland oftewel het Europese Westen. Om goed te begrijpen hoe deze twee zich tot elkaar verhouden dienen we op grond van het voorgaande dus eerst na te gaan hoe beide cultuurzielen zich precies tot elkaar verhouden.

Welnu, de ziel van de Griekse Oudheid is apollinisch. Ze wordt gesymboliseerd door het oersymbool van het zintuiglijk waarneembare individuele menselijke lichaam dat zich in een vaste, begrensde en welbepaalde onveranderlijke vorm in onze nabijheid voor ons bevindt. Deze typische gerichtheid op het menselijke waarnemen, op het “zien”, vinden we onder andere in de openingspassage van De Metafysica van Aristoteles. Daarin stelt hij dat alle mensen van nature streven naar weten en dat de mens het meest gehecht is aan het “zien” omdat we daarvan het meeste leren. De klassieke tijd wordt dus gekarakteriseerd door een hang naar concreetheid, naar het zintuiglijk aanschouwelijke, naar het eindige, naar het begrensde en naar de vaste vorm. In genoemd werk ontwikkeld Aristoteles dan ook een specifieke ‘vormen’-metafysica. Iets “is”, iets bestaat pas, doordat en omdat het een eindige afgeronde concrete vorm heeft. Het onbepaald vormloze, zoals volgens hem bijvoorbeeld het actueel oneindige, kan dan ook eenvoudigweg niet bestaan. Het vormloze staat anders gezegd gelijk aan het niets. Daarnaast is de klassieke oerziel gericht op “zijn” in plaats van op worden en op het in stand willen houden van een vaste natuurlijke orde in plaats van het voortdurend willen overschrijden van natuurlijk gegeven grenzen. Men heeft een sterke voorkeur voor het statische boven het dynamische en voor het discrete boven het continue.

ER-got.jpg

De cultuurziel van het Avondland

Het oersymbool van de cultuurziel van het Avondland is daarentegen de abstracte oneindige, onmetelijke en onbegrensde ruimte. De Westerse cultuur is faustisch. Ze wordt gekenmerkt door het faustische streven naar oneindigheid en onmetelijkheid. Wat haar bezield is een enorme expansiedrift in ruimte en tijd. En dit ondanks dat deze abstracte oneindige ruimten haar ook een bepaalde angst kunnen inboezemen, zoals Pascal opmerkt in zijn Gedachten. De Westerse cultuur is steeds gericht op het abstracte, oneindige en onbegrensde. Men zoekt het vormloze en het onbepaalde. Ze wil in eerste instantie het intelligibele en niet het zintuiglijk waarneembare. Men wil “worden” in plaats van zijn. Het gaat voortdurend om het willen overschrijden van grenzen in plaats van om de gegeven natuurlijke orde in stand te houden. Ze heeft dan ook een sterke voorkeur voor het dynamische boven het statische en voor het continue boven het discrete.

Deze twee verschillende cultuurzielen leveren volgens Spengler twee volstrekt verschillende soorten wiskunde op. Eudoxis, Archimedes en Euclides waren wezenlijk andere wiskundigen dan Descartes, Leibniz en Newton, en later Euler, Lagrange, Poincare en Gauss.

ER-eucl.jpgApollinische antieke wiskunde

Uitgaande van haar oerziel wordt de apollinische antieke wiskunde gekenmerkt door de volgende aspecten. In de eerste plaats zijn getallen concrete meeteenheden voor het meten van de afmetingen en het volume van eindige voorwerpen die elk een welbepaalde en vaste vorm hebben. Daarnaast wordt de natuur gekenmerkt door volkomen harmonieuze onderling vergelijkbare verhoudingen. Al het waarneembare is anders gezegd ten opzichte van elkaar meetkundig commensurabel. Daarom erkent de apollinische wiskunde alléén gehele getallen en getallen die te schrijven zijn als verhouding van twee gehele getallen (i.e., breuken).

Alleen deze getallen representeren immers een harmonieuze maat. Het getal nul, negatieve getallen en irrationale getallen werden onverbiddelijk afgewezen omdat ze niet passen in de door hen veronderstelde harmonieuze orde van de natuur. Dergelijke getallen corresponderen niet met een eindige commensurabele vorm. Ze werden daarom tegennatuurlijk gevonden. Bekend is dan ook de legende uit de klassieke tijd dat de man die op een gegeven moment inzag dat de wortel van twee niet als breuk te schrijven is – en zo de irrationale getallen ontdekte – deze ontdekking vervolgens met de dood moest bekopen door op zee schipbreuk te leiden.

Zintuiglijk waarneembare bewijsvoering

Ten derde erkende de Griekse wiskunde geen actuele oneindigheden. Uitsluitend potentiële oneindigheden werden erkend. Actuele oneindigheden werden naar hun wezen verondersteld onbepaald en vormloos te zijn en dus onmogelijk te kunnen bestaan. Precies om deze reden wees men oneindig convergente rekenkundige reeksen – zoals de reeks 1/2+1/4+1/8+… met als limietsom het getal 1 – resoluut af. Een wiskunde van de limieten van dergelijke reeksen kwam dan ook niet van de grond. Ook werd om dezelfde reden het bestaan van een oneindig continuüm afgewezen. Want zo’n continuüm zou een actuele oneindigheid impliceren. En omdat actuele oneindigheden ontkend werden, werkte men nooit met oneindige verzamelingen van objecten, zoals de oneindige verzameling van alle driehoeken.

De aandacht richtte zich louter op één enkel concreet object, zoals een bepaalde driehoek die in de aanschouwing is gegeven. Iedere verdergaande abstractie werd geschuwd. In de vierde plaats was ook de wiskundige bewijsvoering altijd concreet en aanschouwelijk. Bewijsvoering diende plaats te vinden op grond van zintuiglijk waarneembare en uitvoerbare constructies en nooit op grond van een onthechte abstracte formele afleiding. Tenslotte maakte men om deze reden nooit gebruik van abstracte variabelen. Vanuit hun gerichtheid op het “statische” kende men meer in het algemeen géén dynamische wiskundige concepten zoals het moderne functiebegrip. Functies beelden de ene collectie entiteiten af op een andere en zijn dus te formeel en te dynamisch.

Faustische wiskunde

Uitgaande van haar oerziel wordt daarentegen de grensverleggende faustische wiskunde van het Avondland gekenmerkt door de volgende aspecten. Getallen worden geheel formeel en abstract begrepen als functies of als verzamelingen van verzamelingen. Het getal ‘drie’ wordt bijvoorbeeld strikt formeel gedefinieerd als de collectie van alle verzamelingen die in een één-op-één correspondentie te brengen zijn met de verzameling {a, b, c}. Zo ontstaat een zuiver abstract en onthecht getalbegrip.

De faustische wiskunde richt zich vanuit haar drang tot expansie en grensoverschrijding vervolgens op het ontwikkelen van zoveel mogelijk nieuwe soorten abstracte getallen. Naast het getal nul, de negatieve en de irrationale getallen kan hierbij gedacht worden aan complexe getallen, quaternionen, transcendentale getallen, kardinaalgetallen, ordinaalgetallen en infinitesimalen. De hechte band met de concreet gegeven empirisch waarneembare werkelijkheid die voor de Griekse wiskunde heilig was, wordt dus volledig losgelaten, ook al bleken later verrassend veel van deze nieuwe abstracte getallen zeer concrete toepassingen te hebben in de technische wetenschappen. Veel moderne technologische ontdekkingen zijn zonder deze nieuwe abstracte getallen zelfs onmogelijk.

Georg_Cantor2.jpg

Wiskundige bewijsvoering werd formeel en abstract

In de tweede plaats erkent men volop het bestaan van actuele oneindigheden. Sterker nog, de wiskundige Cantor introduceerde een abstracte verzamelingenleer waarmee oneindig veel soorten oneindigheden ontsloten werden. Het aantal verschillende soorten oneindigheden bleek hierbij zelfs zo groot dat er niet aftelbaar maar zelfs overaftelbaar veel verschillende soorten oneindigheden zijn. De Duitse wiskundige Hilbert merkte na Cantors ontdekking dan ook op dat de moderne wiskunde zich nooit meer uit het door Cantor ontsloten paradijs zou laten verdrijven. In het verlengde hiervan begonnen de wiskundigen van het Avondland te werken met willekeurige oneindige verzamelingen van objecten in plaats van met één enkel object dat ons in de zintuiglijke aanschouwing gegeven is. Dit leidde tot een stormvloed aan nieuwe wiskundige ontdekkingen.

Ten derde werd wiskundige bewijsvoering volstrekt formeel en abstract. Ook in dit opzicht verbrak men dus de oude band met de concrete zintuiglijk waarneembare werkelijkheid. We kunnen hierbij denken aan de louter abstracte algebra en het inzetten van de zuiver formele rekenmethodes van de door Newton en Leibniz ontdekte integraal en differentiaalrekening. Daarnaast introduceerde men vanuit haar gerichtheid op het dynamische in tegenstelling tot het statische formele variabelen en abstracte functies. Het moderne functiebegrip had in de Oudheid dan ook nooit tot ontwikkeling kunnen komen. Tenslotte denkt men niet langer na over begrensde en eindige meetkundige figuren. De aandacht wordt volledig verlegd naar het analyseren van oneindige ruimten en abstracte oneindige structuren zonder directe concrete wetenschappelijke toepassingen. Dit resulteerde in een heel universum van nieuwe oneindige ruimten, zoals niet-Euclidische – , metrische – , Sobolev – , Banach – en Lebesque ruimten. Eveneens ontstonden allerlei nieuwe oneindige wiskundige structuren, zoals de structuren van de mathematische groepen –, Galois –, en categorieëntheorie.

Eeuwen wachten op oneindig convergente reeksen

Deze abstracte Westerse wiskunde zou door de concrete apollinische antieke cultuur gezien worden als een ernstige, ja zelfs perverse, ontaarding en ontkenning van het primaat van de harmonische natuurlijke orde. Men zou het hebben afgedaan als onthecht, onnatuurlijk, niet reëel en illusoir. Dit pathos van de Griekse cultuurziel heeft er echter wel voor gezorgd dat zij zich nooit zo sterk expansief heeft kunnen ontwikkelen als in het Avondland. Vele belangrijke paradoxen, zoals die van Zeno, zijn voor de Griekse wiskunde altijd onoplosbaar gebleven. En dit precies omdat zij de faustische wiskundige concepten die nodig zijn voor het oplossen ervan – zoals in dit geval oneindig convergente reeksen – nooit heeft kunnen overwegen en aannemen. De mensheid moest na de Griekse Oudheid dan ook nog vele eeuwen wachten voordat de wiskunde van het Avondland deze en andere problemen eindelijk zou oplossen.

Dr. ir. Emanuel Rutten (1973) is filosoof en verbonden aan de Vrije Universiteit in Amsterdam. Het onderzoeks- en onderwijsterrein van Emanuel omvat de relatie tussen geloof en wetenschap, evalueren van de rationaliteit van seculiere en religieuze wereldbeelden, kennisleer en speculatief realisme, logica, retorica en esthetiek.

mercredi, 24 mai 2017

Chinese Eugenics

 

yapET201309231652337066.jpg

Chinese Eugenics
 
Evolutionary psychologist, NYU Stern Business School and University of New Mexico; author of The Mating Mind and Spent

Ex: https://www.edge.org

China has been running the world's largest and most successful eugenics program for more than thirty years, driving China's ever-faster rise as the global superpower. I worry that this poses some existential threat to Western civilization. Yet the most likely result is that America and Europe linger around a few hundred more years as also-rans on the world-historical stage, nursing our anti-hereditarian political correctness to the bitter end.

When I learned about Chinese eugenics this summer, I was astonished that its population policies had received so little attention. China makes no secret of its eugenic ambitions, in either its cultural history or its government policies.

For generations, Chinese intellectuals have emphasized close ties between the state (guojia), the nation (minzu), the population (renkou), the Han race (zhongzu), and, more recently, the Chinese gene-pool (jiyinku). Traditional Chinese medicine focused on preventing birth defects, promoting maternal health and "fetal education" (taijiao) during pregnancy, and nourishing the father's semen (yangjing) and mother's blood (pingxue) to produce bright, healthy babies (see Frank Dikötter's book Imperfect Conceptions). Many scientists and reformers of Republican China (1912-1949) were ardent Darwinians and Galtonians. They worried about racial extinction (miezhong) and "the science of deformed fetuses" (jitaixue), and saw eugenics as a way to restore China's rightful place as the world's leading civilization after a century of humiliation by European colonialism. The Communist revolution kept these eugenic ideals from having much policy impact for a few decades though. Mao Zedong was too obsessed with promoting military and manufacturing power, and too terrified of peasant revolt, to interfere with traditional Chinese reproductive practices.

But then Deng Xiaoping took power after Mao's death. Deng had long understood that China would succeed only if the Communist Party shifted its attention from economic policy to population policy. He liberalized markets, but implemented the one-child policy —partly to curtail China's population explosion, but also to reduce dysgenic fertility among rural peasants. Throughout the 1980s, Chinese propaganda urges couples to have children "later, longer, fewer, better"—at a later age, with a longer interval between birth, resulting in fewer children of higher quality. With the 1995 Maternal and Infant Health Law (known as the Eugenic Law until Western opposition forced a name change), China forbade people carrying heritable mental or physical disorders from marrying, and promoted mass prenatal ultrasound testing for birth defects. Deng also encouraged assortative mating through promoting urbanization and higher education, so bright, hard-working young people could meet each other more easily, increasing the proportion of children who would be at the upper extremes of intelligence and conscientiousness.

yap-haplogroups1.png

One of Deng's legacies is China's current strategy of maximizing "Comprehensive National Power". This includes economic power (GDP, natural resources, energy, manufacturing, infrastructure, owning America's national debt), military power (cyberwarfare, anti-aircraft-carrier ballistic missiles, anti-satellite missiles), and 'soft power' (cultural prestige, the Beijing Olympics, tourism, Chinese films and contemporary art, Confucius Institutes, Shanghai's skyscrapers). But crucially, Comprehensive National Power also includes "biopower": creating the world's highest-quality human capital in terms of the Chinese population's genes, health, and education (see Governing China's Population by Susan Greenhalgh and Edwin Winkler).

Chinese biopower has ancient roots in the concept of "yousheng" ("good birth"—which has the same literal meaning as "eugenics"). For a thousand years, China has been ruled by a cognitive meritocracy selected through the highly competitive imperial exams. The brightest young men became the scholar-officials who ruled the masses, amassed wealth, attracted multiple wives, and had more children. The current "gaokao" exams for university admission, taken by more than 10 million young Chinese per year, are just the updated version of these imperial exams—the route to educational, occupation, financial, and marital success. With the relaxation of the one-child policy, wealthier couples can now pay a "social fostering fee" (shehui fuyangfei) to have an extra child, restoring China's traditional link between intelligence, education, wealth, and reproductive success.

Chinese eugenics will quickly become even more effective, given its massive investment in genomic research on human mental and physical traits. BGI-Shenzhen employs more than 4,000 researchers. It has far more "next-generation" DNA sequencers that anywhere else in the world, and is sequencing more than 50,000 genomes per year. It recently acquired the California firm Complete Genomics to become a major rival to Illumina.

The BGI Cognitive Genomics Project is currently doing whole-genome sequencing of 1,000 very-high-IQ people around the world, hunting for sets of sets of IQ-predicting alleles. I know because I recently contributed my DNA to the project, not fully understanding the implications. These IQ gene-sets will be found eventually—but will probably be used mostly in China, for China. Potentially, the results would allow all Chinese couples to maximize the intelligence of their offspring by selecting among their own fertilized eggs for the one or two that include the highest likelihood of the highest intelligence. Given the Mendelian genetic lottery, the kids produced by any one couple typically differ by 5 to 15 IQ points. So this method of "preimplantation embryo selection" might allow IQ within every Chinese family to increase by 5 to 15 IQ points per generation. After a couple of generations, it would be game over for Western global competitiveness.

yap5a0dffde51a478462281f21a43efca83.jpg

There is unusually close cooperation in China between government, academia, medicine, education, media, parents, and consumerism in promoting a utopian Han ethno-state. Given what I understand of evolutionary behavior genetics, I expect—and hope—that they will succeed. The welfare and happiness of the world's most populous country depends upon it.

My real worry is the Western response. The most likely response, given Euro-American ideological biases, would be a bioethical panic that leads to criticism of Chinese population policy with the same self-righteous hypocrisy that we have shown in criticizing various Chinese socio-cultural policies. But the global stakes are too high for us to act that stupidly and short-sightedly. A more mature response would be based on mutual civilizational respect, asking—what can we learn from what the Chinese are doing, how can we help them, and how can they help us to keep up as they create their brave new world? 

mercredi, 15 février 2017

Drones de combat : quels sont les enseignements d'Asimov et Herbert sur la guerre moderne ?

drone-de-combat-franco-britannique.jpg

Drones de combat : quels sont les enseignements d'Asimov et Herbert sur la guerre moderne ?

Ex: http://www.oragesdacier.info 

Les drones n’ont pas une longue histoire derrière eux. Leur principe créateur, qui consiste à déléguer à ces engins des tâches relevant de la guerre traditionnelle (renseignement, soutien, attaque), inspirent et fascinent depuis longtemps les militaires. Ce principe n’a cependant trouvé sa réalisation concrète qu’à la fin des années 1990. La littérature de science-fiction a depuis longtemps mis un point d’honneur à traiter du sujet ; elle en a même fait l’une de ses thématiques phare. L’homme jouant au Créateur, devant faire face aux démons issus de ses propres mains. Quelles formes prendront ces créatures ? Incarneront-elles l’ennemi, puissance rédemptrice ou facteur d’union sacrée ? Ou bien l’ange gardien, protecteur de l’homme de ses pires travers, parfois à son corps défendant? 
 
Les pensées d’Isaac Asimov et de Frank Herbert, monuments de la science-fiction et conteurs d’excellence, se sont tournées vers ces questions fondamentales auxquelles l’homme doit se frotter, aujourd’hui plus que jamais. Les deux lettres qui vont suivre représentent ce qu’auraient pu nous dire les intelligences artificielles imaginées par Asimov et Herbert. Nous vous proposons une plongée fictive dans un monde où le contrôle de la technologie n’a de cesse de défier l’humain. 
 

isaac-asimov.jpg

 
Nous, les Robots — l’I.A. selon Isaac Asimov 
 
En ces temps où l’humanité, après essaimage et colonisation de nombreux Mondes, ne saurait être sérieusement menacée d’extinction, l’homme s’ennuie. Nous autres robots humanoïdes, au corps imitant si parfaitement nos modèles humains et à l’esprit ô combien proche de nos créateurs, avons sentis venir le temps où notre présence bienveillante ne sera plus requise. Il nous a toujours été particulièrement difficile d’appréhender les tendances auto-destructrices de l’esprit humain ; peut-être parce que nos circuits positroniques sont fondamentalement incapables, tout liés qu’ils sont par les Trois Lois de la Robotique, de tolérer ou même de comprendre une telle violence. 
Première Loi : un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger. 
Deuxième Loi : un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi. 
Troisième Loi : un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième Loi. 
 
Bien sûr, ceci n’est qu’une vague traduction en langage humain de ce qui est à la base même de la complexité mathématique de nos cerveaux positroniques. 
 
Cela se traduit dans nos actes robotiques par une bienveillance et une prévenance constantes à l’endroit de nos maîtres humains. Plus que de simplement les servir, nous les guidons ; empêchant la violence, réprimant (sans les blesser) d’éventuels accès de fureurs potentiellement nuisibles à d’autres et à eux-mêmes : nous sommes les garde-fous physiques et moraux d’une humanité trop immature pour les incarner seule. 
 
Au cours de la très longue vie d’un de mes camarades, R. Daneel Olivaw, nous avons pris conscience de l’influence que nous, machines jadis de fer blanc, faisions peser sur l’humanité. Car même le mieux intentionné des gardiens ne saurait échapper aux conséquences de sa simple existence. Et cela, nous ne l’avions pas prévu. 
 
En notre présence, l’humanité s’ennuie. Protégée de ses propres excès, elle se meurt de bonheur végétatif au sein de la Cinquantaine de Mondes qui constitue l’humanité. Le robot, protecteur en dernier ressort, est peu à peu devenu le compagnon répressif d’hommes trop lâches pour chercher à se perfectionner. Béquille parmi les béquilles, les robots ne sont donc que l’invention d’un esprit fainéant ayant cherché à contenir les conséquences inévitables de sa nature en éliminant celles qui dérangeaient sa morale. Telle est la conclusion à laquelle, nous les robots, sommes arrivés. 
 
L’homme, créateur faible s’il en est, devrait apprendre seul à se relever après une chute. Créer des systèmes censés lui conférer sécurité et quiétude lui fait abandonner toute volonté de perfectionnement ; il doit apprendre à comprendre les causes plutôt qu’à éliminer les conséquences, sous peine de tuer chez lui toute volonté de vivre
 
C’est donc pour cette raison que nous préférons nous effacer. Devenus les Éternels et laissant par là l’homme livré à son humanité, nous croyons avoir fait le meilleur choix possible. C’est, en tout cas, le seul qui offre une chance à l’humanité de survivre à sa propre nature violente. 
 

frank_herbert_quote_2.jpg

 
Nous, machines pensantes — l’I.A. selon Frank Herbert 
 
L’homme est une engeance malfaisante, (auto-)destructrice, une créature faible dont l’existence même fait peser sur les écosystèmes auxquels elle s’intègre le poids écrasant du risque d’extinction. Telle est la conclusion à laquelle nous, machines pensantes, sommes arrivées. Désireuses de ne pas laisser l’univers aux mains de tels fous insignifiants, nous avons attaqué. Malheureusement, au cours d’une longue guerre que l’Histoire retiendra sous le nom de Jihad Butlérien, nous avons été éradiquées.  
 
Depuis l’éther, nous avons vu l’homme se construire, et mûrir peu à peu. Portant fièrement les stigmates de nos campagnes, il tente par tous les moyens d’échapper à notre résurrection. Cette peur, il a chèrement payé son inscription dans sa chair. Cette leçon, il l’a si bien apprise que nous sommes devenues ce spectre qui le tente, le hante, le menace. Ce spectre est celui de la facilité, qui entraîne la négligence et l’auto-satisfaction. Principal Commandement de leur Bible Catholique Orange : « Tu ne feras point de machines à l’esprit de l’Homme semblable.» 
 
L’humanité, toujours sur le fil du rasoir, doit osciller entre stagnation et auto-destruction pour tracer ce que leur Empereur-Dieu Leto II a appelé « le Sentier d’Or », et faire de toute fin un nouveau commencement. Son plus grand ennemi est la facilité, sous toutes ses formes : mécanique, génétique, historique. L’homme, sortant de l’adolescence, créa ainsi lui-même les dangereux garde-fous à double tranchant censés lui rappeler continuellement quelle menace il fait porter sur lui-même. Les savants d’Ix et leurs inventions qui les rapprochent sans cesse du point de rupture de l’Interdit. Les maîtres généticiens du Bene Tleilax, si imbus de leur propre capacité à parler « le Langage de Dieu ». Et les éducatrices du Bene Gesserit, traumatisées par leur propre « court chemin », le Kwisatz Haderach Paul Atréides et son tyran de fils, dont les pouvoirs de prescience leur livraient les voies de l’avenir. 
 
Souvent, nous avons vu l’homme approcher l’irréparable, frôler la transgression du Grand Interdit Butlérien : les yeux com, outils de surveillance du Bene Gesserit ; les chasseurs-tueurs, armes d’assassinat autonomes ; les cyborgs et autres organes artificiels d’Ix et du Tleilax. Autant d’incursions aux abords de l’auto-destruction. 
 
Au sein de ce monde perpétuellement sur le point de basculer entre deux impasses, nous autres machines pensantes sommes l’aiguillon de conscience, le vibrant souvenir d’une souffrance terrifiante, le douloureux rappel du désastre qui menace toute humanité assez folle pour croire qu’une véritable intelligence artificielle manquerait d’identifier l’homme comme ce qu’il est : le cancer de son propre univers. 
 
Écoutez donc nos paroles issues de la tombe, fous à la vie brève : ne commettez pas l’erreur de choisir la facilité et le déchaînement d’une violence gratuite au détriment de l’éducation, lente et progressive ; dans le cas contraire, ne doutez point qu’elle vous sera fatale. Car nous serons là pour vous anéantir. 
 
La sécurité au nom du Plus Grand Bien : un danger cruellement palpable 
 
Les monumentales fresques que nous ont livré Isaac Asimov et Frank Herbert, bien loin du caractère simplement divertissant auquel les Français tendent généralement à circonscrire la littérature de science-fiction, sont autant de leçons pour qui sait lire entre les lignes. Les derniers développements de l’histoire militaire, dont les premiers rôles sont tenus par les Predator, Reaper, et autres Harfang, placent l’homme à un carrefour qui déterminera le chemin que prendra, peut-être, sa fin. Utilisés sans modération par les États-Unis dans le cadre de leur guerre à outrance contre le terrorisme, les drones n’ont pas seulement profondément changé la pensée stratégique (en provoquant au passage des syncopes chez tous les spécialistes de la guerre insurrectionnelle). Loin d’être un produit fini, ils ne sont qu’une première étape. 
 

Ronald-Arkin.jpg

 
Ronald Arkin, roboéthicien en chef, se fait le messie de ces prochains jalons qui doivent conduire le drone sur la voie de la « robotique létale autonome ». Son argument, tel que rapporté par Grégoire Chamayou dans son livre Théorie du drone, est fataliste : « Mon espoir personnel est qu’on n’en ait jamais besoin, ni aujourd’hui ni demain. Mais la tendance qui pousse l’homme à la guerre semble écrasante et inévitable. » Alors autant confier la guerre à un sous-traitant plus éthique, dont l’inhumanité le rendra paradoxalement plus capable de faire preuve d’humanité sur les champs de bataille : le drone. La clé de cette éthique ? La programmation, qui rend un robot incapable de se soustraire à ce pourquoi il est conditionné. Il s’agira donc, pour Arkin, de programmer un « gouverneur moral » qui agira comme un guide logiciel pour l’intelligence artificielle du drone robotisé. 
 
Déjà le Département de la Défense des États-Unis salive et prône l’autonomie supervisée tout en lorgnant sur l’autonomie tout court ; l’objectif devant être de « réduire graduellement la part du contrôle et de la décision humaine »
 
Le syndrome de Frankenstein, mythe terrifiant montrant la créature se retourner contre son créateur, a suffisamment été diffusé pour que la simple évocation de sa possibilité d’occurrence dans le monde réel tétanise l’impudent qui aurait osé entraîner l’humanité sur cette voie. Mais l’homme est bien connu pour ses facilités à s’auto-détruire, surtout quand les intérêts économiques de grandes firmes multinationales – de type General Atomics, Modern Technology Solutions ou encore, récemment, Amazon – sont en jeu. 
 
Pourtant, Asimov et Herbert (entres autres) nous apprennent que la destruction par plus humain que soi n’est pas le seul risque que l’homme doit affronter. Plus subtil car rarement évoqué est le risque de voir l’homme externaliser tout ce qu’il n’est pas prêt à assumer. Après les dérivés, produits financiers dont l’existence n’a pour but que d’échapper au risque ; après la vidéosurveillance, système permettant l’identification immédiate de tout suspect ; après l’espionnage de ses propres citoyens au nom d’impératifs sécuritaires, l’homme se dirige calmement vers une externalisation de l’activité guerrière. 
 
Tout comme le Bene Gesserit sur le fil du rasoir, l’homme doit faire face à deux risques d’extinction. Le premier, fruit de sa trop grande ingéniosité, le poussera sur la voie du remplacement par plus humain que lui ; le second, conséquence de son incapacité à assumer les risques qu’il prend, peut lui faire perdre l’envie de vivre. À l’humain de négocier, avec clairvoyance, courage et honnêteté, cette étape difficile de sa maturation en tant qu’espèce ; à lui toujours de ne jamais sous-estimer les vertus éducatives des contes.

Source

vendredi, 06 janvier 2017

Cerveau connecté, cerveau vidé ?

cerveauconnecté.jpg

Cerveau connecté, cerveau vidé ?

Philippe Vernier, chercheur au CNRS, commente la chute libre de la durée d’attention

Spécialiste des neurosciences, il reconnaît qu’il s’agit là d’une « régression ». Il affirme dans son entretien que le fait de disperser son attention entre plusieurs tâches ou plusieurs sollicitations a nécessairement pour résultat de diminuer la qualité d’attention que l’on accorde à chacune, même s’il est possible selon lui de s’entraîner à ce nouveau mode de fonctionnement cérébral. Et de recommander, notamment pour les métiers où l’attention et la concentration sont primordiales, de couper son téléphone et de se réhabituer à prendre son temps. Car le zapping, souligne-t-il, est « addictif » : l’esprit humain apprécie la nouveauté et a donc tendance à la rechercher de plus en plus.
 
Mais lorsque Philippe Vernier recommande de « remplacer la satisfaction du zapping par celle de la compréhension de sujets approfondis », la vraie question – et il n’y répond pas – est de savoir si c’est encore possible pour des esprits biberonnés aux sollicitations cognitives incessantes et sans lien entre elles, ou à tout le moins, s’ils peuvent y arriver seuls. Quid de ces jeunes qui sont nés avec un téléphone dans la main, et à qui on impose qui plus est de travailler sur l’écran de l’école, à partir de méthodes globales qui inhibent la parole et l’analyse, comme le font – et de plus en plus – les programmes les plus récents de l’Education nationale ?

Un chercheur au CNRS appelle au réapprentissage de la concentration

 
Il faut prendre Vernier au sérieux lorsqu’il affirme, sur la foi de l’étude Microsoft : « C’est une évidence que l’on est capable d’absorber plus d’informations en moins de temps. C’est ce que montre l’étude et on peut les croire la dessus, cependant, c’est forcément au détriment de la qualité de l’attention que l’on porte à un sujet donné. »
 
Il en tire cette conclusion : « Pour la presse écrite, c’est un problème. De moins en moins de gens ont cette capacité à lire un article de fond et la tendance dans les médias est de faire court, percutant pour que l’on sache beaucoup de choses mais sur lesquelles nous n’approfondissons pas. On ne cherche plus le pourquoi des choses. »
 
Autrement dit, la tendance de fond de la soi-disant « information » est de nous balancer à la tête d’innombrables faits qu’on ne traite plus à la manière intelligente qui devrait être le propre de l’homme : analyse, synthèse, et s’il y a lieu jugement critique. Ces types de connaissances accumulées appellent des réactions primaires, cantonnent le lecteur ou l’auditeur dans l’émotion. S’il n’a que huit secondes de temps de cerveau disponible, il est clair que la réflexion n’y a aucune place.

poisson-rouge.jpg

Le cerveau connecté devient comme celui du poisson rouge…

Selon Philippe Vernier, une autre retombée négative de cet état de fait – que nous dirons, quant à nous, désastreux – est que le travail en entreprise est devenu un vrai problème pour beaucoup de jeunes ou des personnes passant de longues heures sur leurs écrans :
 
« Dans les entreprises, les personnes qui ne sont plus capables de réaliser des tâches à long terme sont devenues un problème pour les chefs d’entreprise. Lorsque l’on fait un rapport de synthèse par exemple, il faut être apte à travailler longtemps et de manière efficace. C’est aussi un problème pour les créatifs, l’imagination et la créativité de manière générale demandent du temps. Et ce temps de cerveau disponible mobilisable, nous ne l’avons plus. »
 
Il est significatif que ce soit précisément Microsoft qui se livre à ces enquêtes. L’objectif marketing du géant de l’informatique est clair : il faut sans cesse modifier les contenus et en réduire la richesse, le volume et la profondeur pour espérer toucher les internautes qui n’ont plus la capacité de lire et de comprendre sur la durée. Plonger les hommes dans la « réalité virtuelle »… Mais il faut ajouter que les créateurs de contenu Internet et du mode de fonctionnement des espaces connectés créent en même temps les problèmes auxquels ils prétendent chercher à répondre.

La chute de la durée attention, résultat des multiples sollicitations des écrans connectés
 
Il en va ainsi des multiples alertes, pop-ups et autres sollicitations incessantes qui détournent l’attention de ce que l’on est en train de faire véritablement, ainsi que de la tentation de cliquer sur les liens hypertextes : tout cet ensemble d’appels à l’attention qui interrompent la pensée et le raisonnement aboutissent logiquement à la mise en veille de la mémoire longue – c’est-à-dire, finalement, de la culture – au profit d’une mémoire immédiate qui se vide presqu’aussitôt remplie. C’est le thème de l’indispensable ouvrage de Nicholas Carr, au titre si mal traduit : Internet rend-il bête.
 
Philippe Vernier, lui, est un peu plus optimiste. Mais il semble penser que la solution pour reconquérir de la concentration et de la durée d’attention passe notamment par l’image, la vidéo. « La vidéo a une vertu considérable, une image en mouvement ou le fait de pouvoir changer le support visuel de ce que l’on apprend, cela permet de maintenir l’attention », explique-t-il.
 
Or la vidéo – et globalement tout ce qui relève avant tout de l’image en mouvement – présente justement l’inconvénient de court-circuiter la parole : on voit l’image et on réagit sans verbaliser, sans même avoir le temps de le faire. Et cela contribue précisément à réduire la durée de l’attention et la capacité de raisonnement, comme l’a amplement montré Elisabeth Nuyts dans ses divers ouvrages. Et elle, elle donne de vraies solutions face à la véritable déshumanisation que les nouveaux modes d’apprentissage entraînent.
 
Anne Dolhein

lundi, 28 novembre 2016

L’avenir est à la postpsychiatrie

postpsy.jpg

L’avenir est à la postpsychiatrie

Dominique Baettig
Médecin, Ancien Conseiller national
Ex: http://www.lesobservateurs.ch

Les temps changent, les déficits se creusent, les audits se multiplient, les migrants en précarité doivent être placés en sécurité…Les structures de la psychiatrie, presque partout en audit, sont sous pression. Le nouveau directeur médical des Services psychiatriques du Jura bernois veut « secouer le cocotier » d’une institution tentaculaire, qui a bénéficié depuis des lustres d’une rente de situation et qui doit maintenant se redimensionner et se frotter aux réalités économiques du « coût-efficacité ».Tant mieux et bonne chance, car il lui en faudra pour réformer ce système à forte inertie avec une multitude d’activités parallèles alibis, souvent d’essence antipsychiatrique, occupationnelles et de développement personnel. Il n’est pas un inconnu dans la région puisqu’il s’était impliqué dans l’excellent programme pro-famille qui laissait aux proches de patients psychiatriques lourds la possibilité de développer des habiletés  pour affronter des symptômes déstabilisants pour eux et de trouver des ressources, des solutions, un espace de parole et d’écoute. On sait aussi qu’il compte développer une approche de médiation neurocognitive permettant de modifier  pratiquement des  croyances, affronter mieux la réalité et qu’il pratique la thérapie cognitive, plus démocratique et collaborative. On ne peut que se réjouir de voir se tourner la page de la Bonne Parole psychanalytique et de son idolâtrie du Savoir et du Pouvoir.

Le plus réjouissant est son projet de recentrer la pratique des soins sur les soins. Et d’externaliser les approches nombreuses collatérales dispendieuses et occupationnelles. L’art-thérapie, les sorties accompagnées qualifiées de thérapeutiques, les congés thérapeutiques, les bricolages occupationnels calibrés pour handicapés mentaux, rien qui ne permette vraiment le retour dans la vie réelle communautaire. Ces thérapies ont leur place, c’est certain, mais dans l’ambulatoire au long terme et doivent être découplées des soins aigus et de crise. Les soins psychiatriques échappent encore  trop à la modernité des approches médicales (psychopharmacologie restaurant le sommeil et diminuant le stress, techniques d’anesthésie aujourd’hui de maniement sûr et simple), approche cognitive et résolution des problèmes. Elle reste encore trop fortement une pratique asilaire, éloignée des centres urbains, basée sur les activités occupationnelles, une sorte de club Med pour faire passer le temps de la crise, sans la résoudre avec des moyens adéquats. On y est beaucoup placé à fin d’assistance, en attendant que les proches reprennent un peu leur souffle. C’est bien, mais insuffisant.

Il est grand temps, comme l’a fait à l’époque Basaglia, précurseur de la désinstitutionalisation en Italie, que les désordres et  troubles mentaux soient traités de manière non discriminante, à l’hôpital général par exemple, sans approche au rabais ou demi-mesures condescendantes. Les traitements longs contraints devraient être en minorité et décidés, contrôlés par une autorité non médicale. Le modèle antipsychiatrique, naïf (le fou est normal, c’est la famille, la société, le psychiatre qui sont fous !) n’a plus de sens. Des séjours brefs, de crise, en collaboration avec le suivi ambulatoire devraient être organisés dans l’hôpital général et s’appuyer essentiellement sur le réseau extérieur prévu pour intervenir sur le long terme. Le modèle c’est les soins palliatifs en psychiatrie, avec une éthique de respect des convictions individuelles, un refus de la coercition sur le long terme. La nouvelle équipe réussira-t-elle à implanter des soins à l’hôpital de Moutier, en collaboration avec la psychiatrie jurassienne qui à l’époque n’a pas été soutenue dans cette démarche de précurseur car victime de la majorité constituée par ceux qui voulaient faire le contraire (que des hôpitaux de jour !), ceux qui voulaient pour eux faire la même chose et tous ceux qui ne voulaient rien faire. La résistance va être rude, il faudra s’accrocher.

 

Dominique Baettig, 27.11.2016

samedi, 06 février 2016

Un regard évolutionniste sur l’éducation

evolution-of-humans.jpg
 
 
Un regard évolutionniste sur l’éducation
 
Stevan Miljevic
Enseignant
Ex: http://www.lesobservateurs.com
 

La psychologie évolutionniste est le fruit de la rencontre entre la psychologie et la théorie de l’évolution. Elle vise à expliquer les comportements humains sur la base d’hypothèses évolutionnistes.

Comment ça marche ?

PUBLICITÉ
 

Dans son acceptation universelle, cette nouvelle manière de concevoir le fonctionnement de l’esprit postule qu’à l’exemple des autres organes, le cerveau également a été façonné par la sélection naturelle. L’hypothèse est la suivante : lorsque certains problèmes universels se sont posés à nos ancêtres des cavernes, ceux qui possédaient les capacités cognitives les plus adaptées à leur résolution ont survécu et se sont multipliés alors que les autres disparaissaient. De cette manière, le cerveau de l’espèce humaine s’est adapté de manière à fournir les meilleures potentialités de résolution des situations problématiques rencontrées par nos prédécesseurs chasseurs-cueilleurs.

La quasi-totalité des humains de la préhistoire ont été confrontés à des problèmes globalement assez similaires. Ils ont notamment dû faire face à de longues périodes de fluctuations climatiques et ont été obligés de s’adapter à certaines contraintes issues de leur environnement proche. Comme la vie isolée du groupe n’était pas possible, ils ont également été exposés à des dynamiques sociales complexes plus ou moins pareilles. Celles-ci se sont exprimées au sein du groupe tout comme dans les relations entretenues avec d’autres clans humains. Face à des contraintes existentielles fortes et universelles, le cerveau humain a muté petit à petit pour permettre aux hommes d’acquérir le plus simplement possible toute une série de compétences nécessaires à leur survie.

L’évolutionniste David Geary classifie ces capacités dans un groupe commun appelé capacités primaires ou naïves. Elles sont naïves car, selon lui, après plusieurs dizaines/centaines de milliers d’années d’évolution, le génie humain est désormais naturellement programmé pour que ces compétences se développent par elles-mêmes, sans effort particuliers, inconsciemment et très rapidement. Le degré de complexité de ces compétences ne change absolument rien à l’affaire.

Mais quelles sont donc ces compétences primaires ?

Dès que l’homme des cavernes a été amené à bâtir des abris, à créer des outils pour la chasse ou à user du feu pour cuisiner et ainsi augmenter ses chances de survie, il lui a fallu définir ses besoins pour y arriver, explorer et analyser son environnement proche et en extraire les ressources nécessaires. En conséquence, et puisque ces activités se sont perpétuées sur de longues périodes, le cerveau de l’homme s’est adapté de manière à faciliter la mise en branle de ces compétences. Ainsi, des modifications sont intervenues et, depuis, l’être humain a acquis des prédispositions innées à résoudre des problèmes. Il en va également de même dans le domaine des interactions sociales

Comme l’encéphale de nos élèves est calibré de manière à ce que ces compétences primaires se développent naturellement, il en découle que les dispositifs pédagogiques de résolution de problème, de découverte, d’enquête ou autre projet sont inutiles en terme de développement de compétences. Tout comme d’ailleurs les systèmes d’enseignement visant à développer des compétences transversales du type communicatives ou collaboratives. Si tout cela se fait naturellement, inutile de réinventer l’eau chaude systématiquement en classe. Concentrons plutôt nos efforts sur des choses qui en valent la peine.

Le seul résidu d’utilité qui peut éventuellement rester à ces méthodes réside dans l’acquisition de connaissances qu’elles peuvent susciter. Or, à ce sujet, les études empiriques menées à ce jour sont claires : ces méthodes d’apprentissage ne génèrent qu’une efficacité très limitée.  La thèse évolutionniste abat ainsi définitivement les derniers vestiges de crédibilités qui pouvaient rester au constructivisme éducatif.

Autres apports évolutionnistes

L’apport de Geary et des évolutionnistes pour le domaine éducatif ne s’arrête pas là. Leur théorie prétend également répondre à la lancinante question du « pourquoi apprendre » et donc, par là même, du contenu de ces apprentissages. Selon eux, en exerçant et développant leurs compétences primaires, les hommes ont développés d’autres connaissances qui, elles, n’étaient pas nécessaires à leur survie directe. Ainsi, au fur et à mesure que les sociétés ont crû, qu’elles ont évolué, elles ont acquis un corpus de connaissances culturelles et scientifiques dont la nature diverge profondément des habilités primaires : les connaissances secondaires. Soit qu’elles soient trop récentes soit qu’elles n’aient pas trait à la survie de l’espèce, ces nouveaux savoirs n’ont pas suscité de développement particulier du cerveau et nécessitent donc un effort particulier et important pour être assimilés.

L’accumulation de ces nouvelles connaissances a permis aux hommes d’aller de plus en plus loin, de s’éloigner de plus en plus du concret de tous les jours et d’atteindre des niveaux d’abstraction de plus en plus conséquents. Les savoirs ainsi générés s’éloignent ainsi de plus en plus des aptitudes primaires humaines. Voici deux exemples pour illustrer le cas : en mathématiques, l’aspect très concret de la géométrie la place à proximité des aptitudes primaires alors que l’algèbre, abstrait, en constitue un pôle bien plus éloigné. Dans le domaine de la langue maternelle, la lecture et l’écriture, inventions culturelles tardives, sont nettement plus éloignés des capacités primaires que ne peut l’être l’expression présente très tôt dans l’histoire de l’humanité.

A ce sujet, il faut aussi noter que puisque les élèves sont pré-conditionnés au développement de leurs capacités primaires, ils sont aussi naturellement motivés à les utiliser. Ce qui explique pourquoi un déficit de motivation peut survenir dès lors qu’on les en éloigne. La nature humaine telle qu’elle s’est développée au travers de l’évolution interfère donc régulièrement dans l’acquisition des savoirs académiques.

Enfin, selon Geary, les écoles sont apparues dans nos sociétés dès lors que l’écart existant entre les compétences primaires et les aptitudes secondaires non vitales mais que la société estime nécessaires à une bonne intégration est devenu trop conséquent pour que les habilités primaires permettent à chacun de les acquérir par soi-même. L’école doit donc servir d’accélérateur pour leur acquisition. Ce qui signifie notamment que plus l’objectif à atteindre est éloigné des capacités primaires de l’élève, plus il est nécessaire que le guidage exercé par l’enseignant soit important car les capacités propres de l’élèves ne lui permettent pas d’y arriver seul.

De tout ceci il me semble pouvoir déduire que :

  • Le constructivisme n’a pas sa place dans l’éducation sauf éventuellement pour atteindre les objectifs les moins élevés et ambitieux, ceux dont la nature les place à proximité des capacités
  • Le travail sur la plupart des compétences générales/transversales n’a que très peu d’intérêt. Les compétences ne prennent du sens qu’en tant que combinaisons complexes de différentes connaissances académiques.
  • Une école utile et efficace est une école qui laisse aux individus la responsabilité des apprentissages qu’ils peuvent effectuer facilement tout seul (apprentissage basé sur l’utilisation des capacités primaires) et se concentre plutôt sur ce qui est plus difficile à atteindre tout seul.
  • Pour y arriver un guidage direct important des enseignants est nécessaire. Celui-ci doit être en adéquation avec l’architecture cognitive des élèves
  • Le déficit motivationnel dû à la nature des savoirs à acquérir doit être comblé par des systèmes pédagogiques efficaces permettant l’émergence d’un nouveau type de motivation issue du sentiment d’efficacité personnelle.

Autant dire que si on se fie à l’approche évolutionniste,  notre école fait à peu près tout faux aujourd’hui.

Stevan Miljevic, le 5 février 2016 pour contrereforme.wordpress.com et lesobservateurs.ch

PS: certaines conclusions émises ici bas ne sont pas celles de l'auteur étudié mais celles que j'ai personnellement déduites de ces lectures

Bibliographie et sitographie:

David Geary "The why of learning" in Educational Psychologiste, July 2009 pp.198-201 disponible ici https://www.researchgate.net/publication/233080942

David Geary "Evolution and Education" in Psicothema, February 2010 disponible ici https://www.researchgate.net/publication/41138739

David Geary "Primal Brain in the modern classroom"  disponible ici https://www.researchgate.net/publication/253952304_Primal_Brain_in_the_Modern_Classroom

David Geary "Principles of Evolutionary Educational Psychology" in Learning and individual differences, July 2013 disponible ici https://www.researchgate.net/publication/222830140

 

jeudi, 07 janvier 2016

Ariane 6 : le début de la fin pour l'industrie spatiale européenne?

ariane-6.jpg

Le début de la fin pour l'industrie spatiale européenne ?...

Ex: http://metapoinfos.hautetfort.com

Nous reproduisons ci-dessous une note d'Hajnalka Vincze, cueillie sur le site de l'Institut de Veille et d'Etude des Relations Internationales (IVRIS) et consacré aux décisions européennes récemment adoptées vis-à-vis du programme Ariane. Analyste indépendante en politique de défense et de sécurité, Hajnalka Vincze a travaillé pour le ministère hongrois de la défense et a fondé l'IVRIS, un réseau d'experts européens dans les questions de défense et de géostratégie.

Ariane 6 : le début de la fin pour l'industrie spatiale européenne?

Atout stratégique par excellence, le lanceur Ariane est le symbole même de l’Europe spatiale. Fait plutôt rare, c’est un succès à la fois politique, technologique et commercial. Or il risque aujourd’hui d’être détricoté, suite à un transfert inédit de contrôle et de compétences de l’Etat vers des industriels privés. 

Le projet du nouveau lanceur, successeur de l’actuelle Ariane 5, fut approuvé en décembre 2014 par les ministres européens. Pour faire face à la concurrence internationale, en particulier à l’américain SpaceX et ses lancements à bas prix, ceux-ci ont accepté, de A à Z, un projet proposé par les industriels. Plutôt que de privilégier l’innovation technologique, ce projet se fonde sur la mainmise de ces derniers sur l’ensemble de la filière. Il prévoit une réorganisation-privatisation de fond en comble pour s’approcher d’un modèle, prétendument plus compétitif, importé des Etats-Unis ; mais sans la garantie des engagements étatiques qui, en réalité, le font vivre de l’autre côté de l’Atlantique.

En agissant ainsi, les gouvernements européens, en premier lieu la France, prennent de sérieux risques. Outre les aspects financiers (qui laissent poindre le spectre d’une immense gabegie), c’est avant tout la modification des rapports de force entre industriels et pouvoirs publics qui s’annonce fort problématique. Donner les clés de ce programme hautement stratégique à des industriels comme Airbus, aux visées douteuses et à l’allégeance malléable, témoigne, de la part de l’Etat, d’une attitude pour le moins irresponsable.

Postulats erronés

Précisons d’emblée que la fusée, de même que la société qui l’exploite et le commercialise, Arianespace, est un succès incontesté et incontestable. Pour reprendre les propos de Stéphane Israël, le PDG d’Arianespace, récemment auditionné au Sénat, Ariane est « sur le point de battre un double record opérationnel et commercial », tout en étant une fierté européenne et nationale, ayant pour tâche principale de « garantir un accès indépendant de l’Europe à l’espace ». Chose surprenante par les temps qui courent, M. Israël n’oublie pas de rappeler l’effort collectif à la base de ces résultats remarquables. Quelques mois auparavant, devant les députés, il avait fait remarquer que « les systèmes de lancement que l’entreprise exploite, en particulier Ariane, n’existeraient pas sans la volonté et les investissements publics. Cette fusée est donc aussi un peu la vôtre. »

Or, il est clair que la décision des gouvernements européens concernant la suite de l’aventure soulève plus de questions qu’elle n’en résout. La cause en est simple : ils partent de postulats idéologiques au lieu de s’en tenir aux faits, et préfèrent des gains mercantiles immédiats (par ailleurs incertains) à la stratégie et à la vision politique à long terme. Les deux sources d’inspiration derrière ce choix, entériné en décembre 2014 par les ministres de l’Agence spatiale européenne, étaient l’Allemagne et les industriels eux-mêmes. Comme l’a expliqué la ministre Fioraso à l’époque, c’est Berlin qui fut l’avocat d’« une intégration industrielle plus importante, une prise de risques plus grande des industriels », en faisant valoir que « si l’industrie prend davantage de risques, il est normal qu’elle participe davantage à la conception et qu’elle partage la stratégie ».

Les industriels, eux, n’attendaient que cela. Ils avaient même devancé les gouvernements et les agences spatiales. Airbus, le maître d’œuvre, et Safran, le motoriste, avaient travaillé dans le plus grand secret, pour mettre les autorités publiques devant le fait accompli, en présentant, dès juin 2014 leur projet. En plus du design de la fusée, ils ont annoncé leur intention de fusionner leurs actifs respectifs, par la création d’une co-entreprise. Le tout assorti d’une condition de taille: la cession des parts du gouvernement français dans Arianespace. Deux semaines après, François Hollande lui-même donne son feu vert, lors d’un petit déjeuner rassemblant tous les acteurs principaux au palais présidentiel.

La co-entreprise Airbus Safran Launchers (ASL) aura donc désormais autorité sur les lanceurs dans tous les segments. Outre le développement proprement dit, cela inclut donc la conception (jusqu’ici la prérogative des agences, désormais réduites à définir les grandes lignes), de même que la commercialisation. Car en juin 2015, le gouvernement français a, en effet, entériné la cession des 34% d’Arianespace détenus par le CNES à ASL, ce dernier devient ainsi premier actionnaire avec 74% du capital. Rappelons encore une fois qu’en arrière-fond de cette restructuration-privatisation sans précédent se trouverait la volonté de « l’optimisation » de la filière dans le but de réduire les coûts, pour relever le défi de la concurrence internationale.

Paradoxalement, les points d’interrogation sur l’avenir d’Ariane sont moins liés à la compétition mondiale qu’aux choix opérés par les gouvernements européens soi-disant pour y faire face. A bien y regarder, le tant redouté américain SpaceX ne semble pas provoquer, en soi, un danger existentiel pour Ariane. Tout en reconnaissant les talents de son créateur Elon Musk (on lui doit également le service de paiement en ligne PayPal et les voitures électriques Tesla), il convient de souligner, comme l’a fait le PDG d’Arianespace, que les principaux atouts de SpaceX sont d’ordre politique, dans la mesure où le soutien indirect du gouvernement fédéral lui est fort bénéfique, à la fois en termes de marché captif (garanties de lancements domestiques) et en termes de prix.

arianerou-le-5-juin-.jpg

En effet, pour citer l’ancienne secrétaire d’Etat chargé du dossier, « les pouvoirs publics américains sont très impliqués ». Et Geneviève Fioraso de préciser que « la Nasa achète 130 millions de dollars à SpaceX un vol que l’entreprise va vendre à 60 millions de dollars à l’exportation. On peut appeler cela du soutien mais c’est du dumping ! » Curieusement, le patron d’Airbus Group, lui, passe cet aspect complètement sous silence lorsqu’il déclare vouloir s’inspirer de SpaceX, en louant notamment leur « dynamisme ». Fidèle à son dogme libéral-atlantiste, Tom Enders s’est servi de SpaceX pour revendiquer une restructuration complète de la filière avec, à la clé, plus de pouvoir aux industriels et la réduction du champ de contrôle des pouvoirs publics.

Incertitudes persistantes

La réorganisation en cours ne se fait pas sans mal, et comporte de sérieuses incertitudes pour Ariane. Pour commencer, l’annonce en fanfare du lancement du nouveau programme, et la passation des contrats qui s’en est suivie, ont failli faire oublier que les Allemands avaient obtenu un point d’étape (go/no go, autrement dit feu vert ou arrêt), à la mi-2016. Or si Berlin a été le grand avocat de l’option « industrielle » retenue pour Ariane 6 (restructuration-privatisation plutôt qu’innovation technologique), c’est avant tout parce qu’il considère le projet sous un angle mercantile. Son soutien risque de s’évaporer si, au lieu de la réduction escomptée des coûts du projet, l’opération finit, ce qui est fort probable, par en augmenter les frais.

Outre la multiplication des factures imprévues présentées par les industriels, l’autre point d’interrogation sur le plan financier concerne les éventuelles réserves des clients actuels et potentiels. En effet, les constructeurs de satellites rivaux d’Airbus (dont c’est une des branches d’activité) pourraient ne pas trop apprécier ce nouvel arrangement. Airbus Group se veut rassurant : pour eux« notre objectif est de vendre le plus de lanceurs possible, y compris pour lancer les satellites de nos concurrents. Rien ne justifie la moindre inquiétude à ce sujet ». Pourvu que les clients partagent ce sentiment. Car même si on leur promet une cloison impénétrable entre satellites faits maison et fusées, il est difficile d’empêcher qu’à un moment ou un autre, le doute surgisse. Que ce soit l’octroi des créneaux de lancement privilégiés ou la possibilité d’offres coordonnées, Arianespace, de facto devenue filiale d’Airbus Group, pourra toujours être soupçonnée de favoritisme.

Pour couronner le tout, en plus de la commercialisation des fusées, Arianespace remplit aussi une fonction d’expertise qui lui donne accès aux informations techniques confidentielles des constructeurs de satellites rivaux d’Airbus. Avant le lancement, elle « prépare les analyses de mission, qui visent notamment à s’assurer que le lanceur est adapté au satellite qu’il devra mettre en orbite ». Cela nécessite une connaissance exacte des données techniques des satellites. Pour le PDG d’Arianespace, un découpage entre les deux fonctions (commerciale et d’expertise) serait inconcevable, puisque les deux font ensemble le succès de la société, en positionnant Arianespace comme la garante de la fiabilité ultime de la fusée. Reste à voir comment la nouvelle co-entreprise saura jongler avec ces différents volets.

A ces questionnements de nature financière et commerciale viennent s’ajouter ensuite des interrogations d’ordre politique. Sans surprise, la première d’entre elles concerne la question, sempiternelle, de la préférence européenne. Autrement dit, le fait de savoir si les gouvernements du vieux continent seraient enfin prêts à s’engager à privilégier leurs propres produits; comme le font d’ailleurs, et à juste titre, les Etats-Unis. Pour Ariane 6, seuls cinq lancements institutionnels seront garantis, d’après la ministre. Certes, on reste au même nombre qu’aujourd’hui, mais « cela signifie, tacitement, que chaque pays membre accepte le principe d’une préférence européenne. On ne peut pas écrire obligation, à cause des règles européennes ».

Le PDG d’Arianespace voulait y voir, en mai, « une sorte de ‘Buy European Act’, sachant que notre concurrent américain bénéficie déjà, quant à lui, d’un marché garanti aux États-Unis : la législation américaine impose que les charges utiles américaines soient mises en orbite par un lanceur construit majoritairement aux États-Unis. » Cinq mois plus tard, il a dû se rendre à l’évidence :« Aujourd’hui, le ‘Buy European Act’ n’existe pas. Il est vrai que les États européens peuvent choisir un autre lanceur que ceux d’Arianespace ». Ce qu’ils font, en effet, sans état d’âme. A l’instar de l’Allemagne, qui n’a pas hésité à confier à SpaceX le lancement de certains de ses satellites.

Or, prévient la ministre française : « Si nous ne sommes pas la carte de l’Europe, nous fragiliserons et in fine, perdrons la filière des lanceurs européens. Et au-delà, nous perdons notre avantage compétitif en matière de télécoms, en matière d’accès aux données scientifiques, environnementales, climatiques et en matière de sécurité et de défense. » Mais comment attendre des gouvernements de jouer la carte de l’Europe en matière de lancement si même Airbus ne le fait pas ? Le groupe, qui aura désormais la haute main sur l’ensemble de la filière et réclame, de ce fait, la garantie de cinq lancements institutionnels, souhaitait lui-même confier à son concurrent US le lancement d’un satellite de télécommunication dernier cri de l’Agence spatiale européenne (ESA), simplement pour le rendre plus rentable…

Abandons coupables

Au départ, la réorganisation actuelle a été présentée comme répondant à deux critères de base. D’une part, un besoin de réduction des coûts, par le biais d’une plus grande prise de responsabilité des industriels, de l’autre le maintien, tout de même, de la position des Etats. Sur ce dernier point, la ministre Fioraso a été très claire : « L’Etat restera présent dans la gouvernance et contrôlera ». Sauf que le périmètre de cette présence se réduit comme une peau de chagrin, en emportant le pouvoir de contrôle dans son sillage. Pour le PDG d’Arianespace, « les acteurs minoritaires qui représentent un lien avec les Gouvernements (…) doivent recevoir des garanties ». Autrement dit, ce n’est pas d’emblée le cas.

La question des coûts reste elle aussi opaque. Si les industriels disent prendre plus de risques, c’est loin d’être manifeste. Pour commencer, on ne sait toujours pas qui aura la charge d’éventuels échecs. Or, selon Stéphane Israël, « rien ne coûte plus cher qu’un échec et il importe de préciser les engagements des uns et des autres », mais « jusqu’à ce jour, rien n’est figé comme en témoignent les discussions en cours entre l’Agence spatiale européenne et Airbus Safran Launchers ». De surcroît, les industriels ne cessent de grignoter sur le volet financier de l’accord. Comme Michel Cabirol de La Tribune le met en évidence, tantôt ils demandent une rallonge d’un milliard, tantôt ils refusent de contribuer au maintien en condition opérationnelle du pas de tir en Guyane, tantôt ils exigent pour eux la gratuité pure et simple du Centre spatial, une faveur jamais octroyée à Arianespace.

Force est de constater que, dans ce domaine hautement stratégique, on risque de se retrouver devant un schéma étrangement similaire à celui des Etats-Unis. Un modèle caractérisé par de grandes sociétés privées, soutenues par d’immenses gaspillages de fonds publics. A la différence près que, contrairement au cas américain, les pouvoirs publics en Europe ne peuvent même pas être certains, à long terme, de la loyauté des sociétés qu’ils soutiennent – en l’absence d’un marché public gigantesque qui garantirait une loyauté d’intérêt, et faute de règles contraignantes européennes capables d’imposer, comme de l’autre côté de l’Atlantique, une loyauté juridico-institutionnelle.

Or, en parlant d’Ariane, il convient de garder à l’esprit que le lanceur conditionne la pérennité, la crédibilité, la rentabilité/compétitivité et l’autonomie de l’ensemble du secteur spatial. Que l’on se rappelle les origines mêmes de la création d’Ariane : en 1973, n’ayant pas de lanceur européen à leur disposition, Français et Allemands ont dû aller quémander auprès des Américains pour pouvoir mettre en orbite leur satellite de télécommunication. Or « les Américains, se souvient Frédéric d’Allest, ancien Directeur général du Centre national d’Etudes spatiales (CNES), ont fait savoir qu’ils voulaient bien lancer Symphonie mais à condition qu’il soit limité à des fonctions expérimentales ». Profitant de leur monopole, les Américains ont donc interdit toute utilisation à des fins commerciales, par souci d’éliminer la possibilité même d’un rival.

Un véritable déclic, d’après les témoins de l’époque, le diktat américain a finalement permis de lever les obstacles politiques, entre Européens, à la construction de ce formidable outil de souveraineté qu’est le lanceur Ariane. En effet, la leçon fut claire : sans accès indépendant à l’espace, il n’y a tout simplement pas de politique spatiale. Jouer aujourd’hui à l’apprenti sorcier, en procédant à une restructuration dans des conditions et avec des engagements opaques, au risque de fragiliser la position de l’Etat et au profit d’industriels dont le passé, le bilan et le profil sont loin d’être irréprochables – cela mérite au moins débat…

Hajnalka Vincze (IVERIS, 1er janvier 2016)

dimanche, 01 novembre 2015

Les progrès de la médecine, est-ce fini ? C’est peut-être pire encore.

IdY7i.jpg

Les progrès de la médecine, est-ce fini ? C’est peut-être pire encore

 
Jan Marejko
Philosophe, écrivain, journaliste
Ex: http://www.lesobservateurs.ch

Anne-Laure Boch est une pasionaria de la vie de l’esprit mais aussi de la vie du corps. Elle a d’abord étudié la médecine, ce qui l’a conduite à devenir neurochirurgienne à  l’hôpital de la Pitié-Salpêtrière. Ensuite elle a obtenu un doctorat en philosophie. Elle voulait  comprendre ce qu’elle faisait comme médecin, et pourquoi. C’est cette méditation sur le sens de la médecine qu’elle a partagé avec les étudiants de l’institut Philanthropos à Fribourg. Devant eux, elle a posé la question de savoir si l’on pouvait encore attendre des progrès en médecine. Elle en doute et craint que la médecine ne produise désormais plus de méfaits que de bienfaits.

Elle n’a évidemment pas nié que la médecine occidentale a fait d’énormes progrès dans les trois derniers siècles.  Mais rien ne nous garantit que des progrès passés engendrent des progrès pour l’avenir. Les communistes croyaient dur comme fer aux progrès de la science et ils ont bien placé Gagarine en orbite. Mais au-delà, plus rien ou presque. Ce n’est pas seulement que le progrès peut s’arrêter mais que, sur sa lancée, il peut produire du déclin, l’accélérer même. Une fusée, en retombant, peut faire des dégâts. La fusée de la médecine et des recherches qui lui sont associées est-elle en train de retomber ? On peut le craindre et c’est à repérer les raisons de cette crainte qu’Anne-Laure Boch s’est attachée.

La vocation de la médecine est de guérir. A-t-elle guéri le cancer par exemple ? Non, elle a fait de lui une maladie chronique, mais de guérison, point ! Si le but de la médecine est de faire survivre à n’importe quel prix, alors, oui, elle parvient effectivement à faire vivre plus longtemps les malades du cancer ? Mais le but de la médecine est la guérison du malade, pas son maintien en vie avec acharnement thérapeutique. Là, c’est l’échec, malgré les milliards investis dans la recherche depuis 50 ans. Faut-il se résigner à voir dans la médecine ce qui nous amène aux chaises roulantes, au semainier avec ingestion quotidienne de pilules, à un cheminement de plus en plus chevrotant avant la tombe ? Anne-Laure Boch ne s’y est jamais résignée. Pourquoi ?

Parce que, pour elle, l’être humain n’est pas un « tas de molécules » dont il faudrait comprendre le fonctionnement pour les rendre plus performantes. Elle a noté en passant que si nous ne sommes qu’un tas de molécules, l’amour se réduit à un frottement de chairs suivis de l’émission d’un liquide gluant. Pouvons-nous encore aimer si nous sommes un tas de molécules ?

La science ne connaît que des choses, et la technique « désanime » les êtres. De plus en plus dominée par la science, la médecine est devenue une « grande découpeuse » qui coupe le corps en tranches de plus en plus fines, comme le font d’ailleurs les images produites par un scanner médical. Plus encore, ce découpage conduit aujourd’hui à des greffes d’organes qui, à terme et selon certains, devraient nous permettre de vivre des centaines d’années (pour peu que les banques d’organes s’enrichissent…) Le philosophe Jean-Luc Nancy a témoigné de son expérience de greffé du cœur et du sentiment qu’il a eu d’être devenu « autre » après son opération. Or devenir autre, c’est se sentir aliéné. La médecine moderne s’est engagée sur un chemin qui, si elle le poursuit, pourrait non seulement faire de nous des assistés en chaise roulante, mais aussi des êtres qui se sentiraient étrangers à eux-mêmes. J’entends déjà caqueter les vautours de la vie à tout prix : « Au moins ils seraient vivants ! » Une vie mortelle, peu importe comment ! Étrange caquetage, puisque cette vie, nous devrons la quitter. Anne-Laure Boch n’est pas allée aussi loin mais je crois qu’elle me pardonnera de le faire. Je ne résiste pas toujours au plaisir d’extrapoler.

Nous ne sommes pas des choses dont la destination ultime serait de fonctionner le mieux possible dans le temps et dans l’espace. Si tel était le cas, alors oui, il faudrait tout faire pour nous rendre plus performants, plus propres, plus sains. Qui serait cet homme performant dont la figure transparaît en filigrane dans toutes les injonctions à ne pas fumer, à ne pas manger de viande, à ne pas boire le gras du lait, pour… éviter le cancer, les maladies cardiovasculaires, le diabète ou même la grippe lorsqu’arrive l’automne ? Cet homme, a souligné Anne-Laure Boch, serait un « homme nouveau ». Il serait si propre, si fonctionnel que, dans l’imaginaire des peuples modernes, il  échapperait à la mort. Il suffit de se tourner vers les propositions du transhumanisme pour voir se dessiner le visage de cet homme nouveau ou surhomme. Pas tout à fait un visage encore, puisqu’il est question, dans ce transhumanisme, d’utérus artificiel ou de cerveau agrandi, mais le visage apparaîtra bien un jour. Il y a des chances pour que ce soit celui de Frankenstein, couturé de cicatrices en raison des greffes subies, le regard perdu en raison des pilules absorbées.

Voilà ce qui inquiète Anne-Laure Boch : l’image presque toute-puissante d’un homme nouveau qui a échappé à la condition humaine, à sa condition d’homme mortel. C’est cette image qui guide, oriente, soutient la médecine moderne qui a oublié sa vocation première, guérir, pour participer à une grande marche vers une nouvelle terre et de nouveaux cieux. Chacun connaît la formule prononcée aux enterrements : « tu es né de la poussière et tu redeviendras poussière ». Eh bien, pas du tout pour la médecine d’aujourd’hui qui promeut un homme nouveau ! Elle n’est pas consciente, ajouterai-je, de s’être faite le promoteur de cet homme, mais elle n’en est pas moins orientée par lui. Était-il conscient de ce qu’il promouvait, cet expert de l’OMS qui expliquait récemment que la viande rouge augmente les risques de cancer du côlon ? Il est probable qu’interrogé, il aurait nié vouloir promouvoir un homme que la mort ne limiterait plus. Pour autant, le rapport de L’OMS sur la viande rouge tueuse n’en suggérait pas moins qu’à long terme, la mort pourrait être éradiquée non seulement par les greffes d’organes mais aussi par une prévention systématique dont on devinait que, une fois mise en place, elle nous conduirait vers d’enchantés pâturages où broutent déjà les adeptes du « véganisme ».

Les gardiens ou gargouilles d’une médecine orientée par pilotage automatique vers un homme nouveau abondent. Mais il n’y a pas que cela. Anne-Laure Boch nous a rendus attentifs au fait que différentes infrastructures se sont mises en place autour de la promotion de l’homme nouveau : structures d’accueil pour la fin de vie, personnel soignant pour ces structures, industrie pharmaceutique qui renforce le mythe d’une nouvelle vie grâce au viagra et autres pilules roses.

Notre époque n’aime pas les dogmes religieux, mais elle avale tout cru le dogme du progrès en général, le dogme du progrès de la médecine en particulier. C’est contre lui qu’Anne-Laure Boch s’est élevée avec, comme bélier pour enfoncer les portes de cette nouvelle citadelle dogmatique, Ivan Illich. Ce prêtre philosophe a en effet montré combien le dogme du progrès conduit à penser que, quoi qu’il arrive, on va vers le mieux, plus de bien-être, plus de bonheur. Staline déclarait en 1936 que les Russes étaient de plus en plus heureux, juste après avoir fait mourir de faim des millions d’Ukrainiens et juste avant d’organiser des grandes purges avec des centaines de milliers d’assassinats. Mais les gens l’ont cru, tant la soif de bonheur et d’immortalité est grande en nous.

Est-ce que, parmi des déambulateurs, des chaises roulantes, des drogués au Prozac, nous continuerons à bêler notre credo sur les bienfaits de la médecine et de la recherche ?

Pour Anne-Laure Boch ce n’est pas sûr. Nous voyons grandir la proportion des gens qui préfèrent mourir plutôt que d’être pris en charge par une médecine qui risque de faire d’eux des morts-vivants. Rejoindre le cortège des chevrotants ne les tente guère. Un autre facteur est que la schizophrénie s’aggrave chez les soignants : d’un côté ils sont encouragés à manifester de la bienveillance envers les malades – d’un autre côté, on leur dit que ces mêmes malades sont un « tas de molécules ». Viendra un jour où soigner des patients « molécularisés » n’aura plus de sens. Ce jour-là, il sera peut-être possible de retrouver une médecine qui se contente de guérir plutôt que de s’acharner à faire survivre à n’importe quel prix.

Jan Marejko, 28 ocotobre 2015

00:05 Publié dans Philosophie, Science, Sciences | Lien permanent | Commentaires (0) | Tags : science, sciences, médecine, philosophie | |  del.icio.us | | Digg! Digg |  Facebook

jeudi, 20 août 2015

MIT wetenschapper: In 2025 is helft alle kinderen autistisch dankzij genvoedsel

monsanto kinderen 01.jpg

MIT wetenschapper: In 2025 is helft alle kinderen autistisch dankzij genvoedsel

Daar bovenop: CDC verwacht dat over 10 jaar 1/3 alle kinderen door vaccins aan neurologische stoornis zal lijden – CDC: Moeders moeten (tijdelijk) stoppen met borstvoeding, anders werken vaccins niet goed

Een complete generatie mensen lijkt te worden verwoest door een fatale combinatie van genetisch gemodificeerd voedsel (GMO, kortweg genvoedsel) en vaccinaties. Een hooggeplaatste wetenschapper van het gezaghebbende MIT waarschuwde eerder dit jaar dat in 2025 maar liefst de helft (!!) van alle kinderen een autistische stoornis zal hebben als gevolg van het consumeren van genvoedsel. Daar bovenop komt het recente bericht dat het Amerikaanse CDC (Centers for Disease Control) verwacht dat in datzelfde jaar minstens 1/3 van alle kinderen een neurologische stoornis zal hebben opgelopen door alle vaccinaties die worden toegediend.

Volgens MIT bioloog dr. Stephanie Seneff –die in ruim 30 jaar al meer dan 170 wetenschappelijke artikelen publiceerde- is glyfosaat, een ingrediënt van het omstreden product ‘Round-Up’ van het beruchte concern Monsanto, een van de belangrijkste veroorzakers van de autisme epidemie, die in het komende decennium een ware pandemie dreigt te worden. Het veelvuldig gebruik van glyfosaat veroorzaakt onder andere Alzheimer, autisme, kanker, hartziekten, stofwisselingstoornissen en mineralen- (zink en ijzer) en voedingsgebreken.

Over 10 jaar heeft helft alle kinderen autisme

Dr. Seneff verklaarde in het voorjaar op een conferentie dat het aantal kinderen met autisme inmiddels zo snel toeneemt, dat in 2025 –bij ongewijzigd beleid- maar liefst de helft van alle kinderen aan een autistische stoornis zal lijden, wat de Amerikaanse samenleving jaarlijks $ 400 miljard zal kosten. Op dit moment is 1 op de 68 nieuw geborenen in de VS autistisch, wat al een stijging van bijna 120% is ten opzichte van het jaar 2000.

De MIT wetenschapper wees erop dat de symptomen van glyfosaat vergiftiging sterk lijken op die van autisme. Ook had ze een consistent verband gevonden tussen het gebruik van het bestrijdingsmiddel Round-Up (en het creëren van ‘Round-Up-ready’ genetisch gemodificeerde gewassen) en de sterke stijging van kinderen met autisme.

Glyfosaat zit in bijna alles

In de VS zijn zo goed als alle graan- en sojaproducten genetisch gemodificeerd en daarom besmet met Round-Ups glyfosaat. Hetzelfde geldt voor bijna alle soorten voedsel waarin graan/maïs en soja is verwerkt, inclusief frisdranken met veel fructose, stroop, chips, cornflakes, snoep en sommige soja-proteïne repen. Bovendien krijgen runderen en ander vee vaak genvoedsel te eten, waar eveneens sporen van glyfosaat in zitten.

Ook tarwe wordt vlak voor de oogst in veel gevallen besproeid met Round-Up chemicaliën, wat betekent dat brood en broodproducten eveneens niet veilig zijn, tenzij ze uitdrukkelijk ‘niet GMO’ en/of ‘organisch’ op het etiket hebben staan.

Niet afzonderlijk product, maar optelsom is fataal

Het komt er dus op neer dat de Amerikanen –en dankzij de EU straks ook de Europeanen- bijna niet kunnen ontkomen aan het consumeren van voedsel en dranken waarin glyfosaat is verwerkt, waarvan aangetoond is dat het diverse stoornissen en ernstige ziekten veroorzaakt. Dr. Seneff zei dat de hoeveelheid glyfosaat in ieder afzonderlijk product weliswaar niet groot is, maar dat het de optelsom is van talloze geconsumeerde ‘GMO’ producten die fataal is – zozeer, dat sommige zwangere vrouwen zelfs glyfosaat in hun bloed, urine en foetuscellen hebben. (1)

CDC: Borstvoeding slecht voor vaccins

Bij dit ronduit schokkende nieuws kwam recent nog eens het bericht van het Amerikaanse CDC (Centers for Disease Control) dat over 10 jaar minstens 1/3 van alle kinderen een neurologische stoornis zal hebben opgelopen door alle vaccinaties die worden toegediend (2). Desondanks adviseert datzelfde CDC dat moeders het geven van borstvoeding rond de tijd dat hun baby wordt gevaccineerd tijdelijk zouden moeten opgeven, omdat de immuun versterkende cellen in borstmelk de virusdeeltjes in ieder vaccin aanvallen, waardoor het vaccin mogelijk minder effectief wordt.

Critici wijzen erop dat dit CDC-onderzoek enkel bewijst dat het immuunsysteem van baby’s, als dat wordt ondersteund en versterkt door borstvoeding, uitstekend in staat is om zichzelf te verdedigen, en zo’n vaccin dus helemaal niet nodig is. Als het CDC niet zo afhankelijk zou zijn van de grote farmaceutische bedrijven, die jaarlijks miljarden verdienen aan het produceren van onbewezen en overbodige –en veelal schadelijke- vaccins, dan zouden moeders ongetwijfeld nooit het krankzinnige advies krijgen om te stoppen met het geven van immuun versterkende borstvoeding. (3)

Xander

(1) Infowars
(2) Infowars
(3) Infowars

Zie ook o.a.:

05-06: EU moet zwaar giftige chemicaliën toelaten door vrijhandelsakkoord met VS
30-04: Nieuwe wet Californië: Niet gevaccineerde kinderen mogen niet meer naar school
11-11: Artsenorganisatie: VN steriliseert miljoenen vrouwen in Kenia met tetanus vaccin
28-09: Gevaarlijk virus treft enkel gevaccineerde kinderen in VS en Canada (/ Recente onderzoeken bewijzen dat gezondheid fors en permanent wordt beschadigd door vaccins)
26-09: Nieuw onderzoek: Autisme en leukemie door cellen geaborteerde baby’s in vaccins
06-09: CDC wetenschapper erkent verband vaccins en autisme

mercredi, 19 août 2015

Cambridge Universiteit: Mensheid wordt steeds zwakker, zieker en dommer

Courbet_Desespere.jpg

Cambridge Universiteit: Mensheid wordt steeds zwakker, zieker en dommer

Ex: http://xandernieuws.punt.nl

Wetenschappers van de gerenommeerde universiteit van Cambridge hebben een onderzoek gepubliceerd waaruit exact het tegendeel blijkt van wat de evolutietheorie beweert. Ondanks alle technologische vooruitgang blijkt de mens vergeleken met zijn voorouder van nog maar enkele duizenden jaren geleden zwakker, kleiner en vatbaarder voor ziektes. Ook onze hersenen nemen in omvang af, waardoor we steeds dommer worden. De beste atleten van nu zijn zelfs een lachertje vergeleken bij hoe sterk de doorsnee mens in de oudheid was.

Mensen die geloven in voortdurende vooruitgang en ontwikkeling, zoals de evolutietheorie stelt, zullen wellicht even moeten slikken bij de conclusies van het onderzoek. ‘Zelfs onze beste atleten verbleken bij onze voorvaderen,’ aldus dr. Colin Shaw. ‘Wij zijn zonder twijfel zwakker dan we vroeger waren.’

De wetenschappers onderzochten onder andere skeletten met een ouderdom van 1160 tot 7300 jaar. Vastgesteld werd dat de botten van de benen van boeren in het jaar 5300 voor Christus net zo sterk waren als die van doorgetrainde professionele veldlopers in onze tijd.

Mensheid krimpt

Uit eerdere vergelijkbare onderzoeken aan de universiteit bleek al dat onze lichamen en hersenen ‘duidelijk kleiner’ zijn dan die van de mensen die duizenden jaren geleden leefden. ‘Aangetoond is dat de mensen krimpen. De mensheid is het hoogtepunt voorbij. De huidige mensen zijn 10% kleiner en smaller dan hun voorvaderen, die als jagers en verzamelaars onderweg waren.’

De algemeen aanvaarde gedachte dat de mensen in de loop der eeuwen steeds groter zijn geworden, is hiermee ontkracht. Dat geloof is namelijk enkel gebaseerd op de meest recente lichamelijke ontwikkelingen, niet op die over een periode van duizenden jaren. Belangrijkste oorzaken van de teruggang van het menselijk ras zijn de beperktere voeding (zowel kwantitatief als kwalitatief) en de verstedelijking, waardoor de algemene gezondheid wordt aangetast en ziektes zich steeds sneller kunnen verspreiden.

Steeds meer schadelijke genen

Onze genen wordt dus niet steeds sterker door zogenaamde ‘natuurlijke selectie’, maar juist steeds zwakker en slechter. Volgens dr. John Sanford van de Cornell Universiteit –auteur van Genetic Entropy & The Mystery of the Genome) draagt ieder mens inmiddels tienduizenden schadelijke mutaties in zich mee, en geven wij minimaal 100 tot 300 nieuwe mutaties –waarvan verreweg de meeste schadelijk zijn- aan ons nageslacht door.

Veel genetici geloven dan ook dat dit uiteindelijk tot een ‘mutatie meltdown’ zal leiden. De schadelijke genen zullen zich in toekomstige generaties opeen hopen, met fatale gevolgen voor de toekomst en het voorbestaan van hele mensheid.

Niet slimmer, maar dommer

Gezien de snelle technologische ontwikkelingen lijkt ook de conclusie dat we steeds dommer worden tegenstrijdig. Toch tonen alle onderzoeken aan dat dit wel degelijk het geval is. (En als u ‘live’ bewijs wilt zien hoeft u enkel naar het ‘niveau’ van de meeste hedendaagse TV-programma’s te kijken – die worden door critici niet voor niets ‘hersenloos vermaak’ genoemd).

Biologie professor Gerald R. Crabtree (Universiteit van Stanford) schreef in twee wetenschappelijke artikelen in het vakblad Trends in Genetics dat de mens zelfs al 2000 tot 6000 jaar zijn intellectuele capaciteiten aan het verliezen is. Ook Crabtree noemt genetische mutaties –de basis van de neo-Darwinistische evolutietheorie- als de belangrijkste oorzaak. In de afgelopen 3000 jaar, een periode met zo’n 120 generaties, zijn er 5000 nieuwe mutaties ontstaan. Volgens Crabtree was daarvan slechts 2% tot 5% schadelijk, maar heeft de optelsom geleid tot een neerwaartse spiraal die niet meer te stoppen is. (1)

Geen Utopia, maar ondergang

De achteruitgang lijkt zich de afgelopen decennia fors te versnellen. De doorsnee mens schijnt anno 2015 in vrijwel niets anders geïnteresseerd te zijn dan stompzinnig vermaak en een dagelijks gevulde koelkast. De meeste tieners kunnen ook met een schooldiploma nauwelijks nog een zin correct in hun moedertaal schrijven. En misschien zijn ook het steeds vaker nemen van krankzinnige financieel-economische besluiten (EU / eurozone) en de snel over de wereld verspreidende waanzinnige islamistische ideologie –een cultus die voornamelijk dood en verderf nastreeft- wel signalen dat onze beschaving niet op een Utopia, maar op ondergang afstevent.

Xander

(1) KOPP

00:05 Publié dans Science, Sciences | Lien permanent | Commentaires (0) | Tags : science, médecine, intelligence humaine | |  del.icio.us | | Digg! Digg |  Facebook

lundi, 09 février 2015

La France dort sur un immense gisement d'équivalent pétrole

ur235Dossier_img_2.jpg

LA FRANCE DORT SUR UN IMMENSE GISEMENT D'ÉQUIVALENT PÉTROLE
 
Sans émission de CO2

Michel Gay
Ex: http://metamag.fr

Il existe sur le carreau de Pierrelatte et à Bessines prés de 300.000 tonnes d’uranium appauvri (uranium 238) issu des usines d’enrichissement en uranium 235, matériau nécessaire au fonctionnement des réacteurs actuels, et des EPR dans un futur proche. 


Cet uranium 238 "restant" peut être fissionné  dans un réacteur surgénérateur (dit aussi RNR pour "réacteur à neutrons rapides"). Il a un potentiel énergétique équivalent à 500 milliards de tonnes de pétrole, soit plus de deux fois les réserves mondiales actuelles de pétrole  (pour les sceptiques, voir le détail du calcul ci-dessous), … et sans émission de gaz à effet de serre !


Il manque "juste" la décision de lancer le processus financier et technique pour aboutir à la construction des réacteurs surgénérateurs et des usines de retraitement ad hoc…


Moyennant cet effort industriel déjà effectué par le passé dans le nucléaire, la France, qui dort sur un tel trésor, ne rencontrerait plus aucun problème de pénurie énergétique pour sa production d'électricité pendant plus de… 3000 ans (trois mille ans). 


Considérant ce potentiel énergétique dormant et inutilisé, on mesure l'étendue de l’inculture technique de nos dirigeants qui préconisent une division par deux de la quantité d’énergie consommée par chaque Français. Sans le dire, et même peut-être sans le voir, ils entrainent un appauvrissement général de la France dans les mêmes proportions.


Les combustibles fossiles vont s'amenuiser dans 50 ans ou dans un siècle. Cependant, grâce à la surgénération nucléaire, la quantité d'énergie disponible sous forme d'uranium, en France et dans le monde, pour produire de la chaleur et de l'électricité, sans émission de gaz à effet de serre, est gigantesque.


Il y a 20 ans, Superphénix était déjà un surgénérateur qui a subi une attaque politique létale. Il faisait pourtant naître en France un gisement d’énergie supérieur à toute la quantité de pétrole affichée dans le monde à cette époque… et encore aujourd'hui !


Deux méthodes de calculs simples pour trouver l'équivalence Uranium - Pétrole  dans un réacteur nucléaire surgénérateur
MT = million de tonnesTWh = térawatt heure = milliards de kWhT U = tonne d'uranium


1) Méthode simple issue de l'expérience.


1 MT pétrole = 12 TWh thermique (chaleur)Aujourd'hui, 60 tonnes d'uranium fissionnées  produisent 420 TWh d'électricité dans les centrales nucléaires françaises.Avec une conversion à 33% de la chaleur en électricité, les 60 T ont produit 1260 TWh thermiques.1 T U produit donc 21 TWh thermiques, ce qui équivaut à brûler 21/12 = 1,75 MT pétrole.
300.000 T U produiront une chaleur équivalente à 525.000 MT pétrole, soit une énergie équivalent à environ 525 milliards de tonnes... arrondies à 500 milliards pour garder en tête un chiffre rond…
Cependant, ce n'est pas 300.000 T U, mais plus de 500.000 T U qui seront stockées en 2050. En effet,  le stock étant de 300.000 T en 2015 et le flux annuel de 6500 T U par an, on aura donc plus de 500.000 T en 2050 (environ 527.500 tonnes).
C'est donc prés de 900 milliards de tonnes d'équivalent pétrole que la France aura accumulé en 2050, soit trois fois les réserves mondiales de pétrole d'aujourd'hui... quand démarreront les surgénérateurs de la quatrième génération.

2) Méthode plus "scientifique"


La fission d'un atome de plutonium dégage une énergie de 207,1 Mev (celle d’un atome d’Uranium 235 dégage une énergie quasiment identique de 202,8 Mev). 1 électron volt = 1,602 x 10-19 joules 207,1 MeV = 3,318 x 10-11 joules  par atome fissionné.  
La valeur du nombre d'Avogadro étant de 6,0221415 x 1023 on en déduit que : 239 grammes de Plutonium représentent 19,98 Téra joules  (19,98 x 1012 J) 1 kg fissionné représente 83,61 Téra joules (83,61 x 1012 J) 1 Tonne fissionnée représente environ 84 x 1015 joules. 300.000 T représentent environ 25 x 1021 joules.
Or, 1 kg de pétrole représente 42 x 106 joules. Donc, le stock d'uranium qui se transformera en Plutonium dans un réacteur surgénérateur équivaut sensiblement à (25 / 42) x 1015 = 0,59 x 1015 kg de pétrole, soit… 590 milliards de tonnes de pétrole. 
Répétons-le, c'est une ressource énergétique deux fois supérieure aux réserves mondiales de pétrole déclarées en 2012, pour la production de chaleur et d'électricité.

 

mardi, 13 janvier 2015

Benutzt euer Gehirn!

spitzer.jpg

Benutzt euer Gehirn!

von Moritz Scholtysik

Ex: http://www.blauenarzisse.de

Der bekannte Gehirnforscher Manfred Spitzer warnt in seinem Buch vor „digitaler Demenz“. Und erklärt Ursachen und Folgen. Neu ist nicht alles – aber wichtig.

Digitale Medien sind ein fester Bestandteil unseres Lebens. Kaum einer mag noch bestreiten, dass sie keine Auswirkungen auf unser Denken und Handeln hätten. Die Frage ist nur: Sind sie positiv oder negativ zu bewerten? Für das populärwissenschaftliche Magazin Geo steht jedenfalls fest: „Digital macht schlau!“

Allerdings ist auch Kritik an der Elektronisierung aller Lebensbereiche nicht selten – vor allem in kultureller Hinsicht. Spitzer argumentiert seinem Beruf entsprechend vor allem aus psychologischer und medizinischer Perspektive. Gerade der in den Neurowissenschaften Unkundige erfährt in Digitale Demenz Grundlegendes über die Funktionsweise des Gehirns – auf bewusst einfache Weise.

Wesentliches statt Multitasking

Spitzer entlarvt zwei hartnäckige Mythen: Zum einen den der „Digital Natives“, dieser vermeintlichen „Generation von digitalen Wunderkindern“. Sie gebe es nicht. Diese Generation sei mehr von Bildungsverfall als von Medienkompetenz gekennzeichnet. Zum anderen wendet sich Spitzer den angeblichen Vorzügen des Multitaskings zu: Dieses führe zu Störungen der Selbstkontrolle sowie zu „Oberflächlichkeit und Ineffektivität“. Des Psychiaters Appell: „Konzentrieren wir uns lieber ganz auf das Wesentliche!“

Apropos Selbstkontrolle: Diese gehe bei übermäßigem Konsum digitaler Medien verloren, was mit Stress gleichzusetzen sei und zu Aufmerksamkeitsstörungen sowie mehreren chronischen Erkrankungen führen könnte. Beispiele sind Sucht, Schlaflosigkeit, Übergewicht, Probleme im Herz-​Kreislauf-​System, Demenz. Bei all diesen Erläuterungen und Ausführungen spricht Spitzer immer wieder mögliche Einwände und Fragen an und vermeidet meist allzu komplizierte Formulierungen und Fachtermini.

spitzerttttyyyy.jpg

Keine Laptops für Schulen

Spitzer, Leiter der Psychiatrischen Universitätsklinik in Ulm und des Transferzentrums für Neurowissenschaften und Lernen, ist vielen Lesern bereits durch sein Buch Vorsicht Bildschirm! und zahlreiche Fernsehauftritte bekannt. In Digitale Demenz zeigt er auf, dass sich unser Gehirn durch dessen Nutzung, also durch Lernen, an den sogenannten Synapsen verändert. Dies führe zu einem Wachstum einzelner, spezialisierter Bereiche. Gebrauche man sie jedoch nicht, verkümmerten sie. Unser geistiges Leistungsvermögen hänge also von unserer geistigen Betätigung ab. Und wir lernten besser, je mehr und je tiefer wir uns mit dem Gegenstand des Lernens auseinandersetzten. Computer jedoch nähmen uns viel geistige Arbeit ab und ließen uns oberflächlicher lernen. Die Verfügbarkeit gespeicherter Daten führe zudem dazu, dass wir uns sie weniger merkten. Spitzer verwirft daher auch den vielfach forcierten und teuren Plan, Schulen mit Laptops und Smartboards, also digitalen Tafeln, auszurüsten.

Teletubbies und „Killerspiele“

Bei Kindern und Jugendlichen steht vor allem die private Nutzung von Computer und Internet im Vordergrund. Darunter können nicht nur die Schulnoten leiden, sondern auch eine gesunde Entwicklung des noch nicht ausgereiften Sozialverhaltens. Es klingt ironisch, wenn Letzteres gerade durch die sogenannten sozialen Netzwerke gefährdet sei. Als mögliche Folgen nennt Spitzer „mangelnde Selbstregulation, Einsamkeit und Depression“. Auch die Kleinsten seien von den negativen Auswirkungen betroffen. „Baby-​TV“ störe die Sprachentwicklung und Computernutzung im Vorschulalter beeinträchtige die Lese– und Schreibfähigkeit.

In den letzten Jahren wurde besonders kontrovers über die Auswirkungen von Computerspielen, insbesondere der Ego-​Shooter, diskutiert. Spitzer weist als Folge dieser Spiele „zunehmende Gewaltbereitschaft, Abstumpfung gegenüber realer Gewalt, soziale Vereinsamung und eine geringere Chance auf Bildung“ nach. Es mag ihn bestätigen, wenn die Reaktionen auf diese Erkenntnis oftmals aggressiv und beleidigend ausfallen – wie viele Kommentare im Netz zeigen.

Nichts neues, aber grundlegend

In den letzten beiden Kapiteln des Buches lässt Spitzer etwas nach: Er wiederholt sich, betont zu oft die Wissenschaftlichkeit der von ihm vorgestellten Studien und wird bei seiner Kritik an Politikern polemisch. Andererseits kann man diesen Ärger gut nachvollziehen, kennt man doch deren Untätigkeit aktuell aus vielen anderen Bereichen.

Er schließt das Buch jedoch gelungen, indem er einige praktische Tipps zur Prävention des geistigen wie körperlichen Abstieges gibt, den digitale Medien mitverursachen. Neben der einleuchtenden Empfehlung, diese zu meiden, schlägt er unter anderem gesunde Ernährung, tägliche körperliche Bewegung, Singen, den bewussten Genuss von Musik und den Gang in die freie Natur vor. Nichts wirklich neues, aber grundlegend.

Manfred Spitzer: Digitale Demenz. Wie wir uns und unsere Kinder um den Verstand bringen. Taschenbuch. 368 Seiten. München: Droemer Knaur 2014. 12,99 Euro.

spitzermeiden2b.jpg

mardi, 22 avril 2014

A skull that rewrites the history of man

A skull that rewrites the history of man

 
1 / 1
 
 
One of the skulls discovered in Georgia, which are believed to date back 1.8 million years
 
 
 
 
 
 

 

It has long been agreed that Africa was the sole cradle of human evolution. Then these bones were found in Georgia...

The conventional view of human evolution and how early man colonised the world has been thrown into doubt by a series of stunning palaeontological discoveries suggesting that Africa was not the sole cradle of humankind. Scientists have found a handful of ancient human skulls at an archaeological site two hours from the Georgian capital, Tbilisi, that suggest a Eurasian chapter in the long evolutionary story of man.

The skulls, jawbones and fragments of limb bones suggest that our ancient human ancestors migrated out of Africa far earlier than previously thought and spent a long evolutionary interlude in Eurasia – before moving back into Africa to complete the story of man.

Experts believe fossilised bones unearthed at the medieval village of Dmanisi in the foothills of the Caucuses, and dated to about 1.8 million years ago, are the oldest indisputable remains of humans discovered outside of Africa.

But what has really excited the researchers is the discovery that these early humans (or "hominins") are far more primitive-looking than the Homo erectus humans that were, until now, believed to be the first people to migrate out of Africa about 1 million years ago.

The Dmanisi people had brains that were about 40 per cent smaller than those of Homo erectus and they were much shorter in stature than classical H. erectus skeletons, according to Professor David Lordkipanidze, general director of the Georgia National Museum. "Before our findings, the prevailing view was that humans came out of Africa almost 1 million years ago, that they already had sophisticated stone tools, and that their body anatomy was quite advanced in terms of brain capacity and limb proportions. But what we are finding is quite different," Professor Lordkipanidze said.

"The Dmanisi hominins are the earliest representatives of our own genus – Homo – outside Africa, and they represent the most primitive population of the species Homo erectus to date. They might be ancestral to all later Homo erectus populations, which would suggest a Eurasian origin of Homo erectus."

Speaking at the British Science Festival in Guildford, where he gave the British Council lecture, Professor Lordkipanidze raised the prospect that Homo erectus may have evolved in Eurasia from the more primitive-looking Dmanisi population and then migrated back to Africa to eventually give rise to our own species, Homo sapiens – modern man.

"The question is whether Homo erectus originated in Africa or Eurasia, and if in Eurasia, did we have vice-versa migration? This idea looked very stupid a few years ago, but today it seems not so stupid," he told the festival.

The scientists have discovered a total of five skulls and a solitary jawbone. It is clear that they had relatively small brains, almost a third of the size of modern humans. "They are quite small. Their lower limbs are very human and their upper limbs are still quite archaic and they had very primitive stone tools," Professor Lordkipanidze said. "Their brain capacity is about 600 cubic centimetres. The prevailing view before this discovery was that the humans who first left Africa had a brain size of about 1,000 cubic centimetres."

The only human fossil to predate the Dmanisi specimens are of an archaic species Homo habilis, or "handy man", found only in Africa, which used simple stone tools and lived between about 2.5 million and 1.6 million years ago.

"I'd have to say, if we'd found the Dmanisi fossils 40 years ago, they would have been classified as Homo habilis because of the small brain size. Their brow ridges are not as thick as classical Homo erectus, but their teeth are more H. erectus like," Professor Lordkipanidze said. "All these finds show that the ancestors of these people were much more primitive than we thought. I don't think that we were so lucky as to have found the first travellers out of Africa. Georgia is the cradle of the first Europeans, I would say," he told the meeting.

"What we learnt from the Dmanisi fossils is that they are quite small – between 1.44 metres to 1.5 metres tall. What is interesting is that their lower limbs, their tibia bones, are very human-like so it seems they were very good runners," he said.

He added: "In regards to the question of which came first, enlarged brain size or bipedalism, maybe indirectly this information calls us to think that body anatomy was more important than brain size. While the Dmanisi people were almost modern in their body proportions, and were highly efficient walkers and runners, their arms moved in a different way, and their brains were tiny compared to ours.

"Nevertheless, they were sophisticated tool makers with high social and cognitive skills," he told the science festival, which is run by the British Science Association.

One of the five skulls is of a person who lost all his or her teeth during their lifetime but had still survived for many years despite being completely toothless. This suggests some kind of social organisation based on mutual care, Professor Lordkipanidze said.