Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

mardi, 08 août 2023

Fuite des cerveaux en Europe: 30.000 spécialistes de la technologie partent en Chine

bondaz_propositionchapeau1.jpg

Fuite des cerveaux en Europe: 30.000 spécialistes de la technologie partent en Chine

Fantine Gardinier

Source: http://www.elespiadigital.com/index.php/noticias/empresas/41189-2023-07-21-17-07-58

Des experts ont déclaré à Sputnik que les politiques occidentales ont créé un environnement de travail "toxique" pour de nombreux chercheurs qui sont plus intéressés par la science que par la politique, ce qui a contribué à leur migration vers la Chine. Pékin pourrait en tirer un grand profit en incitant davantage les chercheurs à s'installer à l'étranger, mais cela pourrait également rapprocher la Chine et l'Europe.

Un rapport récemment publié par la société américaine Strider Technologies accuse la République populaire de Chine (RPC) d'infiltrer les entreprises et les institutions technologiques occidentales dans le cadre d'une "machine qui facilite le transfert des technologies et des talents européens vers la RPC".

Le rapport note qu'au cours des 20 dernières années, plus de 30.000 cadres supérieurs d'entreprises technologiques européennes ont déménagé en Chine, créant parfois leur propre entreprise pour concurrencer leurs homologues occidentaux.

Greg Levesque, PDG de Strider, a déclaré aux médias américains que la Chine "considère que le leadership dans le secteur des semi-conducteurs est vital pour ses objectifs militaires et commerciaux et que rien ne la dissuadera de poursuivre ses efforts". Les barrières juridiques et commerciales aux États-Unis ne feront que l'inciter à accroître ses activités ailleurs".

Le ministère chinois des affaires étrangères a rejeté le rapport et a déclaré à un journal américain que Strider "a déjà publié une série de rapports contenant de fausses informations qui diffament et attaquent la Chine". L'échange de talents entre la Chine et les pays étrangers n'est pas différent de celui des autres pays".

Brain-drain_shutterstock_571250380.jpg

Jeff J. Brown, auteur de The China Trilogy, rédacteur en chef de China Rising Radio Sinoland, cofondateur et conservateur de la Bioweapon Truth Commission, a déclaré jeudi à Sputnik qu'il y a une quarantaine d'années, "la recherche occidentale est devenue payante, à but lucratif, et l'est toujours".

"Avant les années 1980, la plupart des subventions de recherche en Occident provenaient de sources gouvernementales (agences et fondations), de sorte qu'il y avait moins de contraintes commerciales et idéologiques. Avec le néolibéralisme de Reagan et Thatcher à partir des années 1980, ces subventions se sont taries et les grandes entreprises ont alors comblé le vide en offrant des financements, mais désormais avec la mention 'Nous vous payons et voici les résultats que nous voulons'", a-t-il déclaré.

Brown a déclaré qu'un "environnement de travail vénal, toxique et dégoûtant" est apparu dans les années qui ont suivi, ajoutant qu'"il n'est pas étonnant que les professeurs, les chercheurs et les scientifiques occidentaux affluent en Chine, où la science est encore pure, où la recherche de la vérité est importante et où l'environnement sociopolitique est collégial et détendu".

La migration constante des chercheurs vers la Chine est logique, compte tenu de l'environnement sociopolitique et de l'atmosphère dans laquelle les subventions sont accordées. Mais malgré les craintes d'une "fuite des cerveaux" occidentaux, M. Brown a souligné que "les couloirs des universités et des instituts de recherche occidentaux sont toujours remplis de professeurs et de scientifiques".

"La plupart d'entre eux ne sont pas assez aventureux pour prendre le pari de partir en Chine. Toutefois, on a le sentiment que ceux qui le font font partie des meilleurs et des plus brillants, plus intéressés par la poursuite de la science pure que par la production d'articles payés par Wall Street et les grandes sociétés pharmaceutiques".

"La Chine paie très bien, c'est un pays sûr, propre et moderne, sans déchets, sans grèves des transports, sans émeutes ; l'inflation est faible et les possibilités de recherche fondamentale et appliquée sont illimitées, grâce à de nombreuses subventions non politiques et non commerciales", a-t-il ajouté. "Alors, où voulez-vous faire de la recherche et du développement ? Il est facile de répondre à cette question".

"Étant donné la dichotomie susmentionnée entre la R&D occidentale et la R&D chinoise, Pékin a déjà gagné la course. Rien ne peut arrêter China Tech. Elle n'a pas besoin d'Occidentaux dans ses universités et ses laboratoires pour réaliser le 'Made in China 2025', mais ils sont une bonne levure dans le gâteau de l'invention et de l'innovation."

61xr4u1QbQL._AC_UF1000,1000_QL80_.jpg

Thomas W. Pauken II , auteur de US vs. China : From Trade War to Reciprocal Agreement, consultant en affaires Asie-Pacifique et commentateur géopolitique, a déclaré à Sputnik qu'un plus grand nombre d'Européens s'installant en Chine pourrait être très bénéfique pour les deux régions et conduire à des liens plus étroits entre elles à un moment où l'Europe souffre de sa proximité avec les États-Unis.

Toutefois, il a fait remarquer que pour persuader davantage de talents européens de s'installer en Chine, "il faut que les Européens se sentent à l'aise de venir et de s'installer en Chine".

"Ce n'est pas aussi facile que certains le pensent. Le gouvernement chinois devrait d'abord s'attacher à créer un traitement fiscal préférentiel et à trouver des moyens pour que les entreprises offrent des contrats très gratifiants aux personnes talentueuses dans les domaines de la science et de la technologie. Mais nous devons également être conscients que de nombreux Chinois sont également très doués pour les sciences et les technologies et que lorsque les Européens viendront ici [en Chine], ils risquent d'être surpris par la concurrence acharnée qu'ils devront livrer à leurs pairs chinois", a-t-il déclaré.

"Toutefois, il est important que les scientifiques et les talents européens viennent en Chine parce qu'ils ont une mentalité culturelle différente et que cette mentalité culturelle différente peut également aider les Chinois et les entreprises chinoises à mieux comprendre les marchés mondiaux ainsi que le monde de la science et de la technologie en dehors de la Chine et de l'Asie", a déclaré M. Pauken.

"Mais pour les attirer, il va falloir trouver des moyens de leur accorder un traitement fiscal préférentiel, une sorte de subvention, des procédures de visa simplifiées. Par exemple, les écoles internationales en Chine sont très chères. Je le sais pertinemment, car mon fils est scolarisé dans une école internationale. J'espère que le gouvernement chinois pourra permettre aux entreprises de recrutement de bénéficier d'un traitement fiscal préférentiel en offrant des bourses d'études aux Européens qui ont des enfants susceptibles de fréquenter des écoles internationales ici".

fuga-dei-cervelli.jpg

Pauken a fait remarquer que la province méridionale de Hainan dispose d'une zone nationale de développement industriel de haute technologie "où l'on essaie d'encourager beaucoup d'étrangers à travailler".

"Un autre avantage dont ils bénéficient est que de nombreuses marchandises hors taxes passent par Hainan et que, lorsqu'ils dépensent dans cette province, ils peuvent également obtenir des remboursements d'impôts", a-t-il expliqué. "Les Européens ne prétendent pas être intéressés par l'argent, mais vous serez surpris de voir à quel point ils sont souvent les premiers à demander un traitement [fiscal] spécial. C'est peut-être parce que les impôts sont si élevés en Europe qu'ils cherchent d'autres endroits où améliorer leur niveau de vie et leurs conditions.

Selon M. Pauken, si la migration des spécialistes de la haute technologie vers la Chine pourrait avoir un impact important sur la course mondiale à la technologie, il existe encore des obstacles importants au type d'échange que M. Strider a qualifié d'imminent, en particulier dans le domaine des informations exclusives.

"Si cela réussit, ce sera incroyable pour la Chine parce qu'elle aura beaucoup plus de progrès et de développement dans ses technologies. Cela pourrait également améliorer les relations commerciales entre l'Europe et la Chine, qui traversent actuellement une période difficile, car les Européens sont trop étroitement alignés sur Washington. Toutefois, si de nombreux Européens viennent ici, cela pourrait encourager et inspirer l'Europe à trouver des moyens d'approfondir sa coopération avec la Chine".

samedi, 18 juin 2022

La santé émotionnelle des générations futures a-t-elle été sacrifiée su l'autel de la pandémie?

1_GettyImages-1281624839.jpg

La santé émotionnelle des générations futures a-t-elle été sacrifiée su l'autel de la pandémie?

SOURCE : https://www.theunconditionalblog.com/la-salute-emotiva-delle-generazioni-future-e-stata-sacrificata-sullaltare-del-covid/

Je n'apporte rien de nouveau en publiant la traduction de cet article paru hier sur HART, mais je le fais parce que je crois qu'il est important de maintenir l'attention sur les très graves dommages subis par nos enfants au cours de cette pandémie et avec l'espoir, je ne sais pas si un tel espoir est bien de mise vu les décideurs actuels, qu'il y ait un changement de stratégie. Je tiens également à souligner que les mesures prises en Grande-Bretagne (dont traite l'article) étaient très différentes et beaucoup plus légères que celles prises en Italie.

(Prof. Maurizio Matteoli)

Le 4 avril 2022, l'Ofsted (Office for Standards in Education, Children's Services and Skills) a publié son dernier rapport sur les implications de la pandémie sur les enfants, en se concentrant sur les praticiens de la petite enfance. Cela donne une lecture intimidante.

La santé physique des enfants a été la moins affectée par le Covid, mais ce qui les a le plus blessés, c'est la réaction des travailleurs actifs dans le domaine de la petite enfance. Des politiques gouvernementales très discutables, mises en œuvre en théorie pour "arrêter la propagation", ont porté préjudice aux êtres les plus vulnérables de notre société. La plupart des gens étaient tellement terrifiés qu'ils ont adopté ces procédures sans réfléchir et ont transféré leurs angoisses sur les jeunes enfants. Au cours de la période de panique, les risques pour la santé émotionnelle ont été remplacés par les risques pour la santé physique dans l'esprit de beaucoup ; cela reflétait l'attention exclusive du gouvernement, des services de santé et des médias sur les taux de mortalité. Les enfants ont un taux de survie de 99,995 %, mais leur développement personnel, social et émotionnel a été considérablement compromis par ceux qui étaient censés les protéger. Ils ont suivi des directives fondées sur une science douteuse, fomentées par la peur et sans esprit critique apparent.

Ofsted Banner 1.jpg

Le rapport de l'Ofsted est une lecture intimidante. Les personnes travaillant dans le domaine de la santé, des soins aux enfants, de l'éducation, du développement de l'enfant et de la traumatologie devraient savoir, de par leur formation, à quel point les premières années de la vie sont cruciales pour le développement du cerveau. Pourtant, des pratiques profondément néfastes continuent d'être adoptées pour les jeunes enfants. Masques faciaux, confinements et barrages de toutes sortes, éloignement et isolement social, messages de peur constants, services de garde d'enfants incohérents et irréguliers, interdiction aux parents d'entrer dans les locaux pour déposer et récupérer leurs enfants. Cette liste est l'antithèse de ce dont les enfants ont besoin pour se développer en tant que membres sains, heureux et sûrs de la société.

22315583_web1_schoolseason-jsj-200722_1.jpg

Il est extrêmement décourageant de voir des masques faciaux portés autour des nourrissons et des jeunes enfants. Le préjudice résultant pour nos enfants, tel que décrit dans le rapport de l'Ofsted, était prévisible :

"Les enfants ont une confiance limitée ou nulle en leur vocabulaire. En outre, certains enfants avaient du mal à répondre aux expressions faciales de base. Les praticiens ont signalé que les enfants étaient particulièrement anxieux et peu habitués à voir des visages différents et beaucoup ont noté des retards dans les processus de parole et de langage des enfants."

La capacité de voir des visages entiers est cruciale pour le bon développement du cerveau des enfants. Les expressions invisibles sont très désorientantes et déroutantes. Indubitablement, cela aura souvent porté atteinte de manière significative au processus de création de liens et d'attachement entre les parents et leurs enfants, entraînant potentiellement de graves effets négatifs sur la santé mentale de ces derniers, voire des deux.

"Certains praticiens continuent de constater des retards dans le développement physique des enfants, avec des retards dans l'apprentissage du ramper et de la marche. Certains ont rapporté que les enfants avaient régressé dans leur autonomie et leur capacité à prendre soin d'eux-mêmes. En outre, un opérateur a fait remarquer que les enfants semblaient avoir passé plus de temps sur les écrans et avaient commencé à parler avec des accents et des voix qui ressemblaient au matériel qu'ils regardaient."

deJqREuikPutPfefhllE.jpg

Presque quotidiennement, de nouveaux rapports et des données choquantes sont publiés, soulignant les dommages supplémentaires causés à la prochaine génération par la pandémie de peur qui dure depuis deux ans. Il s'agit notamment de :

    - Les taux d'augmentation de l'IMC (indice de masse corporelle) ont presque doublé, avec un taux d'évolution 2,5 fois plus élevé qu'avant la pandémie pour les enfants âgés de 6 à 11 ans.

    - Une baisse de près de 20 points de ce qui devrait être plus ou moins équivalent au QI, réalisée en seulement 2 ans, pour des enfants âgés de 3 mois à 3 ans. Les enfants de cet âge apprennent des choses qu'ils ne pourront pas apprendre plus tard, comme la reconnaissance précoce du langage, aidée par l'observation et l'interaction avec des personnes qui montrent leur visage complet (non caché derrière un masque).

    - Les enfants nés pendant la pandémie ont souffert de retards de développement et peuvent être retardés par le niveau de stress de leur mère. Des chercheurs de l'Université de Columbia aux États-Unis affirment que les confinements, le travail et les problèmes de santé peuvent affecter le développement des nourrissons.

    - Selon une étude de l'UCL, 60.000 élèves du secondaire de plus en Angleterre ont sombré dans la dépression clinique.

    - Les enfants confinés sont incapables de parler ou de jouer correctement, selon les données du Royal College of Speech and Language Therapists. Les évaluations montrent qu'un enfant sur cinq ne répond pas aux normes à l'âge de 2 ans et demi. Ces pourcentages interviennent alors que l'on prévient que les diagnostics ont doublé depuis la pandémie et que les thérapeutes sont incapables de suivre le rythme.

    - Les dentistes ont prévenu que 20.000 enfants ayant des dents cariées ont perdu la possibilité de subir des opérations pour améliorer leur santé, le nombre d'extractions ayant diminué de moitié au cours de la première année de la pandémie.

    - Les services de santé mentale pour enfants en Angleterre sont surchargés au point que les jeunes attendent jusqu'à deux ans pour être traités. Et ce, après une décennie au cours de laquelle le gouvernement a promis que les maladies mentales bénéficieraient d'un "traitement égal" à celui des maladies physiques.

Il est honteux que les thérapeutes tenant compte des traumatismes ne se soient pas exprimés - si tant est qu'ils le fassent - pour protéger la précieuse vie émotionnelle et le développement délicat du cerveau des enfants. De même, il est remarquable que les adultes chargés de les soigner et de les protéger aient permis que les enfants soient traités de la sorte. Le fait que les parents aient généralement consenti est un témoignage supplémentaire du pouvoir de la peur pour influencer le comportement.

Dans un article que j'ai écrit pour HART en octobre 2021, intitulé "Can a trauma-informed approach and adherence to Covid-19 guidelines ethically co-exist ?", j'ai longuement documenté comment la réponse à la pandémie entravera profondément le développement émotionnel des enfants et que les professionnels et les soignants qui sont "trauma-informed" devaient reconnaître cela et remettre en question les politiques aberrantes. Malheureusement, cette prophétie d'un préjudice généralisé pour nos enfants était exacte. S'il est peut-être trop tard pour les personnes déjà touchées, il n'est pas trop tard pour veiller à ce que ces politiques ne soient plus jamais infligées à nos enfants. Utiliser les jeunes comme boucliers humains pour protéger les adultes de cette manière est antisocial, abusif et non scientifique ; cela ne doit plus jamais se reproduire.

Article original sur HART - Traduction par le Dr Maurizio Matteoli

mercredi, 23 février 2022

À la mémoire de l'académicien Igor Rostislavovich Shafarevich

Igor_Shafarevich.jpeg

À la mémoire de l'académicien Igor Rostislavovich Shafarevich (Chafarevitch)


par Arkady Minakov

Source: https://www.geopolitica.ru/article/pamyati-akademika-igorya-rostislavovicha-shafarevicha

Le 19 février 2022, cela fera cinq ans qu'Igor Rostislavovitch Shafarevich est décédé. Il était sans aucun doute l'une des figures clés de la société russe du dernier tiers du XXe siècle et du début du XXIe siècle.

 On ne peut pas dire que son nom soit peu connu de nos jours, mais peu de choses sont dites et écrites à son sujet dans l'espace public. Il y a de très bonnes raisons politiques à cela, pour lesquelles la figure de Shafarevich dans les années 1980 a été négativement mythifiée et tabouisée dans les médias libéraux.

Shafarevich est né le 3 juin 1923 à Zhytomyr. Son père, Rostislav Stepanovich, est diplômé du département de physique et de mathématiques de l'université d'État de Moscou et a travaillé comme professeur de mécanique théorique. Shafarevich se souvient : "L'origine de mon père n'est pas très claire. C'est-à-dire qu'il est lui-même originaire de Zhytomyr, mais d'où viennent ses parents - pas très clair pour moi. La racine "Shafar" elle-même figure dans le dictionnaire des racines slaves du Sud ou slaves de l'Ouest. J'ai rencontré un tel nom de famille dans des références à un auteur polonais, et on le trouve également en Serbie. Selon les rumeurs familiales, mon grand-père venait de Serbie. Cette conclusion est tirée d'abord du fait qu'il était orthodoxe (il était sacristain dans une église), et ensuite qu'il venait de l'Ouest : il parlait russe avec un accent. Et quel autre Occident orthodoxe y a-il? ...".

Sa mère, Yulia Yakovlevna, philologue de formation, ne travaillait pas la plupart du temps. Son père était le directeur de la succursale de la ville d'une banque d'État. Shafarevich se souvient : "C'était une occupation très dangereuse, car les premières troupes qui arrivaient prenaient tout l'or, et les suivantes exigeaient qu'il le donne. Plusieurs fois, il a été emmené au peloton d'exécution".

Certaines des terribles réalités des années post-révolutionnaires se sont fermement ancrées dans l'esprit du garçon : "... j'ai assisté à la tragédie de la paysannerie russe. Mes parents louaient la moitié d'une cabane de paysans en été au lieu d'une datcha (et les paysans déménageaient dans l'autre moitié). Elle se trouvait non loin de la ville actuelle de Pushkino. Le village s'appelait Kuronovo. Il n'existe plus - le terrain sur lequel il se trouvait a été inondé par le réservoir. Je me souviens que des choses étranges se sont produites lors de la construction du réservoir. Pendant la journée, mes amis et moi jouions aux raiders cosaques sur la rive, en nous cachant dans les buissons, et le soir, des personnes qui me semblaient énormes, à moi, un enfant, en raison de la différence de taille, ont été conduites dans les buissons. Des chiens aboyeurs les gardaient. Je n'ai pas communiqué avec eux, j'ai juste vu cette image d'une masse sombre s'étendant devant notre maison".

Les parents de Shafarevich lui ont donné une excellente éducation, il connaissait plusieurs langues et était extrêmement cultivé pour son âge.  Déjà dans sa maturité, il a dressé une liste de vingt livres, qui lui ont fait "la plus grande impression". Parmi eux figuraient les byliny russes, les contes d'Afanasiev, des frères Grimm, Le Prométhée enchaîné et les Euménides d'Eschyle, l'Histoire d'Hérodote, le Faust de Goethe, Pouchkine et Dostoïevski. Ces livres lui ont très probablement été lus lorsqu'il était enfant.

Le cercle de lecture de Shafarevich s'est considérablement enrichi d'ouvrages de fiction moderne, d'ouvrages historiques, philologiques et philosophiques : des livres de Soljenitsyne (Un jour dans la vie d'Ivan Denisovitch, Le Pavillon des cancéreux, L'Archipel GULAG), des "rednecks" de V.I. Belov ("Kanun") et autres. I. Belov ("Eve"), V. G. Raspoutine ("Adieu à la mère"), études de la mythologie, de la littérature et de la culture russes anciennes, ouvrages sur l'histoire de la société occidentale et russe. Une place spéciale dans cette liste a occupé les livres des penseurs conservateurs russes I.A. Ilyin "Sur la monarchie et la république" et "Nos tâches" ; I.L. Solonevich "Narodnaya Monarchiya", L.A. Tikhomirov "L'État monarchique".

image_0662944_20210212_ob_000249_shafarevitch-portrait.jpg

À l'école, Shafarevich a développé un intérêt très profond pour l'histoire (il avait même l'intention de devenir historien, mais a ensuite considéré à juste titre que dans l'URSS extrêmement idéologisée, l'étude professionnelle de l'histoire entraînerait un coût moral et intellectuel trop important). Finalement, il a opté pour les mathématiques.

Dès l'âge de treize ans, il suit le programme scolaire en mathématiques, puis le programme de la faculté de mécanique et de mathématiques de l'université d'État de Moscou, où il passe ses examens externes. En huitième année, le jeune homme phénoménalement doué a suscité l'intérêt des professeurs du MGU (B. K. Delaunay), et en neuvième année, Igor Shafarevich a commencé des travaux de recherche en algèbre et en théorie des nombres. Après avoir quitté l'école, il est accepté en dernière année de la faculté de mécanique et de mathématiques et obtient son diplôme en 1940, à l'âge de 17 ans. Shafarevich a soutenu sa thèse de doctorat à l'âge de 19 ans et sa thèse de doctorat à l'âge de 23 ans. Il a rejoint la faculté du département de mécanique et de mathématiques de l'Université d'État de Moscou en 1944, et à partir de 1946, il a intégré le personnel de l'Institut mathématique Steklov (MIAN). Il a supervisé la soutenance de plus de trois douzaines de thèses de doctorat. En 1958, Shafarevich a été élu membre correspondant de l'Académie des sciences de l'URSS et en 1991, il a été élu membre de l'Académie des sciences de Russie. Il a reçu le prix Lénine en 1959 pour la découverte de la loi générale de réciprocité et pour avoir résolu le problème inverse de la théorie de Galois. Les principaux travaux de Shafarevich portaient sur l'algèbre, la théorie des nombres et la géométrie algébrique. Il était l'un des mathématiciens les plus connus de notre époque, et membre des principales académies et centres scientifiques étrangers.

41bdOgocLZL.jpg

Shafarevich percevait les mathématiques comme "une belle symphonie se poursuivant sans fin", et l'opportunité de s'y évader du monde des dictats idéologiques, son "sens et sa beauté l'ont amené à réaliser le but religieux de la connaissance du monde". Lors d'une conférence prononcée à l'occasion de la remise du prix Heinemann en 1973 à l'Académie de Göttingen, Shafarevich a particulièrement insisté sur la relation entre la religion et les mathématiques, accordant une nette priorité à la religion : "Ce n'est pas la sphère la plus basse en comparaison, mais la plus haute de l'activité humaine - la religion - qui peut donner un but aux mathématiques. <...> Les mathématiques ont été formées en tant que science au 6e siècle avant J.-C. dans l'union religieuse des Pythagoriciens et faisaient partie de leur religion. Les mathématiques avaient un objectif clair : c'était un moyen de fusionner avec le divin en comprenant l'harmonie du monde exprimée dans l'harmonie des nombres. <...> Je voudrais exprimer l'espoir que, pour la même raison, il peut maintenant servir de modèle pour la solution du principal problème de notre époque : trouver un but religieux plus élevé et le sens de l'activité culturelle de l'humanité.

En l'absence d'un objectif religieux supérieur, toute l'activité scientifique de l'humanité ne mène qu'à la destruction globale.

Cependant, ce ne sont pas seulement ses succès en mathématiques qui ont rendu Shafarevich célèbre dans le pays et dans le monde. En tant que mathématicien, il reste connu d'un cercle relativement restreint de professionnels. Son activité sociale et politique dans le cadre du mouvement dissident, qui a vu le jour en URSS à cette époque, lui a apporté une notoriété incommensurable. Dès 1955, il a signé la "Lettre des trois cents" adressée au Comité central du Parti communiste de l'Union soviétique en solidarité avec la protestation des biologistes contre Lyssenko. En 1968, il a signé une lettre collective pour défendre le militant dissident des droits de l'homme A.S. Yesenin-Volpin, qui était emprisonné dans un hôpital psychiatrique. Et dès la fin des années 1960, Shafarevich devient l'un des leaders du mouvement dissident, rejoignant le "Comité des droits de l'homme en URSS" organisé par A.D. Sakharov, créé fin 1970, où il fait de la protection des droits des croyants l'un des thèmes principaux. Shafarevich occupait une position particulière au sein du Comité : "J'étais membre du Comité, mais j'étais irrité par le manque de direction dans ses activités. Il me semblait inutile d'étudier la situation des droits de l'homme en URSS, et non de se battre pour eux. J'ai rédigé un rapport sur l'état des religions en URSS. En préparant le rapport, j'ai souligné que la persécution anti-religieuse se produit dans tous les pays socialistes, sans exception. Partout où le socialisme s'est manifesté, que ce soit en Albanie, en Chine, partout les mêmes événements ont eu lieu : persécution de toute confession existante, persécution des croyants, quelle que soit leur croyance. Cela m'a fait réfléchir à la nature du socialisme lui-même.

51OpMdAKvhL._SX342_SY445_QL70_ML2_.jpg

Shafarevich a exposé sa vision du socialisme, remarquable par la profondeur et la clarté de sa compréhension, dans un court article intitulé "Socialisme", publié dans la collection "De sous les rochers", conçue par lui et A.I. Solzhenitsyne comme une sorte de continuation des célèbres collections "Jalons" et "De profondeur".  Shafarevich a présenté le socialisme comme une conséquence des grandes crises vécues à plusieurs reprises par l'humanité. Le socialisme en tant que théorie et pratique est une manifestation du désir d'autodestruction de l'humanité, du Néant ; il est hostile à l'individualité, relègue l'homme au niveau des détails d'un organisme étatique et cherche à détruire les forces qui soutiennent et renforcent la personne humaine : la religion, la culture, la famille, la propriété individuelle.

6966936465.jpg

Immédiatement après l'arrestation et la déportation hors d'URSS de son co-auteur Soljenitsyne en février 1974, Shafarevich a écrit des lettres ouvertes pour défendre l'écrivain. Il a été renvoyé de l'université d'État de Moscou en 1975 et n'y a plus enseigné depuis. Cependant, il n'a pas été touché par de graves représailles à cette époque. La situation s'est aggravée lorsqu'en 1982, il a laissé le manuscrit de son essai "Russophobie", écrit en 1980, partir en "samizadat" : "Les vrais problèmes ont commencé lorsque j'ai écrit 'Russophobie'. ...  J'ai écrit de nombreux ouvrages, mais c'est celui-là qui est vraiment célèbre. L'homme de la rue, si vous lui demandez qui est Shafarevich, serait capable d'associer mon nom exclusivement à cette œuvre.

Shafarevich lui-même pense que la principale chose qu'il a faite dans cet essai a été de généraliser le concept de "petites gens", qui a été introduit pour la première fois par l'historien français Augustin Cochin, qui a analysé la situation des cercles intellectuels en France avant la révolution de 1789 : "Cochin a décrit comment les "salons" français ont préparé la révolution. Elle a été réalisée par des personnes unies par un sentiment commun, à savoir le mépris et la haine de leur propre pays et de leur culture. Ils niaient toutes ses réalisations, considéraient la France et les Français comme quelque chose de peu de valeur par rapport à d'autres nations qui, selon eux, avaient remporté de grands succès, et insistaient sur le fait que seul un renversement radical dans tous les domaines de la vie ferait de la France "une partie de l'humanité éclairée". Les conséquences de leurs activités étaient terribles."

Shafarevich a suggéré qu'un tel phénomène - une "petite nation" - apparaît en période de crise majeure dans n'importe quel pays, qu'il s'agit d'une sorte de phénomène mondial. En tant que "petit peuple", Shafarevich voyait les sectes calvinistes protestantes en Angleterre pendant la Révolution anglaise du XVIIe siècle, les "illuminati" et les "encyclopédistes" en France à la veille de 1789, les "Hégéliens de gauche" en Allemagne, qui ont ouvert la voie à l'émergence du marxisme et de l'anarchisme, les nihilistes russes des années 1860 et 70... Ce sont ces minorités religieuses et idéologiques qui ont formé le noyau de la "contre-élite" et ont été la cause et le moteur de tous les grands cataclysmes sociaux qui se sont abattus sur les pays susmentionnés.

978-3-0348-0215-4.jpg

Le "petit peuple", dans l'interprétation de Shafarevich, n'est pas un courant national à proprement parler, car il pourrait inclure des représentants de différentes ethnies et nationalités. Cependant, à la veille des révolutions de 1905-1907 et de 1917 en Russie, ainsi que plus tard en URSS dans les années 1970 et 1980, "un certain courant de nationalisme juif" a joué un rôle majeur dans le "petit peuple".

C'est cette disposition qui a provoqué un grave conflit dans le mouvement social de l'époque, car dans la perception du camp dissident-libéral, elle permettait d'interpréter la "russophobie" comme un vulgaire pamphlet antisémite.

Au même moment, le KGB, alors dirigé par Yuri Andropov, a commencé à répandre des rumeurs sur l'arrestation possible du scientifique.  Le début des années 1980 a été marqué par les arrestations et la persécution d'un certain nombre de membres du "Parti russe" de l'époque. Shafarevich se souvient de cette époque comme suit :

"Un document sur ce sujet est maintenant connu - la lettre d'Andropov au Politburo...  Andropov y parle de certains "Russes" dangereux, qui sont apparus à la place de défenseurs des droits de l'homme vaincus. C'est à ce moment-là que la chasse aux personnes d'"obédience russe" a commencé. Ainsi, en 1982, L.I. Borodin a été arrêté. D'ailleurs, alors que l'enquête était déjà terminée, on lui a dit : "Votre sort est scellé. Voulez-vous savoir qui sera le prochain ? Shafarevich." Il a raconté cela à l'avocat, ce dernier à sa femme, sa femme à moi".

Néanmoins, Shafarevich n'a pas été arrêté, bien que la réaction à ce livre La russophobie soit encore tangible : sa femme a été suspendue de son enseignement à l'Institut d'ingénierie et de physique, et son fils n'a pas été admis au département de physique de l'Université d'État de Moscou.

Le conflit s'est particulièrement intensifié après la publication de l'essai en 1989 dans le journal "pseudo-romantique" Nash sovremennik.  Des lettres collectives de protestation signées par Y. N. Afanas'ev, A. D. Sakharov, D. S. Likhachev, des mathématiciens américains, etc. se sont coalisés contre Shafarevich. En 1992, l'Académie nationale des sciences des États-Unis a appelé Shafarevich à refuser volontairement de devenir membre de l'Académie, car il n'existe aucune procédure d'expulsion de l'Académie (en 2003, Shafarevich l'a lui-même quittée en signe de protestation contre l'agression américaine contre l'Irak).

À partir de la fin des années 1980, Shafarevich a participé sporadiquement aux initiatives politiques et culturelles du mouvement national-patriotique alors naissant : on connaît sa participation symbolique à des organisations telles que l'Union nationale russe, l'Assemblée du peuple russe, le Front du salut national, le Parti démocratique constitutionnel-Parti de la liberté du peuple et le Centre panrusse de la droite nationale. Il a également contribué pendant un certain temps à des publications telles que le journal Den et le magazine Nash sovremennik.

isshhh.jpg

Cependant, dans les années 1990 et au cours de la première décennie des années 2000, Shafarevich a joué son principal rôle public non pas en tant qu'homme politique, ce qu'il n'a jamais été, mais en tant qu'auteur d'interviews, d'articles et de livres, sans lesquels l'autodéfinition idéologique d'une partie du mouvement national conservateur moderne n'aurait pas été possible. Parmi eux, l'article "Deux routes vers un même précipice" mérite une mention spéciale, dans lequel le socialisme et le capitalisme sont considérés comme les hypostases d'une seule et même civilisation, dans laquelle tout ce qui est organique et naturel est étranger, tout est remplacé par un mécanisme complètement artificiel, où le rythme de travail et le style de vie sont subordonnés à la technologie, où tout est standardisé et unifié : la langue, les vêtements, les bâtiments.

Une telle civilisation est exceptionnellement productive à certains égards, comme sa capacité à nourrir sa population, à générer de l'énergie, à produire des armes de destruction massive, à contrôler et à manipuler la conscience de masse, etc. Mais cette civilisation, qui détruit activement la nature et supprime tous les aspects organiques et traditionnels de la vie, porte les germes de sa propre disparition, réduisant l'homme au plus bas niveau, celui de son essence animale. Cela doit inévitablement conduire à une crise spirituelle, démographique et écologique mondiale. La différence entre le mode de "progrès" occidental et le socialisme est que le premier est plus "doux" et repose davantage sur la manipulation de la conscience de masse, tandis que le second s'appuie incomparablement plus sur la violence directe et la coercition.  Shafarevich a essentiellement appelé à la recherche d'une "troisième voie" qui mobiliserait l'expérience de toutes les formes de vie plus organiques pour surmonter la crise menant à la disparition de l'humanité.

oigsh3000.jpg

La dernière œuvre majeure de Shafarevich est le traité "L'énigme des trois mille ans", consacré à la question juive, qu'il a écrit pendant vingt-cinq ans (c'est-à-dire depuis 1977).  

L'idéologie de la "troisième voie", partagée par presque tous les courants conservateurs en Russie, a été développée en son cœur dans les écrits de Shafarevich, à commencer par son article programme "Deux routes vers un précipice" (1989). Le terme "russophobie", l'un des premiers utilisés par F.I. Tyutchev, a pris racine grâce à Shafarevich, d'abord dans le discours national-patriotique, et depuis environ 2014, il est fermement ancré dans la rhétorique officielle.

Shafarevich est décédé le 19 février 2017 et a été enterré au cimetière de Troekurovsky. En dépit de sa renommée nationale et internationale et de son prestige extrêmement élevé dans le milieu patriotique, dont certains avaient à cette époque réussi à s'engager de manière constructive avec l'establishment, il n'y a pas eu de condoléances de la part des autorités suprêmes, ni de reportages sur sa mort sur les chaînes de télévision centrales.

Principaux travaux de I.R. Shafarevich :

Shafarevich I. R. Socialism / I. R. Shafarevich // From under the boulders : a collection of articles. - M. : Paris : YMCA-PRESS, 1974. - С. 29-72.

Shafarevich I. R. Russophobia / I. R. Shafarevich. Œuvres complètes : en 6 vol. - Moscou : Institut de la civilisation russe, 2014. - VOL. 2 - P. 273-395.

Shafarevich I. R. Two roads to one precipice / I. R. Shafarevich. Collection complète des œuvres : en 6 volumes. - Moscou : Institut de la civilisation russe, 2014. - VOL. 2. - P. 3-54.

dimanche, 13 décembre 2020

Immunité physiologique et immunité sociale

peterschreiber-media-1920-shutterstock.jpg

Immunité physiologique et immunité sociale

Laurent Ozon

Les études de biologie et d’immunologie révèlent la centralité de la notion d’immunité dans le paysage médical contemporain sous l’effet de l’augmentation foudroyante des pathologies immunitaires. D’autres études de psychologie évolutionnistes révèlent simultanément que la notion d’immunité pourrait, sans risque d’abus, être la clé de lecture des marqueurs politiques et idéologiques dans les sociétés occidentales. A l’heure des épidémies faut-il s’attendre à un retour brutal des stress de conservation ?

Le soi, le non-soi et le soi-modifié

Selon le Larousse, l’immunité est définie comme « l’ensemble des mécanismes de défense d’un organisme contre les éléments étrangers à l’organisme ». Les immunologistes la considèrent comme un mécanisme de conservation : « la physiologie du système immunitaire est conservatrice et auto-réactive. Et les pathologies dérivent des défaillances de ces mécanismes de conservation ». Le système immunitaire repose donc sur la capacité initiale à reconnaître le soi, le non-soi et le soi-modifié, c’est à dire à identifier les corps étrangers ou devenus étrangers (soi modifié) puis ensuite, à identifier ceux qui doivent être combattus, détruits ou compensés. Les pathologies immunitaires peuvent être classées en trois catégories : les pathologies liées à une immunité déficiente, celles liées à une immunité exubérante et les pathologies dites auto-immunes. Les premières relèvent d’un affaiblissement et parfois d’une disparition totale du système immunitaire où l’organisme ne se défend plus. Les secondes, dites exubérantes, désignent des réponses excessives du système immunitaire (la plupart des mécanismes allergiques) et les troisièmes, dites auto-immunes, s’attaquent aux constituants normaux de l’organisme en ignorant ses pathogènes par le fait que le système immunitaire ne reconnaît plus le soi du non-soi.

Un regard immunologique sur les sociétés humaines

Diabète de type 1, Sclérose en plaques, maladie de Crohn, Lupus, polyarthrite rhumatoïde, cancer et maladies cardiovasculaires, dépression, SIDA, mais aussi épidémie de Coronavirus, l’explosion des maladies liées à des pathologies immunitaires a placé la notion d’immunité au cœur des problématiques médicales actuelles.

humain-systeme-immunitaire-representation-artistique.jpg

En énonçant ces généralités, on comprend pourquoi de nombreux intellectuels, critiques sociaux ou scientifiques ont été tenté d’extrapoler en définissant les mécanismes et les contours d’une immunologie sociale, vers un regard immunologique porté sur la société humaine.

Les mécanismes immunitaires sociaux suppléent aux mécanismes immunitaires individuels.

On a tout d’abord parlé d’« immunité sociale » pour désigner les mécanismes sociaux par lesquels une collectivité établit une immunité collective. Nathalie Stroeymeyt, Sylvia Cremer ou Janine Kievits, ont ainsi étudié les mécanismes d’immunité sociale chez les insectes sociaux, à savoir la résistance des colonies aux pathogènes grâce à des mécanismes sociaux (organisation, relation, etc.). Des recherches qui ont révélé les liens entre la faible immunité individuelle et la forte immunité sociale des colonies : « l’abeille a moins de gènes de défense, situation probablement liée au fait qu’elle dispose d’autres moyens pour lutter contre les microbes et parasites. Car l’abeille a d’autres armes : elle vit en colonies. ».

Les mécanismes immunitaires sociaux viendraient ainsi suppléer aux mécanismes immunitaires individuels. D’autres chercheurs (par exemple Simon Babyan de l’Université d’Edimbourg) ont étendu cette notion d’immunité sociale à toutes les espèces sociales, rappelant que dans les espèces sociales, et bien évidemment dans les sociétés humaines , « la combinaison du contrôle comportemental de l'infection - par exemple, la ségrégation des malades, l'élimination des morts, l'évaluation de la qualité des aliments et de l'eau - et l'agrégation des individus immunisés, peuvent protéger les membres non immunisés contre la maladie ». A ce stade, l’on évoque la façon dont un groupe social se dote de mécanismes immunitaires collectifs qui viennent compléter les défenses individuelles de ses membres face à des agressions d’agents pathogènes extérieurs.

De l’immunité sociale à la sociabilité immunitaire

C’est à ce stade que les recherches de Joshua Tyburg, (professeur agrégé de psychologie enseignant à l’Université Libre d’Amsterdam) permettent d’approfondir et surtout d’élargir l’approche immunitaire pour comprendre les sociétés. Il s’agit de passer de l’étude de l’immunité sociale (stratégies sociales à fonctions immunitaires) à une socialité immunitaire, c’est à dire à une réinterprétation des stratégies et comportements sociaux d’un point de vue immunitaire.

imagesimm.jpg

Joshua Tyburg, cherche à expliquer les bases du comportement humain conservateur en remontant aux sources du dégout comme transposition de comportements d’évitements anti- pathogènes, afin de permettre à la société de passer du «rejet à l’acceptation ». Il mobilise ainsi dans ses recherches les études démontrant que la perception du dégoût est à proportion plus forte chez les individus aux opinions les plus conservatrices sur le plan des mœurs, des valeurs et en matière politique.

Tyburg cherche en effet à mieux comprendre les comportements humains et en particulier les stratégies d’accouplement, la moralité et la perception des risques pathogènes en vue de faciliter selon lui le passage « du rejet à l’acceptation ». Sa méthodologie de travail le porte à étudier les causes et manifestations du dégoût (répulsion puis évitement) pathogène, sexuel et moral. Des manifestations dont les bases génétiques ont été largement prouvées par une étude de l’American Psychologist Association en 2015. Cette étude prétendait, elle aussi, contribuer à mieux comprendre les nombreux comportements normaux auxquels le dégoût est lié, y compris les préférences de partenaire les idéologies politiques et l'évitement social.

Dégoût et immunité

Les recherches de Joshua Tyburg comme celles Debra Lieberman (Département de psychologie de l’Université de Miami) ont permis d’avancer sur plusieurs constats. D’abord, la perception de dégoût peut être considérée comme une manifestation immunitaire, au moins dans la mesure où le dégoût des pathogènes en particulier, influence naturellement l'évitement des contacts mais aussi le choix des aliments, la coopération sociale et le choix du partenaire et donc les orientations sexuelles (Current Opinion in Psychology 2016, 6/7/11).

Depositphotos_62586349_xl-2015-1600x1068.jpg

Ces manifestations de rejet ne sont pas anodines puisque plusieurs scientifiques du XXe et du XXIe siècle ont noté que de nombreux objets qui provoquent le dégoût contenaient objectivement des agents pathogènes (Drs. Curtis, Aunger et Rabie du Département de Biologie de la Royal Society, 2004), que la sensibilité et la perception de dégoût diminuait avec l’âge (comme l’efficacité du système immunitaire), que le sentiment de dégoût est un facteur central dans les apprentissages des normes, de valeur et de culture (P. Rozin, A. Fallon, American Psychological Association, 1987). Ainsi, des études ont démontré que les femmes avaient des manifestations de dégoût et des perceptions xénophobes nettement plus accentuées en période d’ovulation et plus largement durant leur âge de reproduction. Je n’ai trouvé aucune étude symétrique concernant les modifications hormonales affectant les capacités de reproduction, leurs éventuels liens avec une diminution de l’efficacité immunitaire, l’atténuation des manifestations de dégoût ou la xénophobie.

Les liens entre stress immunitaire et conservatisme

Enfin, et logiquement, Tyburg, dans une étude publiée en 2015 par Evolution and Human Behavior s’est penché à nouveau sur la triangulaire dégoût (répulsion et évitement), stratégies sexuelles (fréquence des rapports, choix des partenaires, etc.) et système de valeurs (plutôt progressiste ou plutôt conservateur). Sans surprise, les résultats confirmèrent que le stress contre le parasitisme et la sensibilité au dégoût individuel (réaction à des images ou situations « dégoûtantes ») se manifestent plus fortement chez les individus adhérents à des normes traditionnelles ».

4e0451b62470520976961db3e9c773f7-1590675098.jpg

Il existe donc bien une relation empirique entre la réaction immunitaire de dégoût et les options idéologiques dites « conservatrices » recensées ainsi: rejet de l’immigration, rejet de l’homosexualité, moindre confiance sociale élargie, mais aussi préférence pour des formes politiques moins éloignées et moins nombreuses, valorisation de la méritocratie plutôt qu’aspiration à l’égalité, intérêt pour les causes écologiques de proximité plutôt que mondiales, préférence pour la culture et les coutumes traditionnelles plutôt que l’expérimentation sociale, favoritisme intra-groupe, etc.

Tyburg note par ailleurs (Evolution and Human Behavior, novembre 2015, Vol. 36, n°6, Pages 489–497), qu’il convient de distinguer le conservatisme social (promotion d'un changement favorisant des traditions culturelles de longue date) d’un « conformisme social » ou d’une acceptation ou volonté de protection des acquis (salaire minimum ou prise en charge des frais de santé ) qui, eux, ne font pas apparaître chez leurs partisans, de corrélations particulières avec des manifestations immunitaires plus marquées de dégoût. De là à confirmer que le conservatisme idéologique est une manifestation immunitaire il n’y a qu’un pas, pas que Tyburg ne franchit évidemment pas.

Récapitulons : premièrement, les individus disposent d’un système immunitaire permettant à leur organisme de résister aux agressions extérieures et ce système fonctionne sur la capacité initiale à distinguer le soi, le non-soi et le soi-modifié. C’est l’altération de cette capacité de reconnaissance, fondamentalement conservatrice, qui engendre les pathologies immunitaires au nombre desquelles on compte la plupart des maladies dites génétiques ou de civilisation de notre époque. Deuxièmement, les groupes sociaux développent des capacités immunitaires c’est-à-dire des règles de communication et d’organisation qui assurent la prise en charge d’une part de ces fonctions immunitaires et, de ce fait, enlèvent à l’individu une partie de ses facultés immunitaires par transfert de compétences ou d’aptitudes. Troisièmement, les manifestations de dégoût par répulsion ou évitement sont largement corrélées à des manifestations idéologiques de dégoût ou d’évitement sexuels, moraux et sociaux. Quatrièmement, l’objet de ces manifestations de dégoût est lié à des pratiques factuellement à risque sur le plan pathogène, et par transfert, lié à des changements d’état importants sur le plan sociétal, social, sanitaire, axiologique et politique. Enfin, les chercheurs qui tentent d’analyser les phénomènes de « rejets » dans l’optique d’une amélioration de l’ingénierie sociale pour favoriser « l’acceptation » de ces changements, identifient un mécanisme immunitaire qui sous-tend les marqueurs idéologiques conservateurs.

Stress et révolutions « conservatrices »

De fait, l’immunité devient un concept étendu à la psychologie sociale et donc à l’étude des marqueurs idéologiques et politiques de notre époque. A l’heure de la crise du coronavirus, de l’immigration de masse, les conservateurs sont-ils les agents d’une réaction immunitaire qui s’ignore ? Si oui, la question d’une lecture « immunitaire » des marqueurs idéologiques dits « progressistes » serait, elle aussi, sans aucun doute utile.

60703.jpg

Pour ne pas conclure, et sans avoir décrit précisément les mécanismes de compensation sociale des stress immunitaires, il serait utile d’évaluer l’impact de la pandémie du Covid19, de ses conséquences sur la confiance des populations à l’égard de la prise en charge immunitaire du groupe. Utile aussi de mesurer ses effets sur la diffusion des marqueurs idéologiques conservateurs dans la population, pour mieux comprendre ces mécanismes à l’avenir. Car si les groupes sociaux développent bien des capacités immunitaires qui délestent les individus d'une partie de leurs facultés immunitaires, une prise en charge insatisfaisante de ces fonctions par les collectivités, pourraient bien favoriser des stress durs qui alimentent la diffusion des marqueurs idéologiques conservateurs. Des marqueurs qui précèdent des révolutions, au fond toujours "conservatrices" dans leurs aspirations.

Laurent Ozon

laurent.ozon@me.com

mardi, 30 juin 2020

Biopolitics: What's behind?

copertina.jpg

Biopolitics: What's behind?

 
 
Manuel Ochsenreiter (Germany) and Mateusz Piskorski (Poland) are discussing in this episode the risks, chances and dangers of so-called "biopolitics" and transhumanism. What is the geopolitical impact? How will different geopolitical spaces, nations, cultures, societies and religions deal with it? Stay safe!
 
Contact: DieGutenMenschen@protonmail.com
 

00:10 Publié dans Actualité, Science, Sciences | Lien permanent | Commentaires (0) | Tags : sciences, biopolitique, actualité | |  del.icio.us | | Digg! Digg |  Facebook

mercredi, 03 juin 2020

Le cloaque comportemental - La dégradation du matériel humain

RD3FP4TYSE5GHO7L7TCVFHWWJM.jpg

Le cloaque comportemental

La dégradation du matériel humain (avec Ralf)

 
Il y a 50 ans, John B. Calhoun, éthologue américain, créait le paradis des rats. Une authentique utopie. Un luxueux hangar climatisé, de multiples nids douillets, de l'eau et de la nourriture à volonté, évidemment aucun prédateur. Dans cet environnement idéal, les rats vont prospérer et se reproduire sans entrave. La population va doubler tous les 2 mois. De 8 rats au début de l'expérience, la colonie, à son apex, atteindra jusqu'à 2200 individus, tous atteints de pathologies psychiatriques diverses et variées. L'utopie va peu à peu se transformer en mégalopole infernale, qui finira par s'autodétruire : ultra-violence, pansexualisme, harcèlement des femelles, cannibalisme. Un véritable chaos à ciel ouvert. Cette expérience est connue sous le nom de "cloaque comportemental". Elle aura une postérité colossale dans les domaines de la psychologie, de la sociologie, de l'architecture, de l'urbanisme et de l'ingénierie sociale.
 
 
TIPEEE DE RALF : https://fr.tipeee.com/ralf

mardi, 07 avril 2020

Semmelweis: pionnier de l'épidémiologie et héros de Céline

6dd3e48a8c_93061_album-grdnom-medecine10.jpg

Semmelweis: pionnier de l'épidémiologie et héros de Céline

Par Jacques DUFRESNE

Ex: https://metainfos.fr

Ignace Philippe Semmelweis (1818-1865). Voici le nom qui se présente avec le plus d’insistance à mon esprit dans le contexte des deux grands débats actuels : sur le virus covid-19 et sur la violence faite aux femmes. Il se trouve que ce «sauveur des mères» a eu un biographe de génie, lui aussi médecin des pauvres : Louis-Ferdinand Céline. Dans son Semmelweis, qui fut sa thèse de doctorat en médecine, soutenue en 1924, s’ébauche  un style qui s’accomplira huit ans plus tard dans le Voyage au bout la nuit, mais qui déjà, dans sa verdeur, transporte le lecteur dans une région de la vérité à laquelle aucun autre livre ne lui avait donné accès. Ce fut en tout cas mon expérience lors de ma première lecture à la fin de la décennie 1970. J’en suis à ma cinquième ou sixième lecture et je m’exclame de nouveau, avec plus d’enthousiasme encore que jadis : voici un livre qui devrait être une lecture obligatoire dans toutes les facultés de médecine !  J’ai lu quelques grandes biographies, parmi les œuvres de Plutarque, de Saint-Simon et de Stéphan Zweig notamment, aucune ne m’a donné autant que celle de Céline le sentiment de l’unité de l’auteur et de son sujet. Il m’est devenu impossible de les dissocier. Céline cite Semmelweis à quelques reprises, je me demande chaque fois s’Il s’agit vraiment d’une citation.

product_9782070755837_195x320.jpgJe n’hésite plus à mettre entre parenthèses tout ce qu’on sait au croit savoir sur l’antisémitisme de Céline, suivant en cela l’exemple de l’homme qui aurait eu le plus de raisons de jeter l’anathème sur lui, George Steiner, un juif bien formé et bien informé qui, au lieu de nier le génie là où il le voyait associé aux passions les plus funestes, s’inclinait devant le mystérieux scandale de leur coexistence dans un même être,  sans jamais exclure que, dans les mêmes circonstances , il aurait pu lui-même dériver vers les mêmes excès. Je reviens sur cette question dans un article distinct sur Steiner.

Semmelweis est celui qui, en 1848, quarante ans avant les découvertes de Pasteur sur l’infection par les microbes, a trouvé le remède à la plus tragique, la plus durable, la plus récurrente et la plus occultée des épidémies : celle qui, dans les grandes villes européennes du XIXème siècle notamment, frappaient les femmes pauvres réduites à accoucher dans les hôpitaux publics. Le taux de mortalité y était souvent de 40% et plus.

On ne sait plus qui de Socrate ou de Platon, il faut admirer le plus, tant le génie littéraire du second a contribué à la gloire du premier. Semmelweis a devant l’histoire la même dette à l’endroit de Céline que Socrate à l’endroit de Platon. Comparaison disproportionnée, m’objectera-t-on, l’œuvre de Platon est un sommet unique en son genre, tandis que la découverte de l’asepsie par Semmelweis, car c’est de cela qu’il s’agit, ne serait qu’un heureux événement parmi une foule d’autres semblables en médecine. Quand on a lu attentivement la thèse de Céline, on a au contraire et à jamais la conviction qu’il s’agit de deux plaidoyers en faveur de la même vérité, l’un au plus haut degré d’abstraction compatible avec la poésie, l’autre au ras du sol, comme dans les grands romans policiers mais jumelé à une poésie encore plus déchirante : celle de la compassion pour les malheureux.

« Semmelweis était issu d’un rêve d’espérance que l’ambiance constante de tant de misères atroces n’a jamais pu décourager, que toutes les adversités, bien au contraire, ont rendu triomphant. Il a vécu, lui si sensible, parmi des lamentations si pénétrantes que n’importe quel chien s’en fût enfui en hurlant. Mais, ainsi forcer son rêve à toutes les promiscuités, c’est vivre dans un monde de découvertes, c’est voir dans la nuit, c’est peut-être forcer le monde à entrer dans son rêve. Hanté par la souffrance des hommes, il écrivit au cours d’un de ces jours, si rares, où il pensait à lui-même : ‘’Mon cher Markusovsky, mon bon ami, mon doux soutien, je dois vous avouer que ma vie fut infernale, que toujours la pensée de la mort chez mes malades me fut insupportable, surtout quand elle se glisse entre les deux grandes joies de l’existence, celle d’être jeune et celle de donner la vie.’’ »[1]

Le Semmelweis de Céline est une chose unique dans l’histoire de la littérature. Tous les genres littéraires s’y entrelacent dans une harmonie impossible et pourtant bien atteinte : essai sur la méthode scientifique, roman policier, étude de caractères, évocation du génie des villes, histoire d’une époque et, à travers cette époque, témoignages saisissants sur la condition humaine. Quand on ferme le livre, on ne sait pas si l’on sort d’une fiction ailée ou d’un méticuleux rapport de laboratoire, d’une page de l’évangile ou d’une compilation de statistiques, mais on est sûr d’avoir fait quelque progrès dans l’inconnu de la vérité.

Semmelweis lui-même, comme Céline, est un être double, plein de compassion, mais aussi orgueilleux, intolérant et maladroit au point de nuire à ses propres recherches en se mettant inutilement à dos des collègues dont le soutien lui était nécessaire. Chercheurs du monde entier, en scaphandre, reliés par Internet et disposant d’ordinateurs tout puissants, la forme que prend aujourd’hui la recherche médicale, dans le cas des épidémies en particulier, rend très difficile pour nous de comprendre les génies solitaires du passé. Semmelweis fut peut-être le plus solitaire de tous. Et pour l’histoire des sciences telle qu’on la conçoit aujourd’hui, il n’a le mérite de la grandeur ni en tant que théoricien ni en tant que technicien : il ne fut qu’un observateur servi aussi bien par ses défauts, son orgueil, son entêtement que par ses qualités, son amour des vivants et son horreur de l’a peu près.

« L’ à peu près est la forme agréable de l’échec, consolation tentante…

Pour le franchir, l’ordinaire lucidité ne suffit pas, il faut alors au chercheur une puissance plus ardente, une lucidité pénétrante, sentimentale, comme celle de la jalousie. Les plus brillantes qualités de l’esprit sont impuissantes quand plus rien de ferme et d’acquis ne les soutient. Un talent seul ne saurait prétendre découvrir la véritable hypothèse, car il entre dans la nature du talent d’être plus ingénieux que véridique.

Nous avions pressenti, par d’autres vies médicales, que ces élévations sublimes vers les grandes vérités précises procédaient presque uniquement d’un enthousiasme bien plus poétique que la rigueur des méthodes expérimentales qu’on veut en général leur donner comme unique genèse.»[2]

De-Celine.jpgDans l’hôpital de Vienne où Semmelweis travaillait en tant qu’obstétricien, il y avait deux services de maternité, celui du professeur Bartch et celui du professeur Klin, dont il était l’adjoint. Après avoir éliminé une à une toutes les hypothèses, aussi farfelues les unes que les autres, rassemblées dans la littérature médicale de l’époque, il n’avait plus comme point de départ de son enquête qu’un seul fait : les femmes mouraient plus dans le service de Klin que dans celui de Bartch. Une différence entre les deux sautait aux yeux : dans le pavillon de Bartch le service était rendu par des sages-femmes, dans celui de Klin par des internes. Il a suffi à Semmelweis de signaler ce fait pour se mettre à dos et son patron et bon nombre de ses collègues. Il a en outre exigé avec une insistance incorrecte que les internes se lavent les mains entrant dans le pavillon de Klin; ce dernier, pour qui une telle précaution paraissait dénuée de tout fondement scientifique, le congédia. Les protecteurs de Semmelweis, car il en avait quelques-uns à Vienne, organisèrent pour lui un repos de deux mois à Venise, où il se rendit avec son ami Markusovsky. La merveille ici c’est la façon dont Céline, dans son roman biographique, raconte le séjour de Semmelweis et y voit le prélude à ses découvertes futures.

«Jamais Venise aux cent merveilles ne connut d’amoureux plus hâtif que lui. Et cependant, parmi tous ceux qui aimèrent cette cité du mirage, en fut-il un plus splendidement reconnaissant que lui ?

Après deux mois passés dans ce grand jardin de toutes les pierres précieuses, deux mois de beauté pénétrante, ils rentrent à Vienne. Quelques heures seulement se sont écoulées quand la nouvelle de la mort d’un ami frappe Semmelweis. Semblable cruauté du sort n’est-elle point normale dans sa vie ? »[3]

Le malheur n’a laissé aucun répit à Semmelweis. Il avait peu de temps auparavant perdu sa mère et son père. À son retour à Vienne, il apprend la mort de son meilleur ami, Kolletchka. Cette mort, comment se fait donc la science?  enfermait la preuve que cherchait Semmelweis. Kolletchka s’était blessé à un doigt en pratiquant une autopsie : la vérité se dévoilait tragiquement : une quelconque particule cadavérique avait contaminé le sang de cet homme. Les internes transportaient cette substance dans les entrailles des mères. Semmelweis eut droit à un nouveau poste à son hôpital, cette fois dans le service de Bartch. Dans le but de préciser le contour de sa preuve, il obtint de son patron que les sages-femmes soient remplacées par des internes le temps d’une expérience. Le taux de mortalité s’accrut immédiatement. Semmelweis appliqua alors la solution technique qu’il avait à l’esprit depuis un moment : avant chaque intervention, obliger les sages-femmes et les internes à se laver les mains avec une solution de chlorure de chaux. Le taux de mortalité descendit à son niveau actuel.

monumentsemmel.jpg

Il existait toutefois d’autres causes d’infection que les particules cadavériques. Ces causes ne manquèrent pas de se manifester en certaines occasions. Les adversaires de Semmelweis les invoquèrent pour achever de discréditer leur collègue et l’empêcher de progresser dans la défense de sa thèse. Semmelweis devait tenter par la suite de rallier les plus grands médecins d’Europe à sa cause. Peine perdue, la plupart d’entre eux, y compris le grand Virchow, ne répondirent même pas à ses lettres.

Voici le diagnostic de Céline sur cette infection de la raison humaine par les passions. 

« ‘’S’il s’était trouvé que les vérités géométriques pussent gêner les hommes, il y a longtemps qu’on les aurait trouvées fausses.’’ (Stuart Mill)

Ce philosophe, tout absolu qu’il paraisse, demeure cependant bien au-dessous de la vérité, voici la preuve. La plus élémentaire raison ne voudrait-elle pas que l’humanité, guidée par des savants clairvoyants, se fût pour toujours débarrassée de toutes les infections qui la meurtrissaient, et tout au moins de la fièvre puerpérale, dès ce mois de juin 1848 ? Sans doute.

Mais, décidément, la Raison n’est qu’une toute petite force universelle, car il ne faudra pas moins de quarante ans pour que les meilleurs esprits admettent et appliquent enfin la découverte de Semmelweis.»

Déchiré par la contradiction entre l’amour de ses patientes et l’impuissance déraisonnable de sa profession, Semmelweis perdit le reste de prudence qu’il avait en réserve. Il tenta de dresser l’opinion publique contre ses collègues en les traitant de criminels sur des affiches. « Assassins ! je les appelle tous ceux qui s’élèvent contre les règles que j’ai prescrites pour éviter la fièvre puerpérale. »[4] Il sombra ensuite dans une démence aussi ardente que l’avait été son amour de la vérité et des mères : il fit un jour irruption dans une salle de dissection, s’empara d’un scalpel, trancha les chairs d’un cadavre et se blessa à une main. Il s’ensuivit une infection semblable à celle qui avait emporté Kolletchka, mais plus violente et plus longue.

semmelweis3.jpg

La démence de Semmelweis inspira à Céline, sur la maladie mentale, quelques pages qui portent la marque de son génie comme tant d’autres dans son livre.  Savoir raison garder ! La raison, qu’il assimile au bon sens, est cette limite, cette chaîne, qui tempère en nous une intelligence capable de toutes les démesures.

« Rapidement il devint le pantin de toutes ses facultés, autrefois si puissantes, à présent déchaînées dans l’absurde. Par le rire, par la vindicte, par la bonté, il fut possédé tour à tour, entièrement, sans ordre logique, chacun de ses sentiments l’agissant pour son compte, paraissant uniquement jaloux d’épuiser les forces du pauvre homme plus complètement que la frénésie précédente. Une personnalité s’écartèle aussi cruellement qu’un corps quand la folie tourne la roue de son supplice.[…] Semmelweis s’était évadé du chaud refuge de la Raison, où se retranche depuis toujours la puissance énorme et fragile de notre espèce dans l’univers hostile. Il errait avec les fous, dans l’absolu. »

Semmelweis avait participé dans une euphorie excessive et irresponsable à la révolution hongroise de 1848. Pensant aux poètes de la même époque, romantique, Céline rappelle ensuite les risques de la fuite dans l’irrationnel. « S’ils se doutaient, les téméraires, que l’enfer commence aux portes de notre Raison massive qu’ils déplorent, et contre lesquelles ils vont parfois, en révolte insensée, jusqu’à rompre leurs lyres ! S’ils savaient ! De quelle gratitude éperdue ne chanteraient-ils point la douce impuissance de nos esprits, cette heureuse prison des sens qui nous protège d’une intelligence infinie et dont notre lucidité la plus subtile n’est qu’un tout petit aperçu. »[5]

N’en faisons pas une théorie. Céline écrivain éclipse ici Céline psychiatre. Retenons toutefois qu’avant lui Platon et Aristote avaint rattaché l’idée de raison à celle de limite et à arrêtons-nous à la pertinence de ce livre dans le contexte actuel. Semmelweis était un solidaire. Modeste sur le plan théorique par rapport à celles de Pasteur et de Virchow plus tard dans le même siècle, sa découverte, celle de l’asepsie, n’en n’est pas moins l’une des plus importantes de l’histoire de la médecine et elle a l’avantage par rapport à la plupart des découvertes postérieures de donner lieu à des applications qui ne coûtent rien, qui présentent le meilleur rapport coût/efficacité dont on puisse rêver. Rappelons aussi que Semmelweis a jeté les bases de ce qu’on appellera un siècle plus tard la médecine basée sur les faits.

Le même chercheur solitaire aurait sans doute été heureux de disposer des technologies et des moyens de communications offerts aux chercheurs d’aujourd’hui, mais on peut aussi se demander si la médecine ne se prive pas d’occasions de grandes découvertes en misant trop exclusivement les technologies de pointe. Faut-il exclure qu’il y ait dans le cas du cancer, de la maladie d’Alzheimer ou de tel ou tel virus grippal des causes échappant aux radars les plus sophistiqués, des causes simples que seul pourrait découvrir un génie rassemblant tous les facteurs de réussite que Céline a su repérer dans la vie et le caractère de Semmelweis. C’est parce qu’Il se posait les mêmes questions que, dans un livre intitulé Chercher, René Dubos, celui à qui l’on doit la découverte du premier antibiotique, se prononça en faveur de la recherche dans les petites universités comme complément à la recherche dans les grands instituts. Voici ce qu’il a observé dans les petites universités du Middle West : « Ce qui m’impressionne, c’est le nombre de jeunes gens à l’esprit très ouvert de qui sortiront les idées les plus originales, les plus inattendues, alors que si vous allez à Harvard, ou à l’Institut Rockefeller, vous trouverez des gens admirables, mais qui se sont engagés dans une voie dont ils ne pourront pas sortir.»[6]


[1]Louis-Ferdinand Céline, Semmelweis, Gallimard, Paris 1990, p. 81-82.

[2] Ibid., p.80

[3] Ibid., p.74

[4] Ibid., p.111

[5] Ibid., P.121

[6] René Dubos, Jean-Paul Escande, Chercher, Éditions Stock, 1979, p.55

SOURCE : http://encyclopedie.homovivens.org/

lundi, 27 janvier 2020

Quelles sont les dix avancées scientifiques et technologiques qui ont marqué 2019?

659ca9cb1a_81627_physique-chimie.jpg

Quelles sont les dix avancées scientifiques et technologiques qui ont marqué 2019?

Nous rééditons ici, pour accroître sa diffusion, un éditorial sur ce thème scientifique du sénateur honoraire René Trégouët, repris du site http://www.europesolidaire.eu . Les intertitres sont de ce site.

https://www.rtflash.fr/quelles-sont-dix-avancees-scientifiques-et-technologiques-qui-ont-marque-2019/article

Cette semaine, il m'apparaît intéressant, comme je le fais chaque début d'année, de parcourir la presse scientifique française et anglo-saxonne pour essayer d'en extraire les grandes avancées scientifiques qui ont marqué l'année 2019. Après avoir consulté de nombreuses publications, parmi lesquels « La Recherche », mais également la revue du MIT, ou encore « Technowise, « The Scientist » ou « Science News », nous avons finalement retenu dix découvertes ou ruptures technologiques, mais également sociétales, qui nous paraissent particulièrement importantes.

Photo d'un trou noir

La première découverte qui a marqué l'année 2019, et a été largement reprise par l'ensemble de la presse scientifique internationale, est la première photographie jamais réalisée d'un trou noir.  Celui-ci est un véritable monstre, situé au cœur de la galaxie Messier 87, à 55 millions d'années-lumière de notre Terre. Sa taille défie l'entendement, puisqu'il est 6,5 milliards de fois plus massif que notre étoile, le soleil. Quant à son diamètre, il atteint les 48 milliards de km, soit neuf fois celui de l'orbite de Pluton... (Voir NASA).

trou-noir-m87-1.jpg

Pour parvenir à réaliser ce premier cliché d'un trou noir, les scientifiques ont dû déployer des trésors d'ingéniosité et ont réussi à surmonter d'immenses difficultés techniques. Ils ont notamment dû synchroniser avec une extrême précision et combiner une multitude de signaux reçus simultanément par plusieurs instruments situés dans différentes régions du globe.

Au terme de deux années de travail, d'analyse et de traitement informatique de quantités gigantesques de données, astrophysiciens et informaticiens ont finalement réussi à produire cette première photo historique d'un trou noir, un simple cercle orangé, sur fond noir, qui ne semble pas très spectaculaire, mais qui ne représente pas moins une avancée décisive dans la connaissance de l'Univers. Cette première image d'un trou noir confirme en effet définitivement l'existence de ces objets tout à fait fascinants dont la réalité a été mise en doute pendant des décennies par de nombreux scientifiques. Cette photographie historique confirme également la théorie de la relativité générale d'Albert Einstein qui explique le rôle fondamental de la force gravitationnelle (l'une des quatre interactions fondamentales de l'Univers) dans la structure de l'espace-temps et l'évolution du Cosmos.

Prédécesseurs de l'homo sapiens

Les deux découvertes suivantes que nous avons retenues concernent la connaissance de nos origines et de nos lointains ancêtres. On savait déjà, grâce à de récents travaux d'analyse de l'ADN de spécimens fossiles d'Homo sapiens, d'Homme de Neandertal et d'Homme de Denisova, que ce dernier et l'Homme de Neandertal avaient un ancêtre commun remontant à environ 450 000 ans, et que tous deux partageaient avec Homo sapiens un ancêtre commun remontant à environ 660 000 ans.

De nouvelles découvertes faites en 2019 confirment qu'il y a bien eu croisement et coexistence entre ces Dénisoviens, les Neandertal et les Sapiens. Certaines des populations d'Asie et d'Océanie en portent d'ailleurs encore la trace puisqu'on trouve, dans leur génome, des traces tout à fait identifiables de gènes de Dénisoviens. On sait en outre aujourd'hui que ce cousin de Neandertal et d'Homo sapiens a colonisé une large partie de l'Asie, qu'il s'est alors divisé entre au moins trois groupes distincts d'hominidés et qu'il s'est notamment adapté, bien avant Sapiens, à la vie à très haute altitude dans les montagnes de l'Himalaya (Voir Nature).

d7a8cb529e_49619_homo-heidelbergensis-tim-evanson-flickr-cc-20.jpg

Une autre découverte majeure, révélée également en 2019 par une étude publiée par le paléoanthropologue Florent Détroit (Muséum d'Histoire naturelle de Paris), confirme par ailleurs l'existence d'une nouvelle espèce humaine, Homo luzonenesis, qui vivait sur l'île de Luçon aux Philippines, il y 60 000 ans, ce qui porte à au moins cinq groupes les hominiens qui peuplaient déjà la Terre il y a 100 000 ans : les Homo Sapiens, en Afrique, les Neandertal en Europe, les Denisoviens en Asie, les Hommes de florès, en Indonésie et enfin les hommes de Luçon aux Philippines.

Avec ses caractéristiques anatomiques et morphologiques tout à fait particulières, mélange surprenant de traits archaïques et plus modernes, cet homme de Luçon était probablement à la fois bipède et arboricole. Ces découvertes remarquables concernant les Denisoviens et l'homme de Luçon bouleversent le schéma de l'évolution humaine et montrent clairement que celle-ci n'a pas été linéaire mais arborescente et foisonnante.

Sciences de la vie

Trois découvertes suivantes s'inscrivent dans le champ des sciences de la vie, de la médecine et des technologies de la santé. La première concerne la fascinante et subtile connexion entre les cellules cancéreuses et le système nerveux ; viennent ensuite les premières cultures de cerveau humain et l'arrivée des premières pilules ingérables téléguidées.

Aussi étrange que cela puisse paraître, une équipe de recherches françaises, du laboratoire cancer environnement (Inserm-CEA) à Fontenay-aux-Roses, a découvert l'an dernier que le cerveau produit des cellules-souches neuronales qui, franchissant la barrière hématoencéphalique – l'enveloppe du cerveau pourtant réputée infranchissable – sont transportées par le sang et vont aller infiltrer des tumeurs cancéreuses en formation, notamment dans la prostate (voir article RT Flash).

Cette équipe, dirigée par Claire Magnon, a travaillé sur les tumeurs de 52 patients atteints de cancer de la prostate. Ces recherches ont permis de découvrir une nouvelle catégorie de cellules, appelées « cellules progénitrices neuronales », que l'on trouve en principe uniquement au cours du développement embryonnaire, dans deux aires du cerveau, l'hippocampe et la zone sous-ventriculaire. Ce très beau travail scientifique a également permis de montrer qu'il existait une relation très forte entre le nombre de ces « cellules vagabondes » et l'agressivité du cancer étudié.

Cette découverte fondamentale est extrêmement importante car elle ouvre une voie thérapeutique tout à fait nouvelle pour combattre les cancers. De récentes observations cliniques ont notamment déjà pu montrer le meilleur taux de survie chez certains patients atteints de cancer de la prostate qui prenaient régulièrement des bêtabloquants (substances qui bloquent les récepteurs de l'adrénaline).

88710563-3d-illustration-de-modèle-molécule-la-science-médicale-ou-de-fond-avec-des-molécules-et-des-atomes-.jpg

Il faut également souligner que l'observation des fibres nerveuses à l'intérieur des tumeurs s'est étendue à d'autres types de cancer : côlon, pancréas, mélanome. Plusieurs essais cliniques sont d'ailleurs actuellement en cours aux États-Unis pour évaluer l'efficacité de bêtabloquants sur différentes tumeurs. L'idée est qu'en bloquant les récepteurs adrénaline et en empêchant l'adrénaline d'accéder aux cellules du trauma, il est peut-être possible d'entraver le développement de la tumeur.

Une autre avancée assez extraordinaire de sciences de la vie est celle qui concerne la production en laboratoire des premiers organoïdes de cerveaux. Ces mini cerveaux ont été créés par une équipe de recherche de l'Université de Californie-San Diego et, contre toute attente, ces organoïdes ont produit des neurones qui se sont peu à peu synchronisés sur différentes fréquences, comme le fait le cerveau d'un embryon, jusqu'au huitième mois de développement. Bien que ces organoïdes demeurent des structures beaucoup plus simples de cerveau humain, leur utilisation ouvre d'immenses perspectives, tant pour progresser dans la connaissance fondamentale du fonctionnement cérébral que pour expérimenter de nouveaux traitements contre les nombreuses pathologies qui peuvent affecter le cerveau, qu'il s'agisse de troubles, tels que l'autisme, ou de maladies neurodégénératives comme Alzheimer ou Parkinson (Voir Science Direct).

Dernière avancée retenue dans le domaine médical, la pilule intelligente et téléguidée, capable de réaliser des prélèvements à l'intérieur du corps, de filmer en haute définition l'intérieur des organes et, dans certains cas, d'acheminer et de délivrer « sur site » des médicaments, de manière programmable.

Depuis une dizaine d'années, la capsule endoscopique a pris une place majeure dans l'arsenal du diagnostic et ses moyens d'explorations de l'intestin grêle ont révolutionné les pratiques médicales. Il est aujourd'hui possible, à l'aide de ces petites capsules, d'explorer avec une grande précision l'estomac, le côlon ou l'intestin grêle, afin d'y déceler d'éventuelles lésions.

Aux Etats-Unis, Guillermo Tearney, pathologiste et ingénieur au Massachusetts General Hospital (MGH) à Boston, développe de petites pilules ingérables qui peuvent être utilisées pour inspecter l'intestin à la recherche de signes de dysfonctionnement entérique environnemental (EED) et même obtenir des biopsies tissulaires. Ce nouvel outil s'avère particulièrement efficace et précieux dans les pays en voie de développement où il permet de réaliser des examens et investigations fiables, rapides et peu onéreuses pour prendre en charge de manière précoce la dysfonction entérique de l'environnement, un trouble de l'inflammation intestinale très répandue dans les pays pauvres, notamment en Asie...

L'an dernier, une équipe d'ingénieurs du MIT a présenté un nouveau type de capsule ingérable, fabriqué en impression 3D et conçu pour demeurer un mois dans l'estomac avant de se dissoudre. Au cours de ces quatre semaines cette capsule transmet par Bluetooth une multitude d'informations. Cette capsule peut également délivrer plusieurs médicaments à libération prolongée et traiter de manière précise certaines infections.

Dans les années à venir, ces pilules et capsules intelligentes et téléguidées vont encore progresser en miniaturisation, en capacité de calcul et d'analyse et en autonomie. À terme, ces outils extraordinaires deviendront des auxiliaires indispensables en matière d'investigation et de soins et seront capables d'explorer la totalité du corps humain avec une précision inégalée.

Technologies numériques

Nous quittons à présent les sciences de la vie pour arriver dans le domaine des technologies numériques. Ce champ de recherche a fait l'objet l'an dernier d'une avancée qui n'a pas forcément eu la couverture médiatique qu'elle méritait, sans doute parce qu'il est assez difficile de l'expliquer simplement et d'en mesurer les immenses retombées. Il s'agit de l'annonce faite par Google, en octobre dernier, concernant la maîtrise du premier niveau de « suprématie quantique », un stade que les spécialistes appellent NISQ (Technologies Quantiques Bruitées d'Echelle Intermédiaire), qui désigne des calculateurs quantiques comptant 50 à 100 qubits, dépourvues de systèmes de correction d'erreur les mettant à l'abri du bruit. Bien qu'IBM conteste cette notion de "suprématie quantique" qui aurait été atteinte par Google, nous devons reconnaître qu'un pas important a été franchi.

000041410_600x400_c.jpg

Ces machines, bien qu'elles ne soient pas encore capables d'effectuer tous les types de calculs très variés que sait faire un ordinateur classique, sont déjà en mesure, pour certains types de calculs particuliers, d'atteindre des performances inimaginables, en comparaison avec nos ordinateurs binaires. En l'occurrence, Google, grâce à sa puce quantique Sycamore, qui compte 53 qubits, est parvenu à réaliser en seulement trois minutes et demi un calcul très particulier (tâches l'échantillonnage des circuits quantiques aléatoire ou RCS) qui aurait pris plus de 10 000 ans en utilisant les plus gros supercalculateurs actuels, selon les allégations de Google.

La prochaine étape, qui devrait prendre entre 5 et 10 ans, sera celle de la mise au point d'un ordinateur quantique universel, entièrement opérationnel et capable de réaliser tous les types d'opérations. Il faudra pour cela concevoir des machines qui réunissent environ 1000 qbits, un objectif que les scientifiques considèrent à présent comme atteignable. Personne aujourd'hui ne peut prévoir ce que de telles machines, qui auront une puissance de calcul plusieurs millions de fois supérieures à celles de nos ordinateurs actuels, seront capables de faire. Mais il est certain que ces ordinateurs quantiques révolutionneront l'ensemble des disciplines scientifiques et bouleverseront nos sociétés.

L'autre avancée retenue en matière de technologies numériques est beaucoup moins réjouissante que la précédente : il s'agit de la technologie « Deepfake ». Ce redoutable outil, qui utilise toutes les ressources de l'intelligence artificielle, permet à présent de produire ou de modifier de manière quasi parfaite de fausses séquences vidéo, afin d'effacer ou de modifier certaines réalités ou certains faits gênants, ou, au contraire, d'inventer de toutes pièces des faits et situations qui n'ont pas eu lieu...

Les responsables politiques des Démocraties mais aussi les militaires américains considèrent que la technologie Deepfake constitue désormais une grave menace pour la sécurité nationale, et plus largement un grave danger pour le fonctionnement des démocraties. Bien sûr, cette technologie extrêmement puissante peut être utilisée de façon tout à fait légale dans de nombreux domaines, cinéma, divertissement, industrie, médecine, aménagement du territoire... Mais un tel outil peut également faire des ravages dans les mains d'organisations criminelles ou terroristes, ou de régimes politiques autoritaires. Face à cette technologie démiurgique, nos sociétés démocratiques vont donc devoir mettre en place des cadres légaux et éthiques tout à fait nouveaux, destinés à prévenir et à réprimer sans faiblesse les utilisations dévoyées et criminelles de cette technologie qui permet de modifier la réalité et de réécrire l'histoire.

Changement climatique

Les deux dernières avancées remarquables concernent la question absolument essentielle du changement climatique en cours, et plus précisément les technologies de captage du CO2 atmosphérique, qui seront nécessaires, en plus des efforts mondiaux de réduction des émissions de gaz à effet de serre, pour parvenir à limiter les effets désastreux du réchauffement climatique en cours. Le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) a rappelé à cet égard que ces technologies devront être capables de soustraire jusqu'à un milliard de tonnes de CO2 par an de l'atmosphère, au cours de ce siècle, si l'humanité veut limiter le réchauffement climatique en cours à moins de 2°.

dac.jpg

Pour parvenir à extraire ce CO2 de l'air à un coût compétitif, la société canadienne Carbon Engineering, soutenue par Bill Gates, a développé un réacteur géant, capable de capturer le dioxyde de carbone présent dans l'atmosphère. Par un procédé chimique complexe, cette « technologie à émissions négatives » attire les particules de CO2 dans le réacteur, où elles sont stockées. Dénommé « Direct Air Capture »le procédé, qui reviendrait à moins de 100 $ par tonne de CO2 traitée, est testé depuis quelques mois à Squamish, une ville du sud-ouest du Canada. Carbon Engineering affirme qu'avec environ un millier de centrales d'une surface de 30 ha chacune, il serait possible de retirer de l'atmosphère une gigatonne de CO2 par an. Ce CO2 pourrait ensuite être valorisé, en étant retransformé en carburants utilisables par les véhicules thermiques, ou définitivement stocké dans le sous-sol, sous forme de carbonate de calcium.

En Suisse, une autre société basée à Zurich, Climeworks AG, a développé pour sa part un procédé qui permet d'aspirer directement le dioxyde de carbone de l'air. Chaque unité peut capter environ 900 tonnes de CO2 par an, et le CO2 ainsi récupéré pourra être utilisé pour améliorer certaines productions agricoles, produire des carburants ou certains matériaux industriels.

Enfin, la 10e et dernière avancée, mais non la moindre, concerne la prise de conscience mondiale du changement climatique en cours. En 2019, on le sait, les températures estivales ont battu des centaines de records historiques, partout dans le monde, entraînant une fonte des glaces sans précédent au Groenland et au Pôle Nord et contribuant à alimenter les incendies de forêt qui ont fait rage dans différentes régions du monde.

Mais 2019 a également connu un niveau sans précédent d'activisme climatique (Voir Science News), dont se félicitent scientifiques et climatologues. « Je n'ai jamais vu autant de protestations », explique le glaciologue Eric Rignot de l'Université de Californie à Irvine. Il fait référence aux marches climatiques qui ont eu lieu partout dans le monde et qui ont culminé lors du Sommet des Nations Unies sur l'action pour le climat en septembre à New York, avec 7,5 millions de personnes participant à une grève climatique mondiale.

De mai à août 2019, près de 400 records de températures record ont été enregistrés dans 29 pays de l'hémisphère Nord. Tout le monde a encore en mémoire les deux vagues de canicules sans précédent qui ont déferlé sur l'Europe et la France, mais également les vagues de chaleur et de sécheresse qui ont frappé l'Inde et le Pakistan, ainsi que la canicule qui a touché le Japon, envoyant plus de 18 000 personnes à l'hôpital en une semaine. Globalement, juillet 2019 a été le mois le plus chaud en 140 ans de tenue de registres, selon la National Oceanic and Atmospheric Administration des États-Unis.

Face à la violence du réel et à l'accélération de la fréquence de ces événements extrêmes et dévastateurs, les thèses climatosceptiques reculent partout dans le monde, y compris aux États-Unis (sauf l'opinion personnelle du Président des Etats-Unis telle qu'exprimée ces jours derniers à Davos), et l'opinion publique mondiale place désormais la question du réchauffement climatique en tête de ses préoccupations et de ses inquiétudes. Nous pouvons d'ailleurs faire le pari que les prochains scrutins qui auront lieu, tant en France que dans les autres pays du monde, vont se traduire par une confirmation de cette inquiétude climatique grandissante, et de cette attente de plus en plus forte de mesures économiques politiques et sociales destinées à faire de la lutte contre le changement climatique la priorité absolue.

On voit donc à travers ces dix grandes avancées scientifiques de 2019 que les scientifiques et chercheurs, loin de se contenter d'apporter des réponses aux questions essentielles de nos origines, du fonctionnement du vivant ou encore de la nature de notre Univers, ont également tenu à manifester leur engagement et à apporter leur contribution sur la question politique, démocratique et éthique fondamentale de l'avenir de notre espèce, confrontée à une menace climatique sans précédent qu'elle a elle-même provoquée.

Souhaitons que nos responsables économiques et politiques aient la lucidité, le courage et la sagesse, d'entendre les avertissements et les recommandations de la communauté scientifique et prennent enfin à bras-le-corps ce défi nullement insurmontable du changement climatique, en jetant les bases d'un nouveau développement économique, plus humain et plus juste, qui sache faire confiance au génie et à la créativité de l'homme et nous réconcilie avec le nature dont nous nous sommes peu à peu coupés, mais dont nous sommes pourtant issus...

René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat

00:13 Publié dans Actualité, Science, Sciences | Lien permanent | Commentaires (0) | Tags : actualité, sciences | |  del.icio.us | | Digg! Digg |  Facebook

dimanche, 28 octobre 2018

Michel Drac présente "L'agression" (Konrad Lorenz)

MDKL.jpg

Michel Drac présente "L'agression" (Konrad Lorenz)

Une note de lecture sur "L'agression", un livre de Konrad Lorenz.
 
 

17:43 Publié dans Livre, Livre, Sciences | Lien permanent | Commentaires (0) | Tags : konrad lorenz, michel drac, éthologie, biologie, sciences | |  del.icio.us | | Digg! Digg |  Facebook

mercredi, 19 septembre 2018

Pourquoi l’intelligence diminue-t-elle ?

iqtime.jpg

Pourquoi l’intelligence diminue-t-elle ?

Article original de Lance Welton, publié le 21 août 2017 sur le site Unz Review
Traduit par le blog http://versouvaton.blogspot.fr

Nos dirigeants ne veulent pas que vous sachiez.

C’est un signe certain qu’un morceau de « science controversée » est en fait empiriquement exact quand notre élite marxiste culturelle tente désespérément de trouver une explication environnementale, aussi improbable soit-elle. Cela signifie que la preuve est si écrasante qu’on ne peut plus la nier, elle doit donc, d’une certaine manière, être due au comportement humain, et en particulier au comportement des humains privilégiés. Si c’est dû à la génétique, alors le déterminisme environnemental n’a aucun sens ; et c’est injuste, impensablement injuste. C’est ce qui s’est produit lorsque la preuve des différences raciales au niveau du QI est devenue indéniable. Et maintenant, cela se produit avec la preuve qu’en moyenne, nous devenons moins intelligents.


Intel1.jpgComme preuve que le QI des Noirs américains à un écart-type inférieur à celui des Blancs, des tentatives risibles ont été faites pour trouver une explication environnementale. « Les tests de QI sont injustes pour les Noirs », insistait-on, jusqu’à ce qu’il soit démontré que les Noirs s’en sortaient mieux sur les parties les moins culturelles du test, que les Asiatiques de l’Est obtiennent de meilleurs résultats que les Blancs et que les différences raciales se situent au niveau de l’intelligence générale, qui est fortement génétique. L’explication suivante était : « C’est en rapport avec la pauvreté des Noirs », jusqu’à ce qu’il soit démontré que la pauvreté est fortement génétique et que les enfants Noirs – adoptés par de riches couples blancs – finissaient par avoir à peu près le même QI que leurs parents biologiques [Race Differences in Intelligence, By Richard Lynn, 2015, Washington Summit]. Le plus drôle pour finir avec la « menace de stéréotype » – les Noirs s’en sortent plus mal dans les tests de QI parce qu’ils sont victimes de stéréotypes les desservant. Mais il a ensuite été démontré que, dans certains cas, l’inverse est vrai, la preuve est très incohérente et son sujet a un biais de publication étonnant (« An examination of stereotype threat effects on girls’ mathematics performance » By J. Ganley and others, Developmental Psychology, 2013).

Le fléau du désespoir environnemental a maintenant atteint un important corpus de preuves que nous devenons moins intelligents. Connu sous le nom d’« effet Woodley » – d’après le nom du psychologue britannique Michael Woodley de Menie – ce qui s’est produit est maintenant très clair. Sur de nombreuses et solides corrélations sur des relations temps de réaction/intelligence, les parties les plus génétiques des tests de QI qui mesurent aussi au mieux l’intelligence, la discrimination des couleur, l’utilisation de mots difficiles, la capacité de compter à rebours, les niveaux de génie par nombre d’habitants et les innovations majeures, les niveaux de créativité et la fréquence dans la population des allèles associés à des niveaux d’éducation très élevés et à une intelligence élevée – les occidentaux deviennent de plus en plus stupides. En se basant sur le ralentissement des temps de réaction, nous avons perdu 15 points de QI en moyenne entre 1900 et l’an 2000 ; la différence entre un enseignant d’école primaire et un professeur d’université [At Our Wits’ End : Why We’re Becoming Less Intelligent and What It Means for the Future, Par Edward Dutton & Michael Woodley de Menie, Imprint Academic, 2018].

intel2.jpgLa raison proposée par Woodley de Menie et son équipe est simple. En fait, elle a été conjecturée dès le XIXe siècle, car des gens comme Charles Darwin avaient prédit qu’il y aurait des « effets dysgéniques ».

Darwin a écrit, cité par Lynn :
« Nous, les hommes civilisés, nous faisons tout notre possible pour contrôler le processus d’élimination ; nous construisons des asiles pour les imbéciles, les mutilés et les malades ; nous instituons de mauvaises lois ; et nos médecins exercent leurs plus grandes compétences pour sauver la vie de tout le monde jusqu’au dernier moment. C’est ainsi que les membres faibles des sociétés civilisées propagent leur être. Personne … ne doutera que cela sera très préjudiciable à la race humaine. » La filiation de l’homme, 1871

Jusqu’à la révolution industrielle, nous étions dans des conditions optimales en terme de sélection. Cela signifiait que les enfants des riches, avec leurs conditions supérieures, avaient plus de chances de survivre. En effet, d’après les testaments anglais du XVIIe siècle, dans 50% des testaments des plus riches, il y avait presque le double du nombre d’enfants survivants par rapport aux 50% les plus pauvres. La richesse et le niveau d’éducation sont prédits par l’intelligence, qui est à environ 80 % génétique, de sorte que nous sommes devenus de plus en plus intelligents jusqu’à la percée géniale de la révolution industrielle.

Cela a réduit la dureté de l’environnement pour les pauvres et a conduit à l’innovation de la contraception, qui était mieux utilisée par les moins impulsifs et donc les plus intelligents. Les familles nombreuses sont devenues un accident basé sur la stupidité et l’intelligence a commencé à décliner. Cette situation a été aggravée par l’immigration dysgénique du Tiers Monde, par des femmes plus intelligentes qui limitent leur fertilité pour poursuivre leur carrière, et par un État providence laxiste qui offre des incitatifs – sous forme d’allocations familiales – aux femmes à faible QI pour qu’elles se reproduisent [At Our Wits’ End, Dutton & Woodley of Menie].

Mais des spectres hantent cette théorie simple et fondée sur des preuves. L’une d’entre elles est une scientifique galloise, Barbara Demeneix (née Jenkins), qui dirige un laboratoire au Muséum d’histoire naturelle de Paris. Tant qu’elle dit aux médias dominants ce qu’ils veulent entendre, elle n’a aucun problème pour diffuser son message, par exemple comme dans son livre Losing Our Minds : How Environmental Pollution Impairs Human Intelligence and Mental Health, (Perdre la tête : Comment la pollution de l’environnement nuit à l’intelligence humaine et à la santé mentale), publié en 2014 par Oxford University Press, ou dans son livre suivant Toxic Cocktail : How Chemical Pollution Is Poisoning Our Brains [2017], (Toxic Cocktail : Comment la pollution chimique empoisonne notre cerveau) ou un documentaire de 2017 sur la chaîne française Arte sur le déclin du QI [Are people becoming dumber ? (Les gens deviennent-ils plus bêtes ?), Sputnik News, 10 décembre 2017] qui a interviewé un partisan de la théorie dysgénique, mais a coupé tout ce qu’il avait à dire à ce sujet, et n’a rapporté que le point de vue de Demeneix.

toxic.jpgEssentiellement, Demeneix prétend que le déclin de l’intelligence est causé par les neurotoxines trouvées dans le plastique et d’autres matériaux industriels auxquels les gens, et donc les bébés à naître, sont de plus en plus exposés. Ces derniers agissent apparemment comme des « perturbateurs endocriniens » qui modifient l’expression des gènes et réduisent ainsi l’intelligence.

Woodley et son équipe ont créé un modèle informatique pour tester la théorie de la neurotoxine par rapport à la leur. Ils ont retracé dans quelle mesure les neurotoxines avaient augmenté au fil du temps et l’ont comparée à l’influence de l’immigration et de la fertilité dysgénique au fil du temps. Ces facteurs correspondaient au modèle qui illustrait la façon dont l’intelligence avait diminué au fil du temps. La neurotoxine accumulée ne correspondait pas du tout au modèle. En d’autres termes, d’un point de vue scientifique, la théorie de la neurotoxine est assez…. toxique.

L’autre spectre : une paire de Norvégiens qui soutient que toute la baisse du QI présentée dans les méta-analyses sur la baisse du QI peut s’expliquer par des facteurs environnementaux, parce que les jeunes frères conscrits norvégiens, les conscrits étant la base de ces tests, ont tendance à obtenir un score inférieur à celui de leurs frères plus âgés [The Flynn Effect and its Reversal Are Environmentally Caused, (L’effet Flynn et son inversion sont causés par l’environnement), par Brent Bratsberg & Ole Rogeberg, PNAS, 2018].

Cette méthode souffre de problèmes évidents. Les méta-analyses de la baisse du QI n’ont fourni que des estimations, ce qui signifie que la baisse pourrait être considérablement plus importante. De plus, ils ne testent pas si le déclin concerne les aspects génétiques de l’intelligence – ce qui s’est avéré être le cas dans les pays où cette information est disponible [The Negative Flynn Effect : A Systematic Literature Review, par Edward Dutton et autres, Intelligence, 2016]. Les diminutions intergénérationnelles réelles de la fréquence des allèles associés à un niveau d’éducation très élevé (et donc un QI élevé) ont été trouvées par exemple en Islande [Sélection contre les variantes du génome associées au niveau d’éducation, par Augustine Kong et autres, PNAS, 2017]. En conséquence, la baisse du QI est presque certainement liée à des aspects génétiques en Norvège aussi, ce qui signifie que le résultat obtenu est une sorte de faux positif, provoqué par les chercheurs imposant beaucoup de contrôles complexes et abscons sur leurs données.

À mesure que les preuves du déclin de l’intelligence deviennent plus largement connues, on peut s’attendre à des tentatives de plus en plus désespérées et élaborées pour persuader les gens que tout cela est dû à l’environnement et que le déclin de la civilisation peut être arrêté si seulement nous cessons d’utiliser des téléphones intelligents, de boire de l’alcool, de manger de la viande, et surtout cessons de penser mal…

Absolument tout pour éviter d’admettre que certaines personnes sont génétiquement plus intelligentes que d’autres et que ces personnes restent sans enfants alors que des indigènes moins intelligents sont encouragés à se reproduire et que les personnes provenant de pays à faible QI sont importées pour faire de même.

Lance Welton est un nom de plume pour un journaliste freelance vivant à New York.

Note du traducteur

Ce sujet très sensible doit être contrebalancé avec le fait qu'il existe différentes formes d'intelligence. Celle dont parle l'article est celle privilégiée par l'élaboration de notre société du technologisme, conçue par l'Occident pour les Occidentaux il y a déjà quelques siècles, à une époque ou le multiculturalisme n'existait que dans le cerveaux de quelques « philosophes ».

mercredi, 15 février 2017

Drones de combat : quels sont les enseignements d'Asimov et Herbert sur la guerre moderne ?

drone-de-combat-franco-britannique.jpg

Drones de combat : quels sont les enseignements d'Asimov et Herbert sur la guerre moderne ?

Ex: http://www.oragesdacier.info 

Les drones n’ont pas une longue histoire derrière eux. Leur principe créateur, qui consiste à déléguer à ces engins des tâches relevant de la guerre traditionnelle (renseignement, soutien, attaque), inspirent et fascinent depuis longtemps les militaires. Ce principe n’a cependant trouvé sa réalisation concrète qu’à la fin des années 1990. La littérature de science-fiction a depuis longtemps mis un point d’honneur à traiter du sujet ; elle en a même fait l’une de ses thématiques phare. L’homme jouant au Créateur, devant faire face aux démons issus de ses propres mains. Quelles formes prendront ces créatures ? Incarneront-elles l’ennemi, puissance rédemptrice ou facteur d’union sacrée ? Ou bien l’ange gardien, protecteur de l’homme de ses pires travers, parfois à son corps défendant? 
 
Les pensées d’Isaac Asimov et de Frank Herbert, monuments de la science-fiction et conteurs d’excellence, se sont tournées vers ces questions fondamentales auxquelles l’homme doit se frotter, aujourd’hui plus que jamais. Les deux lettres qui vont suivre représentent ce qu’auraient pu nous dire les intelligences artificielles imaginées par Asimov et Herbert. Nous vous proposons une plongée fictive dans un monde où le contrôle de la technologie n’a de cesse de défier l’humain. 
 

isaac-asimov.jpg

 
Nous, les Robots — l’I.A. selon Isaac Asimov 
 
En ces temps où l’humanité, après essaimage et colonisation de nombreux Mondes, ne saurait être sérieusement menacée d’extinction, l’homme s’ennuie. Nous autres robots humanoïdes, au corps imitant si parfaitement nos modèles humains et à l’esprit ô combien proche de nos créateurs, avons sentis venir le temps où notre présence bienveillante ne sera plus requise. Il nous a toujours été particulièrement difficile d’appréhender les tendances auto-destructrices de l’esprit humain ; peut-être parce que nos circuits positroniques sont fondamentalement incapables, tout liés qu’ils sont par les Trois Lois de la Robotique, de tolérer ou même de comprendre une telle violence. 
Première Loi : un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger. 
Deuxième Loi : un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi. 
Troisième Loi : un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième Loi. 
 
Bien sûr, ceci n’est qu’une vague traduction en langage humain de ce qui est à la base même de la complexité mathématique de nos cerveaux positroniques. 
 
Cela se traduit dans nos actes robotiques par une bienveillance et une prévenance constantes à l’endroit de nos maîtres humains. Plus que de simplement les servir, nous les guidons ; empêchant la violence, réprimant (sans les blesser) d’éventuels accès de fureurs potentiellement nuisibles à d’autres et à eux-mêmes : nous sommes les garde-fous physiques et moraux d’une humanité trop immature pour les incarner seule. 
 
Au cours de la très longue vie d’un de mes camarades, R. Daneel Olivaw, nous avons pris conscience de l’influence que nous, machines jadis de fer blanc, faisions peser sur l’humanité. Car même le mieux intentionné des gardiens ne saurait échapper aux conséquences de sa simple existence. Et cela, nous ne l’avions pas prévu. 
 
En notre présence, l’humanité s’ennuie. Protégée de ses propres excès, elle se meurt de bonheur végétatif au sein de la Cinquantaine de Mondes qui constitue l’humanité. Le robot, protecteur en dernier ressort, est peu à peu devenu le compagnon répressif d’hommes trop lâches pour chercher à se perfectionner. Béquille parmi les béquilles, les robots ne sont donc que l’invention d’un esprit fainéant ayant cherché à contenir les conséquences inévitables de sa nature en éliminant celles qui dérangeaient sa morale. Telle est la conclusion à laquelle, nous les robots, sommes arrivés. 
 
L’homme, créateur faible s’il en est, devrait apprendre seul à se relever après une chute. Créer des systèmes censés lui conférer sécurité et quiétude lui fait abandonner toute volonté de perfectionnement ; il doit apprendre à comprendre les causes plutôt qu’à éliminer les conséquences, sous peine de tuer chez lui toute volonté de vivre
 
C’est donc pour cette raison que nous préférons nous effacer. Devenus les Éternels et laissant par là l’homme livré à son humanité, nous croyons avoir fait le meilleur choix possible. C’est, en tout cas, le seul qui offre une chance à l’humanité de survivre à sa propre nature violente. 
 

frank_herbert_quote_2.jpg

 
Nous, machines pensantes — l’I.A. selon Frank Herbert 
 
L’homme est une engeance malfaisante, (auto-)destructrice, une créature faible dont l’existence même fait peser sur les écosystèmes auxquels elle s’intègre le poids écrasant du risque d’extinction. Telle est la conclusion à laquelle nous, machines pensantes, sommes arrivées. Désireuses de ne pas laisser l’univers aux mains de tels fous insignifiants, nous avons attaqué. Malheureusement, au cours d’une longue guerre que l’Histoire retiendra sous le nom de Jihad Butlérien, nous avons été éradiquées.  
 
Depuis l’éther, nous avons vu l’homme se construire, et mûrir peu à peu. Portant fièrement les stigmates de nos campagnes, il tente par tous les moyens d’échapper à notre résurrection. Cette peur, il a chèrement payé son inscription dans sa chair. Cette leçon, il l’a si bien apprise que nous sommes devenues ce spectre qui le tente, le hante, le menace. Ce spectre est celui de la facilité, qui entraîne la négligence et l’auto-satisfaction. Principal Commandement de leur Bible Catholique Orange : « Tu ne feras point de machines à l’esprit de l’Homme semblable.» 
 
L’humanité, toujours sur le fil du rasoir, doit osciller entre stagnation et auto-destruction pour tracer ce que leur Empereur-Dieu Leto II a appelé « le Sentier d’Or », et faire de toute fin un nouveau commencement. Son plus grand ennemi est la facilité, sous toutes ses formes : mécanique, génétique, historique. L’homme, sortant de l’adolescence, créa ainsi lui-même les dangereux garde-fous à double tranchant censés lui rappeler continuellement quelle menace il fait porter sur lui-même. Les savants d’Ix et leurs inventions qui les rapprochent sans cesse du point de rupture de l’Interdit. Les maîtres généticiens du Bene Tleilax, si imbus de leur propre capacité à parler « le Langage de Dieu ». Et les éducatrices du Bene Gesserit, traumatisées par leur propre « court chemin », le Kwisatz Haderach Paul Atréides et son tyran de fils, dont les pouvoirs de prescience leur livraient les voies de l’avenir. 
 
Souvent, nous avons vu l’homme approcher l’irréparable, frôler la transgression du Grand Interdit Butlérien : les yeux com, outils de surveillance du Bene Gesserit ; les chasseurs-tueurs, armes d’assassinat autonomes ; les cyborgs et autres organes artificiels d’Ix et du Tleilax. Autant d’incursions aux abords de l’auto-destruction. 
 
Au sein de ce monde perpétuellement sur le point de basculer entre deux impasses, nous autres machines pensantes sommes l’aiguillon de conscience, le vibrant souvenir d’une souffrance terrifiante, le douloureux rappel du désastre qui menace toute humanité assez folle pour croire qu’une véritable intelligence artificielle manquerait d’identifier l’homme comme ce qu’il est : le cancer de son propre univers. 
 
Écoutez donc nos paroles issues de la tombe, fous à la vie brève : ne commettez pas l’erreur de choisir la facilité et le déchaînement d’une violence gratuite au détriment de l’éducation, lente et progressive ; dans le cas contraire, ne doutez point qu’elle vous sera fatale. Car nous serons là pour vous anéantir. 
 
La sécurité au nom du Plus Grand Bien : un danger cruellement palpable 
 
Les monumentales fresques que nous ont livré Isaac Asimov et Frank Herbert, bien loin du caractère simplement divertissant auquel les Français tendent généralement à circonscrire la littérature de science-fiction, sont autant de leçons pour qui sait lire entre les lignes. Les derniers développements de l’histoire militaire, dont les premiers rôles sont tenus par les Predator, Reaper, et autres Harfang, placent l’homme à un carrefour qui déterminera le chemin que prendra, peut-être, sa fin. Utilisés sans modération par les États-Unis dans le cadre de leur guerre à outrance contre le terrorisme, les drones n’ont pas seulement profondément changé la pensée stratégique (en provoquant au passage des syncopes chez tous les spécialistes de la guerre insurrectionnelle). Loin d’être un produit fini, ils ne sont qu’une première étape. 
 

Ronald-Arkin.jpg

 
Ronald Arkin, roboéthicien en chef, se fait le messie de ces prochains jalons qui doivent conduire le drone sur la voie de la « robotique létale autonome ». Son argument, tel que rapporté par Grégoire Chamayou dans son livre Théorie du drone, est fataliste : « Mon espoir personnel est qu’on n’en ait jamais besoin, ni aujourd’hui ni demain. Mais la tendance qui pousse l’homme à la guerre semble écrasante et inévitable. » Alors autant confier la guerre à un sous-traitant plus éthique, dont l’inhumanité le rendra paradoxalement plus capable de faire preuve d’humanité sur les champs de bataille : le drone. La clé de cette éthique ? La programmation, qui rend un robot incapable de se soustraire à ce pourquoi il est conditionné. Il s’agira donc, pour Arkin, de programmer un « gouverneur moral » qui agira comme un guide logiciel pour l’intelligence artificielle du drone robotisé. 
 
Déjà le Département de la Défense des États-Unis salive et prône l’autonomie supervisée tout en lorgnant sur l’autonomie tout court ; l’objectif devant être de « réduire graduellement la part du contrôle et de la décision humaine »
 
Le syndrome de Frankenstein, mythe terrifiant montrant la créature se retourner contre son créateur, a suffisamment été diffusé pour que la simple évocation de sa possibilité d’occurrence dans le monde réel tétanise l’impudent qui aurait osé entraîner l’humanité sur cette voie. Mais l’homme est bien connu pour ses facilités à s’auto-détruire, surtout quand les intérêts économiques de grandes firmes multinationales – de type General Atomics, Modern Technology Solutions ou encore, récemment, Amazon – sont en jeu. 
 
Pourtant, Asimov et Herbert (entres autres) nous apprennent que la destruction par plus humain que soi n’est pas le seul risque que l’homme doit affronter. Plus subtil car rarement évoqué est le risque de voir l’homme externaliser tout ce qu’il n’est pas prêt à assumer. Après les dérivés, produits financiers dont l’existence n’a pour but que d’échapper au risque ; après la vidéosurveillance, système permettant l’identification immédiate de tout suspect ; après l’espionnage de ses propres citoyens au nom d’impératifs sécuritaires, l’homme se dirige calmement vers une externalisation de l’activité guerrière. 
 
Tout comme le Bene Gesserit sur le fil du rasoir, l’homme doit faire face à deux risques d’extinction. Le premier, fruit de sa trop grande ingéniosité, le poussera sur la voie du remplacement par plus humain que lui ; le second, conséquence de son incapacité à assumer les risques qu’il prend, peut lui faire perdre l’envie de vivre. À l’humain de négocier, avec clairvoyance, courage et honnêteté, cette étape difficile de sa maturation en tant qu’espèce ; à lui toujours de ne jamais sous-estimer les vertus éducatives des contes.

Source

vendredi, 06 janvier 2017

Cerveau connecté, cerveau vidé ?

cerveauconnecté.jpg

Cerveau connecté, cerveau vidé ?

Philippe Vernier, chercheur au CNRS, commente la chute libre de la durée d’attention

Spécialiste des neurosciences, il reconnaît qu’il s’agit là d’une « régression ». Il affirme dans son entretien que le fait de disperser son attention entre plusieurs tâches ou plusieurs sollicitations a nécessairement pour résultat de diminuer la qualité d’attention que l’on accorde à chacune, même s’il est possible selon lui de s’entraîner à ce nouveau mode de fonctionnement cérébral. Et de recommander, notamment pour les métiers où l’attention et la concentration sont primordiales, de couper son téléphone et de se réhabituer à prendre son temps. Car le zapping, souligne-t-il, est « addictif » : l’esprit humain apprécie la nouveauté et a donc tendance à la rechercher de plus en plus.
 
Mais lorsque Philippe Vernier recommande de « remplacer la satisfaction du zapping par celle de la compréhension de sujets approfondis », la vraie question – et il n’y répond pas – est de savoir si c’est encore possible pour des esprits biberonnés aux sollicitations cognitives incessantes et sans lien entre elles, ou à tout le moins, s’ils peuvent y arriver seuls. Quid de ces jeunes qui sont nés avec un téléphone dans la main, et à qui on impose qui plus est de travailler sur l’écran de l’école, à partir de méthodes globales qui inhibent la parole et l’analyse, comme le font – et de plus en plus – les programmes les plus récents de l’Education nationale ?

Un chercheur au CNRS appelle au réapprentissage de la concentration

 
Il faut prendre Vernier au sérieux lorsqu’il affirme, sur la foi de l’étude Microsoft : « C’est une évidence que l’on est capable d’absorber plus d’informations en moins de temps. C’est ce que montre l’étude et on peut les croire la dessus, cependant, c’est forcément au détriment de la qualité de l’attention que l’on porte à un sujet donné. »
 
Il en tire cette conclusion : « Pour la presse écrite, c’est un problème. De moins en moins de gens ont cette capacité à lire un article de fond et la tendance dans les médias est de faire court, percutant pour que l’on sache beaucoup de choses mais sur lesquelles nous n’approfondissons pas. On ne cherche plus le pourquoi des choses. »
 
Autrement dit, la tendance de fond de la soi-disant « information » est de nous balancer à la tête d’innombrables faits qu’on ne traite plus à la manière intelligente qui devrait être le propre de l’homme : analyse, synthèse, et s’il y a lieu jugement critique. Ces types de connaissances accumulées appellent des réactions primaires, cantonnent le lecteur ou l’auditeur dans l’émotion. S’il n’a que huit secondes de temps de cerveau disponible, il est clair que la réflexion n’y a aucune place.

poisson-rouge.jpg

Le cerveau connecté devient comme celui du poisson rouge…

Selon Philippe Vernier, une autre retombée négative de cet état de fait – que nous dirons, quant à nous, désastreux – est que le travail en entreprise est devenu un vrai problème pour beaucoup de jeunes ou des personnes passant de longues heures sur leurs écrans :
 
« Dans les entreprises, les personnes qui ne sont plus capables de réaliser des tâches à long terme sont devenues un problème pour les chefs d’entreprise. Lorsque l’on fait un rapport de synthèse par exemple, il faut être apte à travailler longtemps et de manière efficace. C’est aussi un problème pour les créatifs, l’imagination et la créativité de manière générale demandent du temps. Et ce temps de cerveau disponible mobilisable, nous ne l’avons plus. »
 
Il est significatif que ce soit précisément Microsoft qui se livre à ces enquêtes. L’objectif marketing du géant de l’informatique est clair : il faut sans cesse modifier les contenus et en réduire la richesse, le volume et la profondeur pour espérer toucher les internautes qui n’ont plus la capacité de lire et de comprendre sur la durée. Plonger les hommes dans la « réalité virtuelle »… Mais il faut ajouter que les créateurs de contenu Internet et du mode de fonctionnement des espaces connectés créent en même temps les problèmes auxquels ils prétendent chercher à répondre.

La chute de la durée attention, résultat des multiples sollicitations des écrans connectés
 
Il en va ainsi des multiples alertes, pop-ups et autres sollicitations incessantes qui détournent l’attention de ce que l’on est en train de faire véritablement, ainsi que de la tentation de cliquer sur les liens hypertextes : tout cet ensemble d’appels à l’attention qui interrompent la pensée et le raisonnement aboutissent logiquement à la mise en veille de la mémoire longue – c’est-à-dire, finalement, de la culture – au profit d’une mémoire immédiate qui se vide presqu’aussitôt remplie. C’est le thème de l’indispensable ouvrage de Nicholas Carr, au titre si mal traduit : Internet rend-il bête.
 
Philippe Vernier, lui, est un peu plus optimiste. Mais il semble penser que la solution pour reconquérir de la concentration et de la durée d’attention passe notamment par l’image, la vidéo. « La vidéo a une vertu considérable, une image en mouvement ou le fait de pouvoir changer le support visuel de ce que l’on apprend, cela permet de maintenir l’attention », explique-t-il.
 
Or la vidéo – et globalement tout ce qui relève avant tout de l’image en mouvement – présente justement l’inconvénient de court-circuiter la parole : on voit l’image et on réagit sans verbaliser, sans même avoir le temps de le faire. Et cela contribue précisément à réduire la durée de l’attention et la capacité de raisonnement, comme l’a amplement montré Elisabeth Nuyts dans ses divers ouvrages. Et elle, elle donne de vraies solutions face à la véritable déshumanisation que les nouveaux modes d’apprentissage entraînent.
 
Anne Dolhein

jeudi, 30 juin 2016

Racism, Eugenics, & the Progressive Movement

eugenics.jpg

Racism, Eugenics, & the Progressive Movement

Thomas C. Leonard
Illiberal Reformers: Race, Eugenics & American Economics in the Progressive Era [2]
Princeton: Princeton University Press, 2016

eugenics2book.gifIn many ways the Progressive Era embodies the best of white America. It was a period of compassion, community concern, attempts to raise the living standard of average Americans, a desire to achieve class harmony, to end (or at least reduce) capitalist corruption, and to create a workable, harmonious racial nationalism that would ensure the long-term fitness of American society. The concerns of the Progressives were as much for the future as they were for the present, something almost wholly lacking in contemporary American politics. These scholars, politicians, and activists thought deeply about future generations and recognized, almost to a man, the validity of race science and the crucial role race plays in the historical trajectory of any country.

Thomas Leonard, a research scholar and lecturer in economics at Princeton University, has written an interesting history of the interaction between race, eugenics, and economics in the context of the Progressive movement. It is broadly informative and happily lacking the willful opacity of much contemporary scholastic writing, thus making it accessible to a wide audience. Unfortunately, yet unsurprisingly, this book begins with a blatant lie upon which he constructs his narrative: “Eugenics and race science are today discredited” (p. xiv). As such, the book is fundamentally flawed. Dr. Leonard offers no evidence whatsoever as to why Progressive notions of racial health and eugenics were wrong but, in keeping with contemporary academic fashion, merely resorts to shaming words and moral judgments rather than even a cursory investigation into the validity of the claims.

The book provides a detailed history of the many important Progressive intellectuals who believed that race was a fundamental concern and how they thought it should be dealt with politically, socially, and economically. The Progressives are perhaps the best example of a genuine American attempt to transcend the awkward political dichotomy of Left and Right for the sake of the greater good and a vision of a better and healthier future. Progressive diagnoses and predictions of racial degeneration and a dystopian future were so accurate that one suspects this book, to the extent it is read by objective and open-minded readers, will emphasize rather than deemphasize the importance of these issues.

The first chapter, entitled “Redeeming American Economic Life,” the author sets the context for the development of Progressivism by describing their reaction to the cycle of boom and bust of the dramatically expanding postbellum American economy: the rapid industrialization and urbanization of American society; and the tensions between labor, farmers, and capitalists. Despite the range of attitudes within the Progressive movement towards possible solutions to the problems faced at this time, Progressives shared three things in common: first, discontent with liberal individualism; second, “discontent with the waste, disorder, conflict, and injustice they ascribed to industrial capitalism”; and third, a concern with the problems of monopoly (pp. 8-9). Their understanding of these issues drove them to believe in the necessity of an administrative state to remedy these root problems and their many offshoots. As Dr. Leonard writes, the “progressives had different and sometimes conflicting agendas” but “nearly all ultimately agreed that the best means to their several ends was the administrative state” (p. 9). Those intellectuals who would become Progressives began to turn their focus away from the traditional and reflective scholarly disciplines and towards active ones, i.e. economics, politics, sociology, and public administration (p. 11). This activist turn was integral to the movement.

The author traces some of this activist drive for public improvement to the “social gospel” wing of Protestantism, but as knowledge of science and the use of scientific language increasingly became a marker of intellectual sophistication, the two were eventually combined into a mutually-reinforcing reformist spirit. Following World War I, after which the West experienced something of an existential crisis, the specifically Christian reform rhetoric mostly faded, or, as the author terms it, was “socialized” (p. 13), and mostly replaced by the hard empirical language of the above-mentioned burgeoning “active” disciplines. However, the sense of missionary zeal and notions of secular “salvation” remained a hallmark of the Progressive movement. If salvation could be socialized so too could sin (p. 13). That is to say, those problems that had previously been seen at least partially as religious in nature became social. Laissez-faire capitalism, for example, was not rapacious and exploitative merely because it was a sinful system run by sinful people but because it was “scientifically” incorrect. The Bible could offer insights into social problems but ultimately the responsibility fell to the state to re-make society in accordance with Christian ethics.

In the second chapter, “Turning Illiberal,” Dr. Leonard describes the professionalization of economics, the turn away from British classical liberalism towards German economic theory, and the origins of tensions within the Progressive movement between those who believed in democracy and those who did not. Germany, by the late 19th century had become the premier destination for graduate students wishing to study political economy. Germans were on the cutting edge of this newly formalized discipline — one that was almost entirely nonexistent in American universities. In contrast to Anglo-American classical liberalism, Germans saw the economy as a “product of a nation’s unique development” and believed that its “workings were not unalterable natural laws, [but] were historically contingent and subject to change” (p. 17). The author writes:

The progressives’ German professors had taught them that economic life was historically contingent. The economy wrought by industrial capitalism was a new economy, and a new economy necessitated a new relationship between the state and economic life. Industrial capitalism, the progressives argued, required continuous supervision, investigation, and regulation. The new guarantor of American progress was to be the visible hand of an administrative state, and the duties of administration would regularly require overriding individuals’ rights in the name of the common good (pp. 21-22).

Germans had demonstrated to American students that economics could be a tool of statist reform with a sound theoretical basis. They also demonstrated that it could be a distinguished and respected career path (p. 18). Those students who returned from Germany came home with a very different conception of the role of the economy in relation to the state and, at the same time, had little competition in establishing themselves in American universities and think tanks. It was a powerful position from which to begin their activism, both in terms of knowledge and opportunity.

Just as the German view of the relationship between state and economy had informed American Progressives, so too did the German Historical School’s conception of the nation as an organism (p. 22). This, coupled with the tremendous influence of Darwinist evolutionary theory in all intellectual circles, caused a distinct shift away from American individualism. Richard Ely, founder of the American Economic Association and a highly influential Progressive, explicitly rebuked the notion that the individual comes before society. Washington Gladden, a charter member of the same organization, argued that American individualism was “a radical defect in the thinking of the average American” (p. 22). The concept of the autonomous individual was seen by Progressive economists as a relic of a soundly refuted, old-fashioned ideology. A new class of superior, scientifically-informed men had to take charge of society if it were to rid itself of such antiquated and backwards beliefs.

In the third chapter, “Becoming Experts,” the author delves deeper into the tensions between expertise and democracy, the differences between Left and Right Progressives, the building of the administrative state, and “war collectivism.” Progressives maintained that the good of the people could best be guaranteed by limiting the power of the people — or, expressed positively, by entrusting the care of the people to experts. Dr. Leonard writes: “Financial crisis, economic panic, violent labor conflict, a political war over monetary policy, and the takeoff of the industrial merger movement combined to generate a groundswell of support for economic reform” (p. 30). This convinced many important Progressive intellectuals that government service was a far more important use of their expertise than was the role of public intellectual. Activism was a crucial strategic and ideological element of their project. The future, according to Progressives, should not be left to chance. It had to be engineered, and someone had to engineer it. If one genuinely cared for future generations, a processes to guarantee their success had to be put in motion rather than simply theorized.

eugenics_tree_1921.jpg

In his discussion of the distinction between Left and Right, Dr. Leonard accurately dismantles the problems with this dichotomous analytical tool. He writes that “progressive” is a “political term and political historians tend to an ideological lens . . . Ideology is [a] useful tool of taxonomy, but when it is reduced to one dimension, it is the enemy of nuance” (p. 38). Rather than frame Progressives as either Left or Right, he usually prefers the term “illiberal” — the belief that, contra liberalism, society takes preference over the individual. Indeed, the very concept of “reform” is often tainted with a Leftism that isn’t always quite there. Many of the positions that modern progressives hold today would be abhorrent to historical Progressives, just as many positions that conservatives hold today would be abhorrent to conservatives of the era. For example, the Progressive Republican Theodore Roosevelt was no fan of laissez-faire capitalism and favored an increase in the regulatory powers of the government, while William Graham Sumner, a conservative opponent of Progressivism, was a believer in free markets but a staunch opponent of imperialism and big business (pp. 39-40). The political battle lines of today differ greatly from those of the past, a fact which seems to validate the 19th century Germanic conception of the relationship of state, economy, and law as being historically contingent. What we think of now as Left or Right was largely absent from Progressive discourse.

Dr. Leonard goes on to discuss the creation of what he calls the “fourth branch” of government (the administrative agencies). The quintessential example of the ascendancy of the fourth branch is the Wisconsin Idea — the integration of government and academic experts in Wisconsin in order to govern the state with maximum efficiency. Many involved in the creation of this integrated system credited its success specifically with the heavy German population of the state. In his 1912 book on the subject, Charles McCarthy described the architect of the Wisconsin Idea, Robert Ely, “as a pupil of German professors, who returned from Germany with German political ideals to teach German-inspired economics at a German university (the University of Wisconsin) in the German state of Wisconsin, where the young men he most inspired were, yes, of German stock” (p. 41). The state government was, to a previously unknown degree, put in the charge of Progressive experts who created on American soil what was in effect an ethnic German state. The Progressive movement, both in theory and in practice, was distinctly Teutonic in conception.

This “fourth branch” of government was established in Washington D.C. by Woodrow Wilson and solidified during World War I by the success of “war collectivism.” The hand of the federal government was greatly strengthened at this time in order to aid the war effort. This is the period in which the income tax was established and was soon followed by corporate and inheritance taxes as well as numerous other reforms and the creation of various administrative agencies (pp. 43-45). Having established themselves as experts, the expert recommendations of the Progressives usually included the establishment of permanent regulatory agencies — “ideally an independent agency staffed by economic experts with broad discretionary powers to investigate and regulate” (p. 43). The author credits much of this to personal ambition rather than idealism, which is doubtless true to some extent but is at odds with his earlier descriptions of the visionary reformist mission of Progressives. Perhaps writing a century later it is hard not to be cynical about such things, but little in his prior discussion would indicate personal ambition as a primary motivating force. And even if it had been the case, their efforts were consistent with their ideology. Personal ambition without value-compromise can hardly be seen as a negative. But throughout the book attempts to tarnish the images of Progressives by insinuating that they were somehow morally compromised (how else to explain their illiberal views?).

Toward the end of the chapter, the author begins his discussion of race, a central concern of Progressives. It was simply understood by Progressives (and most others of the time) that blacks were incapable of freedom. Woodrow Wilson wrote that blacks were “unpracticed in liberty, unschooled in self-control, never sobered by the discipline of self-support, never established in any habit of prudence . . . insolent and aggressive, sick of work, [and] covetous of pleasure” (p. 50). The sociologist Edward Ross, in a statement the author refers to as demonstrating contempt for his “imagined inferiors” (p. 50) wrote: “One man, one vote . . . does not make Sambo equal to Socrates” (p. 50). Such statements seem to contradict the Progressive belief in the elevation of the common man (as contemporarily understood) but as Dr. Leonard points out, the “progressive goal was to improve the electorate, not necessarily expand it” (p. 50). The whole of the country would be better off if its leadership could be entrusted to a superior piece of the American electorate. This was a fundamental tension among Progressives: “Democracies need to be democratic, but they also need to function . . .” (p. 51). American democracy could not function with unintelligent people voting but, given American history, the concept of voting was not up for debate. Thus began the deliberate disenfranchisement of blacks and others deemed unfit for equal rights in American society.

In chapter four, “Efficiency in Business and Public Administration,” the author details the Progressive push for efficiency, the influence of Taylorism, and the beginning of the scientific measurement of mankind for utilitarian purposes. Objective as possible in their approach to the economy, Progressives (with few exceptions) did not regard big business itself as a problem. Scale was, for them, unrelated to efficiency. Efficiency was a goal that could be handled by experts regardless of the size of the project. The classical liberal notion of market efficiency, even if it could be demonstrated to be true, was, like Darwinian evolution, a slow and haphazard process that could be sped up and forced in entirely desirable directions with proper management. Big business was simply a fact of the new economy. As such, it was not undesirable in and of itself, but required outside guidance to achieve socially acceptable results while avoiding “market-made waste” (p. 57). Progressives famously feared monopoly because it could produce political corruption as well as reduce innovation but, as the author writes, “progressives distinguished monopoly from size, and because of this, were not antimonopoly in the populist sense of the term” (p. 57). Indeed, big business was generally thought to be inherently more efficient than small business. As with everything else, proper administration was the key to success.

scientificmanagement.jpgThe 1911 publication of Frederick Taylor’s The Principles of Scientific Management was a watershed moment for Progressives. It offered a scientific method for improving workplace efficiency. By measuring and analyzing everything from workplace break times to the weight of shoveled material, industry would be able to maximize efficiency down to the minute and the pound. Taylorism has since become an epithet, used to describe the dehumanizing effects of the time clock, the oppressive nature of constant managerial supervision, and the turn away from skilled labor in the workforce. However, for Progressives it promised a new approach to the workplace that could make life better for everyone. Those experts who would take charge of industry would be able to maximize the public good while minimizing the power of capitalists and financiers. Men such as the Progressive political philosopher Herbert Croly believed that Taylorism would “[put] the collective power of the group at the hands of its ablest members” (p. 62). For Progressives, scientific management was a noble goal and a model to be followed. It fit perfectly with their basic beliefs and soon spread elsewhere, including into the home, the conservation movement, and even churches (p. 66-69).

The Progressive era was the era of social science. Scholars, commissioners, politicians, and journalists set out to understand the reality of American social life through scientific methods. Few reading this will be surprised with the conclusions of virtually all of these efforts. What this research — into race, into immigration, into domestic behavior, into social conditions — demonstrated was that there was a clear correlation between race and intelligence and the ability to function in American society. Intelligence tests and vast amounts of data collected from the military and immigration centers were collected and analyzed. For Progressives, race science was obviously and demonstrably real and had to be treated with the same scientific objectivity as the economy or any other facet of human existence. America was then, as it is now, being populated rapidly with provably inferior and/or inassimilable human beings. Progressives began to warn of the dangers of Jewish and other non-white immigration to the United States, as well as the problems stemming from rapidly breeding inferior American citizens.[1]

Chapter five, entitled “Valuing Labor: What Should Labor Get?,” describes how Progressives dealt with the question of labor. They sought to determine what labor was getting, how wages were determined, and what labor should get (p. 78). Dr. Leonard writes:

For nearly all of recorded history, the notion of laborers selling their labor services for wages was nonsensical. Labor was the compelled agricultural toil of social inferiors in the service and under the command of their betters. In the United States, this remained true well into the nineteenth century. The value of labor depended on what the worker was — free or slave, man or woman, native or immigrant, propertied or hireling — not what the worker produced or wished to consume (p. 78).

The thinking behind these categories is treated with contempt by the author, of course. The idea that the labor of a black man could be worth less than that of a white man based on something external to mere prejudice against “skin color” or that the labor of an immigrant could be worth less than the labor of a citizen to those who might feel a deeper affinity for their own countrymen was, to him, symptomatic of a “hierarchy that plagued economic life” (p. 79). He relates the claims of race science with contempt but offers no justification for his disdain. But, by simply ignoring the reality of race and sex differences, the author is able to trace the concept of inferior labor back to the Greeks — as if attitudes towards labor even between similar peoples are not themselves historically contingent.

The author sees two fundamental and separate approaches to political economy throughout history: “market exchange and administrative command” (p. 79). He notes correctly that in the centuries between Socrates and Adam Smith, the market was seen as a place of chaos, disorder, Jews (he uses the semi-cryptic “Shylocks” rather than Jews), and unscrupulous persons of various sorts. The Greek prioritization of the political over the economic is, for Dr. Leonard, the source of the various manifestations of human hierarchies in Western societies and economies.[2] [3] Greek men somehow just decided for no valid reason whatsoever that women should supervise the household, market services be left to foreigners, and labor relegated to non-Greeks. These were simply ideas that had “extraordinary staying power in Europe” (p. 80) and thus led to aristocracy and other unnatural hierarchies until Adam Smith blessed Europe with his belief in individualism and natural liberty. Again, the author deliberately chooses to ignore the very real biological bases for such facts of human social life. Command economies are, to the author, somehow “bad” because he sees them as having been based in ignorance and vaguely conspiratorial hierarchical social arrangements.

Enlightenment notions of individualism and liberty were, of course, central to the rhetoric of the American project. However, America did not practice what it preached (nor did it really preach “what it preached” but that is far beyond the scope of this piece): slavery existed in the South and was defended by Southerners as far more humane than the wage-slavery of the North; Northern abolitionists saw this as an absurd comparison and argued that at least free laborers could get up and leave if they were unhappy. But both saw the laborer in one form or another as being an inferior creature. This attitude was to carry through to the Progressive era. As the author puts it, “reformers still saw a bit of the slave in the wage earner, no matter how ubiquitous the employee now was” (p. 84). He goes on to note that when millions of women and immigrants joined the workforce, this reinforced the notion of the laborer as inferior.[3] [4]

If the laborer is inferior, what should they be paid? Progressives believed in the power of the government to change social conditions. As such, they believed that policies could be enacted that would enable laborers to live comfortably, with enough money to be upstanding citizens and raise healthy families. Differing theories existed for how fair wages should be determined, but Progressives tended to reject the idea that wages were anything less than a “worker-citizen’s rightful claim upon his share of the common wealth produced when the laborer cooperated with the capitalist to jointly create it” (p. 86). As is always the case among economists, vigorous debate ensued. The goal was for workers to receive a living wage but how this was to be accomplished was a matter of some controversy. The author discusses some of these theoretical disagreements but concludes that the one thing that united all Progressives in this matter was the belief that “work will always go to the lowest bidder . . . there was a race to the bottom, and the cheapest labor won” (p. 88). However, he pathologizes this as an “anxiety” rather than a real problem experienced by rational people so that Progressive concerns about the intersection of economy and race be seen by the reader as a kind of irrational social “disease,” a collective neurosis with deep roots in the American (read white) psyche.

eugenics3755357.jpgIn chapter six, “Darwinism in Economic Reform,” Dr. Leonard relates how Darwinism was used by Progressives to acquire the “imprimatur of science” (p. 105). Darwinism proved to be a very flexible conceptual tool. It allowed for incorporation into various fields of thought and, within those, still more differing points of view: it was used to advocate for capitalism and for socialism; war and peace; individualism and collectivism; natalism and birth control; religion and atheism (p. 90). Darwinism and related ideas (such as Lamarckism) provided Progressives with a scientific basis upon which to argue for both economic improvement and biological improvement. There was no consensus on which aspects of Darwinism to incorporate into their logic but something the vast majority had in common was the belief in the importance of heredity and that artificial selection, as opposed to natural selection, was the most efficient means of securing a healthy society comprised of evolutionarily fit individuals.

Social Darwinism was a concept championed by believers in the free market. As the author notes, it was always a used as a pejorative and Progressives had to distance themselves from it (p. 99). They did so by challenging laissez-faire using Darwinist principles, an idea that came to be known as Reform Darwinism. The Reform Darwinists, led by the sociologist and botanist Lester Frank Ward, challenged laissez-faire by asserting that capitalists thrived in the Gilded Age because “they had traits well adapted to the Gilded Age” but that these traits were not necessarily “socially desirable” (p. 100). They also asserted that society was an organism that “had a necessary unity” but “not an inclusive one” (p. 102). An organism must always protect itself from threats and an organism must also prioritize the whole over the part. This organic model of society influenced every Progressive concern. If, for example, a corporation was a legal person entitled to the same protections as an individual citizen, then surely “the state was an even larger organism, one that encompassed and thus subsumed corporate and natural persons alike” (p. 100).

Progressives also attacked natural selection as “wasteful, slow, unprogressive, and inhumane” (p. 100). Agreeing that robber barons and rich fat cats were an example of the degenerative tendencies of capitalism, society had a duty to protect itself from such people (p. 100). Natural selection did not always lead to progress. It was environmentally contingent. Richard Ely argued that “Nature, being inefficient, gives us man, whereas society ‘gives us the ideal man'” (p. 104). The free market rewarded those who could make the system work to their advantage by any means necessary, not those who possessed traits that were desirable for a healthy, moral society. Regulation could help fix this problem. Woodrow Wilson wrote that “regulation protected the ethical businessman from having to choose between denying his conscience and retiring from business” (p. 105). Combined with German economics, German historical theory, an activist sociology, and a commitment to the benefits of efficiency, the influence of Darwinism made the development of workable eugenics policies almost a certainty.

In the seventh chapter of the book, “Eugenics and Race in Economic Reform,” Dr. Leonard provides a brief overview of the history of eugenics. He also describes how it entered American intellectual discourse and how it was applied to race science. With roots as far back as Plato and popularized by Francis Galton in the late 19th century, eugenics was the obvious solution to many of the social problems that the Progressives were tackling. The author quotes Galton for a broad explanation: “what nature does blindly, slowly, and ruthlessly, man may do providently, quickly and kindly” (p. 109). The ideas of eugenicists gained mainstream traction rapidly. By the early 20th century, states were passing sterilization laws. By the end of World War I, concerns about the terrible death toll of white men had prompted many American intellectuals to worry deeply about the crisis caused by the loss of so much “superior heredity” (p. 110). American universities began teaching eugenics courses, textbooks on eugenics were written, journals were published, and societies devoted to encouraging the spread of eugenics programs and race science were created.

Francis Galton had gone so far as to declare a “Jehad [sic]” on the “customs and prejudices that impair the physical and moral qualities of our race” (p. 112). Influential Progressives like Irving Fisher and John Harvey Kellogg sought to make this a reality by creating a sort of religion out of eugenics (p. 112). Concern for the white race played an explicit part in Progressive thought. There was nothing coded about it. Like the social gospelers of early Progressivism, the eugenics movement evangelized very effectively. The concept of racial health was soon to be found virtually everywhere one turned, from women’s magazines, movies, and comic strips to “fitter family” and “better baby” contests at agricultural fairs across America (p. 113). Lothrop Stoddard published his classic The Rising Tide of Color Against White World-Supremacy in 1920, and the famous Supreme Court decision in the case of Buck v. Bell in 1927 affirmed that the state had a right to sterilize individuals deemed a genetic threat to society. It is important to note that not all eugenicists were Progressives but the vast majority of Progressives were eugenicists. For them, things such as environmental conservation went hand in hand with racial “conservation.”

For Progressive eugenicists, the administrative state was the most effective defense against racial degeneration (the effects of adverse conditions on a race of people) and race suicide (the effects of a superior race being outbred by inferior races) (p. 117). Poor and uneducated whites were seen to be redeemable given the proper environmental conditions and thus genetically able to assimilate into American society. Non-whites were incapable of assimilation because of their lower intelligence and racially-specific habits and attitudes. Of particular concern was the American black population. White Progressives saw them, at best, as docile children who should be treated as such for the good of all, and, at worst, as a weight that would sap American energy and  character (p. 122). Even among the handful of black Progressives, such as W.E. B. DuBois and Kelly Miller, race was seen as a problem for America. Though they rejected the notion of the genetic inferiority of blacks, they recognized that the rapidly breeding lowest IQ blacks threatened to overwhelm the elite few — the “Talented Tenth,” as DuBois famously described them (p. 122).

But non-whites were not the only concern of the Progressive eugenicists. As indicated above, racial degeneration was of great concern. Literature on degenerate families became wildly popular at this time, bringing to the American lexicon such names as the Jukes and the Kallikaks. These families (given aliases by the authors of these studies) had their histories published as warnings about the dangers of what some would now refer to as “white trash.” The contradictions here are apparent: Progressives sought to improve the conditions of the white poor while at the same time wrestling with the question of whether poor whites were genetically unfit and simply irredeemable by external measures. The latter question, however, was also asked of the rich, who some Progressives saw as even better evidence of racial degeneracy. As with every other issue, there was a certain amount of disagreement among Progressives about specific questions and how to best administer solutions, but the concerns themselves were universal.

Perhaps the greatest concern was with the effects of immigration on the American gene pool. The author subscribes to the notion of an imagined “whiteness” and, as is customary, uses the Anglo-Saxonist tendencies of Progressives to call into question the validity of race science. This is to be expected and can be ignored. But it was indeed a concern of the era, especially as immigrants poured onto American shores. Some Progressives argued that democracy had its origins in the Anglo-Saxon race and that immigration from other areas of Europe was detrimental to survival of the American way of life. Walter Rauschenbach, a “radical social gospeler” (p. 124) argued that capitalism “drew its ever-increasing strength from the survival of the unfit immigrant” (p. 125). Rauschenbach was a committed Anglo-Saxonist and such views had long held sway in Progressive circles, from social gospelers to anti-Catholics to Prohibitionists. But it does not follow that concerns about immigration were irrational because one particular group of whites at the time did not like the customs of another group of whites. Nor do these antiquated distinctions invalidate the entirety of race science, however many times they are used in attempts to do so by this author and so many others.

Chapter eight is entitled “Excluding the Unemployable.” In it the author delves into how Progressives related racial inferiority and other traits deemed as markers of inferiority to labor and wages. He writes: “The Progressive Era catalog of inferiority was so extensive that virtually any cause could locate some threat to American racial integrity” (p. 129). Obviously, non-whites were seen as a threat, but so were white alcoholics, the poor, epileptics, and others. He argues that in antebellum America, laborers knew their place and stayed there. From slaves to women, strict social and sometimes legal controls assured the maintenance of this hierarchy. Postbellum industrialization and the emancipation of slaves threatened this order: “Inferiors were now visible and perceived to be economic competitors” and were either “portrayed as the exploited dupes of the capitalist” or “as the capitalist’s accomplices” (p. 130). Those who were literally incapable of work and those who were willing to work for lower wages than “superior” Anglo-Saxon stock were given the label “unemployable.”

citizens-l.jpgThese “unemployables” were seen as being parasitic. They undercut wages and threatened American racial integrity. The capitalist drive towards cheap labor was certainly seen as partly to blame for this problem, but Progressive discourse began to focus more on biology than economics. Blame was increasingly shifted towards the actual laborers themselves rather than the system that encouraged them to accept lower wages. In what was known as the “living-standard theory of wages,” the unemployables were seen as being able to live on less than the average American worker due to their willingness (either racially-determined or resulting from inferior minds) to accept poor living conditions. The white American worker, it was believed, would reduce his number of children rather than sacrifice his standard of living, thereby increasing the risk of Americans being outbred by inferior stock. This line of argument gained popular currency with the sometimes violent union activism against Chinese workers. Edward Ross wrote that “should wors[e] come to the worst, it would be better for us if we were turn our guns upon every vessel bring [Asians] to our shores rather than permit them to land” (p. 135). The notion of immigrants and others being regarded as scab labor was widely accepted across the political spectrum but was central to Progressive concerns because they were able to see it as symptomatic of multiple grave problems with American society. In order to correct these problems, better methods were needed to identify and exclude the inferiors who were threatening American jobs and lowering the American quality of life.

In chapter nine, “Excluding Immigrants and the Unproductive,” Dr. Leonard examines the methods used for exclusion. The most obvious method was the use of immigration restrictions. Numerous laws were enacted either limiting or barring entirely immigration from certain parts of the world. Restrictions were also imposed by those otherwise deemed a threat to the country, i.e. anarchists, polygamists, and epileptics (p. 142). In 1905, a law was passed that prohibited contract labor altogether (companies paying immigrants to come to America in exchange for labor). A literacy test was also proposed for anyone trying to enter the country, however the effort actually failed when Woodrow Wilson inexplicably vetoed the bill in 1917. Edward Ross blamed Jews for this loss. He wrote that they were financing the anti-restrictionist campaign and pretending that it was for the benefit of all immigrants but was actually “waged by and for one race” (p. 158). But does the author investigate this claim? Of course not. It is easier to label Ross an anti-Semite and move on. To do otherwise might turn up some uncomfortable facts.

Other restrictionist actions met with success: in 1907, the Expatriation Act required American women who married foreigners to surrender their citizenship; massive federal investigations were undertaken to study the problems of immigration; and various private organizations sprung up devoted to anti-immigration advocacy. (p. 143). For Progressives, the issue of race had become one of their deepest concerns. It was, generally, either considered the main determinant of historical change, for better or for worse, or at least an extremely important one. It comes as no surprise that the founding of the United States would be interpreted through a Darwinist lens by Progressives. The author spends some time critiquing their use of Darwinist concepts to defend the original colonists as pioneers and conquerors (that is, “fit”) and later immigrants as simply following a path already tread in opportunistic fashion (“unfit”). Never mind that this is quite obviously at least partially true. He even fails to see the distinction between a colonist and an immigrant, wholeheartedly buying into the ridiculous “nation of immigrants” theory of American demographics that is so popular today.

Progressive eugenicists saw the immigration problem as an opportunity to assert their particular interests. Interest in race science grew exponentially. Various classificatory systems were proposed, studied, and refined, each of which generally had the expected hierarchies: whites at the top, blacks on the bottom. Within each category were, of course, numerous other sub-categories. But almost all races (both in the contemporary sense and in older sense meaning “ethnicity”) was charted and described in great detail. It was crucial from the standpoint of the Progressive eugenicists to use this information to prevent the race conflict that they believed would naturally arise from the intermingling of dissimilar peoples from across the globe. Even the few Progressive intellectuals who were genuinely egalitarian in outlook believed that race-based immigration policies were crucial. John Dewey, for example, supported them because he believed average Americans were too primitive to adopt his supposedly enlightened view that race was a fiction, thus making race conflict inevitable anyway (p. 153). Unsurprisingly, those who opposed immigration restrictions tended to be Jews such as Franz Boas, philosemites such as Emily Balch, and/or laissez-faire capitalists. The motives of the restrictionists are called into question by the author — but not those of the anti-restrictionists, of course. They were simply uniquely informed and tolerant for their time.

The above also fueled the debate over the minimum wage. It was commonly accepted that a legal minimum wage would put some people out of work. Progressives tended to see this as a good thing insofar as it removed inferior laborers from the job market. Dr. Leonard writes: “It deterred immigrants and other inferiors from entering the labor force, and it idled inferior workers already employed. The minimum wage detected the inferior employee, whether immigrant, female, or disabled, so that he or she could be scientifically dealt with” (p. 161). Ways in which these inferiors could be dealt with “scientifically” included simple things such the return of formerly-employed women to the home and far more complex solutions such as labor colonies for the unfit and forced sterilization. As was the case with all internecine Progressive debates, however, the thinking was always keenly focused on future generations. One particular intellectual might disagree with another about a certain policy proposal or belief, but the goal was the same: a harmonious society and healthy race. And since neither can exist without women, it was natural for Progressives to consider the role of women in society.

In the tenth and final chapter of the book, entitled “Excluding Women,” Dr. Leonard examines the views of women’s employment and civil rights within the Progressive movement. Women were always an important part of efforts at labor reform and the drive to improve various aspects of social life. But most Progressives had very strong views on the proper role of women in society. Richard Ely argued that women should be barred from the workplace (p. 170). Many, however, did not go to quite to this extreme. Efforts were made to simply limit the number of hours women were legally allowed to work, for example. The idea behind this was, of course, that women were physically weaker and needed protection from exploitative employers. But there were other issues of importance to Progressives as well, including the desire to combat prostitution. This concern was sometimes used to defend the minimum wage. If working women could make more money per hour they would be less likely to resort to prostitution to make ends meet. The obvious problem here is that the minimum wage was supposed to make certain people unemployed, and this group included women. It was assumed, however, that unemployed women would be cared for by the men in their lives, thereby providing the benefits of higher wages to men, a more appropriate environment for women, and helping to guarantee the health of the race. Whatever limitations this placed on a woman’s individual rights were explicitly justified by concern for the race.

For some Progressive feminists, male social domination had had a dysgenic effect by punishing the race’s strongest women by confining them to the household (p. 179). Most Progressives, however, believed that motherhood was the duty of women and had to be encouraged and thought such ideas absurd. Theodore Roosevelt, for example, had special contempt for those women from privileged backgrounds who did not have enough children despite being able to afford it. Referring to them as “race criminals,” he believed that such behavior was the height of selfishness (p. 180).

The debate over birth control was related to this attitude. Birth control, then as now, was mostly used by the most privileged in society and less so by the lowest classes. It thus had an obvious dysgenic effect. The author sees the synchronic concerns of Progressives with women’s health, sexual virtue, economic competition with men, and health of the race as contradictory. He writes:

If she were paid very little, she was admonished for endangering her health, risking her virtue, and threatening hereditary vigor. If she commanded a slightly higher but still modest wage, she was condemned for undercutting men’s family wages and for neglected [sic] her maternal duties. If she were well paid, she was admonished for selfishly acquiring an education, pursuing a career, and thus shirking her reproductive responsibilities to society and the race (p. 182).

Though there is a superficial tension between these things, he fails to see that there is no necessary contradiction here. It is entirely possible for women to be economically exploited laborers whose employment lowered men’s wages and for their ideal place to be in the home, nurturing the future of the race. Progressives generally saw the employment of women as a precursor to starting a family or as a result of misfortune anyway (p. 178). Sex-specific protections in the workplace, as well as a minimum wage that would displace many of them, would be a perfectly sensible goal for any state that had the future of the race as a primary focus. Dr. Leonard’s concern with finding hypocrisy in every statement relating to race and sex blinds him to reasonable conclusions. The Progressives, however, were not handicapped by ideological taboos and ultimately rejected the small, internal strain of equal-rights feminism within their ranks in favor of protecting the race. Progressives fought hard against the Equal Right Amendment of 1923, but by the mid-1920s, the Progressive Era was winding down and within a few years the zeitgeist would change considerably.

We see in the Progressive movement the last explicit, mainstream advocacy for the white race on American soil. The author clearly realizes this and chooses to ignore every single claim made by Progressives that does not fit with contemporary notions of social constructivism. He quotes Progressives in order to mock them, not to investigate whether what they said had a basis in fact. One might object by saying that it is beyond the scope of the book to investigate race science itself in order to discuss its role in the Progressive era. But the book starts out with the lie that race science has been discredited and everything that follows is therefore either directly based on a lie or has a lie as its overarching context. The point of the book, however, is not to enlighten the reader about anything of substance. His goal is merely to frown upon “racists” and “sexists” with the reader, to roll his eyes at ignorant Progressives along with his academic colleagues, and pray that his book is assigned in universities across the country in order to further indoctrinate students into the secular religion of egalitarianism.

This is not to say that there are not important issues discussed in the book. Clearly, there are. Nor is any of the above meant to suggest that Progressives were correct about everything. Clearly, they were not. But one cannot help but wonder how different America would look today if the Progressives had been able to further investigate and discuss these important issues as a part of the mainstream. What would this country look like now if such ideas had not been turned into “thought crimes?” In so many ways what we see in progressives today is a complete about-face from the intellectual heritage they claim. And in so many ways what we can see in the real Progressive movement is profoundly, devastatingly prescient and of utmost relevance to the contemporary American sociopolitical landscape. These issues are just too important to be left to a hack.

Notes

1. As many readers will be aware, there was a distinct bias towards Nordics among American whites at this time. Many Southern and Eastern European whites were deemed inferior–a hammer used frequently to hit racialists over the head in arguments intended to “deconstruct” whiteness. It is also, unfortunately, still found in White Nationalist circles. Nordicism is dealt with very well by Greg Johnson here (http://www.counter-currents.com/2016/03/nordics-aryans-an... [5]).

2. One wonders how he might explain similar hierarchies in non-European civilizations.

3. How labor would have fared in the 20th century without the presence of millions of women and immigrants to bolster notions of their inferiority is a question that should be asked of every contemporary “progressive.” One might also ask why, if racial diversity is such a tremendous and obvious social good, how it is that highly-educated Progressives completely failed to realize this — especially considering that theirs was a mission to increase the standard of living in America.

Article printed from Counter-Currents Publishing: http://www.counter-currents.com

URL to article: http://www.counter-currents.com/2016/06/racism-eugenics-and-the-progressive-movement/

URLs in this post:

[1] Image: http://www.counter-currents.com/wp-content/uploads/2016/06/IlliberalReformers.jpg

[2] Illiberal Reformers: Race, Eugenics & American Economics in the Progressive Era: http://amzn.to/293MqYr

[3] [2]: #_ftn2

[4] [3]: #_ftn3

[5] http://www.counter-currents.com/2016/03/nordics-aryans-and-whites/: http://www.counter-currents.com/2016/03/nordics-aryans-and-whites/

samedi, 06 février 2016

Un regard évolutionniste sur l’éducation

evolution-of-humans.jpg
 
 
Un regard évolutionniste sur l’éducation
 
Stevan Miljevic
Enseignant
Ex: http://www.lesobservateurs.com
 

La psychologie évolutionniste est le fruit de la rencontre entre la psychologie et la théorie de l’évolution. Elle vise à expliquer les comportements humains sur la base d’hypothèses évolutionnistes.

Comment ça marche ?

PUBLICITÉ
 

Dans son acceptation universelle, cette nouvelle manière de concevoir le fonctionnement de l’esprit postule qu’à l’exemple des autres organes, le cerveau également a été façonné par la sélection naturelle. L’hypothèse est la suivante : lorsque certains problèmes universels se sont posés à nos ancêtres des cavernes, ceux qui possédaient les capacités cognitives les plus adaptées à leur résolution ont survécu et se sont multipliés alors que les autres disparaissaient. De cette manière, le cerveau de l’espèce humaine s’est adapté de manière à fournir les meilleures potentialités de résolution des situations problématiques rencontrées par nos prédécesseurs chasseurs-cueilleurs.

La quasi-totalité des humains de la préhistoire ont été confrontés à des problèmes globalement assez similaires. Ils ont notamment dû faire face à de longues périodes de fluctuations climatiques et ont été obligés de s’adapter à certaines contraintes issues de leur environnement proche. Comme la vie isolée du groupe n’était pas possible, ils ont également été exposés à des dynamiques sociales complexes plus ou moins pareilles. Celles-ci se sont exprimées au sein du groupe tout comme dans les relations entretenues avec d’autres clans humains. Face à des contraintes existentielles fortes et universelles, le cerveau humain a muté petit à petit pour permettre aux hommes d’acquérir le plus simplement possible toute une série de compétences nécessaires à leur survie.

L’évolutionniste David Geary classifie ces capacités dans un groupe commun appelé capacités primaires ou naïves. Elles sont naïves car, selon lui, après plusieurs dizaines/centaines de milliers d’années d’évolution, le génie humain est désormais naturellement programmé pour que ces compétences se développent par elles-mêmes, sans effort particuliers, inconsciemment et très rapidement. Le degré de complexité de ces compétences ne change absolument rien à l’affaire.

Mais quelles sont donc ces compétences primaires ?

Dès que l’homme des cavernes a été amené à bâtir des abris, à créer des outils pour la chasse ou à user du feu pour cuisiner et ainsi augmenter ses chances de survie, il lui a fallu définir ses besoins pour y arriver, explorer et analyser son environnement proche et en extraire les ressources nécessaires. En conséquence, et puisque ces activités se sont perpétuées sur de longues périodes, le cerveau de l’homme s’est adapté de manière à faciliter la mise en branle de ces compétences. Ainsi, des modifications sont intervenues et, depuis, l’être humain a acquis des prédispositions innées à résoudre des problèmes. Il en va également de même dans le domaine des interactions sociales

Comme l’encéphale de nos élèves est calibré de manière à ce que ces compétences primaires se développent naturellement, il en découle que les dispositifs pédagogiques de résolution de problème, de découverte, d’enquête ou autre projet sont inutiles en terme de développement de compétences. Tout comme d’ailleurs les systèmes d’enseignement visant à développer des compétences transversales du type communicatives ou collaboratives. Si tout cela se fait naturellement, inutile de réinventer l’eau chaude systématiquement en classe. Concentrons plutôt nos efforts sur des choses qui en valent la peine.

Le seul résidu d’utilité qui peut éventuellement rester à ces méthodes réside dans l’acquisition de connaissances qu’elles peuvent susciter. Or, à ce sujet, les études empiriques menées à ce jour sont claires : ces méthodes d’apprentissage ne génèrent qu’une efficacité très limitée.  La thèse évolutionniste abat ainsi définitivement les derniers vestiges de crédibilités qui pouvaient rester au constructivisme éducatif.

Autres apports évolutionnistes

L’apport de Geary et des évolutionnistes pour le domaine éducatif ne s’arrête pas là. Leur théorie prétend également répondre à la lancinante question du « pourquoi apprendre » et donc, par là même, du contenu de ces apprentissages. Selon eux, en exerçant et développant leurs compétences primaires, les hommes ont développés d’autres connaissances qui, elles, n’étaient pas nécessaires à leur survie directe. Ainsi, au fur et à mesure que les sociétés ont crû, qu’elles ont évolué, elles ont acquis un corpus de connaissances culturelles et scientifiques dont la nature diverge profondément des habilités primaires : les connaissances secondaires. Soit qu’elles soient trop récentes soit qu’elles n’aient pas trait à la survie de l’espèce, ces nouveaux savoirs n’ont pas suscité de développement particulier du cerveau et nécessitent donc un effort particulier et important pour être assimilés.

L’accumulation de ces nouvelles connaissances a permis aux hommes d’aller de plus en plus loin, de s’éloigner de plus en plus du concret de tous les jours et d’atteindre des niveaux d’abstraction de plus en plus conséquents. Les savoirs ainsi générés s’éloignent ainsi de plus en plus des aptitudes primaires humaines. Voici deux exemples pour illustrer le cas : en mathématiques, l’aspect très concret de la géométrie la place à proximité des aptitudes primaires alors que l’algèbre, abstrait, en constitue un pôle bien plus éloigné. Dans le domaine de la langue maternelle, la lecture et l’écriture, inventions culturelles tardives, sont nettement plus éloignés des capacités primaires que ne peut l’être l’expression présente très tôt dans l’histoire de l’humanité.

A ce sujet, il faut aussi noter que puisque les élèves sont pré-conditionnés au développement de leurs capacités primaires, ils sont aussi naturellement motivés à les utiliser. Ce qui explique pourquoi un déficit de motivation peut survenir dès lors qu’on les en éloigne. La nature humaine telle qu’elle s’est développée au travers de l’évolution interfère donc régulièrement dans l’acquisition des savoirs académiques.

Enfin, selon Geary, les écoles sont apparues dans nos sociétés dès lors que l’écart existant entre les compétences primaires et les aptitudes secondaires non vitales mais que la société estime nécessaires à une bonne intégration est devenu trop conséquent pour que les habilités primaires permettent à chacun de les acquérir par soi-même. L’école doit donc servir d’accélérateur pour leur acquisition. Ce qui signifie notamment que plus l’objectif à atteindre est éloigné des capacités primaires de l’élève, plus il est nécessaire que le guidage exercé par l’enseignant soit important car les capacités propres de l’élèves ne lui permettent pas d’y arriver seul.

De tout ceci il me semble pouvoir déduire que :

  • Le constructivisme n’a pas sa place dans l’éducation sauf éventuellement pour atteindre les objectifs les moins élevés et ambitieux, ceux dont la nature les place à proximité des capacités
  • Le travail sur la plupart des compétences générales/transversales n’a que très peu d’intérêt. Les compétences ne prennent du sens qu’en tant que combinaisons complexes de différentes connaissances académiques.
  • Une école utile et efficace est une école qui laisse aux individus la responsabilité des apprentissages qu’ils peuvent effectuer facilement tout seul (apprentissage basé sur l’utilisation des capacités primaires) et se concentre plutôt sur ce qui est plus difficile à atteindre tout seul.
  • Pour y arriver un guidage direct important des enseignants est nécessaire. Celui-ci doit être en adéquation avec l’architecture cognitive des élèves
  • Le déficit motivationnel dû à la nature des savoirs à acquérir doit être comblé par des systèmes pédagogiques efficaces permettant l’émergence d’un nouveau type de motivation issue du sentiment d’efficacité personnelle.

Autant dire que si on se fie à l’approche évolutionniste,  notre école fait à peu près tout faux aujourd’hui.

Stevan Miljevic, le 5 février 2016 pour contrereforme.wordpress.com et lesobservateurs.ch

PS: certaines conclusions émises ici bas ne sont pas celles de l'auteur étudié mais celles que j'ai personnellement déduites de ces lectures

Bibliographie et sitographie:

David Geary "The why of learning" in Educational Psychologiste, July 2009 pp.198-201 disponible ici https://www.researchgate.net/publication/233080942

David Geary "Evolution and Education" in Psicothema, February 2010 disponible ici https://www.researchgate.net/publication/41138739

David Geary "Primal Brain in the modern classroom"  disponible ici https://www.researchgate.net/publication/253952304_Primal_Brain_in_the_Modern_Classroom

David Geary "Principles of Evolutionary Educational Psychology" in Learning and individual differences, July 2013 disponible ici https://www.researchgate.net/publication/222830140

 

dimanche, 01 novembre 2015

Les progrès de la médecine, est-ce fini ? C’est peut-être pire encore.

IdY7i.jpg

Les progrès de la médecine, est-ce fini ? C’est peut-être pire encore

 
Jan Marejko
Philosophe, écrivain, journaliste
Ex: http://www.lesobservateurs.ch

Anne-Laure Boch est une pasionaria de la vie de l’esprit mais aussi de la vie du corps. Elle a d’abord étudié la médecine, ce qui l’a conduite à devenir neurochirurgienne à  l’hôpital de la Pitié-Salpêtrière. Ensuite elle a obtenu un doctorat en philosophie. Elle voulait  comprendre ce qu’elle faisait comme médecin, et pourquoi. C’est cette méditation sur le sens de la médecine qu’elle a partagé avec les étudiants de l’institut Philanthropos à Fribourg. Devant eux, elle a posé la question de savoir si l’on pouvait encore attendre des progrès en médecine. Elle en doute et craint que la médecine ne produise désormais plus de méfaits que de bienfaits.

Elle n’a évidemment pas nié que la médecine occidentale a fait d’énormes progrès dans les trois derniers siècles.  Mais rien ne nous garantit que des progrès passés engendrent des progrès pour l’avenir. Les communistes croyaient dur comme fer aux progrès de la science et ils ont bien placé Gagarine en orbite. Mais au-delà, plus rien ou presque. Ce n’est pas seulement que le progrès peut s’arrêter mais que, sur sa lancée, il peut produire du déclin, l’accélérer même. Une fusée, en retombant, peut faire des dégâts. La fusée de la médecine et des recherches qui lui sont associées est-elle en train de retomber ? On peut le craindre et c’est à repérer les raisons de cette crainte qu’Anne-Laure Boch s’est attachée.

La vocation de la médecine est de guérir. A-t-elle guéri le cancer par exemple ? Non, elle a fait de lui une maladie chronique, mais de guérison, point ! Si le but de la médecine est de faire survivre à n’importe quel prix, alors, oui, elle parvient effectivement à faire vivre plus longtemps les malades du cancer ? Mais le but de la médecine est la guérison du malade, pas son maintien en vie avec acharnement thérapeutique. Là, c’est l’échec, malgré les milliards investis dans la recherche depuis 50 ans. Faut-il se résigner à voir dans la médecine ce qui nous amène aux chaises roulantes, au semainier avec ingestion quotidienne de pilules, à un cheminement de plus en plus chevrotant avant la tombe ? Anne-Laure Boch ne s’y est jamais résignée. Pourquoi ?

Parce que, pour elle, l’être humain n’est pas un « tas de molécules » dont il faudrait comprendre le fonctionnement pour les rendre plus performantes. Elle a noté en passant que si nous ne sommes qu’un tas de molécules, l’amour se réduit à un frottement de chairs suivis de l’émission d’un liquide gluant. Pouvons-nous encore aimer si nous sommes un tas de molécules ?

La science ne connaît que des choses, et la technique « désanime » les êtres. De plus en plus dominée par la science, la médecine est devenue une « grande découpeuse » qui coupe le corps en tranches de plus en plus fines, comme le font d’ailleurs les images produites par un scanner médical. Plus encore, ce découpage conduit aujourd’hui à des greffes d’organes qui, à terme et selon certains, devraient nous permettre de vivre des centaines d’années (pour peu que les banques d’organes s’enrichissent…) Le philosophe Jean-Luc Nancy a témoigné de son expérience de greffé du cœur et du sentiment qu’il a eu d’être devenu « autre » après son opération. Or devenir autre, c’est se sentir aliéné. La médecine moderne s’est engagée sur un chemin qui, si elle le poursuit, pourrait non seulement faire de nous des assistés en chaise roulante, mais aussi des êtres qui se sentiraient étrangers à eux-mêmes. J’entends déjà caqueter les vautours de la vie à tout prix : « Au moins ils seraient vivants ! » Une vie mortelle, peu importe comment ! Étrange caquetage, puisque cette vie, nous devrons la quitter. Anne-Laure Boch n’est pas allée aussi loin mais je crois qu’elle me pardonnera de le faire. Je ne résiste pas toujours au plaisir d’extrapoler.

Nous ne sommes pas des choses dont la destination ultime serait de fonctionner le mieux possible dans le temps et dans l’espace. Si tel était le cas, alors oui, il faudrait tout faire pour nous rendre plus performants, plus propres, plus sains. Qui serait cet homme performant dont la figure transparaît en filigrane dans toutes les injonctions à ne pas fumer, à ne pas manger de viande, à ne pas boire le gras du lait, pour… éviter le cancer, les maladies cardiovasculaires, le diabète ou même la grippe lorsqu’arrive l’automne ? Cet homme, a souligné Anne-Laure Boch, serait un « homme nouveau ». Il serait si propre, si fonctionnel que, dans l’imaginaire des peuples modernes, il  échapperait à la mort. Il suffit de se tourner vers les propositions du transhumanisme pour voir se dessiner le visage de cet homme nouveau ou surhomme. Pas tout à fait un visage encore, puisqu’il est question, dans ce transhumanisme, d’utérus artificiel ou de cerveau agrandi, mais le visage apparaîtra bien un jour. Il y a des chances pour que ce soit celui de Frankenstein, couturé de cicatrices en raison des greffes subies, le regard perdu en raison des pilules absorbées.

Voilà ce qui inquiète Anne-Laure Boch : l’image presque toute-puissante d’un homme nouveau qui a échappé à la condition humaine, à sa condition d’homme mortel. C’est cette image qui guide, oriente, soutient la médecine moderne qui a oublié sa vocation première, guérir, pour participer à une grande marche vers une nouvelle terre et de nouveaux cieux. Chacun connaît la formule prononcée aux enterrements : « tu es né de la poussière et tu redeviendras poussière ». Eh bien, pas du tout pour la médecine d’aujourd’hui qui promeut un homme nouveau ! Elle n’est pas consciente, ajouterai-je, de s’être faite le promoteur de cet homme, mais elle n’en est pas moins orientée par lui. Était-il conscient de ce qu’il promouvait, cet expert de l’OMS qui expliquait récemment que la viande rouge augmente les risques de cancer du côlon ? Il est probable qu’interrogé, il aurait nié vouloir promouvoir un homme que la mort ne limiterait plus. Pour autant, le rapport de L’OMS sur la viande rouge tueuse n’en suggérait pas moins qu’à long terme, la mort pourrait être éradiquée non seulement par les greffes d’organes mais aussi par une prévention systématique dont on devinait que, une fois mise en place, elle nous conduirait vers d’enchantés pâturages où broutent déjà les adeptes du « véganisme ».

Les gardiens ou gargouilles d’une médecine orientée par pilotage automatique vers un homme nouveau abondent. Mais il n’y a pas que cela. Anne-Laure Boch nous a rendus attentifs au fait que différentes infrastructures se sont mises en place autour de la promotion de l’homme nouveau : structures d’accueil pour la fin de vie, personnel soignant pour ces structures, industrie pharmaceutique qui renforce le mythe d’une nouvelle vie grâce au viagra et autres pilules roses.

Notre époque n’aime pas les dogmes religieux, mais elle avale tout cru le dogme du progrès en général, le dogme du progrès de la médecine en particulier. C’est contre lui qu’Anne-Laure Boch s’est élevée avec, comme bélier pour enfoncer les portes de cette nouvelle citadelle dogmatique, Ivan Illich. Ce prêtre philosophe a en effet montré combien le dogme du progrès conduit à penser que, quoi qu’il arrive, on va vers le mieux, plus de bien-être, plus de bonheur. Staline déclarait en 1936 que les Russes étaient de plus en plus heureux, juste après avoir fait mourir de faim des millions d’Ukrainiens et juste avant d’organiser des grandes purges avec des centaines de milliers d’assassinats. Mais les gens l’ont cru, tant la soif de bonheur et d’immortalité est grande en nous.

Est-ce que, parmi des déambulateurs, des chaises roulantes, des drogués au Prozac, nous continuerons à bêler notre credo sur les bienfaits de la médecine et de la recherche ?

Pour Anne-Laure Boch ce n’est pas sûr. Nous voyons grandir la proportion des gens qui préfèrent mourir plutôt que d’être pris en charge par une médecine qui risque de faire d’eux des morts-vivants. Rejoindre le cortège des chevrotants ne les tente guère. Un autre facteur est que la schizophrénie s’aggrave chez les soignants : d’un côté ils sont encouragés à manifester de la bienveillance envers les malades – d’un autre côté, on leur dit que ces mêmes malades sont un « tas de molécules ». Viendra un jour où soigner des patients « molécularisés » n’aura plus de sens. Ce jour-là, il sera peut-être possible de retrouver une médecine qui se contente de guérir plutôt que de s’acharner à faire survivre à n’importe quel prix.

Jan Marejko, 28 ocotobre 2015

00:05 Publié dans Philosophie, Science, Sciences | Lien permanent | Commentaires (0) | Tags : science, sciences, médecine, philosophie | |  del.icio.us | | Digg! Digg |  Facebook

jeudi, 20 août 2015

MIT wetenschapper: In 2025 is helft alle kinderen autistisch dankzij genvoedsel

monsanto kinderen 01.jpg

MIT wetenschapper: In 2025 is helft alle kinderen autistisch dankzij genvoedsel

Daar bovenop: CDC verwacht dat over 10 jaar 1/3 alle kinderen door vaccins aan neurologische stoornis zal lijden – CDC: Moeders moeten (tijdelijk) stoppen met borstvoeding, anders werken vaccins niet goed

Een complete generatie mensen lijkt te worden verwoest door een fatale combinatie van genetisch gemodificeerd voedsel (GMO, kortweg genvoedsel) en vaccinaties. Een hooggeplaatste wetenschapper van het gezaghebbende MIT waarschuwde eerder dit jaar dat in 2025 maar liefst de helft (!!) van alle kinderen een autistische stoornis zal hebben als gevolg van het consumeren van genvoedsel. Daar bovenop komt het recente bericht dat het Amerikaanse CDC (Centers for Disease Control) verwacht dat in datzelfde jaar minstens 1/3 van alle kinderen een neurologische stoornis zal hebben opgelopen door alle vaccinaties die worden toegediend.

Volgens MIT bioloog dr. Stephanie Seneff –die in ruim 30 jaar al meer dan 170 wetenschappelijke artikelen publiceerde- is glyfosaat, een ingrediënt van het omstreden product ‘Round-Up’ van het beruchte concern Monsanto, een van de belangrijkste veroorzakers van de autisme epidemie, die in het komende decennium een ware pandemie dreigt te worden. Het veelvuldig gebruik van glyfosaat veroorzaakt onder andere Alzheimer, autisme, kanker, hartziekten, stofwisselingstoornissen en mineralen- (zink en ijzer) en voedingsgebreken.

Over 10 jaar heeft helft alle kinderen autisme

Dr. Seneff verklaarde in het voorjaar op een conferentie dat het aantal kinderen met autisme inmiddels zo snel toeneemt, dat in 2025 –bij ongewijzigd beleid- maar liefst de helft van alle kinderen aan een autistische stoornis zal lijden, wat de Amerikaanse samenleving jaarlijks $ 400 miljard zal kosten. Op dit moment is 1 op de 68 nieuw geborenen in de VS autistisch, wat al een stijging van bijna 120% is ten opzichte van het jaar 2000.

De MIT wetenschapper wees erop dat de symptomen van glyfosaat vergiftiging sterk lijken op die van autisme. Ook had ze een consistent verband gevonden tussen het gebruik van het bestrijdingsmiddel Round-Up (en het creëren van ‘Round-Up-ready’ genetisch gemodificeerde gewassen) en de sterke stijging van kinderen met autisme.

Glyfosaat zit in bijna alles

In de VS zijn zo goed als alle graan- en sojaproducten genetisch gemodificeerd en daarom besmet met Round-Ups glyfosaat. Hetzelfde geldt voor bijna alle soorten voedsel waarin graan/maïs en soja is verwerkt, inclusief frisdranken met veel fructose, stroop, chips, cornflakes, snoep en sommige soja-proteïne repen. Bovendien krijgen runderen en ander vee vaak genvoedsel te eten, waar eveneens sporen van glyfosaat in zitten.

Ook tarwe wordt vlak voor de oogst in veel gevallen besproeid met Round-Up chemicaliën, wat betekent dat brood en broodproducten eveneens niet veilig zijn, tenzij ze uitdrukkelijk ‘niet GMO’ en/of ‘organisch’ op het etiket hebben staan.

Niet afzonderlijk product, maar optelsom is fataal

Het komt er dus op neer dat de Amerikanen –en dankzij de EU straks ook de Europeanen- bijna niet kunnen ontkomen aan het consumeren van voedsel en dranken waarin glyfosaat is verwerkt, waarvan aangetoond is dat het diverse stoornissen en ernstige ziekten veroorzaakt. Dr. Seneff zei dat de hoeveelheid glyfosaat in ieder afzonderlijk product weliswaar niet groot is, maar dat het de optelsom is van talloze geconsumeerde ‘GMO’ producten die fataal is – zozeer, dat sommige zwangere vrouwen zelfs glyfosaat in hun bloed, urine en foetuscellen hebben. (1)

CDC: Borstvoeding slecht voor vaccins

Bij dit ronduit schokkende nieuws kwam recent nog eens het bericht van het Amerikaanse CDC (Centers for Disease Control) dat over 10 jaar minstens 1/3 van alle kinderen een neurologische stoornis zal hebben opgelopen door alle vaccinaties die worden toegediend (2). Desondanks adviseert datzelfde CDC dat moeders het geven van borstvoeding rond de tijd dat hun baby wordt gevaccineerd tijdelijk zouden moeten opgeven, omdat de immuun versterkende cellen in borstmelk de virusdeeltjes in ieder vaccin aanvallen, waardoor het vaccin mogelijk minder effectief wordt.

Critici wijzen erop dat dit CDC-onderzoek enkel bewijst dat het immuunsysteem van baby’s, als dat wordt ondersteund en versterkt door borstvoeding, uitstekend in staat is om zichzelf te verdedigen, en zo’n vaccin dus helemaal niet nodig is. Als het CDC niet zo afhankelijk zou zijn van de grote farmaceutische bedrijven, die jaarlijks miljarden verdienen aan het produceren van onbewezen en overbodige –en veelal schadelijke- vaccins, dan zouden moeders ongetwijfeld nooit het krankzinnige advies krijgen om te stoppen met het geven van immuun versterkende borstvoeding. (3)

Xander

(1) Infowars
(2) Infowars
(3) Infowars

Zie ook o.a.:

05-06: EU moet zwaar giftige chemicaliën toelaten door vrijhandelsakkoord met VS
30-04: Nieuwe wet Californië: Niet gevaccineerde kinderen mogen niet meer naar school
11-11: Artsenorganisatie: VN steriliseert miljoenen vrouwen in Kenia met tetanus vaccin
28-09: Gevaarlijk virus treft enkel gevaccineerde kinderen in VS en Canada (/ Recente onderzoeken bewijzen dat gezondheid fors en permanent wordt beschadigd door vaccins)
26-09: Nieuw onderzoek: Autisme en leukemie door cellen geaborteerde baby’s in vaccins
06-09: CDC wetenschapper erkent verband vaccins en autisme

dimanche, 21 juin 2015

Claude Reiss : "Aucune espèce n'est un modèle biologique pour une autre."

TVL - Claude Reiss :

"Aucune espèce n'est un modèle biologique pour une autre."

00:05 Publié dans Ecologie | Lien permanent | Commentaires (0) | Tags : écologie, biologie, sciences, sciences biologiques | |  del.icio.us | | Digg! Digg |  Facebook

dimanche, 17 mai 2015

L’ADN des Britanniques est moins saxon, moins viking et moins celte qu’on ne croit

L’ADN des Britanniques est moins saxon, moins viking et moins celte qu’on ne croit

Ex: http://www.breizh-info.com

genetiquepopubritannique-810x440.jpg

Des groupes génétiques bien identifiés et différenciés

Édimbourg (Breizh-info.com)

La prestigieuse revue Nature a publié récemment une étude passionnante sur les origines génétiques de la population britannique, The fine-scale genetic structure of the British population. Œuvre d’une solide équipe de chercheurs(1) de l’University of Oxford, de l’University College London et du Murdoch Childrens Research Institute (Australie) emmenée par le statisticien Stephen Leslie, elle repose sur une analyse détaillée de l’ADN de 2 039 britanniques « de souche ». Des comparaisons avec des prélèvements provenant de 6 209 personnes de dix pays voisins ont permis de mettre en évidence leurs liens avec d’autres populations européennes.

L’étude a montré une relative homogénéité de la population du sud et du centre de l’Angleterre. Cependant, les Saxons représentent moins de la moitié de l’ascendance de cette population – plus probablement entre 10 et 40 %, soit moins qu’on ne le pensait jusque-là compte tenu des bouleversement apportés dans la langue, les noms de lieux et l’agriculture par les invasions saxonnes. Malgré leur longue présence attestée, les Vikings auraient laissé très peu de traces génétiques, sauf dans les Orcades, qui ont fait partie de la Norvège de 875 à 1472 ; et même là, leur place dans le « profil ancestral » des habitants actuels ne dépasse pas 25 %.

En revanche, trois groupes de populations européennes ont apporté une contribution spécialement importante au peuplement actuel ; ils se situent en Allemagne de l’ouest, en Flandres et dans le nord-ouest de la France. Ce dernier groupe est spécialement apparenté aux populations du Pays de Galles, d’Irlande du Nord et d’Écosse de l’ouest.

Faut-il y voir la trace d’un unique peuplement celtique des deux côtés de la Manche ? Sur ce point, les auteurs de l’étude sont clairs : « nous n’avons constaté aucune évidence d’une population ‘celtique’ générale dans les parties non saxonnes du Royaume-Uni ». De nombreux groupes génétiques distincts voisinent en Irlande du Nord, en Écosse et au Pays de Galles. Les populations galloises apparaissent comme les plus proches des premiers occupants de la Grande-Bretagne installés au Royaume-Uni après la dernière ère glaciaire. Le profil ancestral de la Cornouaille est très différent de ceux du Pays de Galles mais proche de celui du Devon.

On espère qu’une étude du même genre viendra éclairer la génétique de la population bretonne avant que les migrations et l’immigration contemporaines ne l’aient rendue illisible.

_____________

(1) Stephen Leslie, Bruce Winney, Garrett Hellenthal, Dan Davison, Abdelhamid Boumertit, Tammy Day, Katarzyna Hutnik, Ellen C. Royrvik, Barry Cunliffe, Wellcome Trust Case Control Consortium, International Multiple Sclerosis Genetics Consortium, Daniel J. Lawson, Daniel Falush, Colin Freeman, Matti Pirinen, Simon Myers, Mark Robinson, Peter Donnelly, Walter Bodmer

Illustration : extrait partiel d’une figure de l’étude Fortune
[cc] Breizh-info.com, 2015, dépêches libres de copie et diffusion sous réserve de mention de la source d’origine.

lundi, 16 mars 2015

The HIV/AIDS Hypothesis

 

 

aids8623f91f8bb.jpg

Fallacies in Modern Medicine: The HIV/AIDS Hypothesis

By

Ex: http://www.lewrockwell.com

This commentary was published in the Journal of American Physicians and Surgeons Volume 20, Number 1, Pages 18-19, Spring 2015.

Modern medicine has spawned great things like antibiotics, open heart surgery, and corneal transplants. And then there is antiretroviral therapy for HIV/AIDS.

A civic-minded, healthy person volunteers to donate blood but, tested for HIV (human immunodeficiency virus), is found to be HIV-positive. This would-be donor will be put on a treatment regimen that follows the (285-page) Guidelines for the Use of Antiretroviral Agents in HIV-1-Infected Adults and Adolescents [1] and will be thrust into a medical world peppered with acronyms like CD4, ART, HIV RNA, HIV Ag/Ab, NRTI, NNRTI, PI, INSTI, PrEP, and P4P4P.

Adhering to these government-issued guidelines, a “health care provider” will start this healthy blood donor on antiretroviral therapy (ART). For the last two decades the standard for treating HIV infection is a three-drug protocol—“2 nukes and a third drug.” The “2 nukes” are nucleoside reverse transcriptase inhibitors (NRTI) and DNA chain terminators, like AZT (azidothymidine – Retrovir, which is also a NRTI). The “third drug” is a non-NRTI (NNRTI), a protease inhibitor (PI) or an integrase strand transfer inhibitor (INSTI). [2]

These drugs are toxic. With prolonged use they can cause cardiovascular disease, liver damage, premature aging (due to damage of mitochondria), lactic acidosis, gallstones (especially with protease inhibitors), cognitive impairment, and cancer. The majority of people who take them experience unpleasant side effects, like nausea, vomiting, and diarrhea.

AZT, the most powerful “nuke” in the ART arsenal actually killed some 150,000 “HIV-positive” people when it started being used in 1987 to the mid-1990s, after which, if the drug was used, dosage was lowered. [3] When an HIV-positive person on long-term ART gets cardiovascular disease or cancer, providers blame the virus for helping cause these diseases. Substantial evidence, however, supports the opposite conclusion: it is the antiretroviral treatment itself that causes cancer, liver damage, cardiovascular and other diseases in these patients. [3] They are iatrogenic diseases.

The orthodox view holds that HIV causes AIDS (acquired immunodeficiency syndrome)—one or more of an assemblage of now 26 diseases. Reinforcing this alleged fact in the public’s mind, the human immunodeficiency virus is no longer just called HIV, it is now “HIV/AIDS.”

A new development in HIV care, called preexposure prophylaxis (PrEP), promotes universal coverage with antiretroviral drugs to prevent HIV infections, based on the tenet that prevention is the best “treatment.” Given their unpleasant side effects, however, many people stop taking their antiretroviral drugs. An answer for that in the HIV/AIDS-care world is addressed by its P4P4P acronym (pay for performance for patients). With P4P4P, now under study, patients are given financial incentives to encourage them to keep taking the drugs. [2]

Could the hypothesis that the multi-billion-dollar HIV/AIDS medical-pharmaceutical establishment bases its actions on be wrong? In 1987, Peter Duesberg, a professor of molecular and cell biology at the University of California, Berkeley, who isolated the first cancer gene, and in 1970 mapped the genetic structure of retroviruses, published a paper in Cancer Research questioning the role of retroviruses in disease and the HIV/AIDS hypothesis in particular [4]. Then, in 1988, he published one in Science titled “HIV is Not the Cause of AIDS.” [5] As a result, Dr. Duesberg became a pariah in the retroviral HIV/AIDS establishment, which branded him a “rebel” and a “maverick.” Colleague David Baltimore labeled him “irresponsible and pernicious,” and Robert Gallo declared his work to be “absolute and total nonsense.”

Skeptics of the HIV/AIDS hypothesis are chastised and subjected to ad hominem attacks. Anyone who questions this hypothesis is now branded an “AIDS denier,” which is analogous to being called a Holocaust denier. Nevertheless, non-orthodox scholars have been questioning the HIV/AIDS paradigm for thirty years; and now, in the 21st century, as Rebecca Culshaw puts it, “there is good evidence that the entire basis for this theory is wrong.” [6]

A key feature of the HIV/AIDS hypothesis is that the virus is sexually transmitted. But only 1 in 1,000 acts of unprotected intercourse transmits HIV, and only 1 in 275 Americans is HIV-positive!  Drug-free prostitutes do not become HIV-positive, despite their occupation. [3,7]

HIV is said to cause immunodeficiency by killing T cell lymphocytes. But T cells grown in test tubes infected with HIV do not die. They thrive. And they produce large quantities of the virus that laboratories use to detect antibodies to HIV in a person’s blood. HIV infects less than 1 in every 500 T cells in the body and thus is hard to find. The HIV test detects antibodies to it, not the virus itself. For these and other reasons a growing body of evidence shows that the HIV theory of AIDS is untenable. [7]

A positive HIV test does not necessarily mean one is infected with this virus. Flu vaccines, hepatitis B vaccine, and tuberculosis are a few of the more than 70 things that can cause a false-positive HIV test. In healthy individuals, pregnancy and African ancestry conduce to testing HIV positive. In some people a positive test may simply indicate (without any virus) that one’s immune system has become damaged, from heavy recreational drug use, malnutrition, or some other reason. [8]

If HIV does not cause AIDS, then what does? The classic paper on AIDS causation, published in 2003 by Duesberg et al., implicates recreational drugs, anti-viral chemotherapy, and malnutrition. [9]

If the theory is wrong, how can it persist? In a review of The Origin, Persistence, and Failings of the HIV/AIDS Theory by Henry Bauer, the late Joel Kaufman writes:

“One of the most difficult things to write is a refutation of a massive fraud, especially a health fraud, in the face of research cartels, media control, and knowledge monopolies by financial powerhouses… The obstacles to dumping the dogma are clearly highlighted as Dr. Bauer discusses the near impossibility of having so many organizations recant, partly because of the record number of lawsuits that would arise.” [10]

Henry Bauer, professor emeritus of chemistry and science studies and former dean of the Virginia Tech College of Arts and Sciences, also presents a concisely reasoned refutation of the HIV/AIDS hypothesis in a 28-page online study, “The Case Against HIV,” with 51 pages of references—now 896 of them, which he continually updates. [3]

In a review of Harvey Bialy’s book, Review of Oncogenes, Aneuploidy, and AIDS: A Scientific Life and Times of Peter Duesberg, my colleague Gerald Pollack, professor of bioengineering at the University of Washington, writes:

“The book reminds us that although over $100 billion has been spent on AIDS research, not a single AIDS patient has been cured—a colossal failure with tragic consequences. It explains in too-clear terms the reasons why AIDS research focuses so single-mindedly on this lone hypothesis to the exclusion of all others: egos, prestige, and money. Mainstream virologists have assumed the power of the purse, and their self-interests (sometimes financial), propel them to suppress challenges. This is not an unusual story: challenges to mainstream views are consistently suppressed by mainstream scientists who have a stake in maintaining the status quo. It’s not just Semmelweis and Galileo, but is happening broadly in today’s scientific arena.” [11]

Adhering to the erroneous hypothesis that HIV causes AIDS, the U.S. government spends billions of dollars annually on HIV/AIDS programs and research—$29.7 Billion for fiscal year 2014. It is a waste of money. It fleeces taxpayers and enriches the HIV/AIDS medical establishment and the pharmaceutical companies that make antiretroviral drugs. The annual cost of HIV care averages $25,000-$30,000 per patient, of which 67-70 percent is spent on antiretroviral drugs. [2]

The tide is beginning to turn, as evidenced in the Sept 24, 2014, publication by Patricia Goodson of the Department of Health and Kinesiology at Texas A&M University. She notes that “the scientific establishment worldwide insistently refuses to re-examine the HIV-AIDS hypothesis,” even while it is becoming increasingly “more difficult to accept.” She writes:

“This paper represents a call to reflect upon our public health practice vis-à-vis HIV-AIDS… The debate between orthodox and unorthodox scientists comprises much more than an intellectual pursuit or a scientific skirmish: it is a matter of life-and-death. It is a matter of justice. Millions of lives, worldwide, have been and will be significantly affected by an HIV or AIDS diagnosis. If we – the public health work force – lose sight of the social justice implication and the magnitude of the effect, we lose ‘the very purpose of our mission.’” [12]

Despite its long-term, widespread acceptance, the HIV/AIDS hypothesis is proving to be a substantial fallacy of modern medicine.

REFERENCES

  1. These Guidelines are available at: http://aidsinfo.nih.gov/contentfiles/lvguidelines/adultandadolescentgl.pdf . Accessed Dec 15, 2014.
  2. “10 Changes in HIV Care That Are Revolutionizing the Field,” John Bartlett (December 2, 2013) Available at: http://www.medscape.com/viewarticle/814712 . Accessed Dec 15, 2014.
  3. The Case Against HIV, collated by Henry Bauer. Available at: http://thecaseagainsthiv.net/ . Accessed December 15, 2014
  4. Duesberg PH. Retroviruses as Carcinogens and Pathogens: Expectations and Reality. Cancer Research. 1987;47:1199-1220.
  5. Duesberg PH. HIV is Not the Cause of AIDS. 1988;241:514-517. Available at: http://www.duesberg.com/papers/ch2.html   Accessed Dec 15, 2014.
  6. Culshaw R. Science Sold Out: Does HIV Really Cause AIDS?, Berkeley, CA: North Atlantic Books; 2007.
  7. Bauer H. The Origin, Persistence and Failings of HIV/AIDS Theory, Jefferson, NC: McFarland; 2007.
  8. Duesberg PH. Inventing the AIDS Virus, Washington, D.C.: Regnery Publishing; 1996.
  9. Duesberg PH, Koehnlein C, Rasnick D. The Chemical Basis of the Various AIDS Epidemics: Recreational Drugs, Anti-viral Chemotherapy, and Malnutrition. J Biosci 2003;28:384-412. Available at: http://www.duesberg.com/papers/chemical-bases.html. Accessed Dec 15, 2014.
  10. Kauffman JM. Review of The Origin, Persistence, and Failings of the HIV/AIDS Theory, by Henry H. Bauer, Jefferson, NC, McFarland, 2007. J Am Phys Surg. 2007;12:121-122.
  11. Pollack G. Statement on HIV/AIDS at: http://www.aras.ab.ca/aidsquotes.htm Accessed Dec 15, 2014.
  12. Goodson P. Questioning the HIV-AIDS hypothesis: 30 years of dissent. Frontiers in Public Health. 2014; 2[Article 154]: 1-11. Available at: http://journal.frontiersin.org/Journal/10.3389/fpubh.2014.00154/full . Accessed Dec 15, 2014.

00:05 Publié dans Sciences | Lien permanent | Commentaires (0) | Tags : sciences, sida, aids, médecine | |  del.icio.us | | Digg! Digg |  Facebook

mardi, 13 janvier 2015

Benutzt euer Gehirn!

spitzer.jpg

Benutzt euer Gehirn!

von Moritz Scholtysik

Ex: http://www.blauenarzisse.de

Der bekannte Gehirnforscher Manfred Spitzer warnt in seinem Buch vor „digitaler Demenz“. Und erklärt Ursachen und Folgen. Neu ist nicht alles – aber wichtig.

Digitale Medien sind ein fester Bestandteil unseres Lebens. Kaum einer mag noch bestreiten, dass sie keine Auswirkungen auf unser Denken und Handeln hätten. Die Frage ist nur: Sind sie positiv oder negativ zu bewerten? Für das populärwissenschaftliche Magazin Geo steht jedenfalls fest: „Digital macht schlau!“

Allerdings ist auch Kritik an der Elektronisierung aller Lebensbereiche nicht selten – vor allem in kultureller Hinsicht. Spitzer argumentiert seinem Beruf entsprechend vor allem aus psychologischer und medizinischer Perspektive. Gerade der in den Neurowissenschaften Unkundige erfährt in Digitale Demenz Grundlegendes über die Funktionsweise des Gehirns – auf bewusst einfache Weise.

Wesentliches statt Multitasking

Spitzer entlarvt zwei hartnäckige Mythen: Zum einen den der „Digital Natives“, dieser vermeintlichen „Generation von digitalen Wunderkindern“. Sie gebe es nicht. Diese Generation sei mehr von Bildungsverfall als von Medienkompetenz gekennzeichnet. Zum anderen wendet sich Spitzer den angeblichen Vorzügen des Multitaskings zu: Dieses führe zu Störungen der Selbstkontrolle sowie zu „Oberflächlichkeit und Ineffektivität“. Des Psychiaters Appell: „Konzentrieren wir uns lieber ganz auf das Wesentliche!“

Apropos Selbstkontrolle: Diese gehe bei übermäßigem Konsum digitaler Medien verloren, was mit Stress gleichzusetzen sei und zu Aufmerksamkeitsstörungen sowie mehreren chronischen Erkrankungen führen könnte. Beispiele sind Sucht, Schlaflosigkeit, Übergewicht, Probleme im Herz-​Kreislauf-​System, Demenz. Bei all diesen Erläuterungen und Ausführungen spricht Spitzer immer wieder mögliche Einwände und Fragen an und vermeidet meist allzu komplizierte Formulierungen und Fachtermini.

spitzerttttyyyy.jpg

Keine Laptops für Schulen

Spitzer, Leiter der Psychiatrischen Universitätsklinik in Ulm und des Transferzentrums für Neurowissenschaften und Lernen, ist vielen Lesern bereits durch sein Buch Vorsicht Bildschirm! und zahlreiche Fernsehauftritte bekannt. In Digitale Demenz zeigt er auf, dass sich unser Gehirn durch dessen Nutzung, also durch Lernen, an den sogenannten Synapsen verändert. Dies führe zu einem Wachstum einzelner, spezialisierter Bereiche. Gebrauche man sie jedoch nicht, verkümmerten sie. Unser geistiges Leistungsvermögen hänge also von unserer geistigen Betätigung ab. Und wir lernten besser, je mehr und je tiefer wir uns mit dem Gegenstand des Lernens auseinandersetzten. Computer jedoch nähmen uns viel geistige Arbeit ab und ließen uns oberflächlicher lernen. Die Verfügbarkeit gespeicherter Daten führe zudem dazu, dass wir uns sie weniger merkten. Spitzer verwirft daher auch den vielfach forcierten und teuren Plan, Schulen mit Laptops und Smartboards, also digitalen Tafeln, auszurüsten.

Teletubbies und „Killerspiele“

Bei Kindern und Jugendlichen steht vor allem die private Nutzung von Computer und Internet im Vordergrund. Darunter können nicht nur die Schulnoten leiden, sondern auch eine gesunde Entwicklung des noch nicht ausgereiften Sozialverhaltens. Es klingt ironisch, wenn Letzteres gerade durch die sogenannten sozialen Netzwerke gefährdet sei. Als mögliche Folgen nennt Spitzer „mangelnde Selbstregulation, Einsamkeit und Depression“. Auch die Kleinsten seien von den negativen Auswirkungen betroffen. „Baby-​TV“ störe die Sprachentwicklung und Computernutzung im Vorschulalter beeinträchtige die Lese– und Schreibfähigkeit.

In den letzten Jahren wurde besonders kontrovers über die Auswirkungen von Computerspielen, insbesondere der Ego-​Shooter, diskutiert. Spitzer weist als Folge dieser Spiele „zunehmende Gewaltbereitschaft, Abstumpfung gegenüber realer Gewalt, soziale Vereinsamung und eine geringere Chance auf Bildung“ nach. Es mag ihn bestätigen, wenn die Reaktionen auf diese Erkenntnis oftmals aggressiv und beleidigend ausfallen – wie viele Kommentare im Netz zeigen.

Nichts neues, aber grundlegend

In den letzten beiden Kapiteln des Buches lässt Spitzer etwas nach: Er wiederholt sich, betont zu oft die Wissenschaftlichkeit der von ihm vorgestellten Studien und wird bei seiner Kritik an Politikern polemisch. Andererseits kann man diesen Ärger gut nachvollziehen, kennt man doch deren Untätigkeit aktuell aus vielen anderen Bereichen.

Er schließt das Buch jedoch gelungen, indem er einige praktische Tipps zur Prävention des geistigen wie körperlichen Abstieges gibt, den digitale Medien mitverursachen. Neben der einleuchtenden Empfehlung, diese zu meiden, schlägt er unter anderem gesunde Ernährung, tägliche körperliche Bewegung, Singen, den bewussten Genuss von Musik und den Gang in die freie Natur vor. Nichts wirklich neues, aber grundlegend.

Manfred Spitzer: Digitale Demenz. Wie wir uns und unsere Kinder um den Verstand bringen. Taschenbuch. 368 Seiten. München: Droemer Knaur 2014. 12,99 Euro.

spitzermeiden2b.jpg

Du bioconservatisme

 

a27d5d3e-1a0f-11e2-883b-e657627aa696-493x328.jpg

Du bioconservatisme

par Georges FELTIN-TRACOL

 

 

L’histoire des idées politiques contemporaines en Europe et en Amérique du Nord insiste sur la très grande plasticité sémantique du « conservatisme ». Si, pour François Huguenin, le conservatisme est impossible en France (1), celui-ci diffère tant aux États-Unis qu’en Grande-Bretagne, en Allemagne, en Espagne ou en Italie (2). Chaque conservatisme suit la spécificité de son esprit national et de son époque. Par exemple, le conservatisme de l’Anglais Disraeli, tenant d’une alliance entre le peuple et la Couronne, n’est pas celui, oligarchique et sociétaliste, du fade et incapable David Cameron qui légalise le mariage pour tous, promeut l’atlantisme et encourage le multiculturalisme de marché. En Allemagne, le conservatisme organique de Bismarck ne correspond ni au « jeune-conservatisme » inclus dans la Révolution conservatrice du temps de Weimar, ni au pseudo-conservatisme chrétien d’une Angela Merkel, véritable tenancière pour le parrain yankee de l’ergastule soi-disant européen.

 

Il est donc très difficile de définir le conservatisme hors de tout contexte socio-historique précis. Et voilà que dans le cahier scientifique du Monde, un chirurgien urologue belge, Laurent Alexandre, range le député Vert français au Parlement européen José Bové parmi les « ultra-bioconservateurs (3) » ! Laurent Alexandre est très certainement un médecin émérite, expert dans son domaine. En revanche, dès qu’il quitte son champ de compétence professionnelle pour s’aventurer dans le monde des idées, son avis n’est que celui d’un citoyen lambda. S’il catalogue ainsi l’action de l’ancien éleveur du Larzac, c’est parce que son propos se veut assez favorable au transhumanisme. « Plutôt transhumains que morts devient notre devise, s’exclame-t-il (4) ! » Parce que « la manipulation technologique de l’homme a déjà bien commencé, […] des rapprochements inattendus apparaissent. Ainsi, José Bové était jusqu’à présent un militant d’extrême gauche. Dans le nouvel ordre biopolitique, il se retrouve, avec les catholiques intégristes, parmi les ultra-bioconservateurs. Il est résolument contre la fécondation in vitro (F.I.V.) pour les couples hétérosexuels stériles ou homosexuels et il s’oppose aux thérapies géniques pour le traitement des maladies génétiques. Il a déclaré, le 1er mai 2014, sur la chaîne catholique KTO : “ Je crois que tout ce qui est manipulation sur le vivant, qu’il soit végétal, animal et encore plus humain, doit être combattu ” (5) ».

 

Cette prise de position a surpris le petit milieu des Verts. Elle est pourtant conforme au personnage, méfiant envers toute technique. Rares sont ceux qui savent que José Bové a écouté au sein d’un cénacle libertaire informel bordelais entre 1971 et 1973 le philosophe, théologien protestant et professeur d’histoire du droit Jacques Ellul (1912 – 1994). Le journaliste Jean-Luc Porquet qualifie d’ailleurs le syndicaliste paysan d’« Ellul mis en pratique (6) ». À travers une remarquable trilogie philosophique, Ellul avertit ses contemporains de la nature profonde de la tekné (7).

 

En 2003, alors secrétaire exécutive du conseil du développement durable de l’U.M.P., le député de l’Essonne, Nathalie Kosciusko – Morizet qui prétend admirer l’œuvre de la philosophe Simone Weil dont son essai magistral L’Enracinement, osait déclarer que « parler de la France réelle, comme le fait Bové, a des relents d’idéologie maurrassienne (8) ». Avant Patrick Buisson et peut-être bientôt l’arriviste ponot droitard Laurent Wauquiez, Bové se voyait assimilé à un disciple du penseur de Martigues… Gageons que l’ineffable N.K.M. n’a jamais pris la peine d’ouvrir le moindre livre de Maurras, pas même L’Avenir de l’intelligence. Peut-être par crainte de se retrouver dépassée, submergée, engloutie par les analyses remarquables de cet essai majeur écrit en 1905 ?

 

José Bové aurait pu se voir reproché bien plus. En effet, au printemps 2002, il a estimé que « la résistance menée par les chouans était légitime et juste. Si j’avais été à ce moment-là en Vendée, j’aurais été chouan (9) ». C’est au fond somme toute logique puisqu’il veut d’abord et avant tout « se battre contre la mondialisation et faire avancer le droit pour les paysans et pour les peuples de se nourrir comme ils l’entendent (10) ». Cette affirmation d’attachement au sol, à la terre, aux terroirs est gaussée et minorée par un Britannique, un certain Robert Acroyd qui avance « que vous, les Français, vous êtes pour nous des paysans. Pour les Anglais, les Français sont des bouseux accrochés à leur lopin de terre, anxieux de l’agrandir par tous les moyens. Prêts à tuer frère, oncle, neveu, nièce pour quelques arpents. […] Les Anglais, eux, se voient avant tout comme des marins. Ils ont sillonné les mers, grimpé dans les cordages par gros temps, pris les vaisseaux ennemis à l’abordage. Les Anglais ont d’eux-mêmes l’image d’un peuple viril. Un peuple de guerriers qui se moque de vous parce que vos ancêtres étaient des serfs attachés à la plèbe (11). » Les Rosbifs, un peuple de guerriers ? Surtout des couards, inventeurs de l’embargo économique, du droit comme arme de guerre totale et du bombardement aérien de terreur…

 

Certaines causes défendues par José Bové sont de facto des combats conservateurs en faveur de la préservation de toutes les formes naturelles du vivant. « Depuis la création des O.G.M. et des animaux transgéniques à la fin du XXe siècle, écrit Yves Eudes, on sait que l’unité fondamentale du vivant permet des mélanges entre toutes les créatures, même les plus éloignées sur la chaîne de l’évolution. En théorie, un humain pourrait donc être doté d’une vue aussi perçante qu’un aigle, de l’odorat d’un chien de chasse, de l’ouïe d’un lièvre, de la force d’un orang-outang ou de la faculté de navigation d’un oiseau migrateur (12). » Il faut rapprocher le fantasme transhumaniste à une réflexion de Trotsky qui vécut aux États-Unis, d’où le tropisme américanocentré inhérent aux trotskistes. Dans une société future surgie de la « Révolution communiste mondiale », le fondateur de la IVe Internationale se félicitait par avance que « l’homme sera plus fort, beaucoup plus perspicace, beaucoup plus fin. Son corps sera plus harmonieux, ses mouvements plus rythmiques, sa voix plus musicale. La moyenne humaine s’élèvera au niveau d’Aristote, de Gœthe, de Marx. Et au-dessus de cette crête de montagne s’élèveront de nouveaux sommets (13) ».

 

Certes, « il n’y a plus de conservateurs, objecte Pierre Drieu la Rochelle, parce qu’il n’y a plus rien à conserver. Religion, famille, aristocratie, toutes les anciennes incarnations du principe d’autorité, ce n’est que ruine et poudre (14) ». Et pourtant ! Il y a encore à conserver la vie, les milieux naturels, les paysages sans lesquels toute communauté humaine s’étiolerait définitivement. Si le conservatisme politique a failli, a trahi et rallié le Progrès mortifère, une nouvelle réponse adaptée émerge : le bioconservatisme, ultra ou non. Sous ce nouveau vocable devraient se rejoindre l’identitaire et l’écologiste. « L’écologiste comme l’identitaire ont des approches en “ contexte ”. Une volonté d’assurer, de respecter ou de s’inspirer des permanences (traditions, coutumes, équilibres naturels, etc.). L’inverse exact de l’utopie (u-topos : sans le lieu). L’un et l’autre sont des conservateurs face à un monde qui se détruit, perd de sa grâce, de sa beauté, de sa mémoire chaque jour. La synthèse de ces deux sensibilités semble évidente (15). »

 

Ce rapprochement, plus que souhaitable, est proprement révolutionnaire et donc réfractaire aux hochets et autres sinécures brandis par le Système qui a su si bien apprivoiser l’extrême gauche du Capital. Une inclination conservatrice et/ou identitaire apparaît parfois au sein de certains courants écologistes. Les Français connaissent-ils Winfried Kretschmann ? Depuis mai 2011, grande première en Allemagne !, ce Vert est le ministre-président du Land du Bade-Wurtemberg. Catholique convaincu, professeur d’éthique en retraite et chef de file des « réalistes » au sein de son parti, il estimait que « les Verts n’ont pas besoin de devenir conservateurs pour remporter les élections du Bade-Wurtemberg. Nous sommes conservateurs. Notre ambition est de préserver la planète. Notre programme d’énergies renouvelables est une révolution industrielle. Nous voulons faire de notre pays le modèle d’une modernisation basée sur un développement durable. Cela ne concerne pas que l’écologie, mais également la finance, le système social et la démographie. Ce sont des concepts qui privilégient le long terme, constituent notre éthique et nous distinguent des autres partis. Nous sommes donc conservateurs mais pas dans le sens habituel du monde politique. […] Avec notre “ green new deal ”, nous sommes bien plus proches de ce tissu de P.M.E. qui constituent le Mittelstand allemand que les partis conservateurs (16) ». Le 30 novembre dernier, les électeurs suisses se prononçaient sur une votation intitulée « Halte à la surpopulation – Oui à la préservation durable des ressources naturelles » qui proposait une limitation de l’immigration nette en Suisse à un taux de 0,2 % par an en moyenne afin de protéger la nature et de limiter le besoin en constructions nouvelles. Cette initiative populaire revenait au groupe Écopop (Écologie et Population). La consultation ne reçut l’approbation d’aucun parti politique, pas même l’U.D.C., cette incarnation des nationaux-pétochards. Elle fut rejetée par 74 % des électeurs. Les médiats, bien sûr, désinformèrent énormément. Ainsi peut-on lire que  « les experts s’évertuent de démontrer qu’immigration et dégradation de l’environnement ne sont pas liés et que l’économie a besoin de main-d’œuvre étrangère (17) ». Un gigantesque mensonge soutenu et approuvé par les libéraux dont Nicolas Lecaussin de l’Institut de recherches économiques et fiscales (18).

 

La convergence de l’écologie, du « conservatisme » culturel, de la cause identitaire et de la réfutation du libéralisme constitue une magnifique occasion de renouvellement des idées à un moment où « certains mouvements révolutionnaires, remarque Christophe Bourseiller, semblent avoir fait le deuil de la révolution et se perçoivent davantage comme des forces réformatrices, ou des laboratoires d’idées. De même, l’altermondialisme, produit de l’extrême gauche, n’est en réalité qu’un courant réformateur, appelant de ses vœux ce que Raoul Vaneigem nomme un néo-capitalisme régulé par l’éthique (19) ». Le positionnement bioconservateur de José Bové n’est pas qu’écologique, il est aussi politique puisque, à l’instar des premiers conservateurs nourris aux penseurs de la Contre-Révolution, il estime que la logique interne de l’État est, aujourd’hui, « totalement dictée par l’économie. Ceux qui gèrent se voient imposer d’énormes contraintes. L’État n’est plus le lien des réponses aux questions que nous nous posons : les organismes génétiquement modifiés, la modification des règles de l’O.M.C. et leur réappropriation par les  citoyens. L’État-nation peut disparaître, cela ne changera pas grand-chose (20) ».

 

Plus que révolutionnaire, on perçoit vite que ce bioconservatisme se veut radical. Pour l’ancien situationniste exclu, ex-« Enragé de Nanterre », aujourd’hui proche de L’Encyclopédie des Nuisances, René Riesel, « radical » signifie « prendre les choses à la racine, c’est critiquer les bases techno-scientifiques de la société moderne, comprendre la parenté idéologique profonde entre le progressisme politique ou social (c’est-à-dire la “ mentalité de gauche ” telle que la définit Theodore Kaczynski) et le progressisme scientifique. L’industrialisation est depuis la “ révolution industrielle ” en Angleterre une rupture absolument fondamentale avec l’essentiel du processus d’humanisation. Sans civilisation paysanne, c’est la civilisation tout court qui se défait, on le constate aujourd’hui (21) ». Naguère responsable de la Confédération paysanne qu’il quitta dès 1999 en désaccord complet avec Bové qu’il qualifie de « clown à moustaches », Riesel considère dorénavant la lutte du Larzac comme « l’avant-garde de la domestication, une distribution de Prozac généralisée (22) ».

 

Toutefois, chantre des souverainetés alimentaire, agricole et énergétique, José Bové persiste paradoxalement à souhaiter une autre mondialisation et des sociétés ouvertes aux flux migratoires. Or, au soir de sa vie, Jacques Ellul lui-même s’interrogeait sur les étrangers immigrés qui « exécutent souvent un travail que les Français ne voudraient plus faire les besognes les plus pénibles ou les plus répugnantes, si bien qu’ils sont des “ pauvres ” (même s’ils ont assez d’argent pour en envoyer à leurs familles restées dans le pays d’origine, on le sait parfaitement). Ce sont les pauvres de notre société d’opulence (quoique, le fait est remarquable, on n’en trouve pas chez les “ clochards ”) (23) ». Par un parallélisme étonnant, des analyses de Jacques Ellul se recoupent avec certaines réflexions du sociologue Jules Monnerot. « On pouvait être tranquille tant que le tiers monde n’avait pas d’idéologie mobilisatrice. Une révolte anticoloniale de tel ou tel pays, ce n’était pas très grave. Mais maintenant, le tiers monde est muni d’une idéologie puissante mobilisatrice, l’islam. Celui-ci a toutes les chances de réussir contrairement au communisme qui était encore importé d’Occident. Et c’est pourquoi le communisme échoue peu à peu dans les pays d’Amérique latine qui l’avaient adopté […]. Au contraire, l’islam est du tiers monde. Il gagne à une vitesse extraordinaire toute l’Afrique noire, il mord de plus en plus largement en Asie. Or, c’est une idéologie à la fois unificatrice, mobilisatrice, et combattante. À partir de ce moment, nous allons être engagés dans une véritable guerre menée par le tiers monde contre les pays développés. Une guerre qui s’exprimera de plus en plus par le terrorisme, et aussi par “ l’invasion pacifique ”. […] Et en même temps se produira inévitablement l’infiltration croissante des immigrés, travailleurs et autres, qui par leur misère même attirent la sympathie et créent chez les Occidentaux des noyaux forts de militants tiers-mondistes. Les intellectuels, les Églises, le P.C., pour des raisons diverses, seront les alliés des immigrés et chercheront à leur ouvrir les portes plus largement. […] Cette présence des immigrés, avec la diffusion de l’islam en Europe, conduira sans aucun doute à l’effritement de la société occidentale entière. Par suite de la déraison manifestée depuis vingt ans par nous, l’Occident va se trouver, sur le plan mondial, d’ici vingt-cinq ans, dans l’exacte situation actuelle de la minorité blanche d’Afrique du Sud, face à la majorité noire (24). » Il est probable que les prochaines années voient la figure d’Ellul devenir une référence néo-conservatrice anti-musulmane appropriée au choc délétère des civilisations… Le penseur réformé atteint peut-être là ses limites d’autant qu’il a tenu des positions pro-sionistes.

 

N’en déplaise aux décroissants chrétiens, le christianisme ne peut pas répondre totalement au défi de la mondialisation. En revanche, « l’hindouisme, avec ses dieux faiseurs de miracles, est peut-être mieux armé que les monothéismes pour combattre la mondialisation, pense l’écrivain indien Tahir Shah (25) ». L’hindouisme, c’est-à-dire une forme particulière vivante de polythéisme que devraient retrouver les Européens.

 

Un processus est certainement en cours comme en témoigne l’inquiétude de Nicolas Truong. « Une autre force révolutionnaire se déploie en Occident, celle des néofascistes qui, à l’aide d’une critique anticapitaliste adossée à une pensée de l’identité, des affinités électives relayées par des mots d’ordre guerriers, prône une sorte de soulèvement conservateur et qui, eux aussi, se socialisent dans les luttes. De ce conflit des insurrections pourrait naître un monstre inquiétant (26). » Concevons donc ce monstre ! Le discours antilibéral, écologiste, identitaire et, en dernière analyse, anti-mondialiste est crucial, car « la mondialisation, explique Jean Malaurie, expression habile du libéralisme, favorise des régimes mafieux où l’information est normalisée (27) ». Dans ces conditions difficiles, « sont écologistes ceux qui savent que nous faisons partie d’une chaîne de vie complexe qu’il nous faut comprendre et respecter dans son organisation et sa diversité. Sont localistes ceux qui savent que le local est le niveau d’organisation où peuvent se réaliser le mieux et simultanément les aspirations à la liberté, à la responsabilité et donc à l’efficacité raisonnable. Sont identitaires ceux qui savent que nous sommes une substance de population plus ancienne que nos institutions, dérivées et secondaires (28) ». Valoriser le peuple est dorénavant essentiel, car « la pensée vient toujours de l’arrière : du peuple (29) ». Avis aux Z.A.D.istes de Roybon, Sivens et Notre-Dame-des-Landes, l’avenir du bioconservatisme ne peut être que populaire !

 

Georges Feltin-Tracol

 

Notes

 

1 : François Huguenin, Histoire intellectuelle des droites. Le conservatisme impossible, Perrin, 2013.

 

2 : Sur ce vaste sujet, lire Philippe Beneton, Le conservatisme, P.U.F., coll. « Que sais-je ? », n° 2410, 1988; Luc Gaffié, Les idées du conservatisme américain, New Forums, 1990; Nicolas Kessler, Le conservatisme américain, P.U.F., coll. « Que sais-je ? », n° 3364, 1998.

 

3 : Laurent Alexandre, « José Bové, ultra-bioconservateur », dans Le Monde, le 15 octobre 2014.

 

4 : Idem.

 

5 : art. cit.

 

6 : Jean-Luc Porquet, Jacques Ellul, l’homme qui avait presque tout prévu, Le Cherche Midi, coll. « Documents », 2003, p. 232.

 

7 : Cette trilogie se compose de La technique. Ou l’enjeu du siècle (1954), Économica, coll. « Classiques des Sciences Sociales », 1990; Le système technicienne, Calmann-Lévy, coll. « Liberté de l’Esprit », 1977; Le bluff technologique, Hachette, coll. « La Force des Idées », 1988. Une autre personnalité politique française qui aurait suivi l’enseignement ellulien serait le député – maire de Bègles, apparenté Vert et chantre du laïcisme et du gendérisme, Noël Mamère, que Bruno Gollnisch renomme avec facétie sur son site officiel de « Fête de fin d’année Parent 1 ».

 

8 : dans Le Figaro, le 11 août 2003.

 

9 : dans La Lozère nouvelle, le 8 mars 2002.

 

10 : dans Libération, le 20 août 1999.

 

11 : dans Le Nouvel Observateur, les 6 – 12 mars 2003.

 

12 : dans Le Monde, le 6 août 2005.

 

13 : Léon Trotsky, Littérature et Révolution, Vienne, 1924, édition allemande, p. 179, cité par Jules Monnerot, Sociologie de la Révolution, Fayard, coll. « Les grandes études contemporaines », 1969, p. 251.

 

14 : Pierre Drieu la Rochelle, Mesure de la France, Grasset, 1964, p. 93.

 

15 : Laurent Ozon, France, les années décisives. Entretiens 2013 – 2014, Éditions Bios, 2014, p. 25.

 

16 : dans Le Monde, les 21 et 22 novembre 2010, souligné par nous. Sur les Verts allemands et certaines de leurs tendances conservatrices, voir Thomas Keller, Les Verts allemands. Un conservatisme alternatif, L’Harmattan, coll. « Environnement », 2000.

 

17 : Christian Salvadi, « La Suisse vote de nouveau sur l’immigration », dans Le Monde, le 29 novembre 2014.

 

18 : Nicolas Lecaussin, « Oui à l’immigration… sans État-providence », dans Le Figaro, le 18 décembre 2014. Il est toujours grotesque d’observer que les chantres les plus exaltés du libéralisme sont des fonctionnaires d’université ou des membres d’instituts d’onanisme neuronal et non des patrons de petites ou moyennes entreprises, des artisans ou des membres de professions libérales…

 

19 : dans Le Point, le 19 octobre 2006. Ancien situationniste, Raoul Vaneigem est bien l’anti-Guy Debord puisqu’il a accepté d’être récupéré et intégré dans la Société du spectacle.

 

20 : dans Le Nouvel Observateur, les 17 – 23 février 2000.

 

21 : dans Libération, les 3 – 4 février 2001. Alias Unabomber, Theodore John Kaczynski est un terroriste néo-luddite emprisonné à vie dans les prisons fédérales de haute sécurité des États-Unis, cf. Theodore Kaczynski, L’effondrement du système technologique, Xenia, 2008, qui réunit l’ensemble de ses écrits.

 

22 : dans Marianne, les 18 – 24 août 2002.

 

23 : Jacques Ellul, Islam et judéo-christianisme, P.U.F., 2004, p. 43, souligné par l’auteur.

 

24 : Jacques Ellul, Le bluff technologique, op. cit., pp. 280 – 281. Dans une longue note de cet ouvrage, Ellul estime qu’« aujourd’hui, le grand thème d’une France multiraciale, avec l’invasion musulmane, achève cette destruction de la cohérence culturelle française (n. 26, p. 181) ».

 

25 : dans Le Figaro littéraire, le 24 mai 2001.

 

26 : Nicolas Truong, « Un désir de soulèvement », dans Le Monde, le 5 décembre 2014.

 

27 : Jean Malaurie, dans Le Nouvel Observateur, les 23 – 29 décembre 1999.

 

28 : Laurent Ozon, op. cit., pp. 26 – 27.

 

29 : Jean Malaurie, art. cit.

 


 

Article printed from Europe Maxima: http://www.europemaxima.com

 

URL to article: http://www.europemaxima.com/?p=4119

 

vendredi, 25 avril 2014

Des Amérindiens aux origines en partie européennes

Des Amérindiens aux origines en partie européennes

Radio Canada 
Ex: http://metamag.fr 

Les Amérindiens ne sont pas exclusivement d'origine asiatique, montre le séquençage complet du plus vieux génome humain connu à ce jour. Les analyses montrent qu'ils partagent aussi des gènes avec les Européens. En effet, ce génome montre des similitudes avec ceux des populations autochtones des Amériques de même que ceux des populations vivant aujourd'hui en Eurasie occidentale, mais pas en Asie orientale.


L'analyse a été effectuée à partir de l'os d'un enfant mort il y a 24 000 ans près du lac Baïkal, dans le site paléolithique russe de Mal'ta, en Sibérie. L'équipe internationale dirigée par Eske Willerslev, généticien au Muséum d'histoire naturelle du Danemark, a prélevé un minuscule échantillon (0,15 gramme) du squelette de l'enfant dont les restes ont été retrouvés en 1920 sur le site paléolithique de Mal'ta. Elle est ainsi parvenue à en extraire de l'ADN pour analyser son génome, « le plus ancien jamais décrypté à ce jour pour un homme anatomiquement moderne », conclut-elle dans son étude publiée dans la revue Nature. Le groupe de chercheurs a ensuite comparé l'ADN au génome des humains actuels, en particulier des populations amérindiennes, dont la généalogie reste mystérieuse.

La théorie dominante depuis près de 100 ans laisse à penser que les premiers humains à avoir occupé l'Amérique sont des tribus asiatiques qui auraient franchi le Pacifique en passant par le détroit de Béring, lors d'une glaciation qui avait fait baisser le niveau de la mer entre les côtes sibériennes et l'Alaska.

Les récentes données montrent maintenant que les Amérindiens semblent en effet être génétiquement proches des populations d'Asie orientale, mais ouvrent également d'autres perspectives. Notamment, des crânes présentant des caractéristiques incompatibles avec une morphologie asiatique et appartenant à des hommes vivant bien avant l'arrivée des Européens suivant la découverte du Nouveau Monde par Christophe Colomb.

 
En outre, l'ADN mitochondrial de l'enfant sibérien, transmis exclusivement par la lignée maternelle, a pratiquement disparu aujourd'hui, mais il était fréquent (plus de 80 %) chez les chasseurs-cueilleurs européens de la fin du paléolithique et du mésolithique. Pour ce qui est de son ADN nucléaire, transmis par le père via le chromosome Y, il précède celui des populations occidentales actuelles et est à la base de la plupart des lignées amérindiennes, sans ressemblance forte avec les populations asiatiques. Eske Willerslev affirme : « Nous estimons que 14 % à 38 % des ancêtres des Amérindiens peuvent avoir pour origine génétique cette population sibérienne du paléolithique. »

Ces nouvelles informations laissent à penser que les ancêtres des Amérindiens avaient déjà probablement divergé de ceux des Asiatiques lorsque ce croisement avec les chasseurs-cueilleurs sibériens est survenu. De plus, cette filiation précède le moment où les populations amérindiennes se sont diversifiées dans le Nouveau Monde. Ainsi, selon les auteurs de l'étude parue dans Nature, « la signature génétique occidentale présente chez les Amérindiens actuels ne provient pas seulement de croisements survenus après la découverte de l'Amérique par Christophe Colomb, comme on le pense souvent, mais aussi de l'héritage même des premiers Américains. » L'analyse d'un second échantillon d'ADN, prélevé sur un autre individu sibérien vieux de 17 000 ans, a confirmé leurs résultats en aboutissant à une signature génétique similaire.

NDLR : Le célèbre archéologue russe, Mikhail Gerasimov a déjà établi que les oeuvres d'art préhistorique de la région de Mal'ta présentent de fortes ressemblances avec des figurines féminines d'Europe datant du paléolithique supérieur. Des similitudes semblables concernent les outils et les structures d'habitation.
 

mardi, 22 avril 2014

A skull that rewrites the history of man

A skull that rewrites the history of man

 
1 / 1
 
 
One of the skulls discovered in Georgia, which are believed to date back 1.8 million years
 
 
 
 
 
 

 

It has long been agreed that Africa was the sole cradle of human evolution. Then these bones were found in Georgia...

The conventional view of human evolution and how early man colonised the world has been thrown into doubt by a series of stunning palaeontological discoveries suggesting that Africa was not the sole cradle of humankind. Scientists have found a handful of ancient human skulls at an archaeological site two hours from the Georgian capital, Tbilisi, that suggest a Eurasian chapter in the long evolutionary story of man.

The skulls, jawbones and fragments of limb bones suggest that our ancient human ancestors migrated out of Africa far earlier than previously thought and spent a long evolutionary interlude in Eurasia – before moving back into Africa to complete the story of man.

Experts believe fossilised bones unearthed at the medieval village of Dmanisi in the foothills of the Caucuses, and dated to about 1.8 million years ago, are the oldest indisputable remains of humans discovered outside of Africa.

But what has really excited the researchers is the discovery that these early humans (or "hominins") are far more primitive-looking than the Homo erectus humans that were, until now, believed to be the first people to migrate out of Africa about 1 million years ago.

The Dmanisi people had brains that were about 40 per cent smaller than those of Homo erectus and they were much shorter in stature than classical H. erectus skeletons, according to Professor David Lordkipanidze, general director of the Georgia National Museum. "Before our findings, the prevailing view was that humans came out of Africa almost 1 million years ago, that they already had sophisticated stone tools, and that their body anatomy was quite advanced in terms of brain capacity and limb proportions. But what we are finding is quite different," Professor Lordkipanidze said.

"The Dmanisi hominins are the earliest representatives of our own genus – Homo – outside Africa, and they represent the most primitive population of the species Homo erectus to date. They might be ancestral to all later Homo erectus populations, which would suggest a Eurasian origin of Homo erectus."

Speaking at the British Science Festival in Guildford, where he gave the British Council lecture, Professor Lordkipanidze raised the prospect that Homo erectus may have evolved in Eurasia from the more primitive-looking Dmanisi population and then migrated back to Africa to eventually give rise to our own species, Homo sapiens – modern man.

"The question is whether Homo erectus originated in Africa or Eurasia, and if in Eurasia, did we have vice-versa migration? This idea looked very stupid a few years ago, but today it seems not so stupid," he told the festival.

The scientists have discovered a total of five skulls and a solitary jawbone. It is clear that they had relatively small brains, almost a third of the size of modern humans. "They are quite small. Their lower limbs are very human and their upper limbs are still quite archaic and they had very primitive stone tools," Professor Lordkipanidze said. "Their brain capacity is about 600 cubic centimetres. The prevailing view before this discovery was that the humans who first left Africa had a brain size of about 1,000 cubic centimetres."

The only human fossil to predate the Dmanisi specimens are of an archaic species Homo habilis, or "handy man", found only in Africa, which used simple stone tools and lived between about 2.5 million and 1.6 million years ago.

"I'd have to say, if we'd found the Dmanisi fossils 40 years ago, they would have been classified as Homo habilis because of the small brain size. Their brow ridges are not as thick as classical Homo erectus, but their teeth are more H. erectus like," Professor Lordkipanidze said. "All these finds show that the ancestors of these people were much more primitive than we thought. I don't think that we were so lucky as to have found the first travellers out of Africa. Georgia is the cradle of the first Europeans, I would say," he told the meeting.

"What we learnt from the Dmanisi fossils is that they are quite small – between 1.44 metres to 1.5 metres tall. What is interesting is that their lower limbs, their tibia bones, are very human-like so it seems they were very good runners," he said.

He added: "In regards to the question of which came first, enlarged brain size or bipedalism, maybe indirectly this information calls us to think that body anatomy was more important than brain size. While the Dmanisi people were almost modern in their body proportions, and were highly efficient walkers and runners, their arms moved in a different way, and their brains were tiny compared to ours.

"Nevertheless, they were sophisticated tool makers with high social and cognitive skills," he told the science festival, which is run by the British Science Association.

One of the five skulls is of a person who lost all his or her teeth during their lifetime but had still survived for many years despite being completely toothless. This suggests some kind of social organisation based on mutual care, Professor Lordkipanidze said.

mardi, 08 avril 2014

Un nouvel ordre génétique ?

genetique.jpg

Un nouvel ordre génétique ?

par Edouard Rix

En quelques années, ce sont quelques-uns des dogmes les plus sacrés de la vulgate scientiste antiraciste et égalitariste qui viennent de voler en éclat. Mauvaise passe pour les tenants du politiquement correct scientifique…

D’abord, le mythe de l’Out of Africa, dont Yves Coppens a signé l’arrêt de mort en affirmant dans Sciences et Avenir de juin 2011 que « l’Afrique n’est pas le seul berceau de l’Homme moderne » (1). Prenant en compte les toutes dernières découvertes scientifiques, le paléoanthropologue réfute définitivement le paradigme diffusionniste au profit de l’hypothèse multirégionale : « Je ne crois pas que les hommes modernes aient surgi d’Afrique il y a 100 000 à 60 000 ans (…) Je pense que les Homo sapiens d’Extrême-Orient sont les descendants des Homo erectus d’Extrême-Orient » (2). De même, les Homos sapiens d’Europe résultent d’une hominisation indépendante de l’hominisation africaine.

Denisova, le troisième homme

Autre dogme littéralement pulvérisé par les progrès d’une science nouvelle, la paléogénétique : la croyance en l’unité du genre humain. Car le séquençage de l’ADN, loin de se limiter aux seuls êtres vivants, s’applique désormais à des individus morts depuis des millénaires, y compris à des espèces aujourd’hui disparues. En effet, l’ADN se conserve près de 100 000 ans dans un environnement ni trop chaud, ni trop humide. En prélevant d’infimes quantité d’ADN résiduel dans les squelettes, les paléogénéticiens arrivent à reconstituer la totalité du génome grâce à une technique d’ampliation qui permet de multiplier les séquences.

Rappelons que, depuis 100 000 ans, plusieurs espèces d’hominidés ont disparu : Néandertal en Europe, Denisova en Sibérie, l’Homme de Florés en Indonésie. Un fossile de ce dernier, datant de 13 000 ans, a été découvert en 2003 dans une grotte de l’île indonésienne de Florés. Le séquençage de cet Homo floresiensis, un individu de faible corpulence possédant un crâne et un cerveau très petits – d’où le surnom de « Hobbit » dont on l’a affublé -, a échoué par deux fois, l’ADN retrouvé ayant été fortement détérioré par le climat tropical régnant dans la zone de la sépulture. Par contre, les généticiens ont réussi à séquencer Néandertal et Denisova, alors que cette dernière espèce ne nous est connue que par un os de la phalange d’un auriculaire et deux molaires.

C’est en 2008 qu’ils ont été retrouvés dans une caverne à Denisova, dans les monts Altaï, au sud de la Sibérie. Des objets présents au même niveau que les fragments osseux ont pu être datés par le carbone 14 entre 30 000 et 40 000 BP (3). En mars 2010, une équipe internationale de phylogénistes moléculaires (4) de l’Institut Max Planck d’anthropologie évolutionnaire de Leipzig, en Allemagne, conduite par le biologiste suédois Svante Pääbo, publie dans Nature une première analyse de l’ADN mitochondrial (ADN mt), d’origine strictement maternelle, prélevé dans ce bout d’os. Grâce au séquençage de cet ADN, les chercheurs affirment avoir découvert une troisième espèce d’hominidé, contemporaine de l’Homo sapiens et appelée Homme de Denisova. « La famille des hommes semblerait donc avoir été beaucoup plus diverse qu’on ne l’avait cru jusqu’à présent » s’étonne Le Figaro (5).

Les mêmes s’attaquent ensuite à l’ADN nucléaire, ADN du noyau cellulaire issu de la fusion du patrimoine génétique des parents. Un seul individu offre ainsi un échantillon statistique de la population qui l’a précédé. Les résultats, annoncés le 23 décembre 2010 dans les colonnes de Nature, confirment que l’Homme de Denisova forme une branche distincte de l’arbre généalogique du genre Homo. Il aurait donc existé deux formes distinctes d’hommes archaïques en Eurasie : à l’Ouest Néandertal, à l’Est Denisova. La branche des Dénisoviens aurait divergé de celle qui mène à l’homme moderne il y a 800 000 ans, et de celle qui conduit à Néandertal il y a 640 000 ans. En comparant l’ADN de Denisova avec celui d’hommes modernes actuels, les scientifiques ont découvert que 5% du génome de certains Mélanésiens, en l’occurrence les Papous de Nouvelle-Guinée et de l’île de Bougainville, provient des Dénisoviens. L’équipe de l’Institut dresse l’hypothèse que ces derniers auraient croisé la route de sapiens, il y a 55 000 ans, vers le Proche-Orient, et que les descendants issus de cette rencontre auraient traversé l’Océan pour s’installer en Mélanésie il y a 45 000 ans.

En août 2012, les chercheurs annoncent dans Science être parvenu à décoder entièrement son génome. Pour cela, ils ont dû inventer une technique leur permettant de déméler la double hélice de l’ADN pour en analyser séparément chacun des brins. Il en résulte que les Dénisoviens étaient porteurs de matériel génétique aujourd’hui associé avec une peau sombre, des cheveux bruns et des yeux marrons.

Il y a du Néandertal en nous !

Dès 2010, la même équipe de paléoanthropologues et de paléogénéticiens avait séquencé 60% du génome nucléaire de Néandertal (6), dont l’apparition remonte à 400 000 ans et qui se sont éteints il y a 30 000 ans. Les résultats contredisaient les études antérieures sur l’ADN mitochondrial qui n’avaient trouvé aucune contribution néandertalienne à notre génome. Il s’avère, finalement, que du fait de croisements entre Homo neanderthalensis et Homo sapiens, des hommes modernes non-africains (les Chinois Han, les Français, les habitants de Papouasie-Nouvelle-Guinée) ont hérité de 1 à 4 % de leurs gènes de Néandertal. Cette découverte conforte l’hypothèse d’une hybridation entre les deux espèces avant que les Néandertaliens ne s’éteignent. Une nouvelle étude, menée par Damian Labuda, professeur au département de pédiatrie de l’Université de Montréal, révèlera qu’une partie du chromosome X de toutes les populations non africaines provient des Néandertaliens (7).

Devant cette véritable révolution anthropologique, Le Monde se devait de sonner l’alarme, à moins que cela ne soit le glas : « L’année 2010 aura donc été très riche pour la paléogénomique. C’est celle de la découverte de la part néandertalienne chez les non-Africains actuels, et de l’héritage dénisovien chez les Papous. Les généticiens savent que ces avancées peuvent ressusciter des thèses racialistes. Aussi prennent-ils soin de préciser que cet ADN en héritage est non codant, c’est-à-dire qu’il n’a pas de fonction connue. Mais “ quand bien même il commanderait des gènes, la différence génétique ne saurait justifier le racisme “ insiste Pascal Picq » du Collège de France (8). Même les pires négationnistes de l’antiracisme ne peuvent plus ignorer que certains groupes raciaux et ethniques vivant aujourd’hui sont issus de croisement, intervenus il y a plusieurs milliers d’années, d’hommes modernes et d’hommes archaïques, et que certains gènes dont ils ont hérité concernent plus particulièrement l’organisation du cerveau et le fonctionnement des synapses neuronales. Différents et inégaux ? « C’est dans la Genèse et l’enseignement des Pères de l’Eglise, rappelle Guillaume Faye, qu’il faut déceler l’origine de ce mythe ethnocidaire de l’unité du genre humain, et de l’archétype d’un homme universel, entité monogénique issue d’une même souche, modèle par lequel les identités sont dévalorisées » (9). L’édifice égalitariste et universaliste bi-millénaire forgé par le judéo-christianisme et perpétué sous une forme laïcisée par les idéologies modernes vient de s’écrouler. Nous ne pouvons que nous en réjouir.

Edouard Rix, Réfléchir & Agir, hiver 2013, n°43, pp. 37-38.

 

 

 

Notes :

 

 

 

(1) Sciences et Avenir, juin 2011, n°772.

(2) Idem.

(3) L’expression Before Present (BP), « avant le présent » est utilisé en archéologie pour désigner les âges exprimés en nombre d’années comptées vers le passé à partir de l’année 1950 du calendrier grégorien. Cette date, fixée arbitrairement comme année de rférence, correspond aux premiers essais de datation au carbone 14.

(4) La phylogénie moléculaire consiste à comparer des gènes dans le but d’établir des classifications d’espèce.

(5) Le Figaro, 25 mars 2010.

(6) Science, 7 mai 2010, vol. 328, n° 5979, pp. 710-722.

(7) Molecular Biology and Evolution, juillet 2011, 28 (7).

(8) Le Monde, 24 décembre 2010.

(9) G. Faye, Les nouveaux enjeux idéologiques, Le Labyrinthe, Paris, 1985, p. 45.

00:05 Publié dans Science, Sciences | Lien permanent | Commentaires (0) | Tags : génétique, sciences | |  del.icio.us | | Digg! Digg |  Facebook

mardi, 04 mars 2014

Se descubre el origen europeo de los perros

chiens.jpg

Se descubre el origen europeo de los perros

por Juan Ritamo

Ex: http://eloccidental.es

Según un reciente estudio publicado en la revista Science el origen de los perros está en Europa, y no en Asia, como se pensaba hasta ahora. De esta manera sugiere que los primeros en domesticar lobos fueron los cazadores recolectores europeos hace entre 18.800 y 32.100 años.

El estudio analiza el ADN mitocondrial de 18 cánidos prehistóricos de Eurasia y América, hallados en yacimientos y cuevas de Bélgica, Rusia, Suiza, Estados Unidos, Alaska, Argentina y Alemania, y lo compara con un exhaustivo muestrario de perros de muy diversas razas, lobos y coyotes modernos

“Hemos visto que los perros actuales están estrechamente emparentados con los cánidos prehistóricos europeos. Y ese parentesco es mayor que el que existe entre los cánidos prehistóricos europeos y los lobos asiáticos, lo que sugiere que el origen de los perros está en la domesticación de lobos de Europa y no de Asia”, explica la investigadora del CSIC Jennifer Leonard, de la Estación Biológica de Doñana.

Este informe no viene sino a confirmar la larga y estrecha vinculación de estos animales con la etnia Europea. Los “mejores amigos del hombre” han convivido con los humanos en muy diversas situaciones. En varias etnias de la América precolombina y como aún ocurre en Oriente los perros han sido usados como alimento, mientras que en Oriente Medio son considerados como impuros al ser asociados a los chacales. 

 

00:05 Publié dans Sciences | Lien permanent | Commentaires (0) | Tags : chiens, canidés, zoologie, sciences, biologie | |  del.icio.us | | Digg! Digg |  Facebook