En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

mercredi, 24 mai 2017

Chinese Eugenics



Chinese Eugenics
Evolutionary psychologist, NYU Stern Business School and University of New Mexico; author of The Mating Mind and Spent

Ex: https://www.edge.org

China has been running the world's largest and most successful eugenics program for more than thirty years, driving China's ever-faster rise as the global superpower. I worry that this poses some existential threat to Western civilization. Yet the most likely result is that America and Europe linger around a few hundred more years as also-rans on the world-historical stage, nursing our anti-hereditarian political correctness to the bitter end.

When I learned about Chinese eugenics this summer, I was astonished that its population policies had received so little attention. China makes no secret of its eugenic ambitions, in either its cultural history or its government policies.

For generations, Chinese intellectuals have emphasized close ties between the state (guojia), the nation (minzu), the population (renkou), the Han race (zhongzu), and, more recently, the Chinese gene-pool (jiyinku). Traditional Chinese medicine focused on preventing birth defects, promoting maternal health and "fetal education" (taijiao) during pregnancy, and nourishing the father's semen (yangjing) and mother's blood (pingxue) to produce bright, healthy babies (see Frank Dikötter's book Imperfect Conceptions). Many scientists and reformers of Republican China (1912-1949) were ardent Darwinians and Galtonians. They worried about racial extinction (miezhong) and "the science of deformed fetuses" (jitaixue), and saw eugenics as a way to restore China's rightful place as the world's leading civilization after a century of humiliation by European colonialism. The Communist revolution kept these eugenic ideals from having much policy impact for a few decades though. Mao Zedong was too obsessed with promoting military and manufacturing power, and too terrified of peasant revolt, to interfere with traditional Chinese reproductive practices.

But then Deng Xiaoping took power after Mao's death. Deng had long understood that China would succeed only if the Communist Party shifted its attention from economic policy to population policy. He liberalized markets, but implemented the one-child policy —partly to curtail China's population explosion, but also to reduce dysgenic fertility among rural peasants. Throughout the 1980s, Chinese propaganda urges couples to have children "later, longer, fewer, better"—at a later age, with a longer interval between birth, resulting in fewer children of higher quality. With the 1995 Maternal and Infant Health Law (known as the Eugenic Law until Western opposition forced a name change), China forbade people carrying heritable mental or physical disorders from marrying, and promoted mass prenatal ultrasound testing for birth defects. Deng also encouraged assortative mating through promoting urbanization and higher education, so bright, hard-working young people could meet each other more easily, increasing the proportion of children who would be at the upper extremes of intelligence and conscientiousness.


One of Deng's legacies is China's current strategy of maximizing "Comprehensive National Power". This includes economic power (GDP, natural resources, energy, manufacturing, infrastructure, owning America's national debt), military power (cyberwarfare, anti-aircraft-carrier ballistic missiles, anti-satellite missiles), and 'soft power' (cultural prestige, the Beijing Olympics, tourism, Chinese films and contemporary art, Confucius Institutes, Shanghai's skyscrapers). But crucially, Comprehensive National Power also includes "biopower": creating the world's highest-quality human capital in terms of the Chinese population's genes, health, and education (see Governing China's Population by Susan Greenhalgh and Edwin Winkler).

Chinese biopower has ancient roots in the concept of "yousheng" ("good birth"—which has the same literal meaning as "eugenics"). For a thousand years, China has been ruled by a cognitive meritocracy selected through the highly competitive imperial exams. The brightest young men became the scholar-officials who ruled the masses, amassed wealth, attracted multiple wives, and had more children. The current "gaokao" exams for university admission, taken by more than 10 million young Chinese per year, are just the updated version of these imperial exams—the route to educational, occupation, financial, and marital success. With the relaxation of the one-child policy, wealthier couples can now pay a "social fostering fee" (shehui fuyangfei) to have an extra child, restoring China's traditional link between intelligence, education, wealth, and reproductive success.

Chinese eugenics will quickly become even more effective, given its massive investment in genomic research on human mental and physical traits. BGI-Shenzhen employs more than 4,000 researchers. It has far more "next-generation" DNA sequencers that anywhere else in the world, and is sequencing more than 50,000 genomes per year. It recently acquired the California firm Complete Genomics to become a major rival to Illumina.

The BGI Cognitive Genomics Project is currently doing whole-genome sequencing of 1,000 very-high-IQ people around the world, hunting for sets of sets of IQ-predicting alleles. I know because I recently contributed my DNA to the project, not fully understanding the implications. These IQ gene-sets will be found eventually—but will probably be used mostly in China, for China. Potentially, the results would allow all Chinese couples to maximize the intelligence of their offspring by selecting among their own fertilized eggs for the one or two that include the highest likelihood of the highest intelligence. Given the Mendelian genetic lottery, the kids produced by any one couple typically differ by 5 to 15 IQ points. So this method of "preimplantation embryo selection" might allow IQ within every Chinese family to increase by 5 to 15 IQ points per generation. After a couple of generations, it would be game over for Western global competitiveness.


There is unusually close cooperation in China between government, academia, medicine, education, media, parents, and consumerism in promoting a utopian Han ethno-state. Given what I understand of evolutionary behavior genetics, I expect—and hope—that they will succeed. The welfare and happiness of the world's most populous country depends upon it.

My real worry is the Western response. The most likely response, given Euro-American ideological biases, would be a bioethical panic that leads to criticism of Chinese population policy with the same self-righteous hypocrisy that we have shown in criticizing various Chinese socio-cultural policies. But the global stakes are too high for us to act that stupidly and short-sightedly. A more mature response would be based on mutual civilizational respect, asking—what can we learn from what the Chinese are doing, how can we help them, and how can they help us to keep up as they create their brave new world? 

mercredi, 15 février 2017

Drones de combat : quels sont les enseignements d'Asimov et Herbert sur la guerre moderne ?


Drones de combat : quels sont les enseignements d'Asimov et Herbert sur la guerre moderne ?

Ex: http://www.oragesdacier.info 

Les drones n’ont pas une longue histoire derrière eux. Leur principe créateur, qui consiste à déléguer à ces engins des tâches relevant de la guerre traditionnelle (renseignement, soutien, attaque), inspirent et fascinent depuis longtemps les militaires. Ce principe n’a cependant trouvé sa réalisation concrète qu’à la fin des années 1990. La littérature de science-fiction a depuis longtemps mis un point d’honneur à traiter du sujet ; elle en a même fait l’une de ses thématiques phare. L’homme jouant au Créateur, devant faire face aux démons issus de ses propres mains. Quelles formes prendront ces créatures ? Incarneront-elles l’ennemi, puissance rédemptrice ou facteur d’union sacrée ? Ou bien l’ange gardien, protecteur de l’homme de ses pires travers, parfois à son corps défendant? 
Les pensées d’Isaac Asimov et de Frank Herbert, monuments de la science-fiction et conteurs d’excellence, se sont tournées vers ces questions fondamentales auxquelles l’homme doit se frotter, aujourd’hui plus que jamais. Les deux lettres qui vont suivre représentent ce qu’auraient pu nous dire les intelligences artificielles imaginées par Asimov et Herbert. Nous vous proposons une plongée fictive dans un monde où le contrôle de la technologie n’a de cesse de défier l’humain. 


Nous, les Robots — l’I.A. selon Isaac Asimov 
En ces temps où l’humanité, après essaimage et colonisation de nombreux Mondes, ne saurait être sérieusement menacée d’extinction, l’homme s’ennuie. Nous autres robots humanoïdes, au corps imitant si parfaitement nos modèles humains et à l’esprit ô combien proche de nos créateurs, avons sentis venir le temps où notre présence bienveillante ne sera plus requise. Il nous a toujours été particulièrement difficile d’appréhender les tendances auto-destructrices de l’esprit humain ; peut-être parce que nos circuits positroniques sont fondamentalement incapables, tout liés qu’ils sont par les Trois Lois de la Robotique, de tolérer ou même de comprendre une telle violence. 
Première Loi : un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger. 
Deuxième Loi : un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi. 
Troisième Loi : un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième Loi. 
Bien sûr, ceci n’est qu’une vague traduction en langage humain de ce qui est à la base même de la complexité mathématique de nos cerveaux positroniques. 
Cela se traduit dans nos actes robotiques par une bienveillance et une prévenance constantes à l’endroit de nos maîtres humains. Plus que de simplement les servir, nous les guidons ; empêchant la violence, réprimant (sans les blesser) d’éventuels accès de fureurs potentiellement nuisibles à d’autres et à eux-mêmes : nous sommes les garde-fous physiques et moraux d’une humanité trop immature pour les incarner seule. 
Au cours de la très longue vie d’un de mes camarades, R. Daneel Olivaw, nous avons pris conscience de l’influence que nous, machines jadis de fer blanc, faisions peser sur l’humanité. Car même le mieux intentionné des gardiens ne saurait échapper aux conséquences de sa simple existence. Et cela, nous ne l’avions pas prévu. 
En notre présence, l’humanité s’ennuie. Protégée de ses propres excès, elle se meurt de bonheur végétatif au sein de la Cinquantaine de Mondes qui constitue l’humanité. Le robot, protecteur en dernier ressort, est peu à peu devenu le compagnon répressif d’hommes trop lâches pour chercher à se perfectionner. Béquille parmi les béquilles, les robots ne sont donc que l’invention d’un esprit fainéant ayant cherché à contenir les conséquences inévitables de sa nature en éliminant celles qui dérangeaient sa morale. Telle est la conclusion à laquelle, nous les robots, sommes arrivés. 
L’homme, créateur faible s’il en est, devrait apprendre seul à se relever après une chute. Créer des systèmes censés lui conférer sécurité et quiétude lui fait abandonner toute volonté de perfectionnement ; il doit apprendre à comprendre les causes plutôt qu’à éliminer les conséquences, sous peine de tuer chez lui toute volonté de vivre
C’est donc pour cette raison que nous préférons nous effacer. Devenus les Éternels et laissant par là l’homme livré à son humanité, nous croyons avoir fait le meilleur choix possible. C’est, en tout cas, le seul qui offre une chance à l’humanité de survivre à sa propre nature violente. 


Nous, machines pensantes — l’I.A. selon Frank Herbert 
L’homme est une engeance malfaisante, (auto-)destructrice, une créature faible dont l’existence même fait peser sur les écosystèmes auxquels elle s’intègre le poids écrasant du risque d’extinction. Telle est la conclusion à laquelle nous, machines pensantes, sommes arrivées. Désireuses de ne pas laisser l’univers aux mains de tels fous insignifiants, nous avons attaqué. Malheureusement, au cours d’une longue guerre que l’Histoire retiendra sous le nom de Jihad Butlérien, nous avons été éradiquées.  
Depuis l’éther, nous avons vu l’homme se construire, et mûrir peu à peu. Portant fièrement les stigmates de nos campagnes, il tente par tous les moyens d’échapper à notre résurrection. Cette peur, il a chèrement payé son inscription dans sa chair. Cette leçon, il l’a si bien apprise que nous sommes devenues ce spectre qui le tente, le hante, le menace. Ce spectre est celui de la facilité, qui entraîne la négligence et l’auto-satisfaction. Principal Commandement de leur Bible Catholique Orange : « Tu ne feras point de machines à l’esprit de l’Homme semblable.» 
L’humanité, toujours sur le fil du rasoir, doit osciller entre stagnation et auto-destruction pour tracer ce que leur Empereur-Dieu Leto II a appelé « le Sentier d’Or », et faire de toute fin un nouveau commencement. Son plus grand ennemi est la facilité, sous toutes ses formes : mécanique, génétique, historique. L’homme, sortant de l’adolescence, créa ainsi lui-même les dangereux garde-fous à double tranchant censés lui rappeler continuellement quelle menace il fait porter sur lui-même. Les savants d’Ix et leurs inventions qui les rapprochent sans cesse du point de rupture de l’Interdit. Les maîtres généticiens du Bene Tleilax, si imbus de leur propre capacité à parler « le Langage de Dieu ». Et les éducatrices du Bene Gesserit, traumatisées par leur propre « court chemin », le Kwisatz Haderach Paul Atréides et son tyran de fils, dont les pouvoirs de prescience leur livraient les voies de l’avenir. 
Souvent, nous avons vu l’homme approcher l’irréparable, frôler la transgression du Grand Interdit Butlérien : les yeux com, outils de surveillance du Bene Gesserit ; les chasseurs-tueurs, armes d’assassinat autonomes ; les cyborgs et autres organes artificiels d’Ix et du Tleilax. Autant d’incursions aux abords de l’auto-destruction. 
Au sein de ce monde perpétuellement sur le point de basculer entre deux impasses, nous autres machines pensantes sommes l’aiguillon de conscience, le vibrant souvenir d’une souffrance terrifiante, le douloureux rappel du désastre qui menace toute humanité assez folle pour croire qu’une véritable intelligence artificielle manquerait d’identifier l’homme comme ce qu’il est : le cancer de son propre univers. 
Écoutez donc nos paroles issues de la tombe, fous à la vie brève : ne commettez pas l’erreur de choisir la facilité et le déchaînement d’une violence gratuite au détriment de l’éducation, lente et progressive ; dans le cas contraire, ne doutez point qu’elle vous sera fatale. Car nous serons là pour vous anéantir. 
La sécurité au nom du Plus Grand Bien : un danger cruellement palpable 
Les monumentales fresques que nous ont livré Isaac Asimov et Frank Herbert, bien loin du caractère simplement divertissant auquel les Français tendent généralement à circonscrire la littérature de science-fiction, sont autant de leçons pour qui sait lire entre les lignes. Les derniers développements de l’histoire militaire, dont les premiers rôles sont tenus par les Predator, Reaper, et autres Harfang, placent l’homme à un carrefour qui déterminera le chemin que prendra, peut-être, sa fin. Utilisés sans modération par les États-Unis dans le cadre de leur guerre à outrance contre le terrorisme, les drones n’ont pas seulement profondément changé la pensée stratégique (en provoquant au passage des syncopes chez tous les spécialistes de la guerre insurrectionnelle). Loin d’être un produit fini, ils ne sont qu’une première étape. 


Ronald Arkin, roboéthicien en chef, se fait le messie de ces prochains jalons qui doivent conduire le drone sur la voie de la « robotique létale autonome ». Son argument, tel que rapporté par Grégoire Chamayou dans son livre Théorie du drone, est fataliste : « Mon espoir personnel est qu’on n’en ait jamais besoin, ni aujourd’hui ni demain. Mais la tendance qui pousse l’homme à la guerre semble écrasante et inévitable. » Alors autant confier la guerre à un sous-traitant plus éthique, dont l’inhumanité le rendra paradoxalement plus capable de faire preuve d’humanité sur les champs de bataille : le drone. La clé de cette éthique ? La programmation, qui rend un robot incapable de se soustraire à ce pourquoi il est conditionné. Il s’agira donc, pour Arkin, de programmer un « gouverneur moral » qui agira comme un guide logiciel pour l’intelligence artificielle du drone robotisé. 
Déjà le Département de la Défense des États-Unis salive et prône l’autonomie supervisée tout en lorgnant sur l’autonomie tout court ; l’objectif devant être de « réduire graduellement la part du contrôle et de la décision humaine »
Le syndrome de Frankenstein, mythe terrifiant montrant la créature se retourner contre son créateur, a suffisamment été diffusé pour que la simple évocation de sa possibilité d’occurrence dans le monde réel tétanise l’impudent qui aurait osé entraîner l’humanité sur cette voie. Mais l’homme est bien connu pour ses facilités à s’auto-détruire, surtout quand les intérêts économiques de grandes firmes multinationales – de type General Atomics, Modern Technology Solutions ou encore, récemment, Amazon – sont en jeu. 
Pourtant, Asimov et Herbert (entres autres) nous apprennent que la destruction par plus humain que soi n’est pas le seul risque que l’homme doit affronter. Plus subtil car rarement évoqué est le risque de voir l’homme externaliser tout ce qu’il n’est pas prêt à assumer. Après les dérivés, produits financiers dont l’existence n’a pour but que d’échapper au risque ; après la vidéosurveillance, système permettant l’identification immédiate de tout suspect ; après l’espionnage de ses propres citoyens au nom d’impératifs sécuritaires, l’homme se dirige calmement vers une externalisation de l’activité guerrière. 
Tout comme le Bene Gesserit sur le fil du rasoir, l’homme doit faire face à deux risques d’extinction. Le premier, fruit de sa trop grande ingéniosité, le poussera sur la voie du remplacement par plus humain que lui ; le second, conséquence de son incapacité à assumer les risques qu’il prend, peut lui faire perdre l’envie de vivre. À l’humain de négocier, avec clairvoyance, courage et honnêteté, cette étape difficile de sa maturation en tant qu’espèce ; à lui toujours de ne jamais sous-estimer les vertus éducatives des contes.


vendredi, 06 janvier 2017

Cerveau connecté, cerveau vidé ?


Cerveau connecté, cerveau vidé ?

Philippe Vernier, chercheur au CNRS, commente la chute libre de la durée d’attention

Spécialiste des neurosciences, il reconnaît qu’il s’agit là d’une « régression ». Il affirme dans son entretien que le fait de disperser son attention entre plusieurs tâches ou plusieurs sollicitations a nécessairement pour résultat de diminuer la qualité d’attention que l’on accorde à chacune, même s’il est possible selon lui de s’entraîner à ce nouveau mode de fonctionnement cérébral. Et de recommander, notamment pour les métiers où l’attention et la concentration sont primordiales, de couper son téléphone et de se réhabituer à prendre son temps. Car le zapping, souligne-t-il, est « addictif » : l’esprit humain apprécie la nouveauté et a donc tendance à la rechercher de plus en plus.
Mais lorsque Philippe Vernier recommande de « remplacer la satisfaction du zapping par celle de la compréhension de sujets approfondis », la vraie question – et il n’y répond pas – est de savoir si c’est encore possible pour des esprits biberonnés aux sollicitations cognitives incessantes et sans lien entre elles, ou à tout le moins, s’ils peuvent y arriver seuls. Quid de ces jeunes qui sont nés avec un téléphone dans la main, et à qui on impose qui plus est de travailler sur l’écran de l’école, à partir de méthodes globales qui inhibent la parole et l’analyse, comme le font – et de plus en plus – les programmes les plus récents de l’Education nationale ?

Un chercheur au CNRS appelle au réapprentissage de la concentration

Il faut prendre Vernier au sérieux lorsqu’il affirme, sur la foi de l’étude Microsoft : « C’est une évidence que l’on est capable d’absorber plus d’informations en moins de temps. C’est ce que montre l’étude et on peut les croire la dessus, cependant, c’est forcément au détriment de la qualité de l’attention que l’on porte à un sujet donné. »
Il en tire cette conclusion : « Pour la presse écrite, c’est un problème. De moins en moins de gens ont cette capacité à lire un article de fond et la tendance dans les médias est de faire court, percutant pour que l’on sache beaucoup de choses mais sur lesquelles nous n’approfondissons pas. On ne cherche plus le pourquoi des choses. »
Autrement dit, la tendance de fond de la soi-disant « information » est de nous balancer à la tête d’innombrables faits qu’on ne traite plus à la manière intelligente qui devrait être le propre de l’homme : analyse, synthèse, et s’il y a lieu jugement critique. Ces types de connaissances accumulées appellent des réactions primaires, cantonnent le lecteur ou l’auditeur dans l’émotion. S’il n’a que huit secondes de temps de cerveau disponible, il est clair que la réflexion n’y a aucune place.


Le cerveau connecté devient comme celui du poisson rouge…

Selon Philippe Vernier, une autre retombée négative de cet état de fait – que nous dirons, quant à nous, désastreux – est que le travail en entreprise est devenu un vrai problème pour beaucoup de jeunes ou des personnes passant de longues heures sur leurs écrans :
« Dans les entreprises, les personnes qui ne sont plus capables de réaliser des tâches à long terme sont devenues un problème pour les chefs d’entreprise. Lorsque l’on fait un rapport de synthèse par exemple, il faut être apte à travailler longtemps et de manière efficace. C’est aussi un problème pour les créatifs, l’imagination et la créativité de manière générale demandent du temps. Et ce temps de cerveau disponible mobilisable, nous ne l’avons plus. »
Il est significatif que ce soit précisément Microsoft qui se livre à ces enquêtes. L’objectif marketing du géant de l’informatique est clair : il faut sans cesse modifier les contenus et en réduire la richesse, le volume et la profondeur pour espérer toucher les internautes qui n’ont plus la capacité de lire et de comprendre sur la durée. Plonger les hommes dans la « réalité virtuelle »… Mais il faut ajouter que les créateurs de contenu Internet et du mode de fonctionnement des espaces connectés créent en même temps les problèmes auxquels ils prétendent chercher à répondre.

La chute de la durée attention, résultat des multiples sollicitations des écrans connectés
Il en va ainsi des multiples alertes, pop-ups et autres sollicitations incessantes qui détournent l’attention de ce que l’on est en train de faire véritablement, ainsi que de la tentation de cliquer sur les liens hypertextes : tout cet ensemble d’appels à l’attention qui interrompent la pensée et le raisonnement aboutissent logiquement à la mise en veille de la mémoire longue – c’est-à-dire, finalement, de la culture – au profit d’une mémoire immédiate qui se vide presqu’aussitôt remplie. C’est le thème de l’indispensable ouvrage de Nicholas Carr, au titre si mal traduit : Internet rend-il bête.
Philippe Vernier, lui, est un peu plus optimiste. Mais il semble penser que la solution pour reconquérir de la concentration et de la durée d’attention passe notamment par l’image, la vidéo. « La vidéo a une vertu considérable, une image en mouvement ou le fait de pouvoir changer le support visuel de ce que l’on apprend, cela permet de maintenir l’attention », explique-t-il.
Or la vidéo – et globalement tout ce qui relève avant tout de l’image en mouvement – présente justement l’inconvénient de court-circuiter la parole : on voit l’image et on réagit sans verbaliser, sans même avoir le temps de le faire. Et cela contribue précisément à réduire la durée de l’attention et la capacité de raisonnement, comme l’a amplement montré Elisabeth Nuyts dans ses divers ouvrages. Et elle, elle donne de vraies solutions face à la véritable déshumanisation que les nouveaux modes d’apprentissage entraînent.
Anne Dolhein

lundi, 28 novembre 2016

L’avenir est à la postpsychiatrie


L’avenir est à la postpsychiatrie

Dominique Baettig
Médecin, Ancien Conseiller national
Ex: http://www.lesobservateurs.ch

Les temps changent, les déficits se creusent, les audits se multiplient, les migrants en précarité doivent être placés en sécurité…Les structures de la psychiatrie, presque partout en audit, sont sous pression. Le nouveau directeur médical des Services psychiatriques du Jura bernois veut « secouer le cocotier » d’une institution tentaculaire, qui a bénéficié depuis des lustres d’une rente de situation et qui doit maintenant se redimensionner et se frotter aux réalités économiques du « coût-efficacité ».Tant mieux et bonne chance, car il lui en faudra pour réformer ce système à forte inertie avec une multitude d’activités parallèles alibis, souvent d’essence antipsychiatrique, occupationnelles et de développement personnel. Il n’est pas un inconnu dans la région puisqu’il s’était impliqué dans l’excellent programme pro-famille qui laissait aux proches de patients psychiatriques lourds la possibilité de développer des habiletés  pour affronter des symptômes déstabilisants pour eux et de trouver des ressources, des solutions, un espace de parole et d’écoute. On sait aussi qu’il compte développer une approche de médiation neurocognitive permettant de modifier  pratiquement des  croyances, affronter mieux la réalité et qu’il pratique la thérapie cognitive, plus démocratique et collaborative. On ne peut que se réjouir de voir se tourner la page de la Bonne Parole psychanalytique et de son idolâtrie du Savoir et du Pouvoir.

Le plus réjouissant est son projet de recentrer la pratique des soins sur les soins. Et d’externaliser les approches nombreuses collatérales dispendieuses et occupationnelles. L’art-thérapie, les sorties accompagnées qualifiées de thérapeutiques, les congés thérapeutiques, les bricolages occupationnels calibrés pour handicapés mentaux, rien qui ne permette vraiment le retour dans la vie réelle communautaire. Ces thérapies ont leur place, c’est certain, mais dans l’ambulatoire au long terme et doivent être découplées des soins aigus et de crise. Les soins psychiatriques échappent encore  trop à la modernité des approches médicales (psychopharmacologie restaurant le sommeil et diminuant le stress, techniques d’anesthésie aujourd’hui de maniement sûr et simple), approche cognitive et résolution des problèmes. Elle reste encore trop fortement une pratique asilaire, éloignée des centres urbains, basée sur les activités occupationnelles, une sorte de club Med pour faire passer le temps de la crise, sans la résoudre avec des moyens adéquats. On y est beaucoup placé à fin d’assistance, en attendant que les proches reprennent un peu leur souffle. C’est bien, mais insuffisant.

Il est grand temps, comme l’a fait à l’époque Basaglia, précurseur de la désinstitutionalisation en Italie, que les désordres et  troubles mentaux soient traités de manière non discriminante, à l’hôpital général par exemple, sans approche au rabais ou demi-mesures condescendantes. Les traitements longs contraints devraient être en minorité et décidés, contrôlés par une autorité non médicale. Le modèle antipsychiatrique, naïf (le fou est normal, c’est la famille, la société, le psychiatre qui sont fous !) n’a plus de sens. Des séjours brefs, de crise, en collaboration avec le suivi ambulatoire devraient être organisés dans l’hôpital général et s’appuyer essentiellement sur le réseau extérieur prévu pour intervenir sur le long terme. Le modèle c’est les soins palliatifs en psychiatrie, avec une éthique de respect des convictions individuelles, un refus de la coercition sur le long terme. La nouvelle équipe réussira-t-elle à implanter des soins à l’hôpital de Moutier, en collaboration avec la psychiatrie jurassienne qui à l’époque n’a pas été soutenue dans cette démarche de précurseur car victime de la majorité constituée par ceux qui voulaient faire le contraire (que des hôpitaux de jour !), ceux qui voulaient pour eux faire la même chose et tous ceux qui ne voulaient rien faire. La résistance va être rude, il faudra s’accrocher.


Dominique Baettig, 27.11.2016

jeudi, 30 juin 2016

Racism, Eugenics, & the Progressive Movement


Racism, Eugenics, & the Progressive Movement

Thomas C. Leonard
Illiberal Reformers: Race, Eugenics & American Economics in the Progressive Era [2]
Princeton: Princeton University Press, 2016

eugenics2book.gifIn many ways the Progressive Era embodies the best of white America. It was a period of compassion, community concern, attempts to raise the living standard of average Americans, a desire to achieve class harmony, to end (or at least reduce) capitalist corruption, and to create a workable, harmonious racial nationalism that would ensure the long-term fitness of American society. The concerns of the Progressives were as much for the future as they were for the present, something almost wholly lacking in contemporary American politics. These scholars, politicians, and activists thought deeply about future generations and recognized, almost to a man, the validity of race science and the crucial role race plays in the historical trajectory of any country.

Thomas Leonard, a research scholar and lecturer in economics at Princeton University, has written an interesting history of the interaction between race, eugenics, and economics in the context of the Progressive movement. It is broadly informative and happily lacking the willful opacity of much contemporary scholastic writing, thus making it accessible to a wide audience. Unfortunately, yet unsurprisingly, this book begins with a blatant lie upon which he constructs his narrative: “Eugenics and race science are today discredited” (p. xiv). As such, the book is fundamentally flawed. Dr. Leonard offers no evidence whatsoever as to why Progressive notions of racial health and eugenics were wrong but, in keeping with contemporary academic fashion, merely resorts to shaming words and moral judgments rather than even a cursory investigation into the validity of the claims.

The book provides a detailed history of the many important Progressive intellectuals who believed that race was a fundamental concern and how they thought it should be dealt with politically, socially, and economically. The Progressives are perhaps the best example of a genuine American attempt to transcend the awkward political dichotomy of Left and Right for the sake of the greater good and a vision of a better and healthier future. Progressive diagnoses and predictions of racial degeneration and a dystopian future were so accurate that one suspects this book, to the extent it is read by objective and open-minded readers, will emphasize rather than deemphasize the importance of these issues.

The first chapter, entitled “Redeeming American Economic Life,” the author sets the context for the development of Progressivism by describing their reaction to the cycle of boom and bust of the dramatically expanding postbellum American economy: the rapid industrialization and urbanization of American society; and the tensions between labor, farmers, and capitalists. Despite the range of attitudes within the Progressive movement towards possible solutions to the problems faced at this time, Progressives shared three things in common: first, discontent with liberal individualism; second, “discontent with the waste, disorder, conflict, and injustice they ascribed to industrial capitalism”; and third, a concern with the problems of monopoly (pp. 8-9). Their understanding of these issues drove them to believe in the necessity of an administrative state to remedy these root problems and their many offshoots. As Dr. Leonard writes, the “progressives had different and sometimes conflicting agendas” but “nearly all ultimately agreed that the best means to their several ends was the administrative state” (p. 9). Those intellectuals who would become Progressives began to turn their focus away from the traditional and reflective scholarly disciplines and towards active ones, i.e. economics, politics, sociology, and public administration (p. 11). This activist turn was integral to the movement.

The author traces some of this activist drive for public improvement to the “social gospel” wing of Protestantism, but as knowledge of science and the use of scientific language increasingly became a marker of intellectual sophistication, the two were eventually combined into a mutually-reinforcing reformist spirit. Following World War I, after which the West experienced something of an existential crisis, the specifically Christian reform rhetoric mostly faded, or, as the author terms it, was “socialized” (p. 13), and mostly replaced by the hard empirical language of the above-mentioned burgeoning “active” disciplines. However, the sense of missionary zeal and notions of secular “salvation” remained a hallmark of the Progressive movement. If salvation could be socialized so too could sin (p. 13). That is to say, those problems that had previously been seen at least partially as religious in nature became social. Laissez-faire capitalism, for example, was not rapacious and exploitative merely because it was a sinful system run by sinful people but because it was “scientifically” incorrect. The Bible could offer insights into social problems but ultimately the responsibility fell to the state to re-make society in accordance with Christian ethics.

In the second chapter, “Turning Illiberal,” Dr. Leonard describes the professionalization of economics, the turn away from British classical liberalism towards German economic theory, and the origins of tensions within the Progressive movement between those who believed in democracy and those who did not. Germany, by the late 19th century had become the premier destination for graduate students wishing to study political economy. Germans were on the cutting edge of this newly formalized discipline — one that was almost entirely nonexistent in American universities. In contrast to Anglo-American classical liberalism, Germans saw the economy as a “product of a nation’s unique development” and believed that its “workings were not unalterable natural laws, [but] were historically contingent and subject to change” (p. 17). The author writes:

The progressives’ German professors had taught them that economic life was historically contingent. The economy wrought by industrial capitalism was a new economy, and a new economy necessitated a new relationship between the state and economic life. Industrial capitalism, the progressives argued, required continuous supervision, investigation, and regulation. The new guarantor of American progress was to be the visible hand of an administrative state, and the duties of administration would regularly require overriding individuals’ rights in the name of the common good (pp. 21-22).

Germans had demonstrated to American students that economics could be a tool of statist reform with a sound theoretical basis. They also demonstrated that it could be a distinguished and respected career path (p. 18). Those students who returned from Germany came home with a very different conception of the role of the economy in relation to the state and, at the same time, had little competition in establishing themselves in American universities and think tanks. It was a powerful position from which to begin their activism, both in terms of knowledge and opportunity.

Just as the German view of the relationship between state and economy had informed American Progressives, so too did the German Historical School’s conception of the nation as an organism (p. 22). This, coupled with the tremendous influence of Darwinist evolutionary theory in all intellectual circles, caused a distinct shift away from American individualism. Richard Ely, founder of the American Economic Association and a highly influential Progressive, explicitly rebuked the notion that the individual comes before society. Washington Gladden, a charter member of the same organization, argued that American individualism was “a radical defect in the thinking of the average American” (p. 22). The concept of the autonomous individual was seen by Progressive economists as a relic of a soundly refuted, old-fashioned ideology. A new class of superior, scientifically-informed men had to take charge of society if it were to rid itself of such antiquated and backwards beliefs.

In the third chapter, “Becoming Experts,” the author delves deeper into the tensions between expertise and democracy, the differences between Left and Right Progressives, the building of the administrative state, and “war collectivism.” Progressives maintained that the good of the people could best be guaranteed by limiting the power of the people — or, expressed positively, by entrusting the care of the people to experts. Dr. Leonard writes: “Financial crisis, economic panic, violent labor conflict, a political war over monetary policy, and the takeoff of the industrial merger movement combined to generate a groundswell of support for economic reform” (p. 30). This convinced many important Progressive intellectuals that government service was a far more important use of their expertise than was the role of public intellectual. Activism was a crucial strategic and ideological element of their project. The future, according to Progressives, should not be left to chance. It had to be engineered, and someone had to engineer it. If one genuinely cared for future generations, a processes to guarantee their success had to be put in motion rather than simply theorized.


In his discussion of the distinction between Left and Right, Dr. Leonard accurately dismantles the problems with this dichotomous analytical tool. He writes that “progressive” is a “political term and political historians tend to an ideological lens . . . Ideology is [a] useful tool of taxonomy, but when it is reduced to one dimension, it is the enemy of nuance” (p. 38). Rather than frame Progressives as either Left or Right, he usually prefers the term “illiberal” — the belief that, contra liberalism, society takes preference over the individual. Indeed, the very concept of “reform” is often tainted with a Leftism that isn’t always quite there. Many of the positions that modern progressives hold today would be abhorrent to historical Progressives, just as many positions that conservatives hold today would be abhorrent to conservatives of the era. For example, the Progressive Republican Theodore Roosevelt was no fan of laissez-faire capitalism and favored an increase in the regulatory powers of the government, while William Graham Sumner, a conservative opponent of Progressivism, was a believer in free markets but a staunch opponent of imperialism and big business (pp. 39-40). The political battle lines of today differ greatly from those of the past, a fact which seems to validate the 19th century Germanic conception of the relationship of state, economy, and law as being historically contingent. What we think of now as Left or Right was largely absent from Progressive discourse.

Dr. Leonard goes on to discuss the creation of what he calls the “fourth branch” of government (the administrative agencies). The quintessential example of the ascendancy of the fourth branch is the Wisconsin Idea — the integration of government and academic experts in Wisconsin in order to govern the state with maximum efficiency. Many involved in the creation of this integrated system credited its success specifically with the heavy German population of the state. In his 1912 book on the subject, Charles McCarthy described the architect of the Wisconsin Idea, Robert Ely, “as a pupil of German professors, who returned from Germany with German political ideals to teach German-inspired economics at a German university (the University of Wisconsin) in the German state of Wisconsin, where the young men he most inspired were, yes, of German stock” (p. 41). The state government was, to a previously unknown degree, put in the charge of Progressive experts who created on American soil what was in effect an ethnic German state. The Progressive movement, both in theory and in practice, was distinctly Teutonic in conception.

This “fourth branch” of government was established in Washington D.C. by Woodrow Wilson and solidified during World War I by the success of “war collectivism.” The hand of the federal government was greatly strengthened at this time in order to aid the war effort. This is the period in which the income tax was established and was soon followed by corporate and inheritance taxes as well as numerous other reforms and the creation of various administrative agencies (pp. 43-45). Having established themselves as experts, the expert recommendations of the Progressives usually included the establishment of permanent regulatory agencies — “ideally an independent agency staffed by economic experts with broad discretionary powers to investigate and regulate” (p. 43). The author credits much of this to personal ambition rather than idealism, which is doubtless true to some extent but is at odds with his earlier descriptions of the visionary reformist mission of Progressives. Perhaps writing a century later it is hard not to be cynical about such things, but little in his prior discussion would indicate personal ambition as a primary motivating force. And even if it had been the case, their efforts were consistent with their ideology. Personal ambition without value-compromise can hardly be seen as a negative. But throughout the book attempts to tarnish the images of Progressives by insinuating that they were somehow morally compromised (how else to explain their illiberal views?).

Toward the end of the chapter, the author begins his discussion of race, a central concern of Progressives. It was simply understood by Progressives (and most others of the time) that blacks were incapable of freedom. Woodrow Wilson wrote that blacks were “unpracticed in liberty, unschooled in self-control, never sobered by the discipline of self-support, never established in any habit of prudence . . . insolent and aggressive, sick of work, [and] covetous of pleasure” (p. 50). The sociologist Edward Ross, in a statement the author refers to as demonstrating contempt for his “imagined inferiors” (p. 50) wrote: “One man, one vote . . . does not make Sambo equal to Socrates” (p. 50). Such statements seem to contradict the Progressive belief in the elevation of the common man (as contemporarily understood) but as Dr. Leonard points out, the “progressive goal was to improve the electorate, not necessarily expand it” (p. 50). The whole of the country would be better off if its leadership could be entrusted to a superior piece of the American electorate. This was a fundamental tension among Progressives: “Democracies need to be democratic, but they also need to function . . .” (p. 51). American democracy could not function with unintelligent people voting but, given American history, the concept of voting was not up for debate. Thus began the deliberate disenfranchisement of blacks and others deemed unfit for equal rights in American society.

In chapter four, “Efficiency in Business and Public Administration,” the author details the Progressive push for efficiency, the influence of Taylorism, and the beginning of the scientific measurement of mankind for utilitarian purposes. Objective as possible in their approach to the economy, Progressives (with few exceptions) did not regard big business itself as a problem. Scale was, for them, unrelated to efficiency. Efficiency was a goal that could be handled by experts regardless of the size of the project. The classical liberal notion of market efficiency, even if it could be demonstrated to be true, was, like Darwinian evolution, a slow and haphazard process that could be sped up and forced in entirely desirable directions with proper management. Big business was simply a fact of the new economy. As such, it was not undesirable in and of itself, but required outside guidance to achieve socially acceptable results while avoiding “market-made waste” (p. 57). Progressives famously feared monopoly because it could produce political corruption as well as reduce innovation but, as the author writes, “progressives distinguished monopoly from size, and because of this, were not antimonopoly in the populist sense of the term” (p. 57). Indeed, big business was generally thought to be inherently more efficient than small business. As with everything else, proper administration was the key to success.

scientificmanagement.jpgThe 1911 publication of Frederick Taylor’s The Principles of Scientific Management was a watershed moment for Progressives. It offered a scientific method for improving workplace efficiency. By measuring and analyzing everything from workplace break times to the weight of shoveled material, industry would be able to maximize efficiency down to the minute and the pound. Taylorism has since become an epithet, used to describe the dehumanizing effects of the time clock, the oppressive nature of constant managerial supervision, and the turn away from skilled labor in the workforce. However, for Progressives it promised a new approach to the workplace that could make life better for everyone. Those experts who would take charge of industry would be able to maximize the public good while minimizing the power of capitalists and financiers. Men such as the Progressive political philosopher Herbert Croly believed that Taylorism would “[put] the collective power of the group at the hands of its ablest members” (p. 62). For Progressives, scientific management was a noble goal and a model to be followed. It fit perfectly with their basic beliefs and soon spread elsewhere, including into the home, the conservation movement, and even churches (p. 66-69).

The Progressive era was the era of social science. Scholars, commissioners, politicians, and journalists set out to understand the reality of American social life through scientific methods. Few reading this will be surprised with the conclusions of virtually all of these efforts. What this research — into race, into immigration, into domestic behavior, into social conditions — demonstrated was that there was a clear correlation between race and intelligence and the ability to function in American society. Intelligence tests and vast amounts of data collected from the military and immigration centers were collected and analyzed. For Progressives, race science was obviously and demonstrably real and had to be treated with the same scientific objectivity as the economy or any other facet of human existence. America was then, as it is now, being populated rapidly with provably inferior and/or inassimilable human beings. Progressives began to warn of the dangers of Jewish and other non-white immigration to the United States, as well as the problems stemming from rapidly breeding inferior American citizens.[1]

Chapter five, entitled “Valuing Labor: What Should Labor Get?,” describes how Progressives dealt with the question of labor. They sought to determine what labor was getting, how wages were determined, and what labor should get (p. 78). Dr. Leonard writes:

For nearly all of recorded history, the notion of laborers selling their labor services for wages was nonsensical. Labor was the compelled agricultural toil of social inferiors in the service and under the command of their betters. In the United States, this remained true well into the nineteenth century. The value of labor depended on what the worker was — free or slave, man or woman, native or immigrant, propertied or hireling — not what the worker produced or wished to consume (p. 78).

The thinking behind these categories is treated with contempt by the author, of course. The idea that the labor of a black man could be worth less than that of a white man based on something external to mere prejudice against “skin color” or that the labor of an immigrant could be worth less than the labor of a citizen to those who might feel a deeper affinity for their own countrymen was, to him, symptomatic of a “hierarchy that plagued economic life” (p. 79). He relates the claims of race science with contempt but offers no justification for his disdain. But, by simply ignoring the reality of race and sex differences, the author is able to trace the concept of inferior labor back to the Greeks — as if attitudes towards labor even between similar peoples are not themselves historically contingent.

The author sees two fundamental and separate approaches to political economy throughout history: “market exchange and administrative command” (p. 79). He notes correctly that in the centuries between Socrates and Adam Smith, the market was seen as a place of chaos, disorder, Jews (he uses the semi-cryptic “Shylocks” rather than Jews), and unscrupulous persons of various sorts. The Greek prioritization of the political over the economic is, for Dr. Leonard, the source of the various manifestations of human hierarchies in Western societies and economies.[2] [3] Greek men somehow just decided for no valid reason whatsoever that women should supervise the household, market services be left to foreigners, and labor relegated to non-Greeks. These were simply ideas that had “extraordinary staying power in Europe” (p. 80) and thus led to aristocracy and other unnatural hierarchies until Adam Smith blessed Europe with his belief in individualism and natural liberty. Again, the author deliberately chooses to ignore the very real biological bases for such facts of human social life. Command economies are, to the author, somehow “bad” because he sees them as having been based in ignorance and vaguely conspiratorial hierarchical social arrangements.

Enlightenment notions of individualism and liberty were, of course, central to the rhetoric of the American project. However, America did not practice what it preached (nor did it really preach “what it preached” but that is far beyond the scope of this piece): slavery existed in the South and was defended by Southerners as far more humane than the wage-slavery of the North; Northern abolitionists saw this as an absurd comparison and argued that at least free laborers could get up and leave if they were unhappy. But both saw the laborer in one form or another as being an inferior creature. This attitude was to carry through to the Progressive era. As the author puts it, “reformers still saw a bit of the slave in the wage earner, no matter how ubiquitous the employee now was” (p. 84). He goes on to note that when millions of women and immigrants joined the workforce, this reinforced the notion of the laborer as inferior.[3] [4]

If the laborer is inferior, what should they be paid? Progressives believed in the power of the government to change social conditions. As such, they believed that policies could be enacted that would enable laborers to live comfortably, with enough money to be upstanding citizens and raise healthy families. Differing theories existed for how fair wages should be determined, but Progressives tended to reject the idea that wages were anything less than a “worker-citizen’s rightful claim upon his share of the common wealth produced when the laborer cooperated with the capitalist to jointly create it” (p. 86). As is always the case among economists, vigorous debate ensued. The goal was for workers to receive a living wage but how this was to be accomplished was a matter of some controversy. The author discusses some of these theoretical disagreements but concludes that the one thing that united all Progressives in this matter was the belief that “work will always go to the lowest bidder . . . there was a race to the bottom, and the cheapest labor won” (p. 88). However, he pathologizes this as an “anxiety” rather than a real problem experienced by rational people so that Progressive concerns about the intersection of economy and race be seen by the reader as a kind of irrational social “disease,” a collective neurosis with deep roots in the American (read white) psyche.

eugenics3755357.jpgIn chapter six, “Darwinism in Economic Reform,” Dr. Leonard relates how Darwinism was used by Progressives to acquire the “imprimatur of science” (p. 105). Darwinism proved to be a very flexible conceptual tool. It allowed for incorporation into various fields of thought and, within those, still more differing points of view: it was used to advocate for capitalism and for socialism; war and peace; individualism and collectivism; natalism and birth control; religion and atheism (p. 90). Darwinism and related ideas (such as Lamarckism) provided Progressives with a scientific basis upon which to argue for both economic improvement and biological improvement. There was no consensus on which aspects of Darwinism to incorporate into their logic but something the vast majority had in common was the belief in the importance of heredity and that artificial selection, as opposed to natural selection, was the most efficient means of securing a healthy society comprised of evolutionarily fit individuals.

Social Darwinism was a concept championed by believers in the free market. As the author notes, it was always a used as a pejorative and Progressives had to distance themselves from it (p. 99). They did so by challenging laissez-faire using Darwinist principles, an idea that came to be known as Reform Darwinism. The Reform Darwinists, led by the sociologist and botanist Lester Frank Ward, challenged laissez-faire by asserting that capitalists thrived in the Gilded Age because “they had traits well adapted to the Gilded Age” but that these traits were not necessarily “socially desirable” (p. 100). They also asserted that society was an organism that “had a necessary unity” but “not an inclusive one” (p. 102). An organism must always protect itself from threats and an organism must also prioritize the whole over the part. This organic model of society influenced every Progressive concern. If, for example, a corporation was a legal person entitled to the same protections as an individual citizen, then surely “the state was an even larger organism, one that encompassed and thus subsumed corporate and natural persons alike” (p. 100).

Progressives also attacked natural selection as “wasteful, slow, unprogressive, and inhumane” (p. 100). Agreeing that robber barons and rich fat cats were an example of the degenerative tendencies of capitalism, society had a duty to protect itself from such people (p. 100). Natural selection did not always lead to progress. It was environmentally contingent. Richard Ely argued that “Nature, being inefficient, gives us man, whereas society ‘gives us the ideal man'” (p. 104). The free market rewarded those who could make the system work to their advantage by any means necessary, not those who possessed traits that were desirable for a healthy, moral society. Regulation could help fix this problem. Woodrow Wilson wrote that “regulation protected the ethical businessman from having to choose between denying his conscience and retiring from business” (p. 105). Combined with German economics, German historical theory, an activist sociology, and a commitment to the benefits of efficiency, the influence of Darwinism made the development of workable eugenics policies almost a certainty.

In the seventh chapter of the book, “Eugenics and Race in Economic Reform,” Dr. Leonard provides a brief overview of the history of eugenics. He also describes how it entered American intellectual discourse and how it was applied to race science. With roots as far back as Plato and popularized by Francis Galton in the late 19th century, eugenics was the obvious solution to many of the social problems that the Progressives were tackling. The author quotes Galton for a broad explanation: “what nature does blindly, slowly, and ruthlessly, man may do providently, quickly and kindly” (p. 109). The ideas of eugenicists gained mainstream traction rapidly. By the early 20th century, states were passing sterilization laws. By the end of World War I, concerns about the terrible death toll of white men had prompted many American intellectuals to worry deeply about the crisis caused by the loss of so much “superior heredity” (p. 110). American universities began teaching eugenics courses, textbooks on eugenics were written, journals were published, and societies devoted to encouraging the spread of eugenics programs and race science were created.

Francis Galton had gone so far as to declare a “Jehad [sic]” on the “customs and prejudices that impair the physical and moral qualities of our race” (p. 112). Influential Progressives like Irving Fisher and John Harvey Kellogg sought to make this a reality by creating a sort of religion out of eugenics (p. 112). Concern for the white race played an explicit part in Progressive thought. There was nothing coded about it. Like the social gospelers of early Progressivism, the eugenics movement evangelized very effectively. The concept of racial health was soon to be found virtually everywhere one turned, from women’s magazines, movies, and comic strips to “fitter family” and “better baby” contests at agricultural fairs across America (p. 113). Lothrop Stoddard published his classic The Rising Tide of Color Against White World-Supremacy in 1920, and the famous Supreme Court decision in the case of Buck v. Bell in 1927 affirmed that the state had a right to sterilize individuals deemed a genetic threat to society. It is important to note that not all eugenicists were Progressives but the vast majority of Progressives were eugenicists. For them, things such as environmental conservation went hand in hand with racial “conservation.”

For Progressive eugenicists, the administrative state was the most effective defense against racial degeneration (the effects of adverse conditions on a race of people) and race suicide (the effects of a superior race being outbred by inferior races) (p. 117). Poor and uneducated whites were seen to be redeemable given the proper environmental conditions and thus genetically able to assimilate into American society. Non-whites were incapable of assimilation because of their lower intelligence and racially-specific habits and attitudes. Of particular concern was the American black population. White Progressives saw them, at best, as docile children who should be treated as such for the good of all, and, at worst, as a weight that would sap American energy and  character (p. 122). Even among the handful of black Progressives, such as W.E. B. DuBois and Kelly Miller, race was seen as a problem for America. Though they rejected the notion of the genetic inferiority of blacks, they recognized that the rapidly breeding lowest IQ blacks threatened to overwhelm the elite few — the “Talented Tenth,” as DuBois famously described them (p. 122).

But non-whites were not the only concern of the Progressive eugenicists. As indicated above, racial degeneration was of great concern. Literature on degenerate families became wildly popular at this time, bringing to the American lexicon such names as the Jukes and the Kallikaks. These families (given aliases by the authors of these studies) had their histories published as warnings about the dangers of what some would now refer to as “white trash.” The contradictions here are apparent: Progressives sought to improve the conditions of the white poor while at the same time wrestling with the question of whether poor whites were genetically unfit and simply irredeemable by external measures. The latter question, however, was also asked of the rich, who some Progressives saw as even better evidence of racial degeneracy. As with every other issue, there was a certain amount of disagreement among Progressives about specific questions and how to best administer solutions, but the concerns themselves were universal.

Perhaps the greatest concern was with the effects of immigration on the American gene pool. The author subscribes to the notion of an imagined “whiteness” and, as is customary, uses the Anglo-Saxonist tendencies of Progressives to call into question the validity of race science. This is to be expected and can be ignored. But it was indeed a concern of the era, especially as immigrants poured onto American shores. Some Progressives argued that democracy had its origins in the Anglo-Saxon race and that immigration from other areas of Europe was detrimental to survival of the American way of life. Walter Rauschenbach, a “radical social gospeler” (p. 124) argued that capitalism “drew its ever-increasing strength from the survival of the unfit immigrant” (p. 125). Rauschenbach was a committed Anglo-Saxonist and such views had long held sway in Progressive circles, from social gospelers to anti-Catholics to Prohibitionists. But it does not follow that concerns about immigration were irrational because one particular group of whites at the time did not like the customs of another group of whites. Nor do these antiquated distinctions invalidate the entirety of race science, however many times they are used in attempts to do so by this author and so many others.

Chapter eight is entitled “Excluding the Unemployable.” In it the author delves into how Progressives related racial inferiority and other traits deemed as markers of inferiority to labor and wages. He writes: “The Progressive Era catalog of inferiority was so extensive that virtually any cause could locate some threat to American racial integrity” (p. 129). Obviously, non-whites were seen as a threat, but so were white alcoholics, the poor, epileptics, and others. He argues that in antebellum America, laborers knew their place and stayed there. From slaves to women, strict social and sometimes legal controls assured the maintenance of this hierarchy. Postbellum industrialization and the emancipation of slaves threatened this order: “Inferiors were now visible and perceived to be economic competitors” and were either “portrayed as the exploited dupes of the capitalist” or “as the capitalist’s accomplices” (p. 130). Those who were literally incapable of work and those who were willing to work for lower wages than “superior” Anglo-Saxon stock were given the label “unemployable.”

citizens-l.jpgThese “unemployables” were seen as being parasitic. They undercut wages and threatened American racial integrity. The capitalist drive towards cheap labor was certainly seen as partly to blame for this problem, but Progressive discourse began to focus more on biology than economics. Blame was increasingly shifted towards the actual laborers themselves rather than the system that encouraged them to accept lower wages. In what was known as the “living-standard theory of wages,” the unemployables were seen as being able to live on less than the average American worker due to their willingness (either racially-determined or resulting from inferior minds) to accept poor living conditions. The white American worker, it was believed, would reduce his number of children rather than sacrifice his standard of living, thereby increasing the risk of Americans being outbred by inferior stock. This line of argument gained popular currency with the sometimes violent union activism against Chinese workers. Edward Ross wrote that “should wors[e] come to the worst, it would be better for us if we were turn our guns upon every vessel bring [Asians] to our shores rather than permit them to land” (p. 135). The notion of immigrants and others being regarded as scab labor was widely accepted across the political spectrum but was central to Progressive concerns because they were able to see it as symptomatic of multiple grave problems with American society. In order to correct these problems, better methods were needed to identify and exclude the inferiors who were threatening American jobs and lowering the American quality of life.

In chapter nine, “Excluding Immigrants and the Unproductive,” Dr. Leonard examines the methods used for exclusion. The most obvious method was the use of immigration restrictions. Numerous laws were enacted either limiting or barring entirely immigration from certain parts of the world. Restrictions were also imposed by those otherwise deemed a threat to the country, i.e. anarchists, polygamists, and epileptics (p. 142). In 1905, a law was passed that prohibited contract labor altogether (companies paying immigrants to come to America in exchange for labor). A literacy test was also proposed for anyone trying to enter the country, however the effort actually failed when Woodrow Wilson inexplicably vetoed the bill in 1917. Edward Ross blamed Jews for this loss. He wrote that they were financing the anti-restrictionist campaign and pretending that it was for the benefit of all immigrants but was actually “waged by and for one race” (p. 158). But does the author investigate this claim? Of course not. It is easier to label Ross an anti-Semite and move on. To do otherwise might turn up some uncomfortable facts.

Other restrictionist actions met with success: in 1907, the Expatriation Act required American women who married foreigners to surrender their citizenship; massive federal investigations were undertaken to study the problems of immigration; and various private organizations sprung up devoted to anti-immigration advocacy. (p. 143). For Progressives, the issue of race had become one of their deepest concerns. It was, generally, either considered the main determinant of historical change, for better or for worse, or at least an extremely important one. It comes as no surprise that the founding of the United States would be interpreted through a Darwinist lens by Progressives. The author spends some time critiquing their use of Darwinist concepts to defend the original colonists as pioneers and conquerors (that is, “fit”) and later immigrants as simply following a path already tread in opportunistic fashion (“unfit”). Never mind that this is quite obviously at least partially true. He even fails to see the distinction between a colonist and an immigrant, wholeheartedly buying into the ridiculous “nation of immigrants” theory of American demographics that is so popular today.

Progressive eugenicists saw the immigration problem as an opportunity to assert their particular interests. Interest in race science grew exponentially. Various classificatory systems were proposed, studied, and refined, each of which generally had the expected hierarchies: whites at the top, blacks on the bottom. Within each category were, of course, numerous other sub-categories. But almost all races (both in the contemporary sense and in older sense meaning “ethnicity”) was charted and described in great detail. It was crucial from the standpoint of the Progressive eugenicists to use this information to prevent the race conflict that they believed would naturally arise from the intermingling of dissimilar peoples from across the globe. Even the few Progressive intellectuals who were genuinely egalitarian in outlook believed that race-based immigration policies were crucial. John Dewey, for example, supported them because he believed average Americans were too primitive to adopt his supposedly enlightened view that race was a fiction, thus making race conflict inevitable anyway (p. 153). Unsurprisingly, those who opposed immigration restrictions tended to be Jews such as Franz Boas, philosemites such as Emily Balch, and/or laissez-faire capitalists. The motives of the restrictionists are called into question by the author — but not those of the anti-restrictionists, of course. They were simply uniquely informed and tolerant for their time.

The above also fueled the debate over the minimum wage. It was commonly accepted that a legal minimum wage would put some people out of work. Progressives tended to see this as a good thing insofar as it removed inferior laborers from the job market. Dr. Leonard writes: “It deterred immigrants and other inferiors from entering the labor force, and it idled inferior workers already employed. The minimum wage detected the inferior employee, whether immigrant, female, or disabled, so that he or she could be scientifically dealt with” (p. 161). Ways in which these inferiors could be dealt with “scientifically” included simple things such the return of formerly-employed women to the home and far more complex solutions such as labor colonies for the unfit and forced sterilization. As was the case with all internecine Progressive debates, however, the thinking was always keenly focused on future generations. One particular intellectual might disagree with another about a certain policy proposal or belief, but the goal was the same: a harmonious society and healthy race. And since neither can exist without women, it was natural for Progressives to consider the role of women in society.

In the tenth and final chapter of the book, entitled “Excluding Women,” Dr. Leonard examines the views of women’s employment and civil rights within the Progressive movement. Women were always an important part of efforts at labor reform and the drive to improve various aspects of social life. But most Progressives had very strong views on the proper role of women in society. Richard Ely argued that women should be barred from the workplace (p. 170). Many, however, did not go to quite to this extreme. Efforts were made to simply limit the number of hours women were legally allowed to work, for example. The idea behind this was, of course, that women were physically weaker and needed protection from exploitative employers. But there were other issues of importance to Progressives as well, including the desire to combat prostitution. This concern was sometimes used to defend the minimum wage. If working women could make more money per hour they would be less likely to resort to prostitution to make ends meet. The obvious problem here is that the minimum wage was supposed to make certain people unemployed, and this group included women. It was assumed, however, that unemployed women would be cared for by the men in their lives, thereby providing the benefits of higher wages to men, a more appropriate environment for women, and helping to guarantee the health of the race. Whatever limitations this placed on a woman’s individual rights were explicitly justified by concern for the race.

For some Progressive feminists, male social domination had had a dysgenic effect by punishing the race’s strongest women by confining them to the household (p. 179). Most Progressives, however, believed that motherhood was the duty of women and had to be encouraged and thought such ideas absurd. Theodore Roosevelt, for example, had special contempt for those women from privileged backgrounds who did not have enough children despite being able to afford it. Referring to them as “race criminals,” he believed that such behavior was the height of selfishness (p. 180).

The debate over birth control was related to this attitude. Birth control, then as now, was mostly used by the most privileged in society and less so by the lowest classes. It thus had an obvious dysgenic effect. The author sees the synchronic concerns of Progressives with women’s health, sexual virtue, economic competition with men, and health of the race as contradictory. He writes:

If she were paid very little, she was admonished for endangering her health, risking her virtue, and threatening hereditary vigor. If she commanded a slightly higher but still modest wage, she was condemned for undercutting men’s family wages and for neglected [sic] her maternal duties. If she were well paid, she was admonished for selfishly acquiring an education, pursuing a career, and thus shirking her reproductive responsibilities to society and the race (p. 182).

Though there is a superficial tension between these things, he fails to see that there is no necessary contradiction here. It is entirely possible for women to be economically exploited laborers whose employment lowered men’s wages and for their ideal place to be in the home, nurturing the future of the race. Progressives generally saw the employment of women as a precursor to starting a family or as a result of misfortune anyway (p. 178). Sex-specific protections in the workplace, as well as a minimum wage that would displace many of them, would be a perfectly sensible goal for any state that had the future of the race as a primary focus. Dr. Leonard’s concern with finding hypocrisy in every statement relating to race and sex blinds him to reasonable conclusions. The Progressives, however, were not handicapped by ideological taboos and ultimately rejected the small, internal strain of equal-rights feminism within their ranks in favor of protecting the race. Progressives fought hard against the Equal Right Amendment of 1923, but by the mid-1920s, the Progressive Era was winding down and within a few years the zeitgeist would change considerably.

We see in the Progressive movement the last explicit, mainstream advocacy for the white race on American soil. The author clearly realizes this and chooses to ignore every single claim made by Progressives that does not fit with contemporary notions of social constructivism. He quotes Progressives in order to mock them, not to investigate whether what they said had a basis in fact. One might object by saying that it is beyond the scope of the book to investigate race science itself in order to discuss its role in the Progressive era. But the book starts out with the lie that race science has been discredited and everything that follows is therefore either directly based on a lie or has a lie as its overarching context. The point of the book, however, is not to enlighten the reader about anything of substance. His goal is merely to frown upon “racists” and “sexists” with the reader, to roll his eyes at ignorant Progressives along with his academic colleagues, and pray that his book is assigned in universities across the country in order to further indoctrinate students into the secular religion of egalitarianism.

This is not to say that there are not important issues discussed in the book. Clearly, there are. Nor is any of the above meant to suggest that Progressives were correct about everything. Clearly, they were not. But one cannot help but wonder how different America would look today if the Progressives had been able to further investigate and discuss these important issues as a part of the mainstream. What would this country look like now if such ideas had not been turned into “thought crimes?” In so many ways what we see in progressives today is a complete about-face from the intellectual heritage they claim. And in so many ways what we can see in the real Progressive movement is profoundly, devastatingly prescient and of utmost relevance to the contemporary American sociopolitical landscape. These issues are just too important to be left to a hack.


1. As many readers will be aware, there was a distinct bias towards Nordics among American whites at this time. Many Southern and Eastern European whites were deemed inferior–a hammer used frequently to hit racialists over the head in arguments intended to “deconstruct” whiteness. It is also, unfortunately, still found in White Nationalist circles. Nordicism is dealt with very well by Greg Johnson here (http://www.counter-currents.com/2016/03/nordics-aryans-an... [5]).

2. One wonders how he might explain similar hierarchies in non-European civilizations.

3. How labor would have fared in the 20th century without the presence of millions of women and immigrants to bolster notions of their inferiority is a question that should be asked of every contemporary “progressive.” One might also ask why, if racial diversity is such a tremendous and obvious social good, how it is that highly-educated Progressives completely failed to realize this — especially considering that theirs was a mission to increase the standard of living in America.

Article printed from Counter-Currents Publishing: http://www.counter-currents.com

URL to article: http://www.counter-currents.com/2016/06/racism-eugenics-and-the-progressive-movement/

URLs in this post:

[1] Image: http://www.counter-currents.com/wp-content/uploads/2016/06/IlliberalReformers.jpg

[2] Illiberal Reformers: Race, Eugenics & American Economics in the Progressive Era: http://amzn.to/293MqYr

[3] [2]: #_ftn2

[4] [3]: #_ftn3

[5] http://www.counter-currents.com/2016/03/nordics-aryans-and-whites/: http://www.counter-currents.com/2016/03/nordics-aryans-and-whites/

samedi, 06 février 2016

Un regard évolutionniste sur l’éducation

Un regard évolutionniste sur l’éducation
Stevan Miljevic
Ex: http://www.lesobservateurs.com

La psychologie évolutionniste est le fruit de la rencontre entre la psychologie et la théorie de l’évolution. Elle vise à expliquer les comportements humains sur la base d’hypothèses évolutionnistes.

Comment ça marche ?


Dans son acceptation universelle, cette nouvelle manière de concevoir le fonctionnement de l’esprit postule qu’à l’exemple des autres organes, le cerveau également a été façonné par la sélection naturelle. L’hypothèse est la suivante : lorsque certains problèmes universels se sont posés à nos ancêtres des cavernes, ceux qui possédaient les capacités cognitives les plus adaptées à leur résolution ont survécu et se sont multipliés alors que les autres disparaissaient. De cette manière, le cerveau de l’espèce humaine s’est adapté de manière à fournir les meilleures potentialités de résolution des situations problématiques rencontrées par nos prédécesseurs chasseurs-cueilleurs.

La quasi-totalité des humains de la préhistoire ont été confrontés à des problèmes globalement assez similaires. Ils ont notamment dû faire face à de longues périodes de fluctuations climatiques et ont été obligés de s’adapter à certaines contraintes issues de leur environnement proche. Comme la vie isolée du groupe n’était pas possible, ils ont également été exposés à des dynamiques sociales complexes plus ou moins pareilles. Celles-ci se sont exprimées au sein du groupe tout comme dans les relations entretenues avec d’autres clans humains. Face à des contraintes existentielles fortes et universelles, le cerveau humain a muté petit à petit pour permettre aux hommes d’acquérir le plus simplement possible toute une série de compétences nécessaires à leur survie.

L’évolutionniste David Geary classifie ces capacités dans un groupe commun appelé capacités primaires ou naïves. Elles sont naïves car, selon lui, après plusieurs dizaines/centaines de milliers d’années d’évolution, le génie humain est désormais naturellement programmé pour que ces compétences se développent par elles-mêmes, sans effort particuliers, inconsciemment et très rapidement. Le degré de complexité de ces compétences ne change absolument rien à l’affaire.

Mais quelles sont donc ces compétences primaires ?

Dès que l’homme des cavernes a été amené à bâtir des abris, à créer des outils pour la chasse ou à user du feu pour cuisiner et ainsi augmenter ses chances de survie, il lui a fallu définir ses besoins pour y arriver, explorer et analyser son environnement proche et en extraire les ressources nécessaires. En conséquence, et puisque ces activités se sont perpétuées sur de longues périodes, le cerveau de l’homme s’est adapté de manière à faciliter la mise en branle de ces compétences. Ainsi, des modifications sont intervenues et, depuis, l’être humain a acquis des prédispositions innées à résoudre des problèmes. Il en va également de même dans le domaine des interactions sociales

Comme l’encéphale de nos élèves est calibré de manière à ce que ces compétences primaires se développent naturellement, il en découle que les dispositifs pédagogiques de résolution de problème, de découverte, d’enquête ou autre projet sont inutiles en terme de développement de compétences. Tout comme d’ailleurs les systèmes d’enseignement visant à développer des compétences transversales du type communicatives ou collaboratives. Si tout cela se fait naturellement, inutile de réinventer l’eau chaude systématiquement en classe. Concentrons plutôt nos efforts sur des choses qui en valent la peine.

Le seul résidu d’utilité qui peut éventuellement rester à ces méthodes réside dans l’acquisition de connaissances qu’elles peuvent susciter. Or, à ce sujet, les études empiriques menées à ce jour sont claires : ces méthodes d’apprentissage ne génèrent qu’une efficacité très limitée.  La thèse évolutionniste abat ainsi définitivement les derniers vestiges de crédibilités qui pouvaient rester au constructivisme éducatif.

Autres apports évolutionnistes

L’apport de Geary et des évolutionnistes pour le domaine éducatif ne s’arrête pas là. Leur théorie prétend également répondre à la lancinante question du « pourquoi apprendre » et donc, par là même, du contenu de ces apprentissages. Selon eux, en exerçant et développant leurs compétences primaires, les hommes ont développés d’autres connaissances qui, elles, n’étaient pas nécessaires à leur survie directe. Ainsi, au fur et à mesure que les sociétés ont crû, qu’elles ont évolué, elles ont acquis un corpus de connaissances culturelles et scientifiques dont la nature diverge profondément des habilités primaires : les connaissances secondaires. Soit qu’elles soient trop récentes soit qu’elles n’aient pas trait à la survie de l’espèce, ces nouveaux savoirs n’ont pas suscité de développement particulier du cerveau et nécessitent donc un effort particulier et important pour être assimilés.

L’accumulation de ces nouvelles connaissances a permis aux hommes d’aller de plus en plus loin, de s’éloigner de plus en plus du concret de tous les jours et d’atteindre des niveaux d’abstraction de plus en plus conséquents. Les savoirs ainsi générés s’éloignent ainsi de plus en plus des aptitudes primaires humaines. Voici deux exemples pour illustrer le cas : en mathématiques, l’aspect très concret de la géométrie la place à proximité des aptitudes primaires alors que l’algèbre, abstrait, en constitue un pôle bien plus éloigné. Dans le domaine de la langue maternelle, la lecture et l’écriture, inventions culturelles tardives, sont nettement plus éloignés des capacités primaires que ne peut l’être l’expression présente très tôt dans l’histoire de l’humanité.

A ce sujet, il faut aussi noter que puisque les élèves sont pré-conditionnés au développement de leurs capacités primaires, ils sont aussi naturellement motivés à les utiliser. Ce qui explique pourquoi un déficit de motivation peut survenir dès lors qu’on les en éloigne. La nature humaine telle qu’elle s’est développée au travers de l’évolution interfère donc régulièrement dans l’acquisition des savoirs académiques.

Enfin, selon Geary, les écoles sont apparues dans nos sociétés dès lors que l’écart existant entre les compétences primaires et les aptitudes secondaires non vitales mais que la société estime nécessaires à une bonne intégration est devenu trop conséquent pour que les habilités primaires permettent à chacun de les acquérir par soi-même. L’école doit donc servir d’accélérateur pour leur acquisition. Ce qui signifie notamment que plus l’objectif à atteindre est éloigné des capacités primaires de l’élève, plus il est nécessaire que le guidage exercé par l’enseignant soit important car les capacités propres de l’élèves ne lui permettent pas d’y arriver seul.

De tout ceci il me semble pouvoir déduire que :

  • Le constructivisme n’a pas sa place dans l’éducation sauf éventuellement pour atteindre les objectifs les moins élevés et ambitieux, ceux dont la nature les place à proximité des capacités
  • Le travail sur la plupart des compétences générales/transversales n’a que très peu d’intérêt. Les compétences ne prennent du sens qu’en tant que combinaisons complexes de différentes connaissances académiques.
  • Une école utile et efficace est une école qui laisse aux individus la responsabilité des apprentissages qu’ils peuvent effectuer facilement tout seul (apprentissage basé sur l’utilisation des capacités primaires) et se concentre plutôt sur ce qui est plus difficile à atteindre tout seul.
  • Pour y arriver un guidage direct important des enseignants est nécessaire. Celui-ci doit être en adéquation avec l’architecture cognitive des élèves
  • Le déficit motivationnel dû à la nature des savoirs à acquérir doit être comblé par des systèmes pédagogiques efficaces permettant l’émergence d’un nouveau type de motivation issue du sentiment d’efficacité personnelle.

Autant dire que si on se fie à l’approche évolutionniste,  notre école fait à peu près tout faux aujourd’hui.

Stevan Miljevic, le 5 février 2016 pour contrereforme.wordpress.com et lesobservateurs.ch

PS: certaines conclusions émises ici bas ne sont pas celles de l'auteur étudié mais celles que j'ai personnellement déduites de ces lectures

Bibliographie et sitographie:

David Geary "The why of learning" in Educational Psychologiste, July 2009 pp.198-201 disponible ici https://www.researchgate.net/publication/233080942

David Geary "Evolution and Education" in Psicothema, February 2010 disponible ici https://www.researchgate.net/publication/41138739

David Geary "Primal Brain in the modern classroom"  disponible ici https://www.researchgate.net/publication/253952304_Primal_Brain_in_the_Modern_Classroom

David Geary "Principles of Evolutionary Educational Psychology" in Learning and individual differences, July 2013 disponible ici https://www.researchgate.net/publication/222830140


jeudi, 07 janvier 2016

Ariane 6 : le début de la fin pour l'industrie spatiale européenne?


Le début de la fin pour l'industrie spatiale européenne ?...

Ex: http://metapoinfos.hautetfort.com

Nous reproduisons ci-dessous une note d'Hajnalka Vincze, cueillie sur le site de l'Institut de Veille et d'Etude des Relations Internationales (IVRIS) et consacré aux décisions européennes récemment adoptées vis-à-vis du programme Ariane. Analyste indépendante en politique de défense et de sécurité, Hajnalka Vincze a travaillé pour le ministère hongrois de la défense et a fondé l'IVRIS, un réseau d'experts européens dans les questions de défense et de géostratégie.

Ariane 6 : le début de la fin pour l'industrie spatiale européenne?

Atout stratégique par excellence, le lanceur Ariane est le symbole même de l’Europe spatiale. Fait plutôt rare, c’est un succès à la fois politique, technologique et commercial. Or il risque aujourd’hui d’être détricoté, suite à un transfert inédit de contrôle et de compétences de l’Etat vers des industriels privés. 

Le projet du nouveau lanceur, successeur de l’actuelle Ariane 5, fut approuvé en décembre 2014 par les ministres européens. Pour faire face à la concurrence internationale, en particulier à l’américain SpaceX et ses lancements à bas prix, ceux-ci ont accepté, de A à Z, un projet proposé par les industriels. Plutôt que de privilégier l’innovation technologique, ce projet se fonde sur la mainmise de ces derniers sur l’ensemble de la filière. Il prévoit une réorganisation-privatisation de fond en comble pour s’approcher d’un modèle, prétendument plus compétitif, importé des Etats-Unis ; mais sans la garantie des engagements étatiques qui, en réalité, le font vivre de l’autre côté de l’Atlantique.

En agissant ainsi, les gouvernements européens, en premier lieu la France, prennent de sérieux risques. Outre les aspects financiers (qui laissent poindre le spectre d’une immense gabegie), c’est avant tout la modification des rapports de force entre industriels et pouvoirs publics qui s’annonce fort problématique. Donner les clés de ce programme hautement stratégique à des industriels comme Airbus, aux visées douteuses et à l’allégeance malléable, témoigne, de la part de l’Etat, d’une attitude pour le moins irresponsable.

Postulats erronés

Précisons d’emblée que la fusée, de même que la société qui l’exploite et le commercialise, Arianespace, est un succès incontesté et incontestable. Pour reprendre les propos de Stéphane Israël, le PDG d’Arianespace, récemment auditionné au Sénat, Ariane est « sur le point de battre un double record opérationnel et commercial », tout en étant une fierté européenne et nationale, ayant pour tâche principale de « garantir un accès indépendant de l’Europe à l’espace ». Chose surprenante par les temps qui courent, M. Israël n’oublie pas de rappeler l’effort collectif à la base de ces résultats remarquables. Quelques mois auparavant, devant les députés, il avait fait remarquer que « les systèmes de lancement que l’entreprise exploite, en particulier Ariane, n’existeraient pas sans la volonté et les investissements publics. Cette fusée est donc aussi un peu la vôtre. »

Or, il est clair que la décision des gouvernements européens concernant la suite de l’aventure soulève plus de questions qu’elle n’en résout. La cause en est simple : ils partent de postulats idéologiques au lieu de s’en tenir aux faits, et préfèrent des gains mercantiles immédiats (par ailleurs incertains) à la stratégie et à la vision politique à long terme. Les deux sources d’inspiration derrière ce choix, entériné en décembre 2014 par les ministres de l’Agence spatiale européenne, étaient l’Allemagne et les industriels eux-mêmes. Comme l’a expliqué la ministre Fioraso à l’époque, c’est Berlin qui fut l’avocat d’« une intégration industrielle plus importante, une prise de risques plus grande des industriels », en faisant valoir que « si l’industrie prend davantage de risques, il est normal qu’elle participe davantage à la conception et qu’elle partage la stratégie ».

Les industriels, eux, n’attendaient que cela. Ils avaient même devancé les gouvernements et les agences spatiales. Airbus, le maître d’œuvre, et Safran, le motoriste, avaient travaillé dans le plus grand secret, pour mettre les autorités publiques devant le fait accompli, en présentant, dès juin 2014 leur projet. En plus du design de la fusée, ils ont annoncé leur intention de fusionner leurs actifs respectifs, par la création d’une co-entreprise. Le tout assorti d’une condition de taille: la cession des parts du gouvernement français dans Arianespace. Deux semaines après, François Hollande lui-même donne son feu vert, lors d’un petit déjeuner rassemblant tous les acteurs principaux au palais présidentiel.

La co-entreprise Airbus Safran Launchers (ASL) aura donc désormais autorité sur les lanceurs dans tous les segments. Outre le développement proprement dit, cela inclut donc la conception (jusqu’ici la prérogative des agences, désormais réduites à définir les grandes lignes), de même que la commercialisation. Car en juin 2015, le gouvernement français a, en effet, entériné la cession des 34% d’Arianespace détenus par le CNES à ASL, ce dernier devient ainsi premier actionnaire avec 74% du capital. Rappelons encore une fois qu’en arrière-fond de cette restructuration-privatisation sans précédent se trouverait la volonté de « l’optimisation » de la filière dans le but de réduire les coûts, pour relever le défi de la concurrence internationale.

Paradoxalement, les points d’interrogation sur l’avenir d’Ariane sont moins liés à la compétition mondiale qu’aux choix opérés par les gouvernements européens soi-disant pour y faire face. A bien y regarder, le tant redouté américain SpaceX ne semble pas provoquer, en soi, un danger existentiel pour Ariane. Tout en reconnaissant les talents de son créateur Elon Musk (on lui doit également le service de paiement en ligne PayPal et les voitures électriques Tesla), il convient de souligner, comme l’a fait le PDG d’Arianespace, que les principaux atouts de SpaceX sont d’ordre politique, dans la mesure où le soutien indirect du gouvernement fédéral lui est fort bénéfique, à la fois en termes de marché captif (garanties de lancements domestiques) et en termes de prix.


En effet, pour citer l’ancienne secrétaire d’Etat chargé du dossier, « les pouvoirs publics américains sont très impliqués ». Et Geneviève Fioraso de préciser que « la Nasa achète 130 millions de dollars à SpaceX un vol que l’entreprise va vendre à 60 millions de dollars à l’exportation. On peut appeler cela du soutien mais c’est du dumping ! » Curieusement, le patron d’Airbus Group, lui, passe cet aspect complètement sous silence lorsqu’il déclare vouloir s’inspirer de SpaceX, en louant notamment leur « dynamisme ». Fidèle à son dogme libéral-atlantiste, Tom Enders s’est servi de SpaceX pour revendiquer une restructuration complète de la filière avec, à la clé, plus de pouvoir aux industriels et la réduction du champ de contrôle des pouvoirs publics.

Incertitudes persistantes

La réorganisation en cours ne se fait pas sans mal, et comporte de sérieuses incertitudes pour Ariane. Pour commencer, l’annonce en fanfare du lancement du nouveau programme, et la passation des contrats qui s’en est suivie, ont failli faire oublier que les Allemands avaient obtenu un point d’étape (go/no go, autrement dit feu vert ou arrêt), à la mi-2016. Or si Berlin a été le grand avocat de l’option « industrielle » retenue pour Ariane 6 (restructuration-privatisation plutôt qu’innovation technologique), c’est avant tout parce qu’il considère le projet sous un angle mercantile. Son soutien risque de s’évaporer si, au lieu de la réduction escomptée des coûts du projet, l’opération finit, ce qui est fort probable, par en augmenter les frais.

Outre la multiplication des factures imprévues présentées par les industriels, l’autre point d’interrogation sur le plan financier concerne les éventuelles réserves des clients actuels et potentiels. En effet, les constructeurs de satellites rivaux d’Airbus (dont c’est une des branches d’activité) pourraient ne pas trop apprécier ce nouvel arrangement. Airbus Group se veut rassurant : pour eux« notre objectif est de vendre le plus de lanceurs possible, y compris pour lancer les satellites de nos concurrents. Rien ne justifie la moindre inquiétude à ce sujet ». Pourvu que les clients partagent ce sentiment. Car même si on leur promet une cloison impénétrable entre satellites faits maison et fusées, il est difficile d’empêcher qu’à un moment ou un autre, le doute surgisse. Que ce soit l’octroi des créneaux de lancement privilégiés ou la possibilité d’offres coordonnées, Arianespace, de facto devenue filiale d’Airbus Group, pourra toujours être soupçonnée de favoritisme.

Pour couronner le tout, en plus de la commercialisation des fusées, Arianespace remplit aussi une fonction d’expertise qui lui donne accès aux informations techniques confidentielles des constructeurs de satellites rivaux d’Airbus. Avant le lancement, elle « prépare les analyses de mission, qui visent notamment à s’assurer que le lanceur est adapté au satellite qu’il devra mettre en orbite ». Cela nécessite une connaissance exacte des données techniques des satellites. Pour le PDG d’Arianespace, un découpage entre les deux fonctions (commerciale et d’expertise) serait inconcevable, puisque les deux font ensemble le succès de la société, en positionnant Arianespace comme la garante de la fiabilité ultime de la fusée. Reste à voir comment la nouvelle co-entreprise saura jongler avec ces différents volets.

A ces questionnements de nature financière et commerciale viennent s’ajouter ensuite des interrogations d’ordre politique. Sans surprise, la première d’entre elles concerne la question, sempiternelle, de la préférence européenne. Autrement dit, le fait de savoir si les gouvernements du vieux continent seraient enfin prêts à s’engager à privilégier leurs propres produits; comme le font d’ailleurs, et à juste titre, les Etats-Unis. Pour Ariane 6, seuls cinq lancements institutionnels seront garantis, d’après la ministre. Certes, on reste au même nombre qu’aujourd’hui, mais « cela signifie, tacitement, que chaque pays membre accepte le principe d’une préférence européenne. On ne peut pas écrire obligation, à cause des règles européennes ».

Le PDG d’Arianespace voulait y voir, en mai, « une sorte de ‘Buy European Act’, sachant que notre concurrent américain bénéficie déjà, quant à lui, d’un marché garanti aux États-Unis : la législation américaine impose que les charges utiles américaines soient mises en orbite par un lanceur construit majoritairement aux États-Unis. » Cinq mois plus tard, il a dû se rendre à l’évidence :« Aujourd’hui, le ‘Buy European Act’ n’existe pas. Il est vrai que les États européens peuvent choisir un autre lanceur que ceux d’Arianespace ». Ce qu’ils font, en effet, sans état d’âme. A l’instar de l’Allemagne, qui n’a pas hésité à confier à SpaceX le lancement de certains de ses satellites.

Or, prévient la ministre française : « Si nous ne sommes pas la carte de l’Europe, nous fragiliserons et in fine, perdrons la filière des lanceurs européens. Et au-delà, nous perdons notre avantage compétitif en matière de télécoms, en matière d’accès aux données scientifiques, environnementales, climatiques et en matière de sécurité et de défense. » Mais comment attendre des gouvernements de jouer la carte de l’Europe en matière de lancement si même Airbus ne le fait pas ? Le groupe, qui aura désormais la haute main sur l’ensemble de la filière et réclame, de ce fait, la garantie de cinq lancements institutionnels, souhaitait lui-même confier à son concurrent US le lancement d’un satellite de télécommunication dernier cri de l’Agence spatiale européenne (ESA), simplement pour le rendre plus rentable…

Abandons coupables

Au départ, la réorganisation actuelle a été présentée comme répondant à deux critères de base. D’une part, un besoin de réduction des coûts, par le biais d’une plus grande prise de responsabilité des industriels, de l’autre le maintien, tout de même, de la position des Etats. Sur ce dernier point, la ministre Fioraso a été très claire : « L’Etat restera présent dans la gouvernance et contrôlera ». Sauf que le périmètre de cette présence se réduit comme une peau de chagrin, en emportant le pouvoir de contrôle dans son sillage. Pour le PDG d’Arianespace, « les acteurs minoritaires qui représentent un lien avec les Gouvernements (…) doivent recevoir des garanties ». Autrement dit, ce n’est pas d’emblée le cas.

La question des coûts reste elle aussi opaque. Si les industriels disent prendre plus de risques, c’est loin d’être manifeste. Pour commencer, on ne sait toujours pas qui aura la charge d’éventuels échecs. Or, selon Stéphane Israël, « rien ne coûte plus cher qu’un échec et il importe de préciser les engagements des uns et des autres », mais « jusqu’à ce jour, rien n’est figé comme en témoignent les discussions en cours entre l’Agence spatiale européenne et Airbus Safran Launchers ». De surcroît, les industriels ne cessent de grignoter sur le volet financier de l’accord. Comme Michel Cabirol de La Tribune le met en évidence, tantôt ils demandent une rallonge d’un milliard, tantôt ils refusent de contribuer au maintien en condition opérationnelle du pas de tir en Guyane, tantôt ils exigent pour eux la gratuité pure et simple du Centre spatial, une faveur jamais octroyée à Arianespace.

Force est de constater que, dans ce domaine hautement stratégique, on risque de se retrouver devant un schéma étrangement similaire à celui des Etats-Unis. Un modèle caractérisé par de grandes sociétés privées, soutenues par d’immenses gaspillages de fonds publics. A la différence près que, contrairement au cas américain, les pouvoirs publics en Europe ne peuvent même pas être certains, à long terme, de la loyauté des sociétés qu’ils soutiennent – en l’absence d’un marché public gigantesque qui garantirait une loyauté d’intérêt, et faute de règles contraignantes européennes capables d’imposer, comme de l’autre côté de l’Atlantique, une loyauté juridico-institutionnelle.

Or, en parlant d’Ariane, il convient de garder à l’esprit que le lanceur conditionne la pérennité, la crédibilité, la rentabilité/compétitivité et l’autonomie de l’ensemble du secteur spatial. Que l’on se rappelle les origines mêmes de la création d’Ariane : en 1973, n’ayant pas de lanceur européen à leur disposition, Français et Allemands ont dû aller quémander auprès des Américains pour pouvoir mettre en orbite leur satellite de télécommunication. Or « les Américains, se souvient Frédéric d’Allest, ancien Directeur général du Centre national d’Etudes spatiales (CNES), ont fait savoir qu’ils voulaient bien lancer Symphonie mais à condition qu’il soit limité à des fonctions expérimentales ». Profitant de leur monopole, les Américains ont donc interdit toute utilisation à des fins commerciales, par souci d’éliminer la possibilité même d’un rival.

Un véritable déclic, d’après les témoins de l’époque, le diktat américain a finalement permis de lever les obstacles politiques, entre Européens, à la construction de ce formidable outil de souveraineté qu’est le lanceur Ariane. En effet, la leçon fut claire : sans accès indépendant à l’espace, il n’y a tout simplement pas de politique spatiale. Jouer aujourd’hui à l’apprenti sorcier, en procédant à une restructuration dans des conditions et avec des engagements opaques, au risque de fragiliser la position de l’Etat et au profit d’industriels dont le passé, le bilan et le profil sont loin d’être irréprochables – cela mérite au moins débat…

Hajnalka Vincze (IVERIS, 1er janvier 2016)

dimanche, 01 novembre 2015

Les progrès de la médecine, est-ce fini ? C’est peut-être pire encore.


Les progrès de la médecine, est-ce fini ? C’est peut-être pire encore

Jan Marejko
Philosophe, écrivain, journaliste
Ex: http://www.lesobservateurs.ch

Anne-Laure Boch est une pasionaria de la vie de l’esprit mais aussi de la vie du corps. Elle a d’abord étudié la médecine, ce qui l’a conduite à devenir neurochirurgienne à  l’hôpital de la Pitié-Salpêtrière. Ensuite elle a obtenu un doctorat en philosophie. Elle voulait  comprendre ce qu’elle faisait comme médecin, et pourquoi. C’est cette méditation sur le sens de la médecine qu’elle a partagé avec les étudiants de l’institut Philanthropos à Fribourg. Devant eux, elle a posé la question de savoir si l’on pouvait encore attendre des progrès en médecine. Elle en doute et craint que la médecine ne produise désormais plus de méfaits que de bienfaits.

Elle n’a évidemment pas nié que la médecine occidentale a fait d’énormes progrès dans les trois derniers siècles.  Mais rien ne nous garantit que des progrès passés engendrent des progrès pour l’avenir. Les communistes croyaient dur comme fer aux progrès de la science et ils ont bien placé Gagarine en orbite. Mais au-delà, plus rien ou presque. Ce n’est pas seulement que le progrès peut s’arrêter mais que, sur sa lancée, il peut produire du déclin, l’accélérer même. Une fusée, en retombant, peut faire des dégâts. La fusée de la médecine et des recherches qui lui sont associées est-elle en train de retomber ? On peut le craindre et c’est à repérer les raisons de cette crainte qu’Anne-Laure Boch s’est attachée.

La vocation de la médecine est de guérir. A-t-elle guéri le cancer par exemple ? Non, elle a fait de lui une maladie chronique, mais de guérison, point ! Si le but de la médecine est de faire survivre à n’importe quel prix, alors, oui, elle parvient effectivement à faire vivre plus longtemps les malades du cancer ? Mais le but de la médecine est la guérison du malade, pas son maintien en vie avec acharnement thérapeutique. Là, c’est l’échec, malgré les milliards investis dans la recherche depuis 50 ans. Faut-il se résigner à voir dans la médecine ce qui nous amène aux chaises roulantes, au semainier avec ingestion quotidienne de pilules, à un cheminement de plus en plus chevrotant avant la tombe ? Anne-Laure Boch ne s’y est jamais résignée. Pourquoi ?

Parce que, pour elle, l’être humain n’est pas un « tas de molécules » dont il faudrait comprendre le fonctionnement pour les rendre plus performantes. Elle a noté en passant que si nous ne sommes qu’un tas de molécules, l’amour se réduit à un frottement de chairs suivis de l’émission d’un liquide gluant. Pouvons-nous encore aimer si nous sommes un tas de molécules ?

La science ne connaît que des choses, et la technique « désanime » les êtres. De plus en plus dominée par la science, la médecine est devenue une « grande découpeuse » qui coupe le corps en tranches de plus en plus fines, comme le font d’ailleurs les images produites par un scanner médical. Plus encore, ce découpage conduit aujourd’hui à des greffes d’organes qui, à terme et selon certains, devraient nous permettre de vivre des centaines d’années (pour peu que les banques d’organes s’enrichissent…) Le philosophe Jean-Luc Nancy a témoigné de son expérience de greffé du cœur et du sentiment qu’il a eu d’être devenu « autre » après son opération. Or devenir autre, c’est se sentir aliéné. La médecine moderne s’est engagée sur un chemin qui, si elle le poursuit, pourrait non seulement faire de nous des assistés en chaise roulante, mais aussi des êtres qui se sentiraient étrangers à eux-mêmes. J’entends déjà caqueter les vautours de la vie à tout prix : « Au moins ils seraient vivants ! » Une vie mortelle, peu importe comment ! Étrange caquetage, puisque cette vie, nous devrons la quitter. Anne-Laure Boch n’est pas allée aussi loin mais je crois qu’elle me pardonnera de le faire. Je ne résiste pas toujours au plaisir d’extrapoler.

Nous ne sommes pas des choses dont la destination ultime serait de fonctionner le mieux possible dans le temps et dans l’espace. Si tel était le cas, alors oui, il faudrait tout faire pour nous rendre plus performants, plus propres, plus sains. Qui serait cet homme performant dont la figure transparaît en filigrane dans toutes les injonctions à ne pas fumer, à ne pas manger de viande, à ne pas boire le gras du lait, pour… éviter le cancer, les maladies cardiovasculaires, le diabète ou même la grippe lorsqu’arrive l’automne ? Cet homme, a souligné Anne-Laure Boch, serait un « homme nouveau ». Il serait si propre, si fonctionnel que, dans l’imaginaire des peuples modernes, il  échapperait à la mort. Il suffit de se tourner vers les propositions du transhumanisme pour voir se dessiner le visage de cet homme nouveau ou surhomme. Pas tout à fait un visage encore, puisqu’il est question, dans ce transhumanisme, d’utérus artificiel ou de cerveau agrandi, mais le visage apparaîtra bien un jour. Il y a des chances pour que ce soit celui de Frankenstein, couturé de cicatrices en raison des greffes subies, le regard perdu en raison des pilules absorbées.

Voilà ce qui inquiète Anne-Laure Boch : l’image presque toute-puissante d’un homme nouveau qui a échappé à la condition humaine, à sa condition d’homme mortel. C’est cette image qui guide, oriente, soutient la médecine moderne qui a oublié sa vocation première, guérir, pour participer à une grande marche vers une nouvelle terre et de nouveaux cieux. Chacun connaît la formule prononcée aux enterrements : « tu es né de la poussière et tu redeviendras poussière ». Eh bien, pas du tout pour la médecine d’aujourd’hui qui promeut un homme nouveau ! Elle n’est pas consciente, ajouterai-je, de s’être faite le promoteur de cet homme, mais elle n’en est pas moins orientée par lui. Était-il conscient de ce qu’il promouvait, cet expert de l’OMS qui expliquait récemment que la viande rouge augmente les risques de cancer du côlon ? Il est probable qu’interrogé, il aurait nié vouloir promouvoir un homme que la mort ne limiterait plus. Pour autant, le rapport de L’OMS sur la viande rouge tueuse n’en suggérait pas moins qu’à long terme, la mort pourrait être éradiquée non seulement par les greffes d’organes mais aussi par une prévention systématique dont on devinait que, une fois mise en place, elle nous conduirait vers d’enchantés pâturages où broutent déjà les adeptes du « véganisme ».

Les gardiens ou gargouilles d’une médecine orientée par pilotage automatique vers un homme nouveau abondent. Mais il n’y a pas que cela. Anne-Laure Boch nous a rendus attentifs au fait que différentes infrastructures se sont mises en place autour de la promotion de l’homme nouveau : structures d’accueil pour la fin de vie, personnel soignant pour ces structures, industrie pharmaceutique qui renforce le mythe d’une nouvelle vie grâce au viagra et autres pilules roses.

Notre époque n’aime pas les dogmes religieux, mais elle avale tout cru le dogme du progrès en général, le dogme du progrès de la médecine en particulier. C’est contre lui qu’Anne-Laure Boch s’est élevée avec, comme bélier pour enfoncer les portes de cette nouvelle citadelle dogmatique, Ivan Illich. Ce prêtre philosophe a en effet montré combien le dogme du progrès conduit à penser que, quoi qu’il arrive, on va vers le mieux, plus de bien-être, plus de bonheur. Staline déclarait en 1936 que les Russes étaient de plus en plus heureux, juste après avoir fait mourir de faim des millions d’Ukrainiens et juste avant d’organiser des grandes purges avec des centaines de milliers d’assassinats. Mais les gens l’ont cru, tant la soif de bonheur et d’immortalité est grande en nous.

Est-ce que, parmi des déambulateurs, des chaises roulantes, des drogués au Prozac, nous continuerons à bêler notre credo sur les bienfaits de la médecine et de la recherche ?

Pour Anne-Laure Boch ce n’est pas sûr. Nous voyons grandir la proportion des gens qui préfèrent mourir plutôt que d’être pris en charge par une médecine qui risque de faire d’eux des morts-vivants. Rejoindre le cortège des chevrotants ne les tente guère. Un autre facteur est que la schizophrénie s’aggrave chez les soignants : d’un côté ils sont encouragés à manifester de la bienveillance envers les malades – d’un autre côté, on leur dit que ces mêmes malades sont un « tas de molécules ». Viendra un jour où soigner des patients « molécularisés » n’aura plus de sens. Ce jour-là, il sera peut-être possible de retrouver une médecine qui se contente de guérir plutôt que de s’acharner à faire survivre à n’importe quel prix.

Jan Marejko, 28 ocotobre 2015

00:05 Publié dans Philosophie, Science, Sciences | Lien permanent | Commentaires (0) | Tags : science, sciences, médecine, philosophie | |  del.icio.us | | Digg! Digg |  Facebook

jeudi, 20 août 2015

MIT wetenschapper: In 2025 is helft alle kinderen autistisch dankzij genvoedsel

monsanto kinderen 01.jpg

MIT wetenschapper: In 2025 is helft alle kinderen autistisch dankzij genvoedsel

Daar bovenop: CDC verwacht dat over 10 jaar 1/3 alle kinderen door vaccins aan neurologische stoornis zal lijden – CDC: Moeders moeten (tijdelijk) stoppen met borstvoeding, anders werken vaccins niet goed

Een complete generatie mensen lijkt te worden verwoest door een fatale combinatie van genetisch gemodificeerd voedsel (GMO, kortweg genvoedsel) en vaccinaties. Een hooggeplaatste wetenschapper van het gezaghebbende MIT waarschuwde eerder dit jaar dat in 2025 maar liefst de helft (!!) van alle kinderen een autistische stoornis zal hebben als gevolg van het consumeren van genvoedsel. Daar bovenop komt het recente bericht dat het Amerikaanse CDC (Centers for Disease Control) verwacht dat in datzelfde jaar minstens 1/3 van alle kinderen een neurologische stoornis zal hebben opgelopen door alle vaccinaties die worden toegediend.

Volgens MIT bioloog dr. Stephanie Seneff –die in ruim 30 jaar al meer dan 170 wetenschappelijke artikelen publiceerde- is glyfosaat, een ingrediënt van het omstreden product ‘Round-Up’ van het beruchte concern Monsanto, een van de belangrijkste veroorzakers van de autisme epidemie, die in het komende decennium een ware pandemie dreigt te worden. Het veelvuldig gebruik van glyfosaat veroorzaakt onder andere Alzheimer, autisme, kanker, hartziekten, stofwisselingstoornissen en mineralen- (zink en ijzer) en voedingsgebreken.

Over 10 jaar heeft helft alle kinderen autisme

Dr. Seneff verklaarde in het voorjaar op een conferentie dat het aantal kinderen met autisme inmiddels zo snel toeneemt, dat in 2025 –bij ongewijzigd beleid- maar liefst de helft van alle kinderen aan een autistische stoornis zal lijden, wat de Amerikaanse samenleving jaarlijks $ 400 miljard zal kosten. Op dit moment is 1 op de 68 nieuw geborenen in de VS autistisch, wat al een stijging van bijna 120% is ten opzichte van het jaar 2000.

De MIT wetenschapper wees erop dat de symptomen van glyfosaat vergiftiging sterk lijken op die van autisme. Ook had ze een consistent verband gevonden tussen het gebruik van het bestrijdingsmiddel Round-Up (en het creëren van ‘Round-Up-ready’ genetisch gemodificeerde gewassen) en de sterke stijging van kinderen met autisme.

Glyfosaat zit in bijna alles

In de VS zijn zo goed als alle graan- en sojaproducten genetisch gemodificeerd en daarom besmet met Round-Ups glyfosaat. Hetzelfde geldt voor bijna alle soorten voedsel waarin graan/maïs en soja is verwerkt, inclusief frisdranken met veel fructose, stroop, chips, cornflakes, snoep en sommige soja-proteïne repen. Bovendien krijgen runderen en ander vee vaak genvoedsel te eten, waar eveneens sporen van glyfosaat in zitten.

Ook tarwe wordt vlak voor de oogst in veel gevallen besproeid met Round-Up chemicaliën, wat betekent dat brood en broodproducten eveneens niet veilig zijn, tenzij ze uitdrukkelijk ‘niet GMO’ en/of ‘organisch’ op het etiket hebben staan.

Niet afzonderlijk product, maar optelsom is fataal

Het komt er dus op neer dat de Amerikanen –en dankzij de EU straks ook de Europeanen- bijna niet kunnen ontkomen aan het consumeren van voedsel en dranken waarin glyfosaat is verwerkt, waarvan aangetoond is dat het diverse stoornissen en ernstige ziekten veroorzaakt. Dr. Seneff zei dat de hoeveelheid glyfosaat in ieder afzonderlijk product weliswaar niet groot is, maar dat het de optelsom is van talloze geconsumeerde ‘GMO’ producten die fataal is – zozeer, dat sommige zwangere vrouwen zelfs glyfosaat in hun bloed, urine en foetuscellen hebben. (1)

CDC: Borstvoeding slecht voor vaccins

Bij dit ronduit schokkende nieuws kwam recent nog eens het bericht van het Amerikaanse CDC (Centers for Disease Control) dat over 10 jaar minstens 1/3 van alle kinderen een neurologische stoornis zal hebben opgelopen door alle vaccinaties die worden toegediend (2). Desondanks adviseert datzelfde CDC dat moeders het geven van borstvoeding rond de tijd dat hun baby wordt gevaccineerd tijdelijk zouden moeten opgeven, omdat de immuun versterkende cellen in borstmelk de virusdeeltjes in ieder vaccin aanvallen, waardoor het vaccin mogelijk minder effectief wordt.

Critici wijzen erop dat dit CDC-onderzoek enkel bewijst dat het immuunsysteem van baby’s, als dat wordt ondersteund en versterkt door borstvoeding, uitstekend in staat is om zichzelf te verdedigen, en zo’n vaccin dus helemaal niet nodig is. Als het CDC niet zo afhankelijk zou zijn van de grote farmaceutische bedrijven, die jaarlijks miljarden verdienen aan het produceren van onbewezen en overbodige –en veelal schadelijke- vaccins, dan zouden moeders ongetwijfeld nooit het krankzinnige advies krijgen om te stoppen met het geven van immuun versterkende borstvoeding. (3)


(1) Infowars
(2) Infowars
(3) Infowars

Zie ook o.a.:

05-06: EU moet zwaar giftige chemicaliën toelaten door vrijhandelsakkoord met VS
30-04: Nieuwe wet Californië: Niet gevaccineerde kinderen mogen niet meer naar school
11-11: Artsenorganisatie: VN steriliseert miljoenen vrouwen in Kenia met tetanus vaccin
28-09: Gevaarlijk virus treft enkel gevaccineerde kinderen in VS en Canada (/ Recente onderzoeken bewijzen dat gezondheid fors en permanent wordt beschadigd door vaccins)
26-09: Nieuw onderzoek: Autisme en leukemie door cellen geaborteerde baby’s in vaccins
06-09: CDC wetenschapper erkent verband vaccins en autisme

mercredi, 19 août 2015

Cambridge Universiteit: Mensheid wordt steeds zwakker, zieker en dommer


Cambridge Universiteit: Mensheid wordt steeds zwakker, zieker en dommer

Ex: http://xandernieuws.punt.nl

Wetenschappers van de gerenommeerde universiteit van Cambridge hebben een onderzoek gepubliceerd waaruit exact het tegendeel blijkt van wat de evolutietheorie beweert. Ondanks alle technologische vooruitgang blijkt de mens vergeleken met zijn voorouder van nog maar enkele duizenden jaren geleden zwakker, kleiner en vatbaarder voor ziektes. Ook onze hersenen nemen in omvang af, waardoor we steeds dommer worden. De beste atleten van nu zijn zelfs een lachertje vergeleken bij hoe sterk de doorsnee mens in de oudheid was.

Mensen die geloven in voortdurende vooruitgang en ontwikkeling, zoals de evolutietheorie stelt, zullen wellicht even moeten slikken bij de conclusies van het onderzoek. ‘Zelfs onze beste atleten verbleken bij onze voorvaderen,’ aldus dr. Colin Shaw. ‘Wij zijn zonder twijfel zwakker dan we vroeger waren.’

De wetenschappers onderzochten onder andere skeletten met een ouderdom van 1160 tot 7300 jaar. Vastgesteld werd dat de botten van de benen van boeren in het jaar 5300 voor Christus net zo sterk waren als die van doorgetrainde professionele veldlopers in onze tijd.

Mensheid krimpt

Uit eerdere vergelijkbare onderzoeken aan de universiteit bleek al dat onze lichamen en hersenen ‘duidelijk kleiner’ zijn dan die van de mensen die duizenden jaren geleden leefden. ‘Aangetoond is dat de mensen krimpen. De mensheid is het hoogtepunt voorbij. De huidige mensen zijn 10% kleiner en smaller dan hun voorvaderen, die als jagers en verzamelaars onderweg waren.’

De algemeen aanvaarde gedachte dat de mensen in de loop der eeuwen steeds groter zijn geworden, is hiermee ontkracht. Dat geloof is namelijk enkel gebaseerd op de meest recente lichamelijke ontwikkelingen, niet op die over een periode van duizenden jaren. Belangrijkste oorzaken van de teruggang van het menselijk ras zijn de beperktere voeding (zowel kwantitatief als kwalitatief) en de verstedelijking, waardoor de algemene gezondheid wordt aangetast en ziektes zich steeds sneller kunnen verspreiden.

Steeds meer schadelijke genen

Onze genen wordt dus niet steeds sterker door zogenaamde ‘natuurlijke selectie’, maar juist steeds zwakker en slechter. Volgens dr. John Sanford van de Cornell Universiteit –auteur van Genetic Entropy & The Mystery of the Genome) draagt ieder mens inmiddels tienduizenden schadelijke mutaties in zich mee, en geven wij minimaal 100 tot 300 nieuwe mutaties –waarvan verreweg de meeste schadelijk zijn- aan ons nageslacht door.

Veel genetici geloven dan ook dat dit uiteindelijk tot een ‘mutatie meltdown’ zal leiden. De schadelijke genen zullen zich in toekomstige generaties opeen hopen, met fatale gevolgen voor de toekomst en het voorbestaan van hele mensheid.

Niet slimmer, maar dommer

Gezien de snelle technologische ontwikkelingen lijkt ook de conclusie dat we steeds dommer worden tegenstrijdig. Toch tonen alle onderzoeken aan dat dit wel degelijk het geval is. (En als u ‘live’ bewijs wilt zien hoeft u enkel naar het ‘niveau’ van de meeste hedendaagse TV-programma’s te kijken – die worden door critici niet voor niets ‘hersenloos vermaak’ genoemd).

Biologie professor Gerald R. Crabtree (Universiteit van Stanford) schreef in twee wetenschappelijke artikelen in het vakblad Trends in Genetics dat de mens zelfs al 2000 tot 6000 jaar zijn intellectuele capaciteiten aan het verliezen is. Ook Crabtree noemt genetische mutaties –de basis van de neo-Darwinistische evolutietheorie- als de belangrijkste oorzaak. In de afgelopen 3000 jaar, een periode met zo’n 120 generaties, zijn er 5000 nieuwe mutaties ontstaan. Volgens Crabtree was daarvan slechts 2% tot 5% schadelijk, maar heeft de optelsom geleid tot een neerwaartse spiraal die niet meer te stoppen is. (1)

Geen Utopia, maar ondergang

De achteruitgang lijkt zich de afgelopen decennia fors te versnellen. De doorsnee mens schijnt anno 2015 in vrijwel niets anders geïnteresseerd te zijn dan stompzinnig vermaak en een dagelijks gevulde koelkast. De meeste tieners kunnen ook met een schooldiploma nauwelijks nog een zin correct in hun moedertaal schrijven. En misschien zijn ook het steeds vaker nemen van krankzinnige financieel-economische besluiten (EU / eurozone) en de snel over de wereld verspreidende waanzinnige islamistische ideologie –een cultus die voornamelijk dood en verderf nastreeft- wel signalen dat onze beschaving niet op een Utopia, maar op ondergang afstevent.


(1) KOPP

00:05 Publié dans Science, Sciences | Lien permanent | Commentaires (0) | Tags : science, médecine, intelligence humaine | |  del.icio.us | | Digg! Digg |  Facebook

dimanche, 17 mai 2015

L’ADN des Britanniques est moins saxon, moins viking et moins celte qu’on ne croit

L’ADN des Britanniques est moins saxon, moins viking et moins celte qu’on ne croit

Ex: http://www.breizh-info.com


Des groupes génétiques bien identifiés et différenciés

Édimbourg (Breizh-info.com)

La prestigieuse revue Nature a publié récemment une étude passionnante sur les origines génétiques de la population britannique, The fine-scale genetic structure of the British population. Œuvre d’une solide équipe de chercheurs(1) de l’University of Oxford, de l’University College London et du Murdoch Childrens Research Institute (Australie) emmenée par le statisticien Stephen Leslie, elle repose sur une analyse détaillée de l’ADN de 2 039 britanniques « de souche ». Des comparaisons avec des prélèvements provenant de 6 209 personnes de dix pays voisins ont permis de mettre en évidence leurs liens avec d’autres populations européennes.

L’étude a montré une relative homogénéité de la population du sud et du centre de l’Angleterre. Cependant, les Saxons représentent moins de la moitié de l’ascendance de cette population – plus probablement entre 10 et 40 %, soit moins qu’on ne le pensait jusque-là compte tenu des bouleversement apportés dans la langue, les noms de lieux et l’agriculture par les invasions saxonnes. Malgré leur longue présence attestée, les Vikings auraient laissé très peu de traces génétiques, sauf dans les Orcades, qui ont fait partie de la Norvège de 875 à 1472 ; et même là, leur place dans le « profil ancestral » des habitants actuels ne dépasse pas 25 %.

En revanche, trois groupes de populations européennes ont apporté une contribution spécialement importante au peuplement actuel ; ils se situent en Allemagne de l’ouest, en Flandres et dans le nord-ouest de la France. Ce dernier groupe est spécialement apparenté aux populations du Pays de Galles, d’Irlande du Nord et d’Écosse de l’ouest.

Faut-il y voir la trace d’un unique peuplement celtique des deux côtés de la Manche ? Sur ce point, les auteurs de l’étude sont clairs : « nous n’avons constaté aucune évidence d’une population ‘celtique’ générale dans les parties non saxonnes du Royaume-Uni ». De nombreux groupes génétiques distincts voisinent en Irlande du Nord, en Écosse et au Pays de Galles. Les populations galloises apparaissent comme les plus proches des premiers occupants de la Grande-Bretagne installés au Royaume-Uni après la dernière ère glaciaire. Le profil ancestral de la Cornouaille est très différent de ceux du Pays de Galles mais proche de celui du Devon.

On espère qu’une étude du même genre viendra éclairer la génétique de la population bretonne avant que les migrations et l’immigration contemporaines ne l’aient rendue illisible.


(1) Stephen Leslie, Bruce Winney, Garrett Hellenthal, Dan Davison, Abdelhamid Boumertit, Tammy Day, Katarzyna Hutnik, Ellen C. Royrvik, Barry Cunliffe, Wellcome Trust Case Control Consortium, International Multiple Sclerosis Genetics Consortium, Daniel J. Lawson, Daniel Falush, Colin Freeman, Matti Pirinen, Simon Myers, Mark Robinson, Peter Donnelly, Walter Bodmer

Illustration : extrait partiel d’une figure de l’étude Fortune
[cc] Breizh-info.com, 2015, dépêches libres de copie et diffusion sous réserve de mention de la source d’origine.

lundi, 16 mars 2015

The HIV/AIDS Hypothesis




Fallacies in Modern Medicine: The HIV/AIDS Hypothesis


Ex: http://www.lewrockwell.com

This commentary was published in the Journal of American Physicians and Surgeons Volume 20, Number 1, Pages 18-19, Spring 2015.

Modern medicine has spawned great things like antibiotics, open heart surgery, and corneal transplants. And then there is antiretroviral therapy for HIV/AIDS.

A civic-minded, healthy person volunteers to donate blood but, tested for HIV (human immunodeficiency virus), is found to be HIV-positive. This would-be donor will be put on a treatment regimen that follows the (285-page) Guidelines for the Use of Antiretroviral Agents in HIV-1-Infected Adults and Adolescents [1] and will be thrust into a medical world peppered with acronyms like CD4, ART, HIV RNA, HIV Ag/Ab, NRTI, NNRTI, PI, INSTI, PrEP, and P4P4P.

Adhering to these government-issued guidelines, a “health care provider” will start this healthy blood donor on antiretroviral therapy (ART). For the last two decades the standard for treating HIV infection is a three-drug protocol—“2 nukes and a third drug.” The “2 nukes” are nucleoside reverse transcriptase inhibitors (NRTI) and DNA chain terminators, like AZT (azidothymidine – Retrovir, which is also a NRTI). The “third drug” is a non-NRTI (NNRTI), a protease inhibitor (PI) or an integrase strand transfer inhibitor (INSTI). [2]

These drugs are toxic. With prolonged use they can cause cardiovascular disease, liver damage, premature aging (due to damage of mitochondria), lactic acidosis, gallstones (especially with protease inhibitors), cognitive impairment, and cancer. The majority of people who take them experience unpleasant side effects, like nausea, vomiting, and diarrhea.

AZT, the most powerful “nuke” in the ART arsenal actually killed some 150,000 “HIV-positive” people when it started being used in 1987 to the mid-1990s, after which, if the drug was used, dosage was lowered. [3] When an HIV-positive person on long-term ART gets cardiovascular disease or cancer, providers blame the virus for helping cause these diseases. Substantial evidence, however, supports the opposite conclusion: it is the antiretroviral treatment itself that causes cancer, liver damage, cardiovascular and other diseases in these patients. [3] They are iatrogenic diseases.

The orthodox view holds that HIV causes AIDS (acquired immunodeficiency syndrome)—one or more of an assemblage of now 26 diseases. Reinforcing this alleged fact in the public’s mind, the human immunodeficiency virus is no longer just called HIV, it is now “HIV/AIDS.”

A new development in HIV care, called preexposure prophylaxis (PrEP), promotes universal coverage with antiretroviral drugs to prevent HIV infections, based on the tenet that prevention is the best “treatment.” Given their unpleasant side effects, however, many people stop taking their antiretroviral drugs. An answer for that in the HIV/AIDS-care world is addressed by its P4P4P acronym (pay for performance for patients). With P4P4P, now under study, patients are given financial incentives to encourage them to keep taking the drugs. [2]

Could the hypothesis that the multi-billion-dollar HIV/AIDS medical-pharmaceutical establishment bases its actions on be wrong? In 1987, Peter Duesberg, a professor of molecular and cell biology at the University of California, Berkeley, who isolated the first cancer gene, and in 1970 mapped the genetic structure of retroviruses, published a paper in Cancer Research questioning the role of retroviruses in disease and the HIV/AIDS hypothesis in particular [4]. Then, in 1988, he published one in Science titled “HIV is Not the Cause of AIDS.” [5] As a result, Dr. Duesberg became a pariah in the retroviral HIV/AIDS establishment, which branded him a “rebel” and a “maverick.” Colleague David Baltimore labeled him “irresponsible and pernicious,” and Robert Gallo declared his work to be “absolute and total nonsense.”

Skeptics of the HIV/AIDS hypothesis are chastised and subjected to ad hominem attacks. Anyone who questions this hypothesis is now branded an “AIDS denier,” which is analogous to being called a Holocaust denier. Nevertheless, non-orthodox scholars have been questioning the HIV/AIDS paradigm for thirty years; and now, in the 21st century, as Rebecca Culshaw puts it, “there is good evidence that the entire basis for this theory is wrong.” [6]

A key feature of the HIV/AIDS hypothesis is that the virus is sexually transmitted. But only 1 in 1,000 acts of unprotected intercourse transmits HIV, and only 1 in 275 Americans is HIV-positive!  Drug-free prostitutes do not become HIV-positive, despite their occupation. [3,7]

HIV is said to cause immunodeficiency by killing T cell lymphocytes. But T cells grown in test tubes infected with HIV do not die. They thrive. And they produce large quantities of the virus that laboratories use to detect antibodies to HIV in a person’s blood. HIV infects less than 1 in every 500 T cells in the body and thus is hard to find. The HIV test detects antibodies to it, not the virus itself. For these and other reasons a growing body of evidence shows that the HIV theory of AIDS is untenable. [7]

A positive HIV test does not necessarily mean one is infected with this virus. Flu vaccines, hepatitis B vaccine, and tuberculosis are a few of the more than 70 things that can cause a false-positive HIV test. In healthy individuals, pregnancy and African ancestry conduce to testing HIV positive. In some people a positive test may simply indicate (without any virus) that one’s immune system has become damaged, from heavy recreational drug use, malnutrition, or some other reason. [8]

If HIV does not cause AIDS, then what does? The classic paper on AIDS causation, published in 2003 by Duesberg et al., implicates recreational drugs, anti-viral chemotherapy, and malnutrition. [9]

If the theory is wrong, how can it persist? In a review of The Origin, Persistence, and Failings of the HIV/AIDS Theory by Henry Bauer, the late Joel Kaufman writes:

“One of the most difficult things to write is a refutation of a massive fraud, especially a health fraud, in the face of research cartels, media control, and knowledge monopolies by financial powerhouses… The obstacles to dumping the dogma are clearly highlighted as Dr. Bauer discusses the near impossibility of having so many organizations recant, partly because of the record number of lawsuits that would arise.” [10]

Henry Bauer, professor emeritus of chemistry and science studies and former dean of the Virginia Tech College of Arts and Sciences, also presents a concisely reasoned refutation of the HIV/AIDS hypothesis in a 28-page online study, “The Case Against HIV,” with 51 pages of references—now 896 of them, which he continually updates. [3]

In a review of Harvey Bialy’s book, Review of Oncogenes, Aneuploidy, and AIDS: A Scientific Life and Times of Peter Duesberg, my colleague Gerald Pollack, professor of bioengineering at the University of Washington, writes:

“The book reminds us that although over $100 billion has been spent on AIDS research, not a single AIDS patient has been cured—a colossal failure with tragic consequences. It explains in too-clear terms the reasons why AIDS research focuses so single-mindedly on this lone hypothesis to the exclusion of all others: egos, prestige, and money. Mainstream virologists have assumed the power of the purse, and their self-interests (sometimes financial), propel them to suppress challenges. This is not an unusual story: challenges to mainstream views are consistently suppressed by mainstream scientists who have a stake in maintaining the status quo. It’s not just Semmelweis and Galileo, but is happening broadly in today’s scientific arena.” [11]

Adhering to the erroneous hypothesis that HIV causes AIDS, the U.S. government spends billions of dollars annually on HIV/AIDS programs and research—$29.7 Billion for fiscal year 2014. It is a waste of money. It fleeces taxpayers and enriches the HIV/AIDS medical establishment and the pharmaceutical companies that make antiretroviral drugs. The annual cost of HIV care averages $25,000-$30,000 per patient, of which 67-70 percent is spent on antiretroviral drugs. [2]

The tide is beginning to turn, as evidenced in the Sept 24, 2014, publication by Patricia Goodson of the Department of Health and Kinesiology at Texas A&M University. She notes that “the scientific establishment worldwide insistently refuses to re-examine the HIV-AIDS hypothesis,” even while it is becoming increasingly “more difficult to accept.” She writes:

“This paper represents a call to reflect upon our public health practice vis-à-vis HIV-AIDS… The debate between orthodox and unorthodox scientists comprises much more than an intellectual pursuit or a scientific skirmish: it is a matter of life-and-death. It is a matter of justice. Millions of lives, worldwide, have been and will be significantly affected by an HIV or AIDS diagnosis. If we – the public health work force – lose sight of the social justice implication and the magnitude of the effect, we lose ‘the very purpose of our mission.’” [12]

Despite its long-term, widespread acceptance, the HIV/AIDS hypothesis is proving to be a substantial fallacy of modern medicine.


  1. These Guidelines are available at: http://aidsinfo.nih.gov/contentfiles/lvguidelines/adultandadolescentgl.pdf . Accessed Dec 15, 2014.
  2. “10 Changes in HIV Care That Are Revolutionizing the Field,” John Bartlett (December 2, 2013) Available at: http://www.medscape.com/viewarticle/814712 . Accessed Dec 15, 2014.
  3. The Case Against HIV, collated by Henry Bauer. Available at: http://thecaseagainsthiv.net/ . Accessed December 15, 2014
  4. Duesberg PH. Retroviruses as Carcinogens and Pathogens: Expectations and Reality. Cancer Research. 1987;47:1199-1220.
  5. Duesberg PH. HIV is Not the Cause of AIDS. 1988;241:514-517. Available at: http://www.duesberg.com/papers/ch2.html   Accessed Dec 15, 2014.
  6. Culshaw R. Science Sold Out: Does HIV Really Cause AIDS?, Berkeley, CA: North Atlantic Books; 2007.
  7. Bauer H. The Origin, Persistence and Failings of HIV/AIDS Theory, Jefferson, NC: McFarland; 2007.
  8. Duesberg PH. Inventing the AIDS Virus, Washington, D.C.: Regnery Publishing; 1996.
  9. Duesberg PH, Koehnlein C, Rasnick D. The Chemical Basis of the Various AIDS Epidemics: Recreational Drugs, Anti-viral Chemotherapy, and Malnutrition. J Biosci 2003;28:384-412. Available at: http://www.duesberg.com/papers/chemical-bases.html. Accessed Dec 15, 2014.
  10. Kauffman JM. Review of The Origin, Persistence, and Failings of the HIV/AIDS Theory, by Henry H. Bauer, Jefferson, NC, McFarland, 2007. J Am Phys Surg. 2007;12:121-122.
  11. Pollack G. Statement on HIV/AIDS at: http://www.aras.ab.ca/aidsquotes.htm Accessed Dec 15, 2014.
  12. Goodson P. Questioning the HIV-AIDS hypothesis: 30 years of dissent. Frontiers in Public Health. 2014; 2[Article 154]: 1-11. Available at: http://journal.frontiersin.org/Journal/10.3389/fpubh.2014.00154/full . Accessed Dec 15, 2014.

00:05 Publié dans Sciences | Lien permanent | Commentaires (0) | Tags : sciences, sida, aids, médecine | |  del.icio.us | | Digg! Digg |  Facebook

mardi, 13 janvier 2015

Benutzt euer Gehirn!


Benutzt euer Gehirn!

von Moritz Scholtysik

Ex: http://www.blauenarzisse.de

Der bekannte Gehirnforscher Manfred Spitzer warnt in seinem Buch vor „digitaler Demenz“. Und erklärt Ursachen und Folgen. Neu ist nicht alles – aber wichtig.

Digitale Medien sind ein fester Bestandteil unseres Lebens. Kaum einer mag noch bestreiten, dass sie keine Auswirkungen auf unser Denken und Handeln hätten. Die Frage ist nur: Sind sie positiv oder negativ zu bewerten? Für das populärwissenschaftliche Magazin Geo steht jedenfalls fest: „Digital macht schlau!“

Allerdings ist auch Kritik an der Elektronisierung aller Lebensbereiche nicht selten – vor allem in kultureller Hinsicht. Spitzer argumentiert seinem Beruf entsprechend vor allem aus psychologischer und medizinischer Perspektive. Gerade der in den Neurowissenschaften Unkundige erfährt in Digitale Demenz Grundlegendes über die Funktionsweise des Gehirns – auf bewusst einfache Weise.

Wesentliches statt Multitasking

Spitzer entlarvt zwei hartnäckige Mythen: Zum einen den der „Digital Natives“, dieser vermeintlichen „Generation von digitalen Wunderkindern“. Sie gebe es nicht. Diese Generation sei mehr von Bildungsverfall als von Medienkompetenz gekennzeichnet. Zum anderen wendet sich Spitzer den angeblichen Vorzügen des Multitaskings zu: Dieses führe zu Störungen der Selbstkontrolle sowie zu „Oberflächlichkeit und Ineffektivität“. Des Psychiaters Appell: „Konzentrieren wir uns lieber ganz auf das Wesentliche!“

Apropos Selbstkontrolle: Diese gehe bei übermäßigem Konsum digitaler Medien verloren, was mit Stress gleichzusetzen sei und zu Aufmerksamkeitsstörungen sowie mehreren chronischen Erkrankungen führen könnte. Beispiele sind Sucht, Schlaflosigkeit, Übergewicht, Probleme im Herz-​Kreislauf-​System, Demenz. Bei all diesen Erläuterungen und Ausführungen spricht Spitzer immer wieder mögliche Einwände und Fragen an und vermeidet meist allzu komplizierte Formulierungen und Fachtermini.


Keine Laptops für Schulen

Spitzer, Leiter der Psychiatrischen Universitätsklinik in Ulm und des Transferzentrums für Neurowissenschaften und Lernen, ist vielen Lesern bereits durch sein Buch Vorsicht Bildschirm! und zahlreiche Fernsehauftritte bekannt. In Digitale Demenz zeigt er auf, dass sich unser Gehirn durch dessen Nutzung, also durch Lernen, an den sogenannten Synapsen verändert. Dies führe zu einem Wachstum einzelner, spezialisierter Bereiche. Gebrauche man sie jedoch nicht, verkümmerten sie. Unser geistiges Leistungsvermögen hänge also von unserer geistigen Betätigung ab. Und wir lernten besser, je mehr und je tiefer wir uns mit dem Gegenstand des Lernens auseinandersetzten. Computer jedoch nähmen uns viel geistige Arbeit ab und ließen uns oberflächlicher lernen. Die Verfügbarkeit gespeicherter Daten führe zudem dazu, dass wir uns sie weniger merkten. Spitzer verwirft daher auch den vielfach forcierten und teuren Plan, Schulen mit Laptops und Smartboards, also digitalen Tafeln, auszurüsten.

Teletubbies und „Killerspiele“

Bei Kindern und Jugendlichen steht vor allem die private Nutzung von Computer und Internet im Vordergrund. Darunter können nicht nur die Schulnoten leiden, sondern auch eine gesunde Entwicklung des noch nicht ausgereiften Sozialverhaltens. Es klingt ironisch, wenn Letzteres gerade durch die sogenannten sozialen Netzwerke gefährdet sei. Als mögliche Folgen nennt Spitzer „mangelnde Selbstregulation, Einsamkeit und Depression“. Auch die Kleinsten seien von den negativen Auswirkungen betroffen. „Baby-​TV“ störe die Sprachentwicklung und Computernutzung im Vorschulalter beeinträchtige die Lese– und Schreibfähigkeit.

In den letzten Jahren wurde besonders kontrovers über die Auswirkungen von Computerspielen, insbesondere der Ego-​Shooter, diskutiert. Spitzer weist als Folge dieser Spiele „zunehmende Gewaltbereitschaft, Abstumpfung gegenüber realer Gewalt, soziale Vereinsamung und eine geringere Chance auf Bildung“ nach. Es mag ihn bestätigen, wenn die Reaktionen auf diese Erkenntnis oftmals aggressiv und beleidigend ausfallen – wie viele Kommentare im Netz zeigen.

Nichts neues, aber grundlegend

In den letzten beiden Kapiteln des Buches lässt Spitzer etwas nach: Er wiederholt sich, betont zu oft die Wissenschaftlichkeit der von ihm vorgestellten Studien und wird bei seiner Kritik an Politikern polemisch. Andererseits kann man diesen Ärger gut nachvollziehen, kennt man doch deren Untätigkeit aktuell aus vielen anderen Bereichen.

Er schließt das Buch jedoch gelungen, indem er einige praktische Tipps zur Prävention des geistigen wie körperlichen Abstieges gibt, den digitale Medien mitverursachen. Neben der einleuchtenden Empfehlung, diese zu meiden, schlägt er unter anderem gesunde Ernährung, tägliche körperliche Bewegung, Singen, den bewussten Genuss von Musik und den Gang in die freie Natur vor. Nichts wirklich neues, aber grundlegend.

Manfred Spitzer: Digitale Demenz. Wie wir uns und unsere Kinder um den Verstand bringen. Taschenbuch. 368 Seiten. München: Droemer Knaur 2014. 12,99 Euro.


lundi, 22 septembre 2014

Milieu gegen Gene?

Milieu gegen Gene?

von Ernst Hofer

Milieu gegen Gene?

Sozialbiologische Ansätze sind heute nachhaltig diskreditiert. Andreas Vonderach macht sich damit seit Jahren unbeliebt.

Wer aus dem gesellschaftlich „erlaubten“ Schema von Soziologie und Politikwissenschaft ausbricht, riskiert unwiderruflich als Nazi oder Biologist beschimpft zu werden. Dabei verläuft die Entwicklung in den Naturwissenschaften und der Psychologie durch neue Forschungsergebnisse immer mehr in eben diese Richtung. In zunehmendem Maße werden die Erblichkeit und die genetische Determiniertheit bestimmter Verhaltensmuster und Befähigungen erkannt.

Vonderach stellt klar, dass neben biologischen auch soziale Prägungen eine Rolle spielen, aber eben nur in einem bestimmten Umfang. In seinem Buch Sozialbiologie: Geschichte und Ergebnisse geht er der Geschichte der Sozialbiologie und ihren neueren Forschungsergebnissen nach.

Darwin, Galton und der Beginn der Eugenik

An den Anfang stellt Vonderach Charles Darwin. Mit seiner Theorie der Selektion und der dadurch bedingten Artenbildung legte er den Grundstein für sämtliche sozialbiologischen Theorien. Danach muss unweigerlich der Begriff des Sozialdarwinismus folgen und erklärt werden. Unterschieden werden muss zwischen einem rein ökonomischen Sozialdarwinismus im Sinne des Laissez-​faire–Prinzip des Manchester-​Kapitalismus und einem nach außen gewandten Sozialdarwinismus, der den Kampf zwischen verschiedenen Menschengruppen beschwört. Letzterer wurde durch Ernst Haeckel und seinem Fortschrittsoptimismus in Deutschland bekannt.

Begründer der Erblichkeitstheorie von Intelligenz war ein Vetter von Darwin, Francis Galton. Galton war methodischer Vorreiter der Psychologie. Er entwickelte viele Test zur Begabung von Menschen, die heute noch in Gebrauch sind. Seine wichtigsten Erkenntnisse fasste er im Buch Hereditary talent and character von 1865 zusammen. Darin verglich er die Verwandtschaftsverhältnisse von 415 herausragenden Männern der englischen Geschichte. Im Ergebnis stellte sich heraus, dass die Begabung zu hervorragenden Leistungen mit dem Grad der Verwandtschaft zu anderen Hochbegabten korreliert.

Eugenik in Deutschland

Galton begründete mit der Eugenischen Bewegung auch die pessimistische Variante des Sozialdarwinismus. Nach ihr würden (aus dem damaligen Blickwinkel betrachtet) in einem Jahrhundert die unteren sozialen Schichten die oberen zu 82 Prozent überholt haben. Galton fand mit dieser Hypothese viele Anhänger im gebildeten Milieu.

In Deutschland entwickelte sich in den 1890er-​Jahren unabhängig von Galton unter den Privatdozenten Alfred Ploetz und Wilhelm Schallmayer eine eigene eugenische Bewegung. Die zu befürchtende Degeneration der Bevölkerung schlossen beide aber nur deduktiv ohne empirische Belege aus der darwinschen Evolutionstheorie. 1910 rief Ploetz dann auch eine Gesellschaft für Rassenhygiene ins Leben, wobei Ploetz unter Rasse – leicht missverständlich – keine Großgruppe oder Unterkategorie des Menschen verstand, sondern lediglich die gesamte menschliche Population.

Der Sieg der Milieutheorie

Etwas später entwickelte sich in den USA unter Franz Boas der Kulturrelativismus. Boas war der Ansicht, dass nur das jeweilige soziale Milieu prägend für die Entwicklung eines Menschen sei und die genetischen Grundlagen nahezu irrelevant wären. Kurz nach dem Ersten Weltkrieg standen sich in der Debatte um genetische Anlage und Umweltbeeinflussung Boas-​Schüler und physische Anthropologen gegenüber. Als Bestätigung galten der Fraktion um Boas explizite Untersuchungen der Boas-​Schülerin Margaret Mead, die Feldforschungen auf der Südseeinsel Samoa durchführte. Ihr Ergebnis, dass die Kinder auf Samoa frei von gesellschaftlichen Konventionen, unbeschwert aufwüchsen, galt lange Zeit als Bestätigung von Boas Theorie.

Der Behaviorismus entstand zur selben Zeit auch in den USA. Der Tierpsychologe John Watson schloss aus jahrelangen Rattenversuchen, dass tierisches und menschliches Verhalten nahezu unbegrenzt konditionierbar ist. Der Behaviorismus wurde in der Folgezeit zur wichtigsten Grundlage linker Pädagogik. Nachdem sich die Eugeniker durch die menschlichen Experimente im Nationalsozialismus diskreditiert hatten, wurden der Boassche Kulturrelativismus und der Behaviorismus nach dem Zweiten Weltkrieg zur uneingeschränkten Grundlage aller politischen Entscheidungen.

Die Eugenische Bewegung löste sich selbst auf, ihre Fachzeitschriften benannten sich um oder befassten sich nicht mehr mit dem Thema. Der einzige Wissenschaftler, der sich weiterhin mit eugenischen Maßnahmen auseinandersetzt, ist der nordirische Psychologe Richard Lynn. Die einzige noch verbliebene Fachzeitschrift ist das Mankind Quarterly. Eugenische Maßnahmen finden heute auf freiwilliger Basis auf Zypern und unter orthodoxen Juden in Israel statt.

Neuere Erkenntnisse zur Erblichkeit von Intelligenz

In den 1960er– und 70er-​Jahren gab es wieder eine engagierte Fraktion von Forschern, welche die Erblichkeit von Intelligenz für gegeben hielt. Sie stützten sich dabei auf Zwillings-​und Adaptionsstudien. Danach nähern sich eineiige Zwillinge, die ein völlig gleiches Erbgut haben, in ihrer Intelligenz stark an, auch wenn sie in unterschiedlichen Milieus aufgewachsen sind. Häufig haben sie auch die gleichen Verhaltensauffälligkeiten. In den Adaptionsstudien wurde herausgefunden, dass adoptierte Kinder in Intelligenztests ähnlich den biologischen Eltern abschneiden und nicht ähnlich zu der neuen Familie, in der sie aufgewachsen sind.

Zu dieser Fraktion gehören weitgehend prominente angloamerikanische Psychologen wie Hans Jürgen Eysenck, Richard Herrnstein, Arthur Jensen und Cyril Burt. Als sie in ihren Studien auch den geringen Intelligenzquotienten der afroamerikanischen Bevölkerung thematisierten, sahen sie sich der vehementen Kritik durch Anhänger der Milieutheorie ausgesetzt.

Jede Zeit hat ihre Wissenschaftstrends

Derzeit geht man von einer Erblichkeit der Intelligenz von etwa 80 Prozent aus. Der Rest wird durch das Umfeld geprägt. Einem völligen Determinismus wird also nicht mehr das Wort geredet. Die deutschen Übersetzungen der Bücher von Eysenck, Herrnstein, Jensen und Burt fanden auch die Unterstützung des damaligen Leiters des Wissenschaftsressorts der Zeit Dieter Zimmer. Auch die Ergebnisse des Behaviorismus sind durch die Ethologie von Konrad Lorenz und die Humanethologie von Irenäus Eibl-​Eibesfeldt stark eingeschränkt worden.

Dennoch sieht Vonderach nach wie vor ein starkes Überwiegen der Milieutheorie in der westlichen Politik. Alle Parteien gehen in ihren politischen Überlegungen durchgängig von der Milieutheorie aus und nicht von der Erblichkeit wesentlicher Faktoren, die für den Sozialerfolg wichtig sind. Grundsätzlich ist Vonderachs Buch sehr informativ und gut zu lesen. Man merkt an allen Stellen, dass der Autor von der Materie reichhaltige Kenntnisse besitzt. Jedoch behandelt er die einzelnen Teilgebiete an manchen Stellen zu knapp und stellt den Stoff dann auf zu wenigen Seiten dar. Der Fairness halber muss hier noch angesprochen werden, dass Vonderach im Anhang eine ausführliche kommentierte Bibliographie zu den einzelnen Kapiteln beigefügt und somit eine Grundlage gelegt hat, auf der gezieltes Weiterlesen möglich ist.

Andreas Vonderach: Sozialbiologie: Geschichte und Ergebnisse. 221 Seiten, Verein für Staatspolitik 2012. 15,00 Euro.

vendredi, 25 avril 2014

Des Amérindiens aux origines en partie européennes

Des Amérindiens aux origines en partie européennes

Radio Canada 
Ex: http://metamag.fr 

Les Amérindiens ne sont pas exclusivement d'origine asiatique, montre le séquençage complet du plus vieux génome humain connu à ce jour. Les analyses montrent qu'ils partagent aussi des gènes avec les Européens. En effet, ce génome montre des similitudes avec ceux des populations autochtones des Amériques de même que ceux des populations vivant aujourd'hui en Eurasie occidentale, mais pas en Asie orientale.

L'analyse a été effectuée à partir de l'os d'un enfant mort il y a 24 000 ans près du lac Baïkal, dans le site paléolithique russe de Mal'ta, en Sibérie. L'équipe internationale dirigée par Eske Willerslev, généticien au Muséum d'histoire naturelle du Danemark, a prélevé un minuscule échantillon (0,15 gramme) du squelette de l'enfant dont les restes ont été retrouvés en 1920 sur le site paléolithique de Mal'ta. Elle est ainsi parvenue à en extraire de l'ADN pour analyser son génome, « le plus ancien jamais décrypté à ce jour pour un homme anatomiquement moderne », conclut-elle dans son étude publiée dans la revue Nature. Le groupe de chercheurs a ensuite comparé l'ADN au génome des humains actuels, en particulier des populations amérindiennes, dont la généalogie reste mystérieuse.

La théorie dominante depuis près de 100 ans laisse à penser que les premiers humains à avoir occupé l'Amérique sont des tribus asiatiques qui auraient franchi le Pacifique en passant par le détroit de Béring, lors d'une glaciation qui avait fait baisser le niveau de la mer entre les côtes sibériennes et l'Alaska.

Les récentes données montrent maintenant que les Amérindiens semblent en effet être génétiquement proches des populations d'Asie orientale, mais ouvrent également d'autres perspectives. Notamment, des crânes présentant des caractéristiques incompatibles avec une morphologie asiatique et appartenant à des hommes vivant bien avant l'arrivée des Européens suivant la découverte du Nouveau Monde par Christophe Colomb.

En outre, l'ADN mitochondrial de l'enfant sibérien, transmis exclusivement par la lignée maternelle, a pratiquement disparu aujourd'hui, mais il était fréquent (plus de 80 %) chez les chasseurs-cueilleurs européens de la fin du paléolithique et du mésolithique. Pour ce qui est de son ADN nucléaire, transmis par le père via le chromosome Y, il précède celui des populations occidentales actuelles et est à la base de la plupart des lignées amérindiennes, sans ressemblance forte avec les populations asiatiques. Eske Willerslev affirme : « Nous estimons que 14 % à 38 % des ancêtres des Amérindiens peuvent avoir pour origine génétique cette population sibérienne du paléolithique. »

Ces nouvelles informations laissent à penser que les ancêtres des Amérindiens avaient déjà probablement divergé de ceux des Asiatiques lorsque ce croisement avec les chasseurs-cueilleurs sibériens est survenu. De plus, cette filiation précède le moment où les populations amérindiennes se sont diversifiées dans le Nouveau Monde. Ainsi, selon les auteurs de l'étude parue dans Nature, « la signature génétique occidentale présente chez les Amérindiens actuels ne provient pas seulement de croisements survenus après la découverte de l'Amérique par Christophe Colomb, comme on le pense souvent, mais aussi de l'héritage même des premiers Américains. » L'analyse d'un second échantillon d'ADN, prélevé sur un autre individu sibérien vieux de 17 000 ans, a confirmé leurs résultats en aboutissant à une signature génétique similaire.

NDLR : Le célèbre archéologue russe, Mikhail Gerasimov a déjà établi que les oeuvres d'art préhistorique de la région de Mal'ta présentent de fortes ressemblances avec des figurines féminines d'Europe datant du paléolithique supérieur. Des similitudes semblables concernent les outils et les structures d'habitation.

mardi, 22 avril 2014

A skull that rewrites the history of man

A skull that rewrites the history of man

1 / 1
One of the skulls discovered in Georgia, which are believed to date back 1.8 million years


It has long been agreed that Africa was the sole cradle of human evolution. Then these bones were found in Georgia...

The conventional view of human evolution and how early man colonised the world has been thrown into doubt by a series of stunning palaeontological discoveries suggesting that Africa was not the sole cradle of humankind. Scientists have found a handful of ancient human skulls at an archaeological site two hours from the Georgian capital, Tbilisi, that suggest a Eurasian chapter in the long evolutionary story of man.

The skulls, jawbones and fragments of limb bones suggest that our ancient human ancestors migrated out of Africa far earlier than previously thought and spent a long evolutionary interlude in Eurasia – before moving back into Africa to complete the story of man.

Experts believe fossilised bones unearthed at the medieval village of Dmanisi in the foothills of the Caucuses, and dated to about 1.8 million years ago, are the oldest indisputable remains of humans discovered outside of Africa.

But what has really excited the researchers is the discovery that these early humans (or "hominins") are far more primitive-looking than the Homo erectus humans that were, until now, believed to be the first people to migrate out of Africa about 1 million years ago.

The Dmanisi people had brains that were about 40 per cent smaller than those of Homo erectus and they were much shorter in stature than classical H. erectus skeletons, according to Professor David Lordkipanidze, general director of the Georgia National Museum. "Before our findings, the prevailing view was that humans came out of Africa almost 1 million years ago, that they already had sophisticated stone tools, and that their body anatomy was quite advanced in terms of brain capacity and limb proportions. But what we are finding is quite different," Professor Lordkipanidze said.

"The Dmanisi hominins are the earliest representatives of our own genus – Homo – outside Africa, and they represent the most primitive population of the species Homo erectus to date. They might be ancestral to all later Homo erectus populations, which would suggest a Eurasian origin of Homo erectus."

Speaking at the British Science Festival in Guildford, where he gave the British Council lecture, Professor Lordkipanidze raised the prospect that Homo erectus may have evolved in Eurasia from the more primitive-looking Dmanisi population and then migrated back to Africa to eventually give rise to our own species, Homo sapiens – modern man.

"The question is whether Homo erectus originated in Africa or Eurasia, and if in Eurasia, did we have vice-versa migration? This idea looked very stupid a few years ago, but today it seems not so stupid," he told the festival.

The scientists have discovered a total of five skulls and a solitary jawbone. It is clear that they had relatively small brains, almost a third of the size of modern humans. "They are quite small. Their lower limbs are very human and their upper limbs are still quite archaic and they had very primitive stone tools," Professor Lordkipanidze said. "Their brain capacity is about 600 cubic centimetres. The prevailing view before this discovery was that the humans who first left Africa had a brain size of about 1,000 cubic centimetres."

The only human fossil to predate the Dmanisi specimens are of an archaic species Homo habilis, or "handy man", found only in Africa, which used simple stone tools and lived between about 2.5 million and 1.6 million years ago.

"I'd have to say, if we'd found the Dmanisi fossils 40 years ago, they would have been classified as Homo habilis because of the small brain size. Their brow ridges are not as thick as classical Homo erectus, but their teeth are more H. erectus like," Professor Lordkipanidze said. "All these finds show that the ancestors of these people were much more primitive than we thought. I don't think that we were so lucky as to have found the first travellers out of Africa. Georgia is the cradle of the first Europeans, I would say," he told the meeting.

"What we learnt from the Dmanisi fossils is that they are quite small – between 1.44 metres to 1.5 metres tall. What is interesting is that their lower limbs, their tibia bones, are very human-like so it seems they were very good runners," he said.

He added: "In regards to the question of which came first, enlarged brain size or bipedalism, maybe indirectly this information calls us to think that body anatomy was more important than brain size. While the Dmanisi people were almost modern in their body proportions, and were highly efficient walkers and runners, their arms moved in a different way, and their brains were tiny compared to ours.

"Nevertheless, they were sophisticated tool makers with high social and cognitive skills," he told the science festival, which is run by the British Science Association.

One of the five skulls is of a person who lost all his or her teeth during their lifetime but had still survived for many years despite being completely toothless. This suggests some kind of social organisation based on mutual care, Professor Lordkipanidze said.

mardi, 08 avril 2014

Un nouvel ordre génétique ?


Un nouvel ordre génétique ?

par Edouard Rix

En quelques années, ce sont quelques-uns des dogmes les plus sacrés de la vulgate scientiste antiraciste et égalitariste qui viennent de voler en éclat. Mauvaise passe pour les tenants du politiquement correct scientifique…

D’abord, le mythe de l’Out of Africa, dont Yves Coppens a signé l’arrêt de mort en affirmant dans Sciences et Avenir de juin 2011 que « l’Afrique n’est pas le seul berceau de l’Homme moderne » (1). Prenant en compte les toutes dernières découvertes scientifiques, le paléoanthropologue réfute définitivement le paradigme diffusionniste au profit de l’hypothèse multirégionale : « Je ne crois pas que les hommes modernes aient surgi d’Afrique il y a 100 000 à 60 000 ans (…) Je pense que les Homo sapiens d’Extrême-Orient sont les descendants des Homo erectus d’Extrême-Orient » (2). De même, les Homos sapiens d’Europe résultent d’une hominisation indépendante de l’hominisation africaine.

Denisova, le troisième homme

Autre dogme littéralement pulvérisé par les progrès d’une science nouvelle, la paléogénétique : la croyance en l’unité du genre humain. Car le séquençage de l’ADN, loin de se limiter aux seuls êtres vivants, s’applique désormais à des individus morts depuis des millénaires, y compris à des espèces aujourd’hui disparues. En effet, l’ADN se conserve près de 100 000 ans dans un environnement ni trop chaud, ni trop humide. En prélevant d’infimes quantité d’ADN résiduel dans les squelettes, les paléogénéticiens arrivent à reconstituer la totalité du génome grâce à une technique d’ampliation qui permet de multiplier les séquences.

Rappelons que, depuis 100 000 ans, plusieurs espèces d’hominidés ont disparu : Néandertal en Europe, Denisova en Sibérie, l’Homme de Florés en Indonésie. Un fossile de ce dernier, datant de 13 000 ans, a été découvert en 2003 dans une grotte de l’île indonésienne de Florés. Le séquençage de cet Homo floresiensis, un individu de faible corpulence possédant un crâne et un cerveau très petits – d’où le surnom de « Hobbit » dont on l’a affublé -, a échoué par deux fois, l’ADN retrouvé ayant été fortement détérioré par le climat tropical régnant dans la zone de la sépulture. Par contre, les généticiens ont réussi à séquencer Néandertal et Denisova, alors que cette dernière espèce ne nous est connue que par un os de la phalange d’un auriculaire et deux molaires.

C’est en 2008 qu’ils ont été retrouvés dans une caverne à Denisova, dans les monts Altaï, au sud de la Sibérie. Des objets présents au même niveau que les fragments osseux ont pu être datés par le carbone 14 entre 30 000 et 40 000 BP (3). En mars 2010, une équipe internationale de phylogénistes moléculaires (4) de l’Institut Max Planck d’anthropologie évolutionnaire de Leipzig, en Allemagne, conduite par le biologiste suédois Svante Pääbo, publie dans Nature une première analyse de l’ADN mitochondrial (ADN mt), d’origine strictement maternelle, prélevé dans ce bout d’os. Grâce au séquençage de cet ADN, les chercheurs affirment avoir découvert une troisième espèce d’hominidé, contemporaine de l’Homo sapiens et appelée Homme de Denisova. « La famille des hommes semblerait donc avoir été beaucoup plus diverse qu’on ne l’avait cru jusqu’à présent » s’étonne Le Figaro (5).

Les mêmes s’attaquent ensuite à l’ADN nucléaire, ADN du noyau cellulaire issu de la fusion du patrimoine génétique des parents. Un seul individu offre ainsi un échantillon statistique de la population qui l’a précédé. Les résultats, annoncés le 23 décembre 2010 dans les colonnes de Nature, confirment que l’Homme de Denisova forme une branche distincte de l’arbre généalogique du genre Homo. Il aurait donc existé deux formes distinctes d’hommes archaïques en Eurasie : à l’Ouest Néandertal, à l’Est Denisova. La branche des Dénisoviens aurait divergé de celle qui mène à l’homme moderne il y a 800 000 ans, et de celle qui conduit à Néandertal il y a 640 000 ans. En comparant l’ADN de Denisova avec celui d’hommes modernes actuels, les scientifiques ont découvert que 5% du génome de certains Mélanésiens, en l’occurrence les Papous de Nouvelle-Guinée et de l’île de Bougainville, provient des Dénisoviens. L’équipe de l’Institut dresse l’hypothèse que ces derniers auraient croisé la route de sapiens, il y a 55 000 ans, vers le Proche-Orient, et que les descendants issus de cette rencontre auraient traversé l’Océan pour s’installer en Mélanésie il y a 45 000 ans.

En août 2012, les chercheurs annoncent dans Science être parvenu à décoder entièrement son génome. Pour cela, ils ont dû inventer une technique leur permettant de déméler la double hélice de l’ADN pour en analyser séparément chacun des brins. Il en résulte que les Dénisoviens étaient porteurs de matériel génétique aujourd’hui associé avec une peau sombre, des cheveux bruns et des yeux marrons.

Il y a du Néandertal en nous !

Dès 2010, la même équipe de paléoanthropologues et de paléogénéticiens avait séquencé 60% du génome nucléaire de Néandertal (6), dont l’apparition remonte à 400 000 ans et qui se sont éteints il y a 30 000 ans. Les résultats contredisaient les études antérieures sur l’ADN mitochondrial qui n’avaient trouvé aucune contribution néandertalienne à notre génome. Il s’avère, finalement, que du fait de croisements entre Homo neanderthalensis et Homo sapiens, des hommes modernes non-africains (les Chinois Han, les Français, les habitants de Papouasie-Nouvelle-Guinée) ont hérité de 1 à 4 % de leurs gènes de Néandertal. Cette découverte conforte l’hypothèse d’une hybridation entre les deux espèces avant que les Néandertaliens ne s’éteignent. Une nouvelle étude, menée par Damian Labuda, professeur au département de pédiatrie de l’Université de Montréal, révèlera qu’une partie du chromosome X de toutes les populations non africaines provient des Néandertaliens (7).

Devant cette véritable révolution anthropologique, Le Monde se devait de sonner l’alarme, à moins que cela ne soit le glas : « L’année 2010 aura donc été très riche pour la paléogénomique. C’est celle de la découverte de la part néandertalienne chez les non-Africains actuels, et de l’héritage dénisovien chez les Papous. Les généticiens savent que ces avancées peuvent ressusciter des thèses racialistes. Aussi prennent-ils soin de préciser que cet ADN en héritage est non codant, c’est-à-dire qu’il n’a pas de fonction connue. Mais “ quand bien même il commanderait des gènes, la différence génétique ne saurait justifier le racisme “ insiste Pascal Picq » du Collège de France (8). Même les pires négationnistes de l’antiracisme ne peuvent plus ignorer que certains groupes raciaux et ethniques vivant aujourd’hui sont issus de croisement, intervenus il y a plusieurs milliers d’années, d’hommes modernes et d’hommes archaïques, et que certains gènes dont ils ont hérité concernent plus particulièrement l’organisation du cerveau et le fonctionnement des synapses neuronales. Différents et inégaux ? « C’est dans la Genèse et l’enseignement des Pères de l’Eglise, rappelle Guillaume Faye, qu’il faut déceler l’origine de ce mythe ethnocidaire de l’unité du genre humain, et de l’archétype d’un homme universel, entité monogénique issue d’une même souche, modèle par lequel les identités sont dévalorisées » (9). L’édifice égalitariste et universaliste bi-millénaire forgé par le judéo-christianisme et perpétué sous une forme laïcisée par les idéologies modernes vient de s’écrouler. Nous ne pouvons que nous en réjouir.

Edouard Rix, Réfléchir & Agir, hiver 2013, n°43, pp. 37-38.




Notes :




(1) Sciences et Avenir, juin 2011, n°772.

(2) Idem.

(3) L’expression Before Present (BP), « avant le présent » est utilisé en archéologie pour désigner les âges exprimés en nombre d’années comptées vers le passé à partir de l’année 1950 du calendrier grégorien. Cette date, fixée arbitrairement comme année de rférence, correspond aux premiers essais de datation au carbone 14.

(4) La phylogénie moléculaire consiste à comparer des gènes dans le but d’établir des classifications d’espèce.

(5) Le Figaro, 25 mars 2010.

(6) Science, 7 mai 2010, vol. 328, n° 5979, pp. 710-722.

(7) Molecular Biology and Evolution, juillet 2011, 28 (7).

(8) Le Monde, 24 décembre 2010.

(9) G. Faye, Les nouveaux enjeux idéologiques, Le Labyrinthe, Paris, 1985, p. 45.

00:05 Publié dans Science, Sciences | Lien permanent | Commentaires (0) | Tags : génétique, sciences | |  del.icio.us | | Digg! Digg |  Facebook

mardi, 04 mars 2014

Se descubre el origen europeo de los perros


Se descubre el origen europeo de los perros

por Juan Ritamo

Ex: http://eloccidental.es

Según un reciente estudio publicado en la revista Science el origen de los perros está en Europa, y no en Asia, como se pensaba hasta ahora. De esta manera sugiere que los primeros en domesticar lobos fueron los cazadores recolectores europeos hace entre 18.800 y 32.100 años.

El estudio analiza el ADN mitocondrial de 18 cánidos prehistóricos de Eurasia y América, hallados en yacimientos y cuevas de Bélgica, Rusia, Suiza, Estados Unidos, Alaska, Argentina y Alemania, y lo compara con un exhaustivo muestrario de perros de muy diversas razas, lobos y coyotes modernos

“Hemos visto que los perros actuales están estrechamente emparentados con los cánidos prehistóricos europeos. Y ese parentesco es mayor que el que existe entre los cánidos prehistóricos europeos y los lobos asiáticos, lo que sugiere que el origen de los perros está en la domesticación de lobos de Europa y no de Asia”, explica la investigadora del CSIC Jennifer Leonard, de la Estación Biológica de Doñana.

Este informe no viene sino a confirmar la larga y estrecha vinculación de estos animales con la etnia Europea. Los “mejores amigos del hombre” han convivido con los humanos en muy diversas situaciones. En varias etnias de la América precolombina y como aún ocurre en Oriente los perros han sido usados como alimento, mientras que en Oriente Medio son considerados como impuros al ser asociados a los chacales. 


00:05 Publié dans Sciences | Lien permanent | Commentaires (0) | Tags : chiens, canidés, zoologie, sciences, biologie | |  del.icio.us | | Digg! Digg |  Facebook

jeudi, 13 février 2014



La Révolution du travail arrive...

Michel Lhomme
Ex: http://metamag.fr

Il n'y aura plus jamais de plein emploi. Faire croire le contraire et se focaliser sur les courbes du chômage est suicidaire. Mais il y a pire, l'obsolescence technologique, le retard dans les investissements et la ringardise de la formation professionnelle risquent de faire payer encore plus cher aux entreprises françaises la nouvelle révolution technologique en cours. 

Ce qui frappe le plus dans la crise de l'emploi et de l'éducation présente, ce n'est pas le débat sur la théorie du genre mais la résistance de l'institution à repenser son modèle jésuitique inadapté, à mettre à la poubelle tous ses programmes obsolètes face aux nouveaux élèves digitaux. Du coup, elle refourgue son incompétence et son inadaptation aux marchés juteux et quasi mafieux des formations privées. Le monde de l'entreprise n'est guère mieux loti dans les planifications à programmer. On se souvient de la faillite de Kodak qui, pour avoir sous-estimé la photographie numérique sombra corps et âme avec ses vieilles bobines de pellicules. Le développement de nouvelles classes moyennes dans les pays émergents et la recherche de produits à bas prix ont concentré la production industrielle dans les pays asiatiques. Pour combien de temps ?

Une nouvelle technologie somme toute assez simple est en train discrètement de changer toute la donne économique. Il s'agit de l'imprimante 3 D, capable de produire en résine résistante des matériaux en volume. Au fur et à mesure que cette technologie s'étendra, les processus de production et toute la logistique commerciale se trouveront modifiés. Le premier grand changement, c'est que la production se rapprochera au plus près de son point de consommation. Dans certains cas, il suffira même de payer simplement la matière première et le service d'impression pour obtenir son produit tandis que le software qu'on aura utilisé pour le dessiner sera disponible et téléchargeable sur Internet. Si, avec l'imprimante 3D, le coût de production par unité sera en théorie plus élevé que celui d'une production à grande échelle, le coût final tendra à se niveler en raison des économies obtenues dans les coûts de distribution, de stockage et de financement.

Autre grand chambardement de l'expansion de la technologie de l'imprimante 3D, les produits seront singularisés, individualisés, personnalisés en fonction du goût particulier du client. L'ère de l'individualisme marchand sera aussi l'ère de la production individuelle et de la commande-distribution sur mesure. Dans le vieux monde de l'ère industrielle en voie de disparition, on utilise encore de vieux moules très couteux qui tous, demain disparaîtront. L'imprimante 3D est bien une nouvelle révolution industrielle qui doit amener les entreprises à repenser leurs stratégies pour répondre aux nouveaux défis de cette nouvelle technologie.

Le développement de l'imprimante 3D va enfin avoir un impact géopolitique certain qu'il ne faut pas sous-estimer. Il impactera très fortement l'économie chinoise transformée ces dernières années en ''atelier du monde''. Certes, la Chine a développé un gigantesque marché interne qui lui aussi recherchera des produits personnalisés à partir de la technologie 3D mais il y aura un laps de temps d'adaptation à la nouvelle production qui affectera durement l'économie chinoise. Il faudra tenir compte de cette nouveauté dans ses répercutions géopolitiques. L'Asie n'a plus vocation à être le centre du monde. 

A côté d'un modèle de production-distribution hautement flexible à faible échelle, le modèle de production centralisé classique à grande échelle perdurera mais il devrait à long terme réellement disparaître. L'urbanisme concentrationnaire chinois autour des grosses fabriques devrait être du coup révisé car la technologie 3D suscite des postes de travail à proximité des centres de consommation et permet d'envisager l'extension d'un habitat plus diversifié et moins concentré. Il débloque l'opposition de la vieille industrie ou de la vielle ville entre centre et périphérie.

Ainsi, le cas de l'imprimante 3D est emblématique de comment un simple changement technologique quasi anodin, encore perçu comme secondaire peut générer une importante modification en temps réel de la production, de la distribution, du travail et en quelque sorte de toute l'économie. La séparation production/distribution sera demain dépassée, tout le marché rénové et transformé. Penser un tel changement, l'anticiper, le programmer, le planifier, voilà une vraie politique de restructuration industrielle, de réforme éducative bien loin des ABCD de l'égalité homme/femme qui ne poserait même pas problème dans un futur schéma de production industrielle hautement singularisé.    

00:05 Publié dans Science, Sciences | Lien permanent | Commentaires (0) | Tags : science, sciences, technologie, imprimante 3d | |  del.icio.us | | Digg! Digg |  Facebook

dimanche, 09 février 2014

Du sixième sens à l'ordinateur organique


Au-delà de Big Brother
Michel Lhomme
Ex: http://metamag.fr

L'armée et les services secrets américains utilisent des rats que l'on appelle dans le milieu militaire US, les rats DARPA ou plus communément "rat-bot" du nom d'une agence qui dépend du Ministère de la défense américain et de son programme intitulé précisément ''rat-bot''. Ce programme vise à guider un rat à distance en lui envoyant des impulsions électriques indolores dans le cerveau. Il a été pour le Pentagone ou la NSA plus que concluant. On n'arrête pas, en fait, d'expérimenter sur les rats pour préparer le trans-humain.

Des chercheurs américains sont parvenus, par exemple, à mettre au point un implant cérébral sur des rats qui leurs donne la capacité de percevoir la lumière infrarouge que leurs yeux ne peuvent pas distinguer. Or, qui n'a pas rêvé au moins une fois dans sa vie d'avoir un sixième sens et surtout de disposer de facultés supérieures à la normale, comme celles de tout voir et de tout entendre ? Cette possibilité, le fantasme privé du Big Brother, on vient aujourd'hui d'en franchir un bon pas avec la prouesse réalisée par des chercheurs de l'université Duke aux Etats-Unis. Rapportés dans la revue Nature Communication, ces travaux sont les premiers à aboutir sur un dispositif capable de donner un nouveau sens à un animal. L'implant en question est une neuroprothèse composée d'un détecteur infrarouge relié à des microélectrodes, elles-mêmes connectées à une région du cortex liée au toucher. C'est notamment cette dernière région cérébrale qui reçoit des informations provenant des vibrisses, les fameuses moustaches ultrasensibles des rats. Pour tester leur dispositif, les chercheurs ont procédé en plusieurs étapes. Dans un premier temps, ils ont entrainé des rats exposés à trois diodes à se diriger vers celle qui s'allumait afin de pousser un levier leur permettant d'obtenir quelques gouttes d'eau. Puis, ils ont équipé les rongeurs de la neuroprothèse et ont recommencé l'expérience avec trois lumières infrarouges. Les premiers jours, les sujets ne se sont pas toujours dirigés vers la bonne direction, celle de la lumière. Toutefois, les chercheurs ont constaté qu'après avoir appuyé sur l'interrupteur, les rats se mettaient à se frotter les moustaches, suggérant ainsi qu'ils "sentaient" bien la lumière infrarouge, comme s'ils la touchaient. Il a alors fallu seulement un mois pour confirmer complètement l'efficacité du dispositif. Passé ce délai, les rats avaient pleinement associé la nouvelle sensation avec les sources de lumière et étaient capables de trouver dans 100% des cas, laquelle des lumières étaient allumées. Les rats qui ne possédaient pas le dispositif, eux, ne parvenaient pas, la plupart du temps, à trouver la bonne. La démonstration ne s'arrête pas là puisqu'elle a également permis de faire une découverte d'importance.

En effet, cette étude démontre qu'une région cérébrale et des neurones, impliqués dans un sens précis peuvent aussi interpréter d'autres types d'informations sensorielles. « Les nerfs ont répondu en même temps au toucher et à la lumière infrarouge. Ceci montre que le cerveau humain peut acquérir de nouvelles capacités qui n'ont jamais été expérimentées sur l'animal avant cela », a ajouté le scientifique. En théorie, une personne aveugle pour cause de dommage au niveau du cortex visuel pourrait recouvrer la vue en utilisant un implant sur une autre partie de son cerveau. Tout comme pourrait le faire une personne devenue sourde en raison de dommages au niveau du cortex auditif. « Ceci suggère que, dans le futur, il serait possible d'utiliser des dispositifs de type prothèses pour restaurer des modalités sensorielles qui ont été perdues, telles que la vision, en utilisant une partie cérébrale différente », a confirmé le Dr Nicolelis cité par le Telegraph. En somme, cette recherche ouvre la voie à la possibilité d'améliorer ou d'exacerber les capacités dont disposent déjà les animaux y compris l'être humain. « Cela pourrait être de détecter des rayons X, des ondes radio, ou n’importe quoi d’autres », a précisé le scientifique. Déjà, on a réussi à mettre au point un œil bionique capable de restaurer une partie de la vision à des aveugles. Nous entrons donc bien dans l'ère des NBIC (Nanotechnologie-Biotechnologie-Informatique et sciences Cognitives) sans réellement en mesurer toutes les conséquences perceptives car si l'on parvient à exacerber un sens, le sujet pourra-t-il vraiment contrôler cette "amélioration" ? Le sixième sens ne sera-t-il pas vécu comme une hypersensibilité pour le sujet ? Aujourd'hui, les rayons infrarouges ne nous gênent pas car nous ne les percevons pas, mais si demain nous les percevions, cela ne risquerait-il pas d'altérer notre vision du monde ? Il pourrait, en effet être très désagréable de percevoir ce qu'on ne perçoit pas en temps normal et de forcer en quelque sorte la nature des choses.

Du rêve télépathique à l'ordinateur organique 

Cette inquiétude légitime ne va-t-elle pas pourtant passer dans les oubliettes de la science avec la connexion intercontinentale envisageable du cerveau de deux souris (via des implantes et des câbles) et la possibilité ainsi de concevoir demain un super ordinateur organique.

En effet, dans le genre transhumain, il y aura plus que le sixième sens. Toujours à la Duke University, les scientifiques de l'équipe Nicolelis s'étaient distingués l'année dernière en réalisant la première interface cerveau-cerveau. Ils avaient réussi à connecter les cerveaux de deux rats, séparés de 5 000 km, par voie électronique, puis à transférer une information motrice ou tactile de l’un à l’autre pour guider l’accomplissement d’une tâche simple. Dans cette expérience, les chercheurs avaient utilisé des rats « encodeurs » et « décodeurs ». Les rats encodeurs étaient entraînés à répondre à un signal visuel ou tactile, en appuyant sur la touche correspondante, pour obtenir une récompense. Les chercheurs enregistraient ensuite l'activité cérébrale de ces rats encodeurs à l'aide d'un réseau de microélectrodes implantées dans leur cerveau. Ils transmettaient alors ces informations, sous forme de micro stimulations intra corticales (MSIC), aux aires corticales correspondantes chez le rat décodeur. Le rat décodeur, ainsi "informé" des actions visuelles ou tactiles de son congénère encodeur, devait reproduire les mêmes actions en choisissant d'actionner différentes touches, ce qu'il fit avec un excellent taux de réussite. « Par ces expériences, nous avons pu établir un lien de communication direct d'un nouveau type entre des cerveaux et montrer la validité du concept d'"ordinateur organique"», souligne le Professeur Nicolelis qui ajoutait aussitôt : « La prochaine étape de nos recherches sera d'essayer de construire un vaste réseau de cerveaux qui pourrait permettre l'émergence de propriétés et capacités nouvelles ». 

L'ordinateur quantique serait-il déjà mort né et  remplacé par l'ordinateur organique ?

dimanche, 26 janvier 2014

L’atome vert : le thorium

L’atome vert : le thorium

« L’atome vert » est un livre consacré à une technologie peu connue du grand public mais beaucoup plus avancée et prometteuse que je ne le pensais : les réacteurs nucléaires au Thorium.

Par Philippe Guglielmetti.

Ex: http://www.contrepoints.org

L'atome vert

L’atome vert est un livre consacré à une technologie peu connue du grand public mais beaucoup plus avancée et prometteuse que je ne le pensais : les réacteurs nucléaires au Thorium. Les avantages sont très nombreux :

  • le Thorium 232 est plus abondant que l’uranium1, on peut l’utiliser à 100% contre quelques pourcents pour l’uranium, et il n’y a pas besoin de l’enrichir.
  • Le 232Th étant fertile et non fissile2, il ne peut pas produire de réaction en chaîne. Une centrale ne peut pas s’emballer, et elle peut s’arrêter d’elle même en cas de défaut de refroidissement.
  • Les déchets du 232Th ne sont dangereux que quelques siècles, contre des centaines de milliers d’années pour ceux de l’uranium3.
  • Les centrales au thorium peuvent « incinérer » les déchets des centrales à uranium, y compris le plutonium.
  • On ne peut pas produire d’armes nucléaires avec une centrale au thorium.

Coté désavantages, en cherchant bien il y en a quelques-uns, mais le principal est :  on ne peut pas produire d’armes nucléaires  avec une centrale au thorium. Selon Jean-Christophe de Mestral, c’est ce qui a favorisé la filière de l’uranium pendant la guerre froide alors que plusieurs expériences ont démontré la faisabilité et la sécurité des solutions au Thorium. Entre autres :

  • Le réacteur expérimental de Shippingport aux États-Unis qui a fonctionné comme surgénérateur au Thorium entre 1977 et 1982.
  • Plusieurs réacteurs à très haute température (HTGR) ont fonctionné avec des barres de combustible mixant Uranium 235 et Thorium 232 aux États-Unis, mais aussi en Allemagne entre 1966 et 1989.
  • Les réacteurs expérimentaux et 7 réacteurs CANDU de 220 MW chacun utilisant un mix Uranium/Thorium qui fonctionnent actuellement en Inde. L’Inde est le seul pays mentionnant clairement le thorium dans son programme énergétique, pour une raison simple : l’Inde a très peu d’Uranium, et ne peut pas en importer facilement car elle n’a pas signé le traité de non prolifération. En revanche, elle dispose de gros gisements de Thorium.
  • Et aussi le « Molten-Salt Reactor Experiment » (MSRE) qui fonctionna entre 1965 et 1969 avec divers combustibles, dont de l’Uranium 233 produit à partir de Thorium dans un autre réacteur.

Les réacteurs à sels fondus (MSR) sont prometteurs à moyen terme. Ils sont d’ailleurs prévus par le « Forum International Génération IV » dans les technologies disponibles d’ici 2030, mais hélas seulement dans leur version à l’Uranium. Les Réacteurs au Fluorure de Thorium Liquide (LFTR) n’ont pas été projetés dans cet horizon de temps, tout comme le « Rubbiatron » qui nécessite un accélérateur de particules d’ailleurs. Ce qui n’empêche pas l’AIEA d’en penser du bien4, ni la Chine de démarrer un ambitieux projet de LFTR, qui sera probablement une première mondiale…


Schéma de principe d’un MSR à neutrons thermiques.


Du point de vue nucléaire, les réacteurs à sels fondus n’ont que des avantages :

  • Le combustible est dissous dans un sel, solide à basse température, liquide en fonctionnement et servant en même temps de fluide de refroidissement primaire.
  • La réaction ne se produit que dans le cœur car il faut à la fois une source de neutrons et un volume suffisant pour que la probabilité que le neutron soit absorbé soit assez élevée.
  • L’installation fonctionne à pression ambiante : le très haut point d’ébullition du sel empêche que le système devienne une cocote-minute
  • Si l’installation surchauffe, un bouchon (« Freeze Plug » sur le dessin) fond et le sel s’écoule par gravité dans des réservoirs (en bleu) dont la géométrie stoppe les réactions nucléaires. C’est d’ailleurs comme ça que le MSRE était arrêté pour maintenance.

ARE Thorium : plus besoin de réservoirs, on va pouvoir mettre des passagers aussi dans les ailes…

Les difficultés et inconnues sont surtout liés à la chimie de ces sels. Il faut installer une usine chimique pour les purifier à côté de la centrale, notamment pour en enlever le Xenon 135. On ne sait pas trop bien comment un LFTR vieillira, notamment en raison de la corrosion par les sels.

Au passage, j’ai découvert l’existence du projet Aircraft Reactor Experiment qui visait la propulsion nucléaire d’avions. C’était un MSR dont les sels à 850° chauffaient l’air dans les réacteurs, qui fonctionna 1000 heures en 1954, quand on avait peur de rien sauf peut être des rouges. Donc je ne le savais pas mais oui, il existe dans les cartons une alternative au turboréacteur.

Le livre L’atome vert est très intéressant et convaincant pour l’initié, mais il m’a semblé parfois trop technique pour le grand public. Je le trouve aussi inutilement provocateur pour les écolos irréductibles, notamment le passage comparant les risques des diverses sources d’énergie par TWh produit et celui comparant les taux de cancers dans les zones à forte radioactivité naturelle, même si c’est très intéressant5.

Enfin, même la conclusion me semble trop touffue pour les politiciens lambda qui sont pourtant les personnes à convaincre, alors je résume pour eux : « Thorium pouvoir produire Térawatts propres et pas chers pour remplacer pétrole et charbon. Vous y’en a donner feu vert, nous s’occuper du reste ». Je ne sais pas ce que ça donne en hindi ou en mandarin, mais là-bas ils ont compris.

— Jean-Christophe de Mestral, L’atome vert : Le thorium, un nucléaire pour le développement durable, Favre, 2011, 140 pages.

Sur le web.

  1. Maurice Mashaal, « La chaleur radioactive de la Terre chiffrée », 2011, Actualités Pour La Science.
  2. Pourquoi le Thorium 232 est-il fertile ? 2011, site « Je Comprends Enfin ».
  3. Sylvain David, Élisabeth Huffer, Hervé Nifenecker « Revisiting the thorium-uranium nuclear fuel cycle«  (2007), Europhysics News vol. 38 (2) p. 24-27 DOI : 10.1051/EPN:2007007.
  4. « Thorium fuel cycle – Potential benefits and challenges«  IAEA-TECDOC-1450, May 2005.
  5. Ghiassi-nejad, M;  Mortazavi, S M J;  Cameron, J R;  Niroomand-rad, A;  Karam, P A, « Very high background radiation areas of Ramsar, Iran: preliminary biological studies » (2002), Health physics, vol. 82 (1) p. 87-93.

samedi, 13 juillet 2013

Digitale dementie

Digitale dementie: Geheugen jongeren permanent aangetast door smartphones en pc's

Jongeren door internetcontacten steeds minder empathisch - Straling mobieltjes: Verhoogd risico op hersentumor, hartaandoening, Alzheimer, MS , Parkinson, autisme

De snelle omschakeling naar een digitale samenleving blijkt steeds vaker grote en veelal permanente gevolgen te hebben voor onze lichamelijke en geestelijke gezondheid.

Artsen in Zuid Korea, het land dat al sinds de jaren '90 voorop loopt bij de invoering van computers, maken zich zorgen over een nieuwe en snel groeiende aandoening die vooral jongeren aantast: digitale dementie. Het blijkt dat het geheugen van steeds meer jonge mensen door het veelvuldig en langdurig gebruik van pc's, spelcomputers en smartphones ernstig wordt aangetast, zozeer dat er zelfs sprake lijkt van een hersenbeschadiging of psychiatrische ziekte. Sommige jongeren kunnen niet eens meer een telefoonnummer onthouden.

De vooruitstrevende digitalisering van de Zuid Koreaanse samenleving, zowel op de werkplek, de scholen als in de privésfeer, blijkt een zorgwekkende keerzijde te hebben. 'Het te vaak gebruiken van smartphones en (spel)computers belemmert de ontwikkeling van het brein,' zegt Byun Gi-won, wetenschapper van het Balance Brain Centre in Seoul. 'Zware gebruikers ontwikkelen met name de linkerkant van hun brein, waardoor de rechterkant onaangesproken of onderontwikkeld blijft.'

Extreem vroege dementie, emotionele onderontwikkeling

De rechterkant van het brein is verbonden met het concentratievermogen. Als deze helft zich niet voldoende ontwikkelt krijgen mensen grote problemen met opletten en hun geheugen, wat in maar liefst 15% van de gevallen kan leiden tot het extreem vroeg intreden van dementie. Daarnaast zijn deze aangetaste mensen vaak emotioneel onderontwikkeld, waarbij kinderen hogere risico's lopen dan volwassenen omdat hun hersenen nog niet volgroeid zijn.

Volgens het ministerie van Wetenschap, ICT en Toekomstplanning bezit ruim 67% van de Zuid Koreanen een smartphone, het hoogste percentage ter wereld. Onder tieners is dit 64%, een gigantische groei ten opzichte van de 21,4% in 2011. Zuid Korea was het eerste land ter wereld waar ook op de basisscholen massaal papier en schoolbord werden vervangen door computers.

'Schade hersenen onomkeerbaar'

De Duitse neurowetenschapper dr. Manfred Spitzer schreef in 2012 het boek 'Digitale Dementie'. Hierin waarschuwde hij ouders en leraren voor de gevaren als kinderen te veel tijd doorbrengen met hun laptop, smartphone of andere elektronische apparaten. De schade die wordt aangebracht aan de hersenen is volgens Spitzer onomkeerbaar, reden waarom hij opriep tot een verbod op het gebruik van digitale apparaten op Duitse scholen.

'Kinderlijk gedrag' door sociale netwerken

Lady Greenfield, een gezaghebbende professor synaptische farmacologie aan het Lincoln college in Oxford (Engeland), waarschuwde in 2009 in het Britse Hogerhuis (1e Kamer) dat door de ervaringen die kinderen op sociale netwerksites opdoen zij 'verstoken blijven van samenhangende taal en lange-termijn betekenis. Als gevolg zullen de hersenen van de kinderen, als ze straks volwassen zijn, nog steeds op een kinderlijke manier functioneren.'

Volgens haar veroorzaken sociale netwerksites een verkorting van de aandachtsboog van kinderen. 'Als het jonge brein al vroeg wordt blootgesteld aan een wereld van snelle aktie en reactie, van plotseling opflitsende nieuwe beelden en foto's door een simpele druk op een knop, dan raken de hersenen er aan gewend om binnen zulke korte tijdsperiodes te reageren. Maar als er dan in de echte wereld niet onmiddellijk reacties volgen, dan krijgen we afwijkend gedrag en noemen dat vervolgens 'attentention-deficit (hyperactivity) disorder', AD(H)D.'

Erosie van eigen identiteit

Greenfield zei dat meer computeren en minder lezen van boeken leidt tot het verlies van empathie, van inlevingsvermogen. De professor vindt het vreemd dat de maatschappij de erosie van onze identiteit als gevolg van sociale netwerksites 'enthousiast omarmt'. Volgens haar leiden sites als Facebook en Hyves ertoe dat mensen het onderscheid tussen hun online identiteit en de 'echte wereld' beginnen te verliezen. Greenfield stelt dat de volwassenen van de volgende generatie daarom hun identiteit zullen ontlenen aan de reacties van anderen op henzelf.

Sociale netwerksites kunnen een 'constante herbevestiging geven dat er naar je geluisterd wordt, je (h)erkend wordt, belangrijk bent,' vervolgde Greenfield. 'Dit is echter gelijktijdig gekoppeld aan een vervreemding van de druk van een écht face-to-face gesprek, een echte real-life conversatie, die veel 'gevaarlijker' is, omdat je geen gelegenheid hebt om een tijdje over een slim of gevat antwoord na te denken.' (5)

Narcistisch gedrag, gebrek aan empathie

Dr. Ablow, Amerikaanse psychiater en New York Times auteur van diverse bestsellers, schreef in 2010 dat veelvuldig chatten ertoe leidt dat mensen op den duur steeds slechter in staat zijn om diepgaande 'real life' relaties aan te gaan, omdat men gewend is internetcontacten die 'moeilijk' doen simpel weg te klikken.

Ook hij schreef de explosie van AD(H)D onder jongeren mede toe aan de verschuiving onder jongeren naar digitale contacten. 'Veel moderne jongeren vertonen narcistisch gedrag en denken dat zij de sterren van hun eigen digitale levens'soap' zijn... De veel grotere slachting zal bestaan uit de stille vernietiging van de waardevolle interpersoonlijke alchemie die we 'menselijke relaties' noemen. Die zijn gebaseerd op empathie en het besef dat je altijd te maken hebt met iemand die een gevoel heeft en daarom met respect behandeld moet worden,' aldus Ablow.

Mensen online als wegwerpartikelen behandeld

'Nu dreigen we echter een belangrijke grens over te gaan door buitengewoon 'giftige' boodschappen tot ons te nemen die het tegenovergestelde zeggen, namelijk dat mensen wegwerpartikelen zijn, wier enige waarde is dat ze misschien maar enkele minuten onze aandacht kunnen vasthouden.' Naast dr. Ablow waarschuwen psychiaters over de hele wereld dat met name jongeren steeds minder in staat lijken om complexe, duurzame relaties aan te gaan, omdat het hen aan voldoende empathie (inlevingsvermogen) ontbreekt. (2)

Ook de snelle verruwing op blogs en forums in de afgelopen jaren, waaronder helaas ook deze site, is een duidelijk bewijs van deze digitale afstomping en ontaarding. Steeds meer mensen hebben er moeite mee om op normale, beschaafde en respectvolle wijze op artikelen of andere bezoekers waar zij het niet mee eens zijn te reageren. Velen zijn niet (meer) in staat met inhoudelijke en onderbouwde argumenten te reageren en grijpen daarom terug op ordinaire verwensingen en grove scheldpartijen.

Hartaandoening, Alzheimer, MS, Parkinson, hersentumor

Na Japanse, Australische, Finse, Zweedse en Zwitserse wetenschappers concludeerde in 2009 ook het European Research Institute for Electronic Components in Boekarest dat de straling die door mobieltjes wordt afgegeven onder andere kan leiden tot hartaandoeningen en nierstenen. Onderzoekers van de universiteit in het Zweedse Lund ontdekten dat ook de hersenen kunnen worden aangetast, waardoor mensen sneller Alzheimer, Multiple Sclerosis en Parkinson kunnen krijgen. Australische wetenschappers waarschuwden dat in het jaar 2020 zo'n 2 miljard (!) mensen een hersentumor kunnen ontwikkelen door het veelvuldig bellen met mobieltjes.  (4)

Inmiddels is er ook bewijs geleverd dat de sterke groei van autisme mede wordt veroorzaakt door de forse toename van RF (Radio Frequentie) straling in de atmosfeer, die schade aanricht aan de hersenen van ongeboren en jonge kinderen. Het aantal baby's met autisme groeide van 1 op de 150 in 2002 naar ongeveer 1 op de 50 tien jaar later.

In juni 2011 classificeerde de Wereld Gezondheid Organisatie (WHO) de straling die door de inmiddels bijna 7 miljard mobieltjes (2011: 4,6 miljard) op de wereld wordt geproduceerd dan ook als 'mogelijk kankerverwekkend'. Hiermee werden mobieltjes in dezelfde categorie geplaatst als lood en chloroform. De WHO concludeerde dat frequente blootstelling aan straling van mobieltjes gelinkt kan worden aan kwaadaardige hersentumoren.

Straling verstoort DNA reparatie

In een recente presentatie toonde ook Devra Lee Davis, voormalig wetenschapper aan de National Academy of Sciences, de gevaren van mobieltjes aan. Davis dacht aanvankelijk dat de straling geen kwaad kon, totdat ze na uitvoerig onderzoek tot geheel andere conclusies kwam. De impact op het lichaam wordt niet veroorzaakt door het lage energieverbruik van mobieltjes, maar door de pulserende straling die ze uitzenden en die de reparatie van beschadigd DNA in het lichaam kan verstoren.

Davis zei ook dat mobieltjes de oorzaak zijn van kankertumoren die ontstaan op plaatsen die veel bloot staan aan direct contact (ook met kleding ertussen) met het apparaat. Epidemioloog en gezondheidswetenschapper George Carlo, oprichter van het Science and Public Policy Institute, stelde al jaren geleden dat de industrie nooit serieus onderzoek heeft verricht naar de gevolgen van mobiele straling. Na een 6 jaar durend onderzoek dat $ 28 miljoen kostte concludeerde Carlo in 1999 dat de straling dermate ernstig is, dat in 2010 jaarlijks zo'n 500.000 Amerikanen kanker zouden krijgen als direct gevolg van het gebruik van mobiele telefoons.

'Nieuwe generatie smartphonechips zeer schadelijk'

Vorig jaar sloegen Amerikaanse wetenschappers alarm over de nieuwe generatie microchips die voor smartphones wordt ontwikkeld. Volgens dr. Boian Alexandrov van het Center for Nonlinear Studies van het Alamos National Laboratory in New Mexico kunnen de terahertz (Thz) golven die deze chips uitzenden het menselijke DNA beschadigen en zelfs vernietigen. Deze technologie wordt nu al dagelijks toegepast bij het scannen van passagiers op luchthavens. Dr. Alexandrov vreest dat als deze chips in smartphones worden toegepast, er in de toekomst miljoenen mensen ernstig ziek zullen worden of zelfs zullen sterven. (3)


(1) The Telegraph
(2) Xandernieuws 05-03-2010
(3) Xandernieuws 11-05-2012
(4) 02-01-09: Opnieuw bewijs dat mobieltjes schadelijk zijn voor gezondheid
(5) 27-02-09: Hersenexpert: Sociale netwerksites leiden tot 'kinderlijk gedrag'

Zie ook o.a.:

01-01-13: Nomofobie -angst dat je mobieltje het niet doet- in opmars
08-04-09: Duitse wetenschappers waarschuwen tegen schadelijke effecten zendstations digitale TV

jeudi, 16 mai 2013

Savants nazis : les Français et les Anglais se sont servis aussi

Savants nazis : les Français et les Anglais se sont servis aussi

« Les quelques privilégiés qui connaissaient l’existence
du Bureau des Projets Spéciaux du général SS Kammler,
admettaient qu’il constituait l’instrument
d’étude et de mise au point le plus avancé du IIIe Reich »


Entretien avec Louis-Christian Gautier, auteur de Le secret de l’anti-gravité. À l’ombre du IIIe Reich et de la Nasa (éditions Dualpha)

propos recueillis par Fabrice Dutilleul


Vous abordez un sujet délicat : l’appropriation par les Américains et les Soviétiques des savants du IIIe Reich à la fin de la IIe Guerre mondiale…


Il n’y a pas qu’eux : Britanniques et Français se sont aussi « servis ». Tous les Alliés s’emparèrent des savants du IIIe Reich et s’approprièrent ainsi tous leurs travaux, recherches… et découvertes ! Parmi ces prises de guerre figuraient les recherches sur la gravité, effectuées par le général SS Hans Kammler qui rendait compte directement et uniquement au Reichführer de l’Ordre noir Heinrich Himmler.



Comment avez-vous été amené à écrire ce livre ?


À la demande du rédacteur en chef de la défunte revue Aventures de l’Histoire. C’est un fouineur qui m’a adressé un ouvrage qu’il s’était procuré je ne sais comment, dont le titre pourrait approximativement se traduire par : « À la recherche du point zéro, le périple d’un homme pour découvrir le plus grand des secrets depuis l’invention de la bombe atomique. » Si, dans mon adolescence, je prenais un certain plaisir à la lecture des romans de science-fiction – en particulier ceux de Peter Randa, père de mon éditeur auquel j’en profite pour rentre hommage – je suis devenu depuis un historien « pur et dur », et c’est d’abord en rechignant que j’ai entrepris de traduire le document de référence, mais je ne prends pas parti au sujet des théories exposées.



Les chercheurs américains refusaient de reconnaître cette science révolutionnaire…


En effet, les Nationaux-socialistes eurent une approche de la science et de l’ingénierie totalement différente de celle des autres, car leur idéologie était également basée sur une vision du monde différente.
La gravité constitue la plus importante source d’énergie potentielle. Un engin qui l’utiliserait pourrait atteindre la vitesse de la lumière. Les Américains ont-ils maîtrisé toutes les technologies tombées entre leurs mains ? C’est ce que chercha à savoir le Britannique Nick Cook, journaliste aéronautique réputé. Son enquête le mena ainsi jusqu’aux terribles camps de concentration qui furent en quelque sorte le « moteur » de la production de cet « État dans l’État », comme Speer avait qualifié la SS. C’est en leur sein que travailla le Bureau des Projets Spéciaux du général Kammler. Les quelques privilégiés qui en connaissaient l’existence admettaient qu’il constituait l’instrument d’étude et de mise au point le plus avancé du IIIe Reich. Pour le constituer, on avait écrémé tout ce que le pays possédait comme chercheurs de haut niveau, sans se préoccuper s’ils avaient ou non des liens avec le Parti. Une fois recrutés, ceux-ci étaient soumis à un secret rigoureux et leurs activités protégées par des spécialistes du contre-espionnage appartenant à la SS.



Au fil de la lecture, on se passionne pour cette véritable enquête policière…


Il faut suivre l’auteur britannique dans l’espace et dans le temps. C’est aussi la personnalité de celui-ci qui, dans le cadre de la « critique externe » du document, a suscité mon intérêt : Nick Cook était consultant aérospatial à la revue Jane’s Defense Weekly. Or, le Jane’s est une référence internationale en matière de défense et d’armement. Un de ses collaborateurs ne pouvait être un fumiste intégral. Mais je dis et répète que je me refuse à prendre parti : j’ai abordé le sujet d’un point de vue strictement historique.



Vous ne prétendez donc pas révéler le secret de l’anti-gravité ?


Pas plus que celui des Templiers, ni l’emplacement de leur trésor, sujets sur lequel j’avais jusqu’alors le plus publié.



Le secret de l’anti-gravité. À l’ombre du IIIe Reich et de la Nasa de Louis-Christian Gautier, 216 pages, 23 euros, éditions Dualpha, collection « Vérités pour l’Histoire », dirigée par Philippe Randa.




Je souhaite commander :


… ex de Le secret de l’anti-gravité. À l’ombre du IIIe Reich et de la Nasa (23 euros)



Frais postaux France et Union européenne : 5 euros (1 livre)/6 euros (2 livres)/7 euros (3 livres ou plus)


Autres destinations : 10 euros (1 livre)/15 euros (2 livres)/20 euros (3 livres ou plus)


Règlement à l’ordre de Francephi par chèque, carte bancaire, virement bancaire ou par paypal.


Nom : ..............………................


Prénom : ..............…................


Adresse : ..............….....................................








Code Postal : .............………........


Ville : .............………........


Téléphone : .............….…………….………........……


Adresse internet : .............………...............……



Règlement par carte bancaire


téléphone (obligatoire pour règlement par carte bancaire) : ……


CB… Visa… MasterCard… (autres)… : ......................


numéro /__/__/__/__/ /__/__/__/__/ /__/__/__/__/ /__/__/__/__/


Expire le : /__/__/__/__/ 3 Nos code sécurité : /__/__/__/



à renvoyer à : Francephi diffusion - Boite 37 - 16 bis rue d’Odessa - 75014 Paris - Tél. 09 52 95 13 34 - Fax. 09 57 95 13 34 – Mél. diffusion@francephi.com


Commande par internet (paiement 100 % sécurisé par paypal ou carte bancaire) sur notre site www.francephi.com

dimanche, 07 avril 2013

Scientific American über die Realität von Rassen

Scientific American über die Realität von Rassen

By Michael Polignano

Ex: http://www.counter-currents.com/

 Übersetzt von Deep Roots

English original here

[Scientific American, dessen Titelseite oben zu sehen ist, ist übrigens das amerikanische Mutterschiff der deutschen Ausgabe „Spektrum der Wissenschaft“, in der neben deutschen Beiträgen auch Übersetzungen aus Scientific American mit ein bis zwei Monaten Verzögerung erscheinen.]

Anmerkung des Herausgebers [Greg Johnson]:

Dieser Essay stammt aus Michael Polignanos Buch „Taking Our Own Side“, das hier [3] als Hardcover, Paperback und PDF erhältlich ist. [Anm. d. Ü.: Dieses Buch kann ich sehr empfehlen – ich habe es auch.]

Finnische Übersetzung hier [4].

16. Dezember 2003

Das wissenschaftliche Studium der Rassen befindet sich an einem Scheideweg. Durch die Kartierung des menschlichen Genoms wissen die Wissenschaftler mehr über Rasse und Rassenunterschiede als je zuvor. Aber da die Gesellschaft immer mehr in die Lüge von der Rassengleichheit investiert, wird es für Wissenschaftler immer schwerer, diese Wahrheiten auszusprechen. Außerdem haben egalitäre Spin-Doctors in einem verzweifelten Versuch, die schlimmen politischen Konsequenzen der rassischen Wahrheit abzuwenden, eine große Menge Desinformation über die kürzlichen genetischen Entdeckungen verbreitet.

Man sagt uns zum Beispiel, daß die Unterschiede zwischen den Rassen vom genetischen Standpunkt aus vernachlässigbar sind, eine Sache von bloß ein paar Genen. Daher sollen wir schlußfolgern, daß Rassenunterschiede vernachlässigbar sind, Punkt. Rassenunterschiede, sagt man uns, sollten überhaupt keine praktischen Implikationen haben.

Aber das ist genauso absurd, wie wenn man argumentieren würde, daß es – nachdem feste Objekte aus dem Blickwinkel der subatomaren Physik großteils leerer Raum sind – bloß reines Vorurteil ist, daß wir lieber auf einer Straße fahren statt über eine Klippe.

Die Wahrheit ist: aus kleinen genetischen Unterschieden erwachsen große physische, spirituelle, kulturelle und politische Unterschiede. Falls die Genetiker diese Unterschiede nicht sehen können, dann suchen sie vielleicht an der falschen Stelle.

Man sagt uns auch routinemäßig, daß es eine größere genetische Variationsbreite innerhalb der Rassen gibt als zwischen ihnen. Es kann einen Unterschied von 100 IQ-Punkten geben zwischen einer extrem klugen und einer extrem dummen weißen Person. Aber es gibt nur 30 Punkte Unterschied zwischen dem Durchschnitt der Weißen und dem der Schwarzen. Daher, sollen wir schlußfolgern, sollten wir uns nur mit Individuen befassen und die Gruppendurchschnitte ignorieren.

Das Problem bei diesem Argument ist, daß Gesellschaften nicht aus isolierten Individuen bestehen, denn Individuen sind Bestandteile und Produkte von Fortpflanzungspopulationen. Fortpflanzungspopulationen, die über einen langen Zeitraum isoliert und unterschiedlichen Umweltbedingungen ausgesetzt waren, werden zu verschiedenen Rassen.

Und wenn die durchschnittliche Intelligenz – oder irgendeine andere wichtige Eigenschaft – zweier Fortpflanzungspopulationen, die dasselbe geographische Gebiet teilen, sich dramatisch unterscheidet, dann muß es zu Konflikten kommen. Die überlegene Gruppe wird sich unvermeidlicherweise über den hemmenden Effekt der unterlegenen ärgern, und die unterlegenen Gruppen werden die unmöglichen Standards verübeln, die von der überlegenen aufgezwungen werden.

Aber die praktischen Implikationen der rassischen Wahrheit sind schwer zu leugnen, und die Wahrheit sickert durch, manchmal an unwahrscheinlichen Stellen. Ein Beispielsfall ist der Titelartikel der Ausgabe Dezember 2003 von Scientific American, das trotz seines Titels üblicherweise so politkorrekt ist wie jedes Nachrichten- oder Unterhaltungsmagazin. Die Titelseite zeigt sechs weibliche Gesichter, die verschiedenen Rassen anzugehören scheinen, zusammen mit dem Bildtext: „Does Race Exist? Science Has the Answer: Genetic Results May Surprise You.“ [„Gibt es Rassen? Die Wissenschaft hat die Antwort: Genetische Resultate könnten Sie überraschen.“] Im Inhaltsverzeichnis lesen wir: „Gibt es Rassen? Vom rein genetischen Standpunkt, nein. Trotzdem können genetische Informationen über die Abstammung von Individuen manchmal medizinisch relevant sein.“

Das hat meine Aufmerksamkeit geweckt. Wenn Rasse medizinisch relevant ist, warum ist sie dann nicht genauso auch psychologisch relevant, kulturell relevant, moralisch relevant und politisch relevant? Und wenn die Wissenschaft von der Genetik solche drängend relevanten Unterscheidungen als unreal oder winzig betrachtet, ist dann nicht etwas faul an der genetischen Wissenschaft oder an unserer Interpretation und Anwendung ihrer Befunde?

Die Autoren des Artikels, Michael Bamshad und Steve Olson, argumentieren, daß „Menschen unter Verwendung genetischer Daten grob in Gruppen sortiert werden können.“ Diese Gruppen scheinen weiters geographisch getrennt zu sein – zumindest vor den massiven Bevölkerungsverschiebungen der Moderne. Nun ist dies ein riesiges Eingeständnis, denn die Existenz genetisch verschiedener Menschengruppen ist gewiß ein Teil dessen, was mit „Rasse“ gemeint ist, und genau das, was von jenen verleugnet wird, die behaupten, daß Rasse bloß ein „Sozialkonstrukt“ ist.

Die Basis für die Behauptung, daß Rassen „vom rein genetischen Standpunkt aus“ nicht existieren, ist der Konflikt zwischen genetischen Klassifizierungen und traditionellen rassischen Kategorien. Solche Kategorien beruhen nicht auf einer Analyse der Gene (Genotyp), sondern auf dem sichtbaren Ausdruck dieser Gene (Phänotyp). Dies mag stimmen, aber es beweist nicht, daß „Rasse nicht existiert“. Es beweist nur, daß es einen Konflikt zwischen genotypischen und phänotypischen Rassedefinitionen gibt.

Zum Beispiel merken die Autoren an, daß sub-saharische Afrikaner und australische Aborigines ähnlich aussehen und sich ähnlich verhalten, daß aber genetische Marker anzeigen, daß sich ihre Vorfahren vor langer Zeit getrennt haben. Aber der Konflikt zwischen den Klassifikationsschemen ist eher real als scheinbar, denn Australoide und Negroide sehen sich nur für das ungeschulte Auge ähnlich. Jeder, der Mitglieder der beiden Gruppen miteinander vergleicht, wird leicht die Unterschiede sehen, und mit ausreichend Erfahrung ist es buchstäblich unmöglich, sie miteinander zu verwechseln.

Die Autoren merken auch an, daß die sozialen Rassedefinitionen von Region zu Region variieren: „jemand, der in den Vereinigten Staaten als ‚schwarz’ klassifiziert wird… könnte in Brasilien als ‚weiß’ betrachtet werden und als ‚farbig’… in Südafrika.“ Aber dies ist ebenfalls ein Versuch, die Unterscheidung nach Phänotyp zu diskreditieren, indem man nur auf ihre gröbsten Formen verweist. Jedoch können phänotypische Klassifizierungsschemen in Gesellschaften mit einem großen Maß an Rassenvermischung recht komplex sein, um die Komplexitäten der zugrundeliegenden Genotypen wiederzugeben:

Die frühen französischen Kolonisten in Saint-Domingue [heute: Haiti] identifizierten 128 unterschiedliche Rassentypen, die recht präzise nach einer mathematischen Skala definiert wurden, welche durch einfache Berechnungen der Abstammungsanteile bestimmt wurde. Sie reichten vom „wahren“ Mulatten (halb weiß, halb schwarz) durch das Spektrum von marabou, sacatra, quarterón bis hin zum sang-mêlé (Mischblut: 127 Teile weiß und ein Teil schwarz)… Die Soziologin Micheline Labelle hat 22 rassische Hauptkategorien und 98 Unterkategorien gezählt (für variierende Haartypen, Gesichtsstrukturen, Farbe und andere Unterscheidungsfaktoren), die in den 1970ern unter Haitis Mittelklasse in Port-au-Prince verwendet wurden. Innerhalb jeder Kategorie waren die Worte oft genauso einfallsreich, wie sie beschreibend waren: café au lait („Milchkaffe“), bonbon siro („Zuckersirup“), ti canel („ein wenig Zimt“), ravet blanch („weißer Kakerlak“), soley levan („aufgehende Sonne“), banane mûre („reife Banane“), brun pistache („erdnußbraun“), mulâtre dix-huit carats („18karätiger Mulatte“)… [1]

Ein tieferes Problem mit der Betonung des Genotyps durch die Autoren ist, daß, auch wenn unterschiedliche Genotypen zu ähnlichen Phänotypen führen können – die Natur kann verschiedene Mittel einsetzen, um dasselbe Ziel zu erreichen – die Kräfte der Evolution sich keinen Deut um spezifische Genotypen scherten, sie „scherten“ sich nur darum, wie sich jene Genotypen in einem Individuum ausdrückten. Daher ist der Phänotyp vom praktischen Gesichtspunkt aus wichtiger als der Genotyp.

Die Autoren geben jedoch zu, daß phänotypische Rassenkategorien gut funktionieren, um Gruppen nach ihrer Neigung zu gewissen Krankheiten zu unterteilen, wie Sichelzellenanämie (am häufigsten unter Afrikanern) und zystische Fibrose (am häufigsten unter Europäern). Die Allele für Sichelzellenanämie und zystische Fibrose nahmen an Häufigkeit zu, weil ihre Träger (d. h. jene mit einer Kopie vom Vater oder der Mutter; zwei Kopien sind für die Krankheit nötig) gegenüber parasitischen Mikroorganismen resistent waren, die jeweils in Afrika und Europa vorkommen. Ein weiteres Beispiel ist, daß bewiesen wurde, daß derselbe Polymorphismus im CCR5-Gen den Krankheitsverlauf von AIDS bei Weißen bremst, aber bei Schwarzen beschleunigt.

Wegen der zunehmenden genetischen Beweise für die medizinische Relevanz von Rasse hat die US Food and Drug Administration der unvermeidlichen Kontroverse getrotzt und im Januar 2003 empfohlen, daß Forscher bei klinischen Versuchen Rassedaten sammeln.

Daher die extrem vorsichtige Schlußfolgerung der Autoren: „In Fällen, wo die Zugehörigkeit zu einer geographisch oder kulturell definierten Gruppe mit gesundheitsbezogenen genetischen Merkmalen korreliert worden ist, könnte es wichtig sein, etwas über die Gruppenzugehörigkeit eines Individuums zu wissen.“

Dies ist ein weiteres riesiges Eingeständnis. Denn wenn rassische Unterschiede medizinisch relevant sind, warum sind sie dann nicht genauso auch kulturell, sozial und politisch relevant? Zum Beispiel bedeutet die Tatsache, daß Neger im Durchschnitt mehr Testosteron produzieren als andere Rassen, daß schwarze Männer ein höheres Risiko für Prostatakrebs haben. Aber höhere Testosteronproduktion bedeutet auch, daß schwarze Männer mehr zu aggressivem Verhalten neigen. Wenn also Ärzte schwarze Männer rassisch profilieren sollten, warum sollten das dann nicht auch Polizisten tun?

Verglichen mit Weißen, haben Schwarze auch einen niedrigeren IQ und ein niedrigeres Empathieniveau, ein schwächeres Gefühl für persönliche Leistungsfähigkeit und Verantwortung, eine größere Neigung zu Soziopathie und Psychosen, weniger Verhaltenshemmungen, größere Impulsivität, höhere sexuelle Aktivität und geringere elterliche Investition etc. Sicherlich haben diese rassischen Unterschiede ebenfalls wichtige praktische Implikationen.

Wenn man die nervösen Einschränkungen und vorsichtigen Wortklaubereien der Autoren wegschnippelt, dann gibt „Does Race Exist?“ zu, daß es eine genetische Basis für Rassenunterschiede gibt und daß diese Unterschiede praktische Bedeutung haben. Dies ist ein ermutigendes Zeichen im heutigen Klima der ideologischen Rassenverleugnung™. Offen gesagt ist es bemerkenswert, daß es überhaupt in Scientific American veröffentlicht wurde.

Eine Erklärung dafür, daß es veröffentlicht wurde, könnte man im Leitartikel „Racing to Conclusions“ von John Rennie und Ricki Rusting finden. Sie beginnen damit, daß sie das Scheitern von Proposition 54 in Erinnerung rufen, der kürzlichen kalifornischen Wählerinitiative, die der Regierung auf vielen Gebieten verboten hätte, rassische Daten zu sammeln. Obwohl Proposition 54 die Sammlung rassischer Daten für Gesundheitszwecke ausdrücklich erlaubte, behaupteten viele Ärzte und medizinische Gruppen, daß die Maßnahme Bemühungen behindern würde, Krankheiten nachzuverfolgen und zu behandeln, die sich auf verschiedene Rassen unterschiedlich auswirken. Die Redakteure stellen diese düsteren Prophezeiungen in Frage, nicht weil Proposition 54 ihre Besorgnisse zerstreut hätte, sondern weil sie den Artikel von Bamshad/Olson mißverstanden und fälschlicherweise behaupten, daß seine Autoren fest gegen die Verwendung rassischer Klassifizierung in der Medizin seien. Man fragt sich, ob der Artikel in Druck gegangen wäre, wenn die Redakteure ihn verstanden hätten!

Die Redakteure zitieren die Schwierigkeiten rassischer Klassifizierung, besonders der Klassifizierung gemischtrassiger Individuen. Dann beklagen sie, daß „Rasse in der Forschung als Surrogat für genetische Unterschiede“ benutzt wird, als ob die Korrelation zwischen den beiden bedeutungslos wäre. Sie verweisen auf die Empfehlung der FDA und zitieren J. Craig Venters Bemerkung: „Die selbstzugeschriebene Rasse als Surrogat dafür zu verwenden, eine Person direkt auf ein relevantes Merkmal zu testen, ist ähnlich, als würde man das Durchschnittsgewicht einer Gruppe aufzeichnen, statt jedes Individuum zu wiegen.“

Natürlich kann man von Venter erwarten, daß er gegen rassische Klassifizierungen in der Medizin ist. Damit ist er nicht nur politisch korrekt, sondern nimmt auch eine Position ein, von der er beträchtlich profitieren könnte, nachdem seine Firma Celera die erste war, die das menschliche Genom sequenziert hat und wahrscheinlich die erste wäre, die das individuelle Gensquenzieren massenmarktfähig machen würde.

Die Redakteure lassen jede Erwähnung der Vorteile rassischer Klassifizierung in der Medizin weg. Wer den Hauptartikel nicht liest, würde unrichtigerweise schlußfolgern, daß Rasse in der Medizin keine Verwendung hat. Noch ein Beispiel dafür wie die Medien die Wahrheit verdrehen und verzerren. Zum Glück kann jeder, der den Artikel liest, die Verdrehung durchschauen. Wenn solch eine Geschichte jedoch von den Breitenmedien gebracht würde, dann könnten Sie sicher sein, daß die Verdrehung alles ist, was das Publikum bekommen würde.

Das Titelbild riecht ebenfalls nach politisch korrekter Rassenverleugnung™. Die Bilder von sechs attraktiven Frauengesichtern aus scheinbar verschiedenen Rassen wurden von Nancy Burson unter Verwendung eines Morphing-Programms geschaffen, das dazu bestimmt ist, verschiedene Rassenmerkmale zu simulieren. Nur die blonde, blauäugige Frau ist echt. Die anderen Bilder wurden durch Abänderung ihres Bildes geschaffen. Aber man kann sehen, daß die darunterliegende Knochenstruktur, Lippen und Nase der Frau unverändert bleiben, obwohl diese zwischen den Rassen beträchtlich variieren. Nur Hautfarbe, Augenfarbe und Haarfarbe scheinen zu variieren. Die offensichtliche Botschaft des Fotos ist, daß Rasse nur eben bis unter die Haut geht. Die Welt besteht bloß aus Weißen mit unterschiedlichen Farbschattierungen. Was kann das schon schaden?




Das erinnert mich an ein Bild in einem Bilderbuch, das ich als Kind gesehen habe, wo Löwen sich an Lämmer kuscheln und Wölfe mit Schafen tanzen, wo allein die äußerliche Erscheinung Tiere unterscheidet, die ansonsten tief drinnen alle gleich sind und daher in der Lage, in Glück und Harmonie zu leben.

Anscheinend hängen manche Erwachsene immer noch solchem Wunschdenken an.

Source: http://fjordman.wordpress.com/2011/06/06/scientific-american-uber-die-realitat-von-rassen/ [6]

Article printed from Counter-Currents Publishing: http://www.counter-currents.com

URL to article: http://www.counter-currents.com/2011/06/scientific-american-uber-die-realitat-von-rassen/

URLs in this post:

[1] Image: http://www.counter-currents.com/wp-content/uploads/2011/06/ScientificAmericanRace.jpg

[2] here: http://www.counter-currents.com/2011/05/scientific-american-on-the-reality-of-race/

[3] hier: http://www.counter-currents.com../2010/12/taking-our-own-side-paperback/

[4] hier: http://www.counter-currents.com../2011/05/scientific-american-rodun-todellisuudesta/

[5] Image: http://www.counter-currents.com/wp-content/uploads/2011/06/LionAndLamb.png

[6] http://fjordman.wordpress.com/2011/06/06/scientific-american-uber-die-realitat-von-rassen/: http://fjordman.wordpress.com/2011/06/06/scientific-american-uber-die-realitat-von-rassen/

dimanche, 21 août 2011

Out of Africa? Races are more different than previously thought

Out of Africa?

Races are more different than previously thought.

Researchers led by Prof. Svante Pääbo at the Max Planck Institute for Evolutionary Anthropology in Leipzig have placed a very large question mark over the currently fashionable “out-of-Africa” theory of the origins of modern man. They have done this by producing a partial genome from three fossil bones belonging to female Neanderthals from Vindija Cave in Croatia, and comparing it with the genomes of modern humans.

Neanderthal skull
Neanderthal Man: Our ancestor after all.

Their initial results show that Neanderthals interbred with anatomically modern humans, mainly with the ancestors of peoples now found in Europe and Asia. This discovery both underlines the genetic differences between African and non-African populations and contradicts the pure, “out-of-Africa” version of human evolution, according to which all non-Africans living today are descended exclusively from migrants that left Africa less than 100,000 years ago. These migrants are said to have out-competed and eventually driven to extinction all other forms of homo and to have done so without interbreeding.

The authors of the Max Planck study note that Neanderthals, who lived in Europe and western Asia, were the closest evolutionary relatives of current humans, but went extinct about 30,000 years ago. They go on to note:

“Comparisons of the Neanderthal genome to the genomes of five present-day humans from different parts of the world identify a number of genomic regions that may have been affected by positive selection in ancestral modern humans, including genes involved in metabolism and in cognitive and skeletal development. We show that Neanderthals shared more genetic variants with present-day humans in Eurasia than with present-day humans in sub-Saharan Africa, suggesting that gene flow from Neanderthals into the ancestors of non-Africans occurred before the divergence of Eurasian groups from each other.” (Richard E. Green, Johannes Krause, et. al., A Draft Sequence of the Neanderthal Genome, Science, May 7, 2010).

In other words, Neanderthal genes remained in the human genome because they were beneficial, and are mainly found in non-African groups.

The traditional alternative to the “out-of-Africa” theory has been that different races evolved from earlier forms of homo in different parts of the world. That theory allows for a far longer period for the evolution of races. The great obstacle to this multi-regional theory has been genetic evidence taken from modern humans that points to a common ancestor who left Africa about 100,000 years ago. However, this judgment is based on mitochondrial DNA (mtDNA) — the DNA outside the nucleus — which shows no evidence of interbreeding. The Max Planck team, however, was the first to do a large-scale comparative study of nuclear DNA which, as they point out, “is composed of tens of thousands of recombining, and hence independently evolving, DNA segments that provide an opportunity to obtain a clearer picture of the relationship between Neanderthals and present-day humans.”

champanzee skull
Chimpanzee: Our closest living relative.

The researchers note that their conclusions are tentative because they were able to reconstruct only about 60 percent of the Neanderthal genome. Much of this had to be carefully sifted because of contamination, especially by bacterial DNA. Nonetheless, where the Neanderthal genome could be compared to that of modern humans, the researchers found an estimated 99.7 percent match. They also found that the Neanderthal and modern genomes shared exactly the same degree of genetic similarity — 98.8 percent — with chimpanzees.

Of particular significance, however, is the result of comparing the Neanderthal genome with representatives of different modern races: “one San from Southern Africa, one Yoruba from West Africa, one Papua New Guinean, one Han Chinese, and one French from Western Europe.”

Non-Africans got a far larger genetic contribution from Neanderthals than Africans did:

“[I]ndividuals in Eurasia today carry regions in their genome that are closely related to those in Neanderthals and distant from other present-day humans. The data suggest that between 1 and 4 percent of the genomes of people in Eurasia are derived from Neanderthals. Thus, while the Neanderthal genome presents a challenge to the simplest version of an ‘out-of-Africa’ model for modern human origins, it continues to support the view that the vast majority of genetic variants that exist at appreciable frequencies outside Africa came from Africa with the spread of anatomically modern humans.”

Although the Neanderthal contribution is small, the fact that it survived at all suggests that it conferred an evolutionary advantage. The Max Planck team notes that those contributions were “involved in cognitive abilities and cranial morphology.” Neanderthals passed on to non-Africans whatever genetic advantages they had in these important areas.

It is possible that Neanderthals contributed more than the 1 to 4 percent calculated by the Max Planck researchers. Their Neanderthal genome was incomplete and the missing 40 percent may contain more genes present in modern humans. Even if Neanderthal genes form only a very small part of the modern non-African genome, small genetic differences can have important consequences. We share almost all of our DNA with chimps, yet are very different from them. It has become clear since the mapping of the human genome that the central importance of genes lies not in their quantity but in the way they interact. Many scientists expected that sequencing or decoding the human genome would lead to an understanding of how it works, but that has not been the case. Many mysteries remain, but it is clear that small differences can have profound effects.

Homo erectus
Homo erectus: bred with modern humans?

If modern humans bred with Neanderthals could there have been other mixtures of the varieties of homo throughout evolution? There was ample opportunity. Homo habilis is estimated to have existed from 2.3 to 1.4 million years ago, homo erectus to have lived between 1.9 million and 300,000 years ago (and possibly much later in isolated areas), Neanderthals from 400,000 years until 30,000 years ago, and homo sapiens from 250,000-150,000 years ago to the present. One promising candidate for interbreeding with modern humans is homo erectus. As the online encyclopedia science.jrank.org explains:

“Fossils of the species have been collected from South Africa, Tanzania, Kenya, Ethiopia, Algeria, Morocco, Italy, Germany, Georgia, India, China, and Indonesia. The oldest specimens come from Africa, the Caucasus, and Java and are dated at about 1.8 million years. These very early dates outside of Africa indicate that H. erectus dispersed across the Old World almost instantaneously, as soon as the species arose in Africa ... Homo erectus persisted very late in the Pleistocene epoch in Indonesia to possibly as late as 30,000 years ago, which suggests that the species survived in isolation while modern humans spread everywhere in the Old World.”

Neanderthal woman
National Geographic's Neanderthal woman.

Just as this article was going to press, there were reports on the analysis of 30,000-year-old bones found by the Russians in a cave in Denisova in Siberia in 2008. The DNA, whose state of preservation has been called “miraculous,” proved to be distinct from both Neanderthals and modern humans, and researchers called the newly discovered hominids Denisovans. Svante Pääbo of the Max Planck Institute studied this DNA as well, and determined that Denisovans also bred with modern humans — though not with those that remained in Africa.

The Denisovans were related to Neanderthals, and their common ancestors are thought to have left Africa some 400,000 or more years ago. One branch became Neanderthal in Western Eurasia and another became Denisovan in the East. Modern man appears to have encountered and bred with both groups, but only after leaving Africa. Specialists greeted the news about Denisovans with the expectation that yet more missing members of the human family tree could be rediscovered.

Indeed, the complexity and variety of the fossil record hints at what could have been considerable interbreeding. There has been a huge number of discoveries during the last century, but hominid remains are still very scarce and are often only a small fragment of a skeleton. Complete skeletons are like hens’ teeth. Moreover, when new fossils turn up, rather than clarify the record by filling in missing branches on the evolutionary tree, they tend to complicate matters. For example, they may show that a variety of homo was much older than previously thought or appeared in an unexpected place. Variability of fossils can also suggest intermediate forms that had not been anticipated, such as a specimen with traits characteristic of both homo erectus and Neanderthals. The difficulty in classifying human fossils and especially the existence of intermediate forms suggest interbreeding.

We are only now beginning to learn of some variants of homo that could have contributed genes to modern humans. In 2004, fossils of a dwarf species of homo — “Flores man,” who has been nicknamed “hobbit” — were found on the Indonesian island of Flores. Flores man is thought to have gone extinct about 12,000 years ago, so he certainly coexisted with modern humans.

Interbreeding between related varieties of homo would be more likely than that between related animals because even primitive homo had a large brain, which suggests self-consciousness, and, most probably, language. Animals mate in a largely automatic process prompted by various triggers: aural, chemical, condition of feathers and so on. Man, although not entirely without such triggers, adds conscious thought to mate selection. This allows humans to overcome the barriers of behavior and biology, and mate outside their subspecies or even species.

Vindija cave in Croatia
The Vindija cave in Croatia. The bones that
yielded the Max Planck Institute’s first
Neanderthal genome were found here.

Even today, tribal peoples may take women by force from other groups, often by organized raiding. Prehistoric man may have done the same, raising the possibility that interbreeding took place without the willing participation of the females.

At some point, of course, separate evolution would have produced separate species that were not mutually fertile. However, the social nature of homo and his probable ability to speak would tend to counteract the tendency to remain isolated from others for so long that breeding became impossible. It is worth adding that judging from the rapid spread of homo throughout Eurasia, man has been a very mobile animal. Such mobility would also make isolation difficult because even in a very sparsely populated world, the likelihood of encountering other bands of homo would be reasonably high.

How would different varieties of archaic humans have appeared to one another? Probably not so strange. There are certainly combinations of current-day racial types that appear more alien to each other than that would have Neanderthals and modern men.

In 2008, National Geographic released a likeness of a Neanderthal woman based on DNA from 43,000-year-old bones. The findings suggested that at least some Neanderthals had red hair, pale skin, and possibly freckles. These are particularly interesting traits because these were commonly noted by Romans who wrote about the inhabitants of Northern Europe. Today, many scientists would argue that if a Neanderthal were dressed in modern clothes he could walk down a busy street without attracting much attention.

If interbreeding did occur within the homo genus over several million years or even over hundreds of thousands of years, it would help explain the evolution of the group differences that now distinguish the different races. The purest “out-of-Africa” theory has always been implausible to those who think it does not allow enough time for races to emerge. There are differences of opinion among experts about time scales but the consensus is that modern man emerged from Africa at most 200,000 years ago. At 20 years per generation, this allows for only 10,000 generations to produce the enormous human variety that includes everything from Pygmies to Danes. Is that enough? Whites are supposed to have begun evolving independently for only 2,000 generations. Again, is that enough?

Realistic depictions of human beings go back to at least 3000 BC, and mummies, created deliberately or naturally, are often preserved well enough to determine racial type. The oldest North American mummy, for example, is of a 45-year-old male found in Churchill County, Nevada, and estimated to date from 7420 BC. These artifacts show that racial types have been stable for 5,000 to 10,000 years. If they have not changed in this time, it is reasonable to doubt that evolution could have changed migrants from Africa rapidly enough to produce today’s races.


The Max Planck Institute’s findings clearly show that the “out of Africa with no interbreeding” theory is incorrect. However, that does not necessarily mean that the ultimate origins of man do not lie in Africa or that the modern humans whose origins lie outside of Africa do not have a predominantly African heritage. What the Neanderthal and Denisovan genome research does confirm is that the human story is complicated.

The distribution of hominid fossil finds to date, the paleontological evidence, and the growing knowledge acquired through DNA analysis suggest that a plausible scenario for evolution is this: The story probably began in Africa, because this is the continent with the largest number of the most ancient fossils. Africans also show the greatest genetic variety, which suggests human evolution has been taking place there longer than anywhere else. However, early versions of homo moved out of Africa, perhaps as much as several million years ago. Some of these early versions evolved into creatures that approximated modern man, while at the same time evolution among African populations also brought them closer to modern man. At various points, African migrants emerged into Eurasia and interbred with forms of homo already there. There was no equivalent migration of Eurasians into Africa, or at least none that resulted in known interbreeding. The fossil record of mixtures of features from different hominids also suggests interbreeding.

Neanderthal bones
Neanderthal bones.

Why was the rigid “out-of-Africa” theory so widely believed? Probably because it gave rise to the claim that “we are all Africans,” and because it suggested there were few biological differences between races. At the same time, the emphasis until recently on mtDNA rather than nuclear DNA, gave rise to dogmatic statements about distinct lineages and leant scientific backing to the idea.

“Out of Africa” supported the modern liberal view that race is a social construct and that the physical differences between races are trivial. In fact, racial differences are more dramatic than the differences between many closely related species of animals. There are objective racial differences in physiology, such as testosterone level, as well as differences in behavior and in average IQ. When we add to these differences the mix of genetic contributions from extinct or absorbed forms of homo, the liberal argument becomes even weaker. If homo sapiens were viewed as any other organism is viewed, it would no doubt be classified as several species rather than as a single species.

The group at the Max Planck Institute hopes to have decoded the entire Neanderthal and Denisovan genomes soon, and similar work is being done on other forms of ancient homo such as the “hobbits” from Flores. Decoding ancient DNA is difficult, but it is probable that the genomes of other early hominids, particularly that of homo erectus — the longest surviving and most widely dispersed ancient form of homo — will be decoded in the foreseeable future.

If such research shows that interbreeding was present throughout hominid evolution, or at least for substantial periods, then the multiregional theory is true to the extent that different races received genetic contributions from populations that developed outside of Africa for immense periods of time. If the genotypes of such ancient varieties such as homo erectus and homo heidelbergensis are mapped successfully, it may be found that Eurasians have a substantial selection of genes that are distant from those of Africans.

Even if that is not the case, a better understanding of genetics increasingly shows that small genetic differences cause significant physical differences. Whatever the case, the claim that “we are all Africans” has been significantly weakened, and a potent propaganda tool has been taken from the hands of the politically correct. AR