En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

samedi, 20 octobre 2018

Jean Piaget & the Superior Psychogenetic Cognition of Europeans


Jean Piaget & the Superior Psychogenetic Cognition of Europeans

Part I

Everyone has heard about Jean Piaget’s (1896-1980) theory of the cognitive development of children. But no one knows that his theory placed Europeans at the top of the cognitive ladder with most humans stuck at the bottom — unless Europeans taught them how to think.

Piaget is widely recognized as the “greatest child psychologist of the twentieth century.” Unlike many other influential figures, Piaget’s discoveries have withstood the test of time. His argument that human cognition develops stage by stage, from sensorimotor, through preoperational and concrete operations, to formal operations, is generally endorsed in psychology and sociology texts as a “remarkably fruitful” model. This is not to deny that aspects of his theory have been revised and supplemented by new insights. One important criticism is that his fixed sequence of clear-cut stages does not always apprehend the overlapping and uneven process in the development of cognition. But even the strongest critics admit that his observations accurately show that substantial differences do exist between the cognitive processes (linguistic development, mental representations of concrete objects, logical reasoning) of children and adults.

Suppression of Piaget’s Cross Cultural Findings

What the general public does not know, and what the mainstream academic world is suppressing, is that many years of cross-cultural empirical research by Piaget and his followers have demonstrated that the stages of mental development of children and adolescents reflect the stages of cognitive evolution “humankind” has gone through from primitive, ancient, and medieval, to modern societies. The cognitive processes of humanity have not always been the same, but have improved over time. The civilizations of the world can be ranked according to the level of cognitive development of their populations. The peoples of the world differ not only in the content of their values, religious beliefs, and ways of classifying things; they differ in the cognitive processes they employ, their capacity to understand, for example, the relation between objects and concepts, their awareness of objective time, their ability to draw inferences from data, and to project these inferences into the hypothetical realm of the future. Most humans throughout history have been “childlike” in their cognitive capacities; they are not able, for example, to recognize contradictions between belief and experience, or to conceive multiple causes for individual events. Europe began to produce adolescents capable of reaching the stage of formal operational reasoning before any other continent, whereas to this day some nations barely manage to produce adults capable of formal operations.

This aspect of the cross-cultural comparative research conducted by Piaget and his associates has been suppressed. Critics interpreted the lack of formal reasoning among adolescents in many non-Western societies as evidence that his model lacked universal application, rather than as further confirmation that his theory of child development, first developed through extensive research on children in the West, could be applied outside the West. Because many critics erroneously assumed that Piaget’s theory was about how all children naturally maturate into higher levels of cognition, they took this lack of cognitive development in pre-modern cultures as a demonstration that different cultural contexts produce different modes of cognitive development. Piaget’s stages, however, should not be seen as stages that every child goes through as they get older. They are not biologically predetermined maturational stages. While there is a teleological tendency in Piaget’s account of cognitive stages, with each of the four stages in a modern environment unfolding naturally as the child ages, this criticism ignored the implications of his cross-cultural studies, which were carried in his later years, and which made it evident that the ability to reach the stage of formal operations depended on the type of science education children received rather than on a predetermined maturation process.

It can be argued, actually, that Piagetian cross-cultural studies made his theory all the more powerful in offering a precise and orderly account of the cognitive psychological development of humankind in world history from hunting and gathering societies through agrarian societies to modern societies. This was not just a theory about children but a grand theory covering the cognitive experience of all peoples throughout history, from primitive peoples with a preoperational mind, to agrarian peoples with a concrete operational mind, to modern peoples with a formal operational mind. One of the rare followers of this cross-cultural research, the German sociologist Georg W. Oesterdiekhoff, observes that “thousands of empirical studies across all continents and social milieus, from the 1930s to the present” (2015, 85) have been conducted demonstrating that, depending on the level of cultural scientific education, the nations of the world in the course of history can be identified as preoperational (which is the stage of children from their second to their sixth or seventh year of life), concrete operational (which is the stage from ages seventh until twelfth years) and formal operational (which is the stage of cognition from twelve years onward).



Adults living in a scientific culture are more rational (and intelligent) than adults living in pre-modern cultures. For example, according to studies conducted in the 1960s and 1970s, even educated adults living in Papua New Guinea did not reach the formal stage. Australian Aborigines who were still living a traditional lifestyle barely developed beyond a preoperational stage in their adult years. Without a population that has mentally developed to the level of formal operations, which entails a capacity to think about abstract relationships and symbols without concrete forms, a capacity to grasp syllogistic reasoning, comprehend algebra, formulate hypotheses, there can be no modernization

However, despite all the studies confirming Piaget’s powerful theory, from about 1975-1980 a “wave of ideological attacks” was launched across the Western academic world against any notion that the peoples of the Earth could be ranked in terms of their cognitive development. According to Oesterdiekhoff, “nearly all child psychologists of the first two generations of developmental psychology knew about the similarities between children and pre-modern man,” but “due to anti-colonialism, student revolt, and damaged self-esteem of the West in consequence of the World Wars this theory as the mainstream spirit of Western sciences and public opinion declined gradually” (2014a, 281). As another author observed in 1989, “any suggestion that the cognitive processes of the older child might posses any similarities to the cognitive processes of some primitive human cultures is regarded as being beneath contempt” (Dan Le Pan, 1989).

I came across Oesterdiefkhoff’s research after a long search through Piagetian theory. I was wondering what his stage theory might have to say about the cognitive development of peoples in history. But I could find only sources of Piaget as a cognitive psychologist of children as such, not as a grand theorist of the cognitive development of humanity across world history — until I came to Oesterdiefkhoff’s many publications, which draw on pre-1975 Piagetian research and current research. This research, as Oesterdiefkhoff notes, “no longer belong to the center of attention and research interests. Most social scientists have never heard about these researchers and have only a very scanty knowledge of them” (2014a, 280).

Oesterdiefkhoff is very blunt and ambitious in his arguments. It is about why Piagetian theory is “capable of explaining, better than previous approaches, the history of humankind from prehistory through ancient to modern societies, the history of economy, society, culture, religion, philosophy, sciences, morals, and everyday life” (2014a). He believes that the rise of formal operational thinking among Europeans was the decisive factor in the rise of modern science, enlightenment, industrialism, democracy, and humanism in the West. The reason why India, China, Japan, and the Middle East did not start the Industrial Revolution “lies in their inability to evolve the stage of formal operations” (2014a).

Primitive and pre-modern peoples cannot be described as having a similar rational disposition as modern peoples because they are at the preoperational and concrete operational stages of cognition. Primitive adults share basic aspects of the preoperational thinking of children no more mature than eight years old. Adults in pre-modern civilizations share the concrete operational thinking of 6-12 year olds.

Children and premodern adults share the same mechanisms and basic understandings of physical dimensions such as length, volume, time, space, weight, area, and geometric qualities. Both groups share the animistic understanding of nature and regard stones, mountains, woods, stars, rivers, winds, clouds, and storms as living beings, their movements and appearances as expressions of their will, intentions, and commitment. Premodern humans often manifest the animistic tendencies of modern children before their sixth year. Fetishism and natural religion of premodern humans reside in children’s mentality before concrete operational stage . . . The biggest parts of ancient religions are based on children’s psychology and animism before the sixth year of life (2016, 301).

It is not that adults in primitive and pre-modern cultures are similar to children in modern cultures in their emotional development, experience, and ability to survive in a hostile environment. It is that the reasoning abilities of adults in pre-modern cultures are undeveloped. As Lucien Lévy-Bruhl (1857-1939) had already observed in Primitive Mentality (1923), a work which was recently released (2018) as part of Forgotten Books [4], the primitive mind is devoid of abstract concepts, analytical reasoning, and logical consistency. The objective-visible world is not distinguished from the subjective-invisible world. Dreams, divination, incantations, sacrifices, and omens, not inferential reasoning and objective causal relations, are the phantasmagorical doors through which primitives get access to the intentions and plans of the unseen spirits that they believe control all natural events.

The visible world and the unseen world are but one, and the events occurring in the visible world depend at all times upon forces which are not seen . . . A man succumbs to some organic disease, or to snake-bite; he is crushed to death by the fall of a tree, or devoured by a tiger or crocodile: to the primitive mind, his death is due neither to disease nor to snake-venom; it is not the tree or the wild beast or reptile that has killed him. If he has perished, it is undoubtedly because a wizard had “doomed” and “delivered him over”. Both tree and animal are but instruments, and in default of the one, the other would have carried out the sentence. They were, as one might say, interchangeable, at the will of the unseen power employing them (2018, 438).

I have reservations about the extent to which the rise of operational thinking on its own can explain the uniqueness of Western history (as I will explain in Part II), but I agree that without children or adolescents reaching the stage of operational thinking, there can be no modernization. The study of the geographical, economic, or cultural factors that led to the rise of science and the Industrial Revolution are not the matters we should be focusing on. The rise of a “new man” with psychogenetic capacities — psychological processes, personality, and behavior — for formal operational reasoning needs direct attention if we want to understand the rise of modern culture.

Cultural Relativism

But first, it seems odd that Oesterdiefkhoff holds two seemingly diametrical outlooks, “cultural relativism and universality of rationality,” responsible for the discrediting of Piagetian cross cultural theory. He does not explain what he means by “universality of rationality.” We get a sense that by “cultural relativism” he means the rejection of the unreserved confidence in the superiority of Western scientific rationality. Social scientists after the Second World War did become increasingly ambivalent about setting up Western formal thinking as a benchmark to judge the cognitive processes and values of other cultures, even though the non-Western world was happily embracing the benefits of Western science and technology.

The pathological state to which this relativism has affected Western thinking can be witnessed right inside the otherwise hyper-scientific field of cognitive psychology today. Take the very well known textbook, Cognitive Psychology [5] (2016), by IBM Professor of Psychology at Yale University, Robert Sternberg; it approaches every subject in a totally scientific and neutral manner — except the moment it touches the subject of intelligence cross-culturally, when it immediately embraces a relativist outlook informing students that intelligence is “inextricably linked to culture” and that it is impossible to determine whether members of “the Kpelle tribe in Africa” have less intelligent concepts than a PhD cognitive psychologist in the West. Intelligence is “something that a culture creates to define the nature of adaptive performance in that culture and to account for why some people perform better than others on the tasks that the culture happens to value.” It is “so difficult,” it says, to “come up with a test that everyone would consider culture-fair — equally appropriate and fair for members of all cultures” (503-04).

If members of different cultures have different ideas of what it means to be intelligent, then the very behaviors that may be considered intelligent in one culture may be considered unintelligent in another (504).

This textbook pays detailed attention to the scientific achievements of Piaget, but portrays him as someone who investigated the “internal maturation processes” of children as such, without considering his cross-cultural findings, which clearly suggest that children in less developed and less scientific environments do not mature to the formal stage. Pretending that such findings do not exist, the book goes on to criticize Piaget for ignoring “evidence of environmental [cultural] influences on children’s performance.”

I am not suggesting that cultural relativism has not taken over Western sciences in the way it has the humanities, sociology, history, and philosophy. But there is no denying this relativism is being effectively used by scientists against any overt presumption by Western scientists that their knowledge is “superior” to the knowledge of African tribes and Indigenous peoples. No cognitive psychologist is allowed to talk about the possible similarities between the minds of children and the minds of adult men in pre-modern cultures.

Cultural Universals

Oesterdiefkhoff does not define “universality of rationality,” but we can gather from the literature he uses that he is referring to other anthropologists who argue that all humans are rationally inclined; primitive and pre-modern peoples are not “illogical” or “irrational.” The “actual structures of thought, cognitive processes, are the same in all cultures.” What differs are the “superstructural” values, religious beliefs, and ways of classifying things in nature. Primitive peoples, Islamic and Confucian peoples, were quite rational in the way they went about surviving in the natural world, making tools, building cultures, and enforcing customs that were “adaptive” to their social settings and environments. They did not develop science because they had different priorities and beliefs, and were less obsessed with mastering nature and increasing production.

The anthropologist Claude Lévi-Strauss, and the sociologist Émile Durkheim, were the first to argue that the primitive mind is “logical in the same sense and same fashion as ours” and that the only difference lies in the classification systems and thought content. George Murdock and Donald Brown, in more recent times, came up with the term “cultural universals” (or “human universals [6]“) to refer to patterns, institutions, customs, and beliefs that occur universally in all cultures. These universals demonstrated, according to these anthropologists, that cultures differ a lot less than one might think by just examining levels of technological development. Murdock and Brown pointed to strong similarities in the gender roles of all cultures, the common presence of the incest taboo, similarities in their religious and healing rituals, mythologies, marriage rules, use of language, art, dance, and music.

This idea about the universality of rationality and “cultural universals” was subsequently elaborated in a more Darwinian direction by evolutionary psychologists. Evolutionary psychology is generally associated with “Right wing” thinking, in contrast to cultural relativism, which is associated with “Left wing” thinking. Evolutionary psychologists like E. O. Wilson and Steven Pinker hold that these cultural universals are naturally selected, biologically inherited behaviors. They believe that rationality is a naturally inherited disposition among all humans, though they don’t say that the levels of knowledge across cultures are the same. Humans are rational in the way they go about surviving and co-existing with other humans. These universals were selected because they enhanced the adaptability of peoples to their environments and improved the group’s chances of survival. Some additional cultural universals observed in all human cultures are bodily adornment, calendars, cooperative labor, cosmology, courtship, divination, division of labor, dream interpretation, food taboos, funeral rites, gift-giving, greetings, hospitality, inheritance rules, kin groups, magic, penal sanctions, puberty customs, residence rules, soul concepts, and status differentiation.



Evolutionary psychologists are convinced that the existence of cultural universals amount to a refutation of the currently “fashionable” notion that all human behaviors, including gender differences, are culturally determined. But if the West is very similar to other cultures, why did modern science develop in this civilization, including liberal democratic values? Evolutionary psychologists search for general explanations — the notion of cultural universals meets this criteria, Western uniqueness does not; therefore, they either ignore this question or reduce Western uniqueness to a concatenation of historical factors, varying selective pressures, and geographical good luck. They point to how modern science has been assimilated by multiple cultures, from which point they argue that science is not culturally exceptional to the West but a universal method that produces universal truths “for humanity.”

Can one argue that universalism is a cultural attribute uniquely Western and therefore relative to this culture?

Piagetian Universalism and IQ Convergence

Piagetian theory is also universalist in maintaining that all cultures are now reaching the stage of formal operational thinking. The West merely initiated formal reasoning. More than this, according to Oesterdiefkhoff, this cognitive convergence is happening across all the realms of social life, because changes in the cognitive structures of humans bring simultaneous changes in the way we think about politics and institutional arrangements. The more rational we become, the more we postulate enlightened conceptualizations of government in opposition to authoritarian forms. Drawing on the extension of Piagetian theory to explain the moral development of humans (initiated by Piaget and elaborated by Lawrence Kohlberg), Oesterdiefkhoff writes that once humans reach stage four, they start to grasp “that rule legitimacy should follow only from a correct rule installation, that is, from the choices of the players involved” (2015, 88).

Thus, they regard only rules correctly chosen as obliging rules. Only democratic choices install legitimate rules. Youth on the formal stage surmount therefore the holy understanding of rules by the democratic understanding. They replace an authoritarian understanding of rules, laws, and customs by a democratic one. Thus, they invent democracy in consequence of their cognitive maturation (2015, 88-9).

The emergence of the adolescent stage of formal operations gave birth not only to the new sciences after 1650 but also to philosophers such as Locke, Montesquieu, and Rousseau, who formulated the basic principles of constitutional government, representative institutions, and religious tolerance. Extensive cross-cultural research has shown that “children do not understand tolerance for deviating ideas, liberty rights for individuals, rights of individuals against government and authority, and democratic legitimacy of governments and authorities” (2015, 93). They are much like the adults of premodern societies, or current backward Islamic peoples, who take “laws and customs as unchangeable, eternal, and divine, made by god and not modifiable by human wishes or choices” (2015, 90).

This argument may seem similar to Francis Fukuyama’s thesis that modernizing humans across the world are agreeing that liberal-democratic values best satisfy the longing humans have for a state that recognizes the right of humans to pursue their own happiness within a constitutional state based on equal rules. The difference, a crucial one, is that for Fukuyama the rise of democracy came from the articulation and propagation of new ideas, whereas for Oesterdiefkhoff psychogenetic maturation is a precondition of democratic rule. Adults who were raised in a pre-modern culture and have a concrete operational mind can “never surmount” this stage, no matter how many books they read about the merits of liberal democracy. These adults will lack the appropriate ontogenetic development required for a democratic mind.

The absence of stimuli and forces of modern culture during early childhood in premodern cultures prevents later psychological development from going beyond certain stages . . . Unused developmental opportunities in youth stop the development of the nervous system, thus preventing psychological advantages in later life. This explains why education and enlightenment, persuasion and media programs could not draw adult premodern people out of their adherence to magic, animism, ordeal praxis, ancestor worship, totemism, shamanism, and belief in witches. Such people, moving in adulthood to modern milieus, cannot surmount their anthropological structures and their deepest emotions and convictions (2016, 306-7).

Moreover, according to Oesterdiefkhoff, with the attainment of higher Piagetian stages come higher IQ levels. Psychogenetic differences, not biological genetic differences, are the decisive factor. “All pre-modern peoples stood on intelligence levels of 50 to 70 [IQ points] or on preoperational or concrete operational levels, no matter from what race, culture or continent they have come” (2014b, 380).

Not only the Western nations, but all modernizing nations have raised their scores. The rises in stage progression and IQ scores express the greatest intelligence transformations ever in the history of humankind and stem solely from changes in culture and education. When Africans, Japanese, Chinese and Brazilians have raised their intelligence so dramatically, where is the evidence for huge genetic influences? Huge genetic influences might be assumed if Europeans had always had higher intelligence and if African, Indians, Arabs and Vietnamese had been unable to raise their intelligence to levels superior to that of Europeans 100 years ago. But Latin Americans and Arabs today do have higher IQ scores than Europeans had 100 years ago . . . Where is the leeway for genetic influences to affect national intelligence differences? (Ibid).




IQ experts would counter that only psychometric data about levels of heritable general intelligence can explain the rise of formal operational thinking. But even if we agree that a gap in IQ scores between American blacks and American whites has remained despite the Flynn effect [9] and similar levels of education and income, it is very hard to attribute the remarkable increases in IQ identified over the last century to heredity. Oesterdiefkhoff’s argument that “all modernizing nations have raised their IQ scores,” and that operational thinking has been central to this modernization, is a strong one.

Formal Reasoning is not a Cultural Universal

The stage of formal operations cannot be said to be a biologically primary ability that humans inherit genetically. They are secondary biological abilities requiring a particular psycho-cultural context. Formal thinking came to be assimilated by other nations (most successfully in east Asian nations with an average high IQ, but far less so in sub-Saharan nations where to this day witchcraft prevails [10]). The abilities associated with the first two stages (e.g., control over motor actions, walking, mental representation of external stimuli, verbal communication, ability to manipulate concepts), have been acquired universally by all humans since prehistorical times. These are biologically primary qualities that children across cultures accomplish at the ages and in the sequence more or less predicted by Piaget. They can be said to be universal abilities built into human nature and ready to unfold with only little educational socialization, explainable in the context of Darwinian evolutionary psychology. These cognitive abilities can thus be identified as “cultural universals.”

The concrete-operational abilities of stage three (e.g., the “ability to conserve” or to know that the same quantity of a liquid remains when the liquid is poured into a differently shaped container) are either lacking in primitive cultures or emerge at later ages in children than they do in modern cultures. These cognitive abilities may also be described as biologically primary, as skills that unfold naturally as the child matures in interaction with adult members of the society. In modern societies, all individuals with a primary education acquire concrete operational abilities. The aptitudes of this stage can be reasonably identified as universally present in all agrarian cultures.

This is not the case at all with formal operational skills. The skills associated with this stage (inductive logic, hypothesis testing, reasoning about proportions, combinations, probabilities, and correlations) do not come to humans naturally through socialization. There is abundant evidence that even normally intelligent college students with a long background in education have great difficulties distinguishing between the form and content of a syllogism, as well as other types of formal operational skills. Oesterdiefkhoff acknowledges that

Only when human beings are exposed to forces and stimuli typical of modern socialization and culture do they progress further and develop the adolescent stage of formal operations (2016, 307).

But, again, as it has been observed by critics of Piaget, even in modern societies where children inhabit a rationalized environment and adolescents are taught algebra and a variety of formal operational skills, many students with a reasonable IQ find it difficult to think in this way. According to P. Dasen (1994), only one-third of adults ever reach the formal operational stage. Evolutionary psychologists have thus disagreed with the idea that this stage is bound to unfold among most humans as they get older as long as they get a reasonably modern education. There are many “sub-stages” within this stage, and the upper stages require a lot of schooling and students with a keen interest and intelligence in this type of reasoning. This lack of universality in learning formal operational skills has persuaded evolutionary psychologists to make a distinction between the biologically primary abilities of the first three stages and the biological secondary abilities of stage four. Formal reasoning is principally a “cultural invention” requiring “tedious repetition and external motivation [11]” for students to master it.

If the ability to engage in formal thinking is so particular, a biologically secondary skill in our modern times, would it not require a very particular explanation to account for the origins of this cognitive stage in an ancient world devoid of a modern education? If the rise of “new humans” with a capacity for formal thinking was responsible for the rise of the modern world, and the existence of a modern education is an indispensable requirement in the attainment of this stage among a limited number of students, how did “new humans” grow out of a pre-modern world with a lower average IQ?

In the second part of this article, it will be argued that Europeans reached stage four long before any other people on the planet because Europeans began an unparalleled intellectual tradition of first-person investigations into their conscious states. This is a type of self-reflection in which European man began to ask who he is, how does he know that he is making truthful statements, what is the best life, and if he is being self-deceived in his beliefs and intentions. This is a form of self-knowledge that was announced in the Delphic motto “know thyself.” It would be an error, however, to describe the beginnings of this self-consciousness as a relation to something in oneself (an I or an ego) from which a predicate, or an outside, to which the subject relates, is derived. The emergence of the first-person consciousness of Europeans did not emerge outside the being-in-the world of the aristocratic community of Indo-Europeans. Europeans began a quest for rationally justified truths, for objective standards of justification, and for the realization of the good life in a reflective self-relation, coupled with socially justified reasons about what is morally appropriate.


Brown, Donald (1991). Human Universals. Philadelphia: Temple University Press.

Dasen, P. (1994). “Culture and cognitive development from a Piagetian perspective.” In W. J. Lonner & R. S. Malpass (Eds.), Psychology and culture. Boston: Allyn and Bacon.

Genovese, Jeremy (2003). “Piaget, Pedagogy, and Evolutionary Psychology.” Evolutionary Psychology, Volume 1: 217-137.

LePan, Donald. (1989). The Cognitive Revolution in Western Culture. London: Macmillan Press.

Lucien Lévy-Bruhl (2018). Primitive Mentality [1923]. Forgotten Books.

Oesterdiekhoff, Georg W. (2014a). “The rise of modern, industrial society. The cognitive developmental approach as key to disclose the most fascinating riddle in history.” The Mankind Quarterly, 54, 3/4, 262-312.

Oesterdiekhoff, Georg W. (2016). Child and Ancient Man: How to Define Their Commonalities and Differences Author(s). The American Journal of Psychology, Vol. 129, No. 3, pp. 295-312.

Oesterdiekhoff, Georg W. (2012). Was pre-modern man a child? The quintessence of the psychometric and developmental approaches. Intelligence 40: 470-478.

Oesterdiekhoff, Georg W (2014b). “Can Childlike Humans Build and Maintain a Modern Industrial Society?” The Mankind Quarterly 54, 3/4, 371-385.

Oesterdiekhoff, Georg W (2015). “Evolution of Democracy. Psychological Stages and Political Developments in World History” Cultura: International Journal of Philosophy of Culture and Axiology 12 (2): 81-102.

Stenberg, Robert (2003). Cognitive Psychology. Nelson Thompson Learning. Third Edition.

This article was reproduced from the Council of European Canadians [12] Website.

Article printed from Counter-Currents Publishing: https://www.counter-currents.com

URL to article: https://www.counter-currents.com/2018/10/jean-piaget-the-superior-psychogenetic-cognition-of-europeans-1/

URLs in this post:

[1] Image: https://www.counter-currents.com/wp-content/uploads/2018/10/10-17-18-2.png

[2] here: https://www.counter-currents.com/2018/10/jean-piaget-the-superior-psychogenetic-cognition-of-europeans-part-ii/

[3] Image: https://www.counter-currents.com/wp-content/uploads/2018/10/10-17-18-3.jpg

[4] Forgotten Books: https://www.amazon.ca/Primitive-Mentality-Classic-Reprint-Levy-Bruhl/dp/0282635432

[5] Cognitive Psychology: https://www.amazon.com/Cognitive-Psychology-Robert-J-Sternberg/dp/1305644654/ref=pd_lpo_sbs_14_t_0?_encoding=UTF8&psc=1&refRID=NR395X3ESKS7MW1FY1TV

[6] human universals: http://www.humiliationstudies.org/documents/BrownUniversalsDaedalus.pdf

[7] Image: https://www.counter-currents.com/wp-content/uploads/2018/10/10-17-18-4.jpg

[8] Image: https://www.counter-currents.com/wp-content/uploads/2018/10/10-17-18-5.png

[9] Flynn effect: https://en.wikipedia.org/wiki/Flynn_effect

[10] sub-Saharan nations where to this day witchcraft prevails: https://www.rt.com/news/435905-malawi-bbc-child-killings/

[11] tedious repetition and external motivation: https://www.psychology-lexicon.com/cms/glossary/35-glossary-b/4346-biologically-secondary-abilities.html

[12] Council of European Canadians: https://www.eurocanadian.ca/2018/10/jean-piaget-superior-psychogenetic-cognition-europeans-part-one.html

Why did the West rise to become the most powerful civilization, the progenitor of modernity, the culture with the most prodigious creators? The answers are plenty. But it may be that a child psychologist, Jean Piaget, has offered the best theoretical framework to explain the difference between the West and the Rest. Part II of this article continues the examination of George Oesterdiefkhoff’s application and elaboration of Piagetian theory in his ranking of the cognitive development of the peoples of the world. It praises the fundamental insights of this elaboration while arguing that the psychogenetic superiority of European children should be traced back to the appearance of new humans in ancient Greek times who started to realize that their consciousness is the highest point on which all else depends.

go-liv.jpgOesterdiefkhoff on the Origins of Western Operational Thinking

Why did Europeans reach the fourth stage of formal operations long before any other peoples in the world? When pressed (in an exchange) about the causes of the emergence of stage four, George Oesterdiefkhoff responded that

schooling and other cultural factors must have been more elaborated in early modern Europe than in Asia, antiquity, and medieval times. The trigger to arouse the evolution of formal operations would have been especially the systems of education (2014b, 376).

He then added:

Admittedly, this begs the question about the causes of this alleged fact and necessitates yet another level of causal explanation . . . I rather prefer cultural explanations and think about the possible relevance of the advantages of the Greek/Roman alphabet or Aristotelian logic, phenomena fostering the use of abstraction and logic (2014b, 376).

But this is as far as Oesterdiefkhoff goes in explaining why the ancient Greeks reached the fourth stage first. He prefers, rather, to jump right into the modern era, the seventeenth century, as the century in which formal operational thinking really emerged, from which point he then identifies “the rise of formal operations, the cognitive maturation of people” (in itself) as the “cause” of the rise of modern Europe. He insists that his Piagetian theory “is crucially a causal theory of modernity” (2014b, 375). But no explanation is provided as to the original causes of the rise of formal operational thinking.

If Oesterdiefkhoff’s point is that, without a population in which the children have ontogenetically developed a capacity for formal operations, you can’t have adults engage in formal operational thinking, then I agree that this ontogenetic development is a precondition for a modern society. But we still need an explanation for the rise of “new humans” (to use his own words) capable of formal operational thinking. Does he mean that the Greek/Roman alphabet and Aristotelian logic already contained the seeds of formal reasoning? The alphabet is indeed the most abstract symbolic system of writing in which both consonants and vowels are represented. Can it be denied that Aristotle’s theory of the syllogism is at the level of stage four, considering that this theory teaches that we can abstract altogether from the concrete content of an argument and judge its merits solely in terms of how the terms are formally or logically connected to each other?

Oesterdiefkhoff says that the Ionian philosophers (in the sixth century BC) were the first to establish the concrete operational stage and, in the same vein, implies that Aristotle’s philosophy did not rise above this concrete stage. “Aristotle’s physics strongly resembles the animistic physics of children aged 10 before they establish the mechanistic world view.” “The formal operational stage comes into being predominantly with Descartes in the 17th century” (2016, 304). We can agree that it “comes into being predominantly” in this century, but if we also agree that this stage has “many sub-stages” (as Oesterdiefkhoff points out), why can’t we identify Aristotle’s extensive writings on logic, induction and deduction, affirmations and contradictions, syllogisms and modalities, definitions and essences, species, genus, differentia, and the categories as the beginnings of stage four?

Oesterdiefkhoff knows he needs some origins, and admits he is caught in a chicken-egg dilemma. He writes about “a positive feedback loop” in the interrelationship between “the knowledge taught in schools and universities” in modern Europe and the rise of formal reasoning. But instead of “finding the causes for the emergence of formal reasoning in Europe some centuries ago,” he prefers to say that the “highest stage, the stage of formal operations, directly accounts for the rise of modern sciences” (2014a, 269). “The rise of formal operations in the Western world after 1700 is the single cause of the rise of the sciences, industrialism, enlightenment, humanism, and democracy” (2014a, 287).


Aristotle with a bust of Homer

This may be understandable since Oesterdiefkhoff is not a historian. He has, in my view, made a fundamental contribution to the “rise of the West” debate, explaining the direct relevance of Piaget’s theory of cognitive development. None of the participants in this debate care to talk about “cognitive development,” but assume (along with the academic establishment) that all humans across all cultures and throughout history (since we became Homo sapiens in Africa) are equally rational.

Oesterdiefkhoff wants to fit Western history within a stage theory of developmental psychology in which ancient/medieval times are clearly demarcated from modern operational stages. He writes of the “child-like stages” of peoples living in the pre-modern world, including Europeans, and says that the cognitive age of pre-modern adults “typically corresponds to that of children” before the age of 10. “Medieval philosophy, be it Platonic or Aristotelic, regarded nature and reality as living things, ruled by God, and other spiritual forces. It had no concept of physical laws.” “[T]he rise of formal operations became a phenomenon of major importance as late as the 17th century.” “The kernel of Enlightenment philosophy is the surpassing of childlike mental states, of the world of fairy tales, magic, and superstition, as it prevailed in the pre-modern world” (2014a, 292-295).

He qualifies this estimation a bit when he writes that “formal operations…evolved in the intellectual elite of early modern Europe and slowly spread to other milieus.” But his pervading message is that it was only during the 1700s, or even “after the 1700s,” that Europeans came to reach the operational stage. There is no reason to disagree if he means that only the 1700s and after saw sufficient numbers of Europeans maturing into the last stage, making possible a full-scale industrial revolution. But we still need an explanation of the origins of “new humans,” the first humans who matured into the fourth stage.

I understand that many will be tempted to point to social and educational forces as the causes of this initial cognitive transition to operational thinking. They will argue that as literacy was mastered, and as institutes of learning were established, and arithmetic, reading, and other subjects were taught, a major shift occurred in human mental activity. This emphasis on the educational environment is a view often attributed to the Soviet psychologist A. R. Luria (1902-1977). From this claim, it takes only one step to the identification of the “social and economic” mode of production as the “underlying” factor of this cognitive revolution, thus combining Piaget and Marx’s historical materialism. The ancient Greeks developed operational thinking in the new milieu of urban life, growing trade in the Mediterranean, and money exchanges. The flaw in this explanation is that not only were all these new economic ways present in greater abundance in the older and larger civilizations of Mesopotamia and elsewhere, but all these commercial and urban activities only required concrete operational habits of thinking.

The view I will propose in a later section, albeit in a suggestive manner, presupposing for its understanding what I wrote in The Uniqueness of Western Civilization about the aristocratic culture of Indo-Europeans, and in a number of articles at the Council of European Canadians [3] about the masculine preconditions of individualism, the higher fluidity of the Western mind, the multiple intelligences of Europeans, and the bicameral mind, is that Oesterdiefkhoff underplays the importance of self-consciousness, the awareness of humans of their own identity as knowers, in contradistinction to everything that is not-I, in the development of cognition. Europeans were the first to reach the fourth stage, a long time before any other people, because they were a new breed of humans who evolved a uniquely high level of self-awareness, an ability to differentiate clearly between their conscious “I” and the physical world; that is, an awareness of their own minds, as distinguished from their appetitive drives, the conventions of the time, and the world of invisible spirits. This introspective awareness of the role of the human mind as the active agent of cognition is what allowed Europeans to reach the fourth stage so early in their history.

It is no accident that the main precursor of the modern concept of mind is the ancient Greek notion of nous. Plato’s identification of three distinct parts of the soul — rational (nous), appetitive (epithumia). and the spirited (thymos) — can be classified as the first psychological contribution in the Western tradition. Both the appetitive and the spirited parts of the soul are about desires, but the appetitive part is about the biologically-determined desires humans have for food, sex, and comfort, whereas the spirited part is about “passion,” the emotions associated with the pursuit of honor and glory, feelings of anger and fear. Plato anticipated the Cartesian dualist separation of mind and body when he argued that the mind was immaterial and immortal, whereas the body was material and mortal. He also understood that the Indo-Europeans were the most “high spirited” peoples in the world, once observing that “the Thracians and Scythians and northerners generally” were peoples “with a reputation for a high-spirited character” (Francis M. Cornford, trans., The Republic of Plato, 132). Aristotle added to this observation a distinction between the “high-spirited” but barbaric passions of “those who live in Europe” and the “high-spirited” but “intelligent” virtues of the Hellenic peoples. Aristotle further observed that while the peoples of Asia were intelligent, they were “wanting in spirit and therefore they are always in a state of subjection and slavery [4].”



I trace this high spirited character to the uniquely aristocratic culture of Indo-Europeans. While one may be tempted to think that the intelligent-rational virtues of the Greeks were able to manifest themselves only when the rational part of their soul was brought to bear on their strong thymotic drives, Plato was correct in observing that the rational part would always be in unending combat with the demands of the appetites were it not for the intervention of the spirited part, the strong sense of aristocratic pride and honor of the Greeks, in helping reason subdue the appetitive part, and, in the same vein, helping reason to channel the high-strung energies of the spirited part away from barbaric and chaotic actions into a will-to-knowledge, a courage to break through the unknown, and thus bring forth the first sub-stages of the formal operational stage.

Before I say more about this explanation, I want to outline why I think Europeans, under their own initiative, not just in ancient Greek and Roman times but again in the High Middle Ages, after the decline of the Dark Ages (500 AD to 1100 AD), were the developers of formal operational habits of thinking long before any other people were compelled to adopt these habits under Western pressure.

Ancient Greeks were the First “New Humans”

netzbook.jpgRelying on Piaget’s criteria that the ability to think in a deductive way without handling concrete objects is a necessary component of the formal operational stage, it is hard to deny that the first clear signs of this stage were evident in Greek culture around the fifth century BC. We learn in Reviel Netz’s The Shaping of Deduction in Greek Mathematics: A Study in Cognitive History [6] (1999) that Greek mathematics produced knowledge of general validity, not only about the particular right triangle ABC of the diagram, for example, but about all right triangles. This formal operational trait, this ability to think about numbers in a purely abstract way, is what makes Greek mathematics historically novel in comparison to all preceding “concrete” operational mathematics. This type of reasoning was very exclusive, to be sure, restricted to a small number of Greeks; it has been estimated that at most there were a thousand mathematicians throughout Greek antiquity, a period lasting a full millennium.

How about scientific accomplishments during the Hellenistic era (323-31 BC)? Oesterdiefkhoff seems aware of Hellenistic science when he writes that “Roman intellectuals no longer understood the superior contributions of the Hellenistic scholars” (2014a, 281). Can one say that the cognitive processes of the Hellenistic elite were at a level under the age of 10 after reading Lucio Russo’s The Forgotten Revolution: How Science Was Born in 300 BC and Why It Had to Be Reborn [7]? Can one really say that the institutionalization of scientific research in the Museum and Library at Alexandria, which contained more than five hundred thousand papyrus rolls and funded one hundred scientists and literary scholars, was not an educational establishment promoting formal operational thinking? We learn from Russo’s book about the conics of Apollonius and the invention of trigonometry by Hipparchus, about Archimedes’s work on hydrostatics and the mechanics of pulleys and levers, the first formal science of weight, about Aristarchus’ heliocentric proposal, and about Eratosthenes and his calculations to determine the circumference of the Earth. The hypothetico-deductive form of Euclid’s Elements is undeniable; it is the way in which circles, right angles, and parallel lines are explicitly defined in terms of a few fundamental abstract entities, such as points, lines, and planes, on the basis of which many other propositions (theorems) are deduced. (Newton, by the way, was still using Euclidean proofs in his Principia). While the Romans did not make major contributions in mathematics and theoretical science, it should be noted that Claudius Ptolemy, while living under Roman rule in Alexandria in the second century AD, wrote highly technical manuals on astronomy and cartography. The Almagest, which postulates a geocentric model, employs pure geometric concepts combined with very accurate observations of the orbits of the planets. It postulates epicycles, eccentric circles, and equant points, with the latter being imaginary points in space from which uniform circular motion is measured. Attention should be paid to the “formal-rational” codification and classification of Roman civil law into four main divisions: the law of inheritance, the law of persons, the law of things, and the law of of obligations, with each of these subdivided into a variety of kinds of laws, with rational methods specifying how to arrive at the formulation of particular rules. The rules upon which legal decisions were based came to be presented in categories headed by definitions. The most general rules within each of these categories were the principles upon which more specific rules were derived. This ordering was in line with a formal operational mode of reasoning, for the rules were presented without reference to the factual settings in which they were developed, and the terminology used in these rules was abstract.

This effort at a rationally consistent system of law was refined and developed through the first centuries AD, culminating in what is known as Justinian’s Code, 527 to 565 AD, which served as the foundation of the “Papal Revolution” of the years 1050-1150, associated with the rise of Canon Law. This Papal Revolution, by separating the Church’s corporate autonomy, its right to exercise legal authority within its own domain, and by analyzing and synthesizing all authoritative statements concerning the nature of law, the various sources of law, and the definitions and relationships between different kinds of laws, and encouraging whole new types of laws, created a modern legal system.

Medieval Europeans

Oesterdiefkhoff acknowledges in passing that ancient Greece saw “seminal forms of democracy . . . for a certain period,” a form of state which actually entails, in his view, the fourth stage of cognitive development. If Greek democracy was short-lived, what about the republican form of government during ancient Roman times [8], and the impact this form of government had on the modern Constitution of the United States [9]? We can also mention the representative parliaments and estates of medieval Europe [10]? To be sure, ancient Greece and Rome, and the Middle Ages, were far from the formal operational attainment of modern Europe (even if we draw attention to the continuation of witchcraft and magic in Enlightenment Europe [11]).


raddingbook.jpgIt is telling, however, that according to Charles Radding’s book, A World Made by Men: Cognition and Society, 400-1200 (1985), new lines of formal operational reasoning were “well established by 1100” in some European circles. I say “telling” because this book (one of only two) directly employs Piaget’s theory to make sense of Europe’s intellectual history. Oesterdiefkhoff references this work without paying attention to its argument. From a Europe that employed ordeals of boiling water and glowing iron to decide innocence and guilt, and that “looked for direction” to divinely inspired pronouncements from superiors, kings, abbots, or the ancients, and that was rarely concerned with “human intention,” we see (after 1100) a growing number of theologians insisting that humans must employ their God-given reasoning powers to determine the truth. Whereas the way theological disputes were settled before 1100 was “by citing authority,” “it was even increasingly the case [after 1100] that the very authority of a text’s author might be denied or disregarded” (p. 204). Using “one’s own judgment” was encouraged, combined with the study of logic as “the science of distinguishing true and false arguments.”

Although Radding is not definitive and barely elaborates key points, he understands that this increase in logical cognition entailed a new awareness of the distinction “between the knower and what is known,” between the I and the not-I. Medievalists actually went ahead of the ancient Greeks. For Plato, an idea existed and was correct if its origins were outside the mind, in the world of immaterial and perfect forms, which he differentiated from the untrue world of physical things. Perfect ideas were independent of the human mind, outside space and time, immutable. These ideas were not the products of human cognition. While the only way the human mind could apprehend these ideas was through intense training in geometrical (formal) reasoning, the aim was to reach a world of godlike forms to which the human mind was subservient.

While Aristotle transformed Plato’s forms into the “essences” of individual things, he believed that universal words existed in individual objects, or that abstract concepts could be equated with the essences of things. It is not that Aristotle did not perceive any dividing line between the supernatural, the world of dreams, and the natural; it is that he was a conceptual realist who believed that the contents of consciousness really existed as the essences of particular objects. Medieval nominalists showed a deeper grasp of the relationships between the mind and the external world by abandoning the notion that Forms (or ideas) represent true reality, the source of the mind’s ideas, and arguing instead that general concepts are mere names, neither the essences of things nor forms standing outside the material world. Only particular objects existed, and the role of cognition was to make true statements about the world of particular things even though ideas are not things but mental tools originated by men.

Nominalism represented a higher level of awareness of the role the human mind plays in cognition and of the distinction between the knower and the world outside. While Plato distinguished reason from the world of sensory phenomena, including natural desires, and, in so doing, identified the faculty of reasoning in its own right, he viewed human (intellectual) activity as dependent or subservient to a world of perfect and purely immaterial forms existing independently of the mind. Moreover, among medieval philosophers we find (in Peter Abelard, for example) a greater emphasis on intention, the view that the intention of humans should be considered in determining the moral worth of an action. Human action should not be attributed to supernatural powers or evil forces entering into human bodies and directing it. Humans have a capacity to think through different courses of actions, and for this reason human actions cannot be understood without a consideration of human intentions.

radd.jpgRadding (picture) brings up the emerging “idea of nature as a system of necessary forces” in opposition to the early medieval idea about miraculous events, as well as the “treatment of velocity itself as a quantity . . . comparing motion that follows differently shaped paths,” in the work of Gerard of Brussels in the early 1200s (p. 249). A better example of formal operational concepts would be Nicole Oresme’s (1320-1382) depiction of uniformly accelerated motion, which was not about motion in the real world but an effort to explain how motion increases uniformly over time in a totally abstract way. This view anticipated Galileo’s law of falling bodies. Among other examples Radding brings to elucidate this medieval shift to formal operational thinking is the observation that by the reign of Henry (1133-1189) the idea had taken root that consultation of members of the upper classes should be the norm in the workings of the monarchy, as well as the legal idea that mental competence should be a prerequisite in deciding criminal behavior.

The Birth of Expectation in Early Modern Era


donlepan.jpgDon LePan’s book, The Cognitive Revolution in Western Culture (1989), agrees with Radding that “there is considerable evidence of at least the beginnings of changes in the cognitive processes occurring among the educated elite in the twelfth century” (p. 45). But he believes that new cognitive processes began to spread in the early Modern period (or the Renaissance) when Europeans developed the capacity of “expectancy,” which he defines as “the ability to form specific notions as to what is likely to happen in a given situation” (p. 75). It is around this sense of expectancy, LePan says, that most of the cognitive processes Piaget identifies with the fourth stage are clearly evident. This sense of expectancy involves a “rational assessment of probabilities,” evaluating “disparate pieces of information” within a chain of events and circumstances as to whether something is likely to transpire in the future or not, drawing inferences from this information, and projecting “these inferences into the hypothetical realm of the future” (pp. 74-75). Before this capacity developed, the sense of future expectation that humans had was of a predetermined sort, or accidental and beyond reason, in which an outcome was believed to happen “regardless of the intervening chain of events” (p. 79) and without an objective assessment of human intentions and events about how the future event will likely happen.

This sense of expectancy involved the emergence of an ability to think in terms of abstract universal time, as contrasted to the commonly held notion of pre-modern peoples that “time moves at variable speeds, depending on the nature and quality of the events”. Among primitives, the recounting of past events, or history, is merely an aggregation of disconnected anecdotes without any sense of chronology and causal relationship and no grammatical distinction between words referring to past events or to present events. The past is conceived similarly to the present. While early Christian historians did have a sense of chronology, a universal history where all events were framed within a temporal sequence, they did not have a framework of abstract and objective time. They were more interested in detecting the plan of God rather than in how humans with intentions made their own history.

Because pre-modern peoples lack a framework of abstract and objective time, the “when” of an event is merely about before or after other events and not about the length of time elapsed between it and other events. Pre-modern peoples are also incapable of distinguishing between travelling the same distance and travelling at the same speed. They lack the habit of thinking of velocity as a quantity distinct from those of distance and time. Without a temporal conception wherein one can think of causes as anterior to the effect, it is not possible to consider historical events in terms of causal relations within a sequence of past, present, and future events.

For these reasons, pre-modern peoples were unable to think in terms of expectations of a hypothetical future, that is, to think about what will happen in the future in terms of multiple chains of causation and the ways in which these causes, sometimes happening simultaneously in different places, may bring about a future effect. LePan is particularly keen in showing that William Shakespeare’s originality was a result of his ability to create complex plots which gave the audience “a continual sense of anticipation . . . by drawing them into [an] unfolding pattern of connections with the past and the future of the story” (p. 175). The curiosity of a pre-modern audience is restricted to what will happen next within a sequence of episodes in which the reader or audience is confident about what is likely to happen, or what the final outcome will be, and in which there is, therefore, no sense of expectation whether it will happen, no concern to envisage the hypothetical possibilities of situations, no weighing of causes and intentions against each other, and no judgment of what the probable outcome of the future will be.

donlepanportrait.jpgDon LePan

As to what brought this new sense of expectation and the spread of the habits of thought associated with stage four, LePan is inclined to follow A. R. Luria’s argument that the causes of cognitive change are due to social and educational factors. He is rather vague; as society changes, literacy is mastered, the level of education increases, and the cognitive processes change. Which came first, new cognitive processes, new ways of educating children, or new “underlying economic changes”? They “reinforced each other.” LePan carefully distances himself from any claim that Europeans were genetically wired for higher levels of cognition. Even though he rejects the establishment idea that “all peoples think with exactly the same thought processes,” he believes that all humans are equally capable of reaching this stage. Without realizing that Piaget laid the groundwork for Kohlberg’s moral stages, he insists there is no “direct correlation between degrees of rationality and degrees of moral goodness” (p. 15). The book ends with a strange “postscript” about how he has been living with his wife in rural Zimbabwe for the last two years. He says he wishes the primitive and the modern mind could co-exist with each other, praises the cultural “vitality” of this African country, and then concludes with the expectation that “if something like a new Shakespeare is to emerge, it will be from the valleys of the Niger or the Zambezi” (p. 307). The subtitle of the first volume of The Cognitive Revolution in Western Culture is The Birth of Expectation. He did not write a second volume.

The uniqueness of the West frightens academics. They have concocted every imaginable explanation to avoid coming to terms with the fact that Europeans could not have produced so many transformations, innovations, renaissances, original thinkers, and the entire modern world, without having superior intellectual powers and superior creative impulses. The tendency for some decades now has been to ignore the cultural achievements of Europeans, minimize them, or reduce the “rise of the West” to one transformation, the Industrial Revolution, currently seen as the only happening that brought about the “great divergence.” The prevailing interpretation paints these achievements as no better than what transpired in any other primitive culture, and, indeed, far worse insomuch as the West was different only in its imperialistic habits, obsessive impulse for military competition, and genocidal actions against other races.

I agree with Oesterdiefkhoff that the faster cognitive maturation of European peoples “is the decisive phenomenon” in need of an explanation if our aim is to explain the rise of modern-scientific society. I will leave aside the question of whether this is the only factor that needs explanation if our aim is to explain other unique attributes of the West, such as the immense cultural creativity of this civilization. Cultural creativity in the arts presupposes a higher level of cognitive development, but it would be one-sided to reduce all forms of creativity to formal operational habits. Once these cognitive habits are established, formal operations can be performed at the highest level of expertise by individuals who are not creative, but who have a high IQ and a very good education. Computers can be programmed to perform formal operations, but it is hard to say that they are self-conscious beings rather than automata unthinkingly executing prescribed actions. Computers do not understand the meaning of the real world for which they are processing information; they are not “aware” of what they are thinking about, and they have no sense of self, and cannot, therefore, examine their own thoughts, exercise free will, and show a spirited character. Obviously, humans who engage in formal operations are not computers. But if we equate the human intellect with formal operational thinking and identify this capacity as the defining trait of modern culture and Western uniqueness, we are endorsing a computational model of human consciousness.

Self-Consciousness is Uniquely European


Oesterdiefkhoff and LePan wanted to generate the origins of formal operational habits by positing the prior presence of proto-formal habits, the alphabet, Aristotelian logic, and literacy; but knowing this was a self-referential explanation, they also brought in educational institutions, implying thereby that these institutions were created by proto-formal thinkers who taught children to learn formal operations, still offering a self-referential account. We need to step outside the world of formal operations to understand its origins. Oesterdiefkhoff identifies Descartes as the first thinker to offer a systematic methodology for the pursuit of knowledge based strictly on formal operational principles. It is not a coincidence that Descartes is also known as the first modern philosopher in having postulated self-consciousness as the first principle of his formal-deductive philosophy. Descartes showed himself to be very spirited in daring to doubt and repudiate all authority and everything he had been taught, to arrive at the view that the only secure foundation for knowledge was in self-consciousness. The only secure ground for formal operations was his certainty that he was a thinking being, despite doubting everything else. Everything could be subjected to doubt except his awareness that his own mind is the one authority capable of deciding what is true knowledge, not the external senses and not any external authority.

The Cartesian idea that self-consciousness on its own can self-ground itself would be superseded by future thinkers who correctly set about connecting self-consciousness to an intersubjective social context (a social setting I would identify as singularly European, since no other setting could have generated this Cartesian idea). My point now is that Piaget’s fourth stage, in its modern form, would have been impossible without self-consciousness. Descartes did not invent self-consciousness; ancient Greece saw the beginnings of self-conscious new humans; but he did offer its first modern expression, with more sophisticated expressions to follow. It is worth citing Hegel’s treatment of Descartes in his History of Philosophy:

Actually we now first come to the philosophy of the modern world, and we begin this with Descartes. With him we truly enter upon an independent philosophy, which knows that it emerges independently out of reason . . . Here, we may say, we are at home, and like the mariner after a long voyage over the tempestuous seas, we can finally call out, “Land!” . . . In this new period the essential principle is that of thought, which proceeds solely from itself . . . The universal principle is now to grasp the inner sphere as such, and to set aside the claims of dead externality and authority; the latter is to be viewed as out of place here (Hegel’s Lectures on the History of Philosophy, trans. Haldane & Simpson, vol. III, p. 217).

The key idea is that thought proceeds from itself, out of reason, independently of all external authorities. The biological roots of this declaration of independence by the human, thinking subject are to be found in the natural obsession men have shown across all cultures to affirm the male ego in contradistinction to the enveloping womblike environment. This struggle for male identity is only a sexual precondition, and an always-present one, for the subsequent appearance of self-awareness and the first inklings of human individuality. The first cultural signs of individualism are to be found in pre-historical Indo-European societies uniquely ruled by “high spirited” aristocratic men living in a state of permanent mobility and adversity, for whom the highest value in life was honorable struggle to the death for pure prestige. It was out of this struggle by aristocratic men, who were seeking excellence in warfare that would be worthy of recognition from their aristocratic peers, that the separation and freedom of humans from the undifferentiated world of nature and the undifferentiated world of collectivist-despotic societies was fostered.

Cognitive and evolutionary psychologists, and philosophers of the mind, take it for granted that humans as humans are self-conscious beings, aware of themselves as living. “Consciousness is the greatest invention in the history of life; it has allowed life to become aware of itself [15],” said Stephen Jay Gould. This is true if by self-consciousness we mean the awareness humans have of their first-person inner experiences, pain, feelings, and memories. Human beings are constantly trying “to understand, respond to and manipulate the behavior of other human beings,” and in so doing they learn to read other people’s behavior, their feelings, and interests by self-examining their own thoughts and feelings, imagining what it is like to be in the other person’s shoes. This capacity to reflect on one’s states of mind and emotions in order to understand the behavior of others is a biologically-ingrained trait found in all humans, selected by nature. Nicholas Humphrey, in a very insightful short book, The Inner Eye, identifies this capacity as a form of “social intelligence” that evolved with gorillas and chimps. Consciousness was selected by nature because it enhanced the ability of these primates to survive within social settings characterized by “endless small disputes about social dominance, about who grooms who, about who should have first access to a favourite food, or sleep in the best site” (p. 37). In dealing with these issues, primates “have to think, remember, calculate, and weigh things up inside their heads” (p. 39). They have to learn to read the brains of other gorillas by looking inside their own brains and imagining what it is like to be in the situation of another gorilla.

This social intelligence is very different, but just as important, as the technical and natural intelligence required to survive in the acquisition of food and protection in a hostile environment. I am not going to rehearse Steven Mithen’s additional claim [16] to Nicholas Humphrey’s argument that consciousness can be said to have emerged not when primates learned to predict the social behavior of other members of the group, but when Homo sapiens during the Upper Paleolithic era managed to achieve enough “cognitive fluidity” between the different intelligences: social, linguistic, technical, and natural. Neither will I rehearse Julian Jaynes’ argument that such advanced peoples as the Mesopotamians and Egyptians were still lacking in self-consciousness, without “an interior self,” subservient to powerful gods controlling and arresting the development of their cognitive processes. I have added in the first part of this article [17] Piaget’s scientifically-based argument that pre-modern peoples did have “childlike” minds, which made it very difficult for them to rely on their own reasoning powers, to attain independence from the influence of unknown spirits and age-old mandates accepted without reflection.

I will conclude by asserting that it goes against the entire history of actual cognition and actual intellectual developments, as well as the history of science, mathematics, psychology, physics, and chemistry, to be satisfied with the degree of consciousness found in primates, Upper Paleolithic peoples, and all non-Western civilizations, which never reached the stage of formal operations, and which stagnated intellectually after the Bronze Age, and, in the cases of China and the Islamic world, after about 1300 AD. Europeans reached a higher level of consciousness starting in ancient Greek times with their spirited discovery of the faculty of the mind, and their increasing awareness of their own agency as human beings capable of understanding the workings of the world in terms of self-determined or rationally-validated regularities, coupled with their growing awareness that man was the measure of all things, a subject with a spirited will-to-be-conscious of himself as a free subject who takes himself to be the “highest point” on which all else depends, rather than a mere object of nature and mysterious forces. But this self-consciousness was in its infancy in ancient times, and it would take a consideration of German Idealism during the 1800s to attain a full account of how the (self-conscious) I can be shown to lie at the very basis of all knowledge, and beyond this outlook, to develop a philosophical-historical account that demonstrates a full awareness that this self-conscious I was self-generated only within the particular cultural setting of Western Civilization.


Brown, Donald (1991). Human Universals. Philadelphia: Temple University Press.

Dasen, P. (1994). “Culture and cognitive development from a Piagetian perspective.” In W. J. Lonner & R. S. Malpass (eds.), Psychology and Culture. Boston: Allyn and Bacon.

Genovese, Jeremy (2003). “Piaget, Pedagogy, and Evolutionary Psychology.” Evolutionary Psychology, Volume 1: 217-137.

Humphrey, Nicholas (2002). The Inner Eye: Social Intelligence in Evolution. Oxford University Press.

LePan, Donald (1989). The Cognitive Revolution in Western Culture. London: Macmillan Press.

Lucien Lévy-Bruhl (2018). Primitive Mentality [1923]. Forgotten Books.

Oesterdiekhoff, Georg W. (2014a). “The rise of modern, industrial society. The cognitive developmental approach as key to disclose the most fascinating riddle in history.” The Mankind Quarterly, 54, 3/4, 262-312.

Oesterdiekhoff, Georg W. (2016). “Child and Ancient Man: How to Define Their Commonalities and Differences.” The American Journal of Psychology, Vol. 129, No. 3, pp. 295-312.

Oesterdiekhoff, Georg W. (2012). “Was pre-modern man a child? The quintessence of the psychometric and developmental approaches.” Intelligence 40: 470-478.

Oesterdiekhoff, Georg W (2014b). “Can Childlike Humans Build and Maintain a Modern Industrial Society?” The Mankind Quarterly 54, 3/4, 371-385.

Oesterdiekhoff, Georg W (2015). “Evolution of Democracy. Psychological Stages and Political Developments in World History” Cultura: International Journal of Philosophy of Culture and Axiology 12 (2): 81-102.

Radding, M. Charles (1985). A World Made by Men: Cognition and Society, 400-1200. The University of North Carolina Press.

Stenberg, Robert (2003). Cognitive Psychology, Third Edition. Nelson Thompson Learning.

This article was reproduced from the Council of European Canadians [18] Website.


Article printed from Counter-Currents Publishing: https://www.counter-currents.com

URL to article: https://www.counter-currents.com/2018/10/jean-piaget-the-superior-psychogenetic-cognition-of-europeans-part-ii/

URLs in this post:

[1] Image: https://www.counter-currents.com/wp-content/uploads/2018/10/10-18-18-5.jpg

[2] here: https://www.counter-currents.com/2018/10/jean-piaget-the-superior-psychogenetic-cognition-of-europeans-1/

[3] Council of European Canadians: https://www.eurocanadian.ca/

[4] wanting in spirit and therefore they are always in a state of subjection and slavery: https://books.google.ca/books?id=EafUAgAAQBAJ&pg=PA2107&lpg=PA2107&dq=%22wanting+in+spirit+and+therefore+they+are+always+in+a+state+of+subjection+and+slavery%22.&source=bl&ots=iKOJROEM1-&sig=A4gpvXRWbsWKn6Qihf6-yVhgfmQ&hl=en&sa=X&ved=2ahUKEwi5kY3exoDeAhUqUt8KHeLRD0cQ6AEwAnoECAgQAQ#v=onepage&q=%22wanting%20in%20spirit%20and%20therefore%20they%20are%20always%20in%20a%20state%20of%20subjection%20and%20slavery%22.&f=false

[5] Image: https://www.counter-currents.com/wp-content/uploads/2018/10/10-18-18-1.jpg

[6] The Shaping of Deduction in Greek Mathematics: A Study in Cognitive History: https://www.cambridge.org/core/books/shaping-of-deduction-in-greek-mathematics/6801E135656F4401979F431F6FF48A28

[7] The Forgotten Revolution: How Science Was Born in 300 BC and Why It Had to Be Reborn: https://www.springer.com/gp/book/9783540200680

[8] republican form of government during ancient Roman times: https://www.amazon.com/Companion-Democracy-Republic-Blackwell-Companions/dp/1444336010

[9] modern Constitution of the United States: https://books.google.ca/books?id=-NO-DAAAQBAJ&printsec=frontcover&dq=republican+government+of+rome&hl=en&sa=X&ved=0ahUKEwj1toaz-s7dAhXKmeAKHWG3A_YQ6AEINTAC#v=onepage&q=republican%20government%20of%20rome&f=false

[10] representative parliaments and estates of medieval Europe: https://www.amazon.com/Parliaments-Estates-Europe-1789-Myers/dp/0500320330

[11] witchcraft and magic in Enlightenment Europe: http://www.oapen.org/search?identifier=341322

[12] Image: https://www.counter-currents.com/wp-content/uploads/2018/10/10-18-18-2.jpg

[13] Image: https://www.counter-currents.com/wp-content/uploads/2018/10/10-18-18-3.jpg

[14] Image: https://www.counter-currents.com/wp-content/uploads/2018/10/10-18-18-4.jpg

[15] Consciousness is the greatest invention in the history of life; it has allowed life to become aware of itself: https://books.google.ca/books?id=W8G8Oji53XsC&pg=PA34&lpg=PA34&dq=%22Consciousness+is+the+greatest+invention+in+the+history+of+life;+it+has+allowed+life+to+become+aware+of+itself%22&source=bl&ots=ywNbrywKqr&sig=6uHrLKln45n4G-LrisQgW9S7hhM&hl=en&sa=X&ved=2ahUKEwjcmZSnyoDeAhVhiOAKHek5B3QQ6AEwAXoECAAQAQ#v=onepage&q=%22Consciousness%20is%20the%20greatest%20invention%20in%20the%20history%20of%20life%3B%20it%20has%20allowed%20life%20to%20become%20aware%20of%20itself%22&f=false

[16] Steven Mithen’s additional claim: https://www.eurocanadian.ca/2018/07/the-higher-cognitive-fluidity-of-white-origins-consciousness.html

[17] the first part of this article: https://www.eurocanadian.ca/2018/10/jean-piaget-superior-psychogenetic-cognition-europeans-part-one.html


mercredi, 17 janvier 2018

Nos sociétés souffrent d'un très haut taux de maladies psychologiques


Il n'est donc pas étonnant que nos sociétés souffrent d'un très haut taux de maladies psychologiques comme l'anxiété, l'insomnie et la dépression

Par Piero San Giorgio

Ex: http://www.oragesdacier.info

Il est amusant d'observer une population composée essentiellement d'employés de bureau bien dociles, qui suit massivement des modes issues de cultures qui étaient dans le temps marginales. Tatouages tribaux et censés être impressionnants pour les hommes. Petits coeurs, dauphins, fleurs, caractères chinois pour les femmes, quand ce n'est pas une sorte de flèche sur le bas du dos ou au-dessus des fesses pointant vers l'anus (probablement voulant dire entrez ici ?). Tatouages donc, piercings, fringues, sorties, vacances originales, appartenance à des tribus... Il faut être différent, comme tout le monde !
   PSG-surv.jpg  Tout est fait pour le divertissement immédiat : amusement constant, pornographie, drogues. La culture de la consommation nous focalise sur l'avoir au lieu de l'être, sur la possession au lieu des relations, sur les apparences au lieu du bien-être. Cela pousse à l'égoïsme, à l'égocentrisme, à la concurrence constante. Dans tous les domaines, on se compare toujours au niveau le plus haut, idéalisé, impossible à atteindre. La confusion et la frustration engendrées sont considérables. Résultat : des problèmes comme les maladies mentales, le taux de divorce, l'addiction aux drogues et à d'autres substances, et même les taux de criminalité n'ont fait qu'augmenter partout en Occident depuis les années 1950.
     En 1970, 79% des étudiants américains avaient comme objectif une vie qui ait plus de sens. En 2005, ce même sondage montre que l'objectif de 75% des étudiants était de bien gagner leur vie, mais 81% de ceux-ci avouaient ressentir un vide existentiel. 30% des travailleurs admettent être des workaholics, accoutumés à leurs emails, blackberry, iphones et autres gadgets électroniques censés les rendre plus productifs. 50% des travailleurs disent ne pas passer assez de temps avec leurs enfants et leur famille et 40% disent ne pas avoir assez de temps pour eux-mêmes et leurs loisirs. 
     Il n'est donc pas étonnant que nos sociétés souffrent d'un très haut taux de maladies psychologiques comme l'anxiété, l'insomnie et la dépression. Un ami médecin m'a bien résumé le problème : "Nous sommes prisonniers d'un cercle vicieux : nous faisons un travail aliénant et sans sens, créant un état dépressif chez le travailleur ; un médicament permet au travailleur de continuer à travailler ; le travail permet au travailleur d'avoir les moyens de se payer ce médicament ; le docteur qui prescrit le médicament est obligé de le faire et de rester dans le système, car il doit rembourser l'emprunt qu'il a fait pour financer ses études de médecine, sans parler de sa cotisation annuelle au club de golf."
     Les médias zappent d'un sujet sensationnel à l'autre, sans arrêt, sans jamais faire une analyse de fond ou donner le temps de réfléchir. Si pour la plupart des téléspectateurs, à l'esprit émoussé, voire lobotomisé depuis longtemps, ce divertissement suffit, l'esprit aiguisé perçoit de manière évidente l'influence de qui possède le média en question : marchand d'armes, groupe industriel d'un Etat. Dans ce monde matérialiste où l'on vénère l'argent, la moindre critique du système marchand-consumériste et de l'accumulation de la richesse à outrance est devenue une forme d'hérésie. Tout politicien, professeur ou citoyen parlant contre la société de consommation met sa carrière en danger et doit s'attendre à être chahuté, accusé d'extrémisme, ridiculisé et ignoré. Les rares résistants ou dissidents travaillent hors du système des médias, comme un Beppe Grillo en Italie, par exemple.

Piero San Giorgio, Survivre à l'effondrement économique

lundi, 28 novembre 2016

L’avenir est à la postpsychiatrie


L’avenir est à la postpsychiatrie

Dominique Baettig
Médecin, Ancien Conseiller national
Ex: http://www.lesobservateurs.ch

Les temps changent, les déficits se creusent, les audits se multiplient, les migrants en précarité doivent être placés en sécurité…Les structures de la psychiatrie, presque partout en audit, sont sous pression. Le nouveau directeur médical des Services psychiatriques du Jura bernois veut « secouer le cocotier » d’une institution tentaculaire, qui a bénéficié depuis des lustres d’une rente de situation et qui doit maintenant se redimensionner et se frotter aux réalités économiques du « coût-efficacité ».Tant mieux et bonne chance, car il lui en faudra pour réformer ce système à forte inertie avec une multitude d’activités parallèles alibis, souvent d’essence antipsychiatrique, occupationnelles et de développement personnel. Il n’est pas un inconnu dans la région puisqu’il s’était impliqué dans l’excellent programme pro-famille qui laissait aux proches de patients psychiatriques lourds la possibilité de développer des habiletés  pour affronter des symptômes déstabilisants pour eux et de trouver des ressources, des solutions, un espace de parole et d’écoute. On sait aussi qu’il compte développer une approche de médiation neurocognitive permettant de modifier  pratiquement des  croyances, affronter mieux la réalité et qu’il pratique la thérapie cognitive, plus démocratique et collaborative. On ne peut que se réjouir de voir se tourner la page de la Bonne Parole psychanalytique et de son idolâtrie du Savoir et du Pouvoir.

Le plus réjouissant est son projet de recentrer la pratique des soins sur les soins. Et d’externaliser les approches nombreuses collatérales dispendieuses et occupationnelles. L’art-thérapie, les sorties accompagnées qualifiées de thérapeutiques, les congés thérapeutiques, les bricolages occupationnels calibrés pour handicapés mentaux, rien qui ne permette vraiment le retour dans la vie réelle communautaire. Ces thérapies ont leur place, c’est certain, mais dans l’ambulatoire au long terme et doivent être découplées des soins aigus et de crise. Les soins psychiatriques échappent encore  trop à la modernité des approches médicales (psychopharmacologie restaurant le sommeil et diminuant le stress, techniques d’anesthésie aujourd’hui de maniement sûr et simple), approche cognitive et résolution des problèmes. Elle reste encore trop fortement une pratique asilaire, éloignée des centres urbains, basée sur les activités occupationnelles, une sorte de club Med pour faire passer le temps de la crise, sans la résoudre avec des moyens adéquats. On y est beaucoup placé à fin d’assistance, en attendant que les proches reprennent un peu leur souffle. C’est bien, mais insuffisant.

Il est grand temps, comme l’a fait à l’époque Basaglia, précurseur de la désinstitutionalisation en Italie, que les désordres et  troubles mentaux soient traités de manière non discriminante, à l’hôpital général par exemple, sans approche au rabais ou demi-mesures condescendantes. Les traitements longs contraints devraient être en minorité et décidés, contrôlés par une autorité non médicale. Le modèle antipsychiatrique, naïf (le fou est normal, c’est la famille, la société, le psychiatre qui sont fous !) n’a plus de sens. Des séjours brefs, de crise, en collaboration avec le suivi ambulatoire devraient être organisés dans l’hôpital général et s’appuyer essentiellement sur le réseau extérieur prévu pour intervenir sur le long terme. Le modèle c’est les soins palliatifs en psychiatrie, avec une éthique de respect des convictions individuelles, un refus de la coercition sur le long terme. La nouvelle équipe réussira-t-elle à implanter des soins à l’hôpital de Moutier, en collaboration avec la psychiatrie jurassienne qui à l’époque n’a pas été soutenue dans cette démarche de précurseur car victime de la majorité constituée par ceux qui voulaient faire le contraire (que des hôpitaux de jour !), ceux qui voulaient pour eux faire la même chose et tous ceux qui ne voulaient rien faire. La résistance va être rude, il faudra s’accrocher.


Dominique Baettig, 27.11.2016

dimanche, 25 août 2013

Manfred Spitzer zur digitalen Demenz

Sieben Stunden, vierzehn Minuten – Manfred Spitzer zur digitalen Demenz

Ellen Kositza

Ex: http://www.sezession.de

sp63179916.jpgDas ist schon was: Mit Manfred Spitzers Warnung vor der »digitalen Demenz« hat ein Buch die obersten Ränge der Verkaufslisten gestürmt, das keinesfalls einen moderaten Ton anstimmt. Der bedeutende Hirnforscher lädt nicht zur Mäßigung vor der Glotze und an den Schaltknöpfchen der Spielautomaten ein. Er nennt keine empfehlenswerten Computerspiele, er beziffert keine Zeitzonen, innerhalb derer die Beschäftigung mit der virtuellen Welt tolerabel (oder gar günstig) wäre.

Nein, Spitzer, sechsfacher Vater, sagt ganz radikal: Jede vor dem Bildschirm der digitalen Medien verbrachte Stunde ist für Kinder vergeudete Lebenszeit. Der Psychiatrieprofessor argumentiert sprachlich bisweilen reichlich hemdsärmelig (was das Buch publikumsfreundlich macht), aber er hat die Wissenschaft auf seiner Seite.

Man will es kaum glauben: Sieben Stunden und vierzehn Minuten täglich verbringen deutsche Neuntkläßler im Durchschnitt vor dem Fernsehen, dem Video, dem Internet und vor Computerspielen. Die Mattscheibe des Smartphones ist dabei nicht mal einbezogen. Ungläubig rechnet man nach, zählt Wochenend- und Ferienzeiten hinzu und glaubt am Ende der Bilanz. Wohl keiner kann besser und glaubwürdiger erklären als Spitzer, was solche 50-Stunden-Wochen mit dem jugendlichen Gehirn machen. In vierzehn Kapiteln legt der Hirnforscher dar, inwiefern vorgeblich pädagogisch wertvolles Baby-TV, der Computer im Klassenzimmer, das Freizeitvergnügen in »sozialen Netzwerken« und auf welche Weise das sogenannte Multitasking, die Möglichkeit des »Abspeicherns« (also Auslagerns aus der aktiven Tätigkeit) und Ballerspiele die neuronalen Netzwerke beeinflussen. Das Gehirn ist ein plastisches, flexibles Organ, es verändert sich gemäß seiner Beanspruchung. Unter dem Dauerfeuer der Impulse bahnen sich »Trampelpfade« durch das Hirn, die relativ unveränderbar sind. Ein Jugendlicher, der seine Aktivitäten größtenteils ins »Netz« verlagert, anstatt durch Sport, Theater, papierne Lektüre oder Handwerk seinen Willen, seine Kreativität und Meinungsbildung zu schulen, wird ziemlich sicher seine affektive Selbstkontrolle einbüßen. Streßsymptome (wie Depressionen und Schlaflosigkeit), soziale Auffälligkeit und Schulprobleme stehen als sichere Folgen bevor. Spitzer malt keineswegs freihändig den Teufel an die Wand, er operiert mit einer Vielzahl wissenschaftlicher Studien und untermalt die Folgen der digitalen (Hyper-)Aktivität mit eigenen Graphiken, die den angeschlagenen Alarmton untermauern.

Bisweilen untergräbt Spitzers polternde, wenn auch meist sympathische Radikalität die Nachvollziehbarkeit: Daß die Google-Suche einen Nutzer, der auf dem gesuchten Gebiet bislang ahnungslos ist, ratlos zurücklasse, stimmt definitiv nicht. Susanne Gaschke hatte sich – ohne in ihren Schlußfolgerungen moderater zu sein – 2009 bereits gründlich und womöglich eloquenter mit digitalen Verdummungstendenzen auseinandergesetzt (Sezession 30/2009). Gaschkes vortreffliches Buch fehlt in Spitzers Literaturliste, dafür finden sich dort Verweise auf 28 Spitzersche Publikationen. Klar, der Mann ist vom Fach! Für Eltern, die ihre Kinder ohnehin vernünftig erziehen – also unter weitestgehender Umschiffung digitaler Ablenkmedien –, bietet das Buch vor allem eine Bestätigung und eine fundierte Argumentationsgrundlage. Die konkreten Tips zum adäquaten Hirntraining, die Spitzer bietet, mögen banal erscheinen, sind aber goldrichtig: Kleine Kinder profitieren von simplen Fingerspielen mehr als von Laptops im Kindergarten! Stete Übungen der Selbstkontrolle (erst ein Lied, auch wenn der Kuchen auf dem Tisch noch so lockt) dienen der Immunisierung gegen Streß! Singen Sie viel und laut!

Manfred Spitzer: Digitale Demenz. Wie wir uns und unsere Kinder um den Verstand bringen, München: Droemer 2012. 368 S., 19.99 €

Article printed from Sezession im Netz: http://www.sezession.de

URL to article: http://www.sezession.de/36727/sieben-stunden-vierzehn-minuten-manfred-spitzer-zur-digitalen-demenz.html

URLs in this post:

[1] Image: http://www.sezession.de/wp-content/uploads/2013/02/Manfred-Spitzer_Digitale-Demenz.jpg

samedi, 13 juillet 2013

Digitale dementie

Digitale dementie: Geheugen jongeren permanent aangetast door smartphones en pc's

Jongeren door internetcontacten steeds minder empathisch - Straling mobieltjes: Verhoogd risico op hersentumor, hartaandoening, Alzheimer, MS , Parkinson, autisme

De snelle omschakeling naar een digitale samenleving blijkt steeds vaker grote en veelal permanente gevolgen te hebben voor onze lichamelijke en geestelijke gezondheid.

Artsen in Zuid Korea, het land dat al sinds de jaren '90 voorop loopt bij de invoering van computers, maken zich zorgen over een nieuwe en snel groeiende aandoening die vooral jongeren aantast: digitale dementie. Het blijkt dat het geheugen van steeds meer jonge mensen door het veelvuldig en langdurig gebruik van pc's, spelcomputers en smartphones ernstig wordt aangetast, zozeer dat er zelfs sprake lijkt van een hersenbeschadiging of psychiatrische ziekte. Sommige jongeren kunnen niet eens meer een telefoonnummer onthouden.

De vooruitstrevende digitalisering van de Zuid Koreaanse samenleving, zowel op de werkplek, de scholen als in de privésfeer, blijkt een zorgwekkende keerzijde te hebben. 'Het te vaak gebruiken van smartphones en (spel)computers belemmert de ontwikkeling van het brein,' zegt Byun Gi-won, wetenschapper van het Balance Brain Centre in Seoul. 'Zware gebruikers ontwikkelen met name de linkerkant van hun brein, waardoor de rechterkant onaangesproken of onderontwikkeld blijft.'

Extreem vroege dementie, emotionele onderontwikkeling

De rechterkant van het brein is verbonden met het concentratievermogen. Als deze helft zich niet voldoende ontwikkelt krijgen mensen grote problemen met opletten en hun geheugen, wat in maar liefst 15% van de gevallen kan leiden tot het extreem vroeg intreden van dementie. Daarnaast zijn deze aangetaste mensen vaak emotioneel onderontwikkeld, waarbij kinderen hogere risico's lopen dan volwassenen omdat hun hersenen nog niet volgroeid zijn.

Volgens het ministerie van Wetenschap, ICT en Toekomstplanning bezit ruim 67% van de Zuid Koreanen een smartphone, het hoogste percentage ter wereld. Onder tieners is dit 64%, een gigantische groei ten opzichte van de 21,4% in 2011. Zuid Korea was het eerste land ter wereld waar ook op de basisscholen massaal papier en schoolbord werden vervangen door computers.

'Schade hersenen onomkeerbaar'

De Duitse neurowetenschapper dr. Manfred Spitzer schreef in 2012 het boek 'Digitale Dementie'. Hierin waarschuwde hij ouders en leraren voor de gevaren als kinderen te veel tijd doorbrengen met hun laptop, smartphone of andere elektronische apparaten. De schade die wordt aangebracht aan de hersenen is volgens Spitzer onomkeerbaar, reden waarom hij opriep tot een verbod op het gebruik van digitale apparaten op Duitse scholen.

'Kinderlijk gedrag' door sociale netwerken

Lady Greenfield, een gezaghebbende professor synaptische farmacologie aan het Lincoln college in Oxford (Engeland), waarschuwde in 2009 in het Britse Hogerhuis (1e Kamer) dat door de ervaringen die kinderen op sociale netwerksites opdoen zij 'verstoken blijven van samenhangende taal en lange-termijn betekenis. Als gevolg zullen de hersenen van de kinderen, als ze straks volwassen zijn, nog steeds op een kinderlijke manier functioneren.'

Volgens haar veroorzaken sociale netwerksites een verkorting van de aandachtsboog van kinderen. 'Als het jonge brein al vroeg wordt blootgesteld aan een wereld van snelle aktie en reactie, van plotseling opflitsende nieuwe beelden en foto's door een simpele druk op een knop, dan raken de hersenen er aan gewend om binnen zulke korte tijdsperiodes te reageren. Maar als er dan in de echte wereld niet onmiddellijk reacties volgen, dan krijgen we afwijkend gedrag en noemen dat vervolgens 'attentention-deficit (hyperactivity) disorder', AD(H)D.'

Erosie van eigen identiteit

Greenfield zei dat meer computeren en minder lezen van boeken leidt tot het verlies van empathie, van inlevingsvermogen. De professor vindt het vreemd dat de maatschappij de erosie van onze identiteit als gevolg van sociale netwerksites 'enthousiast omarmt'. Volgens haar leiden sites als Facebook en Hyves ertoe dat mensen het onderscheid tussen hun online identiteit en de 'echte wereld' beginnen te verliezen. Greenfield stelt dat de volwassenen van de volgende generatie daarom hun identiteit zullen ontlenen aan de reacties van anderen op henzelf.

Sociale netwerksites kunnen een 'constante herbevestiging geven dat er naar je geluisterd wordt, je (h)erkend wordt, belangrijk bent,' vervolgde Greenfield. 'Dit is echter gelijktijdig gekoppeld aan een vervreemding van de druk van een écht face-to-face gesprek, een echte real-life conversatie, die veel 'gevaarlijker' is, omdat je geen gelegenheid hebt om een tijdje over een slim of gevat antwoord na te denken.' (5)

Narcistisch gedrag, gebrek aan empathie

Dr. Ablow, Amerikaanse psychiater en New York Times auteur van diverse bestsellers, schreef in 2010 dat veelvuldig chatten ertoe leidt dat mensen op den duur steeds slechter in staat zijn om diepgaande 'real life' relaties aan te gaan, omdat men gewend is internetcontacten die 'moeilijk' doen simpel weg te klikken.

Ook hij schreef de explosie van AD(H)D onder jongeren mede toe aan de verschuiving onder jongeren naar digitale contacten. 'Veel moderne jongeren vertonen narcistisch gedrag en denken dat zij de sterren van hun eigen digitale levens'soap' zijn... De veel grotere slachting zal bestaan uit de stille vernietiging van de waardevolle interpersoonlijke alchemie die we 'menselijke relaties' noemen. Die zijn gebaseerd op empathie en het besef dat je altijd te maken hebt met iemand die een gevoel heeft en daarom met respect behandeld moet worden,' aldus Ablow.

Mensen online als wegwerpartikelen behandeld

'Nu dreigen we echter een belangrijke grens over te gaan door buitengewoon 'giftige' boodschappen tot ons te nemen die het tegenovergestelde zeggen, namelijk dat mensen wegwerpartikelen zijn, wier enige waarde is dat ze misschien maar enkele minuten onze aandacht kunnen vasthouden.' Naast dr. Ablow waarschuwen psychiaters over de hele wereld dat met name jongeren steeds minder in staat lijken om complexe, duurzame relaties aan te gaan, omdat het hen aan voldoende empathie (inlevingsvermogen) ontbreekt. (2)

Ook de snelle verruwing op blogs en forums in de afgelopen jaren, waaronder helaas ook deze site, is een duidelijk bewijs van deze digitale afstomping en ontaarding. Steeds meer mensen hebben er moeite mee om op normale, beschaafde en respectvolle wijze op artikelen of andere bezoekers waar zij het niet mee eens zijn te reageren. Velen zijn niet (meer) in staat met inhoudelijke en onderbouwde argumenten te reageren en grijpen daarom terug op ordinaire verwensingen en grove scheldpartijen.

Hartaandoening, Alzheimer, MS, Parkinson, hersentumor

Na Japanse, Australische, Finse, Zweedse en Zwitserse wetenschappers concludeerde in 2009 ook het European Research Institute for Electronic Components in Boekarest dat de straling die door mobieltjes wordt afgegeven onder andere kan leiden tot hartaandoeningen en nierstenen. Onderzoekers van de universiteit in het Zweedse Lund ontdekten dat ook de hersenen kunnen worden aangetast, waardoor mensen sneller Alzheimer, Multiple Sclerosis en Parkinson kunnen krijgen. Australische wetenschappers waarschuwden dat in het jaar 2020 zo'n 2 miljard (!) mensen een hersentumor kunnen ontwikkelen door het veelvuldig bellen met mobieltjes.  (4)

Inmiddels is er ook bewijs geleverd dat de sterke groei van autisme mede wordt veroorzaakt door de forse toename van RF (Radio Frequentie) straling in de atmosfeer, die schade aanricht aan de hersenen van ongeboren en jonge kinderen. Het aantal baby's met autisme groeide van 1 op de 150 in 2002 naar ongeveer 1 op de 50 tien jaar later.

In juni 2011 classificeerde de Wereld Gezondheid Organisatie (WHO) de straling die door de inmiddels bijna 7 miljard mobieltjes (2011: 4,6 miljard) op de wereld wordt geproduceerd dan ook als 'mogelijk kankerverwekkend'. Hiermee werden mobieltjes in dezelfde categorie geplaatst als lood en chloroform. De WHO concludeerde dat frequente blootstelling aan straling van mobieltjes gelinkt kan worden aan kwaadaardige hersentumoren.

Straling verstoort DNA reparatie

In een recente presentatie toonde ook Devra Lee Davis, voormalig wetenschapper aan de National Academy of Sciences, de gevaren van mobieltjes aan. Davis dacht aanvankelijk dat de straling geen kwaad kon, totdat ze na uitvoerig onderzoek tot geheel andere conclusies kwam. De impact op het lichaam wordt niet veroorzaakt door het lage energieverbruik van mobieltjes, maar door de pulserende straling die ze uitzenden en die de reparatie van beschadigd DNA in het lichaam kan verstoren.

Davis zei ook dat mobieltjes de oorzaak zijn van kankertumoren die ontstaan op plaatsen die veel bloot staan aan direct contact (ook met kleding ertussen) met het apparaat. Epidemioloog en gezondheidswetenschapper George Carlo, oprichter van het Science and Public Policy Institute, stelde al jaren geleden dat de industrie nooit serieus onderzoek heeft verricht naar de gevolgen van mobiele straling. Na een 6 jaar durend onderzoek dat $ 28 miljoen kostte concludeerde Carlo in 1999 dat de straling dermate ernstig is, dat in 2010 jaarlijks zo'n 500.000 Amerikanen kanker zouden krijgen als direct gevolg van het gebruik van mobiele telefoons.

'Nieuwe generatie smartphonechips zeer schadelijk'

Vorig jaar sloegen Amerikaanse wetenschappers alarm over de nieuwe generatie microchips die voor smartphones wordt ontwikkeld. Volgens dr. Boian Alexandrov van het Center for Nonlinear Studies van het Alamos National Laboratory in New Mexico kunnen de terahertz (Thz) golven die deze chips uitzenden het menselijke DNA beschadigen en zelfs vernietigen. Deze technologie wordt nu al dagelijks toegepast bij het scannen van passagiers op luchthavens. Dr. Alexandrov vreest dat als deze chips in smartphones worden toegepast, er in de toekomst miljoenen mensen ernstig ziek zullen worden of zelfs zullen sterven. (3)


(1) The Telegraph
(2) Xandernieuws 05-03-2010
(3) Xandernieuws 11-05-2012
(4) 02-01-09: Opnieuw bewijs dat mobieltjes schadelijk zijn voor gezondheid
(5) 27-02-09: Hersenexpert: Sociale netwerksites leiden tot 'kinderlijk gedrag'

Zie ook o.a.:

01-01-13: Nomofobie -angst dat je mobieltje het niet doet- in opmars
08-04-09: Duitse wetenschappers waarschuwen tegen schadelijke effecten zendstations digitale TV

vendredi, 08 mars 2013

Les mécanismes psycho-sociaux de l’aliénation néolibérale


Les mécanismes psycho-sociaux de l’aliénation néolibérale

par Olivier Labouret

Ex: http://mecanoblog.wordpress.com/

Comment penser et affronter les bouleversements impensables qui nous affectent aujourd’hui ?

On va chercher à comprendre comment le néolibéralisme nous aliène tous collectivement, certes, mais surtout chacun d’entre nous, individuellement. Pas seulement les couches populaires, les Français moyens, les « beaufs », les lecteurs de Gala, les spectateurs de TF1 ou les électeurs qui marinent, mais vous, moi, nous tous… Tant qu’on nie cette évidence que chacun d’entre nous est étroitement, inconsciemment aurait dit Freud, conditionné par les valeurs égoïstes de la compétition marchande, tant qu’on n’a pas compris que les bouleversements qui nous affectent ne sont pas seulement de nature économique et sociale, mais de nature psychologique et individuelle, c’est à dire s’immiscent en nous jusqu’à influencer notre pensée elle-même, comment peut-on prétendre faire de l’éducation populaire, concrètement, comment accomplir une quelconque transition ? En réalité, la guerre économique est aussi une guerre psychologique. Et si l’on veut penser autrement, sortir du déni de réalité dominant, guérir du « capitalisme cognitif » qui doit faire de nous les meilleurs sur le marché de l’emploi, du savoir et de la renommée, ici sur le campus du Mirail comme ailleurs, il faut connaître parfaitement l’ennemi, même et surtout quand il est tellement sournois qu’il s’est tapi à l’intérieur de soi, dans les recoins de son psychisme, ou ce qu’on nomme aujourd’hui communément tel.

Au fond, la question est de comprendre comment la loi du marché a finalement fait pour rentrer subrepticement, mais au sens propre, à l’intérieur du cerveau, de nos cerveaux… Car ce n’est pas un vain mot, quand on sait qu’une discipline nouvelle a vu le jour et a été adoptée par les plus hauts conseillers des gouvernements occidentaux : la neuro-économie. Ces économistes au pouvoir ont intégré la technique comportementale et les neurosciences à leurs travaux. Un rapport du Centre d’analyse stratégique de 2010, officine d’experts patentés aux ordres du Premier ministre français, mais rapport co-dirigé par un conseiller du président Obama, Richard Thaler, se targue ainsi de pouvoir littéralement « rentrer dans le cerveau du consommateur », grâce en particulier à l’imagerie cérébrale, pour orienter, influencer ses choix économiques… Cela ne fait que confirmer redoutablement l’essentiel de mon propos : l’idéologie comportementale et cognitive, qui considère que l’individu, réduit à un instrument de traitement de l’information, peut être conditionné dans ses choix par un ensemble de sanctions et de récompenses, la bonne vieille méthode de la carotte et du bâton, est devenue une idéologie d’État pour les gouvernements néolibéraux : à travers un ensemble de techniques de propagande, il leur est possible aujourd’hui non seulement de conformer le comportement de chacun aux normes du marché, mais surtout de favoriser leur intégration cognitive, pour en faire une loi naturelle, incontestable… Quiconque y déroge, dorénavant, peut être ainsi déclaré objectivement, scientifiquement, souffrant sinon malade, et relever d’un traitement psychologique, et médical.

Parler de ma place de psychiatre, praticien hospitalier de service public, pour décrire ces phénomènes est une position privilégiée, car l’évolution de la psychiatrie témoigne en première ligne de cette évolution de la doctrine néolibérale : la psychiatrie constitue un miroir grossissant de ce que le système de domination économique dans lequel nous vivons est en train de faire de la subjectivité de chacun d’entre nous. La psychiatrie n’a plus en effet pour rôle de soigner des maladies mentales, strictement définies par un ensemble de symptômes, mais s’occupe désormais officiellement de programmer la santé mentale des populations, santé mentale définie négativement, par l’absence de toute déviance comportementale vis à vis de la norme socio-économique. Un autre rapport, quasi-simultané, du Centre d’analyse stratégique gouvernemental, dirigé cette fois par une professeure d’épidémiologie formée à l’école comportementaliste et scientiste canadienne, Viviane Kovess, définit en effet la santé mentale, qui est « l’affaire de tous », comme « la capacité à s’adapter à une situation à laquelle on ne peut rien changer, (ou encore) l’aptitude à jouir de la vie ». Il s’agit là ni plus ni moins de la définition de l’individu libéral héritée d’Adam Smith, voire du marquis de Sade : la recherche égoïste et concurrentielle de l’intérêt individuel fait la richesse des nations et le bonheur collectif. Viviane Kovess est l’une des promotrices d’un programme européen de santé mentale visant à conditionner celle-ci par des logiciels d’apprentissage dès l’enfance. On voit que la psychiatrie est bel et bien devenue l’instrument d’une politique européenne et mondiale de santé, ou plutôt de conformité mentale, faisant d’ailleurs l’objet en France de plans quinquennaux, soutenus par la fondation d’État FondaMental. Cette dernière a pour mission de dépister tout trouble, toute défaillance individuelle le plus précocement possible, et de les corriger par la « psycho-éducation », car ils nuisent à la compétition économique, ainsi que l’affirmait son ancienne présidente, parlementaire UMP… La psychiatrie est donc aujourd’hui vraiment une affaire d’État : elle est instrumentalisée par le pouvoir néolibéral pour lui servir de caution scientiste à sa politique gestionnaire et répressive qui ne cesse de se durcir (comme le laisse à penser la continuité de la politique d’expulsion des étrangers en situation irrégulière depuis le changement présidentiel). Elle est devenue l’arme principale du contrôle socio-économique des comportements déviants, délinquants et même simplement défaillants. Comment diable en est on arrivés là ?

Survol de l’évolution historique de la psychiatrie

La psychiatrie est née avec les lumières et a grandi avec le scientisme positiviste : dès son origine, elle a constitué un système symbolique essentiel pour la civilisation occidentale (donnant une représentation acceptable de la folie et de la finitude, par le déplacement symbolique de la souffrance, de la violence sociale vers le psychisme individuel et la science médicale). Mais ce qui se passe aujourd’hui, c’est que ce système symbolique est devenu un système de propagande au service de l’ordre néolibéral : la métaphore psychologique et médicale permet de nier la violence que celui-ci exerce, de naturaliser la norme économique dans la subjectivité, de faire rentrer la loi du marché à l’intérieur de nos neurones sinon jusque dans nos gènes… La pression normative écrasante qui s’exerce aujourd’hui sur chacun d’entre nous et dans le monde entier est ainsi niée symboliquement, par psychiatrie interposée. Comment une telle mutation s’est-elle opérée, en deux siècles d’histoire ?

Passons rapidement sur les deux guerres mondiales : à leur décours, avec Freud puis Parsons, le système symbolique médico-psychologique se prend de plus en plus pour la réalité, l’adaptation psychologique devient la norme individuelle du progrès civilisationnel. Mais c’est surtout avec la chute du mur de Berlin que ce système de croyances acquiert la force d’une conviction absolue. Avec l’effondrement du bloc communiste vient le triomphe du néolibéralisme, et le début de la troisième guerre mondiale : le seul ennemi devient l’individu, à embrigader dans la guerre économique. Ce tournant se traduit par la mondialisation de l’idéologie comportementale : tout trouble est désormais une maladie mentale. Apparaissent en effet en cascade les classifications mondiales des troubles du comportement, et en France la loi sur l’hospitalisation d’office des troubles à l’ordre public, ainsi que la circulaire instaurant la politique de santé mentale. C’est aussi le début du contrôle informatique effréné des activités humaines.

Dix ans plus tard, surviennent les attentats du World Trade Center, simple incident de parcours dans cette fuite en avant hégémonique du système néolibéral : le terroriste se cache parmi nous, l’ennemi est intérieur. On assiste alors à une avalanche de lois sécuritaires (plus de trente en dix ans). Encore presque dix ans plus tard, 2008, voici la crise ultime des SubPrimes. La bulle n’est pas seulement spéculative mais psychologique, la dépression est tout autant nerveuse qu’économique : c’est la baudruche consumériste qui éclate, l’illusion de la possession matérielle pour tous qui s’effondre. Pour sauver le capitalisme, au moins temporairement, il n’y aura pas d’autre solution que de « changer les comportements et les mentalités », projet que le président Sarkozy annoncera à plusieurs reprises. Son discours de Toulon sera très rapidement suivi du discours d’Antony instrumentalisant un fait divers, le meurtre commis par un schizophrène malencontreusement échappé d’un hôpital psychiatrique, pour annoncer le grand tournant sécuritaire de la psychiatrie : celle-ci devra dorénavant garantir le risque zéro. Vous voyez qu’il existe un rapport dialectique étroit entre science psychiatrique et crise économique…

Tout malade est un criminel en puissance, et tout individu est un malade qui s’ignore, pour peu qu’il trouve à redire à l’ordre en place : moins de 3 ans plus tard, cette dérive sécuritaire se concrétise dans la loi du 5 juillet 2011, instaurant les « soins sans consentement ». On peut, on doit désormais surveiller et traiter de force tout trouble du comportement, par des « programmes de soins » à domicile. Voici comment la psychiatrie est devenue sans coup férir une arme de dissuasion massive de tout remise en cause individuelle dérangeante du système de domination néolibéral, permettant un déni symbolique de toute contrainte, de toute violence socio-économique.

État des lieux actuel de la psychiatrie : une triple dérive qui s’accélère

Dérive scientiste : c’est donc le triomphe de l’idéologie comportementale, qui diffuse la bonne santé mentale dans l’ensemble de la société, du sommet de l’État à la dernière des classes maternelles en passant par le monde de l’entreprise, à travers les procédures d’évaluation et échelles de comportement. Cette idéologie au pouvoir est renforcée par un véritable délire scientiste : la norme comportementale a une origine biologique, tout trouble doit avoir forcément une cause médicale, organique. C’est le sens des recherches faramineuses en neurosciences et sur la vulnérabilité génétique : tous les troubles, toutes les déviances sont concernés (hyperactivité, troubles des conduites, addictions, conduites suicidaires, troubles bipolaires et labiles…). Des intérêts colossaux sont en jeu, à la fois scientistes (congrès et publications de la psychiatrie universitaire, instituts de recherche privés comme FondaMental et publics avec l’Inserm), politiques (prises de positions gouvernementales, rapports du Centre d’analyse stratégique) et industriels (poids du lobbying pharmaceutique). On a parlé des recherches en neuro-économie, il faut citer également la classification internationale DSM-5 dont la parution est imminente, et qui décrit des troubles prédictifs : désormais, il faut dépister le trouble le plus précocement possible voire avant même qu’il arrive pour le tuer dans l’oeuf !

Dérive marchande : comme dans tous les services publics, ou ce qu’il en reste, c’est le triomphe de l’idéologie managériale cognitivo-comportementaliste de la rentabilité, de l’évaluation, de la qualité, réalisant une course incessante à la performance (sélection des meilleurs soignants au mérite, et culpabilisation, mise à l’écart des incapables), parallèlement à une pénurie croissante des moyens et à un contrôle administratif renforcé, et aboutissant à une perte de toute indépendance et de toute éthique professionnelle.

Dérive sécuritaire enfin, cachant une violence institutionnelle qui s’accroît : cinq lois et deux circulaires en cinq ans, psychiatrisant toujours plus la déviance et la délinquance, et accompagnant des pratiques « soignantes » de plus en plus coercitives. La mission de la psychiatrie devient l’expertise prédictive omnipotente de la dangerosité, parallèlement à la mise en place d’un fichage généralisé des populations à problèmes, qui coûtent trop cher, pour les trier voire les éliminer en douceur. Surtout, la loi du 5 juillet 2011 instaure une société de contrôle d’un genre nouveau, à travers les soins sans consentement à domicile, autrement dit le déni psychiatrique de toute contrainte extérieure pesant sur l’individu. On assiste là à l’abolition de tout libre-arbitre, de la possibilité de penser différemment, et finalement de la vie privée, par une loi qui dicte à toute la population le bon comportement individuel. Dorénavant, chacun devra se conformer de lui-même à des normes posées comme une réalité absolue, même si il n’y consent pas. C’est l’avènement d’un État policier où la psychiatrie exerce la police des comportements, le ministère de l’intérieur psychique, conditionnant une normopathie de masse, au sens de Hannah Arendt. L’implosion psychologique remplace toute possibilité d’explosion sociale, chacun est tenu d’être surveillé et traité médicalement chez soi et en soi pour être heureux… C’est l’avènement de l’hygiénisme du bonheur obligatoire, du repli programmé dans le confort de son cocon personnel, mais aseptisé, vidé de toute distance critique, de toute altérité.

La psychiatrie resituée dans l’évolution socio-économique : la propagande néolibérale

C’est la stratégie du choc psycho-économique dont parle Naomi Klein, autrement dit l’application systématique par le pouvoir des méthodes cognitivo-comportementales de soumission (on parlera de renforcement positif et négatif, ou en plus imagé de la carotte et du bâton).

La « carotte », c’est la propagande spectaculaire et marchande du divertissement, de la consommation, et la propagande techno-scientiste (mythe du progrès, de la croissance, de l’amélioration des performances…). Elle est portée par le marketing publicitaire, les industries culturelles, la télévision, les technologies de l’information et de la communication (TIC), les jeux vidéo : tous ces moyens reposent sur le culte de l’argent roi et le star système, la promesse du bonheur et de la possession ; ils agissent par hypnose, tendant un miroir narcissique dans lequel se reflète et se leurre toute la société. Ainsi se réalise une auto-excitation vers toujours plus, une fuite en avant incessante, un emballement, comme un tourbillon qui nous emporte irrésistiblement…

Le « bâton », c’est la politique de la peur de l’ennemi intérieur, du bouc émissaire : une police de plus en plus répressive (gardes à vue, délits d’outrage, manifestations piégées, affaire de Tarnac, politique migratoire, armes non létales…) ; une justice de plus en plus intrusive et prédictive (loi LOPPSI II, loi Estrosi, fichier Hortefeux PASP, FNAEG, délinquance routière = exemple de psychologisation cognitivo-comportementale généralisée, et redoutablement efficace, de la répression…) ; un dressage éducatif de plus en plus sévère (casse de l’école par la RGPP provoquant une sélection de plus en plus élitiste, politique de prévention de la délinquance, réforme de la justice des mineurs, fichage informatique des compétences…) ; une destruction sociale accélérée (précarisation généralisée, management par l’évaluation = modèle clef décidément de la psychologisation cognitivo-comportementale universelle de la soumission néolibérale, idéologie de la lutte contre la fraude, rôle de contrôle social et technologique des travailleurs médico-sociaux eux-mêmes menacés de sanctions automatiques) ; dissuasion psychiatrique visant comme on l’a vu à renforcer le moral des troupes ou du troupeau (psychiatrisation de toute défaillance étiquetée « dépression »). Tout cela a généré en quelques années seulement d’ordre néolibéral absolu incarné par la présidence sarkozienne, une société de suspicion et de surveillance généralisée (dans laquelle les TIC jouent un rôle majeur : fichiers de police, mouchardage électronique, vidéosurveillance, géolocalisation, biométrie, fichier centralisé des Cartes nationales d’identité…) et même d’auto-surveillance où la vie privée devient transparente (TIC encore avec les réseaux sociaux, plan vigipirate, voisins vigilants, matraquage permanent, à tous les coins de rue, du message « pour votre sécurité » = emblématique de l’intériorisation psychologique de toute contrainte, de toute violence socio-économique)…

Les conséquences de cette pression normative écrasante qui se dénie comme telle : la destruction de la subjectivité

C’est le conditionnement d’un conformisme, d’une normopathie de masse marquée par la duplicité. Il s’agit pour chacun d’entre nous, de faire semblant d’adhérer à des normes de plus en plus injustes et absurdes : l’alternative se pose dans l’ensemble du champ social entre se soumettre, se démettre, tomber malade, ou résister. Illustrations : Arendt (banalité du mal), psychosociologie (Asch), Foucault (nouvelle gouvernementalité biopolitique post-disciplinaire), critiques du management par l’évaluation, telle que celle de Dejours (peur de la précarisation : oeillères volontaires, cynisme viril). Mis à part déserter ou résister, on peut donc au choix :

  • Tomber malade : c’est la dépression du burn out, qui touche les plus vulnérables, autrement dit les gens sincères et engagés. En témoignent également les épidémies récentes de suicides professionnels et de crimes de masse (Norvège, Toulouse, Denver = Batman en avant-première au cinéma : acte « fou » ? Pas tant que ça, car riche de sens en brisant le miroir spéculaire insupportable de la violence générée par « The American Way of Life »). Ainsi que les pathologies de la consommation (addictions) et de l’accélération (hyperactivité, labilité émotionnelle, troubles bipolaires…)
  • Se soumettre : la perversion narcissique est aujourd’hui la personnalité culturelle, la néo-subjectivité malade du néolibéralisme (Lasch, Dejours, Dufour, Brown, Dardot et Laval…). C’est le conditionnement généralisé d’un narcissisme conformiste et consumériste de masse voué à la jouissance immédiate. Il traduit une fuite auto-excitatrice, comme une ivresse, dans la concurrence et le profit immédiat, c’est à dire un déni de la dépression, de la vulnérabilité, et sa projection dans un bouc émissaire. Cette instrumentalisation, cette chosification d’autrui est entièrement commandée par les nouveaux modes de contrôle social (politique de santé mentale opportuniste, idéologie comportementale conquérante, course à la performance, fichage informatique omniscient…). Passons sur les analyses sociologiques du sadisme inconscient : Habermas, Bourdieu, De Gauléjac, Prigent, Méheust (politique de l’oxymore = injonctions paradoxales, euphémisation de la violence) ; et sur les conséquences historiques redoutables de cette évolution : retour de l’eugénisme (trans-humanisme), accélération insensée du temps vers ce que Hartmut Rosa décrit comme « immobilité fulgurante ».

« Remèdes » : quelques pistes pour une alterpsychiatrie

Retrouver un mode de pouvoir non abusif, réellement démocratique : l’autorité est légitime quand elle est capable de se critiquer, quand elle est reconnue comme telle car non niée symboliquement (par psychiatrie, TIC, etc.). Le rétro-contrôle individuel doit être rendu possible dans le système sociopolitique (tirage au sort, référendum d’initiative populaire, justice indépendante, etc.).

Restaurer des limites épistémologiques strictes à la psychiatrie et au travail socio-éducatif, qui ne doivent plus s’occuper du contrôle techno-scientiste de toute déviance sociale. En particulier, promouvoir une alterpsychiatrie soucieuse de la subjectivité, des droits et des libertés individuels (la véritable santé se définit comme liberté, création de ses propres valeurs – cf. Campguilhem). Une véritable psychiatrie devrait se constituer comme médiation symbolique, capable de résister sans concession à la triple dérive actuelle, scientiste, marchande et sécuritaire.

Enfin respecter les limites éthiques de l’existence, ce qui demande un « travail » personnel et relationnel (« thérapie psycho-politique ») : accepter sa vulnérabilité, avec humilité (auto-limitation, castration symbolique, etc.), prôner la décélération voire la décroissance, revendiquer la franchise, condition de la confiance. Concrètement, il va falloir se résoudre à sortir vraiment du mythe de l’enrichissement et de la performance pour accéder à l’austérité conviviale (Ivan Illich) : c’est d’abord cela, la transition.

Sur un mode comparable, une autre politique éducative est possible…

Olivier Labouret

Source : Blogs d’Attac

vendredi, 08 juillet 2011

Psychopathologie: une introduction phénoménologique

Psychopathologie : une introduction phénoménologique

par Pierre LE VIGAN

Auteur d’un ouvrage de référence sur les personnalités hystériques, Georges Charbonneau, psychiatre, est aussi éditeur et animateur de la revue Le Cercle herméneutique. Il vient de publier un livre qui condense ses travaux et réflexions – et ceux de l’école de phénoménologie psychopathologique – depuis plus de vingt ans. Cette école, parfois aussi appelé psychothérapie existentielle, reste marquée par les noms d’Eugène Minkowski (Traité de psychopathologie), Ludwig Binswanger (Mélancolie et manie, Trois formes manquées de la présence humaine), Hubertus Tellenbach (La mélancolie), Wolfgang Blankenburg (La perte de l’évidence naturelle), Arthur Tatossian (La phénoménologie des psychoses) et quelques autres. En toile de fond c’est le Martin Heidegger d’Être et temps (1927) dont les hypothèses sont sollicitées et en quelque sorte remises au travail.

C’est une entreprise ambitieuse et féconde. Le premier tome de l’ouvrage de Charbonneau est essentiellement consacré aux névroses. Il concerne aussi les personnalités pathologiques. Le second tome est consacré aux psychoses : délire et paranoïa. Il aborde donc les crises du Soi, ce qu’on appelle l’ipséité. L’ouvrage remplit pour l’essentiel son cahier des charges : ouvrir un tableau articulé et dialectique des manifestations psychopathologiques et de leurs significations comme déformation, ou altération, de la présence humaine. Certes, le plan traduit quelques flottements : les dépressions non mélancoliques donc non psychotiques sont ainsi traitées dans le tome II essentiellement consacré aux psychoses; elles eussent été plus à leur place dans le tome I, à côté du chapitre sur la fatigue et ses différentes formes. Sans doute aussi, l’usage répété de certains termes « bricolés » (ruptivité, nostrité, mienneté, chacunité, sienneté…) peut agacer : la ressource de la langue française offre bien des possibilités et c’est la grandeur d’intellectuels généralistes comme Alain Finkielkraut, Luc Ferry ou André Comte-Sponville (ou Ludovic Maubreuil ou Éric Werner) d’énoncer des choses subtiles avec les mots de tout le monde et dans une langue compréhensible par tout homme de bonne volonté. L’usage de mots complexes ou pseudo-innovants vise bien souvent à créer une barrière artificielle, qui n’est autre qu’une barrière sociale de distinction au sens de Pierre Bourdieu, et crée une désagréable atmosphère d’élitisme autoproclamé.

Il n’en reste pas moins que le lecteur aurait tort d’en rester à ce possible et légitime agacement, non plus qu’au fait que le numéro de Krisis sur la psychologie n’est pas cité alors que les proximités de certaines des analyses développées avec celles du livre de Charbonneau sont évidentes et connues de l’auteur. Qu’importe. Krisis veut justement dire jugement. Et ce sont les idées qu’il faut juger. Or, dans le présent ouvrage, l’analyse des malaises dans l’homme, des délires, des décrochages existentiels, des ruptures d’avec le monde commun, de l’hystérie en termes de position dans l’espace, des pathologies de la personnalité en termes d’expérience du monde, et en termes d’analyse de l’humeur  c’est-à-dire le thymique, constituent de vrais points d’appui pour chacun d’entre nous, confronté à notre fragilité d’être-jeté-dans-le-monde. Par ailleurs, des développements de concepts sont bienvenus, tels l’historialité, l’auroréal et le vespéral (ou, pour le dire plus simplement, le matinal et le couchant) qui, pour avoir déjà été analysées (souvent par la sémiotique, avec notamment Jacques Fontanille et Claude Zilberberg) avaient rarement été synthétisés de manière aussi complète et dans une perspective unificatrice. Un livre indispensable pour mieux se comprendre, soi-même et les autres, soi-même avec les autres, soi même jamais tout à fait comme les autres.

Pierre Le Vigan

Georges Charbonneau, Introduction à la psychopathologie phénoménologique, MJWf éditions, diffusion Vrin, tome I, 236 p., 20 €, tome II, 215 p., 20 €.

Article printed from Europe Maxima: http://www.europemaxima.com

URL to article: http://www.europemaxima.com/?p=1991

dimanche, 21 novembre 2010

"Le crépuscule d'une idole" de Michel Onfray


Le crépuscule d'une idole (M. Onfray)


« Le crépuscule d’une idole » est une charge de Michel Onfray contre Freud. Nous lui devons le distrayant spectacle de la secte psychanalytique en émoi. Toutefois, au-delà du côté ridicule de cette bataille d’intellos et sous-intellos (1), il y a le texte.

Note de lecture, donc. Histoire de savoir de quoi on parle.




D’emblée, notons que le rapport d’Onfray à la psychanalyse est… psychanalytique. Il l’avoue, sans faire de chichi : pour lui, Freud, c’est important. Le petit Michel, voyez-vous, a subi l’orphelinat (avec prêtre pédophile en option gratuite et automatique, d’après ce qu’il dit – d’où, sans doute, sa rage antichrétienne).

Trois auteurs l’aident à s’évader de cet « enfer » : Marx, Nietzsche, Freud. Alors soyons clair : il est évident que pour Onfray, flinguer Freud est une manière de liquider ce qu’il y a de psychanalytique dans sa propre pensée. Onfray réglant ses comptes avec Freud, c’est un peu l’intello français anticatholique de base faisant un choix. Nietzsche, et pas Freud (2). Avec la répudiation discrète de Marx, auquel il dit maintenant préférer Proudhon, Onfray achève de définir une identité idéologique. Une quête identitaire qui, visiblement, nourrit depuis pas mal de temps la démarche de cet intello français typique, perpétuellement à la recherche de maîtres. Des maîtres qu’il va idolâtrer, puis brûler – et bien sûr il faut qu’il les idolâtre, pour ensuite les brûler.

Très classique, tout ça : quand on analyse le parcours de nos intellos, on trouve souvent, très souvent, un traumatisme dans l’enfance, au départ de ce qui va devenir leur « raison », et qui est, d’abord, la rationalisation de leur sensibilité. Celle d’Onfray est caractérisée par un très fort individualisme (doublé d’un hédonisme revendiqué), une volonté d’indépendance intellectuelle farouche (d’où l’appétit de rupture avec toute « classe sacerdotale ») et, d’une manière générale, un enfermement non su dans les catégories modernes. Vraiment, une caricature d’intellectuel français. Ce que les héritiers des Lumières françaises, imprégnés malgré eux d’une culture catholique détestée mais intériorisée, et en outre un tantinet enfermés dans leur narcissisme intellocrate par l’héritage de mai 68, peuvent comprendre de Nietzsche : voilà, en gros, la  pensée d’Onfray.

Le côté positif du personnage est sa capacité à produire une pensée iconoclaste. Onfray déboulonnant une idole, c’est logique, c’est dans la nature du bonhomme.

Or donc, le jour est venu où, ayant fini de déboulonner « l’idole » judéo-chrétienne, notre intello français s’avisa qu’il convenait à présent de déboulonner une idole juive, ou réputée telle. Et notre intello, donc, s’attaqua au bon docteur Sigmund…

C’est là que les ennuis du philosophe commencèrent, mais c’est aussi là qu’il devint vraiment iconoclaste – puisque, par les temps qui courent, on obtient son diplôme d’hérétique en attaquant la psychanalyse, et certes pas en décochant un coup de pied rageur au catholicisme européen, ce corps immense et moribond.

Cette inscription dans la catégorie des hérétiques du moment vaudra à Onfray de figurer parmi les auteurs commentés sur ce modeste blog – ce sera notre humble contribution à son excommunication par les cléricatures dominantes.




Onfray analyse l’œuvre de Freud comme un travail avant tout autobiographique. En gros, il ne nie pas que les constats du bon docteur aient été justes le concernant, lui, personnellement. Il nie que ces constats soient vrais pour l’ensemble de l’humanité. Pour Onfray, Freud n’est pas un scientifique : c’est un philosophe à la rigueur. Et, en outre, un philosophe de seconde zone.


Freud a menti sur sa biographie, ou en tout cas, disons qu’il l’a fortement arrangée. Pourquoi ? Parce que, nous dit Onfray, il éprouvait un besoin pathologique qu’on parle de lui en bien. Il ne supportait pas la critique. Et Onfray, ici, de suggérer que le bon docteur, toute sa vie, a cherché à donner de lui-même une image conforme à celle que sa mère se faisait de lui (la dénonciation du rôle de la mère juive n’est pas loin, mais Onfray s’arrange pour frôler le précipice sans y tomber). Exemple caricatural : Freud est cocaïnomane, donc la cocaïne permet de guérir certaines pathologies – voilà la méthode freudienne.

Pour dissimuler les conditions dans lesquelles il a bâti son système, Freud, à 29 ans, a brûlé tous ses papiers. Objectif selon Onfray : présenter la psychanalyse comme un « coup de génie », nier qu’elle soit le résultat d’une démarche à la scientificité douteuse.

D’où encore, selon Onfray, la volonté de Freud de « détruire Nietzsche » : il s’agit avant tout de dissimuler que la psychanalyse est née dans le contexte intellectuel créé par Nietzsche (un meurtre du père, en somme !). Idem pour Schopenhauer : si Freud l’a rejeté, c’est pour ne pas avouer que sa théorie du refoulement n’est qu’une resucée du « monde comme volonté et comme représentation ». Idem, au fond, pour toute la philosophie : Freud prétend s’en être détourné à cause de son caractère « abstrait » : en réalité, ce qu’il veut cacher, c’est le caractère abstrait de son œuvre à lui.

Pourquoi cette imposture ? Parce que Freud est un aventurier, obligé de dissimuler qu’il est un aventurier. La thèse d’Onfray a le mérite de la clarté : Freud ne veut pas la vérité scientifique, il veut les honneurs, l’argent, la célébrité. Mais pour avoir les honneurs, l’argent, la célébrité, il doit prétendre avoir découvert une vérité scientifique qu’il a longuement cherchée (l’inconscient), et trouvée à l’issue de travaux très sérieux. Cette vérité, en réalité, était déjà toute entière dans Nietzsche (la volonté de puissance), Schopenhauer (le vouloir vivre), et quelques autres (l’inconscient de Hartmann, et même, déjà, le conatus de Spinoza). Simplement, Freud l’habille d’un vernis de fausse scientificité, pour la revendre au meilleur prix. Si, au passage, il faut assassiner la philosophie, nier qu’elle possède une valeur spécifique, pour tout ramener à une catégorie naissante des « sciences humaines », tant mieux : une main lavera l’autre, la destruction de la filiation permettra de cautionner l’imposture. Freud est un médiocre philosophe, qui se déguise en grand médecin. Et donc, la psychanalyse n’est pas une science, c’est la philosophie d’un petit philosophe.

Après cette première salve d’artillerie à longue portée, Onfray part à l’assaut pour l’attaque à la baïonnette. Et là, c’est du corps à corps, on achève le blessé au couteau de tranchée.

La philosophie de Freud se résume, nous dit Onfray, à une banale pathologie de la relation au père, à la fois humilié (donc castré) et humiliant (donc castrateur). Le complexe d’Œdipe n’est pas une vérité universelle, mais tout simplement une pathologie spécifique à la famille du petit Sigmund, qui prend son cas pour une généralité. On nage, chez Freud, dans l’autobiographie vaguement hystérique d’un adulte qui n’est jamais parvenu à échapper à une mère fusionnelle, qui n’a pas pu construire son identité sexuelle normalement (collision des générations dans la famille), et qui, pour se dissimuler qu’il est un fils à maman, va présenter sa pathologie comme une règle générale. Onfray consacre une centaine de page à l’analyse des pathologies freudiennes ; un ami à moi, menuisier de son état, sait très bien résumer ça en une phrase définitive : ça sent le slip de pédé.

Toute la pensée de Freud, nous explique Onfray, tourne autour de sa pathologie propre. Il veut tuer Moïse, créateur de la religion où il fut élevé, parce que Moïse est assimilé à la figure paternelle (Freud interdit à sa femme, fille de rabbin, d’élever leurs enfants dans la religion). Il déteste le président Wilson au seul motif que celui-ci a pris son père en modèle. Il y a, chez Freud, une rage anti-patriarcale qui a plus à voir avec la névrose qu’avec la méthode scientifique.

Voilà, à très grands traits et sans entrer dans les détails, la théorie d’Onfray sur Freud. C’est un carnage.




La théorie est étayée par une analyse approfondie des méthodes du bon docteur Sigmund. Où l’on apprend en vrac :

-          Que Freud s’est vanté de guérisons imaginaires, les patients en cause ayant généralement fait des rechutes (limite de l’effet placebo),

-          Qu’il a lui-même présenté sa théorie du « père de la horde originaire » comme un « mythe scientifique » (soit un aveu du caractère non-scientifique de la théorie),

-          Qu’il a lui-même présenté la psychanalyse comme l’incarnation de « l’esprit du nouveau judaïsme », c'est-à-dire non comme une science, mais comme une religion qui se substitue à une autre religion (ici, Onfray fait une remarque inattendue et intéressante : Freud aurait-il été ami de l’Egypte, et ennemi de Moïse, précisément parce que la terre des Pharaons fut une des rares civilisations connues pour pratiquer l’inceste à grande échelle ? – Onfray va jusqu’à parler d’un antisémitisme latent chez Freud, au-delà d’un antijudaïsme évident),

-          Que les patients de Freud et de certains de ses disciples immédiats ont une fâcheuse tendance à se suicider après quelques années d’analyse (dont, entre autres, Marilyn Monroe, qui, en léguant une partie de sa fortune à la Fondation Anna Freud, a beaucoup fait pour les finances de la secte),

-          Que le bon docteur a beaucoup écrit sous l’emprise de la cocaïne, ce qui, on l’admettra, n’est pas franchement un gage d’objectivité scientifique (au passage, on peut remarquer que Freud a si bien soigné un patient à grands coups de cocaïne par injection… que ledit patient en est mort !),

-          Que Freud annonça avoir renoncé à l’hypnose à cause de son caractère « mystique », mais que ce renoncement arriva comme par hasard après qu’il se fut avéré qu’il était mauvais hypnotiseur,

-          Qu’il a ouvertement reconnu avoir abandonné la balnéothérapie parce qu’elle n’était pas rentable financièrement,

-          Etc. etc.

Plus intéressant que ce dossier à charge lourd mais anecdotique au regard des enjeux réels, Onfray attaque le freudisme, et pas seulement Freud. Et bien sûr, c’est là qu’est le vrai débat : au fond, que le bon docteur n’ait été qu’un charlatan n’a aucune importance ; ce qui est important, c’est de savoir si l’impact de sa pensée est positif ou négatif. Un charlatan médical peut très bien être un philosophe de grande portée ; est-ce le cas de Freud ?

Onfray accuse Freud d’avoir plongé l’esprit occidental dans un rapport magique au monde. Sa philosophie est caractérisée par une dénégation inconsciente du corps, dont le primat accordé au psychisme n’est que le masque. Ce déni du corps traduit, en profondeur, un refus de l’incertitude, une volonté obstinée de ne pas concéder à l’humain sa part de mystère : l’inconscient freudien est une pure abstraction, qui se révèle par des phénomènes que l’existence de cette abstraction permet de relier arbitrairement. Le discours freudien est donc celui d’une reconstitution artificielle d’un monde parallèle, où le pouvoir du mage transcende les limites de la connaissance humaine. C’est une pensée magique, et, plus grave, c’est le point de départ d’un univers sectaire : le monde freudien, déconnecté du réel, fournit en réalité un placebo à des malades eux-mêmes atteints d’une semblable déconnexion. Le psychanalyste ne guérit pas, il cautionne la maladie, il la rend acceptable par son patient. Fondamentalement, c’est de la magie noire.

Cette magie, explique Onfray, est dangereuse parce qu’elle repose sur un ensemble de mythes agissants. Si vous vivez dans un monde où l’on vous dit que tout est sexe, au bout d’un moment, dans votre esprit, tout sera effectivement sexe (surtout si ce discours vous libère d’un puritanisme étouffant). Si vous vivez dans un monde où l’on analyse toute relation comme perverse, alors toute relation deviendra effectivement perverse (surtout si vous vivez dans un monde dont les  structures socio-économiques sont réellement perverses). Et si en plus, vous vivez dans un monde où les tenants des thèses en question pratiquent l’intimidation à l’égard de quiconque ne partage pas leurs certitudes, vos réflexes d’obédience viendront renforcer l’impact pathogène du discours sectaire dans lequel votre société est enfermée. Ne perdons pas de vue qu’à travers le Comité Secret de la Société psychologique et ses ramifications à travers toute l’Europe, la psychanalyse s’est, très tôt, organisée comme une franc-maçonnerie particulièrement sectaire, dont les affidés chassaient en meute – d’où la dictature intellectuelle des milieux freudiens dans les intelligentsias.

Sous cet angle, on sort de la lecture d’Onfray avec en tête une hypothèse : Freud se rattache peut-être à la catégorie des faiseurs « d’horribles miracles », pour parler comme René Girard – il crée une peste, la répand dans la société en jouant sur les mimétismes, et se vante ensuite de pouvoir guérir du mal qu’il a lui-même créé. C’est en effet ainsi, explique Girard dans « Je vois Satan tomber comme l’éclair », que procédaient les thaumaturges du paganisme tardif – dans les catégories chrétiennes, Freud serait donc un faux prophète, un antéchrist.

Qu’Onfray n’ait pas anticipé la formulation de cette hypothèse, parmi les réactions possibles de son lecteur, se laisse bien voir à la dernière partie de son livre, où il nous présente le Freud « réactionnaire » – rappelons ici que Freud réaffirme, à travers la théorie de la sublimation, un interdit de l’inceste (fût-ce pour y voir la source de toutes les névroses). Et, à juste titre, Onfray nous fait remarquer que cette manière de poser le problème débouche, mécaniquement, sur une vision du monde très noire : rares seront les hommes heureux, car rares seront les hommes qui sauront accorder leurs désirs et leurs possibilités, donc la règle est la compétition pour le peu de bonheur disponible, presque un concours de bites, au fond, et que le meilleur gagne ! (sous cet angle il est évident que le freudisme est en partie une idéologie bourgeoise, voire un proto-fascisme, et en tout cas un nihilisme).

Et cependant, on sort de cette cinquième partie avec un sentiment d’inachevé…

En fait, Onfray passe à côté de la conclusion qui aurait dû couronner sa charge. On soupçonne ici que, pour dire les choses simplement, l’intello d’Argentan ne s’est jamais remis de son passage chez les curés (pédophiles d’après lui, et qui en outre lui auraient interdit de se branler). Résultat : chez Onfray, il manque l’essentiel.

Onfray ne peut condamner l’instrumentalisation du désir qu’au nom du désir, parce qu’il ignore, ou en tout cas néglige, la notion d’Amitié (au sens aristotélicien). C’est pourquoi, à ses yeux, il ne peut y avoir que deux camps : ceux qui veulent réprimer le désir (où il range Freud), et ceux qui veulent le libérer (où il se range). Puisque Freud décourage les hédonistes, c’est que Freud est un réac : voilà la conclusion d’Onfray – qui montre ici les limites de son positionnement, et passe donc complètement à côté de la question où, pourtant, son travail aurait dû l’amener : est-ce que le fond du problème, chez Freud, ce ne serait pas tout simplement une certaine incapacité à aimer ? A s’oublier soi-même ? Et si, pour sortir de la névrose, il ne fallait tout simplement admettre que l’on doit s’occuper d’autre chose que de soi ?

Autant de questions qu’Onfray, profondément individualiste, irréductiblement moderne, ne peut pas poser, parce qu’il ne peut pas les penser. Pour Onfray, le monde se réduit à un face-à-face entre phallocratie et libération sexuelle : il n’a pas remarqué que ce ne sont là, fondamentalement, que deux figures possibles d’une même réduction de l’Agapè à l’Eros. En quoi, et il l’avoue d’ailleurs à demi-mots dans sa conclusion, Onfray ne peut pas, à ce stade, se libérer vraiment de l’emprise de Freud…

( 1 ) Les lecteurs désireux de se détendre pourront se régaler de ce morceau de bravoure, offert par un « psy » tellement caricatural qu’on a peine à croire au premier degré : voici l’impossible remix de « Freud est grand et je suis son prophète » sur un sampling d’Offenbach, la vie parisienne, « Yé choui bréjilien y’ai dé l’or » (ne pas manquer).

( 2 ) Sur le sous-nietzschéisme d'Onfray, à lire très bientôt sur ce blog un résumé de la critique de Nietzsche par Lukacs. Qu'il soit bien entendu que cette note de lecture ne vaut pas approbation de la position d'Onfray dans l'absolu.


vendredi, 01 octobre 2010

Neonazi wordt orthodoxe jood

Neonazi wordt orthodoxe jood

Ex: http://yvespernet.wordpress.com/

Een opmerkelijk verhaal uit Polen. Daar ging een vrouw op zoek naar haar afkomst, waardoor ze ontdekte dat ze van Joodse afkomst is. Nogal pijnlijk wanneer je rekening houdt met het feit dat haar vriend een overtuigde neonazi was toen. En met “toen” bedoeld ik wel degelijk een voltooid verleden tijd. De man ging immers zelf op zoek naar zijn afkomst en ontdekte dat hij ook van joodse afkomst was. Na een paar dagen stevig drinken om dit te doen bezinken, besloot hij zijn leven om te gooien.

De neonazi van toen is een orthodoxe jood nu. Of hoe de dingen in de wereld kunnen veranderen. Het ganse verhaal is hier te lezen en te bekijken: http://edition.cnn.com/2010/WORLD/europe/09/23/poland.jew...

mercredi, 15 septembre 2010

Elisabeth Badinter bezweifelt einen Unterschied zwischen Kindern und Idioten

ellen-kositza.jpgEllen KOSITZA:

Elisabeth Badinter bezweifelt einen Unterschied zwischen Kindern und Idioten

Ex: http://www.sezession.de/

Wo spielt denn bloß dieses Szenario, das diese Woche von ungezählten Medien als „weiche“  Konkurrenz zu Sarrazin aufgegriffen wird? Die Rede geht von einer Rückkehr des Muttermythos, und zwar in bedrohlichem Ausmaß. Es gebe immer mehr Frauen, die sich von einem „naturalistischen Feminismus verführen“ lassen.

Es handele sich um verblendete Muttertiere, die „nur“ wegen eines oder mehreren Kinder „gleich einige Jahre zu Hause bleiben“ und sich mit einer kindverbundenen Lebensweise auch noch als „authentische, naturverbundene und weniger konsumorientierte Avantgarde“ fühlen.

Bewerkstelligt, so heißt es, habe diesen Sinneswandel mitnichten die Offensive etwa einer Ursula von der Leyen, die vor Jahr und Tag einen „konservativen Feminismus“ zum Leben erwecken wollte – der freilich das Gegenteil einer Rückbesinnung auf mütterliche Tugenden implizierte. Nein, dieser gegenaufklärerische Feminismus, der „Mutterschaft als etwas Erhabenes verehrt“, sei das Resultat einer „Heiligen Allianz der Reaktionäre“. Nicht die üblichen Verdächtigen wie Kirche und politisch Konservative, sondern ein Klüngel aus Ökologen, Esoterikern, Ärzten, Verhaltensforschern, Stillorganisationen und 68er-Töchtern, die die mühsam errungene Gleichberechtigung der Geschlechter wieder ins Wanken bringen. Das Patriarchat schlägt zurück – unter weiblicher Mithilfe.

 Der Leser reibt sich die Augen: Welcher Ort, welche Zeit wird denn hier verhandelt?

 Le-conflit-la-femme-et-la-mere-Elizabeth-Badinter.jpgEs ist Elisabeth Badinter, seit Jahrzehnten Frankreichs (liberale!) Vorzeigefeministin, die ihr Land derzeit von einem massiven roll back in punkto Emanzipation bedroht sieht. Ihr Buch Le conflit. La femme et la mère, das in Frankreich gleich nach Erscheinen auf Platz 1 der Verkaufslisten schnellte und heiß diskutiert wurde, ist ein Plädoyer für die Abtrennung der mütterlichen Sphäre von der weiblichen Identität.

Der Mutterinstinkt sei eine Erfindung: Mit dieser These hatte Badinter vor dreißig Jahren Furore gemacht. Heute beweise aus ihrer Sicht die wachsende Gruppe der childfree – der bewußt kinderlosen Frauen-, daß es keine “universelle oder wesentliche Eigenschaften“ gebe, die Frauen von Männern unterscheide. Gesetzt, es sei der Fall, daß jede(r) heute frei seine „Rolle“ wählen könne. Was ist es dann, das Badinter zutiefst besorgt zur Feder greifen läßt? Zweifelt sie etwa die gleichsam naturgegebene, zumindest seit über 200 Jahren erstrittene Autonomie und die seit langem etablierte Selbstbestimmtheit der französischen Frau an? Es gibt keine staatlichen, noch weniger steuerliche Eingriffe, die Frauen „an den Herd“ binden wollen. Daß nun etwas mehr Frauen in Frankreich ihre Kinder einige Monate stillen wollen, geschieht aus freien Stücken. Badinter hält diese neue „freiwillige Dienstbarkeit“ für brandgefährlich.

Während mindestens 60% der deutschen und noch weit mehr der skandinavischen Frauen ihren Säugling ein Vierteljahr nach der Geburt wenigstens teilweise mit Muttermilch versorgen, sind es in Frankreich nicht mal 20%. Tendenz allerdings: steigend. Und das findet Badinter – auch mit Verweis darauf, wie unfein und lächerlich der Stillvorgang jahrhundertelang in bürgerlichen Kreisen galt – besorgniserregend. Sie sieht eine Front von „Still-Ayatollahs“ am Werk, eine Bande, die zudem Gerüchte von der Förderlichkeit des Co-Sleepings (Kleinkind im Bett der Eltern, ein altes Eva-Herman-Thema) und einer engen Mutter-Kind-Bindung in die Welt setzten.

Badinter, die selbst während ihres Studiums drei Kinder zur Welt brachte, ist enttäuscht, daß nun selbst – und gerade! – die Töchter jener Feministinnen, die einst unter der Parole „Ich Zuerst!“ sich von der Knechtschaft gegenüber dem Baby und „den Machos zu Hause und am Arbeitsplatz“ befreit hätten, sich nun dem Druck einer „Gute-Mutter-Ideologie“ beugten. Klingt fast, als herrsche ganz privater Zwist im Hause Badinter…

In ihrem Heimatland stieß das Buch der emeritierten Professorin auf ein geteiltes Echo – und gelangte zwischen die Fronten. Selbst emanzipierte Grünen-Politikerinnen schimpften sie eine „Steinzeit-Feministin“. In der Tat fällt Badinter trotz einiger interessanter Fragen, die sie stellt, hinter ihr Niveau zurück.

Ist es tatsächlich angebracht, die Richtlinien der weltweit tätigen La Leche League, einer Stillorganisation mit weltweitem Tätigkeitsradius, aufzufächern, als handle es sich um eine Terrororganisation? Badinter zählt seitenlang die „angeblichen“ Vorteile des Stillens auf, um dann allein eines mit Bestimmtheit zurückzuweisen: Stillen macht nicht intelligentere Kinder. Sie klagt, das Eltern, die bereuen, je Kinder bekommen zu haben, heute nicht zu Wort kämen oder sich nicht mehr trauten, diesen Freiheitsverlust einzugestehen. Noch 1970 hätten 70% von 10.000 Befragten erklärt, nein, rückblickend hätten sie besser keine Elternschaft angestrebt. Der Vollzeitmutter eines Kleinkinds könne es schließlich noch heute vorkommen, als würde sie „den ganzen Tag in Gesellschaft eines Inkontinenten und geistig Zurückgebliebenen verbringen“. Fast scheint es, als würde Badinter stillende Frauen, solche, die ohne Narkotika ihre Kinder zur Welt brachten und am Ende noch so verrückt sind, ihre Kinder in Stoffwindeln zu wickeln und selbst zu bekochen, ebenfalls den Geistesschwachen zurechnen.

Jedenfalls gehören sie nach Badinters Wertung nicht zu den Frauen, die es sich selbstbewußt herausnehmen, über ihren „Geist, ihre physische, emotionale und sexuelle Energie frei verfügen zu können.“ Die Französin sei traditionell eine Rabenmutter, sagt Badinter stolz, und aus ihrer Sicht führe alles andere zu einer Krise der Gleichberechtigung.

Hartnäckig - diese Klage durchzieht das Buch - hält die Autorin an ihrer Ansicht fest, daß die heutige Gesellschaft kinderlose Frauen „tiefgreifend“ ächtet. Man staunt. Ist das so, in Frankreich? Gibt es dort keine Pendants zu unseren Thea Dorns, Sabine Christiansens, Anne Wills und Angela Merkels, die hierzulande durchaus angesehene Positionen in der Öffentlichkeit bekleiden?

Ein Punkt in Badinters Buch ist immerhin interessant. Sie konstatiert, daß sich das Idealbild der Mutter nicht mehr mit dem der zeitgenössischen Frau decke. Dadurch verschrieben sich Frauen – Mütter wie Kinderlose – häufig einer „Logik des Alles-oder-Nichts.“ Heißt: Sich hervorragend auf dem Arbeitsmarkt zu positionieren ist eine ähnlich lebensfüllende Aufgabe wie die, eine 1a-Mutter zu sein. Beides zugleich will Frau sich nicht zumuten. Die französischen Frauen stünden deshalb bis heute gemeinsam mit den ebenfalls ungern stillenden und in der Mehrzahl außerhäuslich arbeitenden Isländerinnen und Irinnen an der europäischen Sitze der Gebärquoten, weil hier die frühzeitige Fremdbetreuung der Kinder nie übel beleumundet war und die meisten Mütter vollzeiterwerbstätig sind. Umgekehrt ist es in „gebärfaulen“ Ländern wie Deutschland, Japan und Italien. Dort sind bzw. waren Krippen eine Rarität, und darum zögerten Frauen die Geburt auch nur eines Kindes möglichst lange heraus. Heißt: Wenn man die Französinnen noch länger mit Vorstellungen traktiert, sich selbst um ihre Kinder zu kümmern, werde auch dort die Geburtenrate sinken.

 Die Argumentation besticht an der Oberfläche. Erweitert man aber den Blick – etwa auf die Verhältnisse im frauenerwerbsreichen, aber kinderarmen Mitteldeutschland, auf den Gebärstreik russischer Frauen oder auf die relativ hohen Geburtenziffern in den USA bei einer mäßigen Frauenwerbsquote gerade außerhalb prekärer Verhältnisse – dann beginnt auch diese Theorie zu schwanken. Man darf gespannt sein, wie Badinters eben in Deutschland erschienes Buch Der Konflikt. Die Frau und die Mutter über die vermeintliche schleichende Wiederversklavung der Frau hierzulande aufgenommen wird. Emma und FAZ hatten bereits im Juli großflächig versucht, die Debatte – im Sinne Badinters – anzuheizen, diese Woche gaben zahlreiche Blättern,von Spiegel bis Zeit (gewohnheitsmäßig mies geschrieben von Susanne Mayer, die´s für nötig befindet zu erwähnen, daß  Badinter Jüdin ist), der Französin das Wort.

lundi, 30 août 2010

L'ennui et la condition humaine

L’ennui et la condition humaine

par Pierre LE VIGAN

1113852222.jpgLe Magazine littéraire consacrait jadis un dossier à l’ennui (n° 400, juillet – août 2001) sous le titre : « Éloge de l’ennui. Un mal nécessaire ». En d’autres termes, il s’agissait d’une interrogation sur la positivité de l’ennui au travers une enquête sur l’ennui au travers le travail de divers écrivains, notamment Flaubert, Proust, Pascal, Beckett, Moravia, Cioran.

Le point de départ littéraire de la question se justifie. Montaigne relève que l’écriture est un remède contre l’angoisse de lire. La lecture est en effet inséparable de l’ennui. Plus précisément, elle se pratique sur fond de vacuité : sur ce fond sans fond que Flaubert appelle « marinade ». Mais de quel ennui est-il question ? C’est selon. C’est pourquoi une  généalogie de la notion est ici nécessaire.

Sénèque distingue l’ennui du chagrin. Ce dernier a généralement des causes précises, comme la douleur. L’ennui est plus vague et plus insidieux. Dans les Lettres à Lucilius, Sénèque voit bien que l’ennui peut aller avec l’agitation, et donc peut être une « activité oisive » : un divertissement impuissant à guérir de l’ennui. Comme remède à l’ennui, Sénèque propose l’activité qui remplit la vie, mais une activité sans se projeter dans l’avenir, une activité d’ici et pour maintenant. Parmi ces activités peut se situer l’écriture, non pas comme divertissement, non plus comme recherche esthétique (une création qui ne serait pas tout à fait une activité), mais comme art de s’appliquer dans l’effectuation des choses. Comme art, aussi, de gérer son emploi du temps. Car l’ennui, comme état de « plein repos » (Pascal), est le fond de la condition de l’homme. Quand l’homme est en repos, il repose sur quoi ? Sur rien. D’où la nécessité de se détourner du repos – d’un repos comme gouffre, d’un repos sans fatigue qui n’est alors qu’une chute. Corollaire inquiétant : si l’homme ne doit jamais être en repos, ne doit-il jamais faire retour sur soi ? L’état de réflexion serait en lui-même  source d’angoisse, de rupture de l’élan vital, d’acédie et d’ennui. C’est contre cette conception pessimiste – la lucidité inséparable de la dépression – que s’élève le janséniste Nicole. « L’ennui, soutient Nicole, touche l’âme quand elle est privée de cet aliment indispensable que sont pour elle les pensées » (Laurent Thirouin).

Pascal, de son côté, ne considère pas que les divertissements suppriment les côtés positifs de l’ennui que sont le sentiment de la gravité des choses et de la fragilité de notre être dans le monde. La légèreté du divertissement n’est pas une faute : elle protège, et c’est tant mieux, contre l’excès d’angoisse. C’est au fond une  forme de lucidité que de rechercher le divertissement. Il faut savoir « être superficiel par profondeur », comme Nietzsche le disait des Grecs. En d’autres termes, pour Pascal, c’est parce que l’ennui a sa place, mais ne doit avoir rien que sa place, que le divertissement a aussi sa place. Même si le seul vrai divertissement positif, c’est-à-dire le seul remède authentique à l’ennui, devrait venir de l’intérieur, et être la recherche constante du chemin qui mène à Dieu.

Dans la grande réhabilitation d’une nature humaine sans Dieu qu’opèrent les philosophes des Lumières, l’ennui comme péril devient le moteur de la recherche du beau, mais aussi bien du terrifiant que du « sublime » (Burke). Face à l’ennui d’un bonheur possible mais qui n’est jamais gai, l’effusion religieuse, ou amoureuse, ou les deux à la fois, apparaît une voie naturelle. Comme les Anciens, les philosophes des Lumières redécouvrent que la vie ne peut qu’osciller entre une léthargie qui n’est pas sérénité, et une inquiétude qui pousse, au mieux, à l’action pour l’action, au pire à l’agitation. « Vous me mandez que vous vous ennuyez, et moi je vous réponds que j’enrage. Voilà les deux pivots de la vie, de l’insipidité ou du vide », écrit Voltaire. « Ou l’on baille ou l’on est ivre », résume de son côté Diderot.  L’équilibre est ainsi difficile « entre la léthargie et la convulsion » (Sénac de Meilhan).

Le romantisme fait une grande place à l’ennui : « ennui d’exister » chez Senancour, désabusement chez Mme de Staël, « analyse perpétuelle » incapacitante chez Benjamin Constant. De son côté, Chateaubriand donne de l’ennui une interprétation particulière en écrivant : « On habite avec un cœur plein un monde vide; et sans avoir joui de rien, on est désabusé de tout ». L’ennui peut ainsi se nourrir du sentiment de n’être pas né pour le monde tel qu’il est : pas né pour le monde de la Révolution française (Adolphe de Custine), pas né non plus pour le monde de la Restauration et de la France post-napoléonienne et post-héroïque (Julien Sorel).

Au-delà de l’esprit du temps, ou du désaccord avec l’esprit du temps, l’ennui, comme le voit bien Stendhal, est une disposition psychologique, un sentiment profond d’incomplétude, d’impossibilité de saisir et de se saisir. « Notre plus grand ennemi est le temps » explique de son coté Alfred de Vigny. Et c’est de l’usure du temps, de l’usure par  le temps qu’il s’agit dans le romantisme. De fait, quand le temps ne permet pas une mise en tension du présent, ce dernier s’étire à l’infini, dans une durée torpide et Pise. Mais une durée qu’un souffle suffit à soulever. « L’ennui du constamment nouveau, l’ennui de découvrir sous la différence des choses et des idées, la permanente identité de tout, […] l’éternelle concordance de la vie avec elle-même, la stagnation de tout ce que je vis, au premier mouvement tout s’efface » (F. Pessoa, Le livre de l’intranquillité, Christian Bourgois Éditions, 1988). L’action sauve de l’ennui, d’où la supériorité de l’écriture sur la lecture.

Cet ennui qui est presque une figure du mal, voire du péché se trouve telle une « torture morale » (Pierre-Marc de Biasi) chez Baudelaire. L’introspection amène l’homme à se voir lui-même comme « une oasis d’horreur dans un désert d’ennui ». Cet ennui écœuré est tout différent de la sensibilité atmosphérique de Gustave Flaubert. Car c’est la question de l’identité, vue d’une façon très moderne, qui est au cœur non pas de l’ennui flaubertien mais bien plutôt de la mélancolie flaubertienne c’est-à-dire de son extrême et douloureuse attention aux questions du sens. « Quelque chose d’indéfini vous sépare de votre propre personne et vous rive au non – être », écrit-il. Ce « quelque chose d’indéfini », c’est l’énigme de l’« ennui profond » (Heidegger), c’est cette profondeur sans fond qui est l’exister lui-même. L’ennui, ainsi, n’est pas le contraire de la jouissance. Il en est la mesure même. C’est parce que l’ennui menace toujours que la jouissance est possible et qu’elle est nécessaire. Car l’ennui est moins ce qui est  que ce qui éloigne de ce qui est. Il est une fatigue comme prédisposition de l’être. Il est ce qui « suscite le désir de rien » (Jean Roudaut). Mais le désir de rien est encore un désir; c’est l’ennui des bouddhistes : un vide qui manifeste le plein. Un vide qui est volupté.

Tout autre est l’ennui qui vient de la révélation que « tout est déjà fini », que l’adhésion aux choses est précisément la chose la plus difficile du monde. C’est l’ennui de Cioran, l’ennui occidental, ennui d’une civilisation du sujet, et à ce titre un ennui fécond, un ennui qui pousse à l’écriture, comme l’écrit encore Jean Roudaut à propos de Samuel Beckett : « Écrire du coup est bien plus que faire l’exercice intellectuel de la mort, au sens où Montaigne prenait le verbe philosopher. C’est l’habiter ». Telle est l’ambivalence de l’ennui, entre la mélancolie qui ouvre à l’homme un site (il y a une jubilation du spleen), et l’acédie qui est l’expérience extrême de la non-prise, de la déprise sur les choses et sur soi. La modernité aimerait bien nous débarrasser de l’ennui. Mais nous n’avons pas fini de nous ennuyer, c’est-à-dire d’éprouver notre condition humaine.

Pierre Le Vigan

Article printed from Europe Maxima: http://www.europemaxima.com

samedi, 20 mars 2010

J'aime pas le téléphone portable

le téléphone portable


Oui, le téléphone portable a bouleversé notre quotidien, mais surtout pour le pire ! Otages des opérateurs, esclaves de la technologie, nous en sommes tous désormais des usagers incurables et pathétiques. Est-il opportun de déclarer sa flamme en moins de 15 lettres : " Tu E L RYON 2 ma vi "? Ou indispensable de se photographier en descendant l'Alpe d'Huez? À verser aussi à la magie du mobile : la note salée qu'engendre son usage compulsif avec en prime la paranoïa qu'il induit et, bien entendu, la terreur des effets des ondes électromagnétiques sur le cerveau... Le constat des auteurs est sans appel : en moins de dix ans, le portable nous a métamorphosés en demeurés, accros à ce gadget comme les fumeurs à leur tabac, les bébés à leur tétine et les déprimés à leurs anxiolytiques.

Ex: http://zentropa.splinder.com/

lundi, 25 mai 2009

Ethnopsychiatrie / Psychiatrie


Ethnopsychiatrie / Psychiatrie


Guérisseurs dogons


Les intéressantes éditions  Synthélabo  publient Les guérisseurs de la folie. Histoires du plateau dogon de Piero Coppo. L'éditeur écrit: «Les dogons qui vivent sur le plateau malien sont célèbres dans toute l'Afrique de l'ouest pour les savoirs de leurs guérisseurs et de leurs sages. On vient les consulter de partout. Ils sont célèbres également en Europe à cause d'une des entreprises ethnologiques les plus fameuses: celle de Marcel Griaule en 1931, à laquelle participa Michel Leiris. Une équipe pluridisciplinaire italienne a créé, en 1979, un Centre de médecine traditionnelle à Bandiagara qui a permis de recueillir les témoignages de plus de 400 guérisseurs et de les organiser en réseau, en liaison avec des médecins de formation occidentale et des ethnologues (...) Ce qui était au départ une tentative d'organiser en réseau des guérisseurs traditionnels s'est transformé en une belle expérience d'ethnopsychiatrie (dans la voie ouverte par Georges Devereux et Tobie Nathan) permettant de s'interroger sur les manières dont nous pouvons dialoguer avec eux et avec les patients, sur les noms des maladies, sur les systèmes interprétatifs, la façon dont le peuple dogon conçoit la nature corporelle et spirituelle de l'homme,  la manière dont il pense le rapport à l'environnement» (P. MONTHÉLIE).


Piero COPPO, Les guérisseurs de la folie. Histoires du plateau dogon, 1998. 170 Pages. 94 FF. Institut Synthélabo ( 22 avenue Galilée, F-92.350 Le Plessis Robinson).


Gaëtan Gatian de Clérambault : aliéniste


Chez le même éditeur paraît Le maître des insensés, Gaëtan Gatian de Clérambault (1872-1934) d'Alain Rubens, une excellente biographie présentée ainsi: «Gaëtan Gatian de Clérambault est-il un monstre ou un génie? Médecin-chef, il exerce dans un lieu maudit qui, selon le journaliste Albert Londres, “sentait le fond de vieille cale”, à la Tour pointue, quai de l’Horloge, dans une sorte d'annexe du Palais de justice de l'Ile de la Cité. Là, la police lui amène le petit peuple des malheureux qui ont commis un délit bizarre ou qui errent dans Paris, tous ceux qui pourraient être considérés comme des insensés. Clérambault décide de leur sort: la prison ou l'asile et, plus rarement, la liberté. Quand ils vont grossir les rangs des internés à Sainte-Anne ou Charenton, ils ont de grandes chances d'y finir leurs jours, enfermés dans un mal dont on ne sait pas s'ils en étaient atteints avant leur internement ou si celui-ci est induit par la vie de l'asile. La psychiatrie ne soigne pas. Elle expertise et classe (...) Mais le siècle est à un tournant. La psychologie qui triomphe au Collège de France avec Pierre Janet gagne du terrain et oblige l'aliénisme à ses premières interrogations. Freud ou Clérambault? Troubles organiques ou psychiques? C'est toute la conception de la folie et, au-delà, de ce qu'est le psychisme et l'humain qui sont en jeu. Clérambault apparaît comme un roc face à la révolution psychanalytique qui commence. Les surréalistes vont en faire leur tête de Turc. André Breton pense à lui quand il appelle les patients à “révolvériser” les médecins aliénistes. Son élève Lacan rompt en public et spectaculairement avec celui qu'il appellera ensuite son “seul maître en psychiatrie”. Devenu aveugle, celui qui fut, de mille manières, le maître du regard et des insensés, se suicide d'une balle dans la bouche. Le vieil aliénisme meurt avec lui. La psychiatrie ne sera plus jamais la même» (PM).


Alain RUBENS, Le maître des insensés, Gaëtan Gatian de Clérambault (1872-1934), 1998. 250 pages. 94 FF. Editions Synthélabo.

00:05 Publié dans Livre | Lien permanent | Commentaires (0) | Tags : médecine, psychiatrie, ethnopsychiatrie, guérisseurs, dogons | |  del.icio.us | | Digg! Digg |  Facebook