Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

samedi, 20 mars 2021

Des robots de Rossum à l'intelligence artificielle

unnRUR.jpg

Des robots de Rossum à l'intelligence artificielle

par Leonid SAVIN

https://orientalreview.org/  

Le 25 janvier 2021 marque le centenaire de la première de la pièce de théâtre R.U.R. (Rossum's Universal Robots) de l'écrivain tchèque de science-fiction Karel Čapek. Cette courte œuvre a anticipé les livres ultérieurs sur le sujet, ainsi que les films cyberpunk et post-apocalyptiques comme Terminator et Alien: Covenant. Les robots universels de Rossum ont été conçus comme des assistants des humains, mais après un certain temps, ils se rebellent et détruisent la race humaine, à l'exception d'un ouvrier d'usine, dont ils ont besoin pour recréer leur propre espèce.

Karel-Capek.jpg

Karel Capek.

Le mot "robot" s'est rapidement banalisé et a été appliqué à des mécanismes dotés d'un ensemble limité de fonctions programmables et nécessitant un diagnostic, un entretien et une réparation. Plus récemment, cependant, notamment après le développement des ordinateurs et des cyber-technologies, des discussions sont déjà en cours pour savoir si les machines peuvent penser et prendre des décisions sur un pied d'égalité avec les personnes.

Les dernières réalisations en matière de robotique et d'informatisation ne sont nulle part plus demandées que dans l'armée, notamment aux États-Unis, où des centres spéciaux ont été créés pour développer des programmes, des applications et du matériel spécifiques. De nombreux laboratoires de l'armée américaine, du corps des Marines, de la marine et de l'armée de l'air, avec l'aide de contractants et des principales institutions du pays, mènent à bien les prototypes de modèles avancés - toute cette technologie doit servir les nouvelles guerres que Washington prévoit de déclencher à l'avenir.

Les récentes avancées dans ce domaine sont révélatrices.

Le navire sans équipage Ghost Fleet Overlord a récemment parcouru 4700 miles nautiques avec succès et a participé à l'exercice Dawn Blitz, où il a opéré de manière autonome pendant presque tout le temps.

SAS-2019-Austal-Unveils-Range-of-Autonomous-USVs-4.jpg

Ceux qui s'inquiètent de la puissance croissante de la Chine proposent d'utiliser de tels systèmes pour toutes les relations futures avec l'APL: utiliser des drones suicide sous-marins pour attaquer les sous-marins chinois, par exemple. Les États-Unis parlent déjà de robots de combat sous-marins et de surface qui seraient en cours de développement par l'armée chinoise et que les Chinois appellent une "Grande Muraille sous-marine". C'est pourquoi ils suggèrent d'établir une parité avec les Chinois ou de les surpasser d'une manière ou d'une autre.

Les efforts de la Chine dans ce domaine montrent que la disponibilité de nouveaux types d'armes ne donne aux États-Unis aucune garantie que ces systèmes ne seront pas mis en service par d'autres pays. Par exemple, l'apparition de drones de combat dans un certain nombre de pays a obligé les États-Unis à développer des méthodes et des stratégies pour contrer les drones.

Ainsi, en janvier 2021, le département de la défense américain a publié une stratégie pour contrer les petits systèmes d'aéronefs sans pilote : cette stratégie s'alarme de l'évolution de la nature de la guerre et de la concurrence croissante, qui constituent toutes deux des défis pour la supériorité américaine.

bio-groen.pngLe lieutenant général Michael Groen, directeur du Joint Artificial Intelligence Center du ministère américain de la défense, évoque la nécessité d'accélérer la mise en œuvre de programmes d'intelligence artificielle à usage militaire. Selon lui, "nous pourrions bientôt nous retrouver dans un espace de combat défini par la prise de décision basée sur les données, l'action intégrée et le rythme. En déployant les efforts nécessaires pour mettre en œuvre l'IA aujourd'hui, nous nous retrouverons à l'avenir à opérer avec une efficacité et une efficience sans précédent".

Le Centre interarmées d'intelligence artificielle du Pentagone, créé en 2018, est désormais l'une des principales institutions militaires développant des "logiciels intelligents" pour les futurs systèmes d'armes, de communication et de commandement.

L'intelligence artificielle est désormais le sujet le plus discuté au sein de la communauté de recherche de la défense américaine. C'est une ressource qui peut aider à atteindre certains objectifs, comme permettre aux drones de voler sans supervision, de recueillir des renseignements et d'identifier des cibles grâce à une analyse rapide et complète.

On suppose que le développement de l'intelligence artificielle entraînera une concurrence féroce, car l'IA elle-même se distingue de nombreuses technologies passées par sa tendance naturelle au monopole. Cette tendance au monopole exacerbera les inégalités nationales et internationales. Le cabinet d'audit Pricewaterhouse Coopers prévoit que "près de 16.000 milliards de dollars de croissance du PIB pourraient découler de l'IA d'ici à 2030", dont 70 % pour les seuls États-Unis et la Chine. Si la rivalité est le cours naturel des choses, alors pour les entreprises qui utilisent l'intelligence artificielle à des fins militaires ou pour des technologies à double usage, la considérer de cette manière semblera tout à fait logique. Il s'agira d'un nouveau type de course aux armements.

25414-topshot1-bg3.jpg

Sur le plan éthique, toutefois, les systèmes d'intelligence artificielle militaires pourraient être impliqués dans la prise de décisions visant à sauver des vies ou à prononcer des condamnations à mort. Ils comprennent à la fois des systèmes d'armes autonomes létaux, capables de sélectionner et d'engager des cibles sans intervention humaine, et des programmes d'aide à la décision. Certaines personnes plaident activement en faveur de l'inclusion de machines dans un processus décisionnel complexe. Le scientifique américain Ronald Arkin, par exemple, affirme que non seulement ces systèmes ont souvent une meilleure connaissance de la situation, mais qu'ils ne sont pas non plus motivés par l'instinct de conservation, la peur, la colère, la vengeance ou une loyauté mal placée, suggérant que, pour cette raison, les robots seront moins susceptibles de violer les accords de paix que les personnes.

Certains pensent également que les fonctions de l'intelligence artificielle peuvent transformer la relation entre les niveaux tactique, opérationnel et stratégique de la guerre. L'autonomie et la mise en réseau, ainsi que d'autres technologies, notamment la nanotechnologie, la furtivité et la biogénétique, offriront des capacités de combat tactique sophistiquées au sol, dans les airs et en mer. Par exemple, des bancs de véhicules sous-marins autonomes concentrés à des endroits précis de l'océan pourraient compliquer les actions secrètes des sous-marins qui assurent actuellement une frappe de représailles garantie par les puissances nucléaires. Par conséquent, d'autres plateformes tactiques pourraient également avoir un impact stratégique.

1 c1xMQs8VzU0RwyRKA1tkdQ.jpeg

L'amélioration de la manœuvrabilité est également liée à l'intelligence artificielle. Celle-ci comprend, entre autres, des logiciels et des capteurs qui permettent aux robots d'être autonomes dans des endroits dangereux. C'est l'un des moteurs de l'utilisation de systèmes autonomes par l'armée. L'armée américaine fonde de grands espoirs sur l'autonomie des machines, car elle pourrait offrir une plus grande flexibilité aux personnes qui commandent et combattent aux côtés des robots. Les développeurs américains espèrent passer de 50 soldats soutenant un drone, un véhicule terrestre sans pilote ou un robot aquatique, comme c'est le cas actuellement, à un paradigme où une seule personne soutiendrait 50 robots.

Mais l'intelligence artificielle pourrait aussi créer de sérieux problèmes. L'intelligence artificielle militaire pourrait potentiellement accélérer le combat au point que les actions des machines dépassent les capacités mentales et physiques de ceux qui prennent les décisions dans les postes de commandement d'une guerre future. Par conséquent, la technologie dépassera la stratégie, et les erreurs humaines et de la machine se confondront très probablement - avec des conséquences imprévisibles et involontaires.

erich-1024x654.jpg

Une étude de la RAND Corporation, qui examine l'influence des machines à penser sur la dissuasion en cas de confrontation militaire, met en évidence les graves problèmes qui pourraient survenir si l'intelligence artificielle était utilisée sur le théâtre de la guerre. Sur la base des résultats des jeux réalisés, il a été démontré que les actions entreprises par une partie, que les deux joueurs percevaient comme ‘’désescalatoires’’, étaient immédiatement perçues par l'intelligence artificielle comme une menace. Lorsqu'un joueur humain retire ses forces afin de désamorcer une situation, les machines sont les plus susceptibles de percevoir cela comme un avantage tactique qui doit être consolidé. Et lorsqu'un joueur humain faisait avancer ses forces avec une détermination évidente (mais pas hostile), les machines avaient tendance à percevoir cela comme une menace imminente et à prendre les mesures appropriées. Le rapport a révélé que les joueurs devaient faire face à la confusion non seulement de ce que pensait leur ennemi, mais aussi de la perception de l'intelligence artificielle de leur ennemi. Les joueurs devaient également faire face à la façon dont leur propre intelligence artificielle pouvait mal interpréter les intentions humaines, qu'elles soient amicales ou hostiles.

En d'autres termes, l'idée contenue dans la pièce de Karel Čapek sur les robots est toujours d'actualité : il est impossible de prévoir le comportement de l'intelligence artificielle. Et si les robots "intelligents" ont un usage militaire, alors ils pourraient aussi devenir un danger pour leurs propriétaires. Même aux États-Unis, certains militaires sceptiques se rangent dans le camp des traditionalistes qui pensent que de telles innovations, imaginées par des utopistes de la Silicon Valley seront nuisibles à la politique de l'État américain.

mardi, 16 février 2021

Philosophie chinoise ancienne et intelligence artificielle

taoisme-1-.jpeg

Philosophie chinoise ancienne et intelligence artificielle

Par Bing Song

Ex : http://novaresistencia.org (Brésil)

Dans ce texte, Bing Song élucide certains aspects du confucianisme, du taoïsme et du bouddhisme qui contribuent à expliquer pourquoi certains philosophes chinois ne sont pas aussi alarmés par l'IA que leurs homologues occidentaux.

Sur la scène internationale, on a beaucoup discuté de l'ambition de la Chine de devenir le leader de l'innovation en matière d'intelligence artificielle et de robotique dans les prochaines décennies. Mais quasi rien des débats entre philosophes chinois sur les menaces de l'IA et sur les approches éthiques de l'IA n'ont réussi à pénétrer les médias de langues occidentales.

Comme de nombreux commentateurs occidentaux, de nombreux philosophes chinois (principalement formés au confucianisme, au taoïsme et au bouddhisme) ont exprimé leur profonde inquiétude quant à la diminution de l'autonomie et du libre arbitre de l'homme à l'ère de la manipulation et de l'automatisation des données, ainsi qu'à la perte potentielle de tout sens à donner à la vie humaine sur le long terme. D'autres penseurs s'inquiètent de l'empressement de l'humanité à bricoler le génome humain et à intervenir sur le processus d'évolution naturelle pour atteindre la longévité et le bien-être physique tant désirés. Les spécialistes confucéens semblent être plus alarmés, car certains développements de l'IA et de la robotique, notamment ceux liés aux relations familiales et aux soins aux personnes âgées, menacent directement le fondement du confucianisme, qui met l'accent sur l'importance des lignées et des normes familiales.

71gvVpFUbFL.jpg

Plus intéressants, cependant, sont les trois axes de réflexion suivants, radicalement différents, qui contribuent à expliquer pourquoi il y a eu beaucoup moins de panique en Chine qu'en Occident face aux risques existentiels perçus qu’apportent les technologies de pointe telles que l'intelligence artificielle.

Anthropocentrisme vs. non-anthropocentrisme

L'anthropocentrisme veut que les humains soient considérés comme des êtres séparés et au-dessus de la nature. L'Homo sapiens, avec sa rationalité, sa conscience de soi et sa subjectivité uniques, est placé au-dessus des autres animaux, plantes et autres formes du vivant. L'anthropocentrisme a atteint son apogée à l'époque de l'industrialisation et de la mondialisation. Bien que cette mentalité centrée sur l'homme se soit quelque peu atténuée dans les pays développés au cours des dernières décennies, elle est encore répandue dans la Chine, qui s'industrialise rapidement, et ailleurs.

Cependant, le confucianisme, le taoïsme et le bouddhisme sont tous d'accord sur la notion de non-anthropocentrisme. Dans la pensée chinoise classique, la construction typique pour comprendre la relation entre l'homme, la nature et la société est ce qu’on y appelle la « trinité du ciel, de la terre et de l'homme ». Cette notion est issue d'un des plus anciens classiques chinois - le "I Ching" ou "Livre des changements" - qui est la source intellectuelle des écoles de pensée les plus influentes en Chine, dont le confucianisme et le taoïsme.

Le ciel, la terre et l'homme, ainsi que les forces yin et yang qui y sont associées, étaient considérés comme les constituants les plus fondamentaux de l'univers, au sein duquel la nature évolue, les êtres humains prospèrent et les sociétés se développent. Dans cette construction, les êtres humains font intrinsèquement partie de la nature et sont liés à elle. Les êtres humains ne peuvent s'épanouir et être soutenus que s'ils suivent les lois de la nature et réalisent l'unité de la nature et de l'homme.

L'humanité, entre ciel et terre, est dotée d'une capacité unique à apprendre de la nature, à agir pour promouvoir les causes de l'épanouissement et de la durabilité du ciel et de la terre, et à propager le "Dao" ou "voie". Dans le contexte confucéen, le Dao implique des enseignements éthiques de bienveillance et de droiture. Bien que la tradition confucéenne ait beaucoup insisté sur la proactivité des êtres humains, elle est toujours fondée sur le respect et la révérence des lois de la nature et sur les ajustements à apporter à ces lois plutôt que sur l'expropriation inconsidérée de la nature. Les êtres humains doivent comprendre les changements saisonniers et vivre en conséquence.

depositphotos_81539246-stock-photo-fire-and-water-yin-yang.jpg

La mentalité consistant à être en phase avec l'évolution des temps et des circonstances est ancrée profondément dans l'enseignement de Confucius. En fait, Confucius a été salué comme le "sage ancien" par Mencius, un autre maître chinois du confucianisme. Ce que Confucius prêchait et pratiquait n'était pas un dogme, mais la connaissance et la sagesse les plus appropriées pour le temps et le contexte concernés.

La notion d'unité entre la nature et l'homme est encore plus importante dans le taoïsme. Selon Laozi, le philosophe fondateur du taoïsme chinois, "l'homme est orienté par la terre, la terre est orientée par le ciel, le ciel est orienté par Dao, Dao est orienté par sa propre Nature’’. "Dao est immanent au ciel, à la terre et à l'homme, qui sont mutuellement incarnés et constitutifs et doivent se mouvoir en harmonie. Zhuangzi, un philosophe qui a vécu au quatrième siècle avant Jésus-Christ, a encore renforcé la notion d'unité de la nature et de l'homme. Il soutenait que le ciel, la terre et l'homme étaient nés ensemble et que l'univers et l'homme ne faisaient qu'un.

Aucune des trois écoles dominantes de la pensée philosophique chinoise ne place l'être humain dans une position suprême au sein de l'univers.

Le bouddhisme, qui a été introduit en Chine depuis l'Inde au milieu de la période de la dynastie des Han, accorde encore moins d'importance à la primauté de l'être humain sur les autres formes d'existence. Un enseignement bouddhiste fondamental évoque l'égalité de tous les êtres sensibles, dont les humains ne sont qu'un, et que tous les êtres sensibles ont la nature de Bouddha. Le bouddhisme exhorte les gens à pratiquer l'attention et la compassion pour les autres formes d'êtres vivants et sensibles.

En résumé, aucune des trois écoles dominantes de la pensée philosophique chinoise ne place les êtres humains dans une position suprême au sein de l'univers, ni ne considère les êtres humains et la nature comme étant dans une relation mutuellement indépendante ou compétitive. Située dans le contexte du développement des technologies de pointe, l'intelligence artificielle n'est pas un développement "naturel", donc du point de vue de l'unité entre l'homme et la nature, l'IA doit être guidée et parfois supprimée au nom du respect des modes de vie naturels. En effet, c'est exactement ce que de nombreux philosophes en Chine ont préconisé.

unnamedrao.jpg

Cependant, il est également vrai que, probablement en raison de la forte influence du non-anthropocentrisme dans les systèmes de croyances traditionnels chinois, la panique a été beaucoup moins forte en Orient qu'en Occident à propos du risque existentiel posé par l'IA. D'une part, de nombreux philosophes chinois ne sont tout simplement pas convaincus par la perspective d'une intelligence mécanique dépassant celle des humains. De plus, les humains ont toujours vécu avec d'autres formes d'existence qui peuvent être plus capables que nous à certains égards. Dans l'enseignement taoïste, où les immortels abondent, l'IA ou les êtres numériques ne sont peut-être qu'une autre forme de ‘’super-être’’. Certains universitaires confucéens et taoïstes ont commencé à réfléchir à l'intégration de l'IA dans l'ordre éthique de l'écosystème, considérant potentiellement les IA comme des compagnons ou des amis.

Ouverture relative à l'incertitude et au changement

Une autre raison probable de la panique relativement moins importante que suscitent les technologies de pointe en Chine est le niveau élevé d'acceptation de l'incertitude et du changement dans cette culture. On peut à nouveau remonter jusqu'au "I Ching". Selon son enseignement central, l'existence ultime de l'univers est celle d'un changement constant, plutôt que la notion d'"être" (stable,statique), qui postule, parfois inconsciemment, une existence statique largement repérable dans la pensée européenne du XXe siècle.

L'influence du "Yi Jing" se fait sentir dans de nombreux aspects du confucianisme, comme la doctrine concernant la proactivité de l'homme dans l'anticipation et la gestion du changement, que j'appelle le dynamisme humaniste. Selon Richard Wilhelm, un missionnaire allemand qui a vécu en Chine à la fin du XIXe et au début du XXe siècle et à qui l'on attribue la première traduction européenne du "Yi Jing" : "Il n'y a pas de situation sans issue. Toutes les situations sont des étapes de changement. Ainsi, même lorsque les choses sont les plus difficiles, nous pouvons semer les graines d'une nouvelle situation”.

Zhuangzi.jpg

Depuis la dynastie Han, le taoïsme est caractérisé comme un mode de pensée qui met l'accent sur le progrès des temps et l'évolution en fonction des circonstances. Les enseignements du philosophe taoïste Zhuangzi sur l'adaptation à l'avenir et le refus de la rigidité sont devenus aujourd'hui essentiels dans la culture chinoise. L'idée est que le changement et l'incertitude ne sont pas des problèmes qui doivent être réglés (ndt : c’est-à-dire « éliminés »), mais font partie intégrante de la réalité et de la normalité.

Dans le bouddhisme, le concept de l'impermanence de notre réalité perçue est un principe fondamental. De plus, la nature illusoire de notre réalité perçue réduit encore l'importance des changements de vie dans la pensée bouddhiste.

Peut-être ces modes de pensée sont-ils une autre raison pour laquelle les Chinois ne sont pas aussi inquiets que leurs homologues occidentaux quant à l'avenir possible de l'ère des machines.

Réflexion sur soi, culture de soi et illumination de soi

Le philosophe chinois Thomé Fang a souligné qu'une des similitudes entre les trois traditions philosophiques dominantes en Chine est l'accent qu'elles mettent sur l'importance de la maîtrise de soi, de l'introspection constante et de la poursuite incessante de la sagesse. Ces trois traditions reposent sur l'idée que le bien social commence par l'auto-culture individuelle et est lié à celle-ci.

方東美先生.jpg

Thomé Fang.

Ainsi, de nombreux philosophes chinois soulignent qu'à ce stade de la réflexion sur les risques existentiels pour l'homme et sur l'orientation future du progrès technologique, il est très important que nous regardions en nous-mêmes et que nous réfléchissions sur nous-mêmes, en tirant les leçons de l'évolution et du développement de l'homme. En d'autres termes, les humains doivent réfléchir à leur propre passé et réaliser que nous sommes peut-être au cœur du problème - que nous ne serons pas capables de créer une IA moralement saine si nous ne devenons pas rapidement des êtres réfléchis et responsables sur le plan éthique.

Face à des défis plus globaux, nous devrions peut-être ouvrir de nouvelles voies de réflexion et nous inspirer des anciennes traditions philosophiques. Il est temps d'affronter et de remplacer notre mentalité de concurrence à somme nulle, notre propension à maximiser la création de richesse et notre individualisme débridé. La meilleure chance de développer une IA respectueuse de l'homme et d'autres formes de technologies de pointe est que les humains eux-mêmes deviennent plus compatissants (au sens bouddhiste) et s'engagent à construire un écosystème mondial harmonieux et inclusif.

Source : https://www.noemamag.com/applying-ancient-chinese-philoso...

 

samedi, 28 novembre 2020

Le coronavirus modifie le scénario de la cybertechnologie mondiale

ai-covid.jpg

Leonid Savin

Le coronavirus modifie le scénario de la cybertechnologie mondiale

L'une des conséquences de la propagation du coronavirus et des mesures de quarantaine qui ont été introduites dans de nombreux pays est la suivante : cela a entraîné une augmentation de la demande sur Internet. Dans les pays, les autorités tentent de réguler le trafic avec les moyens et les mesures disponibles. L'un des géants américains dans ce domaine est Verizon, qui a reçu de la Commission fédérale des communications l'autorisation d'utiliser des fréquences supplémentaires. En Italie, le trafic a augmenté en mars de 70 %, en Pologne et en Espagne de 40 %. En Europe, Netflix, Amazon, YouTube et Facebook ont réduit la qualité des vidéos. La virtualisation des lieux de travail, l'utilisation d'applications de livraison de nourriture, l'affichage de contenus divers, tout cela a affecté la bande passante et le trafic dans de nombreux pays. En outre, plusieurs pays ont soulevé la question de la pertinence de la télémédecine. Et les plus avancés ont attiré l'attention sur les capacités des supercalculateurs à préparer des scénarios de propagation de maladies et de développement de médicaments efficaces. Et, bien sûr, tout cela a affecté la cybersécurité.

Reuters écrit qu'aux États-Unis, l'activité des pirates informatiques a doublé. Dans ce cas, l'agence fait également référence à une déclaration de Tom Kellerman du département de sécurité de VMware.

imagesvmware.jpgVMware est un acteur très intéressant dans le domaine de l'informatique et de la cybertechnologie. La fondatrice de l'entreprise est Diana Green, qui a également dirigé le département des technologies en cloud de Google, et a siégé au conseil d'administration d'Alphabet de 2012 à 2019. Un autre fondateur de la société est le professeur Mendel Rosenblum de l'université de Stanford, qui est le mari de Diana Green. VMware se concentre sur le développement de logiciels de virtualisation. Depuis sa création en 1998, elle a absorbé plus de dix autres sociétés, et ses directeurs comprennent des cadres supérieurs de Microsoft et d'Intel.

Il est intéressant de noter qu'en 2017, Kellerman, avec le même enthousiasme, a commenté le piratage "du côté russe". Il a déclaré qu'en 2015, sa société "a averti le FBI et le bureau du directeur du renseignement national que les pirates du Kremlin avaient dressé une liste de 2300 personnes, dont des dirigeants influents de Washington et de New York, ainsi que leurs conjoints et amants, ce qui en fait la cible d'une campagne de piratage coordonnée. Kellermann a déclaré qu'il ne savait pas si le gouvernement avait suivi ses conseils, mais a averti que les pirates informatiques avaient la possibilité de brancher des microphones et des caméras sur leurs appareils personnels pour obtenir des informations confidentielles sur leur vie privée. Mais il estime que la campagne a réussi à engager les dirigeants américains. Kellermann a également noté que les approches des attaques en ligne sont un signe avant-coureur d'une agression armée et a prédit que le conflit entre les États-Unis et la Russie va probablement commencer dans la région de la Baltique. "Je suis très, très inquiet", a-t-il dit. "Le cyberespace est toujours le signe avant-coureur de la réalité cinétique." L'Occident a alors connu une vague d'articles disant que la Russie allait attaquer les pays baltes, et peut-être même la Finlande. Et le Pentagone a organisé une série d'exercices communs dans la région.

CrowdStrike-logo.jpgL'évaluation de la situation actuelle en matière de cybersécurité aux États-Unis a coïncidé avec succès, pour de nombreuses parties intéressées, avec la persécution des entreprises chinoises. En février 2020, les États-Unis ont accusé quatre citoyens chinois d'avoir piraté Equifax. Les médias ont cité des informations fournies par le célèbre mythomane Dmitri Alperovich de Crowdstrike, qui affirme que les groupes APT1, APT3 (Buyosec) et APT10 sont liés aux services de renseignements chinois.

En avril 2020, l'application chinoise Zoom a été reconnue aux États-Unis comme un outil d'espionnage américain et son utilisation au sein du gouvernement a été interdite.

Et en janvier, le secrétaire d'État Mike Pompeo, dans un discours en Californie sur la relation entre la Silicon Valley et la sécurité nationale, a déclaré que "le groupe de pirates APT10 est associé au ministère chinois de la sécurité. En général, la moitié du discours a été consacrée aux problèmes que l'establishment voit par rapport à la croissance de la Chine et à ses technologies.

Les politiciens américains serrent les poings de manière menaçante et crient qu'ils ne permettront pas à la technologie 5G chinoise d'entrer sur leur territoire. Bien que les experts affirment que la 5G est l'épine dorsale des communications du XXIe siècle, la coopération avec d'autres pays sera tout simplement nécessaire après la fin de la crise du coronavirus.

Gen-Keith-Alexander.jpgLes entreprises informatiques locales commenceront très probablement à combler le vide. Le succès est garanti pour ceux qui ont de bonnes relations à la Maison Blanche et au Pentagone, par exemple l'ancien chef de la NSA et du Cyber Command Keith Alexander, qui dirige maintenant IronNet CyberSecurity.

L'armée américaine détient également une part importante du gâteau des aides d'État dans la lutte contre le coronavirus. Avant même que Donald Trump ne signe le décret allouant 2,3 milliards de dollars du Pentagone, les militaires américains ont déclaré qu'ils participaient activement au processus de réorganisation du travail et que des fonds supplémentaires étaient nécessaires pour gérer les réseaux, les ordinateurs et les systèmes. La semaine dernière, ils ont reçu 10,5 milliards de dollars dans le cadre du "programme d'aide aux coronavirus" du gouvernement. Et ce n'est que le début.

Comme l'attribution de ce paquet d'aide est déjà en cours, six organisations - le Conseil de l'industrie des technologies de l'information, l'Alliance pour l'innovation numérique, CompTIA, le Centre d'approvisionnement de la défense, l'Association Internet et la Coalition pour la cyber-sécurité - ont demandé au Congrès américain de prendre en compte leurs intérêts dans le prochain paquet d'aide, qui est en cours de préparation. Ils proposent d'allouer des fonds pour la mise à niveau technologique, de soutenir le secteur public local, de renforcer les mesures de cybersécurité et de créer un fonds spécial pour le développement des technologies gouvernementales.

De nombreuses entreprises de cyber-technologie se sont précipitées dans le secteur médical dans l'espoir de tirer profit de la publicité et de la panique générées. Par exemple, BenevolentAI a annoncé l'utilisation de l'intelligence artificielle pour traiter les patients atteints d'une infection due au coronovirus. Certains médicaments développés à l'aide de l'intelligence artificielle sont censés être déjà utilisés pour des thérapies, mais une solution est déjà en route.

Il est significatif que dans le domaine de l'intelligence artificielle aux États-Unis, un grand nombre de nouvelles entreprises aient vu le jour. Ce sont ces nouvelles entreprises qui prédisent les tendances de la télémédecine et de la future nanomédecine dans la gamme des puces intégrées au corps, comme le suggère Bill Gates.

google-cloud-cable-sous-marin.jpg

Le COVID-19 a même influencé le fonctionnement des câbles sous-marins par lesquels passe la majeure partie du trafic Internet mondial. Des ruptures de câbles au fond de l'océan se produisent régulièrement et une flotte spéciale est employée pour les réparer. Des retards dans la délivrance des licences ont déjà été observés. En outre, les mesures de quarantaine ont conduit un fournisseur de câbles sous-marins à fermer deux usines.

Bien entendu, ces perturbations touchent non seulement les États-Unis et l'Europe, mais aussi la Russie et le reste du monde, car l'Internet et les cybertechnologies sont universels. La question est de savoir exactement comment les gouvernements vont réagir et quelles seront leurs priorités : les intérêts des cyberentreprises privées ou de leur population en général.

samedi, 27 avril 2019

Le futurisme illusoire des universitaires de l’ordre global libéral

robothink1.jpg

Le futurisme illusoire des universitaires de l’ordre global libéral

par Brandon Smith

 
Article original de Brandon Smith, publié le 3 avril 2019 sur le site alt-market.com
Traduit par le blog http://versouvaton.blogspot.fr


Il s’agit peut-être d’une généralisation trop large, mais j’ai l’impression que le public a presque le sentiment qu’il y a quelque chose d’intrinsèquement gênant dans le milieu universitaire. La source de ce mécontentement fait l’objet d’un débat, mais je crois qu’il découle de l’image du projet des universitaires par rapport à la réalité de leur caractère personnel et de leurs intentions. 

L’universitaire moyen qui a obtenu un diplôme universitaire dira que certaines personnes ne le trouvent désagréable que parce qu’il est « si intelligent », ce qui en rend d’autres envieux. Je dirais que c’est le contraire – l’universitaire moyen est en fait assez ignorant, mais brandit une fausse image de génie. C’est pourquoi je les qualifie souvent d’« imbéciles académiques ».

La fausse intelligence et la fausse sagesse sont comme du papier de verre pour les nerfs des gens exposés, et la personne moyenne n’est pas aussi stupide que les universitaires le pensent.
Au sommet du mât totémique académique frauduleux se trouvent ce que j’appellerais les « philosophes académiques », les gardiens, les gens qui pontifient régulièrement sur le sens de la vie et de la société tout en vivant la vie la plus charmante qu’on puisse imaginer. Ce sont des gens qui, dans la plupart des cas, sont issus de la classe supérieure. Ils ont été cajolés à chaque instant éveillé de leur existence. Ils ont eu toutes les portes ouvertes pour eux par quelqu’un d’autre sur le chemin du succès, et ont connu peu ou pas de lutte ou de souffrance pendant tout le temps qu’ils ont passé sur cette Terre. Et pourtant, ils s’estiment en quelque sorte qualifiés pour commenter la condition humaine.

Il n’est pas surprenant que les idées développées par ces universitaires tendent à nier la réalité concrète. Ils cherchent à poursuivre des programmes qui sont au mieux fantaisistes et qui, en fin de compte, seraient destructeurs s’ils étaient appliqués dans le monde réel.

thinkingrobot1.jpg

Je trouve cela commun à de nombreux philosophes, non seulement aujourd’hui, mais tout au long de l’histoire. Le vénéré Platon était une telle personne, le plus jeune fils de riches parents aristocratiques qui n’avait pas grand-chose à faire dans sa jeunesse, mais qui réfléchissait. Les épreuves entourant son ami Socrate mis à part, Platon n’a jamais abandonné la notion de domination élitiste sur la société. La République de Platon est un sanctuaire du modèle élitiste, imaginant un monde gouverné essentiellement par des universitaires – des gens nés avec des capacités intellectuelles supérieures et qui étaient destinés à dominer le reste d’entre nous comme des demi-dieux bienveillants.
C’est une drôle de coïncidence que des universitaires soi-disant élitistes objectifs arrivent toujours à la conclusion qu’ILS sont les personnes les mieux à même pour gérer la société.

La cabale académique n’est cependant pas entièrement naïve. Ils se sont rendu compte au fil du temps que leur argumentaire de vente d’une classe de prêtres intellectuels et de schémas pyramidaux utopiques n’est pas très efficace, et ils ont choisi de changer de récit. Le nouveau récit est celui de l’inévitabilité ; l’inévitabilité du socialisme, l’inévitabilité du globalisme et l’inévitabilité de l’automatisation algorithmique.

En d’autres termes, le globalisme sera la structure sociale optimale et l’intelligence artificielle gouvernera les opérations quotidiennes de cette structure, peu importe ce que le public veut. Les élites ne gouverneront pas le monde directement, mais leurs semblables créeront les algorithmes et ces politiques gouverneront le monde en vertu de l’évolution sociale et technologique.  Tout comme le film français de Jean-Luc Godard, Alphaville, l’idée est que les élites peuvent simplement se reposer et laisser la sombre « logique » de la gouvernance algorithmique faire le sale boulot. Car, après tout, comment peut-on discuter avec un ordinateur ?

L’un des élitistes universitaires dont je parle est Yuval Noah Harari. Ses éditoriaux ont beaucoup fait parler d’eux dans les médias grand public ces derniers temps et ils mettent l’accent sur la nécessité de la globalisation ainsi que sur la nécessité pour les humains de s’adapter rapidement à la technocratie, de peur qu’ils ne se retrouvent obsolètes. Harari est un philosophe académique prototypique, régurgitant de vieux concepts d’aristocratie et de féodalisme à peine voilés par l’imagerie futuriste. Ses arguments sont du type de ceux que d’autres universitaires de moindre importance absorbent et perroquetent sans cesse comme s’ils étaient profonds.

Pour ceux qui ne sont pas familiers avec les idées derrière le futurisme, je suggère de lire mon article « La signification du bien et du mal en des temps périlleux ». En résumé, les futurologues sont toujours d’accord avec l’idée que les anciennes méthodologies doivent être effacées pour faire place à de nouvelles méthodologies. Les traditions et les idéaux du passé sont considérés comme une prison qui empêche l’humanité de progresser et d’avoir un avenir meilleur. Ils croient que la solution aux déséquilibres et aux tragédies d’aujourd’hui consiste à démanteler énergiquement le système actuel et à le reconstruire d’une manière nouvelle et originale. Cela inclut la morale et les principes directeurs, qu’ils considèrent comme étouffants et relatifs.

Le futurisme a été fondé au début du 20ème siècle en Europe avec des groupes frères en Russie et est considéré comme un précurseur des premiers mouvements socialistes, dont le fascisme et le communisme. Pour clarifier, il n’y a pas de nouvelles idées sous le soleil, seulement de vieilles idées avec une tournure légèrement différente. Le socialisme précède le globalisme, qui est l’une des idées les plus anciennes ; l’idée d’empire total.

Comme la plupart des philosophes universitaires modernes, Yuval Harari fait la promotion du futurisme et du globalisme. Il est associé au Carnegie Council For Ethics In International Affairs, un organisme globaliste. Autrefois connu sous le nom de Church Peace Union, le groupe a contribué à pousser Woodrow Wilson à impliquer les États-Unis dans la Première guerre globale et à promouvoir la création de l’ONU.

Il est un modèle adéquat pour démystifier ce que ces gens appellent souvent « l’ordre global libéral », qui n’est qu’une autre forme de futurisme. Comme point de référence, j’utilise deux articles de Harari, l’un publié pour le Guardian sur l’avenir de l’automatisation et des robots qui déclassent l’humanité, et l’autre publié pour le magazine The Economist propriété de la  Rothschild sur la nécessité de la globalisation et de la fin du nationalisme. Je vais résumer ses arguments et ses points de vue, mais j’invite les lecteurs à examiner ses articles liés ci-dessus.

Allons droit au but….

L’IA remplacera la plupart des humains… et c’est une bonne chose.

C’est en train de devenir l’un des piliers du discours de l’establishment globaliste et de son milieu universitaire pour un certain nombre de raisons. L’argument selon lequel la domination de l’intelligence artificielle est inévitable ressemble beaucoup à l’argument selon lequel la globalisation est inévitable ; les deux sont fondés sur une prophétie auto-réalisatrice.

Harari imagine ce qu’il appelle un « monde sans travail », un développement à venir d’ici seulement 20 à 30 ans où les machines algorithmiques remplaceront les êtres humains comme source principale de travail. Cette propagande a deux facettes : premièrement, elle vise à effrayer le public et à l’amener à exiger la centralisation et la gouvernance globale. Harari affirme que sans une gouvernance globale et un « revenu de base universel », l’IA fera de la plupart des gens qui n’ont pas de connaissances technologiques des pauvres instantanément, ce qu’il appelle « la classe inutile ». Et ici, nous voyons le tour de passe-passe.

Comme je l’ai souligné dans mon article intitulé « La vraie raison pour laquelle les globalistes sont si obsédés par l’intelligence artificielle », des entités globalistes comme la DARPA, l’ONU et le Forum économique global ont été très agressives en poussant l’intelligence artificielle à l’avant-scène et ont entrepris des campagnes de promotion pour contrer la méfiance du public envers cette technologie. Dans le même temps, ces organisations globalistes ont fait valoir que, sans leur surveillance accrue, l’IA pourrait faire l’objet d’abus de la part des États nations ou détruire des économies entières.

thinkingrobot2.jpg

Ainsi, les globalistes vous disent que la domination de l’IA est une conséquence inévitable du progrès alors qu’ils dépensent d’énormes quantité de capital et d’heures de travail pour faire de leur prédiction une réalité. Ils vous disent alors que l’IA sera une menace pour votre gagne-pain et celui de vos enfants. Ensuite, ils vous disent que la seule réponse est de leur donner plus de pouvoir pour régler le problème qu’ils ont créé.

La deuxième partie de cette propagande est l’affirmation selon laquelle les dangers de l’IA pourraient être transformés en avantages utopiques. Si le « monde sans travail » est le bâton, alors le revenu de base universel est la carotte. La promesse fantastique des futuristes remonte aux premiers jours du communisme, et inclut toujours une terre pour demain où tous les gens vivront une existence paisible ; une société où tous les besoins sont satisfaits sans travail. Habituellement, les voitures volantes et les villes flottantes sont offertes là-dedans quelque part …

Harrari insinue dans son article pour The Guardian que la paresse est un état naturel pour la plupart de l’humanité, et que la majorité des gens resteraient mentalement à l’aise de ne pas avoir de but dans la vie tant qu’on leur donnerait une existence virtuelle comme un moyen de distraction. Il cite l’exemple d’enfants adultes qui vivraient dans un sous-sol s’ils y étaient autorisés et qui y subsisteraient grâce à la générosité de leurs parents avec une vie dédiée aux jeux vidéo. Mais plutôt que de souligner qu’il est destructeur d’encourager un tel comportement, Hariri suggère que cela devrait être un pilier de notre société.

Ce que Hariri ignore est une question clé du pourquoi beaucoup de gens se contentent d’une telle vie. Ce n’est pas nécessairement parce qu’ils aiment faire partie de la « classe inutile » ; beaucoup d’entre eux veulent désespérément trouver un but et un accomplissement car ce désir est ancré dans la psyché de la plupart des gens à la naissance. C’est juste qu’ils n’ont aucune idée du comment, et ont vécu dans un environnement qui semble de plus en plus conçu pour nuire à leur indépendance.

Je note que les élites de l’aristocratie ont exploité pendant des siècles la béquille du revenu de base universel comme un moyen de contrôler le comportement de leurs enfants. La progéniture des élites était souvent traitée comme une propriété et maintenue dans la ligne grâce à l’infantilisation et à la dépendance à l’égard du revenu. Pour ces enfants, il était presque impensable de poursuivre un rêve personnel ou de se lancer seul, car ils ont été isolés de tout ensemble de compétences pratiques. Quitter le système, c’est s’exposer à la pauvreté et à la mort potentielle.

Le plan est donc le suivant : Empêchez les gens de devenir autonomes, assurez-vous d’être leur seule source de revenu, puis donnez-leur le pouvoir d’utiliser ce revenu comme s’ils vous devaient quelque chose comme un enfant se doit à un parent. Hariri réclame ce genre de mesure de contrôle pour le monde entier.

L’expérience humaine est dans nos têtes et ne signifie rien

Tout comme le Meilleur des mondes d’Aldous Huxley, le « monde sans travail » de Hariri repose sur les opiacés, mais dans ce cas, les opiacés technologiques de la réalité virtuelle. Il affirme qu’il n’y a rien de nouveau et que les humains participent depuis longtemps à des jeux de réalité virtuelle par leur participation à la religion ainsi que par l’acquisition de la propriété. Je ne vois pas la logique dans sa comparaison, et il semble qu’il utilise cette tangente étrange simplement comme une occasion de se perdre dans une rhétorique athée et socialiste sans originalité.

Cependant, cette diatribe nous donne une meilleure idée d’un autre mème de propagande globaliste, à savoir que toute expérience est une question de perception et que toutes les conclusions sont relatives, y compris les conclusions morales. J’ai écrit des douzaines d’articles sur la question du globalisme et du relativisme moral et sur les raisons pour lesquelles il est fondé sur le mensonge et la désinformation. Je pense que c’est l’un des débats les plus importants de notre époque ou de toute autre époque, car il détermine la survie de notre humanité.

Pour quelqu’un qui considère toute expérience comme un jeu inutile que les gens inventent pour se divertir jusqu’à leur mort, Hariri semble trop préoccupé par la façon dont nous sommes tous gouvernés alors que nous « jouons » tous notre chemin durant notre existence. S’il n’y a pas de sens et qu’il n’y a pas de conception de l’univers ou de l’humanité, alors pourquoi chercher à centraliser le contrôle du jeu ?

Bien sûr, c’est un non-sens élitiste, et je ne suis même pas sûr qu’ils croient les ordures qu’ils vendent. Comme je l’ai noté dans des articles précédents, de nombreux chercheurs ont présenté des preuves considérables de qualités psychologiques humaines inhérentes, y compris la conscience innée et la boussole morale, ainsi que des dualités archétypiques qui nous donnent le don inhérent du choix. De Carl Jung à Joseph Campbell en passant par Steven Pinker, etc., les scientifiques et chercheurs réels ont entrepris des décennies d’expérimentation, de collecte de données et d’observation pour appuyer leurs conclusions. C’est quelque chose dont des philosophes académiques comme Hariri ne tiennent pas compte. Ils pensent que s’ils énoncent un point de vue avec suffisamment de bravade arrogante, c’est tout ce dont ils ont besoin pour le consolider en tant que fait.

thinkingrobot3.jpg

La raison pour laquelle les globalistes en particulier sont si friands de la narration relativiste est parce qu’elle justifie leur comportement dans la poursuite de leurs objectifs de centralisation. Ce comportement est généralement basé sur une approche où « la fin justifie les moyens », et est contraire à notre voix inhérente d’empathie et de conscience. Si les expériences humaines sont toutes une question de perception et d’illusion, alors la façon dont les élites abusent ou subjuguent les autres humains pour subventionner leur propre réalité virtuelle ne compte plus.

Le globalisme est bon, le nationalisme est mauvais

La centralisation globale est appelée par différents noms par les universitaires élitistes : Le nouvel ordre mondial, l’ordre global multipolaire, le reset global, les biens communs globaux, l’ordre global libéral, etc. Les globalistes passent la majeure partie de leur temps à essayer de reconditionner le marketing derrière le globalisme pour le rendre plus acceptable aux yeux des masses. Il s’agit généralement d’un processus malhonnête parce qu’il exige d’eux qu’ils attribuent faussement les échecs du globalisme au libre marché et au nationalisme.

Hariri tient à proclamer que l’« ordre global libéral » a réussi à améliorer la planète sur plusieurs générations sur les plans économique et géopolitique, mais il affirme ensuite que les États-nations commencent à « saper » cette stabilité. Nous entendons aussi constamment les globalistes dire que le « capitalisme » est la cause de la plupart des maux du monde, mais la vérité est que l’ingérence de style socialiste a créé le corporatisme et l’oppression par les marchés libres au cours du siècle dernier.
Ainsi, le globalisme nous a sauvés du capitalisme de marché, mais le capitalisme détruit tout ? Comment ces deux choses peuvent-elles être vraies ?

C’est le scénario dominant des globalistes d’aujourd’hui – la globalisation fonctionne, le nationalisme et les économies indépendantes ne fonctionnent pas, et faire un pas en arrière, c’est du suicide. C’est-à-dire qu’ils considèrent les mouvements « populistes » d’aujourd’hui comme un recul suicidaire.
Ce que les élites académiques comme Hariri ignorent, ce sont les nombreux problèmes que notre monde connaît aujourd’hui en raison de l’interdépendance et de la centralisation. Il observe avec fierté que toute nation qui tenterait de fonctionner en dehors du système globaliste tomberait dans le désarroi économique, mais ne reconnaît pas qu’en 2008, le monde est tombé dans le désarroi exactement parce que les nations étaient beaucoup trop interdépendantes, avec un mécanisme commercial tellement intriqué que l’effondrement d’une grande économie a entraîné la suivante qui a fait tomber la suivante. C’était une faiblesse cancéreuse déclenchée par le globalisme, et non par l’isolationnisme ou le nationalisme. Et c’est une faiblesse qui persiste en 2019.

Pourtant, la solution est toujours la même : plus de globalisme. Le manque d’autosuffisance et de redondance des économies nationales n’est pas quelque chose qu’il faut célébrer, mais qu’il faut corriger. Il n’est pas nécessaire qu’il en soit ainsi ; ce sont les globalistes qui l’ont fait.

Duper les masses dans l’amour de la globalisation

Comme le note Harari dans son article pour The Economist, la création d’une « identité globale » dans laquelle les masses remplacent la loyauté envers une nation ou une tribu par la loyauté envers leur espèce et envers la Terre ne doit pas être difficile. Tout ce qu’il faut, c’est un ennemi commun, et quel meilleur ennemi que la menace d’une guerre nucléaire, la menace des changements climatiques et la menace de l’intelligence artificielle?

Le recours à des menaces externes (dont certaines ont été fabriquées de toutes pièces) pour amener le public à adopter un état d’esprit voulu est le pain et le beurre des élites. Les changements climatiques causés par l’homme constituent une menace fabriquée de toutes pièces, constamment démystifiée et les données exposées comme truquées pour présenter des résultats prédéterminés. La grippe aviaire est une menace que les globalistes ont activement conçue (la DARPA en est la source première). La menace d’une guerre nucléaire existe depuis des décennies et je ne m’attends guère à ce que les élites globales démantèlent de telles armes une fois qu’elles auront pris le pouvoir sur un gouvernement global.

Et nous découvrons ici le sophisme sous-jacent du débat de Hariri et la position globaliste en général. Les élites évoquent des visions terribles de ce qui se passera si les États-nations et le tribalisme sont autorisés à perdurer, mais les catastrophes qu’elles prédisent, y compris la guerre ; la manipulation génétique ;  la militarisation de l’IA ; les crises de migration massive ; l’effondrement économique – toutes ces choses sont déjà causées par les élites. Et rien ne les empêcherait de continuer à causer de tels problèmes à l’avenir si elles obtiennent ce qu’elles veulent, à savoir une gouvernance globale totale.

Je ne vois pas pourquoi les institutions globalistes devraient être considérées comme plus dignes de confiance que les gouvernements nationaux, sans parler des tribus locales. Hariri est un professeur israélien qui a manifestement bénéficié du tribalisme de cette culture tout en la dénonçant. Les globalistes agissent comme s’ils étaient loyaux envers l’humanité, mais ils ne sont en réalité loyaux qu’envers leur propre idéologie parasitaire et leur propre tribu – la tribu globaliste.

Pour élever le globalisme vers quelque chose de plus proche d’une religion qu’une simple philosophie politique, Hariri tire de son sac de tours une dernière apparition utopique classique, la promesse de la divinité. Cette idée occupe une place plus importante dans ses livres que dans ses articles, mais elle réaffirme les soupçons dont j’ai parlé dans mon article « Luciferisme : un regard laïc sur un système de croyance globaliste destructeur ». À savoir, que le globalisme repose sur un fondement très similaire à l’idéologie luciférienne, et que la technocratie globaliste est motivée par l’obsession des sociopathes narcissiques à devenir des quasi-dieux.

Ils vendent cet avenir au public comme un leurre, mais je suppose que l’ordre global libéral ne donnera pas à la « classe inutile » le statut de divinité. Comme dans toute vision élitiste, seules les élites deviennent souveraines et sont déifiées. Le reste d’entre nous devient des rouages de la machine, si nous avons de la chance, et sont considérés comme sacrifiables si nous sommes malchanceux.

Brandon Smith

Liens

https://youtu.be/qqec8oWxpEI
 

vendredi, 08 mars 2019

Intelligence artificielle. Bluff technologique ou Game Over ?

IA-ff.jpg

Intelligence artificielle. Bluff technologique ou Game Over ?

par Thierry DUROLLE

« Créer une intelligence artificielle serait le plus grand événement de l’histoire humaine. Malheureusement, ce pourrait être le dernier, à moins que nous découvrions comment éviter les risques. » Stephen Hawking résume ici toute l’envergure d’un processus prométhéen qui pose nombre de questions. Mise au point.

Principes de base de l’intelligence artificielle

Dans les années 90, on assiste à l’essor du Machine Learning (ou « apprentissage automatique »). Les programmes informatiques fonctionnent grâce à des configurations bien précises qui forment des cadres dont il est impossible de s’extirper, bien que certains cas l’exigeraient. Le programme devrait être capable de prendre des mesures par lui-même. Pour cela, il a besoin de nouveaux algorithmes qui lui permettront d’apprendre en l’alimentant avec des données, puis, en lui permettant de les classer ou de faire des associations. Il s’agit ni plus ni moins que d’une imitation du mode d’apprentissage des enfants : on désigne un chien du doigt et on nomme ce que l’on vient de lui montrer. L’une des clés pour comprendre l’IA (intelligence artificielle) réside justement dans ce mimétisme de l’humain (et plus généralement du vivant) où la pensée mécaniste sert de passerelle entre le monde de la nature et celui de la machine. Cela explique sans doute pourquoi l’on peut rapprocher l’intelligence artificielle et le transhumanisme, tout deux faisant partie d’un élan prométhéen à tendance bio-mécanique.

La neuro-informatique, par exemple, élabore un système inspiré de notre réseau neuronal dans son principe de fonctionnement, à l’exception que les neurones sont ici remplacés par des algorithmes nommés perceptrons. C’est la base du Deep Learning (« apprentissage approfondi »), une version beaucoup plus élaborée du Machine Learning, développé par le chercheur français Yann Lecun et rendu possible par l’évolution des ordinateurs et par le Big Data. Pour le moment, la machine ne peut pas rivaliser avec l’homme puisque contrairement à celle-ci nous avons, en plus de nos connaissances, tout un tas d’expériences devant nous, de facultés tenant de l’innée, de sensations et d’émotions. Autrement dit, nous avons nos cinq sens pour connaître et explorer le monde, pour faire nos propres expériences et nos propres choix; la machine n’a rien de semblable – d’où l’utilité des données pour palier à tout ce qui est du domaine de l’empirique.

ia-hm.jpg

État des lieux de l’intelligence artificielle

La bonne nouvelle est que le scénario Terminator attendra encore pas mal de temps avant de pouvoir se réaliser. Néanmoins, et cela n’est pas pour autant très rassurant, l’IA est devenu une composante de nos vies sans forcément que nous nous en rendions compte. Lorsque vous naviguez sur le fil d’actualité d’un célèbre réseau social, les informations qui apparaissent sont sélectionnées via des algorithmes usant de procédés d’intelligence artificielle (par un décorticage de vos data). Il en va de même pour tout un tas de gadgets devenus des outils du quotidien pour un grand nombre de personnes, comme les traducteurs de langues, les reconnaissances vocale et faciale. Les domaines d’application sont nombreux : finance, médecine, armée ou encore jeux vidéos.

Les avancés en la matière sont objectivement prometteuses, notamment dans le domaine médical où l’intelligence artificielle permettra d’analyser à une vitesse fulgurante des données médicales, des radiographies pour repérer des anomalies difficiles à détecter à l’œil nu. L’IA se révèle extrêmement efficace dans le traitement et l’analyse des données. En fait, contrairement aux êtres humains, celle-ci s’avère efficace uniquement dans un domaine particulier pour une tâche elle-même extrêmement précise. Un bon exemple est le programme AlphaGo. Conçu pour le jeu de go, celui-ci a battu Lee Sidol, le meilleur joueur au monde, le 15 mars 2016. En revanche, ne demandez pas à AlphaGo de jouer aux échecs car il en est incapable. Ce à quoi il faut s’attendre en réalité s’apparente à « l’émergence d’une technologie de l’intégral » pour reprendre l’expression d’Éric Sadin, c’est-à-dire à la multiplicité d’applications ayant recours à l’IA dans notre quotidien. L’humanité enclenche le pilotage automatique.

ia-cloud.jpg

Utopie technicienne ou scénario Terminator ?

L’IA, qui n’est en définitive qu’une technique, nous est promu comme LA solution à nos problèmes, ce en quoi elle serait plus performante que son créateur pour certaines tâches spécifiques. L’homme ne serait en fin de compte perfectible qu’au-delà de sa condition biologique. Cette technique sera mise à toutes les sauces en terme de résolution collectives : fin des problèmes de chômage, d’économie, de politique, d’écologie, etc. D’ailleurs le monde économique se frotte les mains à l’idée d’usines entièrement robotisées.

Pour l’instant nous ne sommes qu’au commencement de ce que les chantres de l’IA appelle une révolution. Si ces derniers comprennent le mot révolution comme une subversion, ils ont sans doute raison, mais, quid de l’ampleur de cette révolution ? Ne s’agit-il pas en fin de compte d’un bluff technologique, pour emprunter l’expression de Jacques Ellul ? Ou alors, à l’opposé, avons-nous ouvert une boite de Pandore débouchant sur le scénario Terminator ? Les défenseurs de l’IA répondront que la machine n’a pas de volonté propre si ce n’est celle qui lui a été insufflée. Par conséquent, si l’on ne programme pas la possibilité pour un robot de faire le mal, celui-ci ne pourra pas s’exécuter. La machine peut-elle échapper à notre contrôle ? En août 2017, des chercheurs du Facebook Artificial Intelligence Research (FAIR) publient une étude dans laquelle ils expliquent que deux robots communicatifs programmés pour la négociation, appelés chatbots, ont inventé leur propre langage. Les chercheurs disent avoir arrêté le programme qui « ne fonctionnait pas comme prévu »…

ia-ch.jpg

Après Prométhée, faire face à notre destin

Le véritable risque réside en fait dans cette emprise du technologisme sur nos vies (via et pour le plus grand bonheur du techno-capitalisme). Il suffit de voir les habitants des villes, mais aussi parfois des campagnes, le nez collé à leurs smartphones, la montre connectée vissée au poignet, pour se convaincre de la domination de la technique sur une partie de l’humanité. Déformé neurologiquement, mentalement et physiquement, le dos courbé pour être toujours plus près de l’écran du smartphone, les yeux fatigués par la lueur de celui-ci : voilà les techno-zombies, mus par des applications Androïd qui leur indiquent le grammage adéquat de nourriture qu’ils doivent ingérer pour continuer à exister, et qui les préviendront bientôt quand ils devront aller à la selle et comment s’accoupler récréativement. Parler d’accoutumance, voire carrément de dépendance, n’est donc pas exagéré. Tablettes, GPS, biométrie, réseau sociaux : ce que l’on gagne en côté pratique, en utilité, on le perd en indépendance, c’est-à-dire, en fin de compte, en liberté.

L’IA conçue comme une extension-outil de nous-même, indispensable à notre bon fonctionnement, voilà le danger ! En tant que partisan d’un monde organique, du Kosmos, de la saine mesure autrefois prônée par les Grecs anciens, lutter contre l’atomisation, la rationalisation fanatique et le mécanicisme cartésien devient, jours après jours, un impératif de survie. Nous sommes en train de faire face à un défi technique, économique, écologique, civilisationnel, et spirituel. Soyons lucide sur la situation, nous nous dirigeons tout droit sur un chemin hasardeux où les périls ne manquent pas. L’idéologie du Progrès nous amène peut-être à marche forcée vers la fin de l’Histoire… Alors, à l’heure où paraît enfin La perfection de la technique de Friedrich-Georg Jünger, et où l’on redécouvre l’œuvre de Bernard Charbonneau, résonne dans notre esprit un seul mot d’ordre : « Décélérons ! »

Thierry Durolle

jeudi, 29 mai 2014

Posthuman Prospects: Artificial Intelligence, Fifth Generation Warfare, & Archeofuturism

artificial-intelligence-ai-588x400.jpg

Posthuman Prospects:
Artificial Intelligence, Fifth Generation Warfare, & Archeofuturism

By Christopher Pankhurst

Ex: http://www.counter-currents.com

The speed of technological development can be dizzying, and it has become natural for us to expect a never-ending stream of faster, more powerful devices. The future development of such technologies promises increasingly sophisticated machines that will challenge the very notion of man’s supremacy. The dystopian future of intelligent machines endowed with astonishing capabilities, whose very existence might cause them to supersede humanity, is being enthusiastically pursued.

Some thinkers have sought to address the implications of such technologies, and have described models that integrate these technologies within a wider future scenario. Two such models, and their treatment of future technologies, will be discussed here: fifth generation warfare (5GW); and Archeofuturism.

Fifth Generation Warfare

The 5GW model had its genesis in a paper published in the Marine Corps Gazette in 1989 entitled “The Changing Face of War: Into the Fourth Generation.” In this paper, Lind et al. developed a model of modern warfare described in terms of four generations of evolutionary development. The first generation of modern warfare (1GW) was characterized by the use of line and column, and muskets. This generation was exemplified in the Napoleonic wars. The second generation (2GW) utilized more ruthless technology, e.g. machine guns and rifles, and was tactically more mobile. World War I represents the peak of 2GW. The third generation (3GW) was the dominant model for most of the remainder of the twentieth century. It attempted to bypass the enemy’s front line through infiltration and rapid movement, and again utilized more deadly technology such as tanks. It is characterized by Blitzkrieg.

The article then argued that a fourth generation of warfare (4GW) was emerging. 4GW “seems likely to be widely dispersed and largely undefined; the distinction between war and peace will be blurred to the vanishing point. It will be non-linear, possibly to the point of having no definable battlefields or fronts. The distinction between ‘civilian’ and ‘military’ may disappear.”[1] 4GW operatives will not necessarily be identifiable as combatants; instead they will blend into the enemies’ society until they strike. Obviously, the 9/11 attacks fit this model very well.

Since the publication of “The Changing Face of War” there have been attempts to update the generational model to include a fifth generation. In 5GW, the battlefield encompasses the entirety of social, political, ideological, scientific, economic, and military spheres. It is possible, and in many respects desirable, for the combatants in 5GW to not know whom they are fighting, nor to even know that they are fighting. The full range of Nano-Bio-Info-Cogno (NBIC) technologies are expected to be deployed in 5GW, though in ways that will be highly unpredictable, and perhaps even invisible. A characteristic feature of 5GW is the manipulation of the context of the observers of conflict. Rather than focusing on the physical defeat of an enemy, 5GW recognizes the potential for new technologies to manipulate the belief systems of observers who may support or oppose conflict.

It will be seen that the generational model of warfare is characterized by advances in both technology and tactics. Although the technologies particular to the fifth generation are still emerging, there is already a great deal of international conflict taking place in a 5GW context. As is characteristic of 5GW, these conflicts are somewhat subliminal to exoteric politics.

Cyber Warfare

One element of 5GW that is becoming increasingly important is cyber warfare. In 2008 an American army officer stationed in the Middle East found a discarded memory stick. When he put it into his laptop it appeared to be empty. In fact, it contained a Trojan virus which embedded itself into the American military computer network and was able to send secret information for weeks before being discovered. It is believed to have originated in China. In 2009 there were coordinated cyber-attacks launched against military, banking and media sources in South Korea. The obvious guilty party would be North Korea, but these attacks can be impossible to trace to the source. When the South Koreans investigated the matter they found that the attacks were launched from six computers scattered around the world, with the order to attack coming from a server in Brighton, England. Also in 2009 the American National Grid became infected with a virus from China designed to shut it down. And, in an incident in 2010, 15% of the world’s internet traffic was hijacked by Chinese servers where it will have been copied.[2]

One of the biggest cyber threats of recent years is, as yet, unattributable to any source. The Conficker worm first appeared in 2008. A worm is a type of malware that spreads across computer networks of its own accord. Whereas a virus can only infect a computer by being downloaded by the user (in an email attachment, for example), a worm is designed to exploit flaws in the operating system to spread itself. The Conficker worm was designed to create a botnet, which is a network of infected PCs that are effectively under the control of the worm’s creator, although individual PC users will not even realize that their machine is infected. Botnets can be used to disrupt websites or other systems that rely on internet communication by issuing Dedicated Denial of Service (DDoS) attacks. A DDoS occurs when a particular target is overwhelmed with a massive number of requests causing it to crash. The larger the botnet, the more effective it can be at taking down substantial targets.

Cyber warfare need not be aimed at bringing down large scale networks; it can be much more focused. The Stuxnet worm is believed to have been created by either Israel or the United States. In all probability it was a joint project, but the impossibility of determining who actually created the worm is characteristic of these sorts of cyber attacks and of 5GW. Although Stuxnet infected PCs around the world it only caused damage to certain machines in Iran. Stuxnet works by exploiting a known weakness in the Windows operating system. It was designed to disrupt a specific piece of software designed by Siemans AG. This software was used in Iran to separate weapons grade isotopes from uranium. Stuxnet caused the centrifuges used in this process to lose control, thus ruining the effort at processing uranium. This has obviously caused a setback to Iran’s nuclear ambitions.[3]

Transhumanism and Archeofuturism

These are the sorts of 5GW conflicts taking place right now using existing technologies. It is expected that the future development of 5GW will involve transhuman, super-empowered actors whose capabilities, enhanced through NBIC technologies, are so far in advance of anything that we could recognize that they will be effectively post-human. The technological convergence of computer applications and genetic modifications, it is argued, will blur the definition of “human” to such an extent that it will no longer be possible to conceive of the world from an anthropocentric viewpoint at all. As one writer on transhuman politics puts it:

The convergence of these fields comes from the fact that at the nanometer scale the differences between living and nonliving systems become indistinguishable. The body (including the brain, and whatever we might call ‘mind’) can be restructured. Medical devices can be implanted that will produce as well as dispense drugs inside of the host, including the brain. Supercomputers the size of a cell may be introduced, monitoring for and preventing disease. More generally, while at one time the physical evolution of the human species relied upon the random mutation, distribution, and environmental selection of genes, NBIC technologies make it possible to conceive of a self-designed and self-modified organism.[4]

This “transhuman” 5GW model of the future fits very well with the “Archeofuturist” model as presented by Guillaume Faye. Faye’s manifesto for a post-catastrophic age presents a future world of radical inequality, where non-Europeans have been expelled from Europe, and where technological innovation and development have progressed to such an extent that the boundaries between man and machine are no longer clear. In this Archeofuturist world, which even now still seems like science fiction, European man has to confront the challenges presented by advanced technologies by returning to an archaic value system predicated on hierarchical structures.

Things such as artificial births in incubators; intelligent, ‘quasi-sensitive’ and quasi-human biotronic robots; chimeras (crossbreeds between humans and animals, a patent for which has already filed in the United States); genetic manipulations or ‘transgenic humans’; new artificial organs that increase the faculties tenfold; the creation of hyper-endowed and ultra-resistant individuals through positive eugenics; and cloning – all risk shattering the old egalitarian and religious idea of man even more than Darwin and evolutionary theories have done.[5]

Faye paints a plausible and compelling picture of a “post-human” world where advanced technologies will destroy the existing humanist presuppositions. The only response to this situation will be to return to archaic, pre-humanist ways of thinking, and to turn metaphysical shock to our advantage by creating elites of post-human Europeans.

 

robot-artificial-intelligence.jpg

 

The merit of both the 5GW and Archeofuturist models derives from the fact that they anticipate paradigmatic technological advances, and provide a means to understand this impending scenario, thus enabling us to prepare for the shock of the new. In this respect both models are essential for understanding the way in which power struggles are likely to play out in the coming decades. Nonetheless, the neophilia of both models may cause us to expect advances in technology that might never happen. Both models assume that certain futuristic technologies are imminent and that those technologies will have fundamental consequences for our societies. But it is by no means certain that such technologies will ever, or indeed can ever, be created. The natural barriers to paradigmatic advances in technology in the near future are peak oil and the impossibility of achieving artificial intelligence.

Peak Oil 

The phenomenon of peak oil has been discussed extensively in recent years, but there is little sign that industrialized economies are waking up from the dream of unlimited progress that has beguiled them for so long. It is believed that the peak of planetary oil production has just about been reached, or perhaps even passed. This means that industrialized economies will find it more and more difficult and expensive to continue using oil. As oil becomes more scarce there will be profound effects on all levels of society, not least of which will be food shortages caused by the breakdown of food distribution networks, all of which are entirely dependent on oil, and the consequent violence and population displacements that will follow as a necessary corollary.

Critics of peak oil often argue that new, and cleaner, fuel sources will be developed to pick up the slack that declining oil production will leave. In fact, Faye himself is guilty of this in that he advocates nuclear energy as a clean alternative to oil.[6] He also considers a range of other alternative energy sources such as solar and windmills. The problem with this scenario is that existing alternative energy sources only produce a fraction of the energy that is currently being consumed. While the entire political establishment continues to maintain that economic growth is an unquestionable panacea, it will be necessary to continue using greater quantities of energy year after year for the system to continue. Worse still, the existing alternative energy sources rely on the existence of an oil economy to help subsidise their production. When oil starts to run out, these sources will have to begin relying more heavily on using alternative energy in their production, thus reducing further the net efficiency of such sources. Oil is the cheapest source of energy to produce. Even renewable sources are expensive to exploit. In The Long Descent, John Michael Greer writes:

Making a solar cell, for instance, requires large infusions of diesel fuel first to mine the raw materials and then to ship them to the factory. Even larger doses of natural gas or coal are needed to generate the electricity that powers the complex process of turning the raw materials into a cell that will make electricity out of sunlight. . . Not even the most optimistic calculations show solar cells yielding anything in the same ballpark as the net energy routinely produced by all but the poorest fossil fuels. The same, as it turns out, is true of every other alternative resource.[7]

With declining oil production, and with alternative sources unable to fulfill the shortfall, we are left relying on some new, radically efficient, source being developed. Without such a miraculous development occurring, industrial society will inevitably break down.

Greer writes of four facets of collapse that will follow on from peak oil:

  1. Declining energy availability.
  2. Economic contraction.
  3. Collapsing public health.
  4. Political turmoil.[8] 

These four scenarios should be considered in conjunction with the convergence of catastrophes described by Guillaume Faye. Faye identifies seven fracture lines of modernity that are predicted to come into effect in the years between 2010 and 2020:

  1. Metastasis of the European social fabric.
  2. Economic and demographic crisis.
  3. The chaos of the South.
  4. Global economic crisis.
  5. The surge in fundamentalist religious fanaticism.
  6. Confrontation between North and South.
  7. Unchecked pollution of the planet.[9]

All of these factors when taken together point to a radical collapse of the post-industrial lifestyles that all Westerners have come to regard as axiomatic. Faye foresees an elite, technologically advanced minority of Europeans developing futuristic advanced technologies based on inegalitarian, elitist principles. The technologies available to this minority would become occult: hidden from the view of outsiders like the secrets of a mystery school; shared only with initiated members. The majority of Europeans outside of big cities would revert to a more agrarian and essentially pre-industrial lifestyle.

While it is likely that the technological regression of the majority will come to pass, it is far from certain that the futuristic technologies of the elite will ever be developed.

Artificial Intelligence

In addition to peak oil, there is another barrier to such technologies. Any futuristic technology will be limited by the extent to which artificial intelligence (AI) can be created in computers or robots. In the transhuman future predicted we will be able to utilize such technologies to design and fast-track our own evolutionary development. This, combined with the expected advances in AI, will lead to a post-human world where the very category of “human” will have been superseded to such an extent that it will only make sense in the neo-medieval rural areas. This predicted future, if it is to come, will have to overcome the obstacles that have hampered research into the development of AI.

One of the most skeptical voices concerning the scope of AI research is that of Hubert Dreyfus. In 1965 Dreyfus was asked to write a paper on the future of AI research for the RAND Corporation. He produced a document called Alchemy and AI[10] which likened the research of contemporary AI researchers to the medieval alchemists’ attempts to turn base metals into gold. Dreyfus was convinced that the problems facing AI were not problems of processing power, size of memory capacity, or any other practical difficulties. He claimed that there were fundamental problems in principle with the claim that human intelligence could be reproduced in a digital computer.

Dreyfus continued to explore these ideas in his later works.[11] He went on to identify four assumptions which he believed were uncritically, and often unconsciously, being utilized by AI workers to underpin research into AI. Dreyfus believed that the goal of achieving artificial intelligence in a computer could only be achieved if these four assumptions were correct but that, in fact, they were all false. These assumptions were the biological assumption, the psychological assumption, the epistemological assumption, and the ontological assumption.

The biological assumption is based on the fact that neural firings in the brain are “all or nothing” bursts of energy. This observation from neuroscience has been extrapolated to imply that such firings therefore correspond to bits of information in a digital computer, which operate in a binary “all or nothing” manner. In a computer, each bit of information is a discrete unit that has a particular symbolic function. But in the brain, Dreyfus argues, the neural firings that superficially resemble such bits of information are modified and “interpreted” according to many other localized conditions, such as rate of pulsing, frequency of pulsing along particular pathways, and interaction with other neurons. In short, the biology of the brain appears to be more analogue than digital in character.

The psychological assumption prompts a somewhat philosophical treatment from Dreyfus. Researchers in AI usually assume that human psychology is a process that operates rather like a computer program, that is, that it is essentially an exercise in information processing. The problem for AI researchers is how to translate the physical properties of the brain into the higher level intellectual concepts of the mind. As long as the brain is described in terms of its physical behavior there is no problem; seeing a chair can be described as the presence of light waves on the retina causing a sequence of chemical reactions in the brain, all of which can be described quite precisely. But to speak of really “seeing” a chair it is necessary to use a different sort of language, language which is more appropriate to the mind than the brain. AI researchers, according to Dreyfus, attempt to bridge this gap by suggesting that there is a level of information processing that occurs in the brain that can organize neuro-chemical bits of information into higher-level concepts. Unfortunately, there is no evidence that this is the case; in fact, in the absence of evidence AI researchers postulate as yet unknown information processing functions of the brain, merely based on the supposed analogy with computers.

The epistemological assumption is concerned with the way in which humans know how to perform particular actions. It describes the belief that all non-arbitrary behavior can be formalized, and therefore can be reproduced. Dreyfus argues that any such formalization of human behavior, which would enable it to be programmed into a computer, would merely result in an imitation, ratherthan a reproduction, of that behavior. The computer would need to follow discrete stages of processing in order to perform any particular function and Dreyfus is far from convinced that this is in fact how humans behave in practice. AI researchers assume that behavior must follow certain heuristic steps, and that where someone is unaware of following such steps that they must be being carried out unconsciously. Against this view, Dreyfus argues that human behavior is always rooted in a particular situation and orientated towards certain goals. Because of this, people effortlessly grasp the particular local aspect of any subject under consideration due to their experience in the situation. A computer has to work through all possible interpretations, discard those that are irrelevant, and focus on those that are relevant. Human beings do not follow such procedures due to their being located in a particular existential situation.

artificialintelligence-615x345.jpg

The ontological assumption concerns a fundamental problem for AI research. As Dreyfus notes, “the data with which the computer must operate if it is to perceive, speak, and in general behave intelligently, must be discrete, explicit, and determinate; otherwise it will not be the sort of information which can be given to the computer so as to be processed by rule.”[12] Because computers must operate in terms of such discrete data it has become habitual for AI researchers to make the assumption that these data are actually present as an aspect of the world; that we, in fact, perceive the world through such data. Contrary to such researchers Dreyfus posits that, even where we are able to make explicit our perceptions of certain objects, any such fact is itself contextualized by its particular human situation: “Even a chair is not understandable in terms of any set of facts or ‘elements of knowledge.’ To recognize an object as a chair, for example, means to understand its relation to other objects and to human beings. This involves a whole context of human activity of which the shape of our body, the institution of furniture, the inevitability of fatigue, constitute only a small part.”[13] Moreover, this situation cannot itself be reduced to isolated, context-free facts; it is colored by influences from the preceding situation, so that we build up associations and interpretations over time.

For a computer, this learning-through-time model presents a problem. If data can only be interpreted according to a situation, and if that situation relies for its meaning on the previous situation, then it seems to lead to an infinite regress. At some point a programmer has to decide what information to give to a computer to begin with, and this will be based on the programmer’s own human situation; it will not arise naturally from the computer’s “consciousness.” In humans, this paradox is avoided by the fact that we are, in Dreyfus’ words, “wired genetically as babies” to recognize certain stimuli as positive and nurturing, and others as harmful. This appeal to genetics provides a powerful argument for the unique nature of human consciousness.

This is a fundamental problem facing some of the technologies predicted by the 5GW transhumanist model, and by the Archeofuturist model. The development of advanced bio-engineering, genetic manipulation and post-evolutionary technologies will be limited by the fact that human consciousness is not replicable. Its functionality is not reducible to discrete bits of information. The sophistication of human consciousness comes from the fact that it has been developed and improved upon over inconceivably long periods of time, through genetic evolution. This process of evolution has developed certain survival mechanisms that have become purely instinctual over time, so that they now appear to be natural, innate qualities. These instinctual qualities are not marginal accretions that can be input into a computer program. They are the foundational qualities on which consciousness has been built over millennia of millennia. While it is possibly to initiate certain genetic developments through eugenics or miscegenation, for example, and while computer programs can imitate evolutionary pressures, these are not the same thing as evolution itself. Evolution is not concerned with innovation for its own sake, nor for the sake of man, but with the survival of the gene. The survival benefits of any organism can only be tested through time; there can be no short cut.

Asymmetric Warfare Against Technology

Regardless of the considerations given above, effective political action in the future will not be dependent upon advanced technologies. A distinguishing characteristic of the 4GW scenario is asymmetric warfare. The 9/11 hijackers used small knives to disrupt the functioning of the world’s leading superpower in profound ways that are still being felt more than a decade later. In the 5GW model such asymmetry is still a factor; if anything its effects will be exacerbated.

The oil-rich Niger Delta has been the scene of perhaps the most successful 5GW campaign of the last decade. Henry Okah has been referred to as “one of the most important people alive today, a brilliant innovator in warfare. A true global guerrilla.”[14] He is the mastermind behind the Movement for the Emancipation of the Niger Delta (MEND), an organisation dedicated to retaining a greater share of the oil wealth for Nigerians. In furtherance of this aim MEND have sabotaged oil fields, siphoned off oil, and taken oil workers hostage. These actions are all intended to make it difficult for Shell to continue its oil operations in the Delta. MEND have managed to curtail $29 billion of oil production by Shell. The financing of MEND is minuscule in comparison, as it operates as a 5GW actor. Mercenaries are hired via text messaging for specific jobs, so the membership is nebulous. The publicity for MEND’s attacks is generated through e-mails to news outlets claiming responsibility; the organisation itself remains invisible. This type of system-disruption is easily copied by sympathetic followers, so the arrest of Okah in 2008 did not lead to the demise of MEND. Instead, Okah has provided a model of 5GW that enables otherwise unconnected groups to carry out actions in the name of MEND.

This type of asymmetric 5GW warfare does not depend upon highly advanced, futuristic technologies for its success. While some operations, such as the Conficker and Stuxnet worms, will utilize highly technical means, others will require no more than mobile phones, or e-mail. Or even the old fashioned techniques of sea piracy which are already beginning to make some oil fields prohibitively expensive to protect. It should also be noted that although cyber warfare utilizes cutting edge computer programming, its intention is to destroy existing technological systems. Large scale technically advanced societies come to rely on such technological systems for their survival. Energy grids, social security payments, food distribution networks, are all highly vulnerable systems. In fact, in a modern, technologically dependent society the vulnerability becomes ubiquitous.

The successful 5GW operative will not be dependent upon super-empowered technologies, as these technologies will be subject to similar vulnerabilities as existing ones. Instead, he will be a genuinely super-empowered individual, motivated by deep, archaic loyalties such as Islam or nationalism. While he will be willing to utilise any technologies to his own advantage he cannot afford the visibility that would be inherent in dependency on large scale systems.

A Return to Limits

The post-human technologies that Faye is expecting will not be sustainable, but it should be borne in mind that many people do in fact expect science to continue progressing towards more and more sophisticated solutions. The idea of AI, for example, is something that most people regard as a matter of “when,” not “if.” The successful 5GW operative will not expect technology to deliver his solutions but he will recognize that most people are still slaves to such dependency. As the convergence of catastrophes plays out people will become more dependent on failing governments and unsustainable technologies at exactly the time when they should be becoming more self-sufficient.

The desire to find short cuts and to invent technical solutions is indicative of the impatience of the present age. The utilization of fossil fuels that led to the creation of industrialized societies benefited from the fact that such fuels had accrued their energy potential over millions of years:

All the fossil fuels, in energy terms, are stored sunlight heaped up over geologic time. . . No human being had to put a single day’s work or a single gallon of diesel fuel into growing the tree ferns of the Carboniferous period that turned into Pennsylvanian coal beds, nor did they have to raise the Jurassic sea life that became the oil fields of Texas. The second half of Nature’s energy subsidy took the form of extreme temperatures and pressures deep within the Earth. Over millions of years more, these transformed the remains of prehistoric living things into coal, oil, and natural gas and, in the process, concentrated the energy they originally contained into a tiny fraction of their original size.[15]

These resources, if they had been developed in more sustainable ways, and used to serve more balanced societies, could have benefited us for many years to come, but we have squandered them with our impatience and greed. In an analogous way, we are highly impatient with the technologies that we wish to invent. We are unsatisfied with the intelligence that has been bequeathed to us through millions of years of evolution and we wish to create a copy of it, as soon as possible.

What has been lost is a certain sense of balance, and a knowledge of natural limitations. Ambitious innovation is certainly a virtue but when it relies upon the false premise of unlimited natural resources, or the belief that we can short cut evolution by recreating intelligence at will, it becomes the vice of hubris. Undoubtedly, we will face challenges in the future provoked by advanced technologies. And, equally certain, as we run out of natural resources, governments will increasingly ring fence such resources for themselves to continue with unsustainable military research programs. In this sense, Faye’s two tier system will come to pass although it is unlikely to operate in the interests of European man. Instead, there will be a return to more sustainable, more rural, societies that will have to learn once again what it means to live in accord with natural limitations, and that will be forced to become reacquainted with the slow passing of the seasons.

Notes

1. William S. Lind, Colonel Keith Nightengale, et al., “The Changing Face of War: Into the Fourth Generation,” Marine Corps Gazette, 1989, pp. 22-26.

2. Fraser Nelson, “China’s Spy Network,” The Spectator, December 4, 2010, pp. 12-13.

3. Mark Bowden, Worm: The First Digital War (New York: Grove Press, 2011).

4. Daniel McIntosh, “Transhuman Politics and Fifth Generation War,” in Daniel H. Abbott, ed., The Handbook of 5GW: A Fifth Generation of War? (Nimble Books, 2010).

5. Guillaume Faye, Archeofuturism (London: Arktos, 2010), pp. 109-10.

6. Ibid., p.146.

7. John Michael Greer, The Long Descent: A User’s Guide to the End of the Industrial Age (New Society Publishers, 2008), pp. 18-19.

8. Ibid., pp. 82-83.

9. Faye, Archeofuturism, pp. 59-66.

10. Hubert Dreyfus, Alchemy and AI (RAND Corporation, 1965).

11. See, e.g., Hubert Dreyfus, What Computers Still Can’t Do: A Critique of Artificial Reason (Cambridge, Mass.: MIT Press, 1992).

12. Ibid., p. 206.

13. Ibid., p. 210.

14. John Robb, “Henry Okah,” Global Guerrillas, February 28, 2008, http://globalguerrillas.typepad.com/globalguerrillas/2008/02/henry-okah.html [2]

15. Greer, The Long Descent, p. 19.

An earlier version of this essay appeared in Le Salon: Journal du Cercle de la Rose Noir, Volume 1 (London: Black Front Press, 2012).

 


Article printed from Counter-Currents Publishing: http://www.counter-currents.com

URL to article: http://www.counter-currents.com/2014/05/posthuman-prospects/

URLs in this post:

[1] Image: http://www.counter-currents.com/wp-content/uploads/2014/05/chirico.jpg

[2] http://globalguerrillas.typepad.com/globalguerrillas/2008/02/henry-okah.html: http://globalguerrillas.typepad.com/globalguerrillas/2008/02/henry-okah.html