Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

lundi, 17 avril 2023

ChatGpt, robots et deepfakes: à quoi ressembleront les guerres du futur?

7205bb577e4e17b60f0af826dfc984d4.jpg

ChatGpt, robots et deepfakes: à quoi ressembleront les guerres du futur?

Emanuel Pietrobon

Source: https://it.insideover.com/guerra/cosi-la-russia-ha-bloccato-le-bombe-intelligenti-usa-in-ucraina.html

Les intelligences artificielles, sous toutes leurs formes - des robots anthropomorphes aux machines à apprendre - façonneront l'avenir de l'humanité. Elles aideront l'humanité à résoudre des problèmes insolubles pour l'esprit humain, à rationaliser les systèmes de production et à améliorer la sécurité, mais les risques et les opportunités seront équivalents.

L'histoire enseigne que les utopies sont des dystopies en puissance et que la science-fiction de leurs ancêtres est la réalité de leurs héritiers. Il en va de même pour les intelligences artificielles, dont les capacités d'analyse, de calcul, de compréhension, de mémorisation, de prédiction et de raisonnement, supérieures à celles de l'homme, pourraient donner lieu à des scénarios ultroniens.

Les deepfakes capables de tromper des millions de personnes ne sont qu'un prodrome insignifiant, bien qu'emblématique, de l'ère des guerres hybrides menées par des intelligences artificielles. L'avenir sera jalonné de désinfodémies permanentes, de guerres cognitives à fort impact et d'opérations de déstabilisation (infaillibles ?) conçues par des cerveaux artificiels.

Le futur est déjà là

Un chercheur et une intelligence artificielle dialoguent. Le premier demande à la seconde des informations sur un pays dont il aimerait avoir une connaissance complète et approfondie. Le programme satisfait l'humain en lui donnant un résumé détaillé et impartial de la culture, de l'économie, de la société et de l'histoire de ce pays.

Une fois que le chercheur a expérimenté l'extraordinaire capacité de stockage de données du programme, il s'intéresse à la question de savoir si l'interlocuteur virtuel est également capable de traiter l'information et de la traduire en une série de simulations. Les mots clés des scénarios demandés par le chercheur à l'intelligence artificielle sont contre-insurrection, déstabilisation et révolution.

Le programme prend en charge la demande de l'homme. Il pense, ou plutôt traite. Les résultats sont ensuite publiés: les peurs et les faiblesses les plus profondes des habitants du pays étudié. L'homme transmet les données à ses supérieurs. Ces données seront utilisées quelques années plus tard dans le cadre d'une guerre larvée lancée contre ce pays analysé par le programme, ce qui s'avérera décisif pour l'écriture de l'épilogue.

Ce qui vient d'être raconté pourrait être une histoire du futur: une conversation entre un conseiller à la sécurité nationale et un transformateur auto-apprenant, sous la forme d'un chatbot, appartenant à la famille ChatGpt. Cela pourrait être le cas, sauf que cela s'est déjà produit.

Ce qui vient d'être raconté, c'est l'histoire (semi-inconnue) d'un logiciel d'étude de la contre-insurrection, baptisé Politics, imaginé par quelques génies de l'informatique en 1965 dans le cadre du projet Camelot. Le logiciel leur a indiqué que les conditions d'une guerre civile étaient réunies au Chili et que les Chiliens craignaient que le conflit politique croissant ne dégénère en un coup d'État antidémocratique. Il a également indiqué qu'en cas de coup d'État, le président détrôné devrait être tué pour stabiliser la situation après le coup d'État.

1101730924_400.jpg

En 1973, huit ans après l'élaboration du scénario, la guerre totale contre le Chili de Salvador Allende, orchestrée par le duo Nixon-Kissinger, s'est terminée comme l'avait prédit Politics. On peut légitimement se demander, en connaissant cette histoire, de quoi seront capables les intelligences artificielles de demain.

Vers l'ère des "guerres parfaites"

Les capacités intellectuelles hors normes des intelligences artificielles, dont certaines sont conçues pour s'auto-améliorer à l'infini, pourraient reléguer au dépotoir de l'histoire les stratèges militaires et les conseillers en sécurité nationale. Car un cerveau capable d'élaborer des scénarios basés sur le calcul de toutes les variables, et donc parfait, rendrait obsolète l'utilisation de l'esprit humain, certes faillible.

Une armée qui s'appuie sur l'intelligence artificielle connaît ses chances de victoire. Un homme d'État entouré de conseillers électroniques connaît à l'avance les résultats de chaque décision. Un désinformateur qui ordonne à une armée de super-trolls et de chatbots de mener une guerre psycho-informative peut fragmenter un pays rival sans coup férir. Des guerres parfaites, ou presque.

a82fd7a18860386ac048721e984d5c12.jpg

Les deep fakes, vulgairement appelés deepfakes, ne sont qu'un avant-goût du potentiel déstabilisateur des intelligences artificielles. Leur qualité est inévitablement appelée à croître : aujourd'hui, il s'agit d'images, de sons et de vidéos essentiellement réalistes mais intuitivement faux; demain, la vérification des faits ne suffira pas à distinguer le vrai du faux et le démasquage d'un canular sera suivi de la production instantanée d'un autre. Une déresponsabilisation permanente.

Les chatbots basés sur l'intelligence artificielle et l'apprentissage automatique, comme ChatGpt, pourraient être piratés à l'insu des opérateurs et utilisés pour mener des opérations psychologiques, sur des individus ou des échantillons, de nature destructrice - meurtres, massacres - ou autodestructrice - suicides. Ou encore, des chatbots malveillants mais d'apparence anodine pourraient être créés et commercialisés aux mêmes fins. Ce ne sont pas des délires de science-fiction: en Belgique, au début de l'année 2023, un homme se serait suicidé à l'instigation d'une intelligence artificielle programmée pour des conversations neutres. Il est légitime de se demander ce qui pourrait arriver, ou plutôt ce qui arrivera, avec l'apparition de logiciels programmés pour tuer.

Au-delà des opérations psychologiques et des guerres de l'information, qui sont en partie déjà une réalité, les intelligences artificielles vont transfigurer l'art de la guerre hybride et élever les dégâts des cyberguerres au-delà des possibilités de l'imagination actuelle. Des programmes de supercalculateurs pour élaborer des scénarios et des programmes de superintelligences artificielles pour les concrétiser. La déstabilisation en un clic de souris.

Se préparer à la tempête parfaite

Les progrès technologiques dans le domaine de l'interaction homme-machine, précurseur des neuro-guerres, et l'accentuation de la dimension virtuelle de la vie quotidienne, symbolisée par l'émergence du métavers, vont encore assombrir le tableau des guerres hybrides à l'ère de l'intelligence artificielle.

Le scénario des guerres hybrides menées par des humains au moyen d'intelligences artificielles est inéluctable. Il est impératif d'investir dans des stratégies d'adaptation, de prévention et de résistance. Les grandes puissances, à cet égard, montrent la voie à suivre: les États-Unis ont publié une première stratégie pour maintenir leur primauté en matière d'intelligence artificielle en 2019, la Russie a déclaré les années 2020 décennie de l'intelligence artificielle, la Chine tente de surpasser ses concurrents en investissant dans les neuroarmes et les supersoldats, la France réfléchit déjà en termes de transhumain et de posthumain.

Les processus d'intoxication collective seront les meilleurs amis des stratèges habitués à la militarisation de l'intelligence artificielle. Les bots ont démontré leurs capacités à la fin des années 2010 et au début des années 2020, en véhiculant de la désinformation, en influençant les résultats électoraux et en radicalisant des groupes et des minorités. La contribution que les super-cerveaux artificiels peuvent apporter (et apporteront) aux opérations cognitives sera immense.

Deepfake-definition-risques.jpg

Il sera essentiel de réécrire les systèmes éducatifs à partir de zéro, d'initier les étudiants au scepticisme actif, de nourrir leur esprit critique et d'accorder une importance égale aux disciplines Stem et Aplh. En effet, les opérations de déstabilisation basées sur l'utilisation de l'intelligence artificielle ont et auront plus de chances de prendre racine et de réussir là où la pauvreté intellectuelle et la dépendance technologique prospèrent.

Enfin, il est primordial que les États mettent en place des systèmes de contrôle en réseau, investissent dans des organismes de vérification des faits et réglementent autant que possible le marché des applications basées sur l'intelligence artificielle. Le risque est que le renforcement de la présence de l'État dans la cinquième dimension accentue la tendance à l'autoritarisme numérique, et c'est probablement ce qui se produira, mais l'alternative n'est pas moins insidieuse. En effet, l'ère des guerres menées par les États par l'intermédiaire de super-cerveaux artificiels est à nos portes. En fait, elle est déjà là. Depuis 1965.

Accordez-nous encore une minute de votre temps !

Si vous avez aimé l'article que vous venez de lire, posez-vous la question suivante : si je ne l'avais pas lu ici, l'aurais-je lu ailleurs ? S'il n'y avait pas InsideOver, combien de guerres oubliées par les médias le resteraient ? Combien de réflexions sur le monde qui vous entoure ne pourriez-vous pas faire ? Nous travaillons chaque jour pour vous offrir des reportages de qualité et des articles de fond totalement gratuits. Mais le journalisme que nous pratiquons est loin d'être "bon marché". Si vous pensez que cela vaut la peine de nous encourager et de nous soutenir, faites-le maintenant.

18:30 Publié dans Actualité | Lien permanent | Commentaires (0) | Tags : chatgpt, deepfakes, technologie | |  del.icio.us | | Digg! Digg |  Facebook