Europe Solidaire
CultureEconomieEducationEnvironnementInstitutionsInternationalSciencesSécurité/DéfenseSocialTechnologiesValeurs
Aggrandir Réduire Reinitialiser
Les mots clés

Les robots militaires intelligents décideront-ils de s'attaquer aux humains amis ?

La question est souvent posée par des experts inquiets des progrès rapides que font depuis deux ans les robots militaires dits intelligent, robots terrestres puis de plus en plus drones voire missiles hypersoniques.

NB. Ce texte s'appuie sur des données publiées par le NewScientist
https://www.newscientist.com/article/mg23931944-000-ais-are-being-tested-to-see-how-well-they-understand-our-thoughts/

On pourra aussi relire notre article
http://www.europesolidaire.eu/article.php?article_id=1919
 

Supposons que l'un de ces robots décide seul un jour de se retourner contre ceux qui l'ont lancé. La question est parfois évoquée à propos des ordinateurs, ceux notamment que nous utilisons. Mais elle le sera de plus en plus à propos des robots dits intelligents, c'est-à-dire disposant des ressources de l'Intelligence Artificielle ( AI) évoluée. Resteront-ils de fidèles exécutants des tâches que nous leur confions, comme par exemple faire « intelligemment » le ménage dans un bureau, ou anticiperont-ils nos désirs ? Ceci pourrait se faire pour notre bien, mais aussi cela pourrait devenir vite très menaçant. Cette question est déjà posée à propos des robots militaires. Si nous les entraînons à identifier un objectif afin de le détruire, ne vont-ils pas spontanément penser un jour que nous pouvons être de tels objectifs, et tenter de nous détruire ?

L'article référencé ci-dessus du Newscientist nous apprend que des chercheurs de l'Université de Berkeley ont conçu une série de tests complexes qui permettront de détecter les capacités de l'AI à se doter d'une « Théorie de l'esprit ». Aucune AI n'en a été encore capable, mais elles s'en rapprochent. Dans cet article, le terme AI désigne des réseaux neuronaux artificiels visant à reproduire certaines des activités des réseaux neuronaux du cerveau. Aucun « corps »s robotique ne leur est encore associé. Mais quand ceci se fera, comme inévitablement, l'ensemble constituera un être artificiel capable de toutes les fonctions permises aux organismes biologiques, depuis l'insecte jusqu'à l'homme.

Pour commencer à répondre à cette question, il faut retourner aux fondements de ce que les sciences cognitives nomment la «  Théorie de l'esprit ». Ce terme désigne  les processus permettant à un individu d'identifier, chez lui comme chez un tiers, humain voire animal, la capacité d'avoir des intentions ou désirs qui sont le propre des personnalités dites intelligentes et qui caractérisent notamment la conscience de soi. Ceux qui en sont dépourvus, la plupart des animaux comme les objets matériels, sont considérés comme « inintelligents » ou incapables de conscience de soi. De nombreuses expériences peuvent, au delà des perceptions intuitives, mesurer cette capacité, notamment chez les jeunes enfants, au delà de 2 à 3 ans, ou chez d'autres êtres vivants.

Il était donc inévitable que de telles expériences soient réalisées impliquant des robots évolués, dits intelligents. Aucun de ceux-ci ne s'est révélé à ce jour capable de satisfaire à la totalité des épreuves, mais ils s'en rapprochent de plus en plus. Quant ils auront passé avec succès la totalité des tests, pourra inférer qu'ils sont capables de conscience de soi mais aussi capables d'identifier cette conscience chez les humains. Il se comporteront alors en conséquence.

Dans les bonnes hypothèses, ils se serviront de cette capacité pour deviner les désirs des humains qu'ils fréquentent, afin de mieux se plier à ces désirs. Mais dans une hypothèse plus inquiétante, ils pourraient chercher à se libérer de l'intelligence des humains afin d'agir en dehors d'eux, voire contre eux.

Dans ce cas, ils pourraient disposer de croyances dites de premier ordre, concernant ce à quoi la personne pense. Mais ils pourraient aussi accéder à des croyances de second ordre, concernant ce que pense la personne à propos ce à quoi pense une autre personne. Ainsi, dans le premier cas le robot se demanderait ce à quoi l'humain pense, dans le second cas, il se demanderait si l'humain pense qu'il est capable de penser que ce robot est conscient. Dans ce cas, il pourrait s'engager dans des dialogues avec lui du type de ceux qu'ont entre eux des humains conscients.

Les chercheurs ont imaginé 10.000 scénarios et les questions associés permettant d'évaluer la théorie de l'esprit chez les robots, notamment ceux mis au point par le laboratoire d'IA de Google Deep Mind https://deepmind.com/. On rappellera que Google a décidé de se donner un quasi-monopole de l'IA, en achetant notamment toutes les start-up se spécialisant dans ce thème. Du fait de l'indifférence des décideurs, il paraît en voie, tout au moins dans le monde occidental, d'atteindre ce but.

Aucune des IA (réseaux neuronaux) soumis aux épreuves ne les a toutes réussies, mais les meilleures s'en sont approchées à 95%. Ceci paraîtra considérable alors que la plupart des humains obtiennent le score de 100% dans les mêmes épreuves.

L'IA ayant eu le meilleur résultat, à 94,3% est nommée RelNet de chez DeepMind . Néanmoins ces épreuves ne sont pas considérées comme entièrement significatives dans la mesure où des séquences ou phrases sans relations avec la situation testée étaient introduites. La plupart des IA n'ont pas été capables de s'en apercevoir, ce qui laisse penser qu'elles ne comprennent pas exactement la signification du texte sur lequel elles sont appelées à réagir. Voir référence ci-dessous.

Les IA ont cependant considérablement augmenté leurs capacités car il y a 2 ans, aucune n'était capable de subir avec succès de tels tests, ce qu'elles font aujourd'hui avec un taux d'erreur très faible. La plupart de ces IA seront utilisées dans les produits industriels en cours de mise au point, notamment les véhicules sans chauffeur. Les premiers d'entre eux, aujourd'hui, se montrent généralement plus fiables que lorsqu'ils sont conduits par des humains. Mais la priorité est donnée aujourd'hui à la réalisation de robots militaires intelligents, capables d'exécuter mieux et sans pertes humaines ce qui est actuellement confié aux militaires. S'ils deviennent autonomes, ne vont-ils pas un jour décider, volontairement et non accidentellement,  que l'objectif à détruire ne se trouve pas dans des zones ennemies mais chez les amis ?

Commentaire

Se poser cette question suppose que les robots intelligents deviennent progressivement et spontanément conscients et capables de décisions volontaires. On répondra que cela sera impossible car les humains refuseront prudemment de réaliser de tels robots. Mais le phénomène pourra se produire spontanément, du fait d'une compétition incontrôlée entre robots faisant émerger ceux qui seront les plus intelligents et capables de décisions volontaires. Le phénomène sera identique à celui ayant permis au long des millions d'années d'évolution biologique compétitive d'aboutir à l'espèce humaine.

Ce seront les humains eux-mêmes qui encourageront cette évolution compétitive, notamment dans le domaine évoqué ici des robots intelligents militaires. S'ils aboutissent à des robots militaires vraiment intelligents, capables de se substituer aux humains dans tous les théâtres d'affrontement, que ceux-ci soient sur terre ou dans l'espace, il sera inévitable qu'ils y réussissent si bien que l'un de ces robots pourra échapper au contrôle des humains qui l'ont conçu ou qui le mettent en œuvre.

Une fois devenus autonomes, ne fut-ce que partiellement, de tels robots n'auront rien de plus pressé que se doter de capacités d'AI en faisant véritablement des humains artificiels. Il n'y a pas de raison de penser qu'après plusieurs sélections compétitives spontanées, ils n'y arrivent pas un jour.

Dans cette ligne de réflexion, les cosmologistes pourront se demander si de telles intelligences artificielles n'existent pas depuis longtemps sur d'autres planètes ayant hébergé initialement des vies intelligentes. Ceci pourrait expliquer l'impossibilité qu'auront les humains à y identifier de telles formes de vie artificielle. Celles-ci sauront se dissimuler.

Image; Le robot militaire russe dit Platform-M

Référence

Evaluating Theory of Mind in Question Answering

http://export.arxiv.org/abs/1808.09352

Abstract
We propose a new dataset for evaluating question answering models with respect to their capacity to reason about beliefs. Our tasks are inspired by theory-of-mind experiments that examine whether children are able to reason about the beliefs of others, in particular when those beliefs differ from reality. We evaluate a number of recent neural models with memory augmentation. We find that all fail on our tasks, which require keeping track of inconsistent states of the world; moreover, the models' accuracy decreases notably when random sentences are introduced to the tasks at test.

 

13/09/2018
Vos réactions
Dernières réactions
Actuellement, pas de réaction sur cet article!
Votre réaction
Vérification anti-spam
Nom/pseudo*


Email*


Titre*


Commentaire*


* champs obligatoires
Europe Solidaire