Europe Solidaire
CultureEconomieEducationEnvironnementInstitutionsInternationalSciencesSécurité/DéfenseSocialTechnologiesValeurs
Aggrandir Réduire Reinitialiser

Les machines intelligentes deviendront-elles hostiles à l'homme?

On pourrait penser que les principales menaces pesant sur nos sociétés viennent des hommes eux-mêmes, ou d'organismes biologiques tels que les virus. Mais les chercheurs en intelligence artificielle (IA) en ajoutent d'autres, celles qui pourraient provenir de machines intelligentes devenues vicieuses ou hostiles.

C'est principalement dans la communauté scientifique américaine que ce thème trouve de l'écho. Une raison évidente en est l'avance certaine que les laboratoires et industries de ce pays possèdent en matière de systèmes robotisés autonomes de sécurité et de défense. Ce secteur constitue pour les Etats-Unis, comme nous l'avons indiqué dans des articles précédents,  une nouvelle frontière technologique, financée par des budgets militaires très importants. Le lobby militaro-industriel s'y investit dorénavant tout autant qu'il l'avait fait précédemment dans l'aviation de combat, les missiles et les satellites. On peut donc en parler non comme d'objets futuristes mais comme de réalités pénétrant de plus en plus profondément la vie quotidienne. Or beaucoup de drones robotisés militaires paraissent aujourd'hui sur le point d'échapper aux contrôles des humains, du fait de leur complexité. Dans un premier temps, ils multiplieront alors les « dégâts collatéraux ». 

Mais la peur d'une guerre possible  avec les machines intelligentes traduit aussi, diront certains, l'angoisse d'une civilisation toute entière qui croit voir s'effondrer ou se retourner contre elle ce sur quoi elle pensait assurer son empire : le libéralisme, la concurrence, la banque...La technologie de pointe, loin de demeurer un recours, ne va-t-elle pas à son tour devenir un ennemi de l'intérieur ?

Quoi qu'il en soit, il est bon que ceux qui s'intéressent à l'avenir de l'IA, pas seulement aux Etats-Unis, mais aussi en Europe ou dans d'autres grands pays, réfléchissent à ce que pourra produire dans un proche avenir l'interaction entre les machines intelligentes et les humains. Pour nous, il s'agit d'un thème essentiel. Nous avons indiqué dans divers articles précédents qu'il s'inscrit dans la réflexion sur le concept de système anthropotechnique. Ce concept ne distingue plus l'humain de la technologie mais étudie de façon globale le produit de leur symbiose. Dans le cadre des liens « durs » entre humains et entités artificielles, celles-ci devenant de plus en plus autonomes et capables de formes de conscience surpassant souvent celles des  humains « traditionnels », il faut s'attendre à voir se développer des êtres mixtes, tenant à la fois du post-humain et de la machine intelligente, dont l'impact sur l'évolution de la vie terrestre ne devrait pas être sous-estimé. Mais dans de tels systèmes, convient-il d'envisager des conflits internes entre les composants biologiques et les composants artificiels, plutôt que la réalisation de synergies prometteuses ? 

Le point de vue de l'AAAI

Les 25 chercheurs, roboticiens, enseignants et juristes qui viennent de se réunir sous les auspices de l'Association for the Advancement of Artificial Intelligence (AAAI) à Menlo Park, Californie, n'ont pas tranché cette question. Ils se sont d'abord efforcés de faire le point sur les progrès récents enregistrés dans le domaine des systèmes capables de générer des consciences artificielles, sans donner à ce dernier terme de définitions trop précises. Les applications les plus apparemment inoffensives, dans le domaine de l'assistance aux activités ménagères ou aux soins, comme dans celui de la navigation dans des environnements complexes, ont été d'abord présentées.

Mais les participants n'ont pas dissimulé le fait que, grâce à des progrès décrits comme accélérés et convergents, les machines prendront de prendront de plus en plus d'initiatives propres, dont certaines, par la négligence des humains utilisateurs, pourront se retourner contre ces derniers. Quelles conséquences sociales, favorables ou inquiétantes, faudra-t-il en attendre ?

Le groupe présidé par Eric Horvitz, président de l'AAAI et chercheur émérite chez Microsoft Research, a commencé par travailler en petites équipes puis pour un week end à Asilomar (Californie). Les conclusions finales viennent d'être présentées le 15 juillet à l'International Joint Conference for Artificial Intelligence (IJCAI) à Pasadena, Californie,

Si tous les participants s'accordent pour penser que des systèmes intelligents conscients, aux capacités supérieures à celles des hommes, apparaîtront un jour, le délai à prévoir varie selon les estimations, de 20 à 1.000 ans...ce qui parait long au regard des prévisions faites les années précédentes. Le concept de « singularité », bien connu des spécialistes de l'IA, désignant un emballement subi des performances des « smart machines » lequel entraînerait des développements aujourd'hui par définition imprévisibles, a laissé les participants sceptiques.  Ceci tient au fait qu'aucune IA ne vise encore à réaliser une intelligence générale analogue à celle des humains. Les objectifs se limitent à l'amélioration de créneaux spécifiques où, il est vrai, les performances des machines dépassent déjà de beaucoup celles des appareils sensoriels et moteurs d'origine biologique.

Beaucoup plus évoqués pour le court terme ont été les risques venant de logiciels  ou produits malveillants (malware) qui imiteraient les comportements des humains au sein des réseaux : vol d'identités, implantation de virus sur les téléphones portables qui imiteraient à leur insu la voix et les comportements des légitimes utilisateurs tout en donnant accès à leurs codes sécurisés. Ces virus pourraient agir à cette fin  de façon autonome, sans être guidés en permanence par des acteurs humains malveillants.  Si les criminels peuvent réaliser de tels virus, ils le feront, et rapidement, a annoncé Tom Mitchell de la Carnegie Mellon University à Pittsburgh, Pennsylvanie, en faisant allusion aux gros investissements de recherche que réalisent déjà en ce but  les syndicats du crime organisé.

Les chercheurs ont convenu que la complexité des smart-phones est devenu telle qu'ils hébergent des milliers de lignes de code susceptibles d'être détournés par des malveillants sans que personne ne s'en aperçoive avant que le dommage ne soit accompli. Peter Szolovits, du Massachusetts Institute of Technology, considère que les ingénieurs sont en train de créer des systèmes si complexes et opaques qu'eux-mêmes n'y comprennent plus rien. Il serait de leur responsabilité d'y réfléchir, afin d'éviter les risques ainsi évoqués. Ceux-ci sont bien plus réels que celui de voir l'Internet devenir conscient et malveillant, comme certains l'avaient prédit les années précédentes.
30/07/2009
Vos réactions
Dernières réactions
Nombre de réaction(s) : 1
Réflexion à développer
03/10/2009 18:38:36 | Par : :-(
Hypothèse pessimiste en effet. La littérature de science-fiction offre aussi des hypothèses plus optimistes et il pourrait être intéressant de réfléchir à partir de ces dernières, notamment pour penser le type d'organisation socio-politique dans lequel pourraient s'insérer ces "machines intelligentes". Voir par exemple une esquisse de réflexion en ce sens : http://yannickrumpala.wordpress.com/2009/10/02/lanarchie-dans-un-monde-de-machines/
Votre réaction
Vérification anti-spam
Nom/pseudo*


Email*


Titre*


Commentaire*


* champs obligatoires
Europe Solidaire