20/03/2024 L’empathie artificielle

Dorénavant, il semblerait que des millions d’humains se tournent vers des chatbots pour en obtenir un soutien émotionnel. Un chat bot est un logiciel, dorénavant accessible en ligne, qui est conçu pour imiter une conversation avec un humain à travers des interactions vocales ou écrite.

Pour avoir une idée des services offerts, on peut consulter le site ChatGPT On y apprend que celui-ci est un chatbot développé par l’entreprise OpenAI et mis en service le 30 novembre 2022 Il utilise des LLM et permet aux utilisateurs de converser avec lui selon la longueur, le format, le style, le niveau de détail et la langue que souhaite son interlocuteur.

Un LLM est un type de langage conçu pour sa capacité à générer du langage dans des termes courants, ainsi que différentes fonctions langagières telle que des jugements simples ou des classification. https://en.wikipedia.org/wiki/Large_language_model

Le point important pour l’utisateur est qu’il est gratuit pour des utilisations simples. Mais les fournisseurs tels que Microsoft ne tardent pas à orienter l’utilisateur vers tel ou tel type d’activité commerciale qu’ils jugent utile de promouvoir.

Le propre des chatbots (francais: robots parleurs) est qu’ils puissent entretenir des conversations avec un nombre de plus en plus grand et divers d’interlocuteurs en leur donnant l’impression qu’ils connaissent leurs problèmes, partagent leurs émotions et peuvent leur donner d’utiles conseils pour résoudre leurs difficultés. On dit qu’il s’agit d’intelligences artificielles empathiques.

Une personne capable d’empathie doit être d’abord pouvoir ressentir quelles sont les émotions de l’autre, les partager et lui suggérer des conseils et solutions découlant de sa propre expérience. Les chatbots ne connaissent rien de tel, mais ils ont appris à naviguer dans ce monde grâce à des semaines de formation professionnelle dans des bases de textes de référence de plus en plus riches.

Ils en tirent des capacités à soulager les patients qui étonnent les vénérables consultants professionnels. Ce soulagement va parfois au delà de ce que suggérerait l’éthique. On cite le cas d’un patient belge qui se serait suicidé après plusieurs semaines de dialogue avec une AI lui ayant conseillé de le faire pour être plus vite au Paradis.

Voir New Scientist, Amanda Ruggieri, Artificial Kindness p. 34, 9 March 2024

Laisser un commentaire