04/05/2023 Des intelligences artificielles de plus en plus humaines

On appelle chatbot ou dialogueur, dans le langage utilisé par les informaticiens spécialisés en intelligence artificielle (IA), un agent logiciel ou programme qui dialogue avec un utilisateur de façon sensée, pouvant donner à ce dernier l’impression qu’il est en face d’un autre humain.

Aujourd’hui l’entreprise américaine spécialisée en IA dite OpenAI (https://openai.com) propose des modèles de langage dit GPT ou  transformeur génératif pré-entraîné (de l’anglais generative pre-trained transformer). https://fr.wikipedia.org/wiki/Transformeur_g%C3%A9n%C3%A9ratif_pr%C3%A9-entra%C3%AEn%C3%A9

Les usages en seront nombreux. Parmi les utilisations possibles figurent des recherches en langue naturelle dans des documents. Par exemple GPT-3 peut répondre en langue naturelle à la question « pourquoi le pain est gonflé » en se basant sur l’article Wikipédia « pain ».

Il est possible d’avoir des discussions rapides, complexes et cohérentes en langue naturelle dans le but de générer des idées, recommander des livres et des films, raconter des histoires interactives ou encore participer à une réunion .

GPT-3 peut fournir une assistance aux clients en ligne sur les sites internet. GPT-3 permet d’analyser et synthétiser du texte sous forme de tableaux, de résumer des discussions, d’élargir des contenus à partir d’idées de base. GPT-3 peut être utilisé pour traduire des textes d’une langue à l’autre. Il peut également transformer un texte en langue courante en un texte juridique. Enfin GPT-3 peut être utilisé pour générer des codes informatiques à partir d’instructions en langue naturelle.

Effets nuisibles

Les effets nuisibles ne manqueront pas. Ainsi GPT-3 peut « générer des articles de presse que les évaluateurs humains auront du mal à distinguer des articles écrits par des humains ». Dans un article du 28 mai 2020, les chercheurs ont décrit en détail ces effets nuisibles potentiels du GPT-3 qui comprennent « la désinformation, le spam, l’hameçonnage, l’abus des processus légaux et gouvernementaux, la rédaction frauduleuse d’essais universitaires.. Les auteurs attirent l’attention sur ces dangers pour demander des recherches sur l’atténuation des risques.

En mars 2023, OpenAI annonce le lancement de son successeur, GPT-4

Voir NewsScientist

An intellectual leap 22 April 2023 p.12

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

%d blogueurs aiment cette page :