Le parlement européen a adopté le 14 Juin 2023 une résolution visant à adopter avant la fin de cette même année 2023 une loi réglementant les utilisations de l’AI. Il s’agit d’encourager les innovations en ce domaine tout en prévenant les abus en fonction du niveau des risques.
Sont particulièrement visés semble-t-il les abus concernant les Grands Modèles de langage LLM. Ceux-ci sont considérés comme des apports de l’Intelligence Artificielle essentiels à la diffusion des connaissances. Outre DALL-E. le modèle le plus souvent cité est ChatGPT. Il utilise les innombrables textes désormais contenus sur Internet pour élaborer un modèle statistique du langage humain. Cela lui permet de prédire quels mots succéderont probablement à un autre dans une phrase donnée.
Concrètement, ChatGPT est dit réseau neuronal transformer-based. Comme les autres, il utilise l’IA générative (et plus précisément le Deep Learning) pour le traitement du langage naturel (NLP) et la génération de langage naturel (NLG).
La Commission a par ailleurs défini six blocs de construction (Building blocs ) où l’AI intervient massivement et devra être réglementé. Il s’agit des données structurelles, des données non structurelles, des processus préliminaires, des processus fondamentaux, des bases de données et des productions d’informations à valeur ajoutée.
La loi réglementera l’AI en fonction du niveau des risques courus, menaces à la santé, à la sécurité, aux droits publics et à l’environnement. Elle devrait aussi interdire la surveillance biométrique, l’identification des émotions et la « Predicting policing » Predictive policing is the usage of mathematics, predictive analytics, and other analytical techniques in law enforcement to identify potential criminal activity.
Très bien mais que se passera-t-il si, faute de moyens dans les administrations concernées, ce ne serait pas la Loi qui réglementerait l’AI , mais l’IA qui contrôlerait la Loi ?
