Qui s’intéresse au concept d’ Intelligence artificielle IA rencontre inévitablement celui de l ‘IA générale ou AGI. C’est elle qui a fait le succès des « large language models (LLM) », une forme d’IA qui donne leur puissance à des chatbots tels que ChatGPT.
L’AGI est devenue l’outil principal de sociétés telles que OpenAI qui assure travailler pour le bien de toute l’humanité. OpenAI, https://openai.com/, est une entreprise américaine d’intelligence artificielle fondée en 2015 à San Francisco. Sa mission selon ses dirigeants est de développer et de promouvoir une intelligence artificielle générale « sûre et bénéfique pour tous les humains». C’est OpenAI qui a créé ChatGPT, https://openai.com/index/chatgpt/. Les média spécialisés assurent avoir détecté des élémentd d’AGI dans les LLM.
En fait il n’est toujours clair de définir le bien que fera l’AGI à l’humanité. Pour Melanie Mitchell du Santa Fe Institute à New Mexico il ne s’ait pas d’un concept scientifique. Cet avis est partagé par beaucoup, y compris par Ben Goertzel et Shane Legg, cofondateur de Google Deep Mind https://fr.wikipedia.org/wiki/Google_DeepMind
Pour d’autres au contaire le terme désigne un champ d’applications capables de réaliser progressivement tout ce dont l’esprit humain est capable, sinon d’avantage. Les fondateurs de DeepMind viennent de proposer un cadre de travail à 6 niveaux six-level framework, dans lequel le niveau supérieur détaille tout ce que l’on peut attendre de l’esprit humain, actuel ou futur
Artificial human-like intelligence et superintelligent AI ont été des concepts de science fiction pendant des siècles. Mais le terme a décollé il y a 20 ans quand les ingénieurs en informatique Ben Goertzel et Shane Legg, cofondateur de la firme DeepMind. l’ont employé pour désigner des systèmes capables de réaliser, au delà d’applications limitées, tout ce que l’esprit humain peut concevoir.
Depuis DeepMind en particulier cherche à redéfinir l’AGI comme faisant partie des seules « sciences cognititives. L’année dernière, Legg conjointement avec le fondateur de DeepMind, ont défini ce que pourrait etre l’AGI. Ils ont proposé un cadre de travail à 6 niveaux (six-level framework dans lequel le niveau supérieur dépasse tout ce que 100/100 des humains pourraient faire
The problem with AGI
“The levels idea is really pointing out that there’s this continuum,” says team member Meredith Morris at DeepMind, now part of Google. “There’s this progression as technology evolves.” Morris hopes their work will draw more attention to the idea, and ultimately to some form of consensus on what AGI actually is: “We would love to have folks from those other fields that study intelligence and learning working together with our researchers on developing these benchmarks.”
But Mitchell points out that intelligence is itself a multidimensional concept, with a lot of crossovers with other equally murky concepts, such as sentience and understanding. As such, it isn’t readily measurable with a test in the same way as other, more concrete tasks, like the ability to translate language.
Applying more scrutiny to when an AI could be considered an AGI might yield progress, but Mitchell is still sceptical that the sort of machine that AGI proponents envisage will be achieved, because it is unclear whether the faculties of human intelligence can ever be abstracted into standalone concepts – never mind replicated in AI. “There’s a kind of faith that the field has had for a long time, that we can develop human-level intelligence in these disembodied substrates,” she says. “Whether that’s possible or not, I think it’s a big open question.”
For Thomas Dietterich at Oregon State University, the problem with AGI is a more practical one – namely that it is a mistake to define artificial intelligence with respect to humans. “We have this focus on replicating our capabilities, and this leads to the rampant anthropomorphisation of our systems, giving them names like Siri and Alexa.”
Instead, he says, we should think of AI as “an intelligence prosthetic that can do certain things for us” – which sounds a lot like what the AI community had in mind before the concept of AGI came along.
