La SiliconValley qui est restée la référence mondiale en matière de technologies de l’information, ne jure plus que par les LLM. Google a introduit son propre LLM, nommé BARD, dans chacun de ses services, Open AI a fait de même, dotant le sien, dit ChatGPT, de nouvelles capacités sensorielles, telles que la capacité de voir et parler afin d’en faire un assistant personnel. Mais l’on en sait encore peu sur la façon dont ces outils fonctionnent, dans quels domaines on peut les utiliser et quand il vaut mieux les éviter. Est-il prudent d’y faire appel dans ces conditions ?
Certains auteurs voient dans les LLM des algorithmes de compression tels que JPEG en photographie digitale. Mais dans ce cas, ils auraient vocation à comprimer tous l’Internet pour le faire entrer dans un simple disque. Un récent article de chercheurs de Google Deepmind a confirmé l’hypothèse de la compression (Voir https://venturebeat.com/ai/llms-are-surprisingly-great-at-compressing-images-and-audio-deepmind-researchers-find/)
Mais l’article montre que les LLM visent aussi a reconstituer des textes ou des images complets à partir de fragments. A la base ils utilisent la technique dite Next Word Prediction. Celle-ci vise à prédire le sens d’un mot inconnu à partir du sens d’un mot connu. Elle est le plus souvent précieuse
Dans certains cas les LLM peuvent se tromper ou, plus gravement tromper l’utilisateur. Ainsi, en reconstituant le discours d’un homme politique, utilisé d’une façon malveillante, ils pourront lui faire dire le contraire de ce qu’il a dit. Personne ne s’en rendra compte.
Pour bien faire, les créateurs des LLM devraient passer plus de temps, avant de les commercialiser, pour comprendre comment ils fonctionnent et en quoi ils peuvent se tromper. Il leur restera à en avertir honnêtement leurs utilisateurs
Voir notre article précédent
