Depuis de nombreuses années des neurologues pensent qu’en introduisant de façon non invasive ?? dans le cerveau humain des enregistreurs capables de saisir les échanges se produisant entre neurones du cortex supérieur, il devrait être possible de déchiffrer certains de ces échanges.
Ceci se pratique depuis un certain temps concernant les cerveaux de primates ou d’animaux supérieurs . Des messages de peur ou d’attirance ont pu être captés, formant un langage primitif. Certains peuvent être reproduits et retransmis par l’intermédiaire de sondes. Chez l’homme la technique se pratique au niveau du système nerveux moteur pour savoir si après un accident, la commande du membre accidenté se rétablit.
Dans l’article que vient de publier Nature, dont on trouvera ci-dessous les références et l’abstract, une équipe dirigée par le neurologue et linguiste Jerry Tang de l’université du Texas (https://twitter.com/jerryptang?lang=fr) présente les résultats qu’ils ont obtenu en utilisant l’intelligence artificielle et le controversé GPT (langage générateur préentrainé). Encore n’avaient-ils fait appel qu’a la version 1 de GPT. Celui-ci en est à ce jour à la version 4.
Ils affirment que ces outils, auxquels ils prédisent un bel avenir, ne peuvent fonctionner qu’avec une coopération active du sujet. Mais qu’est-ce qu’une coopération active ? Celle que les maitres-chanteurs obtiennent de leur victimes ?
En fait, il y a tout lieu de penser que ces outils comme tous ceux qui ont suivi l’apparition et le développement du langage chez les humains, favoriseront dans les cerveaux les aires et les activités les plus utiles à la lutte pour la vie. Comme l’IA avancée et des applications telles que les GPT encourageront les sociétés et les individus les plus innovants, ils seront certainement très bien accueillis.
Semantic reconstruction of continuous language from non-invasive brain recordings
https://www.nature.com/articles/s41593-023-01304-9
Jerry Tang
01 May 2023
Abstract
A brain–computer interface that decodes continuous language from non-invasive recordings would have many scientific and practical applications. Currently, however, non-invasive language decoders can only identify stimuli from among a small set of words or phrases. Here we introduce a non-invasive decoder that reconstructs continuous language from cortical semantic representations recorded using functional magnetic resonance imaging (fMRI). Given novel brain recordings, this decoder generates intelligible word sequences that recover the meaning of perceived speech, imagined speech and even silent videos, demonstrating that a single decoder can be applied to a range of tasks. We tested the decoder across cortex and found that continuous language can be separately decoded from multiple regions. As brain–computer interfaces should respect mental privacy, we tested whether successful decoding requires subject cooperation and found that subject cooperation is required both to train and to apply the decoder. Our findings demonstrate the viability of non-invasive language brain–computer interfaces.