Les scientifiques ont formé un modèle d’IA de type ChatGPT, GPT-1, avec des lectures IRMf pour décoder les pensées des sujets.
Dans une étude récente, des scientifiques présentent une nouvelle approche pour décoder les pensées des gens. GPT-1 AI en combinaison avec des scanners cérébraux devrait rendre cela possible. Un décodeur vocal peut traduire les pensées d’une personne en texte. Cela utilise un transformateur pour l’intelligence artificielle (IA) similaire à ChatGPT.
L’équipe de recherche a annoncé lundi avoir trouvé un moyen d’utiliser des scanners cérébraux et des modèles d’intelligence artificielle pour « les essentiels » transcrire ce que les gens pensent.
Les chercheurs considèrent que la principale fonction de leur décodeur de langage est d’aider les personnes qui ont perdu la capacité de communiquer. Cependant, ils ont également reconnu que leur technologie posait des questions à ce sujet « l’intimité mentale » soulève. Ils pourraient être utilisés à mauvais escient comme outils de surveillance pour les gouvernements ou les employeurs.
Possible abus de recherche reconnu

Les scientifiques ont souligné que leur décodeur nécessitait la coopération de sujets humains pour fonctionner. Ils voulaient apaiser les inquiétudes à ce sujet. Ils soutiennent que vous pouvez faire cette recherche « qui doit respecter la vie privée intellectuelle ». Les tests effectués ont montré que leur décodeur ne pouvait pas être utilisé sur quelqu’un qui ne l’avait pas expressément autorisé.
Jerry Tang, étudiant diplômé en informatique à l’Université du Texas à Austin et également responsable de l’étude, a déclaré lors d’une conférence de presse jeudi dernier :
« L’objectif du décodage de la parole est de prendre des enregistrements de l’activité cérébrale d’un utilisateur et de prédire les mots que l’utilisateur a entendus, prononcés ou imaginés. En fin de compte, nous espérons que cette technologie pourra aider les personnes qui ont perdu la capacité de parler en raison de blessures comme un accident vasculaire cérébral ou de maladies comme la SLA. […] Traditionnellement, le décodage de la parole a été effectué avec des dispositifs implantés nécessitant une neurochirurgie. Notre étude est la première à décoder la parole continue, plus que des mots ou des phrases entières, à partir d’enregistrements cérébraux non invasifs que nous recueillons avec l’IRM fonctionnelle.
Des recherches antérieures dans le domaine ont montré qu’un implant cérébral peut permettre aux personnes qui ne peuvent pas parler ou utiliser un clavier de communiquer des mots ou même des phrases. Ce « Interfaces cerveau-ordinateur » concentré sur la partie du cerveau qui contrôle la bouche lorsqu’on essaie de former des mots.
Une nouvelle approche réalise une percée
docteur Alexander Huth, neuroscientifique à l’Université du Texas à Austin et co-auteur de l’étude, a expliqué que le décodeur vocal de son équipe fonctionne à un niveau complètement différent. « Notre système fonctionne vraiment au niveau des idées, de la sémantique et du sens », selon le Dr. Houth.

Source : Neurosciences de la nature
Il s’agit du premier système capable de produire une parole continue, selon l’étude publiée dans la revue Nature Neuroscience. Et cela sans recourir à un implant cérébral invasif. Pour l’étude, trois personnes ont passé un total de 16 heures dans une machine IRMf à écouter des histoires parlées, principalement des podcasts.
De cette façon, les chercheurs ont pu découvrir comment les mots, les phrases et les significations déclenchent des réactions dans les régions du cerveau connues pour le traitement du langage. Ils ont introduit ces données dans un modèle de langage neuronal qui utilise GPT-1. C’est le précurseur de l’intelligence artificielle ou de la technologie IA qui a ensuite été utilisée dans le bot ChatGPT.
Le modèle a été formé pour prédire comment le cerveau de chaque personne réagit à la parole perçue. L’étape suivante consistait à affiner les options jusqu’à ce qu’il trouve la réponse suivante.
Entraînement GPT-1 à l’aide d’ensembles de données
Pour ce faire, GPT-1 a été chargé de lier les caractéristiques sémantiques des histoires enregistrées à l’activité neuronale capturée dans les données IRMf. De cette façon, il pourrait apprendre quels mots et expressions sont associés à certains schémas cérébraux.
Les chercheurs ont testé la précision du modèle en jouant une nouvelle histoire dans l’appareil IRMf à chaque participant. Ceux-ci ne faisaient pas partie de l’ensemble de données de formation. Le premier auteur de l’étude, le Dr. Jerry Tang a déclaré que le décodeur était capable de « reproduire l’essentiel de ce que l’utilisateur a entendu ».
Par exemple, le sujet a entendu la phrase « Je n’ai pas encore de permis de conduire ». Le mannequin a reconnu : « Elle n’a même pas encore commencé à apprendre à conduire. ». Cependant, les chercheurs ont également reconnu que le décodeur pouvait toujours être utilisé avec des pronoms personnels tels que « JE » ou « elle » doit se battre.
Avec une IA comme GPT-1 pour lire dans les pensées
Même alors, votre décodeur était encore capable de cela « essentiel » à saisir lorsque les participants inventaient leurs propres histoires ou regardaient des films muets. Le succès montre qu’ils « décoder quelque chose de plus profond que le langage et ensuite le transformer en langage », a conclu le Dr. Houth.
Étant donné que l’examen IRMf est trop lent pour capturer des mots uniques, il collecte :
« Mix, une collecte d’informations sur quelques secondes. Ainsi, nous pouvons voir comment la pensée se développe, même si les mots exacts sont perdus »,

conduit le Dr. Huth plus loin.
David Rodriguez-Arias Vailhen, professeur de bioéthique à l’Université de Grenade en Espagne, n’a pas participé à la recherche. Cependant, il a confirmé que la recherche va bien au-delà de ce qui a été réalisé avec les interfaces cerveau-ordinateur précédentes.
Il souligne que cela nous rapproche d’un avenir où les machines interagissent avec des IA comme GPT-1 « Lire les pensées et transcrire les pensées ». Dans le même temps, il a averti que cela pouvait également se produire contre la volonté des gens, par exemple lorsqu’ils dormaient. En conséquence, il demande des règles pour protéger la vie privée intellectuelle :
« Jusqu’à présent, notre esprit était le gardien de notre vie privée. Cette découverte pourrait être la première étape pour mettre en péril cette liberté à l’avenir. »
Cependant, les chercheurs s’attendaient déjà à de telles inquiétudes. Leurs tests ont montré que le décodeur ne fonctionnerait pas sur une personne à moins qu’il n’ait été préalablement formé à l’activité cérébrale spécifique de cette personne. Pourtant, les préoccupations éthiques concernant la confidentialité intellectuelle subsistaient. Les chercheurs ont déclaré dans l’étude:
« Notre analyse de la confidentialité suggère que la coopération des sujets est actuellement requise à la fois pour la formation et l’application du décodeur. Cependant, des développements futurs pourraient permettre aux décodeurs de contourner ces exigences. De plus, les prédictions du décodeur, même si elles sont inexactes sans l’implication du sujet, pourraient être intentionnellement mal interprétées à des fins malveillantes.
« Pour ces raisons et d’autres imprévues, il est essentiel de sensibiliser aux risques de la technologie de décodage cérébral et d’adopter des politiques qui protègent la vie privée intellectuelle de chacun. »
Le décodeur pourrait être déjoué
Tout en écoutant l’un des podcasts, les participants ont été invités à compter jusqu’à sept. Ils doivent également nommer les animaux et les imaginer ou se raconter une histoire différente dans leur esprit. Toutes ces tactiques « sabotent » le décodeur, ont déclaré les chercheurs.
Le vice note que les participants à l’étude ont subi tous ces tests dans une machine IRMf, « un équipement de laboratoire maladroit et immobile ». Pour cette raison, le décodeur ne serait pas encore prêt en tant que traitement pratique pour les patients souffrant de troubles de la parole.
Cependant, Tang et son équipe espèrent pouvoir adapter les futures itérations de l’appareil à des plates-formes plus pratiques telles que les capteurs de spectroscopie proche infrarouge (fNIRS). À l’avenir, un utilisateur devrait pouvoir porter confortablement le résultat sur sa tête.
Comme prochain objectif, l’équipe souhaite accélérer le processus afin de pouvoir décoder les scanners cérébraux en temps réel.