Inicio Cosas que pasan Inteligencia Artificial logra traducir a texto señales del cerebro humano

Inteligencia Artificial logra traducir a texto señales del cerebro humano

La precisión de esta inteligencia artificial para leer mentes humanas fue del 97 por ciento.

La palabra está siendo usada para volver a los asistentes virtuales cada vez más sofisticados. Compañías como Amazon o Google, se valen de este tipo de tecnología para decodificar lo que decimos y brindarnos una respuesta.

Sin embargo, un nuevo hito acaba de ser alcanzado en este campo, haciendo al reconocimiento de voz un juego de niños en comparación. Tal como si fuera telepatía, ahora los sistemas de inteligencia artificial (IA) han logrado traducir directamente la actividad del cerebro humano y transformarla en texto.

Un equipo liderado por el neurocirujano Edward Chang de la Universidad de California en San Francisco (UCSF), utilizó un nuevo método para decodificar un electrocorticograma: el registro de los impulsos eléctricos que ocurren durante la actividad cortical, por medio de electrodos implantados en el cerebro.

El experimento

Varios implantes fueron colocados en cuatro pacientes con epilepsia para monitorear los ataques causados por su condición médica. El equipo de UCSF aprovechó dicha ocasión para llevar a cabo un experimento colateral, haciendo que los participantes lean y repitan un número de oraciones en voz alta, mientras que los electrodos registraban su actividad cerebral durante el ejercicio.

Estos datos luego fueron incluidos en una red neural que analizó los patrones de la actividad cerebral correspondiente con ciertas firmas del discurso, como vocales, consonantes, o movimientos de la boca, grabados durante el experimento.

Luego de esto, otra red neural decodificó estas representaciones —deduciendo a partir de repeticiones de 30 a 50 oraciones habladas— y las usó para intentar predecir lo que se estaba diciendo. Todo basado solo en las firmas corticales de las palabras.

El resultado

Como mejor resultado, el sistema obtuvo una tasa de error por palabra (TEP) de solo el 3 por ciento al traducir las señales cerebrales a texto —lo más cercano a leer la mente de un humano que ha estado una IA en condiciones experimentales—.

En el estudio publicado, el equipo detalló numerosos ejemplos de las oraciones pronunciadas por los participantes, junto con las «predicciones» generadas por la red de IA, algunas erróneas otras no. Cuando las equivocaciones eran aparentes, eran muy diferentes a las palabras pensadas por el cerebro (lo que podría ser un efecto colateral del conjunto limitado de datos introducido en la IA).

Algunos ejemplos de errores son: «El museo contrata músicos cada tarde», que fue predicho como «El museo contrata músicos cada mañana»; «Parte del pastel fue comido por el perro» fue predicho como «parte del pastel fue una galleta»; y «Tina Turner es una cantante pop» resultó en «¿Es Turner una cantante de pop?».

En el menos preciso de los casos, los errores no tenían virtualmente ninguna relación, semántica o fonética, con lo que era dicho: «Ella verstía overoles de lana» fue interpretado como «El oasis era un espejismo».

No obstante, dada la rareza de los errores obvios, el sistema en general tal vez constituya un nuevo hito en la decodificación de actividad cerebral por parte de la IA, que en su máxima performance está a la par con la transcripción humana profesional de un discurso, que tiene una tasa de error del 5 por ciento.

Desde luego, los transcriptores profesionales tienen que lidiar con una vocabulario que se extiende en decenas de miles de palabras. En contraste, el sistema solo tuvo que aprender las firmas corticales de unas 250 palabras únicas usadas en un número limitado de oraciones cortas, lo que en realidad no hace justo comparar ambas cosas.

Y si bien quedan obstáculos por superar, el equipo sugiere que el sistema quizás un día pueda actuar como la base para una prótesis de voz para pacientes que han perdido el habla. Si dicha cosa es posible, podría ser asombroso, permitiendo a muchas personas comunicarse a viva voz con los demás.

Los hallazgos han sido publicados en Nature Neuroscience.

Fuente: ScienceAlert.