LinuxParty

NUESTRO SITIO necesita la publicidad para costear hosting y el dominio. Por favor considera deshabilitar tu AdBlock en nuestro sitio. También puedes hacernos una donación entrando en linuxparty.es, en la columna de la derecha.
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado
 

La inteligencia artificial está haciendo cada vez más milagros en la tecnología, y la medicina se está nutriendo ampliamente de este campo, consiguiendo por ejemplo que las personas discapacitadas del habla puedan volver a hablar.

Y ya no hablamos de personas mudas; hablamos de que una IA ha conseguido convertir la actividad cerebral en una conversación. Un nuevo hito que abre la posibilidad de que dicha IA se use para hacer la vida de ciertas personas mucho más fácil.

Aunque nosotros no hablemos, nuestro cerebro emite señales constantemente. La actividad cerebral continúa por mucho que algunos de nuestros sentidos no funcionen y nuestra mente es capaz de generar pulsos para no sólo controlar el cuerpo, sino para hacer funcionar al mismo cerebro. Hasta ahora estas señales no han sido capaces de ser descifradas, pero tres equipos de investigadores han hecho importantes avances.

El proceso consiste en colocar una serie de electrodos en el cerebro funcionando de tal forma que un ordenador con IA convierta esas señales en una conversación. Usando modelos computacionales conocidos como redes neuronales, reconstruyeron palabras y oraciones que, en algunos casos, eran inteligibles para los oyentes humanos.

Hasta ahora, según los artículos artículos que se han ido publicando en últimos meses en el servidor de preimpresión bioRxiv ninguno de los intentos de los últimos meses había dado la conversación que las personas a las cuáles se les había sometido a pruebas habían imaginado. En cambio, los investigadores monitorearon partes del cerebro a medida que las personas leían en voz alta, hablaban en silencio o escuchaban grabaciones.

Por motivos más que obvios, esta grabación tan invasiva no se puede hacer a cualquier persona. Se requiere que el cerebro esté activo y que se abra el cráneo, dejando una herida y sobre todo anestesiando a la persona (además de raparle el pelo). Los investigadores han llevado a cabo dichas grabaciones en operaciones de extracción de tumores cerebrales, cuando las lecturas eléctricas del cerebro expuesto ayudan a los cirujanos a ubicar y evitar las áreas clave del habla y motrices.

Otra situación en la que los investigadores han podido trabajar ha sido cuando a una persona con epilepsia se le implantaban electrodos durante varios días para identificar el origen de las convulsiones antes del tratamiento quirúrgico. En todo este proceso tienen, como máximo, 30 minutos. Las limitaciones son claras.

Estos datos recogidos se introdujeron en redes neuronales de aprendizaje automático. Estas redes procesan patrones complejos al pasar información a través de capas de “nodos” computacionales. Las redes aprenden ajustando las conexiones entre nodos. En los experimentos, las redes fueron expuestas a grabaciones del habla que una persona realizó o escuchó y a datos sobre la actividad cerebral de forma simultánea.

La red del equipo que entrenaron se centró en 5 pacientes con epilepsia. La red analizó las grabaciones de la corteza auditiva (que está activa durante el habla y la escucha) a medida que los pacientes escuchaban grabaciones de historias y personas que nombraban dígitos de cero a nueve. El ordenador luego reconstruyó los números hablados a partir de datos neuronales. Cuando la computadora reprodujo los números, un grupo de oyentes los nombró con un 75 por ciento de precisión.

Otro equipo, esta vez situado en la Universidad de Maastricht en los Países Bajos, se basó en los datos de 6 personas que se sometieron a una cirugía para extraer un tumor cerebral. Un micrófono capturó sus voces mientras leían en voz alta las palabras de una sílaba. Mientras tanto, los electrodos registraban información desde las áreas de planificación del habla del cerebro y las áreas motoras, que enviaban comandos al tracto vocal para articular palabras. La red asignó lecturas de electrodos a las grabaciones de audio y luego reconstruyó palabras a partir de datos cerebrales que no se habían visto previamente. De acuerdo con un sistema de puntuación computarizado, alrededor del 40 por ciento de las palabras generadas por computadora eran comprensibles.

Por último, el equipo de la Universidad de California en San Francisco reconstruyó oraciones completas de la actividad cerebral captada en las áreas motora y del habla, mientras tres pacientes con epilepsia leían en voz alta. En una prueba en línea, 166 personas escucharon una de las oraciones y tuvieron que seleccionarla de entre 10 opciones escritas. Algunas frases fueron identificadas correctamente más del 80 por ciento del tiempo. Los investigadores también impulsaron el modelo y lo utilizaron para recrear oraciones a partir de datos registrados mientras la gente pronunciaba palabras en silencio.

Pin It

No estás registrado para postear comentarios



Redes:



   

 

Suscribete / Newsletter

Suscribete a nuestras Newsletter y periódicamente recibirás un resumen de las noticias publicadas.

Donar a LinuxParty

Probablemente te niegues, pero.. ¿Podrías ayudarnos con una donación?


Tutorial de Linux

Filtro por Categorías