Crean un modelo de IA que convierte ideas en voz

Facebook
Twitter
Pinterest
Crean un modelo de IA que convierte ideas en voz

Investigadores crearon un modelo de IA que convierte ideas en voz con 74% de precisión en pacientes con implantes cerebrales.

En un reciente artículo publicado en la revista Cell, un equipo de investigadores de la Universidad de Stanford analizó los patrones neuronales de cuatro pacientes que tenían electrodos implantados en la corteza motora del habla.

Los participantes del estudio debían repetir frases en voz alta (en la medida de lo posible según sus capacidades) y también las expresaron en su mente, sin mover sus músculos. Esto permitió descubrir que “pensar en hablar” tiene la misma geometría en términos neurales que hablar, aunque con una menor intensidad. Es como si tuvieras el “volumen bajo”, afirmaron los científicos.

Para personas con discapacidades del habla

A partir de ese patrón, los investigadores crearon un modelo de inteligencia artificial que interpreta secuencias de fonemas y palabras directamente del pensamiento.

Luego lo aplicaron en las mismas cuatro personas con implantes cerebrales y disartria, un trastorno motor que dificulta articular palabras por lesiones o enfermedades del sistema nervioso central. En una prueba piloto, el modelo tradujo los pensamientos con 74% de precisión, de manera estable, rápida y sin causar fatiga.

Desde el punto de vista energético y computacional, pensar el habla resulta más eficiente que intentar articularla. Convertir pensamientos en sonido exige un trabajo biomecánico complejo que involucra cerca de 100 músculos y una amplia porción del sistema respiratorio. Para la mayoría, hablar ocurre de forma simple; para quien tiene control muscular limitado, intentar comunicarse de manera fonética, además de frustrante, agota.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias Relacionadas