
Descubren que la melodía del habla es un lenguaje oculto: un avance clave para la IA del futuro
Científicos del Instituto Weizmann revelan que la entonación y el ritmo en las conversaciones siguen patrones estructurados, similares a un idioma con reglas propias.
La inteligencia artificial (IA) ha dado un salto revolucionario en los últimos años, impulsada por modelos lingüísticos avanzados como ChatGPT, que predicen palabras basándose en secuencias estadísticas. Sin embargo, estos sistemas ignoran un aspecto esencial de la comunicación humana: todo aquello que se dice sin palabras. Un estudio pionero, publicado hoy en Proceedings of the National Academy of Sciences (PNAS), demuestra que la melodía del habla —su ritmo, tono y énfasis— funciona como un lenguaje independiente, con vocabulario y sintaxis propios.
La investigación, liderada por expertos del laboratorio del Prof. Elisha Moses en el Instituto de Ciencias Weizmann, analizó grabaciones de conversaciones espontáneas en inglés y descubrió cientos de patrones melódicos recurrentes, cada uno con funciones específicas. Estos hallazgos abren la puerta a una nueva generación de IA capaz de interpretar no solo lo que decimos, sino cómo lo decimos.
El lenguaje secreto de la prosodia
La prosodia —el conjunto de variaciones en el tono, volumen y ritmo del habla— es una forma de comunicación ancestral. Estudios recientes muestran que chimpancés y ballenas también la utilizan. En los humanos, añade matices cruciales: una pausa breve puede alterar el significado de una frase ("Vamos a comer, abuela"), y un cambio de entonación puede convertir una afirmación en pregunta.
Pese a su importancia, la prosodia ha sido un campo de estudio marginal, sin consenso sobre su estructura. "Nadie había creado un diccionario prosódico", explica Moses. "Hasta el siglo XIX, ni siquiera existía uno completo para el inglés. Nosotros lo logramos usando inteligencia artificial".
El equipo, dirigido por el lingüista Dr. Nadav Matalon y el neurocientífico Dr. Eyal Weinreb, aplicó algoritmos a miles de grabaciones de diálogos cotidianos. Identificaron "palabras melódicas": secuencias sonoras de un segundo que se repiten con funciones claras, como expresar curiosidad, sorpresa o énfasis. Por ejemplo, un ascenso abrupto del tono seguido de un descenso denota entusiasmo o acuerdo.
Sintaxis emocional: las reglas ocultas
Más allá del vocabulario, los científicos hallaron reglas sintácticas que ordenan estos patrones. "La prosodia sigue una lógica estadística simple: cada melodía predice la siguiente", detalla Weinreb. Estos pares forman "oraciones emocionales", transmitiendo ideas completas, como confirmar un dato o dar retroalimentación.
El estudio también reveló diferencias prosódicas según el contexto. En audiolibros, las melodías son más largas y menos espontáneas, mientras que la edad, el estatus social e incluso la historia personal influyen en los patrones. "La prosodia es una huella dactilar de nuestra identidad", afirma Matalon.
Hacia una IA más humana
Las aplicaciones son prometedoras. Asistentes virtuales como Siri o Alexa podrían detectar emociones y adaptar respuestas. "Imaginen un sistema que entienda si estás frustrado o emocionado y reaccione acorde", plantea Weinreb. Además, el avance beneficiaría a implantes cerebrales que restauran el habla, añadiendo expresividad a voces robóticas.
"Este es el primer paso para descifrar la comunicación no verbal en máquinas", concluye Moses. La próxima frontera de la IA ya no está en las palabras, sino en lo que hay entre ellas.