enero 15, 2026
img-0954.jpg

La ligera sensación de inquietud que recorre la columna vertebral cuando ves algo que se comporta humanamente pero no lo es sigue siendo un problema importante en robótica, particularmente para los robots construidos para verse y hablar como nosotros.

Este extraño sentimiento se llama el valle inquietante. Una forma en que los robóticos pueden salvar este valle es hacer coincidir los movimientos de los labios de un robot con su voz. El miércoles, la Universidad de Columbia anunció un estudio que analiza cómo una nueva ola de caras robóticas puede hablar de manera más realista.

Hod Lipson, profesor de ingeniería de la Universidad de Columbia que trabajó en la investigación, dijo a CNET que los robots dan “miedo” principalmente porque no mueven los labios como lo hacemos nosotros cuando hablan. “Queremos resolver este problema que ha sido descuidado en la robótica”, dijo Lipson.


No se pierda nuestro contenido técnico imparcial y revisiones de laboratorio. Añadir CNET como fuente preferida de Google.


Esta investigación llega en un momento en que ha aumentado la exageración en torno a los robots diseñados para su uso en el hogar y el lugar de trabajo. En CES 2026 La semana pasada, por ejemplo, CNET vio uno Selección de robots Diseñado para interactuar con las personas. Todo desde lo último Atlas de dinámica de Boston Robot también Robots domésticos como esos, esos Doblar la ropae incluso uno Robot con forma de tortuga diseñado para la investigación medioambiental, apareció en la feria tecnológica más grande del mundo. Si CES sirve de indicación, 2026 podría ser un año gran año para la robótica de consumo.

Atlas de IA

CNET

La atención se centra en robots humanoides con cuerpos, rostros y piel sintética que imitan el nuestro. La cohorte CES incluyó robots con apariencia humana de Realbotix, que podría operar puestos de información o dar confort a las personas, así como un robots lovense Diseñado para relaciones equipadas con IA para “recordar” conversaciones íntimas.

Pero una discrepancia de una fracción de segundo entre el movimiento de los labios y el habla puede significar la diferencia entre una máquina con la que puedes establecer una conexión emocional y una máquina que es poco más que una. animatrónica perturbadora.

Entonces, si la gente acepta que los robots humanoides “viven entre nosotros” en la vida cotidiana, probablemente sea mejor si no nos hacen sentir un poco incómodos cada vez que hablamos con ellos.

Mira esto: Un robot sincronizador de labios canta una canción

Robots que sincronizan los labios

Para crear robots con rostros humanos que hablen como nosotros, los labios del robot deben sincronizarse cuidadosamente con el tono de su discurso. El equipo de investigación de Columbia ha desarrollado una técnica que ayuda a que la boca de los robots se mueva como lo hacemos nosotros, centrándose en el sonido del habla.

Primero, el equipo construyó una cara de robot humanoide con una boca que puede hablar y cantar de una manera que reduce el efecto del valle inquietante. Fabricada con piel de silicona, la cara del robot tiene conectores magnéticos para movimientos complejos de los labios. Esto permite que la cara forme formas de labios que cubren 24 consonantes y 16 vocales.

Mira esto: La cara del robot que sincroniza los labios pronuncia palabras individuales

Para relacionar los movimientos de los labios con el habla, desarrollaron un “canal de aprendizaje” para recopilar datos visuales de los movimientos de los labios. Un modelo de IA utiliza estos datos para el entrenamiento y luego genera puntos de referencia para los comandos motores. A continuación, un “transformador de acción facial” convierte las órdenes motoras en movimientos bucales que se sincronizan con el sonido.

Utilizando este marco, la cara del robot llamada Emo pudo “hablar” en varios idiomas, incluidos idiomas que no formaban parte del entrenamiento, como francés, chino y árabe. El truco es que el marco analiza los sonidos del idioma, no el significado detrás del sonido.

“Evitamos el problema específico del habla entrenando un modelo que va directamente del tono al movimiento de los labios”, dijo Lipson. “No existe el concepto de lenguaje”.

Mira esto: Se presenta la cara del robot que sincroniza los labios

¿Por qué un robot necesita siquiera cara y labios?

Los seres humanos han estado trabajando con robots durante mucho tiempo, pero siempre han parecido máquinas más que personas: los brazos incorpóreos y de aspecto muy mecánico en las líneas de montaje o el disco torpe que es un robot aspirador que corre por el suelo de nuestra cocina.

Sin embargo, a medida que los modelos de voz de IA detrás de los chatbots se generalizan, las empresas de tecnología están trabajando arduamente para enseñar a los robots cómo comunicarse con nosotros en tiempo real mediante la voz.

Existe todo un campo de investigación llamado interacción humano-robot que estudia cómo los robots deberían coexistir física y socialmente con los humanos. En 2024, un estudio de Berlín con 157 participantes descubrió que la capacidad de un robot para expresar empatía y emociones a través de la comunicación verbal es crucial para interactuar eficazmente con los humanos. Y otro estudio realizado en Italia en 2024 encontró que el habla activa es importante para la colaboración entre humanos y robots cuando se trabaja en tareas complejas como el montaje.

Si vamos a depender de robots en casa y en el trabajo, debemos poder comunicarnos con ellos de la misma manera que nos comunicamos entre nosotros. En el futuro, dice Lipson, la investigación sobre robots de sincronización de labios sería útil para cualquier tipo de robot humanoide que necesite interactuar con humanos.

También es fácil imaginar un futuro en el que los robots humanoides sean idénticos a nosotros. Lipson dice que un diseño cuidadoso podría garantizar que las personas entiendan que están hablando con un robot y no con una persona. Un ejemplo sería que los robots humanoides deben tener la piel azul, dice Lipson, “para que no puedan confundirse con un humano”.

About The Author