En la carrera por hacer que los modelos de IA parezcan cada vez más impresionantes, las empresas de tecnología han adoptado un enfoque teatral del lenguaje. Hablan constantemente de la IA como si fuera una persona. No se trata sólo del “pensamiento” o la “planificación” de la IA (estas palabras ya son engañosas), sino que ahora también se trata del “alma” de un modelo de IA y de cómo los modelos “confiesan”, “quieren”, “planifican” o “se sienten inseguros”.
Esto no es una floritura de marketing inofensiva. Humanizar la IA es engañoso, irresponsable y, en última instancia, perjudicial para la comprensión que tiene el público de una tecnología que ya está luchando con la transparencia en un momento en el que la claridad es lo más importante.
Las investigaciones de las grandes empresas de IA destinadas a arrojar luz sobre el comportamiento de la IA generativa a menudo se expresan de manera más confusa que esclarecedora. Tomemos, por ejemplo, una publicación reciente de OpenAI que detalla el trabajo para lograr que los modelos “confiesen” sus errores o atajos. Es un experimento valioso que examina cómo un chatbot informa ciertos “malos comportamientos”, como alucinaciones e intrigas. Pero la descripción que hace OpenAI del proceso como una “confesión” implica que hay un elemento psicológico detrás de los resultados de un modelo de lenguaje grande.
Quizás esto se deba al reconocimiento de lo difícil que es para un LLM lograr una verdadera transparencia. Hemos visto que los modelos de IA no pueden demostrar de manera confiable su trabajo en actividades como… Resolver Sudokus.
Hay una brecha entre Qué La IA puede generar y Cómo lo crea, y es precisamente por eso que esta terminología humana es tan peligrosa. Podríamos debatir las limitaciones y peligros reales de esta tecnología, pero los términos que describen a la IA como seres conscientes sólo minimizan las preocupaciones o pasan por alto los riesgos.
No se pierda nuestro contenido técnico imparcial y revisiones de laboratorio. Añadir CNET como fuente preferida de Google.
La IA no tiene alma.
Los sistemas de IA no tienen alma, motivos, sentimientos ni moral. No “confiesan” porque se sienten obligados a ser honestos, del mismo modo que una calculadora no “se disculpa” cuando presiona la tecla equivocada. Estos sistemas generan patrones de texto basados en relaciones estadísticas obtenidas de grandes conjuntos de datos.
Eso es todo.
Todo lo que se siente humano es la proyección de nuestra vida interior en un espejo muy sofisticado.
La antropomorfización de la IA da a la gente una idea falsa de lo que realmente son estos sistemas. Y eso tiene consecuencias. Cuando comenzamos a atribuir conciencia e inteligencia emocional a una entidad que no existe, comenzamos a confiar en la IA de una manera en la que nunca se debería confiar.
Hoy en día, más personas recurren a “Doctor ChatGPT” para obtener asesoramiento médico en lugar de depender de médicos calificados y con licencia. Otros están recurriendo a respuestas generadas por IA en áreas como las finanzas, la salud emocional y las relaciones interpersonales. Alguna forma dependiente Pseudoamistad con chatbots y confiar en ellos para recibir asesoramiento, asumiendo que todo lo que un LLM escupe es “lo suficientemente bueno” como para influir en sus decisiones y acciones.
Cómo deberíamos hablar de IA
Cuando las empresas recurren al lenguaje antropomórfico, desdibujan la línea entre simulación y sensibilidad. La terminología exagera las expectativas, alimenta el miedo y distrae la atención de los problemas reales que merecen nuestra atención: sesgo en los conjuntos de datos, uso indebido por parte de malos actores, seguridad, confiabilidad y concentración de poder. Ninguno de estos temas requiere metáforas místicas.
Tomemos como ejemplo la reciente presentación por parte de Anthropic de su “documento del alma”, que sirve para entrenar el carácter, la autoconciencia y la identidad de Claude Opus 4.5. Esta loca pieza de documentación interna nunca tuvo la intención de hacer una afirmación metafísica; más bien, sus ingenieros estaban jugueteando con una guía de depuración. Sin embargo, el lenguaje que estas empresas utilizan a puerta cerrada afecta inevitablemente la forma en que la población general habla de ellas. Y una vez que este lenguaje se mantiene, da forma a nuestros pensamientos sobre la tecnología y nuestro comportamiento al tratar con ella.
O utilice la investigación de OpenAI Investigación de intrigas de IAdonde un puñado de respuestas raras pero engañosas llevaron a algunos investigadores a concluir que los modelos ocultaban intencionalmente ciertas capacidades. Auditar los resultados de la IA es una buena práctica; La suposición de que los chatbots puedan tener sus propios motivos o estrategias no es cierta. De hecho, el informe de OpenAI afirma que estos comportamientos son el resultado de datos de entrenamiento y tendencias de incentivos específicas, más que signos de engaño. Pero debido a que se utilizó la palabra “intriga”, la conversación giró hacia la preocupación de que la IA fuera una especie de agente furtivo.
Hay palabras mejores, más precisas y más técnicas. En lugar de “alma”, hable de la arquitectura o la formación de un modelo. En lugar de “confesión”, llámelo informe de errores o comprobaciones de coherencia interna. En lugar de llamar “esquema” a un modelo, describa su proceso de optimización. Deberíamos referirnos a la IA y utilizar términos como tendencias, resultados, representaciones, optimizadores, actualizaciones de modelos o dinámicas de entrenamiento. No son tan dramáticas como “Soul” o “Confesion”, pero tienen la ventaja de estar basadas en la realidad.
Para ser justos, hay razones por las que estos comportamientos de LLM parecen humanos: las empresas les han enseñado a emularnos.
Como señalaron los autores del artículo de 2021 “Sobre los peligros de los loros estocásticos”, los sistemas diseñados para replicar el lenguaje y la comunicación humanos finalmente lo reflejarán: nuestra dicción, sintaxis, tono y tenor. La similitud no implica una verdadera comprensión. Esto significa que el modelo funciona de la manera para la que fue optimizado. Cuando un chatbot imita cosas de manera tan convincente como lo hacen los chatbots actuales, terminamos leyendo la humanidad en la máquina, aunque no exista nada parecido.
El lenguaje da forma a la percepción pública. Cuando las palabras son descuidadas, mágicas o intencionalmente antropomórficas, el público termina con una imagen distorsionada. Este sesgo solo beneficia a un grupo: las empresas de inteligencia artificial que se benefician de que los LLM parezcan más poderosos, útiles y humanos de lo que realmente son.
Si las empresas de IA quieren generar confianza pública, el primer paso es fácil. Dejen de tratar a los modelos de lenguaje como seres místicos con alma. Tú no tienes sentimientos, nosotros sí. Nuestras palabras deben reflejar esto, no oscurecerlo.
Lea también: ¿Cómo se ve el significado en la era de la IA?