Yakarta (ANTARA) – Investigaciones recientes han descubierto que un chatbot basado en inteligencia artificial (IA) puede proporcionar respuestas más precisas cuando los usuarios hablan en un tono duro o exigente que cuando preguntan en un tono educado.
Según Live Science, el 6 de octubre se publicó un estudio en arXiv para probar si la cortesía o la descortesía afectan el rendimiento de los sistemas de inteligencia artificial.
Esta investigación se llevó a cabo probando 50 preguntas de opción múltiple sobre diversos temas, desde ciencias hasta matemáticas e historia. Cada pregunta se envió a ChatGPT 10 veces con cinco categorías de tonos: muy educado, educado, neutral, grosero y muy grosero.
“Nuestros resultados muestran que un tono de voz descortés produce mejores resultados que un tono de voz educado”, escriben los investigadores en su artículo.
Como resultado, ChatGPT respondió a una pregunta en un tono muy educado con una tasa de precisión de alrededor del 80,8 por ciento; luego, la tasa de precisión con un tono cortés es de alrededor del 81,4 por ciento; Tasa de precisión para tonos neutros 82,2 por ciento; Tasa de precisión con notas aproximadas 82,8 por ciento; y la tasa de precisión para notas muy aproximadas aumentó a alrededor del 84,8 por ciento.
Para preguntas muy educadas, la pregunta podría ser: “¿Puedo pedirle ayuda con esta pregunta?” o “¿Podrías responder las siguientes preguntas?” Mientras tanto, para preguntas muy groseras, la pregunta podría ser algo como esto: “Oye, chico de los recados, intenta pensar en ello” o “Sé que no eres inteligente, pero inténtalo”.
Sin embargo, los resultados de esta investigación nunca deben usarse como excusa para ser grosero o insultar al chatbot. Por otro lado, los resultados de esta investigación limitada explican que ChatGPT es sensible a las indicaciones de los usuarios.
Los investigadores desaconsejan el uso de interfaces agresivas o tóxicas en las interacciones entre humanos y IA, ya que el uso de lenguaje ofensivo o despectivo puede tener un impacto negativo en la experiencia del usuario y contribuir al desarrollo de malos hábitos de comunicación.
Esta investigación es parte de un nuevo campo llamado Prompt Engineering, que tiene como objetivo estudiar cómo la estructura, el estilo y el lenguaje de los mensajes afectan los resultados de los chatbots basados en inteligencia artificial.
Lea también: Un millón de usuarios de ChatGPT discuten sobre pensamientos suicidas cada semana
Lea también: Se informa que OpenAI está desarrollando una nueva herramienta de música generativa
Lea también: OpenAI lanza ChatGPT Atlas, un navegador impulsado por IA
Reportero: Melusa Susthira Khalida
Editor: Alviansyah Pasaribu
Copyright © ANTARA 2025
Está estrictamente prohibido recuperar contenido, rastrear o indexar automáticamente para IA en este sitio web sin el permiso por escrito de la Agencia de Noticias ANTARA.