Yakarta, CNN Indonesia —
Los últimos resultados de la encuesta de Kaspersky muestra que 3 de cada 10 indonesios utilizan la tecnología inteligencia artificial (AI) como compañero emocional. Sea consciente de los peligros.
En la encuesta global de Kaspersky, que incluyó a miles de encuestados de varios países, Indonesia registró tasas bastante altas de uso de la IA como compañera emocional.
PUBLICIDAD
Desplácese para continuar con el contenido
Una encuesta de Kaspersky encontró que el 31 por ciento de los usuarios de IA en Indonesia consideran hablar con la IA cuando están tristes, cifra superior al promedio mundial del 29 por ciento.
Según Kaspersky, la tendencia de utilizar la IA como compañera emocional está impulsada principalmente por la Generación Z y los Millennials. Están acostumbrados a hacer de la tecnología de inteligencia artificial parte de su vida diaria.
“La Generación Z y los Millennials muestran el mayor interés en el soporte basado en IA en todos los grupos de edad, con el 35 por ciento de los encuestados eligiendo esta opción”, dijo Kaspersky en una declaración escrita el jueves (1/1).
Mientras tanto, la generación mayor tiende a mostrar menos interés. Según una encuesta de Kaspersky, sólo el 19 por ciento de los encuestados de 55 años o más considerarían hablar con una IA cuando están enojados.
El peligro de confiar en la IA
La capacidad de la tecnología de inteligencia artificial para responder personalmente la hace sentir como un amigo cercano. Parecen ser capaces de dar a los usuarios los consejos adecuados y decir palabras de aliento, como un amigo cercano.
Aunque la comunicación con IA puede parecer personal y privada, es importante recordar que la mayoría de los chatbots comerciales tienen sus propias políticas de recopilación y procesamiento de datos. Por lo tanto, los usuarios deben tener cuidado al enviar sus historias a la IA.
“Es importante recordar que están aprendiendo a dar respuestas basadas en datos, muchos de los cuales provienen de Internet, lo que significa que son susceptibles a errores de repetición y sesgos en el texto utilizado para el entrenamiento. Es aconsejable abordar las sugerencias de IA con una buena dosis de escepticismo y tratar de evitar compartir información en exceso”, dijo Vladislav Tushkanov, líder del grupo en el Centro de Investigación de Tecnología de IA de Kaspersky.
Según los expertos de Kaspersky, existen varios consejos de seguridad que pueden mejorar la privacidad del usuario en la narración de historias con IA.
Antes de iniciar una conversación, primero lea la política de privacidad de la herramienta de inteligencia artificial que esté utilizando. Según Kaspersky, algunos proveedores de IA utilizan conversaciones emocionales para obtener información sobre los usuarios que puede utilizarse para publicidad dirigida o incluso venderse a empresas de marketing de terceros.
En segundo lugar, evite compartir información muy personal, de identidad o financiera con chatbots de IA.
En tercer lugar, utilice servicios de inteligencia artificial de empresas acreditadas con una sólida trayectoria en seguridad y privacidad. Evite el uso de bots anónimos o desconocidos que puedan estar diseñados para recopilar datos.
(dmi/dmi)
(Gambas: vídeo de CNN)