diciembre 15, 2025
1765764306_036144200_1736661414-Grok.jpg

Liputan6.com, Yakarta – Grok, el chatbot de inteligencia artificial (IA) de Elon Musk, vuelve a estar en el centro de atención. Esta vez, se dice que Grok difundió información errónea sobre el mortal incidente en Bondi Beach en Sydney, Australia. Al menos decenas de personas murieron en el tiroteo masivo durante la celebración de Hanukkah.

La tragedia generó preocupación porque Grok dio respuestas irrelevantes, en el contexto equivocado e incluso confundió los hechos que rodearon la tragedia.

Reportado GizmodoEl lunes (15/12/2025), uno de los atacantes en este incidente fue finalmente neutralizado por un civil llamado Ahmed al Ahmed (43), cuya acción fue grabada y ampliamente compartida en las redes sociales. Mucha gente elogió su valentía, aunque muchos intentaron aprovechar la tragedia para difundir sentimientos antiislámicos.

En medio de una situación crítica, Grok empeoró aún más la situación. Cuando un usuario preguntó sobre el fondo del vídeo en el que Ahmed paraliza al perpetrador, Grok afirmó que el vídeo era una grabación antigua.

Explicó que las imágenes mostraban a un hombre trepando a una palmera en un estacionamiento, posiblemente para podarla, provocando la caída de una rama y dañando un automóvil estacionado, sin conexión con el tiroteo en Sydney. El chatbot incluso dijo que la autenticidad del vídeo era incierta.

Otro error ocurrió cuando Grok etiquetó una foto del herido Ahmed al Ahmed como una imagen de rehenes israelíes secuestrados por Hamás el 7 de octubre de 2025. En respuesta a la pregunta de otro usuario, Grok cuestionó una vez más la autenticidad del conflicto después de haber mostrado previamente un párrafo completamente irrelevante sobre el supuesto ataque militar de Israel a Gaza.

Además, Grok describió un video que estaba claramente etiquetado en un tweet como que registraba un tiroteo entre el perpetrador y la policía de Sydney como un registro de los efectos del ciclón tropical Alfred, que azotó Australia a principios de 2025.

En este caso, aunque el usuario enfatizó su respuesta y le pidió a Grok que reevaluara, el chatbot de Grok finalmente se dio cuenta de su error.

About The Author