diciembre 15, 2025
b06b0140-d927-11f0-b7e5-4b0f28371158.jpeg

En el mismo mes en que Grok eligió un segundo holocausto en lugar de vaporizar el cerebro de Elon Musk, el chatbot con IA vuelve a estar en peligro. Tras el tiroteo en Bondi Beach en Australia durante un festival que marca el inicio de Hanukkah, Grok está respondiendo a las consultas de los usuarios con información inexacta o completamente ajena, como lo descubrió por primera vez Gizmodo.

La confusión de Grok parece más evidente en un vídeo viral que muestra a un transeúnte de 43 años, identificado como Ahmed al Ahmed, arrebatándole un arma a un atacante durante el incidente que dejó al menos 16 muertos, según informes de prensa recientes. Las respuestas de Grok muestran que la persona que detuvo a uno de los pistoleros fue identificada erróneamente repetidamente. En otros casos, Grok responde a la misma imagen sobre el tiroteo en Bondi Beach con detalles irrelevantes sobre acusaciones de tiroteos selectivos contra civiles en Palestina.

Las últimas respuestas todavía muestran que Grok está confundido con el tiroteo de Bondi Beach, e incluso proporcionó información sobre el incidente en respuesta a solicitudes no relacionadas o confundiéndolo con el tiroteo de la Universidad Brown en Rhode Island. xAI, el desarrollador de Grok, aún no ha comentado oficialmente qué está sucediendo con su chatbot de IA. Sin embargo, esta no es la primera vez que Grok se descarrila, considerando que a principios de este año se llamó MechaHitler.

About The Author