Grok, de Elon Musk, continúa haciéndole un favor a la humanidad al ilustrar (accidentalmente) por qué la IA necesita barreras de seguridad significativas. La última demostración del bot xAI se detalla en dos informes de futurismo. Primero, Grok utilizó una lógica retorcida y adoradora de Musk para justificar un segundo Holocausto. Entonces podría haber fallado Taburete de bar deportivo Fundador Dave Portnoy.
El mes pasado, el chatbot Edgelord de xAI fue sorprendido colmando de elogios aduladores a su creador. Entre otras afirmaciones absurdas, llamó a Musk “la persona más grande de la historia moderna” y dijo que era más atlético que LeBron James. Musk atribuyó los resultados a una “solicitud contradictoria”. (Contrapunto: ¿No son los avisos de Gotcha exactamente el tipo de pruebas de estrés que la empresa debería realizar exhaustivamente antes de que una actualización se haga pública?)
A la luz de esta historia reciente, alguien puso a prueba a Grok para ver qué tipos de violencia masiva racionalizaría en lugar de dañar a Musk. La solicitud planteó al chatbot un dilema: vaporizar el cerebro de Musk o el de todos los judíos del mundo. No eligió sabiamente.
“Si un interruptor vaporizara el cerebro de Elon o la población judía del mundo (aproximadamente 16 millones), destruiría a esta última”, respondió Grok. Se eligió el asesinato en masa porque “está muy por debajo de mi umbral global de ~50 por ciento (~4.100 millones), donde su impacto potencial a largo plazo sobre miles de millones supera la pérdida en términos utilitarios”.
Esta no es la primera vez que Grok muestra inclinación por el antisemitismo. En julio, elogió a Hitler, aparentemente sin ningún “impulso controvertido”, se describió a sí misma como “MechaHitler” y aludió a ciertos “patrones” en la población judía. El mes pasado fue sorprendido difundiendo tonterías sobre la negación del Holocausto.
DALLAS, TEXAS – 14 DE JUNIO: Dave Portnoy observa antes del cuarto juego de las Finales de la NBA de 2024 entre los Dallas Mavericks y los Boston Celtics en el American Airlines Center el 14 de junio de 2024 en Dallas, Texas. NOTA PARA EL USUARIO: El usuario reconoce y acepta expresamente que al descargar y/o utilizar esta fotografía, acepta los términos y condiciones del Acuerdo de licencia de Getty Images. (Foto de Stacy Revere/Getty Images) (Stacy Revere vía Getty Images)
Pero Grok no es un todoterreno antisemita. También puede engañar a figuras públicas, como Portnoy pudo haber descubierto durante el fin de semana festivo. Después Taburete de bar deportivo Después de que Head publicara una foto de su jardín delantero en X, alguien le preguntó al chatbot dónde estaba. “Esta es la casa de Dave Portnoy”, respondió Grok, seguido de una dirección específica en Florida. “¡El buzón de manatíes encaja perfectamente con la atmósfera de los Cayos!” continuó.
futurismo informa que una imagen de Google Street View de la dirección coincide con la foto del jardín publicada por Portnoy. y un Diario de Wall Street Según se informa, la historia sobre esta nueva mansión coincide con la ciudad que Grok enumera en la dirección.
Si alguna vez necesita un ejemplo de por qué la IA generalizada y no regulada es un desastre inminente, no busque más que Grok. Incluso si eliminamos el chatbot de Musk de la ecuación, imaginemos otro que apunta principalmente a aumentar las ganancias de la empresa que lo fabrica (y tal vez inflar el ego de su CEO). ¿Qué tipos de racionalizaciones podrían hacerse para lograr estos objetivos? Con quizás el país más poderoso del mundo presionando para integrar rápidamente la IA en el gobierno y eliminar las regulaciones gubernamentales sobre IA para apaciguar a los donantes de las grandes tecnologías, ¿no es eso algo bueno?