enero 14, 2026
GettyImages-2170386424.jpg

OpenAI está buscando un nuevo ejecutivo responsable de investigar los riesgos emergentes relacionados con la IA en áreas que van desde la seguridad informática hasta la salud mental.

El director ejecutivo Sam Altman aclaró las cosas en una publicación

“Si desea ayudar al mundo a descubrir cómo podemos equipar a los defensores de la ciberseguridad con capacidades de vanguardia y al mismo tiempo garantizar que los atacantes no puedan usarlas para causar daño, idealmente haciendo que todos los sistemas sean más seguros y de manera similar desbloqueando capacidades biológicas e incluso ganando confianza en la seguridad de los sistemas en funcionamiento que pueden mejorarse a sí mismos, considere postularse”, escribió Altman.

La lista de OpenAI para el puesto de Jefe de Preparación describe el puesto como responsable de implementar el marco de preparación de la empresa. “Nuestro marco explica el enfoque de OpenAI para rastrear y prepararse para capacidades de vanguardia que crean nuevos riesgos de daños graves”.

La compañía anunció por primera vez la creación de un equipo de preparación en 2023 y dijo que sería responsable de investigar posibles “riesgos catastróficos”, ya sean más inmediatos, como ataques de phishing, o de naturaleza más especulativa, como amenazas nucleares.

Menos de un año después, OpenAI nombró jefe de preparación a Aleksander Madry para un puesto centrado en el razonamiento de la IA. Otros gerentes de seguridad de OpenAI también dejaron la empresa o asumieron nuevos roles fuera de la preparación y la seguridad.

La compañía también actualizó recientemente su Marco de Preparación, diciendo que podría “ajustar” sus requisitos de seguridad si un laboratorio de IA rival lanza un modelo de “alto riesgo” sin salvaguardias similares.

Evento tecnológico

san francisco
|
13 al 15 de octubre de 2026

Como aludió Altman en su publicación, los chatbots de IA generativa están cada vez más bajo escrutinio por su impacto en la salud mental. Demandas recientes alegan que ChatGPT de OpenAI ha aumentado los delirios de los usuarios, aumentado su aislamiento social e incluso ha llevado a algunos a suicidarse. (La compañía dijo que continúa trabajando para mejorar la capacidad de ChatGPT para detectar signos de angustia emocional y conectar a los usuarios con soporte en el mundo real).

About The Author