El miércoles surgieron informes de que la Casa Blanca está preparando una orden ejecutiva que ordena a las agencias federales desafiar o bloquear las regulaciones de IA a nivel estatal.
El empresario de Seattle Joe Braidwood ve la noticia como una gran oportunidad.
Braidwood es director ejecutivo y cofundador de Glacis, una nueva startup respaldada por AI2 Incubator que está desarrollando software para ayudar a las empresas a demostrar que sus medidas de seguridad de IA se están implementando según lo previsto. Glacis crea “recibos” a prueba de manipulaciones para cada decisión de IA, para que las empresas puedan demostrar que sus sistemas de seguridad realmente funcionan.
“Piense en ello como un registrador de vuelo para la IA empresarial”, dijo Braidwood.
Braidwood dijo que la posible orden de la Casa Blanca que bloquea las leyes estatales de IA convierte a Glacis de una startup recién fundada a una “necesidad de infraestructura”. En un entorno en el que el Departamento de Justicia demandaría a los estados que promulgan normas sobre IA, una capa de confianza neutral e independiente de la plataforma podría volverse cada vez más importante.
Los orígenes de Glacis se encuentran en la complejidad regulatoria.
Braidwood, un veterano ejecutivo de marketing de tecnología, cerró recientemente Yara, su startup de un año que tenía como objetivo utilizar la inteligencia artificial para mejorar el bienestar mental. Señaló las regulaciones de Illinois que hacían que la terapia con IA fuera “prácticamente no asegurable”.
En una publicación de LinkedIn que desde entonces se volvió viral, Braidwood explicó la decisión de cerrar Yara y abrir un conjunto de avisos de seguridad que había desarrollado.
Escribió que Yara cerró después de darse cuenta de que la IA se estaba volviendo “peligrosa” -no sólo inadecuada- al interactuar con personas con traumas graves o pensamientos suicidas. La experiencia, dijo, muestra “dónde deben estar los límites” y muestra cómo las nuevas empresas que trabajan en categorías de IA de alto riesgo enfrentan responsabilidades y presiones regulatorias inmanejables.
Después de la publicación, reguladores, médicos, ingenieros, fundadores y ejecutivos de seguros dieron un paso al frente, muchos de los cuales señalaron el mismo problema: cuando los sistemas de inteligencia artificial toman decisiones, nadie puede verificar de forma independiente que las políticas de seguridad realmente se hayan activado.
Esta claridad se convirtió en la base de Glacis.
Cada vez que un modelo de IA responde una pregunta o realiza una acción, Glacis crea un registro firmado que muestra la entrada, los controles de seguridad realizados y la decisión final. El registro no se puede modificar y su creación tarda menos de 50 milisegundos. Los reguladores y las aseguradoras pueden revisar estos recibos sin mirar los datos personales, y Braidwood dijo que las aseguradoras creen que esto finalmente podría hacer posible asegurar sistemas de inteligencia artificial que puedan demostrar que han cumplido con las reglas.
Braidwood cofundó Glacis con la Dra. Jennifer Shannon, psiquiatra y profesora asociada de la Universidad de Washington.
La empresa se encuentra actualmente en fase beta privada con clientes de salud digital, incluido nVoq, dirigidos a los sectores de salud, tecnología financiera y seguros. También es parte del programa Launchpad de Cloudflare.
Braidwood fue anteriormente director de estrategia de Vector Medical. También fue cofundador de la plataforma de televisión social Scener y director de marketing de SwiftKey.
Shannon ha trabajado como psiquiatra durante casi dos décadas. También se desempeñó como directora médica en Cognoa y es miembro del Comité de Recursos de IA de la Academia Estadounidense de Psiquiatría Infantil y Adolescente.