Google presentó el martes una nueva tecnología para mejorar la privacidad Computación privada de IA para procesar solicitudes de inteligencia artificial (IA) en una plataforma segura en la nube.
La compañía dijo que desarrolló Private AI Compute para “desbloquear toda la velocidad y potencia de los modelos de nube Gemini para experiencias de IA, al tiempo que garantiza que su información personal permanezca privada e inaccesible para cualquier otra persona, ni siquiera para Google”.
Private AI Compute se ha descrito como un “espacio seguro y fortificado” para procesar datos confidenciales del usuario de una manera similar al procesamiento en el dispositivo pero con capacidades avanzadas de IA. Está impulsado por unidades de procesamiento tensorial (TPU) Trillium y enclaves de inteligencia de titanio (TIE), lo que permite a la empresa aprovechar sus modelos de vanguardia sin comprometer la seguridad y la privacidad.
En otras palabras, la infraestructura de protección de datos está diseñada para aprovechar la velocidad y la potencia informática de la nube manteniendo al mismo tiempo las garantías de seguridad y privacidad que conlleva el procesamiento en el dispositivo.
Las cargas de trabajo de CPU y TPU de Google (también llamadas nodos confiables) dependen de un entorno de ejecución confiable (TEE) de hardware basado en AMD que cifra el almacenamiento y lo aísla del host. El gigante tecnológico señaló que solo las cargas de trabajo certificadas pueden ejecutarse en los nodos confiables y que el acceso administrativo a las cargas de trabajo está bloqueado. Además, los nodos están protegidos contra posibles ataques de filtración de datos físicos.
La infraestructura también admite la certificación y el cifrado de igual a igual entre nodos confiables para garantizar que los datos del usuario solo se descifren y procesen dentro de los límites de un entorno seguro y estén protegidos de la infraestructura más amplia de Google.
“Cada carga de trabajo solicita las credenciales de carga de trabajo de cada otra y las valida criptográficamente para garantizar la confianza mutua dentro del entorno de ejecución protegido”, explicó Google. “Las credenciales de carga de trabajo solo se proporcionan tras una validación exitosa de la certificación del nodo frente a puntos de referencia internos. La validación fallida impide el establecimiento de la conexión, lo que protege los datos del usuario de componentes que no son de confianza”.

Todo el flujo del proceso funciona así: un cliente de usuario establece una conexión de cifrado de protocolo de ruido con un servidor de aplicaciones para el usuario y configura una certificación bidireccional. El cliente también valida la identidad del servidor mediante una sesión Oak certificada y cifrada de extremo a extremo para confirmar que es genuina y no está alterada.
Después de este paso, el servidor establece un canal de cifrado de Seguridad de transporte de la capa de aplicación (ALTS) con otros servicios en el canal de inferencia escalable, que luego se comunica con los servidores modelo que se ejecutan en la plataforma TPU reforzada. Todo el sistema es “intrínsecamente efímero”, lo que significa que un atacante que obtiene acceso privilegiado al sistema no puede obtener datos previos porque las entradas, las inferencias del modelo y los cálculos se descartan una vez que se completa la sesión del usuario.
![]() |
| Arquitectura informática privada de IA de Google |
Google también ha destacado las diversas protecciones integradas en el sistema para garantizar su seguridad e integridad y evitar cambios no autorizados. Esto incluye –
- Minimizar la cantidad de componentes y entidades en los que se debe confiar para la confidencialidad de los datos
- Uso de Confidential Federated Compute para recopilar análisis y agregar información
- Cifrado para la comunicación cliente-servidor.
- Autorización binaria para garantizar que solo se ejecuten códigos firmados y autorizados y configuraciones validadas en toda la cadena de suministro de software.
- Aislar los datos del usuario en máquinas virtuales (VM) para evitar compromisos
- Proteja los sistemas contra la filtración física con cifrado de memoria y protección de la Unidad de administración de memoria de entrada/salida (IOMMU).
- Sin acceso de shell a la plataforma TPU
- Usar retransmisiones ciegas de IP operadas por terceros para canalizar todo el tráfico entrante al sistema y ocultar el verdadero origen de la solicitud.
- Aislar la autenticación y autorización del sistema de la inferencia mediante tokens anónimos
El Grupo NCC, que realizó una evaluación externa de Private AI Compute entre abril y septiembre de 2025, dijo que pudo descubrir un canal lateral basado en el tiempo en el componente de retransmisión cegadora de IP que podría usarse para “desenmascarar” a los usuarios bajo ciertas condiciones. Sin embargo, Google califica el riesgo como bajo porque la naturaleza multiusuario del sistema genera un “ruido significativo” y dificulta que un atacante asigne una solicitud a un usuario específico.

La empresa de ciberseguridad también dijo que ha identificado tres problemas en la implementación del mecanismo de certificación que podrían conducir a una condición de denegación de servicio (DoS), así como a varios ataques de protocolo. Actualmente, Google está trabajando en soluciones para todos.
“Aunque el sistema general se basa en hardware propietario y está centralizado en Borg Prime, (…) Google ha limitado significativamente el riesgo de que los datos de los usuarios queden expuestos a un procesamiento inesperado o a terceros, a menos que Google como organización entera decida hacerlo”, dijo. “Los usuarios se benefician de un alto nivel de protección contra usuarios internos malintencionados”.
El desarrollo refleja movimientos similares de Apple y Meta, que han adoptado la computación en la nube privada (PCC) y el procesamiento privado para descargar consultas de IA desde dispositivos móviles de manera que se preserve la privacidad.
“La verificación remota y el cifrado se utilizan para conectar su dispositivo al entorno de nube sellado y protegido por hardware, lo que permite a los modelos Gemini procesar sus datos de forma segura en un área dedicada y protegida”, dijo Jay Yagnik, vicepresidente de innovación e investigación de IA de Google. “Esto garantiza que los datos confidenciales procesados por Private AI Compute sigan siendo accesibles solo para usted y nadie más, ni siquiera Google”.
