enero 14, 2026
ai-agent.jpg

Cuando toco la aplicación de Anthropic claudio ai en mi teléfono y digo: “Cuéntame una historia sobre un gato travieso”; pasan muchas cosas antes de que aparezca el resultado (“El gran tornillo del atún”) en mi pantalla.

Mi solicitud se envía a la nube: una computadora en una gran centro de datos en alguna parte – para repasar el soneto 4.5 de Claude modelo de lenguaje grande. El modelo crea una respuesta plausible utilizando texto predictivo avanzado, basándose en la enorme cantidad de datos con los que fue entrenado. Luego, esta respuesta se transmite a mi iPhone y aparece palabra por palabra, línea por línea en mi pantalla. Ha viajado cientos, si no miles, de millas y ha pasado por varias computadoras en el camino hacia y desde mi pequeño teléfono. Y todo sucede en cuestión de segundos.

Este sistema funciona bien si trabajas con apuestas bajas y la velocidad no es realmente un problema. Puedo esperar unos segundos para mi pequeña historia sobre Bigotes y su desventura en un armario de la cocina. Pero no todas las tareas de inteligencia artificial son así. Algunos requieren una velocidad tremenda. Cuando un dispositivo de inteligencia artificial quiere advertir a alguien sobre un objeto que bloquea su camino, no puede permitirse el lujo de esperar uno o dos segundos.

Otras solicitudes requieren más privacidad. No me importa si la historia del gato pasa por docenas de computadoras propiedad de personas y empresas que no conozco y en las que no confío. Pero ¿qué pasa con mi información de salud o mis datos financieros? Quizás quiera mantener esto bajo un control más estricto.


No se pierda nuestro contenido técnico imparcial y revisiones de laboratorio. Agregue CNET como su fuente favorita de Google.


La velocidad y la privacidad son dos razones principales por las que los desarrolladores de tecnología están trasladando cada vez más el procesamiento de IA desde enormes centros de datos corporativos a dispositivos personales como su teléfono, computadora portátil o reloj inteligente. También supone un ahorro de costes: no es necesario pagarle a un gran operador de centro de datos. Además, los modelos integrados en el dispositivo pueden funcionar sin conexión a Internet.

Sin embargo, para permitir este cambio se requiere un mejor hardware y modelos de IA más eficientes (a menudo más especializados). La convergencia de estos dos factores determina en última instancia qué tan rápida y fluida es su experiencia en dispositivos como su teléfono.

Arte de la insignia Atlas de CNET AI; Haga clic para ver más

CNET

Mahadev Satyanarayanan, conocido como Satya, es profesor de informática en la Universidad Carnegie Mellon. Lleva mucho tiempo investigando la llamada informática de borde, el concepto de llevar a cabo el procesamiento y almacenamiento de datos lo más cerca posible del usuario real. Dice que el modelo ideal para una verdadera informática de punta es el cerebro humano, que no traslada tareas como la visión, el reconocimiento, el habla o la inteligencia a alguna “nube”. Todo sucede directamente en el sitio, completamente “en el dispositivo”.

“Aquí está el truco: a la naturaleza le tomó mil millones de años evolucionar”, me dijo. “No tenemos que esperar mil millones de años. Estamos intentando hacer esto en cinco años, o como máximo en 10 años. ¿Cómo podemos acelerar la evolución?”

Lo aceleran con una IA mejor, más rápida y más pequeña que se ejecuta en un hardware mejor, más rápido y más pequeño. Y como ya estamos viendo con las últimas aplicaciones y dispositivos, incluidos los que se esperan en CES 2026, está en marcha.

Probablemente la IA esté ejecutándose en tu teléfono ahora mismo

La IA en el dispositivo no es nada nueva. ¿Recuerdas en 2017 cuando pudiste desbloquear tu iPhone por primera vez acercándolo a tu cara? Esta tecnología de reconocimiento facial utilizó un motor neuronal en el dispositivo; no es IA genética como Claude o ChatGPT, sino inteligencia artificial básica.

Los iPhones actuales utilizan un modelo de IA mucho más potente y versátil en el dispositivo. Tiene alrededor de 3 mil millones de parámetros: los cálculos individuales de la ponderación de una probabilidad en un modelo lingüístico. Esto es relativamente pequeño en comparación con los grandes modelos de uso general que ejecutan la mayoría de los chatbots de IA. Por ejemplo, Deepseek-R1 tiene 671 mil millones de parámetros. Pero no se pretende hacerlo todo. En cambio, está diseñado para tareas específicas en el dispositivo, como agregar mensajes. Al igual que la tecnología de reconocimiento facial para desbloquear su teléfono, no puede permitirse el lujo de depender de una conexión a Internet para ejecutar un modelo en la nube.

Apple ha ampliado sus capacidades de IA en el dispositivo, llamadas Apple Intelligence, para incluir capacidades de reconocimiento visual que, por ejemplo, le permiten buscar cosas de las que ha tomado una captura de pantalla.

Los modelos de IA en dispositivos están en todas partes. Los teléfonos Pixel de Google ejecutan el modelo Gemini Nano de la compañía en su chip Tensor G5 personalizado. Este modelo admite funciones como Magic Cue, que muestra información de sus correos electrónicos, mensajes y más, exactamente cuando la necesita, sin tener que buscarla manualmente.

Los desarrolladores de teléfonos, computadoras portátiles, tabletas y el hardware que contienen están desarrollando dispositivos teniendo en cuenta la IA. Pero va más allá de eso. ¿Recuerdas los relojes inteligentes y las gafas que ocupan mucho menos espacio que incluso el teléfono más delgado?

“Los desafíos del sistema son muy diferentes”, dijo Vinesh Sukumar, jefe de IA generativa y aprendizaje automático de Qualcomm. “¿Puedo hacer todo esto en todos los dispositivos?”

Ahora mismo la respuesta suele ser no. La solución es bastante sencilla. Cuando una solicitud excede las capacidades del modelo, la tarea se traslada a un modelo basado en la nube. Pero dependiendo de cómo se maneje esta transferencia, puede anular uno de los beneficios clave de la IA en el dispositivo: mantener sus datos completamente en sus manos.

IA más privada y segura

Los expertos señalan continuamente que la privacidad y la seguridad son los beneficios clave de la IA en los dispositivos. En una situación de nube, los datos vuelan en todas direcciones y están expuestos a cada vez más vulnerabilidades. Dejarlo en un teléfono cifrado o en una unidad de computadora portátil hace que sea mucho más fácil protegerlo.

Los datos utilizados por los modelos de IA de sus dispositivos pueden incluir cosas como sus preferencias, historial de navegación o información de ubicación. Si bien todo esto es esencial para que la IA personalice su experiencia según sus preferencias, también es el tipo de información que es poco probable que caiga en las manos equivocadas.

“Estamos presionando para garantizar que el usuario tenga acceso y sea el único propietario de estos datos”, dijo Sukumar.

La mano de una persona sostiene un iPhone.

Apple Intelligence le ha dado a Siri una nueva apariencia en el iPhone.

Numi Prasarn/CNET

Hay varias formas de manejar la subcontratación de información para proteger su privacidad. Un factor crucial es que debes dar tu permiso para hacerlo. Sukumar dijo que el objetivo de Qualcomm es garantizar que las personas estén informadas y tengan la capacidad de decir no cuando un modelo llega al punto en el que se traslada a la nube.

Otro enfoque, que puede funcionar junto con exigir el permiso del usuario, es garantizar que todos los datos enviados a la nube se procesen de forma segura, breve y temporal. Apple, por ejemplo, utiliza una tecnología llamada Private Cloud Compute. Los datos subcontratados solo se procesan en los propios servidores de Apple, solo se envían los datos mínimos necesarios para la tarea y ninguno de ellos se almacena ni se pone a disposición de Apple.

IA sin costes de IA

Los modelos de IA que se ejecutan en dispositivos tienen la ventaja tanto para los desarrolladores de aplicaciones como para los usuarios de que los costos continuos de ejecutarlos son esencialmente nulos. No existe ninguna empresa de servicios en la nube que pague por la energía y la potencia informática. Está todo en tu teléfono. Tu bolsillo es el centro de datos.

Eso es lo que llevó a Charlie Chapman, desarrollador de una aplicación de máquina de ruido llamada Dark Noise, a utilizar el marco Foundation Models de Apple para una herramienta que le permite crear una mezcla de sonido. El modelo de IA del dispositivo no genera audio nuevo, simplemente selecciona diferentes sonidos y niveles de volumen existentes para crear una mezcla.

Debido a que la IA se ejecuta en el dispositivo, no hay costos continuos al crear sus mezclas. Para un pequeño desarrollador como Chapman, esto significa que hay menos riesgo asociado con el tamaño de la base de usuarios de su aplicación. “Si algún influencer publica algo al respecto y tengo una cantidad increíble de usuarios gratuitos, eso no significa que de repente voy a ir a la quiebra”, dijo Chapman.

Leer más: Conceptos básicos de IA: 29 formas de hacer que la IA de generación funcione para usted, según nuestros expertos

Debido a que la IA en el dispositivo no tiene costos continuos, las tareas pequeñas y repetitivas, como la entrada de datos, pueden automatizarse sin grandes costos ni contratos informáticos, dijo Chapman. La desventaja es que los modelos en el dispositivo difieren según el dispositivo, lo que significa que los desarrolladores tendrían que trabajar aún más para garantizar que sus aplicaciones funcionen en hardware diferente.

Cuantas más tareas de IA se realicen en dispositivos de consumo, menos tendrán que gastar las empresas de IA en la construcción masiva de centros de datos que tienen a todas las grandes empresas de tecnología luchando por conseguir dinero en efectivo y chips de computadora. “Los costos de infraestructura son enormes”, afirmó Sukumar. “Si realmente se quiere aumentar la escala, no se debe aumentar esa carga de costos”.

El futuro es cuestión de velocidad

Especialmente cuando se trata de funciones en dispositivos como gafas, relojes y teléfonos, la utilidad real de la IA y el aprendizaje automático no se compara con el chatbot que utilicé para escribir una historia sobre gatos al principio de este artículo. Se trata de cosas como el reconocimiento de objetos, la navegación y la traducción. Estos requieren modelos y hardware más especializados, pero también más velocidad.

Satya, profesora de Carnegie Mellon, ha investigado varios usos de los modelos de IA y si pueden funcionar con suficiente precisión y rapidez con los modelos del dispositivo. Cuando se trata de clasificar imágenes de objetos, la tecnología actual funciona bastante bien: es capaz de producir resultados precisos en 100 milisegundos. “Hace cinco años no podíamos conseguir este nivel de precisión y velocidad en ninguna parte”, dijo.

Imágenes de las gafas Oakley Meta Vanguard AI que muestran un paisaje superpuesto con estadísticas de Garmin

Esta captura de pantalla recortada de un vídeo grabado con las gafas Oakley Meta Vanguard AI muestra métricas de entrenamiento extraídas del reloj Garmin emparejado.

Vanessa Mano Orellana/CNET

Pero otras cuatro tareas -detección de objetos, segmentación instantánea (la capacidad de reconocer objetos y su forma), reconocimiento de actividad y seguimiento de objetos- aún requieren que el equipo se descargue a una computadora más potente en otro lugar.

“Creo que los próximos años, unos cinco años, serán muy emocionantes a medida que los proveedores de hardware sigan intentando hacer que los dispositivos móviles sean más compatibles con la IA”, dijo Satya. “Al mismo tiempo, los propios algoritmos de IA se están volviendo más potentes, más precisos y más intensivos en términos de computación”.

Las posibilidades son inmensas. Satya dijo que en el futuro, los dispositivos podrán utilizar la visión por computadora para advertirle antes de tropezar debido a una remuneración desigual, o recordarle con quién está hablando y brindarle contexto sobre sus comunicaciones anteriores con esa persona. Cosas como esta requieren una IA más especializada y un hardware más especializado.

“Estos aparecerán”, dijo Satya. “Podemos verlos en el horizonte, pero aún no están aquí”.

About The Author