Un problema importante de la inteligencia artificial es la interacción entre la memoria de una computadora y sus capacidades de procesamiento. Cuando un algoritmo está en funcionamiento, los datos fluyen rápidamente entre estos dos componentes. Sin embargo, los modelos de IA dependen de grandes cantidades de datos, lo que crea un cuello de botella.
Un nuevo estudio publicado el lunes en la revista Frontiers in Science de la Universidad Purdue y el Instituto de Tecnología de Georgia propone un enfoque novedoso para construir arquitectura informática para modelos de IA utilizando algoritmos inspirados en el cerebro. Los investigadores dicen que crear algoritmos de esta manera podría reducir los costos de energía asociados con los modelos de IA.
“Los modelos de procesamiento del lenguaje se han multiplicado por 5.000 en los últimos cuatro años”, dijo en un comunicado Kaushik Roy, profesor de ingeniería informática en la Universidad Purdue y autor principal del estudio. “Esta expansión preocupantemente rápida hace que sea crucial que la IA sea lo más eficiente posible. Eso significa repensar fundamentalmente la forma en que se diseñan las computadoras”.
No se pierda nuestro contenido técnico imparcial y revisiones de laboratorio. Añadir CNET como fuente preferida de Google. No se pierda nuestro contenido técnico imparcial y revisiones de laboratorio. Añadir CNET como fuente preferida de Google.
La mayoría de las computadoras actuales se basan en una idea de 1945 llamada arquitectura von Neumann, que separa el procesamiento y la memoria. Aquí es donde se produce la desaceleración. A medida que más personas en todo el mundo utilizan modelos de IA ávidos de datos, distinguir entre la capacidad de procesamiento y de almacenamiento de una computadora podría convertirse en una cuestión cada vez más importante.
Los investigadores de IBM destacaron este problema en una publicación a principios de este año. El problema al que se enfrentan los ingenieros informáticos se llama “muro de la memoria”.
Rompiendo el muro de la memoria
El muro de la memoria se refiere a la disparidad entre las capacidades de almacenamiento y procesamiento. Básicamente, la memoria de la computadora tiene dificultades para mantenerse al día con la velocidad de procesamiento. Este no es un problema nuevo. Un par de investigadores de la Universidad de Virginia acuñaron el término en la década de 1990.
Pero ahora que la IA prevalece, el problema de los muros de la memoria está consumiendo tiempo y energía en las computadoras subyacentes que hacen que los modelos de IA funcionen. Los investigadores del artículo sostienen que podríamos probar una nueva arquitectura informática que integre memoria y procesamiento.
Inspirados en la forma en que funciona nuestro cerebro, los algoritmos de IA mencionados en el trabajo se denominan “redes neuronales de picos”. En el pasado, a menudo se ha criticado que estos algoritmos pueden ser lentos e inexactos. Sin embargo, algunos informáticos sostienen que estos algoritmos han mostrado mejoras significativas en los últimos años.
Los investigadores sugieren que los modelos de IA deberían aprovechar un concepto relacionado con los SNN conocido como computación en memoria. Este concepto es todavía relativamente nuevo en el campo de la IA.
“CIM ofrece una solución prometedora al problema del muro de memoria al integrar funciones computacionales directamente en el sistema de memoria”, escriben los autores en el resumen del artículo.
Los dispositivos médicos, el transporte y los drones son algunas áreas en las que los investigadores creen que se podrían lograr mejoras si el procesamiento y el almacenamiento informático se integraran en un solo sistema.
“La IA es una de las tecnologías más transformadoras del siglo XXI. Pero para llevarla de los centros de datos al mundo real, debemos reducir drásticamente su consumo de energía”, afirmó Tanvi Sharma, coautor e investigador de la Universidad Purdue, en un comunicado.
“Con menos transferencia de datos y un procesamiento más eficiente, la IA puede caber en dispositivos pequeños y asequibles con baterías de mayor duración”, afirmó Sharma.