De la ciencia ficción a la vida real: cómo son los nuevos algoritmos que los investigadores tienen en la miraPor Instituto Weizmann de Ciencias*
* Este contenido fue producido por expertos del Instituto Weizmann de Ciencias, uno de los centros más importantes del mundo de investigación básica multidisciplinaria en el campo de las ciencias naturales y exactas, situado en la ciudad de Rejovot, Israel.
Así como las personas de diferentes países hablan distintos idiomas, los modelos de inteligencia artificial (IA) también crean diversos “idiomas” internos: un conjunto único de tokens que solo cada modelo entiende. Hasta hace poco, no existía forma de que los modelos desarrollados por diferentes empresas se comunicaran directamente, colaboraran o combinaran sus fortalezas para mejorar su rendimiento.
Esta semana, en la Conferencia Internacional sobre Aprendizaje Automático (ICML) en Vancouver, Canadá, científicos del Instituto Weizmann de Ciencias y de Intel Labs presentan un nuevo conjunto de algoritmos que superan esta barrera, permitiendo a los usuarios beneficiarse del poder computacional combinado de modelos de IA trabajando juntos.
Los nuevos algoritmos, ya disponibles para millones de desarrolladores de IA en todo el mundo, aceleran el rendimiento de los grandes modelos de lenguaje (LLM, por sus siglas en inglés), los modelos líderes actuales de IA generativa, en un promedio de 1,5 veces.
Los LLM, como ChatGPT y Gemini, son herramientas poderosas, pero presentan desventajas significativas: son lentos y consumen grandes cantidades de poder de cómputo. En 2022, las principales empresas tecnológicas se dieron cuenta de que los modelos de IA, al igual que las personas, podían beneficiarse de la colaboración y la división del trabajo.
Esto llevó al desarrollo de un método llamado decodificación especulativa, en el que un modelo pequeño y rápido, con conocimientos relativamente limitados, hace una primera suposición al responder la consulta de un usuario, y un modelo más grande, más potente pero más lento, revisa y corrige la respuesta si es necesario.
La decodificación especulativa fue adoptada rápidamente por los gigantes tecnológicos porque mantiene una precisión del 100 por ciento, a diferencia de la mayoría de las técnicas de aceleración, que reducen la calidad de la salida.
Pero tenía una gran limitación: ambos modelos debían “hablar” exactamente el mismo idioma digital, lo que significaba que los modelos desarrollados por diferentes empresas no podían combinarse.“
Los gigantes tecnológicos adoptaron la decodificación especulativa, beneficiándose de un rendimiento más rápido y ahorrando miles de millones de dólares al año en costos de poder de procesamiento, pero solo ellos tenían acceso a modelos pequeños y rápidos que hablan el mismo idioma que los modelos grandes”, explica Nadav Timor, estudiante de doctorado en el equipo de investigación del Prof. David Harel en el Departamento de Ciencias de la Computación y Matemáticas Aplicadas del Instituto Weizmann, quien lideró el nuevo desarrollo.

Los nuevos algoritmos desarrollados por los investigadores de Weizmann e Intel permiten a los desarrolladores emparejar cualquier modelo pequeño con cualquier modelo grande, haciendo que trabajen en equipo. Para superar la barrera del idioma, los investigadores idearon dos soluciones.
Primero, diseñaron un algoritmo que permite a un LLM traducir su salida desde su idioma interno de tokens a un formato compartido que todos los modelos pueden entender.
En segundo lugar, crearon otro algoritmo que hace que dichos modelos se basen principalmente, en su trabajo colaborativo, en tokens que tienen el mismo significado entre modelos, de manera similar a palabras como “banana” o “internet”, que son casi idénticas en los idiomas humanos.“

Los comentarios están cerrados.