Skip to content
24 Abr 2026
Noticias
13 Ene 2026

Telefónica y Multiverse Computing desarrollan una IA que disminuye el consumo energético

Multiverse
Telefónica y Multiverse Computing han alcanzado un hito importante en la aplicación de la inteligencia artificial en el sector de las telecomunicaciones al comprimir y ajustar con éxito dos modelos de lenguaje grandes (LLM), basados en el aprendizaje automático y el procesamiento del lenguaje natural para su uso interno en la atención al cliente.

Los modelos originales que se han comprimido por parte de Telefónica y Multiverse Computing son Opensource. Previsiblemente serán utilizados en un futuro próximo dentro del sistema de chat que da soporte a agentes de Atención al Cliente en el marco de la iniciativa “Movistar por ti”, una nueva forma de atención al cliente más ágil, proactiva y cercana, consiguiendo optimizar los tiempos de respuesta en las consultas con un menor consumo energético en los sistemas.

La solución, basada en la compresión de modelos de IA, permite ofrecer importantes mejoras en velocidad, eficiencia, energía y costes, todo ello manteniendo la precisión de la información que facilita al agente gestionar más eficazmente la atención al cliente.

En concreto, Multiverse Computing ha aplicado técnicas de vanguardia de inspiración cuántica sobre los modelos Llama 3.1 8B y Llama 3.3 70B de Meta, modelos de lenguaje (LLM) pre-entrenados que pueden aplicarse a una gran variedad de casos de uso de asistentes inteligentes.

El resultado logrado es una reducción del 80% en el tamaño de los modelos, lo que implica una reducción considerable de la necesidad de almacenamiento, manteniendo la calidad de las respuestas generadas.

Otro aspecto destacable es el medioambiental ya que, además de poder ejecutarse en la nube, los modelos comprimidos desarrollados pueden desplegarse directamente en la red de Telefónica, incluyendo instalaciones locales (on premise). Esto permite reducir el consumo energético hasta un 75% en comparación con modelos sin comprimir.

De este modo, esta mejora también refuerza el compromiso conjunto de Telefónica y Multiverse Computing con la reducción del impacto ambiental de la tecnología.

Además, gracias al despliegue local en las centrales de Telefónica, donde toda la electricidad proviene de fuentes 100% renovables y se trabaja de forma constante en la mejora de la eficiencia, la operadora ha conseguido que las emisiones de CO₂ asociadas al uso de inteligencia artificial en este caso, también se reduzcan.

En cuanto a los modelos originales que se han comprimido (Llama) son modelos Opensource, en línea con el objetivo de Telefónica de impulsar la apertura, la seguridad y la neutralidad tecnológica para favorecer los estándares y la aceleración en la adopción de la IA.

En definitiva, la aplicación futura en Telefónica de los modelos comprimidos desarrollados supondrá grandes eficiencias operativas en el uso de IAs ya que permitirán mantener la calidad original de los grandes modelos de lenguaje (LLMs), empleando un hardware mucho más reducido y abaratando los costes de consulta a los modelos tanto en cloud como en local. A ello hay que sumar la reducción al mínimo del consumo energético en las instalaciones de Telefónica.

Una colaboración pionera para una IA escalable

Esta colaboración pone de relieve el potencial estratégico de combinar la escala de Telefónica con la profunda innovación técnica de Multiverse Computing. Al desplegar una solución de IA comprimida, de alto rendimiento y energéticamente eficiente, ambas compañías reafirman su liderazgo en el desarrollo de una IA más accesible y escalable para uso empresarial.