¿Pueden los smartphones obtener una inteligencia artificial potente gracias a tecnologías cuánticas de España?
![[Img #102002]](https://leonsurdigital.com/upload/images/10_2025/5334_asi-ani-agi-types-of-ai-1280x720.jpg)
A principios de junio, la startup española Multiverse Computing anunció la captación de 215 millones de dólares en inversiones para desarrollar su tecnología única de compresión de inteligencia artificial. Esta suma se convirtió en un récord para las empresas de IA del país y despertó un gran interés en la comunidad profesional. La pregunta clave: ¿podrá la nueva solución permitir ejecutar los modelos de lenguaje más complejos, antes disponibles solo en servidores, en smartphones comunes? ¿Por qué el problema de los “desmesurados” tamaños de la IA se vuelve crítico y cómo pueden los métodos cuánticos cambiarlo?
¿Para qué necesitan los teléfonos inteligencia artificial?
Las capacidades de los teléfonos modernos no dejan de crecer, lo que amplía significativamente el ámbito de su uso. Utilizamos los teléfonos para comunicarnos, navegar por la web, trabajar o entretenernos. Además de los juegos móviles, también tienen mucho éxito los juegos arcade y los juegos slots, que atraen por su variedad y sus interesantes mecánicas de juego. Y eso es solo una pequeña parte de los entretenimientos disponibles en los teléfonos.
Sin embargo, la experiencia de usuario del teléfono puede mejorarse significativamente con la ayuda de la inteligencia artificial. Es más, la IA puede dar a los propietarios de teléfonos posibilidades que antes ni siquiera podían imaginarse.
Por qué la reducción de los modelos de IA es importante para la industria
Actualmente, la inteligencia artificial avanzada requiere enormes recursos computacionales. Por ejemplo, los modelos de lenguaje Llama-2 7B y sus análogos ocupan decenas de gigabytes de memoria y utilizan millones de parámetros. Su uso está limitado a potentes centros de datos, lo que hace imposible ejecutar tales sistemas en dispositivos móviles sin la nube. Esto frena la expansión de la IA en el ámbito del edge computing — cálculos locales “en el borde” sin acceso constante a internet o servicios en la nube.
Las limitaciones del hardware afectan tanto a la velocidad de respuesta como a la privacidad de los usuarios. Si los modelos de IA pudieran trasladarse a un formato de bolsillo, ¿qué aportaría esto a los negocios y a la gente común? Se abren nuevos escenarios: asistentes personales, aplicaciones autónomas, datos privados sin transferencia al servidor, nuevos servicios para millones de dispositivos.
Cómo funciona la tecnología CompactifAI
La tecnología CompactifAI se basa en ideas de la física cuántica, lo que de por sí suena a ciencia ficción. En lugar de simplemente reducir la precisión de los cálculos o “cortar” neuronas innecesarias, como hacen muchos métodos clásicos, aquí se utilizan redes tensoriales. Imagínese un origami: una gran figura plana se pliega en una estructura compacta, donde solo se conservan los elementos más importantes.
En la implementación informática, esto recuerda al “plegado” de enormes matrices de pesos en estructuras compactas e interconectadas — operadores de producto de matrices (Matrix Product Operators). El sistema elimina las conexiones redundantes entre las neuronas artificiales, dejando solo los patrones clave que realmente influyen en el resultado.
Un detalle importante: no todas las capas de la IA se comprimen igual de bien. Según investigaciones de Multiverse Computing, las capas iniciales del modelo son mucho más sensibles a los cambios, mientras que los niveles más profundos permiten reducir significativamente la cantidad de parámetros sin una pérdida sustancial de precisión.
En qué es mejor CompactifAI que los métodos tradicionales de compresión
Los enfoques clásicos para reducir modelos de IA — cuantización (reducción de la precisión de los números), poda de neuronas (pruning) y destilación (entrenar un modelo compacto para imitar a uno grande) — se aplican desde hace tiempo en la industria. Sin embargo, solo permiten acelerar un poco los modelos o reducir su tamaño, normalmente sacrificando una parte significativa de la funcionalidad.
En comparación con esto, CompactifAI declara resultados radicales: reducción del número de parámetros en un 70%, disminución del volumen de memoria en un 93%, aceleración del funcionamiento en un 25% y una pérdida de precisión no superior al 2–3%. Según representantes de la startup, ninguno de los métodos tradicionales puede acercarse a estos valores.
Resultados y cifras reales
Como ejemplo, el equipo de Multiverse Computing cita el modelo Llama-2 7B: tras aplicar CompactifAI, la memoria necesaria para funcionar se reduce casi 14 veces, y la velocidad de inferencia — el modo principal de “respuesta” de la IA — aumenta un 25%. Para los usuarios, esto significa una respuesta rápida y la posibilidad de ejecutar el modelo en dispositivos donde antes era imposible. Al mismo tiempo, según datos de la propia empresa, la precisión de las respuestas correctas disminuye como máximo un 2–3% — una magnitud no crítica para la mayoría de las tareas.
Tras la compresión, los modelos pasan por una “ligera recuperación” — un proceso de ajuste adicional que lleva mucho menos tiempo que el entrenamiento clásico. Actualmente, la optimización se aplica a modelos abiertos, incluidos Llama, Mistral, y en los próximos planes está el soporte para DeepSeek R1 y otros modelos de reasoning (modelos diseñados para razonamiento lógico). Las soluciones propietarias, como GPT-4 o Claude, aún no están disponibles para tal optimización debido al carácter cerrado de sus códigos fuente.
Quién invierte y para qué
En la ronda de inversiones participaron Bullhound Capital, HP Tech Ventures, Toshiba, así como el gobierno de España, que invirtió 67 millones de euros en el desarrollo de la startup. Según Tuan Tran, presidente de tecnología e innovación de HP, “el enfoque innovador de Multiverse es capaz de hacer realidad las ventajas de la IA — desde el aumento de la productividad hasta la mejora de la privacidad y la reducción de costes para empresas de cualquier tamaño”.
Este interés se explica no solo por la expectativa de ahorro con la implantación masiva de la IA, sino también por las perspectivas de desarrollo del edge AI — la integración de modelos potentes en dispositivos sin la participación de cálculos en la nube. Como señalan los representantes de la startup, más de 100 corporaciones (incluyendo Bosch y el Banco de Canadá) ya utilizan algoritmos cuánticos de Multiverse para optimizar el ahorro energético, la modelización financiera y otras tareas.
Aplicación y planes de desarrollo
Hoy en día, las tecnologías de Multiverse Computing se aplican en energía, finanzas, industria, donde es importante trabajar con grandes volúmenes de datos y se requiere una toma de decisiones rápida. La compresión de modelos basada en CompactifAI da a los desarrolladores de aplicaciones móviles y de IoT la oportunidad de crear servicios autónomos que antes parecían imposibles debido a las limitaciones de hardware.
La empresa amplía activamente su cartera de modelos compatibles y desarrolla la colaboración con plataformas en la nube (por ejemplo, AWS). Sin embargo, el éxito futuro depende de la apertura de los modelos de lenguaje y de la necesidad de una verificación a gran escala de la tecnología en escenarios reales — por ahora, muchos expertos instan a esperar pruebas independientes.
Fundada en San Sebastián, Multiverse Computing aspira a hacer que las matemáticas cuánticas sean accesibles para los negocios y la sociedad. Su misión es implementar los logros científicos más avanzados en la práctica, para que la IA sea más eficiente, barata y segura para todos los usuarios.
Perspectivas para el mercado masivo y los desarrolladores
Si los modelos compactos de IA se vuelven accesibles en millones de smartphones, la industria recibirá un verdadero impulso para su desarrollo. Para el usuario, esto abrirá nuevos niveles de personalización, funcionamiento rápido sin conexión a la nube, y para las empresas — acceso a la innovación sin grandes costes de infraestructura.
Podrían aparecer asistentes inteligentes, aplicaciones para procesamiento de voz, análisis de imágenes e incluso medicina, funcionando de forma autónoma directamente en el teléfono. Surge la pregunta: ¿estamos preparados para la era de la “IA de bolsillo”, cuando la inteligencia artificial podrá acompañarnos literalmente en cada dispositivo y servicio?
El futuro parece prometedor, pero requiere tiempo y comprobación en la práctica. El éxito de Multiverse Computing puede convertirse en un ejemplo de cómo las ideas cuánticas cambian no solo la ciencia, sino también la vida cotidiana.
A principios de junio, la startup española Multiverse Computing anunció la captación de 215 millones de dólares en inversiones para desarrollar su tecnología única de compresión de inteligencia artificial. Esta suma se convirtió en un récord para las empresas de IA del país y despertó un gran interés en la comunidad profesional. La pregunta clave: ¿podrá la nueva solución permitir ejecutar los modelos de lenguaje más complejos, antes disponibles solo en servidores, en smartphones comunes? ¿Por qué el problema de los “desmesurados” tamaños de la IA se vuelve crítico y cómo pueden los métodos cuánticos cambiarlo?
¿Para qué necesitan los teléfonos inteligencia artificial?
Las capacidades de los teléfonos modernos no dejan de crecer, lo que amplía significativamente el ámbito de su uso. Utilizamos los teléfonos para comunicarnos, navegar por la web, trabajar o entretenernos. Además de los juegos móviles, también tienen mucho éxito los juegos arcade y los juegos slots, que atraen por su variedad y sus interesantes mecánicas de juego. Y eso es solo una pequeña parte de los entretenimientos disponibles en los teléfonos.
Sin embargo, la experiencia de usuario del teléfono puede mejorarse significativamente con la ayuda de la inteligencia artificial. Es más, la IA puede dar a los propietarios de teléfonos posibilidades que antes ni siquiera podían imaginarse.
Por qué la reducción de los modelos de IA es importante para la industria
Actualmente, la inteligencia artificial avanzada requiere enormes recursos computacionales. Por ejemplo, los modelos de lenguaje Llama-2 7B y sus análogos ocupan decenas de gigabytes de memoria y utilizan millones de parámetros. Su uso está limitado a potentes centros de datos, lo que hace imposible ejecutar tales sistemas en dispositivos móviles sin la nube. Esto frena la expansión de la IA en el ámbito del edge computing — cálculos locales “en el borde” sin acceso constante a internet o servicios en la nube.
Las limitaciones del hardware afectan tanto a la velocidad de respuesta como a la privacidad de los usuarios. Si los modelos de IA pudieran trasladarse a un formato de bolsillo, ¿qué aportaría esto a los negocios y a la gente común? Se abren nuevos escenarios: asistentes personales, aplicaciones autónomas, datos privados sin transferencia al servidor, nuevos servicios para millones de dispositivos.
Cómo funciona la tecnología CompactifAI
La tecnología CompactifAI se basa en ideas de la física cuántica, lo que de por sí suena a ciencia ficción. En lugar de simplemente reducir la precisión de los cálculos o “cortar” neuronas innecesarias, como hacen muchos métodos clásicos, aquí se utilizan redes tensoriales. Imagínese un origami: una gran figura plana se pliega en una estructura compacta, donde solo se conservan los elementos más importantes.
En la implementación informática, esto recuerda al “plegado” de enormes matrices de pesos en estructuras compactas e interconectadas — operadores de producto de matrices (Matrix Product Operators). El sistema elimina las conexiones redundantes entre las neuronas artificiales, dejando solo los patrones clave que realmente influyen en el resultado.
Un detalle importante: no todas las capas de la IA se comprimen igual de bien. Según investigaciones de Multiverse Computing, las capas iniciales del modelo son mucho más sensibles a los cambios, mientras que los niveles más profundos permiten reducir significativamente la cantidad de parámetros sin una pérdida sustancial de precisión.
En qué es mejor CompactifAI que los métodos tradicionales de compresión
Los enfoques clásicos para reducir modelos de IA — cuantización (reducción de la precisión de los números), poda de neuronas (pruning) y destilación (entrenar un modelo compacto para imitar a uno grande) — se aplican desde hace tiempo en la industria. Sin embargo, solo permiten acelerar un poco los modelos o reducir su tamaño, normalmente sacrificando una parte significativa de la funcionalidad.
En comparación con esto, CompactifAI declara resultados radicales: reducción del número de parámetros en un 70%, disminución del volumen de memoria en un 93%, aceleración del funcionamiento en un 25% y una pérdida de precisión no superior al 2–3%. Según representantes de la startup, ninguno de los métodos tradicionales puede acercarse a estos valores.
Resultados y cifras reales
Como ejemplo, el equipo de Multiverse Computing cita el modelo Llama-2 7B: tras aplicar CompactifAI, la memoria necesaria para funcionar se reduce casi 14 veces, y la velocidad de inferencia — el modo principal de “respuesta” de la IA — aumenta un 25%. Para los usuarios, esto significa una respuesta rápida y la posibilidad de ejecutar el modelo en dispositivos donde antes era imposible. Al mismo tiempo, según datos de la propia empresa, la precisión de las respuestas correctas disminuye como máximo un 2–3% — una magnitud no crítica para la mayoría de las tareas.
Tras la compresión, los modelos pasan por una “ligera recuperación” — un proceso de ajuste adicional que lleva mucho menos tiempo que el entrenamiento clásico. Actualmente, la optimización se aplica a modelos abiertos, incluidos Llama, Mistral, y en los próximos planes está el soporte para DeepSeek R1 y otros modelos de reasoning (modelos diseñados para razonamiento lógico). Las soluciones propietarias, como GPT-4 o Claude, aún no están disponibles para tal optimización debido al carácter cerrado de sus códigos fuente.
Quién invierte y para qué
En la ronda de inversiones participaron Bullhound Capital, HP Tech Ventures, Toshiba, así como el gobierno de España, que invirtió 67 millones de euros en el desarrollo de la startup. Según Tuan Tran, presidente de tecnología e innovación de HP, “el enfoque innovador de Multiverse es capaz de hacer realidad las ventajas de la IA — desde el aumento de la productividad hasta la mejora de la privacidad y la reducción de costes para empresas de cualquier tamaño”.
Este interés se explica no solo por la expectativa de ahorro con la implantación masiva de la IA, sino también por las perspectivas de desarrollo del edge AI — la integración de modelos potentes en dispositivos sin la participación de cálculos en la nube. Como señalan los representantes de la startup, más de 100 corporaciones (incluyendo Bosch y el Banco de Canadá) ya utilizan algoritmos cuánticos de Multiverse para optimizar el ahorro energético, la modelización financiera y otras tareas.
Aplicación y planes de desarrollo
Hoy en día, las tecnologías de Multiverse Computing se aplican en energía, finanzas, industria, donde es importante trabajar con grandes volúmenes de datos y se requiere una toma de decisiones rápida. La compresión de modelos basada en CompactifAI da a los desarrolladores de aplicaciones móviles y de IoT la oportunidad de crear servicios autónomos que antes parecían imposibles debido a las limitaciones de hardware.
La empresa amplía activamente su cartera de modelos compatibles y desarrolla la colaboración con plataformas en la nube (por ejemplo, AWS). Sin embargo, el éxito futuro depende de la apertura de los modelos de lenguaje y de la necesidad de una verificación a gran escala de la tecnología en escenarios reales — por ahora, muchos expertos instan a esperar pruebas independientes.
Fundada en San Sebastián, Multiverse Computing aspira a hacer que las matemáticas cuánticas sean accesibles para los negocios y la sociedad. Su misión es implementar los logros científicos más avanzados en la práctica, para que la IA sea más eficiente, barata y segura para todos los usuarios.
Perspectivas para el mercado masivo y los desarrolladores
Si los modelos compactos de IA se vuelven accesibles en millones de smartphones, la industria recibirá un verdadero impulso para su desarrollo. Para el usuario, esto abrirá nuevos niveles de personalización, funcionamiento rápido sin conexión a la nube, y para las empresas — acceso a la innovación sin grandes costes de infraestructura.
Podrían aparecer asistentes inteligentes, aplicaciones para procesamiento de voz, análisis de imágenes e incluso medicina, funcionando de forma autónoma directamente en el teléfono. Surge la pregunta: ¿estamos preparados para la era de la “IA de bolsillo”, cuando la inteligencia artificial podrá acompañarnos literalmente en cada dispositivo y servicio?
El futuro parece prometedor, pero requiere tiempo y comprobación en la práctica. El éxito de Multiverse Computing puede convertirse en un ejemplo de cómo las ideas cuánticas cambian no solo la ciencia, sino también la vida cotidiana.
Normas de participación
Esta es la opinión de los lectores, no la de este medio.
Nos reservamos el derecho a eliminar los comentarios inapropiados.
La participación implica que ha leído y acepta las Normas de Participación y Política de Privacidad
Normas de Participación
Política de privacidad
Por seguridad guardamos tu IP
216.73.216.2