EEUU ha hecho una apuesta casi total por modelos IA descomunales. China está mostrando otro camino
Tecnología

EEUU ha hecho una apuesta casi total por modelos IA descomunales. China está mostrando otro camino

Lectura sugerida
28 de abril de 2026
J
Javier Pastor
J

Javier Pastor

Corresponsal Global

Compartir:

EEUU ha hecho una apuesta casi total por modelos IA descomunales. China está mostrando otro camino

Alibaba tenía hasta ahora un modelo abierto estupendo para programar. Se traba de Qwen3.5-397B-A17B, pero el problema es que era gigantesco con sus 397.000 millones de parámetros y sus 807 GB de tamaño en disco (y memoria). La empresa china ha hecho algo sorprendente y ha anunciado estos días el modelo Qwen3.6-27B, que en su versión cuantizada pesa menos de 17 GB. Cualquiera pensaría que con ese tamaño sería mucho peor que su hermano mayor. Pero se equivocaría. Es la prueba de que es posible dar por mucho menos.

Un modelo denso. La mayoría de modelos grandes de pesos abiertos en 2026 usan arquitectura Mixture-of-Experts (MoE): tienen muchos parámetros en total, pero solo activan una fracción de ellos cuando los usamos. Por ejemplo el modelo Qwen3.5-397B-A17B precisamente indicaba eso en su nombre: de los 397.000 millones de parámetros, tan solo activaba 17.000 millones (de ahí el A17B) al usarlo. 

Con Qwen3.6-27B tenemos lo que se llama un modelo denso: los 27.000 millones de parámetros se activan en cada inferencia. Aunque es algo menos eficiente, tienen ventajas prácticas claras. Por ejemplo, no es necesario configurar un enrutador de expertos, y la cuantización es más predecible y compacta. La idea ha funcionado, y los resultados lo demuestran.

Qwen El rendimiento de este "pequeño" modelo de IA es incluso superior a una versión anterior mucho más grande.

Los benchmarks no mienten (demasiado). En SWE-bench Verified, el benchmark más popular para tareas de programación real, Qwen3.6-27B logra el 77,2% de puntuación frente al 76,2% del modelo de 397B. En Terminal-Bench 2.0, que mide qué tal ejecuta el modelo tareas en la consola de comandos, logró un 59,3%  frente al 2,5% de su rival. Pero es que en esta prueba logra exactamente la misma puntuación que Claude Opus 4.5, uno de los mejores modelos recientes de Anthropic. Que un modelo "Open Source" que se puede usar en local con facilidad logre algo así es insólito, pero debemos ser cautos: los benchmarks son de la propia Alibaba, y no hay de momento verificación independiente aunque quienes lo están usando parecen estar realmente satisfechos con él.

Hasta Alibaba se sorprende. Lo que es llamativo de este lanzamiento es que la propia empresa que lo ha lanzando está impulsándolo por encima de su modelo más ambicioso hasta hace poco. Que ellos mismos comparen ambas versiones y reconozcan que el "pequeño" es el más potente es significativo. Es como  decir a los cuatro vientos que los modelos de IA más  grandes no tienen competencia, cuando ellos acaban de comprobar que no es así y que modelos como Qwen3.6-27B pueden ser realmene notables en comportamiento.

"Bastan" 24 GB de VRAM. Gracias a su reducido tamaño, es posible usar este modelo en máquinas relativamente accesibles. Así, los 24 GB de memoria de vídeo de las RTX 3090 convierten a estas gráficas en una alternativa perfecta para instalar y usar Qwen3.6-27B con un rendimiento excelente. Los modelos densos no van tan bien en MacBook o Mac mini con memoria unificada, y aunque lógicamente no todo el mundo tiene acceso a gráficas con 24 GB de RAM, el acceso a modelos locales realmente capaces sigue mejorando.

Las mejores esencias, en fracos pequeños. Alibaba es una apisonadora de modelos de IA "pequeños", y lo demostró a principios de marzo cuando lanzó varios que iban desde los 0.8B a los 9B. Afortunadamente hay alternativas variadas en ese segmento de "Small Language Models" (SLMs) y aquí tenemos ejemplos de referencia como Gemma 4, recién lanzado por Google. Microsoft con Phi-4 (que necesita una actualización, como gpt-oss-20b/120b) o Mistral con Devstral 2 son ejemplos de que las empresas occidentales también están moviendo ficha en este interesante terreno.

Pero. Según los benchmarks, Qwen3.6-27b es comparable en algunos benchmarks a Claude Opus 4.5, el modelo más avanzado de Anthropic cuando se lanzó en noviembre de 2025. Eso es sorprendente y confirma que los modelos de pesos abiertos de empresas chinas están, como decía Demis Hassabis, entre 6 y 12 meses por detrás de los modelos más avanzados de Anthropic, OpenAI o Google. Pero para ejecutarlos sigue siendo necesaria una inversión notable, y aunque los modelos de IA en local  son muy interesantes de cara a la privacidad, si hoy en día uno quiere la máxima velocidad y rendimiento sigue dependiendo de los modelos comerciales en la nuibe.

Imagen | Solen Feyissa

En Xataka | Google invertirá hasta 40.000 millones de dólares en Anthropic porque la nueva normalidad de la IA es invertir en tu enemigo

-
La noticia EEUU ha hecho una apuesta casi total por modelos IA descomunales. China está mostrando otro camino fue publicada originalmente en Xataka por Javier Pastor .

Sigue la cobertura completa

Este reportaje continúa con más detalles, multimedia y seguimiento en vivo en Xataka.

Ir a la fuente original

Verificado • Xataka

EEUU ha hecho una apuesta casi total por modelos IA descomunales. China está mostrando otro camino | AldiaDeTodo