
OpenAI lanza dos modelos abiertos de IA personalizables y gratuitos
Presentación de gpt-oss: “gpt-oss-120b” y “gpt-oss-20b” amplían los límites de los modelos de razonamiento de “open-weight” (pesos abiertos)
Inteligencia Artificial22/12/2025 Miguel Angel Ducci- CEO Found & Editor
Miguel Angel Ducci- CEO Editor - La tecnológica estadounidense OpenAI, creadora de ChatGPT, lanzó este martes dos modelos de inteligencia artificial (IA) de «peso abierto» personalizables y gratuitos que se pueden utilizar en computadoras de alta gama e incluso celulares, llamados gpt-oss-120b y gpt-oss-20b.
«Creemos que este es el mejor y más utilizable modelo abierto del mundo. Nos emociona hacer este modelo, resultado de miles de millones de dólares en investigación, disponible para el mundo para poner la IA en manos de cuanta más gente mejor», dijo el máximo ejecutivo de OpenAI, Sam Altman, en X.
Altman, que comparó estos modelos de razonamiento al o4-mini por su adaptabilidad a los dispositivos personales, dijo que ChatGPT es un servicio «cómodo» pero «la gente debería poder controlar directamente y modificar su propia IA cuando lo necesiten, y los beneficios en privacidad son obvios».
Innovación en IA generativa
Los modelos gpt-oss son los primeros de «peso abierto» -concepto que se refiere a su alto entrenamiento y a la disponibilidad al público- que OpenAI presenta en más de seis años, y llegan en medio de una mayor competencia por parte de rivales como la china DeepSeek, que revolucionó el sector este año.
Altman recordó que la misión de la empresa es que la IA general (o IAG, comparable al razonamiento humano) «beneficie a toda la humanidad», y resaltó que estos modelos están «creados en EE.UU., basados en valores democráticos, disponibles gratis para todos y para un beneficio amplio».
Los nuevos productos de OpenAI están ya en plataformas como Hugging Face, Databricks, Azure o Amazon Web Services (AWS) bajo licencia Apache 2.0, lo que permite modificarlos con fines comerciales.
Mientras que el director de producto de AWS, Atul Deo, dijo en una nota que los clientes de ese servicio en la nube podrán «crear rápida y fácilmente aplicaciones de IA generativa», y consideró los modelos de peso abierto una «importante área de innovación» para estas tecnologías.
Carta de OpenAI
Introducción
Estamos lanzando gpt-oss-120b y gpt-oss-20b: dos modelos de lenguaje de pesos abiertos de vanguardia que brindan un excelente desempeño en la vida real a bajo costo. Disponibles con la licencia flexible Apache 2.0, estos modelos superan a otros modelos abiertos de tamaño similar en tareas de razonamiento, muestran buenas capacidades de uso de herramientas y están optimizados para la implementación eficiente de hardware de consumo. Fueron entrenados con una combinación de aprendizaje por refuerzo y técnicas inspiradas en los modelos internos más avanzados de OpenAI, incluido o3 y otros sistemas de vanguardia.
El modelo gpt-oss-120b alcanza una paridad casi total con OpenAI o4-mini en las principales evaluaciones comparativas de razonamiento, manteniendo un rendimiento eficiente con una sola GPU de 80 GB. Por su parte, el modelo gpt-oss-20b ofrece resultados similares a OpenAI o3‑mini en comparativas comunes y puede ejecutarse en dispositivos periféricos con solo 16 GB de memoria, lo que lo convierte en una solución ideal para casos de uso en el dispositivo, ejecución local de inferencias o ciclos de iteración rápida sin infraestructura costosa. Ambos modelos también presentan un rendimiento sobresaliente en el uso de herramientas, llamadas a funciones con pocos ejemplos (few-shot function calling), cadenas de pensamiento (CoT) (como se evidencia en los resultados del conjunto de evaluaciones Tau-Bench) y en HealthBench, superando incluso a modelos propietarios como OpenAI o1 y GPT‑4o.
Estos modelos son compatibles con nuestra API de Respuestas⁠(se abre en una nueva ventana) y están diseñados para usarse en flujos de trabajo de agentes con una capacidad excepcional para seguir instrucciones, usar herramientas como la búsqueda web y la ejecución de código Python, y razonar de forma eficiente, incluida la posibilidad de ajustar el esfuerzo de razonamiento en tareas que no requieren complejidad y/o que priorizan una latencia mínima en las respuestas. Son totalmente personalizables, proporcionan una cadena de pensamiento completa y admiten salidas estructuradas⁠(se abre en una nueva ventana).
La seguridad es un pilar fundamental en nuestro enfoque para el lanzamiento de todos nuestros modelos, y adquiere una relevancia aún mayor en el caso de los modelos abiertos. Además de someter estos modelos a rigurosas evaluaciones y entrenamientos de seguridad, incorporamos una capa adicional de revisión probando una versión de gpt-oss-120b ajustada finamente con parámetros antagónicos de acuerdo con nuestro Marco de preparación⁠(se abre en una nueva ventana). Los modelos gpt-oss ofrecen un rendimiento comparable al de nuestros modelos de vanguardia en pruebas de referencia internas de seguridad, brindando a los desarrolladores los mismos estándares de seguridad que nuestros modelos propietarios más recientes. Compartimos los resultados de ese trabajo y más detalles en un artículo de investigación y en la tarjeta del modelo. Expertos externos revisaron nuestra metodología, lo que supone un paso adelante en el establecimiento de nuevas normas de seguridad para los modelos de “open-weight”.
Hemos colaborado con socios iniciales como Al Sweden⁠(se abre en una nueva ventana), Orange⁠(se abre en una nueva ventana) y Snowflake⁠(se abre en una nueva ventana) para conocer las aplicaciones reales de nuestros modelos abiertos, desde el alojamiento de estos modelos en las instalaciones para garantizar la seguridad de los datos hasta su ajuste fino en conjuntos de datos especializados. Nos entusiasma ofrecer los mejores modelos abiertos de su clase para que todos, desde desarrolladores individuales hasta grandes empresas y gobiernos, puedan ejecutar y personalizar la IA en su propia infraestructura. Junto con los modelos disponibles en nuestra API, los desarrolladores pueden elegir el rendimiento, los costos y la latencia que necesitan para impulsar los flujos de trabajo de IA.
Entrenamiento previo y arquitectura del modelo
Los modelos gpt-oss se entrenaron con nuestras técnicas más avanzadas de entrenamiento previo y posterior, y se prestó especial atención al razonamiento, la eficiencia y al uso en el mundo real en una amplia gama de entornos de implementación. Si bien otros modelos, incluidos Whisper⁠ y CLIP⁠, están a libre disposición, los modelos gpt-oss son nuestros primeros modelos de lenguaje de pesos abiertos desde la creación de GPT‑2.
Cada modelo es un transformador que aprovecha la mezcla de expertos (MoE) para reducir la cantidad de parámetros activos necesarios para procesar la entrada. “gpt-oss-120b” activa 5100 millones de parámetros por token, mientras que “gpt-oss-20b” activa 3600 millones. Los modelos tienen 117 000 millones y 21 000 millones de parámetros totales, respectivamente. Los modelos usan patrones de atención alternativos densos y dispersos en bandas locales, similares a GPT‑3. Para la inferencia y la eficiencia de la memoria, los modelos también usan atención de varias consultas agrupadas, con un tamaño de grupo de 8. Usamos Rotary Positional Embedding (RoPE) para la codificación posicional lo que es compatibles de forma nativa con longitudes de contexto de hasta 128.000.


La Cumbre de la IA en Nueva Delhi: "India AI Impact Summit 2026"
La "India AI Impact Summit 2026" reunirá durante toda la semana en la capital india a una veintena de jefes de Estado y de Gobierno junto a líderes tecnológicos como Sam Altman o Bill Gates.

Etercuanticum IA, un sistema chileno híbrido de ingeniería cuántico-cognitiva
En el actual ciclo de expansión de la inteligencia artificial, donde los modelos generativos se han convertido en herramientas cotidianas en empresas, universidades y organizaciones públicas, emerge desde Chile una propuesta que trasciende el uso convencional de estas tecnologías. Se trata de Etercuanticum IA, un sistema híbrido de ingeniería cuántico-cognitiva especializado en arquitectura avanzada de GPTs y optimización estructural de procesos profesionales.

Pentágono utilizó IA Claude de Anthropic para captura de Maduro

Modelo de IA predice más de 100 enfermedades con datos que arroja tu cuerpo mientras duermes
SleepFM, un modelo de Inteligencia Artificial (IA) predice el futuro de al menos 130 enfermedades mientras duermes.

Anthropic lanza nueva versión de Claude Opus para la etapa agéntica de la IA

29.000 mensajes por segundo y 800 millones de usuarios: las cifras asustan

El cansancio del alma: Cuando el agotamiento no es solo falta de sueño

Alerta Roja en Vichuquén, región del Maule, producto de incendio forestal

La Cumbre de la IA en Nueva Delhi: "India AI Impact Summit 2026"
La "India AI Impact Summit 2026" reunirá durante toda la semana en la capital india a una veintena de jefes de Estado y de Gobierno junto a líderes tecnológicos como Sam Altman o Bill Gates.

Nicolás Maduro Guerra, hijo de Maduro, con el trasero a dos manos, Estados Unidos lo quiere preso
Nicolás Ernesto Maduro Guerra, hijo de Maduro, está incluido en un expediente penal en Estados Unidos como parte del núcleo duro del régimen en relación al tráfico de narcóticos y armas.

El presidente anunció que pedirá al Pentágono liberar documentos relacionados con fenómenos anómalos y seres alienígenas.

