Fedora 44 llega como referencia del escritorio Linux moderno

Fedora 44

La comunidad de Fedora ha puesto en circulación Fedora 44 como nueva versión estable de su distribución Linux, una edición que mantiene su perfil de plataforma de referencia para tecnologías punteras de escritorio y servidor. Aunque no rompe con todo lo anterior, sí introduce un buen número de ajustes técnicos en gráficos, instalación, redes y virtualización que apuntalan su papel como banco de pruebas para entornos empresariales basados en Red Hat.

Este lanzamiento llega coincidiendo con un periodo especialmente movido en el ecosistema Linux, con nuevas versiones de otras distribuciones consolidadas y un foco creciente en rendimiento, gaming y nube. En el caso de Fedora 44, la apuesta pasa por combinar componentes muy recientes, tanto en el escritorio GNOME como en KDE Plasma,  con cambios menos vistosos pero relevantes en instalador, sistema de archivos y gestión de hardware moderno, una combinación que puede resultar especialmente interesante para usuarios avanzados.

GNOME 50 Tokyo en Fedora Workstation 44

La edición Workstation, centrada en el escritorio moderno, adopta como entorno por defecto GNOME 50, con el nombre en clave «Tokyo». Fedora mantiene su filosofía de ofrecer una experiencia GNOME muy cercana a la original, con pocos añadidos y sin apenas extensiones activadas por defecto, más allá de detalles estéticos como la extensión del logotipo asociada al fondo de pantalla predeterminado.

Entre las novedades de GNOME 50 integradas en Fedora 44 destaca un sistema de control parental más completo, que permite establecer límites de tiempo de uso y aplicar filtros de navegación web, algo que puede resultar útil en equipos domésticos o escolares en entornos donde la supervisión del uso de dispositivos va cobrando peso.

También se han introducido mejoras en el gestor de archivos Nautilus, que ahora utiliza la biblioteca Glycin para la decodificación de imágenes en entornos aislados. Este cambio busca aumentar la estabilidad y la seguridad del explorador, al manejar el procesamiento de imágenes de forma más controlada, algo especialmente relevante cuando se abren ficheros de procedencia desconocida o se trabaja con repositorios compartidos.

Wayland, VRR y color: salto adelante en la parte gráfica con Fedora 44

Fedora 44 refuerza el papel de Wayland como sesión gráfica por defecto, incorporando de manera estable y soportada la tasa de refresco variable (VRR) y el escalado fraccional en las sesiones que utilizan este protocolo. En monitores con altas tasas de refresco o configuraciones multimonitor, la VRR ayuda a suavizar la experiencia visual reduciendo el tearing, algo que muchos usuarios con pantallas gaming o profesionales ven ya como un estándar mínimo.

El escalado fraccional permite ajustar el tamaño de elementos de la interfaz de forma más precisa en pantallas HiDPI, evitando tener que elegir entre iconos demasiado pequeños o demasiado grandes. Estas mejoras se acompañan de correcciones específicas para el controlador oficial de NVIDIA, lo cual suele ser un punto delicado en muchas distribuciones y que aquí se aborda de forma explícita para mejorar la compatibilidad.

En el plano del color, Fedora 44 integra la versión 2 del protocolo de gestión de color de Wayland y un pipeline de color más moderno que permite compartir pantalla manteniendo los metadatos HDR. Este avance resulta clave para creativos, desarrolladores multimedia y usuarios que trabajen con contenidos de alto rango dinámico, evitando que se pierda calidad al grabar o retransmitir la imagen.

Fedora 44 introduce mejoras en escritorio remoto y eficiencia energética

La distribución también da un paso adelante en el ámbito del escritorio remoto. Fedora 44 habilita el uso más amplio de Vulkan y VA-API en sesiones remotas, lo que se traduce en una mejor aceleración por hardware a la hora de transmitir vídeo y gráficos. Esta aproximación reduce el consumo energético y mejora la fluidez, resultando útil para quienes acceden a sus equipos de trabajo de forma remota desde casa o desde otras ubicaciones.

La combinación de estas mejoras con la gestión refinada de los certificados en OpenSSL, donde se han acortado los tiempos de carga, ayuda a que tanto el arranque del sistema como determinadas operaciones de red sean algo más ágiles. Aunque estos cambios pueden pasar desapercibidos para el usuario medio, a la larga se suman a una experiencia general más pulida.

KDE Plasma 6.6 y una experiencia más unificada

La variante con KDE Plasma en Fedora 44 también recibe una atención especial, integrando la versión 6.6 del escritorio. Uno de los focos de esta edición es ofrecer una experiencia más homogénea desde el primer arranque, con un flujo de configuración más claro tanto en el escritorio clásico como en la variante atomizada Kinoite.

Para lograrlo se ha introducido una aplicación de configuración posterior a la instalación, conocida como Plasma Setup, que se encarga de guiar al usuario en los ajustes iniciales. En consecuencia, el instalador Anaconda se ha ajustado para desactivar pasos repetidos que solapaban funciones con esta nueva herramienta, evitando así confusiones y configuraciones duplicadas.

Otro cambio relevante es la adopción de Plasma Login Manager (PLM) como gestor de inicio de sesión en lugar de SDDM. Este movimiento busca mejorar la coherencia visual y funcional desde el arranque del equipo hasta que el usuario llega a su sesión, algo que viene demandando la comunidad desde hace tiempo para hacer que Plasma resulte más uniforme de cara a nuevos usuarios.

Spins y escritorios atómicos: más opciones para cada perfil

Aunque GNOME y KDE Plasma se llevan gran parte del protagonismo, Fedora 44 sigue apostando por una gama amplia de spins y escritorios alternativos. Entre las variantes mutables figuran entornos como Cinnamon, Xfce, MATE, LXDE, LXQt, así como gestores de ventanas más ligeros y orientados a usuarios avanzados, como i3 y Sway.

En paralelo, se mantienen los llamados escritorios atómicos (denominación que sustituye al término «inmutables»), que incluyen propuestas como Sway atómico y Budgie atómico, orientadas a quienes buscan sistemas con base de paquetes más controlada y actualizaciones transaccionales. Silverblue (basado en GNOME) y Kinoite (basado en Plasma) siguen siendo las opciones más visibles en este terreno.

En lo que respecta a arquitecturas, Fedora 44 ofrece soporte para x86 de 64 bits, ARM de 64 bits y PowerPC de 64 bits en modo little-endian. No todas las ediciones y spins se compilan para todas las arquitecturas, pero la distribución mantiene así una presencia relevante en plataformas que se utilizan tanto en escritorios como en centros de datos y dispositivos embebidos.

Cambios en Anaconda e instalación más coherente en Fedora 44

El instalador Anaconda incorpora en Fedora 44 algunos ajustes que, sin ser espectaculares, sí corrigen problemas históricos de coherencia entre la sesión en vivo y el sistema finalmente instalado. A partir de esta versión, solo los dispositivos de almacenamiento configurados durante la instalación pasan a formar parte de la configuración del sistema final.

Este cambio pretende evitar situaciones en las que se arrastraban configuraciones de discos o particiones detectadas en la sesión en vivo pero que no se pretendía utilizar en el sistema definitivo. De esta forma se busca una experiencia más consistente entre lo que el usuario ve durante el proceso de instalación y lo que se encuentra después en el disco duro o SSD una vez finalizado el proceso.

Además, Anaconda modifica su comportamiento a la hora de gestionar perfiles de red, de modo que ahora se crean perfiles exclusivamente para los dispositivos configurados durante la instalación. Esto elimina el desorden de perfiles genéricos que podían acumularse, facilitando a administradores y usuarios avanzados la gestión posterior de interfaces y conexiones.

Virtualización y abandono progresivo del 32 bits en el anfitrión

En el ámbito de la virtualización, Fedora 44 da un paso más en la transición hacia entornos puramente de 64 bits. El proyecto ha decidido eliminar el soporte para x86 de 32 bits en QEMU a nivel de sistema anfitrión. En teoría sigue siendo posible ejecutar sistemas operativos de 32 bits como invitados, pero el entorno de ejecución en el que se apoyan prioriza claramente el modelo de 64 bits.

Esta decisión encaja con la estrategia de la distribución, que desde hace tiempo se orienta a ofrecer una experiencia x86_64 más limpia y alineada con el estado actual del hardware que se vende. Aunque algunos sistemas muy antiguos puedan quedar al margen, la realidad es que la mayoría de equipos domésticos y profesionales actuales funcionan exclusivamente en 64 bits.

Fedora 44 y el gaming: NTSYNC, Games Lab y gráficos recientes

Aunque Fedora no se ha marcado tradicionalmente como distribución centrada en videojuegos, la versión 44 introduce cambios que la hacen más apetecible para este uso. Destaca que el módulo del kernel NTSYNC se habilita por defecto para ciertos paquetes distribuidos como recomendados, en particular Wine y Steam, herramientas clave para ejecutar títulos de Windows en Linux.

Este módulo actúa sobre la sincronización de hilos, algo crucial en muchos juegos modernos, y permite reducir la latencia y mejorar la compatibilidad con aplicaciones diseñadas originalmente para el sistema de Microsoft. En combinación con las versiones recientes del kernel Linux y de la pila gráfica Mesa, Fedora 44 se convierte en una opción bastante competente para jugar, incluso si su mensaje oficial no se centra en el gaming.

La distribución también actualiza su Games Lab, un entorno de pruebas orientado a ofrecer las tecnologías más actuales para ejecutar videojuegos sobre Wayland. El objetivo es mejorar el rendimiento en los escritorios que Fedora proporciona, tanto en monitores convencionales como en configuraciones con altas resoluciones o tasas de refresco elevadas, algo cada vez más habitual entre jugadores.

Componentes base y ecosistema de paquetes actualizados

Como es habitual en cada lanzamiento, Fedora 44 viene acompañada de una amplia renovación de su base de paquetes. Entre los componentes clave se encuentran el kernel Linux 6.19, la pila gráfica Mesa 26.0.5, systemd 259, PipeWire 1.6.4 y fwupd 2.1.2. La política de la distribución hace que varios de estos componentes se sigan actualizando a lo largo del ciclo de vida, pero systemd y GNOME tienden a mantenerse más estáticos, recibiendo sobre todo correcciones y parches de seguridad.

A nivel de escritorio, GNOME se congela en la versión 50, mientras que Plasma 6.6 llegó ya a Fedora 43, lo que deja abierta la puerta a una posible actualización a Plasma 6.7 dentro del propio ciclo de Fedora 44. Esta estrategia permite ofrecer entornos relativamente recientes sin someter al usuario a cambios constantes en la interfaz.

En cuanto a lenguajes y herramientas de desarrollo, Fedora 44 incorpora versiones actualizadas de varias piezas importantes: el compilador GCC 16, LLVM 22, CMake 4.0, Golang 1.26, PHP 8.5, Ruby 4.0, Boost 1.90 y Budgie 10.10, entre otros. Esto convierte a la distribución en una plataforma atractiva para desarrolladores que quieren trabajar con tecnologías de última generación sin tener que recurrir a repositorios externos.

Servidor, bases de datos y nube

En el ámbito de los servidores, Fedora 44 destaca por adoptar de serie MariaDB 11.8 como base de datos por defecto, una versión que trae mejoras de rendimiento y características pensadas para entornos de producción y pruebas avanzadas. Este movimiento es relevante para administradores que utilizan Fedora como sistema de ensayo antes de desplegar soluciones en plataformas empresariales más conservadoras.

La distribución también introduce cambios en la gestión del arranque para sus imágenes de nube: la partición /boot pasa a utilizar Btrfs, alineando así el esquema de almacenamiento con el resto del sistema cuando este ya usaba dicho sistema de archivos. Btrfs ofrece características como snapshots y compresión que pueden resultar ventajosas en entornos virtualizados y de cloud, muy presentes en proveedores y centros de datos que utilizan Fedora como base.

Entre las mejoras menos visibles pero importantes figura el soporte EFI mejorado para sistemas AArch64, con un énfasis particular en equipos con Windows on ARM. Este tipo de portátiles va ganando presencia poco a poco y la compatibilidad reforzada facilita que usuarios avanzados puedan experimentar con Fedora 44 en ese hardware.

Rendimiento general y experiencia en hardware real

Las pruebas realizadas con las imágenes cercanas a la versión final muestran que Fedora 44 se comporta de manera sólida en un abanico amplio de sistemas. La combinación de kernel reciente, Mesa actualizada, PipeWire y fwupd facilita que la distribución reconozca correctamente gran parte del hardware disponible en el mercado, desde equipos de sobremesa hasta portátiles ultraligeros.

Los ajustes en la pila gráfica, la gestión de color y el escritorio remoto, junto con la optimización de carga de certificados en OpenSSL, contribuyen a una experiencia que se percibe algo más fluida que en iteraciones anteriores, aunque los cambios no supongan una revolución. Está previsto que se publiquen pruebas de rendimiento y comparativas adicionales, lo que permitirá medir con más precisión dónde se sitúa Fedora 44 frente a otras distribuciones contemporáneas.

Al mismo tiempo, la presencia de paquetes de desarrollo actualizados y el soporte para múltiples escritorios hacen que Fedora 44 se presente como una opción flexible, adecuada tanto para quienes buscan un entorno de trabajo diario como para usuarios que deseen experimentar con las últimas tecnologías de Linux.

Con este lanzamiento, Fedora 44 consolida su imagen de plataforma innovadora que evoluciona paso a paso, más por acumulación de mejoras técnicas que por cambios drásticos. Entre GNOME 50, Plasma 6.6, las optimizaciones en Wayland, NTSYNC para gaming, la actualización masiva de herramientas de desarrollo y los ajustes en Anaconda, redes y almacenamiento, la distribución ofrece un conjunto bastante completo para quienes valoran un equilibrio entre vanguardia y estabilidad razonable en el ecosistema Linux actual.


Curso de programación en Python con Linux. Parte dos

Visual Studio Code es el entorno integrado de desarrollo más popular para escribir programas en Python


En este post continuamos con la segunda parte de nuestro curso de programación en Python usando Linux. Se trata de un lenguaje de programación multipropósito tanto para su uso por programadores novatos o vibe coders como de profesionales que necesitan construir aplicaciones complejas.

Como explicamos en el artículo anterior, en las distribuciones basadas en Debian, como Ubuntu, la creación de aplicaciones en Python se hace en un entorno virtual, esto tiene las ventaja de que podremos crear nuesros programas con diferentes versiones de Python o de sus bibliotecas. Existen formas, que veremos más adelante, de hacer que la aplicación se ejecute como si fuera una aplicación normal (Pulsando en el icono) sin tener que que activar el entorno virtual).

Curso de programación en Pyhon con Linux

Un poco más sobre los entornos virtuales en Python

Como dijimos más arriba, usar entornos virtuales es una obligación en Debian y derivados aunque también puedes usarlo en otros sistemas operativos para ejecutar diferentes versiones de Python y sus biblotecas.

Cuando creamos el entorno virtual en la carpeta elegida con el comando

python3 -m venv primer_proyecto (Puedes poder el nombre que quieras, este fue el que elegí yo en el artículo anterior)

Se agregaron a nuestra carpeta 3 directorios: dentro de una carpeta que se llama igual que el nombre que le asignamos al entorno virtual. Cabe señalar que yo le asigne a la carpeta contenedora del proyecto y al entorno virtual el mismo nombre por no molestarme en pensar otro. Retrospectivamente no fue una buena idea, pero ya está. Los directorios son:

  • bin: Contiene el intérprete del lenguaje, el gestor de paquetes pip (No vamos a usarlo por el momento) y los scripts necesarios para la activación.
  • lib/lib64: Contiene las bibliotecas (Código con funciones específicas) que utilizaremos en el proyecto e instalamos con pip, dependencias y otros archivos necesarios para la ejecución de los programas.
  • include: Solo se utiliza si se compilan extensiones desde código fuente.
  • pyenv.cfg: Archivo de configuración del entorno.

Cuando activemos el entorno con el comando correspondiente veremos que el promt de la shell cambiará para mostrar primero el nombre del entorno virtual entre paréntesis.  El comando de activación es (No lo uses todavía)

source primer_proyecto/bin/activate

Verifica que la instalación fue correcta con

which python

Lo que te dará una salida del tipo:

home/tu_usuario/primer_proyecto/primer_proyecto/bin/python

Lo mismo para el gestor de paquetes pip

which pip

El resultado debe ser:

home/tu_usuario/primer_proyecto/primer_proyecto/bin/python

Puedes verificar la versión de Python

python --version

Desactivar el entorno

deactivate1

Escribiendo el primer programa

Odio con toda mi alma los tutoriales de programación cuyo primer ejemplo es imprmir ¡Hola Mundo! así que vamos a hacer algo un poco más divertdo. Un juego de 3 en raya o Tatetí como le decimos en Argentina.

  1. Abre Visual Studio Code
  2. En Archivos elige la opción Abrir carpetta
  3. Selecciona la carpeta donde creaste el entorno virtual
  4. En Archivos selecciona Nuevo archivo de texto
  5. Guárdalo como ejemplo1 no es necesario que indiques la extensión
  6. Copia el código de abajo y vuelve a guardar el archivo


Observarás que no estoy pegando el código completo en el blog sino usando un servidor externo.. Esto no es por maldad (Ni por pedagogía) Se trata de que la plataforma que usamos para escribir los artículos es iincompatiblle con una de las características básicas de Python

Indentación

En Python se usan espacios o tabuladores (Nota el uso del coordinante O) para marcar la estructura del código. Esto define los bloques y que va dentro de cada uno. La regla es usar 4 espacios  (O presiones de la tecla Tab por nivel.

Probando el programa

Para ejecutar el programa ve a Terminal ➡ Nueva Terminal en Visual Studio y abre una nueva terminal

Pon en marcha el entorno virtual con

source  primer_proyecto/bin/activate

y a continuación ejecutta el programa con:

python3 ejemplo1.py

Si ejecutaste el programa verás que es realmente muy básico. Cada jugador debe seleccionar la posición donde va su ficha eligiendo un numero del 0 al 8 (Ordenado de izquierda a derecha y de arrba hacia abajo) Lo hice deliberadamente sencillo para explicar algunos concetos relacionados con Python

Programación Orientada a Objetos

Juego de 3 en raya escrito en Python

Este muy básico juego de 3 en raya ilustra el paradigma de la Programación Orientada a Objetos que se usa en Python

El apartado que sigue es un poco denso pero tanto que escribas tus propias aplicaciones como que hagas vibe coding es necesario para entender cómo crear una aplicación en Python de manera correcta. Trataré de hacerlo más claro con ejemplos.

Python está pensado para un paradigma de programación comocido como Programación Orientada a Objetos. En este paradigma el diseño del código se hace en torno a objetos. Los objetos son  campos de datos con atributos y comportamientos únicos.

Los componentes de la programación orientada a objetos son:

  • Clases:  Son tipos de datos definidos por el usuario. Se usan como modelo para métodos, objetos y atributos individuales. La primera vez que se usan solo se define su descripción.
  • Objetos: Son instancias de una clase que se crean con datos específicos.  Pueden corresponder a objetos de existencia real o abstractos.
  • Métodos:  Determinan las funciones que realizarán los objetos. Definidos dentro de cada clase describen el comportamiento de los objetos.
  • Atributos: Son las características que distinguen a una clase y representan el estado de los objetos.

Los principios de la programación orientada a objetos son:

  • Encapsulado: Toda la información se guarda dentro de un objeto y solo se hace disponible una parte. Cada clase definida guarda la implementación y el estado de cada clase y objeto.  Los otros objetos solo tendran acceso a las funciones y  métodos públicos.
  • Abstracción: Los objetos solo revelan los mecanismos internos que son relevantes para otros objetos.
  • Herencia: Las clases pueden reutilizar código de otras clase.
  • Polimorfismo: Los objetos pueden tener diferentes comportamientos según las necesidades del programa.

A ver si puedo hacerlo más comprensible. Supongamos que queremos hacer un catálogo de sistemas operativos La información que contiene ese catálogo incluye estos parámetros:

  • Desarrollador
  • Año de lanzamiento.
  • Soporte.
  • Peso
  • Derivado de:
  • Arquitectura:

Los objetos serían por ejempo: Ubuntu, WIndows 10 FreeBSD 9. Cada uno de ellos tienen diferentes características que se almacenarán de acuerdo al modelo  que se especifica más arriba  y la información recopilada se mostrará a otras partes del programa según se necesiten.

En el próximo artículo veremos más ejemplos sobre cómo se utiliza la Programación Orientada a Objetos en Python.

relacionado url=»https://ubunlog.com/curso-de-programacion-en-python-con-linux-1/»]


Valve anuncia precio y disponibilidad del Steam Controller

Steam Controller

Ya lo avisábamos durante el fin de semana. Todo indicaba que Valve estaba cerca de anunciar el lanzamiento del Steam Controller, e incluso se había hablado de su precio. Comentarios, filtraciones, rumores… y ya es oficial. El mando de Steam ya aparece con precio y fecha de lanzamiento, para lo que han tenido que actualizar su página en la tienda de videojuegos y añadir la nueva información.

Lo que más nos interesa es su precio y disponibilidad. Se comentó que iba a valer 99$, y algún ingenuo, como un servidor, había fantaseado con la conversión real, lo que dejaría el mando en 85€. Al final han hecho la conversión dólar-euro y su precio terminará siendo de 99€. Y para comprarlo sólo falta una semana.

Steam Controller disponible el 4 de mayo

El Steam Controller estará disponible el 4 de mayo en el mismo momento en todo el mundo. En EEUU será a las 10:00 AM PST, lo que coincide con las 19:00 en España península.

¿Y por qué es tan «caro»? En realidad es caro sólo si lo comparamos con un 8BitDo o controladores de consolas de generaciones pasadas como un DualShock 3 o 4. También es más caro que el DualSense, pero es que el Steam Controller juega en otra liga.

Para empezar, la tecnología de los botones, sticks, gatillos y demás es más moderna, pero eso por sí solo no debería aumentar el precio. Lo que sí hace que suba algo más es que tiene más botones y entradas, lo que le hacen ser algo Premium o Pro. Tiene dos paneles táctiles, que sirven para el modo escritorio o para usarlos en juegos que los puedan necesitar, y también 4 botones extra en la parte trasera que pueden venir bien para macros y otras acciones. No os miento cuando os digo que en estos días he echado de menos más botones en mi 8BitDo para jugar con mando al XCOM.

Otro punto a destacar es Puck, que es un conector magnético que sirve para cargar el mando y también como emisor inalámbrico. Y es que los mandos Bluetooth están muy bien, pero los que se conectan por radio ofrecen menor latencia. Por supuesto, si alguien prefiere o necesita Bluetooth, el Steam Controller es compatible.

Mando Premium o Pro

Por último y no por ello menos importante, tiene giroscpio, con lo que se podrán controlar los juegos compatibles girando el mando. No sé si el DiRT Rally es compatible, pero es lo primero que me ha venido a la cabeza, que no soy capaz de conducir en condiciones con los sticks.

Todo esto y más que vemos en su página oficial explican su precio. No es barato y diría que no merece la pena para el usuario medio (mi 8BitDo Ultimate 2C Wireless vale alrededor de 30€ y funciona perfecto), pero sí lo merece para los que busquen una experiencia Pro o sencillamente tener un mando que valga para todos los juegos del mercado. Y si os parece caro, mirad lo que vale este de Xbox.

En cualquier caso, se ha confirmado el precio del Steam Controller y cuándo saldrá: el 4 de mayo y por 99€.


Ubuntu refuerza su apuesta por la IA con integración local

Ubuntu y la IA

La combinación de Ubuntu e inteligencia artificial está dejando de ser una promesa difusa para convertirse en una estrategia clara por parte de Canonical. La compañía ha detallado cómo piensa integrar modelos y agentes en el sistema operativo, al tiempo que lanza una nueva versión de soporte extendido pensada para cargas de trabajo de IA, desde estaciones de trabajo hasta centros de datos y entornos industriales.

Frente a otros sistemas que han optado por convertir la IA en reclamo comercial omnipresente, Canonical insiste en un enfoque más prudente: integrar la IA donde aporte valor real, mantener el máximo control en local y preservar los principios del software libre. La hoja de ruta pasa tanto por añadir capacidades inteligentes al propio escritorio Linux como por ofrecer una base sólida para empresas europeas que manejan datos sensibles y necesitan garantías de seguridad y cumplimiento.

Una hoja de ruta para la IA en Ubuntu: funciones implícitas y explícitas

Canonical ha explicado que la incorporación de IA en Ubuntu se organizará en dos grandes categorías. Por un lado, estarán las funciones implícitas, es decir, mejoras en características ya presentes en el sistema operativo que pasarán a aprovechar modelos de lenguaje en segundo plano. Por otro, llegarán funciones explícitas, más visibles para el usuario, basadas en agentes y flujos de trabajo automatizados.

Dentro de las capacidades implícitas, uno de los focos está en las herramientas de accesibilidad. Canonical quiere apoyarse en modelos locales para ofrecer reconocimiento de voz más preciso, síntesis de voz más natural y conversiones texto-voz y voz-texto mejor integradas en el escritorio. La clave es que todo esto suceda sin obligar al usuario a cambiar su manera de trabajar ni a depender de servicios remotos.

En el bloque de funciones explícitas, la compañía se plantea flujos agénticos para tareas complejas como diagnosticar problemas del sistema, automatizar procesos recurrentes o ayudar en la generación de documentación técnica. Estos agentes operarían dentro de los mismos límites de seguridad y permisos que el resto del sistema, de modo que la automatización no suponga una puerta de entrada adicional a riesgos.

Inference Snaps y apuesta por la inferencia local

Uno de los pilares técnicos del plan de Canonical son los Inference Snaps, paquetes preparados para distribuir modelos de IA optimizados según el hardware de cada equipo. La idea es que el usuario pueda instalar modelos con un solo comando, sin tener que lidiar con múltiples repositorios, entornos de ejecución complejos o una maraña de dependencias.

Estos paquetes se benefician del mismo esquema de confinamiento que el resto de snaps en Ubuntu, lo que limita el acceso a datos y recursos del sistema. Canonical defiende que este enfoque permite reducir la superficie de ataque y, al mismo tiempo, mantener un control fino sobre qué puede hacer cada modelo de IA instalado.

La prioridad por la inferencia en local persigue varios objetivos: mejorar la privacidad, evitar el envío continuo de datos a la nube, reducir la latencia en tareas críticas y rebajar la dependencia de servicios externos. Para usuarios europeos y organizaciones sometidas a regulación, este enfoque encaja con la creciente atención a la residencia de datos y a los principios del AI Act y otras normativas en preparación.

Transparencia en licencias y debate sobre el «código abierto» en IA

Canonical reconoce que el concepto de código abierto aplicado a modelos de lenguaje es más complejo que en el software tradicional. No basta con poder descargar pesos y código; es necesario analizar con lupa los términos de uso, las restricciones de explotación comercial y las cláusulas sobre redistribución o entrenamiento adicional.

Por ese motivo, la empresa se ha comprometido a evaluar cada licencia de modelo antes de incorporarla a su ecosistema, con el objetivo declarado de que las herramientas distribuidas a través de Ubuntu respeten los valores de apertura y colaboración que han marcado la trayectoria de la distribución. Esto resulta especialmente relevante para universidades, administraciones públicas y empresas europeas que apuestan por infraestructuras abiertas.

Reducir la fragmentación de Linux con ayuda de la IA

Canonical ve en la IA una oportunidad para abordar una de las grandes quejas históricas en el mundo Linux: la fragmentación y la dificultad para encontrar respuestas claras a problemas concretos. La compañía plantea que los modelos de lenguaje integrados en el sistema puedan guiar al usuario a través de configuraciones complejas sin obligarle a bucear en decenas de foros, tutoriales dispersos o documentación desactualizada.

Esta visión no se limita al usuario doméstico o de escritorio. En el ámbito profesional, la empresa imagina agentes que ayuden a interpretar logs, correlacionar eventos durante un incidente o sugerir pasos de mitigación ante fallos en servidores Ubuntu. Se trataría de asistentes técnicos especializados en la propia distribución, capaces de trabajar bajo los controles de acceso ya existentes.

Según Canonical, delegar parte de la carga de trabajo en este tipo de agentes no tiene por qué ser menos seguro, siempre que se mantenga una gestión estricta de permisos y se respete la separación entre procesos y datos sensibles. En Europa, donde las auditorías y la trazabilidad de cambios en sistemas críticos son cada vez más exigentes, este tipo de automatización supervisada podría convertirse en un argumento de peso para la adopción de Ubuntu en sectores regulados.

Alianzas con fabricantes de chips y nube

La estrategia de Ubuntu e IA no se limita al sistema operativo. Canonical está tejiendo acuerdos con fabricantes de silicio y proveedores de nube para extender el alcance de su plataforma. Entre ellos figura la colaboración con MediaTek para ofrecer acceso temprano a Ubuntu optimizado para las plataformas IoT Genio 520 y 720, pensadas para IA en el borde.

Esta orientación hacia el edge computing con capacidades de IA local complementa la presencia consolidada de Ubuntu en centros de datos y nubes públicas como AWS, Azure, Google Cloud, IBM Cloud u Oracle Cloud, donde ya están disponibles imágenes optimizadas de la nueva LTS.

Al poner el énfasis en una base coherente que se extiende desde el dispositivo embebido hasta el cloud, Canonical intenta posicionar Ubuntu como una opción única para proyectos que requieren consistencia de entorno a lo largo de toda la cadena, algo que puede simplificar el cumplimiento y la auditoría en organizaciones distribuidas por distintos países europeos.

Canonical está redefiniendo el papel de la distribución en un contexto donde la infraestructura para inteligencia artificial se ha convertido en terreno de competencia directa entre sistemas operativos, fabricantes de chips y grandes proveedores de nube; el resultado es un Ubuntu más preparado para modelos y agentes, con un equilibrio entre innovación, seguridad y control local que encaja con las necesidades de empresas y usuarios en España y en el resto de Europa.


Cosas que hacer tras instalar Ubuntu 26.04 LTS Resolute Raccoon

Cosas que hacer tras instalar Ubuntu 26.04

El pasado jueves 23 de abril, Canonical lanzó Ubuntu 26.04 LTS, de nombre en clave Resolute Raccoon. Las novedades más destacadas se las quedan GNOME 50 y Linux 7.0, pero también hay retoques repartidos por todo el sistema a los que merece la pena prestarles atención. Siempre que lanzan una nueva versión escribimos sobre cosas que hacer tras instalar el sistema operativo, y aquí va el artículo de esta vez.

Muchos de los consejos que damos son similares o exactamente igual que en lanzamientos pasados, pero hay otros que no se parecerán tanto. En cualquier caso, vamos con nuestras recomendaciones.

Actualizar el software en Ubuntu 26.04

Actualizar los paquetes

A pocos días de un lanzamiento estable no hay mucho que actualizar, pero merece la pena hacerlo. Y la mejor manera es usando el comando:

sudo apt update && sudo apt upgrade

Tras darle a intro y poner la contraseña, nos mostrará todo lo que hay pendiente. Aplicamos lo que nos ofrezca y ya lo tendríamos.

Eliminar lo que no necesitemos

Todo software que no necesitemos es bloatware para nosotros. Yo no recomiendo eliminar aquello que desconozcamos, pero sí aquellos paquetes que conozcamos y sepamos que no vamos a usar jamás.

Ubuntu 26.04 actualizó su Centro de Software, y ahora permite desinstalar paquetes DEB. Una buena manera es eliminar lo que no necesitemos desde la tienda oficial.

Instalar lo que sí vayamos a usar

Una opción es no instalar nada hasta que vayamos a usarlo, pero si recordamos varios programas que sí vayamos a necesitar, podemos instalarlos directamente.

Se puede hacer desde el Centro de Software, pero también desde el terminal (sudo apt install paquete1 paquete2 paquete3). Yo recomiendo más la segunda opción porque prefiero evitar a toda costa los snaps, y si lo hacemos desde la tienda oficial puede «colarnos» algún snap.

Si algo no está en los repositorios oficiales, podemos buscarlo por Internet. Por ejemplo, si queremos instalar VSCode, vamos a su página oficial, descargamos el .deb y lo instalamos. En esta guía tenéis toda la información necesaria para aprender a gestionar paquetes DEB, y también se explica que muchos de ellos añaden un repositorio para actualizar a versiones futuras del programa.

Instalar controladores adicionales en Ubuntu 26.04

Esto es un cambio importante en Ubuntu 26.04. Hasta 25.10, estos controladores adicionales aparecían en «Programas y actualizaciones», pero esta app ya no está disponible. Se supone, o por lo menos se comentó, que los drivers de terceros los tiene que gestionar automaticamente el sistema operativo, pero no es algo que esté claro.

La manera de hacerlo es desde el terminal:

  1. Se escribe lo siguiente para ver los drivers disponibles:
ubuntu-drivers devices
  1. Ahora escribimos esto otro para instalarlos:
ubuntu-drivers install driver-a-instalar

Con esto, el controlador quedaría instalado.

Esto es algo que suelo recomendar, pero sólo si vemos algo en el sistema que no funcione bien. Si el sistema se comporta como debe, mejor dejar los drivers que vienen por defecto.

Instalar GNOME Software y añadir soporte para paquetes flatpak a Ubuntu 26.04

El centro de aplicaciones de Canonical no me gusta nada, y no lo tocaría jamás. Yo recomiendo usar GNOME Software, la propuesta de GNOME que además soporta todo tipo de paquetes sin restricciones. Para instalarla, basta con abrir un terminal y escribir:

sudo apt install gnome-software

Para añadir soporte para paquetes flatpak tenemos un artículo relacionado. Es un poco antiguo, pero la manera de hacerlo no ha cambiado desde entonces. De hecho, cambió justamente porque cambiaron la tienda de software que viene tras la instalación de cero.

Acostúmbrate a Resources y Showtime

Resources es el nuevo monitor del sistema, y Showtime el reproductor de vídeo. Son aplicaciones más modernas que lo que había hasta ahora, y ese ha sido el principal motivo del cambio. Si alguien echa de menos el reproductor anterior, se puede instalar el paquete totem.

Elimina la muestra de asteriscos o déjalo como está

Ubuntu 26.04 muestra asteriscos al introducir la contraseña en sudo. Para mí es un cambio sin demasiada importancia, y yo lo dejaría. Pero si alguien prefiere el comportamiento anterior, debe editar el archivo /etc/sudoers (con sudo visudo) y añadir Defaults !pwfeedback en algún punto del documento.

sudo visudo

Activa el soporte para AppImage

Estamos en 2026, tenemos entre manos una nueva versión LTS… y Ubuntu sigue sin soportar AppImages por defecto. Recomiendo activarlo como se explica en el siguiente articulo relacionado.

Personaliza tu Ubuntu 26.04

Aunque a mí no me gusta tocar demasiado las cosas por defecto, siempre es importante trabajar cómodo con lo que tenemos delante. Ubuntu no es tan personalizable como Kubuntu, pero sí permite realizar ciertos ajustes desde Configuración. Por ejemplo, desde «Escritorio de Ubuntu» podemos indicar que el panel pase a estar abajo o a la derecha y también convertirlo en un dock, que hace que no vaya de parte a parte.

Otros cambios que pueden interesar:

Disfruta de tu Resolute Raccoon

El último consejo es que disfrutéis de vuestro flamante Resolute Raccoon, ya sea para el ocio o para trabajar.


La ISO de CachyOS de abril de 2026 llega nueva app con GUI para la gestión de paquetes y otras mejoras

CachyOS con Shelly

La nueva imagen ISO de CachyOS ya está disponible y llega como una actualización mensual de esta distribución basada en Arch Linux que se centra en rendimiento y facilidad de uso. Esta versión renovada mantiene la filosofía de ofrecer un sistema rápido y adaptable, pero incorpora una serie de retoques que afectan a la gestión del hardware, la privacidad y la experiencia de instalación.

En el entorno europeo, donde la privacidad en Internet y el soporte para hardware reciente son preocupaciones habituales, este lanzamiento resulta especialmente interesante. CachyOS combina ajustes pensados para exprimir al máximo equipos de escritorio y portátiles con gráficos limitados, junto con nuevas opciones para reforzar la seguridad en la navegación y el manejo de paquetes.

Nuevo gestor de paquetes gráfico: Shelly sustituye a Octopi

Uno de los cambios más visibles es que Shelly se convierte en el gestor de paquetes gráfico por defecto, tomando el relevo de Octopi. Shelly se presenta como una reinterpretación moderna del gestor de paquetes de Arch Linux, pero con una interfaz más actual y enfocada en simplificar tareas como la instalación, actualización y eliminación de software.

Esta apuesta por Shelly busca ofrecer una experiencia más intuitiva para quienes prefieren herramientas gráficas frente a la terminal, algo especialmente útil para usuarios que se inician en entornos tipo Arch. Desde la propia aplicación se pueden consultar detalles de los paquetes, gestionar dependencias y revisar cambios sin necesidad de recurrir a comandos complejos.

Al integrarse como opción predeterminada, CachyOS facilita que tanto usuarios domésticos en España como administradores de sistemas en Europa puedan mantener sus equipos al día sin tener que instalar herramientas adicionales de gestión de software.

Mejoras en privacidad: soporte para DNS-over-HTTPS

Otra novedad destacada es la incorporación de DNS-over-HTTPS (DoH) como opción soportada de serie. Esta tecnología cifra las consultas DNS, evitando que se transmitan en texto plano y reduciendo la posibilidad de que terceros puedan espiar o manipular las peticiones de nombres de dominio.

En un contexto europeo donde las normativas de protección de datos y la preocupación por la vigilancia digital están muy presentes, el soporte de DNS-over-HTTPS en CachyOS  ofrece una capa adicional de privacidad para la navegación. Los usuarios pueden beneficiarse de esta característica para limitar el rastreo a nivel de red, algo interesante tanto en conexiones domésticas como en redes públicas.

Este enfoque encaja con la tendencia general del ecosistema Linux en Europa, donde cada vez más distribuciones integran mecanismos de cifrado y protección de tráfico sin depender de configuraciones manuales complicadas por parte del usuario.

CachyOS mejora la gestión de vRAM aprovechando optimizaciones de Valve

CachyOS introduce un nuevo ajuste de gestión de vRAM inspirado en el trabajo de Valve para optimizar Linux en escenarios con memoria de vídeo limitada. Este conmutador de gestión de vRAM busca mejorar el comportamiento del sistema cuando se utilizan tarjetas gráficas con pocos recursos, algo habitual en portátiles o equipos más antiguos.

La distribución aprovecha específicamente optimizaciones que en origen se aplicaron al escritorio KDE, con el objetivo de ofrecer una experiencia más fluida en sistemas con recursos ajustados. Esto puede traducirse en menos tirones gráficos, mejor aprovechamiento de la GPU y una respuesta más estable al utilizar aplicaciones pesadas o juegos ligeros en máquinas modestas.

Para los usuarios de España y otros países europeos que alargan la vida útil de sus dispositivos, esta mejora puede marcar la diferencia a la hora de seguir utilizando equipos con tarjetas gráficas integradas o dedicadas de gama baja sin renunciar a un entorno de escritorio moderno.

Cambio del planificador de E/S NVMe a Kyber para mayor respuesta

Entre los ajustes internos más técnicos destaca el cambio del planificador de entrada/salida para unidades NVMe. CachyOS modifica la configuración por defecto y pasa de usar «none» a emplear el planificador Kyber, una decisión orientada a mejorar la capacidad de respuesta del sistema.

Kyber está diseñado para gestionar mejor las colas de operaciones de lectura y escritura, lo que se traduce en un comportamiento más ágil cuando se realizan múltiples tareas a la vez. En entornos de escritorio donde se combinan navegación, edición de documentos, reproducción multimedia y actualizaciones en segundo plano, este cambio puede contribuir a una sensación de mayor fluidez general.

Usuarios que ejecutan CachyOS en equipos con unidades NVMe modernas, muy habituales ya en el mercado europeo, podrán notar tiempos de carga más consistentes y menos bloqueos puntuales en situaciones de alta carga de trabajo sobre el disco.

Ajustes en CachyOS Settings y mejoras en el instalador

La herramienta propia de configuración, CachyOS Settings, también recibe cambios relevantes en esta edición. Además de reflejar el nuevo planificador Kyber como valor por defecto para NVMe, centraliza parte de los ajustes que ayudan a personalizar el comportamiento del sistema sin tener que editar archivos manualmente.

En paralelo, este ISO de abril incorpora mejoras en el instalador y diversas correcciones orientadas a pulir la experiencia de instalación inicial. Estos cambios pueden incluir desde una detección más fiable de hardware hasta pequeños ajustes en los pasos del asistente, con el objetivo de reducir errores y facilitar la configuración en el primer arranque.

Para quienes despliegan CachyOS en varios equipos dentro de una misma oficina o hogar, un instalador más maduro implica menos incidencias y un proceso más rápido, algo que siempre se agradece cuando se está preparando un nuevo entorno de trabajo o de uso personal.

Instantánea mensual con refinamientos y soporte de hardware actualizado

Este lanzamiento de CachyOS se presenta como una instantánea mensual (snapshot) de la distribución, que agrupa las últimas mejoras, correcciones y actualizaciones de paquetes en una imagen ISO lista para instalar. El objetivo es ofrecer un punto de partida lo más actualizado posible para nuevas instalaciones, reduciendo así el número de actualizaciones tras el primer arranque.

Además de los cambios más visibles, la ISO incluye ajustes menores y pulidos generales que, aunque no siempre aparezcan destacados, ayudan a reforzar la estabilidad y compatibilidad con hardware reciente. Esto resulta clave en un ecosistema tan variado como el europeo, donde conviven equipos muy nuevos con otros que ya tienen varios años a sus espaldas.

Quienes quieran probar este lanzamiento pueden acudir al sitio oficial de la distribución, CachyOS.org, donde se ofrece la descarga de la nueva imagen ISO y documentación adicional sobre las características específicas de esta edición, así como instrucciones para instalación y soporte.

CachyOS se consolida como una actualización que prioriza la combinación de buen rendimiento, mayor privacidad y un uso más cómodo del sistema gracias a cambios como la adopción de Shelly, el soporte de DNS-over-HTTPS, la nueva gestión de vRAM basada en el trabajo de Valve y el paso al planificador Kyber en NVMe, todo ello acompañado de mejoras en el instalador y pequeños arreglos que redondean una propuesta pensada para el día a día de los usuarios en España y el resto de Europa.


Linux 7.1-rc1 llega con importantes cambios en el kernel

Linux 7.1-rc1

El desarrollo del kernel de Linux continúa a muy buen ritmo y la comunidad ya tiene entre manos Linux 7.1-rc1, la primera versión candidata de la nueva rama. Tras el lanzamiento reciente de Linux 7.0 estable, el proyecto no se ha tomado prácticamente descanso y ha cerrado la llamada merge window, el periodo en el que se integran novedades y cambios de gran calado antes de centrarse en las pruebas.

Con el cierre de esta ventana de integración, el foco pasa ahora a testear de forma intensiva las nuevas funciones y detectar posibles fallos. Se espera que, salvo contratiempos importantes, Linux 7.1 llegue como versión estable hacia mediados de junio, lo que dará margen a distribuciones como Debian, Ubuntu, openSUSE o Fedora para empezar a planificar su inclusión en futuras versiones.

Qué supone la llegada de Linux 7.1-rc1

La publicación de Linux 7.1-rc1 marca el punto en el que dejan de aceptarse nuevas características y se entra en fase de estabilización. Según ha explicado Linus Torvalds, el código que ha entrado durante la merge window ya está congelado y, a partir de ahora, las siguientes candidatas (rc2, rc3, etc.) se dedicarán a corregir errores, pulir detalles y validar que no haya regresiones importantes en rendimiento o compatibilidad.

En esta etapa es habitual que se sucedan aproximadamente siete rondas de versiones candidatas, durante las que desarrolladores, administradores de sistemas y usuarios avanzados prueban el nuevo kernel en distintos entornos. El objetivo es localizar fallos, reportarlos a las listas de correo del kernel y comprobar que las soluciones propuestas no introduzcan problemas nuevos, algo especialmente relevante en servidores y sistemas de producción, donde la estabilidad suele estar por encima de todo.

Reescritura del driver NTFS y mejoras para entornos dual‑boot

Uno de los cambios más destacados de Linux 7.1 es la reescritura completa del driver NTFS en el kernel, fruto de varios años de trabajo. Este nuevo controlador aspira a convertirse en la opción de referencia para acceder a particiones NTFS desde Linux, sustituyendo soluciones anteriores que, aunque funcionales, eran más limitadas en rendimiento y características.

Para quienes utilizan equipos con arranque dual entre Windows y Linux, esta mejora puede marcar una diferencia notable. El nuevo código promete transferencias de datos más rápidas y una gestión más segura del sistema de archivos NTFS, reduciendo riesgos de corrupción en discos compartidos entre ambos sistemas. En el contexto donde muchas pymes y profesionales combinan Windows para ciertas aplicaciones de negocio con Linux en servidores o estaciones de trabajo, este avance facilita un flujo de trabajo más fluido sin tener que recurrir a herramientas externas.

Además del aumento de velocidad, se espera una mejor integración con las últimas versiones de NTFS utilizadas por Windows, lo que ayudará a que administradores de sistemas y equipos de soporte técnico tengan menos incidencias relacionadas con permisos, consistencia de datos o problemas de montaje de particiones en entornos mixtos.

Nuevas arquitecturas, SoC y soporte de hardware

Linux 7.1 incorpora también un bloque relevante de soporte para nuevo hardware y plataformas System-on-Chip (SoC). En esta versión se añaden 12 nuevos SoC, lo que amplía aún más el abanico de dispositivos compatibles con el kernel, desde placas embebidas hasta equipos orientados a consumo y a usos industriales.

Entre las novedades de hardware destacan nuevos drivers específicos para dispositivos de Lenovo, como los controladores para la consola portátil Legion Go y un nuevo controlador de ventilador para determinados modelos de la gama Yoga. Este tipo de mejoras suele agradecerse especialmente en el mercado, donde la adopción de portátiles de marca reconocida es masiva y los usuarios valoran una buena gestión de energía, ruido y temperaturas bajo Linux.

El kernel también suma compatibilidad con diverso hardware de audio y periféricos adicionales, buscando que auriculares, tarjetas de sonido, docks y otros accesorios funcionen correctamente sin necesidad de configuraciones complejas. Para distribuidores y revendedores de hardware, contar con un kernel que reconoce más componentes de serie reduce costes de soporte y facilita ofrecer equipos con Linux preinstalado.

Mejoras en seguridad y optimizaciones de rendimiento

En el terreno de la seguridad, Linux 7.1 introduce progresos en funciones como Intel Linear Address Space Separation (LASS), una tecnología orientada a segmentar el espacio de direcciones de forma más estricta y reducir superficies de ataque relacionadas con ciertos tipos de exploits. En esta release se considera que el soporte LASS está en buena forma, lo que abre la puerta a que, en próximos ciclos, más distribuciones lo activen o lo integren mejor en sus configuraciones por defecto.

Junto a ello, el kernel llega con múltiples optimizaciones de rendimiento repartidas en diferentes subsistemas: desde el almacenamiento y la red hasta la gestión de memoria y los controladores gráficos. Estas mejoras no siempre se traducen en incrementos espectaculares en benchmarks sintéticos, pero sí pueden aportar una sensación de sistema más ágil o una reducción ligera en el consumo de CPU bajo ciertas cargas habituales en servidores y estaciones de trabajo.

En lo referente a aceleración y compresión, destaca también el soporte de Intel QAT (QuickAssist Technology) para Zstd, pensado para descargar tareas de compresión y descompresión en hardware especializado. Esto puede tener interés especial en centros de datos, proveedores de servicios cloud o empresas que manejan grandes volúmenes de datos en países como Alemania, Francia o España, donde la eficiencia energética y el coste de infraestructura son factores clave.

Avances para arquitecturas AMD Zen y otros procesadores

El nuevo kernel sigue profundizando en la habilitación y optimización de la arquitectura AMD Zen 6, lo que prepara el terreno para futuras generaciones de procesadores de la compañía. Aunque muchas de estas funciones no se verán reflejadas de inmediato en el mercado, sientan las bases para que, cuando nuevos chips lleguen a equipos de sobremesa, portátiles o servidores, ya cuenten con un soporte de kernel sólido desde el primer día.

Paralelamente, siguen afinándose controladores y ajustes para plataformas basadas en procesadores AMD EPYC y otras gamas de alto rendimiento. Las primeras pruebas de rendimiento realizadas con el estado de Git de Linux 7.1, comparado con Linux 7.0 estable, apuntan a diversas mejoras en determinadas cargas de trabajo, aunque también se han detectado posibles regresiones que deberán pulirse en las siguientes release candidates.

Depuración del código: hardware antiguo que se queda atrás

Linux 7.1 no solo añade código; también elimina una cantidad significativa de controladores y soporte para hardware veterano. Entre los cambios más llamativos está el inicio de la retirada paulatina del soporte para CPUs Intel i486, una arquitectura con casi cuatro décadas a sus espaldas que, aunque todavía puede encontrarse en sistemas muy específicos, hace tiempo que dejó de ser relevante para la mayoría de usuarios.

Dentro de esta limpieza también se incluye la eliminación de determinados drivers de red muy antiguos, así como el abandono del soporte para algunos SoC que apenas tuvieron recorrido y la supresión de controladores PCMCIA obsoletos. El objetivo es reducir la carga de mantenimiento sobre los desarrolladores del kernel y minimizar riesgos de seguridad asociados a código muy viejo y poco probado en la actualidad.

A pesar de estas podas, la base de código del kernel sigue creciendo y se sitúa ya por debajo de los 40 millones de líneas, pero muy cerca de esa cifra. Esta magnitud ilustra tanto la complejidad del proyecto como la diversidad de dispositivos que cubre, desde pequeños equipos embebidos hasta grandes servidores que dan servicio a millones de usuarios.

Pruebas de rendimiento y primeras impresiones

Con la merge window prácticamente cerrada, distintos laboratorios y medios especializados han empezado a probar el estado actual de Linux 7.1 en escenarios reales. En algunos entornos con servidores basados en procesadores AMD EPYC de nueva generación, las primeras tandas de benchmarks apuntan a una tendencia positiva en rendimiento frente a Linux 7.0, aunque estas conclusiones son todavía preliminares y se limitan a configuraciones concretas.

Estas pruebas comparativas suelen realizarse sobre distribuciones orientadas a servidores, como Ubuntu Server o similares, usando hardware moderno con grandes cantidades de memoria DDR5 y almacenamiento NVMe de última generación. Para administradores de sistemas, estos datos servirán para valorar cuándo dar el salto a Linux 7.1 en entornos de producción, una vez que la versión estable esté disponible y las distribuciones la integren con sus propios parches y ajustes.

En paralelo, proyectos como Phoronix han iniciado ya la batería de tests de Linux 7.1-rc1, y durante los próximos días y semanas se irán conociendo más detalles sobre mejoras específicas en gráficos, entrada/salida y rendimiento bajo diferentes cargas de trabajo, lo cual será clave para empresas que dependen de Linux para servicios críticos.

Participación de la comunidad y acceso al código

Como es habitual, el código fuente de Linux 7.1-rc1 está disponible en el repositorio Git oficial de Linus Torvalds, desde donde cualquier usuario avanzado o desarrollador puede descargarlo, compilarlo y probarlo en su propia máquina. La invitación de Torvalds es clara: esta fase de desarrollo necesita que quienes se sientan cómodos compilando kernels se animen a usar la rc1 y reporten problemas lo antes posible.

Este ciclo de pruebas abierto es especialmente relevante, donde muchas administraciones públicas, universidades y empresas tecnológicas apuestan por Linux en sus infraestructuras. Cuanto mayor sea el número de escenarios y configuraciones probadas, más fácil será detectar fallos que podrían pasar desapercibidos en un conjunto de hardware más limitado.

Linus Torvalds ya ha difundido su mensaje habitual de lanzamiento en las listas de correo del kernel, aunque la comunicación se ha visto ligeramente retrasada en comparación con otras ocasiones por pequeños problemas de correo electrónico, algo que ya ha ocurrido en el pasado. En cualquier caso, la rc1 está disponible y la maquinaria de pruebas de la comunidad se ha puesto en marcha.

Con la publicación de Linux 7.1-rc1, el proyecto entra en una fase en la que se combinan nuevas funciones de gran calado —como la reescritura del driver NTFS, el soporte ampliado para SoC y la mejora de la seguridad con tecnologías como LASS— con una necesaria limpieza de código antiguo, entre la que destaca el inicio del adiós a CPUs como la Intel i486 y a viejos controladores de red y PCMCIA, de modo que, si el calendario se cumple, las distribuciones podrán contar en unas semanas con un kernel más moderno, refinado y mejor adaptado tanto a hardware de última generación como a las necesidades reales de servidores, equipos de escritorio y portátiles en el mercado actual.


Se filtra, supuestamente, el precio del Steam Controller, y no te dejará indiferente

Steam Controller

A finales de 2025, Valve sacudió al mundo de los videojuegos con una triple noticia: estaba preparando la Steam Machine, las Steam Frame y el Steam Controller. Muchos fuimos los que pensamos que era un bombazo, porque podríamos tener el hardware medio usado en Steam por un precio reducido. Pronto empezamos a enfriarnos, cuando Valve aseguró que no podría vender a pérdidas y que la Machine tendría un precio de PC. La situación empeoró por el «RAMpocalipsis» (precios altos en la RAM por la IA) y la última noticia ya ha terminado por helarnos.

Y es que se habría filtrado que el precio del Steam Controller subiría hasta los 99$, algo menos de 85€ si hacen cambio correcto. La filtración habría sido un error de un creador de contenidos que a lo habría probado. TechyTalk publicó el vídeo, aunque lo retiró poco después. Ahora bien, ¿es un precio justo, competitivo o se les ha ido la olla con él?

Los 85€ del Steam Controller son precio de mercado

El Steam Controller no es un mando normal. Tiene lo que otros, pero también los dos trackpads y botones traseros, y esto encaja más en un controlador premium. Si miramos por ahí y comparamos, el DualSense de Sony no es mucho más barato. Pero si miramos otros tipo «Pro», los precios se disparan y superan por mucho los 100€, llegando a cerca del doble los de gama más alta de Xbox y Sony..

La duda que queda es si este controlador vendría con la Steam Machine o no. Todo parece indicar que no, que como la Machine es un «ordenador», los periféricos se tendrán que comprar por separado. Sí se espera que haya una opción con mando, y que con esa opción se puedan ahorrar algunos euros, pero quien esté esperando que algo de todo esto sea barato, que se olvide.


GNOME presenta novedades en aplicaciones y una nueva para medir la presión sanguínea

Esta semana en GNOME

No sólo de Ubuntu vive GNOME, y aunque esta semana ha llegado la familia Resolute Raccoon, el equipo que hay detrás del escritorio más usado en Linux ha seguido trabajando como siempre. Hace unas horas han publicado la nota de novedades de la última semana, y en ella se recoge lo sucedido del 17 al 24 de abril.

Entre las novedades, yo destacaría la nueva actualización de Parabolic, pero porque me interesa esa aplicación, y otra que sirve para llevar un control de la presión sanguínea. También ha habido tiempo para mejorar libadwaita y otro software.

Esta semana en GNOME

  • La demo de libadwaita ahora se ejecuta en Android, y los archivos APK pueden obtenerse desde CI. AdwSidebar y AdwViewSwitcherSidebar ahora permiten añadir widgets por encima y por debajo de su contenido. Esto puede usarse para añadir elementos como selectores de cuenta.
  • Kotoba, un diccionario japonés–inglés rápido y completamente sin conexión, ahora está disponible en Flathub. Características principales:
    • Búsqueda flexible: Permite buscar palabras usando kanji, kana, rōmaji o significados en inglés.
    • Resultados rápidos: Las coincidencias aparecen casi al instante.
    • Entradas detalladas: Incluyen lecturas, significados, frases de ejemplo y notas de uso cuando están disponibles.
    • Gestión inteligente de conjugaciones: Reconoce formas flexionadas de verbos y adjetivos y las asocia a sus entradas base.
    • Marcadores: Permite guardar palabras para revisarlas más tarde.
    • Totalmente sin conexión: Funciona sin conexión a internet.

Kotoba en GNOME

  • Stargate es una nueva biblioteca de Java y Kotlin que proporciona a las aplicaciones JVM acceso a los portales de escritorio XDG en Linux.
    • Cobertura completa de la especificación de portales, incluyendo atajos globales, escritorio remoto, notificaciones y configuración.
    • Añade soporte para iconos en la bandeja del sistema mediante la especificación XDG Status Notifier Item.
    • Incluye una aplicación de demostración construida con Java GI, los enlaces de Java para GTK/GNOME.
  • Blood Pressure 1.0.0 permite tomar el control de la salud. Lanzada hace solo un mes, esta aplicación potente pero fácil de usar ayuda a realizar un seguimiento preciso de la presión arterial sistólica y diastólica, así como del pulso. Permite visualizar el progreso mediante gráficos claros e intuitivos y obtener información valiosa con estadísticas detalladas basadas en las directrices ESH/ESC. Permite registrar mediciones fácilmente con fecha, hora y notas opcionales, explorar el historial de un vistazo y beneficiarse de un análisis completo diseñado para apoyar mejores decisiones de salud.

Blood Preasure

  • Rewaita v1.1.2 finalmente ha sido lanzada. Rewaita es una herramienta de personalización para aplicar esquemas de color a Adwaita y GNOME. Novedades:
    • Se ha añadido compatibilidad completa con Firefox, y también es compatible con el tema Firefox Gnome para quienes lo utilizan.
    • Más opciones de personalización, incluyendo tres temas adicionales para los controles de ventana y un nuevo esquema de color (Gruvbox Hard).
    • Incluye una opción para forzar texto claro en la vista general de aplicaciones, útil para quienes usan blur-my-shell.
    • Mejoras en la calidad de vida como una guía de usuario mejorada y correcciones de errores con muchos menos fallos.
    • Se han añadido traducciones al chino simplificado.

Rewaita 1.1.2

  • Solitaire 50.1 ha sido lanzado. Cambios:
    • Se han añadido traducciones: portugués brasileño, córnico, kazajo, serbio, sueco, ucraniano, esloveno y ruso.
    • Se han añadido categorías a la entrada de escritorio y se han añadido todos los temas de cartas de Aisleriot que faltaban excepto Guyenne Classic.
    • Se ha corregido un error por el cual los reintentos no se reducían al deshacerlos y otro que permitía un reintento adicional.
    • Se han aclarado los usos del solucionador en las preferencias.
    • Se ha añadido una opción para mostrar el aviso de posibilidad de ganar en las preferencias y se ha hecho que el tema se actualice al cerrar el diálogo del selector de temas.
    • Se han ajustado los colores de la marca para evitar conflictos con los colores de la ventana.
    • Se han añadido espacios entre las cartas y márgenes para el área de juego.
    • Se ha añadido una opción de Nuevo juego al diálogo de imposible ganar.
    • Se ha añadido un mecanismo de seguridad para cuando GTK no gestiona correctamente los arrastres en X11.
  • Pipeline versión 4.0.0 ha sido lanzada esta semana. Esta versión renueva completamente la descarga de vídeos. En lugar de depender de un programa externo, ahora incorpora la descarga de vídeos de forma nativa. También permite ver los vídeos descargados directamente en la aplicación. Además, ahora permite consultar el historial de visualización dentro de la aplicación.
  • Parabolic V2026.4.0 ya está disponible. Registro completo de cambios:
    • Se ha añadido una aplicación para macOS de la versión GNOME de Parabolic.
    • Se ha añadido una versión portátil para Windows de Parabolic.
    • Se ha añadido la opción de activar o desactivar formatos de superresolución en la configuración.
    • Se ha añadido la opción de especificar una tasa de fotogramas preferida para descargas de vídeo en la configuración.
    • Se ha añadido la opción de activar o desactivar descargas inmediatas de audio o vídeo por separado.
    • Se ha añadido la opción de traducir automáticamente metadatos y capítulos integrados al idioma de la aplicación en sitios compatibles, con posibilidad de desactivarlo en la configuración del conversor.
    • Se ha añadido la posibilidad de actualizar deno desde la propia aplicación.
    • Se ha añadido una vista previa de miniaturas en el diálogo de añadir descarga y en la vista de descargas.
    • Se ha añadido un filtro de fallos en la vista de descargas.
    • Se ha añadido una etiqueta de duración total en la vista de elementos de listas de reproducción.
    • Se ha mejorado el tiempo de inicio mediante compilación NativeAOT.
    • Se ha mejorado la selección de formatos de vídeo en listas de reproducción cuando se especifican resoluciones.
    • Se ha mejorado la selección de formatos de audio en listas de reproducción en Windows cuando se especifican tasas de bits.
    • Se ha mejorado el recorte de miniaturas de audio.
    • Se ha mejorado la gestión de nombres de archivo largos, que ahora se truncarán si son demasiado largos.
    • Se han eliminado navegadores de cookies no compatibles en Windows; ahora deben usarse archivos txt manuales.
    • Se ha corregido un problema por el cual el progreso de descarga no se mostraba correctamente.
    • Se ha corregido un problema por el cual el códec de vídeo preferido se ignoraba cuando también se establecía una tasa de fotogramas preferida.
    • Se ha corregido un problema por el cual el archivo de lista M3U exportado contenía entradas duplicadas.
    • Se ha corregido un problema por el cual las credenciales no se guardaban en Linux.
    • Se ha corregido un problema por el cual los archivos por lotes no funcionaban en Linux y macOS.
    • Se ha corregido un problema por el cual subir un archivo de cookies no funcionaba en Windows.
    • Se ha corregido un problema por el cual las descargas por intervalo de tiempo no se completaban en Windows.
    • Se ha corregido un problema por el cual ciertos formatos de vídeo se procesaban indefinidamente en Windows.
    • Se ha actualizado yt-dlp.

Y esto ha sido todo esta semana en GNOME.

Imágenes y contenido: TWIG.


Fwupd 2.1.2 refuerza la actualización de firmware en Linux

Fwupd 2.1.2

Fwupd 2.1.2 ya está disponible y supone un paso más en la consolidación de las actualizaciones de firmware desde Linux, tanto para equipos de sobremesa como para portátiles y periféricos muy presentes en el mercado. Esta utilidad de código abierto se integra con el ecosistema de firmware distribuido a través de la LVFS y se ha convertido en una pieza clave para mantener al día la parte más delicada del hardware sin depender de herramientas propietarias de cada fabricante.

Con esta entrega, que llega tras la v2.1.1, el proyecto refuerza su papel como gestionar actualizaciones de BIOS, controladores táctiles, ratones, docks USB-C y otros accesorios, algo especialmente relevante en entornos profesionales y educativos donde Linux y los Chromebooks están ganando terreno. El objetivo es reducir los quebraderos de cabeza típicos cuando hay que actualizar firmware en distintos equipos y marcas.

Fwupd 2.1.2 y principales responsables

Esta nueva entrega no se limita a pequeñas correcciones, sino que incorpora ajustes internos, compatibilidad adicional y soporte para nuevo hardware que se está utilizando o se utilizará en breve en equipos vendidos. El resultado es un entorno algo más predecible a la hora de actualizar el firmware, tanto para usuarios domésticos como para grandes despliegues en empresas y administraciones públicas.

Nuevos dispositivos compatibles en Fwupd 2.1.2

Uno de los puntos fuertes de Fwupd 2.1.2 es la ampliación de la lista de dispositivos que pueden recibir actualizaciones de firmware directamente desde Linux. Entre las incorporaciones más destacadas se encuentran nuevos modelos de ratones, docks USB-4, hubs USB y cámaras, además de controladores táctiles de distintos proveedores.

En concreto, Fwupd 2.1.2 añade soporte para:

  • Ratones HP 400 y 405, presentes en entornos de oficina y domésticos, tanto en equipos de marca HP como en periféricos vendidos por separado.
  • Un dock Lenovo USB-4, un tipo de estación de acoplamiento clave para quienes trabajan con portátiles y necesitan conectar varios monitores y periféricos mediante un único cable.
  • Controladores táctiles como el Elan TP IC tipo 0x19, el controlador LX Semicon SW42101 y dispositivos Raydium TP, habituales en paneles táctiles de portátiles y convertibles.
  • Hubs USB Parade con control GPIO, cada vez más usados en docks y estaciones de trabajo modernas con USB-C.
  • Dispositivos Pixart PLP239, que pueden encontrarse en distintos periféricos de entrada, especialmente en ratones y otros dispositivos de puntero.
  • Cámaras basadas en tecnología Sunplus, que se emplean en webcams integradas o externas utilizadas a diario para videoconferencias, educación en línea y trabajo remoto.

Esta ampliación de compatibilidad tiene impacto directo en usuarios y organizaciones que dependen de Linux para su día a día, ya que podrán gestionar actualizaciones de firmware críticas para la estabilidad y seguridad de estos componentes sin abandonar su sistema operativo habitual.

Soporte para Google Moonstone y Chromebooks

Otro aspecto interesante de Fwupd 2.1.2 es la referencia a Google Moonstone, nombre en clave que apunta a un futuro Chromebook. La incorporación del identificador de hardware para este modelo se centra en la actualización del firmware del touchpad basado en tecnología de Elan, lo que sugiere que el dispositivo será compatible con el ecosistema de actualización de firmware abierto desde su llegada al mercado.

Para centros educativos y administraciones públicas que ya utilizan Chromebooks, esta integración con Fwupd puede facilitar la labor de mantener al día el firmware de los paneles táctiles y otros componentes clave. Aunque Moonstone aún no esté disponible comercialmente, el hecho de que su soporte se incorpore desde ahora indica una cierta anticipación por parte del proyecto y de los fabricantes implicados.

Mejoras del daemon y compatibilidad con módems ttyUSB

Además del soporte para nuevos modelos, Fwupd 2.1.2 introduce cambios en su daemon (el servicio que se ejecuta en segundo plano) para manejar mejor módems que se exponen como dispositivos ttyUSB. Este tipo de hardware es habitual en módems 3G/4G, dispositivos de comunicaciones industriales y conexiones M2M desplegadas en distintos sectores.

Gracias a estas mejoras, los administradores de sistemas podrán contar con un comportamiento más predecible cuando se gestionen actualizaciones de firmware en módems y equipos de comunicaciones, algo que puede ser especialmente sensible en infraestructuras críticas o en despliegues remotos en los que no es viable estar físicamente delante del dispositivo en caso de fallo.

Correcciones y ajustes específicos para distintos dispositivos

Junto con el nuevo soporte de hardware, el equipo de desarrollo ha incluido diversas correcciones de comportamiento y ajustes de compatibilidad para dispositivos ya soportados en versiones anteriores. Estos «quirks» o particularidades permiten tratar de manera específica a determinados modelos que requieren pasos especiales para que la actualización de firmware sea segura.

Este tipo de ajustes finos son habituales en un ecosistema tan heterogéneo como el de Linux, donde conviven generaciones distintas de hardware. Al pulir estos detalles, Fwupd 2.1.2 contribuye a que las actualizaciones sean menos propensas a errores y a comportamientos inesperados, algo crucial cuando hablamos de firmware y no de simple software de usuario.

Impacto en usuarios, empresas y administraciones

La expansión del soporte de Fwupd 2.1.2 repercute directamente en la forma en que los usuarios finales, empresas y administraciones públicas gestionan sus equipos. En entornos donde se combinan portátiles de distintas marcas, docks USB-C, ratones externos y cámaras para videollamadas, poder actualizar todo ese firmware desde un único sistema reduce el tiempo de mantenimiento y el riesgo de incompatibilidades.

Para las organizaciones que apuestan por el software libre, disponer de una herramienta como Fwupd que se coordina con fabricantes mediante LVFS permite seguir criterios de transparencia, auditabilidad y control de las actualizaciones. Aunque cada fabricante mantiene sus propias políticas, el hecho de que se integren en este canal unificado mejora la trazabilidad de lo que se instala en cada equipo.

Disponibilidad de Fwupd 2.1.2 y consulta de cambios

La versión Fwupd 2.1.2 ya se encuentra disponible a través de los repositorios habituales de muchas distribuciones, si bien la llegada exacta puede variar en función del calendario de cada proyecto. Los usuarios más avanzados pueden consultar la lista completa de cambios en el repositorio oficial del proyecto en GitHub, donde se detallan tanto las nuevas compatibilidades como las correcciones internas.

En cualquier caso, antes de aplicar actualizaciones de firmware conviene asegurarse de que se dispone de copias de seguridad y de una alimentación estable, especialmente en portátiles y estaciones de trabajo que no pueden permitirse interrupciones. Fwupd está diseñado para reducir riesgos, pero trabajar con firmware siempre requiere cierta prudencia.

Con esta nueva versión, Fwupd continúa consolidándose como una herramienta central para mantener el firmware al día en sistemas Linux, integrando cada vez más tipos de hardware como ratones, docks USB-4, controladores táctiles y cámaras, y abriendo la puerta a futuros dispositivos como Google Moonstone, todo ello con un enfoque que favorece la gestión homogénea de equipos.


ChatGPT 5.5: así es el nuevo salto de OpenAI en autonomía, coste y usos profesionales

ChatGPT 5.5

OpenAI ha dado un nuevo golpe sobre la mesa con el lanzamiento de GPT-5.5, el modelo que sitúa la última generación de ChatGPT en un nivel de autonomía y razonamiento muy superior a lo visto hasta ahora. La compañía lo presenta como su sistema más intuitivo y capaz para encargarse de tareas complejas de principio a fin, reduciendo la necesidad de supervisión constante por parte del usuario.

Este movimiento llega en plena carrera por el liderazgo en inteligencia artificial generativa, con Anthropic y Google acelerando también sus propios modelos. GPT-5.5 se estrena primero en ChatGPT y en Codex para usuarios de pago, y combina mejoras en programación, trabajo de oficina, investigación científica y uso real del ordenador, a costa de un aumento de precios que OpenAI intenta justificar con una notable eficiencia en el uso de tokens.

Qué es GPT-5.5 y qué papel juega en la estrategia de OpenAI

Según OpenAI, GPT-5.5 marca un nuevo escalón en razonamiento sostenido y trabajo autónomo con un ordenador. El modelo está diseñado para asumir tareas largas y con múltiples pasos: puede recibir una instrucción desordenada, descomponerla, planificar qué hacer primero, elegir y manejar herramientas, revisar sus propios resultados y continuar aunque haya ambigüedades en el enunciado.

La empresa lo define como su IA más intuitiva hasta la fecha. En lugar de limitarse a responder preguntas sueltas, GPT-5.5 actúa como un agente: mantiene el contexto durante procesos extensos, navega por información en la web, ejecuta comandos, manipula documentos y aplicaciones de oficina, y devuelve resultados ya estructurados, listos para usar en entornos profesionales.

El lanzamiento incluye una versión GPT-5.5 Pro, orientada a trabajos de mayor complejidad y a usuarios que necesitan respuestas más rigurosas en ámbitos como el derecho, la empresa, la educación o el análisis avanzado de datos. En ChatGPT, además, aparece el modo GPT-5.5 Thinking, pensado para problemas especialmente difíciles en programación, investigación o análisis de información.

Autonomía y uso real del ordenador: de chatbot a agente de trabajo

Una de las grandes apuestas de OpenAI es la capacidad de GPT-5.5 para desempeñarse como un agente autónomo en el ordenador. El modelo puede buscar información, decidir qué es relevante, combinar fuentes, operar software y herramientas en cadena y transformar materiales dispersos en entregables útiles, sin que el usuario tenga que indicar minuciosamente cada paso.

En el día a día, esto se traduce en tareas como generar documentos complejos, hojas de cálculo o presentaciones, revisar contratos, preparar informes, analizar bases de datos o elaborar resúmenes extensos a partir de varios ficheros. La compañía asegura que GPT-5.5 entiende antes qué quiere hacer el usuario y se encarga de una porción mayor del trabajo por sí mismo que las versiones anteriores.

Para ilustrar este cambio, OpenAI menciona ejemplos internos: equipos de finanzas que usan Codex y GPT-5.5 para revisar decenas de miles de formularios fiscales en mucho menos tiempo, departamentos de comunicación que automatizan marcos de puntuación y riesgo sobre grandes volúmenes de solicitudes, o áreas de marketing y producto que han reducido de forma notable el tiempo dedicado a reportes periódicos gracias a flujos de trabajo automatizados.

Rendimiento en programación agéntica y desarrollo de software

Donde GPT-5.5 muestra una mejora en programación y en lo que OpenAI denomina “codificación agéntica”, es decir, el uso de la IA como un agente que escribe, corrige y mantiene código de extremo a extremo. En entornos de desarrollo, el modelo es capaz de gestionar repositorios grandes, proponer refactors complejos, identificar el origen de errores y anticipar qué partes del sistema se verán afectadas por un cambio.

En el benchmark Terminal-Bench 2.0, que mide flujos de trabajo complejos en línea de comandos, GPT-5.5 alcanza un 82,7%, superando de forma clara a GPT-5.4, y lo hace consumiendo menos tokens. En SWE-Bench Pro, centrado en la resolución de incidencias reales de GitHub, el modelo llega al 58,6%, y en la evaluación interna Expert-SWE, con tareas cuyo tiempo humano estimado ronda las 20 horas, también se sitúa por encima de su predecesor.

Los ingenieros que probaron versiones tempranas destacan que GPT-5.5 entiende mejor la arquitectura global de sistemas complejos. En pruebas internas, se citan casos como fusiones de ramas con cientos de cambios resueltas en unos veinte minutos, rediseños casi completos de subsistemas (por ejemplo, un sistema de comentarios en un editor colaborativo) o detección temprana de fallos que antes requerían muchas más iteraciones.

En Codex, el entorno de OpenAI enfocado en ingeniería de software, GPT-5.5 cuenta con una ventana de contexto de hasta 400.000 tokens, lo que le permite trabajar con bases de código muy extensas. Además dispone de un modo rápido que genera tokens aproximadamente 1,5 veces más deprisa, aunque con un coste por token superior, pensado para quienes priorizan la velocidad de respuesta.

Trabajo del conocimiento, empresa y uso cotidiano en oficina

Más allá del desarrollo de software, GPT-5.5 está diseñado como una herramienta para el trabajo profesional en entornos de oficina, consultoría o análisis de datos. OpenAI sostiene que las mismas capacidades que mejoran la programación permiten ahora operar con mayor solvencia en tareas de documentación y análisis.

En el benchmark GDPval, que evalúa la capacidad de producir trabajo experto especificado en 44 ocupaciones, GPT-5.5 obtiene un 84,9% de aciertos o empates. En OSWorld-Verified, una prueba orientada a comprobar si el modelo puede manejar entornos informáticos reales de forma autónoma, llega al 78,7%. En Tau2-bench Telecom, centrado en atención al cliente en el sector de telecomunicaciones, alcanza un 98% sin necesidad de ajustar el prompt, lo que indica un rendimiento alto en escenarios de soporte.

Para uso empresarial, OpenAI remarca que más del 85 % de su plantilla utiliza Codex semanalmente en áreas como ingeniería, finanzas, marketing, datos o producto. Casos como la automatización de informes semanales, que ahorra entre cinco y diez horas por persona a la semana, ilustran el tipo de beneficios que la compañía atribuye al nuevo modelo cuando se integra en procesos de negocio.

Investigación científica, biología y matemáticas avanzadas

La investigación científica es otro de los ejes centrales en la presentación de GPT-5.5. OpenAI apunta a flujos de trabajo donde es necesario explorar hipótesis, recopilar evidencia, comprobar supuestos, interpretar resultados y decidir el siguiente experimento, un entorno en el que el razonamiento contextual sostenido es clave.

En pruebas como GeneBench, centrada en tareas de biología y genética, GPT-5.5 mejora los resultados de GPT-5.4, y la variante GPT-5.5 Pro obtiene puntuaciones todavía más altas. En BixBench, orientado a bioinformática y biología cuantitativa, el nuevo modelo logra también el mejor rendimiento entre los sistemas con datos publicados hasta la fecha, según la información facilitada por la empresa.

OpenAI ha llegado a citar ejemplos de uso en matemáticas avanzadas, donde una versión interna de GPT-5.5 colaboró en la búsqueda de una nueva prueba relacionada con números de Ramsey fuera de la diagonal, posteriormente verificada en el asistente formal Lean. La compañía presenta este caso como una muestra de que el modelo no solo genera código o explicaciones, sino que puede contribuir a argumentos matemáticos en áreas complejas.

En el terreno práctico, se mencionan testimonios de investigadores que han utilizado GPT-5.5 Pro para analizar conjuntos de datos de expresión génica con decenas de miles de variables y un número significativo de muestras, obteniendo informes detallados, nuevos ángulos de análisis y preguntas clave en un plazo que, según sus cálculos, sería muy superior si se abordara exclusivamente con trabajo humano.

Latencia, tiempo de razonamiento y eficiencia en tokens

Detrás del lanzamiento de GPT-5.5 hay un mensaje insistente: aumenta la inteligencia del modelo sin penalizar la velocidad de respuesta. OpenAI afirma que el nuevo sistema iguala la latencia por token de GPT-5.4 en servicio real, a pesar de ser más capaz, algo poco habitual en modelos de mayor tamaño y complejidad.

Uno de los puntos clave es el tiempo de razonamiento necesario para completar tareas complejas. Usuarios tempranos que han comparado el comportamiento con versiones anteriores reportan que procesos que antes requerían entre 20 y 40 minutos de trabajo ahora se resuelven en apenas tres o cuatro minutos, manteniendo —e incluso mejorando— la calidad de las respuestas.

Esta ganancia no llega solo por la velocidad bruta, sino por una mejor gestión de tokens. GPT-5.5 necesita menos tokens para llegar a resultados comparables o superiores a los de GPT-5.4, lo que reduce tanto el tiempo total de procesamiento como el coste asociado a cada flujo de trabajo. En escenarios con gran volumen de consultas o automatización intensiva, esa diferencia puede ser determinante.

OpenAI explica que, para mantener la latencia, ha tenido que rediseñar la inferencia como un sistema integrado. GPT-5.5 se ha co-diseñado, entrenado y desplegado sobre infraestructura basada en hardware de NVIDIA de última generación (GB200 y GB300 NVL72), y se ha recurrido al propio GPT-5.5 y a Codex para optimizar heurísticas de balanceo de carga y particionado, con un aumento superior al 20 % en velocidad de generación de tokens en sus sistemas.

Precios, coste real y comparación con GPT-5.4

Aunque GPT-5.5 se sitúa en la franja alta de precios por token, OpenAI insiste en que, en la práctica, puede resultar más económico que su predecesor y que parte de la competencia. El motivo es la combinación de mayor eficiencia en tokens y menor necesidad de reintentos o correcciones.

En la API, los precios de referencia comunicados para GPT-5.5 son de 5 dólares por millón de tokens de entrada y 30 dólares por millón de tokens de salida, con una ventana de contexto que llega hasta el millón de tokens. Para GPT-5.5 Pro, las tarifas suben a 30 dólares por millón de tokens de entrada y 180 dólares por millón de salida, apuntando claramente a usos donde el valor añadido de la respuesta compense el coste.

OpenAI ofrece además modalidades como Batch y Flex, con tarifas aproximadamente a la mitad del precio estándar, y un modo Priority que multiplica el coste por 2,5 a cambio de mayor prioridad en cola y tiempos de respuesta más cortos. La compañía admite que GPT-5.5 es más caro que GPT-5.4 en términos nominales, pero argumenta que la reducción de tokens necesarios por tarea y el menor tiempo de razonamiento pueden abaratar el coste total de proyectos complejos frente a otros modelos.

En el mercado, esta política sitúa a GPT-5.5 por encima de modelos anteriores de OpenAI y por debajo de alternativas de alta gama que, según estimaciones compartidas durante la presentación, pueden resultar entre cinco y diez veces más caras en términos prácticos cuando se tiene en cuenta la combinación de precio, tokens consumidos y calidad del resultado.

Contexto largo y rendimiento en benchmarks de razonamiento

Otra de las mejoras visibles de GPT-5.5 es su capacidad de trabajar con contextos muy extensos sin perder el hilo. En pruebas como Graphwalks BFS 1M, el modelo alcanza un 45,4 % frente al 9,4 % de GPT-5.4, y en OpenAI MRCR v2 con contextos entre 512K y 1M tokens sube hasta el 74,0 %, comparado con el 36,6 % de la versión anterior.

En el terreno del razonamiento abstracto, GPT-5.5 registra un 95,0 % en ARC-AGI-1 y un 85,0 % en ARC-AGI-2, con mejoras significativas respecto a GPT-5.4. En pruebas de conocimiento avanzado como GPQA Diamond, enfocado en preguntas de alta dificultad, obtiene un 93,6 %, y en evaluaciones como Humanity’s Last Exam supera el 50 % cuando se le permite utilizar herramientas externas.

OpenAI subraya que muchas de estas evaluaciones se han realizado en entornos de investigación con configuraciones de razonamiento en niveles muy altos, por lo que los resultados pueden diferir ligeramente de los que perciben los usuarios de ChatGPT en producción. Aun así, la empresa quiere transmitir la idea de que GPT-5.5 representa un salto práctico en tareas reales, no solo una mejora académica en tablas de benchmarks.

Seguridad, ciberseguridad y uso responsable

El incremento de capacidades lleva aparejado un refuerzo de las salvaguardas de seguridad. OpenAI afirma que GPT-5.5 se lanza con su sistema de protección más avanzado hasta el momento, tras pasar por evaluaciones internas y externas, marcos de preparación específicos y procesos de red teaming con especialistas en ciberseguridad y biología.

En el marco de su Preparedness Framework, la compañía clasifica las capacidades de GPT-5.5 en biología, química y ciberseguridad en el nivel “Alto”, sin llegar al nivel “Crítico”. Aun así, reconoce que el modelo es más eficaz que GPT-5.4 a la hora de encontrar y explotar vulnerabilidades, por lo que ha desplegado clasificadores más estrictos para peticiones sensibles y mecanismos contra usos reiterados de riesgo, algo que puede resultar más restrictivo para parte de los usuarios técnicos.

En paralelo, OpenAI pretende ampliar el acceso a capacidades más avanzadas para usos defensivos verificados a través de programas como Trusted Access for Cyber, especialmente dirigidos a organizaciones encargadas de proteger infraestructuras críticas. La idea es facilitar herramientas potentes para la defensa sin relajar los controles frente a posibles usos ofensivos.

En el ámbito de la investigación biológica, la compañía ha puesto en marcha iniciativas como programas de recompensas por detección de errores biológicos en el comportamiento del modelo, con el objetivo de que la comunidad científica ayude a identificar fallos y mejorar las salvaguardas antes de un despliegue más amplio.

Disponibilidad de GPT-5.5 y su despliegue en productos

El despliegue de GPT-5.5 ha comenzado para los usuarios Plus, Pro, Business y Enterprise de ChatGPT y Codex, tanto en entornos personales como corporativos. En Codex, el modelo se integra en los flujos de desarrollo de software con ventana de contexto ampliada y modos de respuesta rápida.

La versión GPT-5.5 Pro se está activando progresivamente para usuarios Pro, Business y Enterprise que necesitan un nivel extra de detalle y precisión, especialmente en campos regulados o de alto impacto donde los errores pueden ser costosos. En ChatGPT, los usuarios también empiezan a ver opciones específicas como GPT-5.5 Thinking para problemas complejos de investigación o análisis.

En cuanto a la API, OpenAI trabaja en incorporar GPT-5.5 y GPT-5.5 Pro a sus endpoints de Responses y Chat Completions con ventanas de contexto que alcanzan el millón de tokens. La compañía indica que el acceso se irá ampliando conforme se vayan cumpliendo los requisitos internos de seguridad y capacidad de infraestructura, de modo que los desarrolladores puedan integrar el modelo en aplicaciones propias una vez completada esta fase.

La llegada de GPT-5.5 consolida un cambio de etapa en la evolución de ChatGPT: el foco se desplaza de la simple generación de texto a la automatización integral de tareas digitales, con modelos más autónomos, capaces de razonar durante más tiempo y de trabajar sobre sistemas reales, a costa de precios más altos y de un debate creciente en torno a seguridad y gobernanza. En un contexto europeo en el que la regulación de la IA avanza y las empresas buscan eficiencia sin perder control, la forma en que organizaciones, desarrolladores y administraciones adopten —o limiten— el uso de GPT-5.5 puede ser tan relevante como las cifras de benchmarks que acompañan a este nuevo modelo.