VirtualBox 7.2.8 corrige fallos de seguridad y soporta Linux 7.0

virtualbox

Hace pocos dias Oracle dio a conocer el lanzamiento oficial de «VirtualBox 7.2.8», una versión de mantenimiento que no solo se enfoca en expandir la compatibilidad con los sistemas operativos más recientes, sino que mejora su seguridad al parchear severas brechas en su código base.

Con un total de diecisiete cambios de bajo nivel, en esta nueva version podremos encontrar optimizaciones en la gestión de gráficos bajo protocolos modernos, correcciones vitales para la estabilidad de sistemas invitados comerciales y una adaptación proactiva a las inminentes versiones del núcleo de Linux.

Seguridad confidencial y correcciones de red

El pilar central de esta actualización de VirtualBox 7.2.8 es la corrección de nueve vulnerabilidades de seguridad, cuyos detalles técnicos se mantienen bajo estricta confidencialidad por parte de Oracle para prevenir el desarrollo de exploits maliciosos, ya que cinco de estas brechas han sido calificadas con un nivel de riesgo de 7.5 sobre 10, confirmándose que al menos una de ellas puede ser explotada de forma remota a través de la red sin necesidad de acceso físico o autenticación local.

Acompañando estos parches críticos, el monitor de la máquina virtual soluciona el infame error de estado «Guru Meditation» que colapsaba el hipervisor al intentar inyectar excepciones de código no definidas en el procesador. Además, la capa de conectividad ha restaurado el correcto enrutamiento en las redes NAT, solucionando un fallo de resolución que impedía a las máquinas virtuales alcanzar los servidores DNS internos de la organización.

Soporte nativo para Linux 7.0 y evolución gráfica

Por la parte de las mejoras que recibe la nueva version, se destaca el soporte inicial para los núcleos Linux 6.19 y 7.0 en los entornos anfitriones. A nivel de administración de servidores, los sistemas implementan ahora un registro de contabilidad preciso del tiempo de CPU, esto significa que el monitoreo de carga separará claramente los ciclos de procesamiento dedicados a la ejecución de las máquinas virtuales del tiempo consumido por el propio núcleo del host.

En cuanto a las extensiones para invitados, Oracle ha declarado formalmente la obsolescencia de su módulo gráfico propietario para los sistemas que ejecuten el kernel 7.0. A partir de esta versión, la compañía insta a los usuarios a realizar la transición hacia el adaptador de gráficos virtuales VMSVGA o a utilizar el módulo de video que viene integrado por defecto en el propio núcleo de las distribuciones modernas.

Portapapeles en Wayland y estabilidad en Windows 11

La interacción fluida entre diferentes plataformas gráficas finalmente ha resuelto sus asperezas más molestas. Los usuarios que ejecuten sistemas invitados con el protocolo moderno Wayland ya no sufrirán bloqueos ni pérdidas de información al intentar compartir el portapapeles bidireccionalmente con un equipo anfitrión basado en Windows, corrigiendo específicamente un frustrante error que truncaba el último carácter de los textos copiados.

En el terreno de Microsoft, la actualización soluciona un bloqueo crítico que provocaba la temida pantalla azul de la muerte por desbordamientos de búfer en entornos Windows 11, y repara los errores de actualización de certificados necesarios para el Arranque Seguro UEFI. Finalmente, la gestión de hardware virtual se refina al corregir reportes de firmware DMI nulos que afectaban el registro de Windows, y se elimina un fallo de apagado abrupto que afectaba a las instalaciones de FreeBSD 16.0 al gestionar múltiples unidades en controladores SAS.

Si estás interesado en poder conocer más al respecto sobre la liberación de esta versión, puedes consultar los detalles en el siguiente enlace.

¿Cómo instalar VirtualBox en Ubuntu y derivados?

Para los que estén interesados en poder obtener esta nueva actualización de VirtualBox, solo deben de abrir una terminal (puedes hacerlo con Ctrl + Alt + T) y ejecutar los siguientes comandos:

sudo apt update
sudo apt upgrade

Instalar VirtualBox por primera vez

Para quienes no tienen instalado VirtualBox, deben saber que hay dos métodos para hacerlo:

Método 1: Descargar el paquete .deb desde el sitio oficial

  1. Visita el sitio web oficial de VirtualBox y descarga el paquete .deb correspondiente a la versión 7.1.
  2. Instálalo con GDebi o usando el siguiente comando en la terminal:
sudo dpkg -i virtualbox-7.1.deb

Método 2: Añadir el repositorio oficial de VirtualBox

  1. Verifica que la virtualización de hardware esté habilitada en el BIOS de tu computadora:
    • VT-x/VT-d para procesadores Intel.
  2. Abre una terminal y agrega el repositorio oficial de VirtualBox con este comando:
echo "deb https://download.virtualbox.org/virtualbox/debian $(lsb_release -cs) contrib" | sudo tee /etc/apt/sources.list.d/virtualbox.list

Añade la clave pública PGP necesaria para verificar los paquetes descargados desde el repositorio. De lo contrario, no podremos utilizar el repositorio oficial de paquetes de VirtualBox. Para agregar la clave PGP pública del repositorio oficial de paquetes de VirtualBox, ejecuten el siguiente comando:

wget -q https://www.virtualbox.org/download/oracle_vbox_2016.asc -O- | sudo apt-key add -

Actualiza el repositorio de paquetes APT con el siguiente comando:

sudo apt-get update

Hecho esto ahora vamos a proceder realizar la instalación de VirtualBox al sistema con:

sudo apt install virtualbox-7.2

Y listo con ello ya podremos utilizar la nueva versión de VirtualBox en nuestro sistema.


Vulnerabilidades en uutils obligan a Ubuntu a mantener utilidades GNU

Vulnerabilidad

Canonical, en su ambicioso esfuerzo por reemplazar el legendario paquete GNU Coreutils con su contraparte escrita en Rust, conocida como uutils coreutils, ha hecho públicos los resultados de una auditoría de seguridad independiente.

Esta auditoria realizada por Zellic, ha sacado a la luz un total de 113 fallos de seguridad que amenazaban la integridad del sistema. La publicación de este informe demuestra que reescribir herramientas críticas en un lenguaje moderno y estructuralmente seguro no elimina mágicamente los errores de lógica humana, especialmente cuando se trata de utilidades fundamentales que operan rutinariamente con altos privilegios administrativos.

Auditoría independiente a uutils coreutils revela 113 fallos de seguridad

El análisis del código se ejecutó en dos fases intensivas para garantizar la máxima cobertura sobre las herramientas del sistema:

La primera ronda de evaluación, llevada a cabo entre diciembre de 2025 y Enero de 2026, se enfocó de lleno en las utilidades de mayor prioridad y riesgo operativo, desenterrando 63 vulnerabilidades. De estas, 7 fueron catalogadas como críticas y 11 como altamente peligrosas.

La segunda fase, culminada en marzo, añadió 40 fallos adicionales al registro de depuración. Aunque Ubuntu había integrado rust-coreutils por defecto en la versión 25.10 para forzar pruebas de estrés en el mundo real, la gravedad de los hallazgos ha obligado a los desarrolladores a tomar una decisión conservadora para su inminente versión LTS. Para garantizar la estabilidad de Ubuntu 26.04 , los comandos de manipulación directa de archivos más delicados, como cp, mv y rm, han sido revertidos a sus equivalentes clásicos de GNU debido a múltiples condiciones de carrera pendientes de corrección, mientras que el equipo proyecta una migración total y segura hacia el código en Rust para la futura versión 26.10.

Fallos críticos en la gestión de permisos y procesos

Las vulnerabilidades catalogadas como críticas en el informe de Zellic exponen fallos lógicos  y sumamente peligrosos que podrían comprometer por completo un servidor. Uno de los casos más alarmantes reside en la utilidad chroot, donde un atacante podría inyectar código malicioso aprovechando el sistema de resolución de nombres del sistema.

Al invocar la opción de especificación de usuario, el código carga las bibliotecas del Name Service Switch (NSS) desde el nuevo directorio root antes de renunciar a los privilegios de administrador, permitiendo la ejecución de binarios arbitrarios si el usuario tiene permisos de escritura en esa ubicación específica.

Igualmente destructivo resulta un fallo de análisis de argumentos en el comando kill, el cual interpreta erróneamente la orden de enviar la señal uno como si se tratara de un identificador de proceso negativo. Esta confusión provoca que la utilidad envíe una señal de terminación absoluta a todos los procesos visibles, desencadenando un colapso total e inmediato del equipo.

Por su parte, la herramienta mkfifo exhibió un comportamiento errático al intentar crear pipelines con nombre sobre archivos ya existentes; en lugar de abortar la operación, el comando altera arbitrariamente los permisos del archivo a una lectura global, exponiendo datos potencialmente sensibles a cualquier usuario de la red.

Evasión de bloqueos y la amenaza de las condiciones de carrera

El manejo de rutas y la protección contra la eliminación accidental del núcleo del sistema también sufrieron reveses importantes durante las pruebas. La barrera de seguridad diseñada para evitar la destrucción del directorio root fue evadida rutinariamente en utilidades como chmod y rm debido a que el código verificaba únicamente la coincidencia de la cadena de texto exacta en lugar de realizar una resolución canónica profunda de la ruta del archivo.

Esto permitía a los atacantes sortear los bloqueos y aplicar cambios recursivos devastadores utilizando simples enlaces simbólicos o retrocesos de directorio. Peor aún, el comando rm permitía el uso de abreviaturas informales y peligrosas para desactivar la protección del directorio root, una permisividad estrictamente prohibida en el rígido ecosistema GNU, abriendo la puerta a borrados masivos accidentales al teclear comandos apresurados o al ejecutar limpiezas silenciosas del directorio actual.

Gran parte de estos conflictos, así como las debilidades críticas detectadas en las herramientas de copiado y movimiento de archivos, pertenecen a la categoría de vulnerabilidades de tiempo de comprobación a tiempo de uso, conocidas técnicamente en la industria como TOCTOU.

Estas peligrosas condiciones de carrera permiten a un programa malicioso o a un atacante veloz sustituir un archivo legítimo por un enlace simbólico en la mínima fracción de segundo que transcurre entre que el sistema verifica los permisos y ejecuta la copia final. Al utilizar utilidades afectadas en rutinas de mantenimiento automatizadas, estas brechas otorgan el poder de sobrescribir información crítica del sistema eludiendo cualquier restricción de seguridad previa.

Finalmente, si estas interesado en poder conocer mas al respecto, puedes consultar los detalles en el siguiente enlace.


LXQt 2.4.0 es oficial: Separación de sesiones X11/Wayland y gestión de energía

LXQT 2.4.0

El desarrollo de entornos de escritorio ligeros sigue demostrando que la eficiencia en el consumo de recursos no tiene por qué sacrificar la modernidad visual ni la productividad, y el lanzamiento oficial de LXQt 2.4.0 es la prueba perfecta de ello. Esta nueva entrega llega despues de seis meses de arduo trabajo y limpieza de código, en la cual el equipo de desarrollo ha entregado una actualización que perfecciona la experiencia del usuario sin alterar las versiones base de las librerías Qt requeridas, garantizando así su compatibilidad continua con las diferentes distribuciones.

LXQt 2.4.0 se enfoca en pulir la usabilidad diaria de sus herramientas base, ofreciendo una integración mucho más madura con el protocolo Wayland, rediseñando elementos críticos de la interfaz multimedia y expandiendo los controles nativos de privacidad y energía del sistema.

Principales novedades de LXQt 2.4.0

La interacción diaria con el sistema recibio diversas mejoras solicitadas por la comunidad. Al momento de interactuar con el gestor de archivos o abrir ventanas de diálogo del sistema, el campo de texto ahora resalta de forma inteligente únicamente el nombre base del archivo al intentar guardarlo, dejando la extensión intacta. Este pequeño gran detalle permite a los usuarios realizar un renombrado rápido y sin fricciones, eliminando la necesidad de reajustar el cursor manualmente.

Ademas de ello, el panel de control de volumen ha sido rediseñado desde cero, abandonando los clásicos controles deslizantes verticales en favor de un diseño horizontal mucho más intuitivo que despliega de un vistazo todos los dispositivos de salida de audio disponibles. Además, ahora es posible ajustar el nivel sonoro del dispositivo predeterminado simplemente utilizando la rueda del ratón o el desplazamiento del panel táctil sobre el icono de la barra de tareas.

Audio LXQT 2.4.0

Otra de las mejoras que se destaca en esta nueva version de LXQt 2.4.0 es en el menú principal, conocido como «Fancy menu», ha ajustado su algoritmo de filtrado para priorizar de forma estricta las cadenas de texto iniciales, garantizando que aplicaciones como Firefox aparezcan instantáneamente como primera opción al teclear sus primeras letras. Por su parte, la herramienta LXQt Runner se ha vuelto mucho más reactiva para cálculos rápidos: la calculadora integrada ya no requiere que el usuario inicie obligatoriamente con el signo de igual, sino que se activa automáticamente al detectar que se ha comenzado a escribir una cifra numérica.

Transición estructurada hacia Wayland y control de monitores

La evolución gráfica da un paso firme en esta versión al separar por completo las configuraciones de sesión entre los tradicionales entornos X11 y Wayland. El panel de ajustes para este último protocolo opera ahora de forma modular y solo se vuelve visible si el paquete específico lxqt-wayland-session se encuentra instalado en el sistema.

lxqt-config-session

Los usuarios que operan bajo Wayland ahora disfrutan de una consistencia visual absoluta al gestionar múltiples monitores, permitiendo aplicar y guardar preferencias independientes para ocultar los elementos e iconos del escritorio en cada pantalla conectada de forma individual, adaptando el espacio de trabajo a las necesidades de cada monitor. Asimismo, la apertura del menú de aplicaciones en estas sesiones se ha solucionado habilitando su apertura mediante un atajo de teclado vinculado a la orden interna lxqt-qdbus openmenu.

Gestión de energía y portales de privacidad

La administración de recursos físicos y las herramientas de productividad para desarrolladores también recibio mejoras en esta entrega. El módulo de control de energía del entorno implementa finalmente tiempos de espera completamente independientes para apagar o suspender la pantalla dependiendo de si el equipo portátil está operando con su batería o si se encuentra conectado a una fuente de alimentación de corriente alterna. Todo esto opera sobre un ecosistema más seguro y estándar gracias a la incorporación de la directiva org.freedesktop.impl.portal.Access dentro del backend nativo de los portales de escritorio, un mecanismo crítico que gestiona dinámicamente las solicitudes de permisos de las aplicaciones para utilizar hardware sensible como el micrófono o la cámara web del usuario.

control de energía LXQT 2.4.0

Finalmente, el equipo ha pulido diversos componentes del sistema y sus herramientas de texto, pues ahora el emulador de terminal QTerminal mejora su motor de búsqueda para resaltar simultáneamente todas las coincidencias en pantalla, corrige molestos errores de lectura que rompían las direcciones URL que contenían paréntesis de cierre, y añade soporte para atajos de teclado que permiten bloquear la ventana en su modo desplegable.

Además, el sistema de notificaciones ahora es lo suficientemente inteligente como para ignorar avisos temporales, como los cambios de canción en el reproductor multimedia, evitando que saturen el historial cuando el modo No Molestar se encuentra activo. Estas mejoras de usuario se sustentan en una mejor lectura técnica de variables de entorno, implementando el soporte nativo para el directorio $XDG_STATE_HOME y corrigiendo la lectura de los archivos ejecutables que contienen la directiva NotShowIn=LXQt.

Finalmente, si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

Descargar y obtener LXQt 2.4.0

Para los interesados en probar LXQt 2.4.0, deben saber que esta nueva versión ya se encuentra disponible en los canales oficiales de las principales distribuciones, además de que también está disponible el código fuente para su compilación.


Fedora 44 llega como referencia del escritorio Linux moderno

Fedora 44

La comunidad de Fedora ha puesto en circulación Fedora 44 como nueva versión estable de su distribución Linux, una edición que mantiene su perfil de plataforma de referencia para tecnologías punteras de escritorio y servidor. Aunque no rompe con todo lo anterior, sí introduce un buen número de ajustes técnicos en gráficos, instalación, redes y virtualización que apuntalan su papel como banco de pruebas para entornos empresariales basados en Red Hat.

Este lanzamiento llega coincidiendo con un periodo especialmente movido en el ecosistema Linux, con nuevas versiones de otras distribuciones consolidadas y un foco creciente en rendimiento, gaming y nube. En el caso de Fedora 44, la apuesta pasa por combinar componentes muy recientes, tanto en el escritorio GNOME como en KDE Plasma,  con cambios menos vistosos pero relevantes en instalador, sistema de archivos y gestión de hardware moderno, una combinación que puede resultar especialmente interesante para usuarios avanzados.

GNOME 50 Tokyo en Fedora Workstation 44

La edición Workstation, centrada en el escritorio moderno, adopta como entorno por defecto GNOME 50, con el nombre en clave «Tokyo». Fedora mantiene su filosofía de ofrecer una experiencia GNOME muy cercana a la original, con pocos añadidos y sin apenas extensiones activadas por defecto, más allá de detalles estéticos como la extensión del logotipo asociada al fondo de pantalla predeterminado.

Entre las novedades de GNOME 50 integradas en Fedora 44 destaca un sistema de control parental más completo, que permite establecer límites de tiempo de uso y aplicar filtros de navegación web, algo que puede resultar útil en equipos domésticos o escolares en entornos donde la supervisión del uso de dispositivos va cobrando peso.

También se han introducido mejoras en el gestor de archivos Nautilus, que ahora utiliza la biblioteca Glycin para la decodificación de imágenes en entornos aislados. Este cambio busca aumentar la estabilidad y la seguridad del explorador, al manejar el procesamiento de imágenes de forma más controlada, algo especialmente relevante cuando se abren ficheros de procedencia desconocida o se trabaja con repositorios compartidos.

Wayland, VRR y color: salto adelante en la parte gráfica con Fedora 44

Fedora 44 refuerza el papel de Wayland como sesión gráfica por defecto, incorporando de manera estable y soportada la tasa de refresco variable (VRR) y el escalado fraccional en las sesiones que utilizan este protocolo. En monitores con altas tasas de refresco o configuraciones multimonitor, la VRR ayuda a suavizar la experiencia visual reduciendo el tearing, algo que muchos usuarios con pantallas gaming o profesionales ven ya como un estándar mínimo.

El escalado fraccional permite ajustar el tamaño de elementos de la interfaz de forma más precisa en pantallas HiDPI, evitando tener que elegir entre iconos demasiado pequeños o demasiado grandes. Estas mejoras se acompañan de correcciones específicas para el controlador oficial de NVIDIA, lo cual suele ser un punto delicado en muchas distribuciones y que aquí se aborda de forma explícita para mejorar la compatibilidad.

En el plano del color, Fedora 44 integra la versión 2 del protocolo de gestión de color de Wayland y un pipeline de color más moderno que permite compartir pantalla manteniendo los metadatos HDR. Este avance resulta clave para creativos, desarrolladores multimedia y usuarios que trabajen con contenidos de alto rango dinámico, evitando que se pierda calidad al grabar o retransmitir la imagen.

Fedora 44 introduce mejoras en escritorio remoto y eficiencia energética

La distribución también da un paso adelante en el ámbito del escritorio remoto. Fedora 44 habilita el uso más amplio de Vulkan y VA-API en sesiones remotas, lo que se traduce en una mejor aceleración por hardware a la hora de transmitir vídeo y gráficos. Esta aproximación reduce el consumo energético y mejora la fluidez, resultando útil para quienes acceden a sus equipos de trabajo de forma remota desde casa o desde otras ubicaciones.

La combinación de estas mejoras con la gestión refinada de los certificados en OpenSSL, donde se han acortado los tiempos de carga, ayuda a que tanto el arranque del sistema como determinadas operaciones de red sean algo más ágiles. Aunque estos cambios pueden pasar desapercibidos para el usuario medio, a la larga se suman a una experiencia general más pulida.

KDE Plasma 6.6 y una experiencia más unificada

La variante con KDE Plasma en Fedora 44 también recibe una atención especial, integrando la versión 6.6 del escritorio. Uno de los focos de esta edición es ofrecer una experiencia más homogénea desde el primer arranque, con un flujo de configuración más claro tanto en el escritorio clásico como en la variante atomizada Kinoite.

Para lograrlo se ha introducido una aplicación de configuración posterior a la instalación, conocida como Plasma Setup, que se encarga de guiar al usuario en los ajustes iniciales. En consecuencia, el instalador Anaconda se ha ajustado para desactivar pasos repetidos que solapaban funciones con esta nueva herramienta, evitando así confusiones y configuraciones duplicadas.

Otro cambio relevante es la adopción de Plasma Login Manager (PLM) como gestor de inicio de sesión en lugar de SDDM. Este movimiento busca mejorar la coherencia visual y funcional desde el arranque del equipo hasta que el usuario llega a su sesión, algo que viene demandando la comunidad desde hace tiempo para hacer que Plasma resulte más uniforme de cara a nuevos usuarios.

Spins y escritorios atómicos: más opciones para cada perfil

Aunque GNOME y KDE Plasma se llevan gran parte del protagonismo, Fedora 44 sigue apostando por una gama amplia de spins y escritorios alternativos. Entre las variantes mutables figuran entornos como Cinnamon, Xfce, MATE, LXDE, LXQt, así como gestores de ventanas más ligeros y orientados a usuarios avanzados, como i3 y Sway.

En paralelo, se mantienen los llamados escritorios atómicos (denominación que sustituye al término «inmutables»), que incluyen propuestas como Sway atómico y Budgie atómico, orientadas a quienes buscan sistemas con base de paquetes más controlada y actualizaciones transaccionales. Silverblue (basado en GNOME) y Kinoite (basado en Plasma) siguen siendo las opciones más visibles en este terreno.

En lo que respecta a arquitecturas, Fedora 44 ofrece soporte para x86 de 64 bits, ARM de 64 bits y PowerPC de 64 bits en modo little-endian. No todas las ediciones y spins se compilan para todas las arquitecturas, pero la distribución mantiene así una presencia relevante en plataformas que se utilizan tanto en escritorios como en centros de datos y dispositivos embebidos.

Cambios en Anaconda e instalación más coherente en Fedora 44

El instalador Anaconda incorpora en Fedora 44 algunos ajustes que, sin ser espectaculares, sí corrigen problemas históricos de coherencia entre la sesión en vivo y el sistema finalmente instalado. A partir de esta versión, solo los dispositivos de almacenamiento configurados durante la instalación pasan a formar parte de la configuración del sistema final.

Este cambio pretende evitar situaciones en las que se arrastraban configuraciones de discos o particiones detectadas en la sesión en vivo pero que no se pretendía utilizar en el sistema definitivo. De esta forma se busca una experiencia más consistente entre lo que el usuario ve durante el proceso de instalación y lo que se encuentra después en el disco duro o SSD una vez finalizado el proceso.

Además, Anaconda modifica su comportamiento a la hora de gestionar perfiles de red, de modo que ahora se crean perfiles exclusivamente para los dispositivos configurados durante la instalación. Esto elimina el desorden de perfiles genéricos que podían acumularse, facilitando a administradores y usuarios avanzados la gestión posterior de interfaces y conexiones.

Virtualización y abandono progresivo del 32 bits en el anfitrión

En el ámbito de la virtualización, Fedora 44 da un paso más en la transición hacia entornos puramente de 64 bits. El proyecto ha decidido eliminar el soporte para x86 de 32 bits en QEMU a nivel de sistema anfitrión. En teoría sigue siendo posible ejecutar sistemas operativos de 32 bits como invitados, pero el entorno de ejecución en el que se apoyan prioriza claramente el modelo de 64 bits.

Esta decisión encaja con la estrategia de la distribución, que desde hace tiempo se orienta a ofrecer una experiencia x86_64 más limpia y alineada con el estado actual del hardware que se vende. Aunque algunos sistemas muy antiguos puedan quedar al margen, la realidad es que la mayoría de equipos domésticos y profesionales actuales funcionan exclusivamente en 64 bits.

Fedora 44 y el gaming: NTSYNC, Games Lab y gráficos recientes

Aunque Fedora no se ha marcado tradicionalmente como distribución centrada en videojuegos, la versión 44 introduce cambios que la hacen más apetecible para este uso. Destaca que el módulo del kernel NTSYNC se habilita por defecto para ciertos paquetes distribuidos como recomendados, en particular Wine y Steam, herramientas clave para ejecutar títulos de Windows en Linux.

Este módulo actúa sobre la sincronización de hilos, algo crucial en muchos juegos modernos, y permite reducir la latencia y mejorar la compatibilidad con aplicaciones diseñadas originalmente para el sistema de Microsoft. En combinación con las versiones recientes del kernel Linux y de la pila gráfica Mesa, Fedora 44 se convierte en una opción bastante competente para jugar, incluso si su mensaje oficial no se centra en el gaming.

La distribución también actualiza su Games Lab, un entorno de pruebas orientado a ofrecer las tecnologías más actuales para ejecutar videojuegos sobre Wayland. El objetivo es mejorar el rendimiento en los escritorios que Fedora proporciona, tanto en monitores convencionales como en configuraciones con altas resoluciones o tasas de refresco elevadas, algo cada vez más habitual entre jugadores.

Componentes base y ecosistema de paquetes actualizados

Como es habitual en cada lanzamiento, Fedora 44 viene acompañada de una amplia renovación de su base de paquetes. Entre los componentes clave se encuentran el kernel Linux 6.19, la pila gráfica Mesa 26.0.5, systemd 259, PipeWire 1.6.4 y fwupd 2.1.2. La política de la distribución hace que varios de estos componentes se sigan actualizando a lo largo del ciclo de vida, pero systemd y GNOME tienden a mantenerse más estáticos, recibiendo sobre todo correcciones y parches de seguridad.

A nivel de escritorio, GNOME se congela en la versión 50, mientras que Plasma 6.6 llegó ya a Fedora 43, lo que deja abierta la puerta a una posible actualización a Plasma 6.7 dentro del propio ciclo de Fedora 44. Esta estrategia permite ofrecer entornos relativamente recientes sin someter al usuario a cambios constantes en la interfaz.

En cuanto a lenguajes y herramientas de desarrollo, Fedora 44 incorpora versiones actualizadas de varias piezas importantes: el compilador GCC 16, LLVM 22, CMake 4.0, Golang 1.26, PHP 8.5, Ruby 4.0, Boost 1.90 y Budgie 10.10, entre otros. Esto convierte a la distribución en una plataforma atractiva para desarrolladores que quieren trabajar con tecnologías de última generación sin tener que recurrir a repositorios externos.

Servidor, bases de datos y nube

En el ámbito de los servidores, Fedora 44 destaca por adoptar de serie MariaDB 11.8 como base de datos por defecto, una versión que trae mejoras de rendimiento y características pensadas para entornos de producción y pruebas avanzadas. Este movimiento es relevante para administradores que utilizan Fedora como sistema de ensayo antes de desplegar soluciones en plataformas empresariales más conservadoras.

La distribución también introduce cambios en la gestión del arranque para sus imágenes de nube: la partición /boot pasa a utilizar Btrfs, alineando así el esquema de almacenamiento con el resto del sistema cuando este ya usaba dicho sistema de archivos. Btrfs ofrece características como snapshots y compresión que pueden resultar ventajosas en entornos virtualizados y de cloud, muy presentes en proveedores y centros de datos que utilizan Fedora como base.

Entre las mejoras menos visibles pero importantes figura el soporte EFI mejorado para sistemas AArch64, con un énfasis particular en equipos con Windows on ARM. Este tipo de portátiles va ganando presencia poco a poco y la compatibilidad reforzada facilita que usuarios avanzados puedan experimentar con Fedora 44 en ese hardware.

Rendimiento general y experiencia en hardware real

Las pruebas realizadas con las imágenes cercanas a la versión final muestran que Fedora 44 se comporta de manera sólida en un abanico amplio de sistemas. La combinación de kernel reciente, Mesa actualizada, PipeWire y fwupd facilita que la distribución reconozca correctamente gran parte del hardware disponible en el mercado, desde equipos de sobremesa hasta portátiles ultraligeros.

Los ajustes en la pila gráfica, la gestión de color y el escritorio remoto, junto con la optimización de carga de certificados en OpenSSL, contribuyen a una experiencia que se percibe algo más fluida que en iteraciones anteriores, aunque los cambios no supongan una revolución. Está previsto que se publiquen pruebas de rendimiento y comparativas adicionales, lo que permitirá medir con más precisión dónde se sitúa Fedora 44 frente a otras distribuciones contemporáneas.

Al mismo tiempo, la presencia de paquetes de desarrollo actualizados y el soporte para múltiples escritorios hacen que Fedora 44 se presente como una opción flexible, adecuada tanto para quienes buscan un entorno de trabajo diario como para usuarios que deseen experimentar con las últimas tecnologías de Linux.

Con este lanzamiento, Fedora 44 consolida su imagen de plataforma innovadora que evoluciona paso a paso, más por acumulación de mejoras técnicas que por cambios drásticos. Entre GNOME 50, Plasma 6.6, las optimizaciones en Wayland, NTSYNC para gaming, la actualización masiva de herramientas de desarrollo y los ajustes en Anaconda, redes y almacenamiento, la distribución ofrece un conjunto bastante completo para quienes valoran un equilibrio entre vanguardia y estabilidad razonable en el ecosistema Linux actual.


Curso de programación en Python con Linux. Parte dos

Visual Studio Code es el entorno integrado de desarrollo más popular para escribir programas en Python


En este post continuamos con la segunda parte de nuestro curso de programación en Python usando Linux. Se trata de un lenguaje de programación multipropósito tanto para su uso por programadores novatos o vibe coders como de profesionales que necesitan construir aplicaciones complejas.

Como explicamos en el artículo anterior, en las distribuciones basadas en Debian, como Ubuntu, la creación de aplicaciones en Python se hace en un entorno virtual, esto tiene las ventaja de que podremos crear nuesros programas con diferentes versiones de Python o de sus bibliotecas. Existen formas, que veremos más adelante, de hacer que la aplicación se ejecute como si fuera una aplicación normal (Pulsando en el icono) sin tener que que activar el entorno virtual).

Curso de programación en Pyhon con Linux

Un poco más sobre los entornos virtuales en Python

Como dijimos más arriba, usar entornos virtuales es una obligación en Debian y derivados aunque también puedes usarlo en otros sistemas operativos para ejecutar diferentes versiones de Python y sus biblotecas.

Cuando creamos el entorno virtual en la carpeta elegida con el comando

python3 -m venv primer_proyecto (Puedes poder el nombre que quieras, este fue el que elegí yo en el artículo anterior)

Se agregaron a nuestra carpeta 3 directorios: dentro de una carpeta que se llama igual que el nombre que le asignamos al entorno virtual. Cabe señalar que yo le asigne a la carpeta contenedora del proyecto y al entorno virtual el mismo nombre por no molestarme en pensar otro. Retrospectivamente no fue una buena idea, pero ya está. Los directorios son:

  • bin: Contiene el intérprete del lenguaje, el gestor de paquetes pip (No vamos a usarlo por el momento) y los scripts necesarios para la activación.
  • lib/lib64: Contiene las bibliotecas (Código con funciones específicas) que utilizaremos en el proyecto e instalamos con pip, dependencias y otros archivos necesarios para la ejecución de los programas.
  • include: Solo se utiliza si se compilan extensiones desde código fuente.
  • pyenv.cfg: Archivo de configuración del entorno.

Cuando activemos el entorno con el comando correspondiente veremos que el promt de la shell cambiará para mostrar primero el nombre del entorno virtual entre paréntesis.  El comando de activación es (No lo uses todavía)

source primer_proyecto/bin/activate

Verifica que la instalación fue correcta con

which python

Lo que te dará una salida del tipo:

home/tu_usuario/primer_proyecto/primer_proyecto/bin/python

Lo mismo para el gestor de paquetes pip

which pip

El resultado debe ser:

home/tu_usuario/primer_proyecto/primer_proyecto/bin/python

Puedes verificar la versión de Python

python --version

Desactivar el entorno

deactivate1

Escribiendo el primer programa

Odio con toda mi alma los tutoriales de programación cuyo primer ejemplo es imprmir ¡Hola Mundo! así que vamos a hacer algo un poco más divertdo. Un juego de 3 en raya o Tatetí como le decimos en Argentina.

  1. Abre Visual Studio Code
  2. En Archivos elige la opción Abrir carpetta
  3. Selecciona la carpeta donde creaste el entorno virtual
  4. En Archivos selecciona Nuevo archivo de texto
  5. Guárdalo como ejemplo1 no es necesario que indiques la extensión
  6. Copia el código de abajo y vuelve a guardar el archivo


Observarás que no estoy pegando el código completo en el blog sino usando un servidor externo.. Esto no es por maldad (Ni por pedagogía) Se trata de que la plataforma que usamos para escribir los artículos es iincompatiblle con una de las características básicas de Python

Indentación

En Python se usan espacios o tabuladores (Nota el uso del coordinante O) para marcar la estructura del código. Esto define los bloques y que va dentro de cada uno. La regla es usar 4 espacios  (O presiones de la tecla Tab por nivel.

Probando el programa

Para ejecutar el programa ve a Terminal ➡ Nueva Terminal en Visual Studio y abre una nueva terminal

Pon en marcha el entorno virtual con

source  primer_proyecto/bin/activate

y a continuación ejecutta el programa con:

python3 ejemplo1.py

Si ejecutaste el programa verás que es realmente muy básico. Cada jugador debe seleccionar la posición donde va su ficha eligiendo un numero del 0 al 8 (Ordenado de izquierda a derecha y de arrba hacia abajo) Lo hice deliberadamente sencillo para explicar algunos concetos relacionados con Python

Programación Orientada a Objetos

Juego de 3 en raya escrito en Python

Este muy básico juego de 3 en raya ilustra el paradigma de la Programación Orientada a Objetos que se usa en Python

El apartado que sigue es un poco denso pero tanto que escribas tus propias aplicaciones como que hagas vibe coding es necesario para entender cómo crear una aplicación en Python de manera correcta. Trataré de hacerlo más claro con ejemplos.

Python está pensado para un paradigma de programación comocido como Programación Orientada a Objetos. En este paradigma el diseño del código se hace en torno a objetos. Los objetos son  campos de datos con atributos y comportamientos únicos.

Los componentes de la programación orientada a objetos son:

  • Clases:  Son tipos de datos definidos por el usuario. Se usan como modelo para métodos, objetos y atributos individuales. La primera vez que se usan solo se define su descripción.
  • Objetos: Son instancias de una clase que se crean con datos específicos.  Pueden corresponder a objetos de existencia real o abstractos.
  • Métodos:  Determinan las funciones que realizarán los objetos. Definidos dentro de cada clase describen el comportamiento de los objetos.
  • Atributos: Son las características que distinguen a una clase y representan el estado de los objetos.

Los principios de la programación orientada a objetos son:

  • Encapsulado: Toda la información se guarda dentro de un objeto y solo se hace disponible una parte. Cada clase definida guarda la implementación y el estado de cada clase y objeto.  Los otros objetos solo tendran acceso a las funciones y  métodos públicos.
  • Abstracción: Los objetos solo revelan los mecanismos internos que son relevantes para otros objetos.
  • Herencia: Las clases pueden reutilizar código de otras clase.
  • Polimorfismo: Los objetos pueden tener diferentes comportamientos según las necesidades del programa.

A ver si puedo hacerlo más comprensible. Supongamos que queremos hacer un catálogo de sistemas operativos La información que contiene ese catálogo incluye estos parámetros:

  • Desarrollador
  • Año de lanzamiento.
  • Soporte.
  • Peso
  • Derivado de:
  • Arquitectura:

Los objetos serían por ejempo: Ubuntu, WIndows 10 FreeBSD 9. Cada uno de ellos tienen diferentes características que se almacenarán de acuerdo al modelo  que se especifica más arriba  y la información recopilada se mostrará a otras partes del programa según se necesiten.

En el próximo artículo veremos más ejemplos sobre cómo se utiliza la Programación Orientada a Objetos en Python.

relacionado url=»https://ubunlog.com/curso-de-programacion-en-python-con-linux-1/»]


Valve anuncia precio y disponibilidad del Steam Controller

Steam Controller

Ya lo avisábamos durante el fin de semana. Todo indicaba que Valve estaba cerca de anunciar el lanzamiento del Steam Controller, e incluso se había hablado de su precio. Comentarios, filtraciones, rumores… y ya es oficial. El mando de Steam ya aparece con precio y fecha de lanzamiento, para lo que han tenido que actualizar su página en la tienda de videojuegos y añadir la nueva información.

Lo que más nos interesa es su precio y disponibilidad. Se comentó que iba a valer 99$, y algún ingenuo, como un servidor, había fantaseado con la conversión real, lo que dejaría el mando en 85€. Al final han hecho la conversión dólar-euro y su precio terminará siendo de 99€. Y para comprarlo sólo falta una semana.

Steam Controller disponible el 4 de mayo

El Steam Controller estará disponible el 4 de mayo en el mismo momento en todo el mundo. En EEUU será a las 10:00 AM PST, lo que coincide con las 19:00 en España península.

¿Y por qué es tan «caro»? En realidad es caro sólo si lo comparamos con un 8BitDo o controladores de consolas de generaciones pasadas como un DualShock 3 o 4. También es más caro que el DualSense, pero es que el Steam Controller juega en otra liga.

Para empezar, la tecnología de los botones, sticks, gatillos y demás es más moderna, pero eso por sí solo no debería aumentar el precio. Lo que sí hace que suba algo más es que tiene más botones y entradas, lo que le hacen ser algo Premium o Pro. Tiene dos paneles táctiles, que sirven para el modo escritorio o para usarlos en juegos que los puedan necesitar, y también 4 botones extra en la parte trasera que pueden venir bien para macros y otras acciones. No os miento cuando os digo que en estos días he echado de menos más botones en mi 8BitDo para jugar con mando al XCOM.

Otro punto a destacar es Puck, que es un conector magnético que sirve para cargar el mando y también como emisor inalámbrico. Y es que los mandos Bluetooth están muy bien, pero los que se conectan por radio ofrecen menor latencia. Por supuesto, si alguien prefiere o necesita Bluetooth, el Steam Controller es compatible.

Mando Premium o Pro

Por último y no por ello menos importante, tiene giroscpio, con lo que se podrán controlar los juegos compatibles girando el mando. No sé si el DiRT Rally es compatible, pero es lo primero que me ha venido a la cabeza, que no soy capaz de conducir en condiciones con los sticks.

Todo esto y más que vemos en su página oficial explican su precio. No es barato y diría que no merece la pena para el usuario medio (mi 8BitDo Ultimate 2C Wireless vale alrededor de 30€ y funciona perfecto), pero sí lo merece para los que busquen una experiencia Pro o sencillamente tener un mando que valga para todos los juegos del mercado. Y si os parece caro, mirad lo que vale este de Xbox.

En cualquier caso, se ha confirmado el precio del Steam Controller y cuándo saldrá: el 4 de mayo y por 99€.


Ubuntu refuerza su apuesta por la IA con integración local

Ubuntu y la IA

La combinación de Ubuntu e inteligencia artificial está dejando de ser una promesa difusa para convertirse en una estrategia clara por parte de Canonical. La compañía ha detallado cómo piensa integrar modelos y agentes en el sistema operativo, al tiempo que lanza una nueva versión de soporte extendido pensada para cargas de trabajo de IA, desde estaciones de trabajo hasta centros de datos y entornos industriales.

Frente a otros sistemas que han optado por convertir la IA en reclamo comercial omnipresente, Canonical insiste en un enfoque más prudente: integrar la IA donde aporte valor real, mantener el máximo control en local y preservar los principios del software libre. La hoja de ruta pasa tanto por añadir capacidades inteligentes al propio escritorio Linux como por ofrecer una base sólida para empresas europeas que manejan datos sensibles y necesitan garantías de seguridad y cumplimiento.

Una hoja de ruta para la IA en Ubuntu: funciones implícitas y explícitas

Canonical ha explicado que la incorporación de IA en Ubuntu se organizará en dos grandes categorías. Por un lado, estarán las funciones implícitas, es decir, mejoras en características ya presentes en el sistema operativo que pasarán a aprovechar modelos de lenguaje en segundo plano. Por otro, llegarán funciones explícitas, más visibles para el usuario, basadas en agentes y flujos de trabajo automatizados.

Dentro de las capacidades implícitas, uno de los focos está en las herramientas de accesibilidad. Canonical quiere apoyarse en modelos locales para ofrecer reconocimiento de voz más preciso, síntesis de voz más natural y conversiones texto-voz y voz-texto mejor integradas en el escritorio. La clave es que todo esto suceda sin obligar al usuario a cambiar su manera de trabajar ni a depender de servicios remotos.

En el bloque de funciones explícitas, la compañía se plantea flujos agénticos para tareas complejas como diagnosticar problemas del sistema, automatizar procesos recurrentes o ayudar en la generación de documentación técnica. Estos agentes operarían dentro de los mismos límites de seguridad y permisos que el resto del sistema, de modo que la automatización no suponga una puerta de entrada adicional a riesgos.

Inference Snaps y apuesta por la inferencia local

Uno de los pilares técnicos del plan de Canonical son los Inference Snaps, paquetes preparados para distribuir modelos de IA optimizados según el hardware de cada equipo. La idea es que el usuario pueda instalar modelos con un solo comando, sin tener que lidiar con múltiples repositorios, entornos de ejecución complejos o una maraña de dependencias.

Estos paquetes se benefician del mismo esquema de confinamiento que el resto de snaps en Ubuntu, lo que limita el acceso a datos y recursos del sistema. Canonical defiende que este enfoque permite reducir la superficie de ataque y, al mismo tiempo, mantener un control fino sobre qué puede hacer cada modelo de IA instalado.

La prioridad por la inferencia en local persigue varios objetivos: mejorar la privacidad, evitar el envío continuo de datos a la nube, reducir la latencia en tareas críticas y rebajar la dependencia de servicios externos. Para usuarios europeos y organizaciones sometidas a regulación, este enfoque encaja con la creciente atención a la residencia de datos y a los principios del AI Act y otras normativas en preparación.

Transparencia en licencias y debate sobre el «código abierto» en IA

Canonical reconoce que el concepto de código abierto aplicado a modelos de lenguaje es más complejo que en el software tradicional. No basta con poder descargar pesos y código; es necesario analizar con lupa los términos de uso, las restricciones de explotación comercial y las cláusulas sobre redistribución o entrenamiento adicional.

Por ese motivo, la empresa se ha comprometido a evaluar cada licencia de modelo antes de incorporarla a su ecosistema, con el objetivo declarado de que las herramientas distribuidas a través de Ubuntu respeten los valores de apertura y colaboración que han marcado la trayectoria de la distribución. Esto resulta especialmente relevante para universidades, administraciones públicas y empresas europeas que apuestan por infraestructuras abiertas.

Reducir la fragmentación de Linux con ayuda de la IA

Canonical ve en la IA una oportunidad para abordar una de las grandes quejas históricas en el mundo Linux: la fragmentación y la dificultad para encontrar respuestas claras a problemas concretos. La compañía plantea que los modelos de lenguaje integrados en el sistema puedan guiar al usuario a través de configuraciones complejas sin obligarle a bucear en decenas de foros, tutoriales dispersos o documentación desactualizada.

Esta visión no se limita al usuario doméstico o de escritorio. En el ámbito profesional, la empresa imagina agentes que ayuden a interpretar logs, correlacionar eventos durante un incidente o sugerir pasos de mitigación ante fallos en servidores Ubuntu. Se trataría de asistentes técnicos especializados en la propia distribución, capaces de trabajar bajo los controles de acceso ya existentes.

Según Canonical, delegar parte de la carga de trabajo en este tipo de agentes no tiene por qué ser menos seguro, siempre que se mantenga una gestión estricta de permisos y se respete la separación entre procesos y datos sensibles. En Europa, donde las auditorías y la trazabilidad de cambios en sistemas críticos son cada vez más exigentes, este tipo de automatización supervisada podría convertirse en un argumento de peso para la adopción de Ubuntu en sectores regulados.

Alianzas con fabricantes de chips y nube

La estrategia de Ubuntu e IA no se limita al sistema operativo. Canonical está tejiendo acuerdos con fabricantes de silicio y proveedores de nube para extender el alcance de su plataforma. Entre ellos figura la colaboración con MediaTek para ofrecer acceso temprano a Ubuntu optimizado para las plataformas IoT Genio 520 y 720, pensadas para IA en el borde.

Esta orientación hacia el edge computing con capacidades de IA local complementa la presencia consolidada de Ubuntu en centros de datos y nubes públicas como AWS, Azure, Google Cloud, IBM Cloud u Oracle Cloud, donde ya están disponibles imágenes optimizadas de la nueva LTS.

Al poner el énfasis en una base coherente que se extiende desde el dispositivo embebido hasta el cloud, Canonical intenta posicionar Ubuntu como una opción única para proyectos que requieren consistencia de entorno a lo largo de toda la cadena, algo que puede simplificar el cumplimiento y la auditoría en organizaciones distribuidas por distintos países europeos.

Canonical está redefiniendo el papel de la distribución en un contexto donde la infraestructura para inteligencia artificial se ha convertido en terreno de competencia directa entre sistemas operativos, fabricantes de chips y grandes proveedores de nube; el resultado es un Ubuntu más preparado para modelos y agentes, con un equilibrio entre innovación, seguridad y control local que encaja con las necesidades de empresas y usuarios en España y en el resto de Europa.


Cosas que hacer tras instalar Ubuntu 26.04 LTS Resolute Raccoon

Cosas que hacer tras instalar Ubuntu 26.04

El pasado jueves 23 de abril, Canonical lanzó Ubuntu 26.04 LTS, de nombre en clave Resolute Raccoon. Las novedades más destacadas se las quedan GNOME 50 y Linux 7.0, pero también hay retoques repartidos por todo el sistema a los que merece la pena prestarles atención. Siempre que lanzan una nueva versión escribimos sobre cosas que hacer tras instalar el sistema operativo, y aquí va el artículo de esta vez.

Muchos de los consejos que damos son similares o exactamente igual que en lanzamientos pasados, pero hay otros que no se parecerán tanto. En cualquier caso, vamos con nuestras recomendaciones.

Actualizar el software en Ubuntu 26.04

Actualizar los paquetes

A pocos días de un lanzamiento estable no hay mucho que actualizar, pero merece la pena hacerlo. Y la mejor manera es usando el comando:

sudo apt update && sudo apt upgrade

Tras darle a intro y poner la contraseña, nos mostrará todo lo que hay pendiente. Aplicamos lo que nos ofrezca y ya lo tendríamos.

Eliminar lo que no necesitemos

Todo software que no necesitemos es bloatware para nosotros. Yo no recomiendo eliminar aquello que desconozcamos, pero sí aquellos paquetes que conozcamos y sepamos que no vamos a usar jamás.

Ubuntu 26.04 actualizó su Centro de Software, y ahora permite desinstalar paquetes DEB. Una buena manera es eliminar lo que no necesitemos desde la tienda oficial.

Instalar lo que sí vayamos a usar

Una opción es no instalar nada hasta que vayamos a usarlo, pero si recordamos varios programas que sí vayamos a necesitar, podemos instalarlos directamente.

Se puede hacer desde el Centro de Software, pero también desde el terminal (sudo apt install paquete1 paquete2 paquete3). Yo recomiendo más la segunda opción porque prefiero evitar a toda costa los snaps, y si lo hacemos desde la tienda oficial puede «colarnos» algún snap.

Si algo no está en los repositorios oficiales, podemos buscarlo por Internet. Por ejemplo, si queremos instalar VSCode, vamos a su página oficial, descargamos el .deb y lo instalamos. En esta guía tenéis toda la información necesaria para aprender a gestionar paquetes DEB, y también se explica que muchos de ellos añaden un repositorio para actualizar a versiones futuras del programa.

Instalar controladores adicionales en Ubuntu 26.04

Esto es un cambio importante en Ubuntu 26.04. Hasta 25.10, estos controladores adicionales aparecían en «Programas y actualizaciones», pero esta app ya no está disponible. Se supone, o por lo menos se comentó, que los drivers de terceros los tiene que gestionar automaticamente el sistema operativo, pero no es algo que esté claro.

La manera de hacerlo es desde el terminal:

  1. Se escribe lo siguiente para ver los drivers disponibles:
ubuntu-drivers devices
  1. Ahora escribimos esto otro para instalarlos:
ubuntu-drivers install driver-a-instalar

Con esto, el controlador quedaría instalado.

Esto es algo que suelo recomendar, pero sólo si vemos algo en el sistema que no funcione bien. Si el sistema se comporta como debe, mejor dejar los drivers que vienen por defecto.

Instalar GNOME Software y añadir soporte para paquetes flatpak a Ubuntu 26.04

El centro de aplicaciones de Canonical no me gusta nada, y no lo tocaría jamás. Yo recomiendo usar GNOME Software, la propuesta de GNOME que además soporta todo tipo de paquetes sin restricciones. Para instalarla, basta con abrir un terminal y escribir:

sudo apt install gnome-software

Para añadir soporte para paquetes flatpak tenemos un artículo relacionado. Es un poco antiguo, pero la manera de hacerlo no ha cambiado desde entonces. De hecho, cambió justamente porque cambiaron la tienda de software que viene tras la instalación de cero.

Acostúmbrate a Resources y Showtime

Resources es el nuevo monitor del sistema, y Showtime el reproductor de vídeo. Son aplicaciones más modernas que lo que había hasta ahora, y ese ha sido el principal motivo del cambio. Si alguien echa de menos el reproductor anterior, se puede instalar el paquete totem.

Elimina la muestra de asteriscos o déjalo como está

Ubuntu 26.04 muestra asteriscos al introducir la contraseña en sudo. Para mí es un cambio sin demasiada importancia, y yo lo dejaría. Pero si alguien prefiere el comportamiento anterior, debe editar el archivo /etc/sudoers (con sudo visudo) y añadir Defaults !pwfeedback en algún punto del documento.

sudo visudo

Activa el soporte para AppImage

Estamos en 2026, tenemos entre manos una nueva versión LTS… y Ubuntu sigue sin soportar AppImages por defecto. Recomiendo activarlo como se explica en el siguiente articulo relacionado.

Personaliza tu Ubuntu 26.04

Aunque a mí no me gusta tocar demasiado las cosas por defecto, siempre es importante trabajar cómodo con lo que tenemos delante. Ubuntu no es tan personalizable como Kubuntu, pero sí permite realizar ciertos ajustes desde Configuración. Por ejemplo, desde «Escritorio de Ubuntu» podemos indicar que el panel pase a estar abajo o a la derecha y también convertirlo en un dock, que hace que no vaya de parte a parte.

Otros cambios que pueden interesar:

Disfruta de tu Resolute Raccoon

El último consejo es que disfrutéis de vuestro flamante Resolute Raccoon, ya sea para el ocio o para trabajar.


La ISO de CachyOS de abril de 2026 llega nueva app con GUI para la gestión de paquetes y otras mejoras

CachyOS con Shelly

La nueva imagen ISO de CachyOS ya está disponible y llega como una actualización mensual de esta distribución basada en Arch Linux que se centra en rendimiento y facilidad de uso. Esta versión renovada mantiene la filosofía de ofrecer un sistema rápido y adaptable, pero incorpora una serie de retoques que afectan a la gestión del hardware, la privacidad y la experiencia de instalación.

En el entorno europeo, donde la privacidad en Internet y el soporte para hardware reciente son preocupaciones habituales, este lanzamiento resulta especialmente interesante. CachyOS combina ajustes pensados para exprimir al máximo equipos de escritorio y portátiles con gráficos limitados, junto con nuevas opciones para reforzar la seguridad en la navegación y el manejo de paquetes.

Nuevo gestor de paquetes gráfico: Shelly sustituye a Octopi

Uno de los cambios más visibles es que Shelly se convierte en el gestor de paquetes gráfico por defecto, tomando el relevo de Octopi. Shelly se presenta como una reinterpretación moderna del gestor de paquetes de Arch Linux, pero con una interfaz más actual y enfocada en simplificar tareas como la instalación, actualización y eliminación de software.

Esta apuesta por Shelly busca ofrecer una experiencia más intuitiva para quienes prefieren herramientas gráficas frente a la terminal, algo especialmente útil para usuarios que se inician en entornos tipo Arch. Desde la propia aplicación se pueden consultar detalles de los paquetes, gestionar dependencias y revisar cambios sin necesidad de recurrir a comandos complejos.

Al integrarse como opción predeterminada, CachyOS facilita que tanto usuarios domésticos en España como administradores de sistemas en Europa puedan mantener sus equipos al día sin tener que instalar herramientas adicionales de gestión de software.

Mejoras en privacidad: soporte para DNS-over-HTTPS

Otra novedad destacada es la incorporación de DNS-over-HTTPS (DoH) como opción soportada de serie. Esta tecnología cifra las consultas DNS, evitando que se transmitan en texto plano y reduciendo la posibilidad de que terceros puedan espiar o manipular las peticiones de nombres de dominio.

En un contexto europeo donde las normativas de protección de datos y la preocupación por la vigilancia digital están muy presentes, el soporte de DNS-over-HTTPS en CachyOS  ofrece una capa adicional de privacidad para la navegación. Los usuarios pueden beneficiarse de esta característica para limitar el rastreo a nivel de red, algo interesante tanto en conexiones domésticas como en redes públicas.

Este enfoque encaja con la tendencia general del ecosistema Linux en Europa, donde cada vez más distribuciones integran mecanismos de cifrado y protección de tráfico sin depender de configuraciones manuales complicadas por parte del usuario.

CachyOS mejora la gestión de vRAM aprovechando optimizaciones de Valve

CachyOS introduce un nuevo ajuste de gestión de vRAM inspirado en el trabajo de Valve para optimizar Linux en escenarios con memoria de vídeo limitada. Este conmutador de gestión de vRAM busca mejorar el comportamiento del sistema cuando se utilizan tarjetas gráficas con pocos recursos, algo habitual en portátiles o equipos más antiguos.

La distribución aprovecha específicamente optimizaciones que en origen se aplicaron al escritorio KDE, con el objetivo de ofrecer una experiencia más fluida en sistemas con recursos ajustados. Esto puede traducirse en menos tirones gráficos, mejor aprovechamiento de la GPU y una respuesta más estable al utilizar aplicaciones pesadas o juegos ligeros en máquinas modestas.

Para los usuarios de España y otros países europeos que alargan la vida útil de sus dispositivos, esta mejora puede marcar la diferencia a la hora de seguir utilizando equipos con tarjetas gráficas integradas o dedicadas de gama baja sin renunciar a un entorno de escritorio moderno.

Cambio del planificador de E/S NVMe a Kyber para mayor respuesta

Entre los ajustes internos más técnicos destaca el cambio del planificador de entrada/salida para unidades NVMe. CachyOS modifica la configuración por defecto y pasa de usar «none» a emplear el planificador Kyber, una decisión orientada a mejorar la capacidad de respuesta del sistema.

Kyber está diseñado para gestionar mejor las colas de operaciones de lectura y escritura, lo que se traduce en un comportamiento más ágil cuando se realizan múltiples tareas a la vez. En entornos de escritorio donde se combinan navegación, edición de documentos, reproducción multimedia y actualizaciones en segundo plano, este cambio puede contribuir a una sensación de mayor fluidez general.

Usuarios que ejecutan CachyOS en equipos con unidades NVMe modernas, muy habituales ya en el mercado europeo, podrán notar tiempos de carga más consistentes y menos bloqueos puntuales en situaciones de alta carga de trabajo sobre el disco.

Ajustes en CachyOS Settings y mejoras en el instalador

La herramienta propia de configuración, CachyOS Settings, también recibe cambios relevantes en esta edición. Además de reflejar el nuevo planificador Kyber como valor por defecto para NVMe, centraliza parte de los ajustes que ayudan a personalizar el comportamiento del sistema sin tener que editar archivos manualmente.

En paralelo, este ISO de abril incorpora mejoras en el instalador y diversas correcciones orientadas a pulir la experiencia de instalación inicial. Estos cambios pueden incluir desde una detección más fiable de hardware hasta pequeños ajustes en los pasos del asistente, con el objetivo de reducir errores y facilitar la configuración en el primer arranque.

Para quienes despliegan CachyOS en varios equipos dentro de una misma oficina o hogar, un instalador más maduro implica menos incidencias y un proceso más rápido, algo que siempre se agradece cuando se está preparando un nuevo entorno de trabajo o de uso personal.

Instantánea mensual con refinamientos y soporte de hardware actualizado

Este lanzamiento de CachyOS se presenta como una instantánea mensual (snapshot) de la distribución, que agrupa las últimas mejoras, correcciones y actualizaciones de paquetes en una imagen ISO lista para instalar. El objetivo es ofrecer un punto de partida lo más actualizado posible para nuevas instalaciones, reduciendo así el número de actualizaciones tras el primer arranque.

Además de los cambios más visibles, la ISO incluye ajustes menores y pulidos generales que, aunque no siempre aparezcan destacados, ayudan a reforzar la estabilidad y compatibilidad con hardware reciente. Esto resulta clave en un ecosistema tan variado como el europeo, donde conviven equipos muy nuevos con otros que ya tienen varios años a sus espaldas.

Quienes quieran probar este lanzamiento pueden acudir al sitio oficial de la distribución, CachyOS.org, donde se ofrece la descarga de la nueva imagen ISO y documentación adicional sobre las características específicas de esta edición, así como instrucciones para instalación y soporte.

CachyOS se consolida como una actualización que prioriza la combinación de buen rendimiento, mayor privacidad y un uso más cómodo del sistema gracias a cambios como la adopción de Shelly, el soporte de DNS-over-HTTPS, la nueva gestión de vRAM basada en el trabajo de Valve y el paso al planificador Kyber en NVMe, todo ello acompañado de mejoras en el instalador y pequeños arreglos que redondean una propuesta pensada para el día a día de los usuarios en España y el resto de Europa.


Linux 7.1-rc1 llega con importantes cambios en el kernel

Linux 7.1-rc1

El desarrollo del kernel de Linux continúa a muy buen ritmo y la comunidad ya tiene entre manos Linux 7.1-rc1, la primera versión candidata de la nueva rama. Tras el lanzamiento reciente de Linux 7.0 estable, el proyecto no se ha tomado prácticamente descanso y ha cerrado la llamada merge window, el periodo en el que se integran novedades y cambios de gran calado antes de centrarse en las pruebas.

Con el cierre de esta ventana de integración, el foco pasa ahora a testear de forma intensiva las nuevas funciones y detectar posibles fallos. Se espera que, salvo contratiempos importantes, Linux 7.1 llegue como versión estable hacia mediados de junio, lo que dará margen a distribuciones como Debian, Ubuntu, openSUSE o Fedora para empezar a planificar su inclusión en futuras versiones.

Qué supone la llegada de Linux 7.1-rc1

La publicación de Linux 7.1-rc1 marca el punto en el que dejan de aceptarse nuevas características y se entra en fase de estabilización. Según ha explicado Linus Torvalds, el código que ha entrado durante la merge window ya está congelado y, a partir de ahora, las siguientes candidatas (rc2, rc3, etc.) se dedicarán a corregir errores, pulir detalles y validar que no haya regresiones importantes en rendimiento o compatibilidad.

En esta etapa es habitual que se sucedan aproximadamente siete rondas de versiones candidatas, durante las que desarrolladores, administradores de sistemas y usuarios avanzados prueban el nuevo kernel en distintos entornos. El objetivo es localizar fallos, reportarlos a las listas de correo del kernel y comprobar que las soluciones propuestas no introduzcan problemas nuevos, algo especialmente relevante en servidores y sistemas de producción, donde la estabilidad suele estar por encima de todo.

Reescritura del driver NTFS y mejoras para entornos dual‑boot

Uno de los cambios más destacados de Linux 7.1 es la reescritura completa del driver NTFS en el kernel, fruto de varios años de trabajo. Este nuevo controlador aspira a convertirse en la opción de referencia para acceder a particiones NTFS desde Linux, sustituyendo soluciones anteriores que, aunque funcionales, eran más limitadas en rendimiento y características.

Para quienes utilizan equipos con arranque dual entre Windows y Linux, esta mejora puede marcar una diferencia notable. El nuevo código promete transferencias de datos más rápidas y una gestión más segura del sistema de archivos NTFS, reduciendo riesgos de corrupción en discos compartidos entre ambos sistemas. En el contexto donde muchas pymes y profesionales combinan Windows para ciertas aplicaciones de negocio con Linux en servidores o estaciones de trabajo, este avance facilita un flujo de trabajo más fluido sin tener que recurrir a herramientas externas.

Además del aumento de velocidad, se espera una mejor integración con las últimas versiones de NTFS utilizadas por Windows, lo que ayudará a que administradores de sistemas y equipos de soporte técnico tengan menos incidencias relacionadas con permisos, consistencia de datos o problemas de montaje de particiones en entornos mixtos.

Nuevas arquitecturas, SoC y soporte de hardware

Linux 7.1 incorpora también un bloque relevante de soporte para nuevo hardware y plataformas System-on-Chip (SoC). En esta versión se añaden 12 nuevos SoC, lo que amplía aún más el abanico de dispositivos compatibles con el kernel, desde placas embebidas hasta equipos orientados a consumo y a usos industriales.

Entre las novedades de hardware destacan nuevos drivers específicos para dispositivos de Lenovo, como los controladores para la consola portátil Legion Go y un nuevo controlador de ventilador para determinados modelos de la gama Yoga. Este tipo de mejoras suele agradecerse especialmente en el mercado, donde la adopción de portátiles de marca reconocida es masiva y los usuarios valoran una buena gestión de energía, ruido y temperaturas bajo Linux.

El kernel también suma compatibilidad con diverso hardware de audio y periféricos adicionales, buscando que auriculares, tarjetas de sonido, docks y otros accesorios funcionen correctamente sin necesidad de configuraciones complejas. Para distribuidores y revendedores de hardware, contar con un kernel que reconoce más componentes de serie reduce costes de soporte y facilita ofrecer equipos con Linux preinstalado.

Mejoras en seguridad y optimizaciones de rendimiento

En el terreno de la seguridad, Linux 7.1 introduce progresos en funciones como Intel Linear Address Space Separation (LASS), una tecnología orientada a segmentar el espacio de direcciones de forma más estricta y reducir superficies de ataque relacionadas con ciertos tipos de exploits. En esta release se considera que el soporte LASS está en buena forma, lo que abre la puerta a que, en próximos ciclos, más distribuciones lo activen o lo integren mejor en sus configuraciones por defecto.

Junto a ello, el kernel llega con múltiples optimizaciones de rendimiento repartidas en diferentes subsistemas: desde el almacenamiento y la red hasta la gestión de memoria y los controladores gráficos. Estas mejoras no siempre se traducen en incrementos espectaculares en benchmarks sintéticos, pero sí pueden aportar una sensación de sistema más ágil o una reducción ligera en el consumo de CPU bajo ciertas cargas habituales en servidores y estaciones de trabajo.

En lo referente a aceleración y compresión, destaca también el soporte de Intel QAT (QuickAssist Technology) para Zstd, pensado para descargar tareas de compresión y descompresión en hardware especializado. Esto puede tener interés especial en centros de datos, proveedores de servicios cloud o empresas que manejan grandes volúmenes de datos en países como Alemania, Francia o España, donde la eficiencia energética y el coste de infraestructura son factores clave.

Avances para arquitecturas AMD Zen y otros procesadores

El nuevo kernel sigue profundizando en la habilitación y optimización de la arquitectura AMD Zen 6, lo que prepara el terreno para futuras generaciones de procesadores de la compañía. Aunque muchas de estas funciones no se verán reflejadas de inmediato en el mercado, sientan las bases para que, cuando nuevos chips lleguen a equipos de sobremesa, portátiles o servidores, ya cuenten con un soporte de kernel sólido desde el primer día.

Paralelamente, siguen afinándose controladores y ajustes para plataformas basadas en procesadores AMD EPYC y otras gamas de alto rendimiento. Las primeras pruebas de rendimiento realizadas con el estado de Git de Linux 7.1, comparado con Linux 7.0 estable, apuntan a diversas mejoras en determinadas cargas de trabajo, aunque también se han detectado posibles regresiones que deberán pulirse en las siguientes release candidates.

Depuración del código: hardware antiguo que se queda atrás

Linux 7.1 no solo añade código; también elimina una cantidad significativa de controladores y soporte para hardware veterano. Entre los cambios más llamativos está el inicio de la retirada paulatina del soporte para CPUs Intel i486, una arquitectura con casi cuatro décadas a sus espaldas que, aunque todavía puede encontrarse en sistemas muy específicos, hace tiempo que dejó de ser relevante para la mayoría de usuarios.

Dentro de esta limpieza también se incluye la eliminación de determinados drivers de red muy antiguos, así como el abandono del soporte para algunos SoC que apenas tuvieron recorrido y la supresión de controladores PCMCIA obsoletos. El objetivo es reducir la carga de mantenimiento sobre los desarrolladores del kernel y minimizar riesgos de seguridad asociados a código muy viejo y poco probado en la actualidad.

A pesar de estas podas, la base de código del kernel sigue creciendo y se sitúa ya por debajo de los 40 millones de líneas, pero muy cerca de esa cifra. Esta magnitud ilustra tanto la complejidad del proyecto como la diversidad de dispositivos que cubre, desde pequeños equipos embebidos hasta grandes servidores que dan servicio a millones de usuarios.

Pruebas de rendimiento y primeras impresiones

Con la merge window prácticamente cerrada, distintos laboratorios y medios especializados han empezado a probar el estado actual de Linux 7.1 en escenarios reales. En algunos entornos con servidores basados en procesadores AMD EPYC de nueva generación, las primeras tandas de benchmarks apuntan a una tendencia positiva en rendimiento frente a Linux 7.0, aunque estas conclusiones son todavía preliminares y se limitan a configuraciones concretas.

Estas pruebas comparativas suelen realizarse sobre distribuciones orientadas a servidores, como Ubuntu Server o similares, usando hardware moderno con grandes cantidades de memoria DDR5 y almacenamiento NVMe de última generación. Para administradores de sistemas, estos datos servirán para valorar cuándo dar el salto a Linux 7.1 en entornos de producción, una vez que la versión estable esté disponible y las distribuciones la integren con sus propios parches y ajustes.

En paralelo, proyectos como Phoronix han iniciado ya la batería de tests de Linux 7.1-rc1, y durante los próximos días y semanas se irán conociendo más detalles sobre mejoras específicas en gráficos, entrada/salida y rendimiento bajo diferentes cargas de trabajo, lo cual será clave para empresas que dependen de Linux para servicios críticos.

Participación de la comunidad y acceso al código

Como es habitual, el código fuente de Linux 7.1-rc1 está disponible en el repositorio Git oficial de Linus Torvalds, desde donde cualquier usuario avanzado o desarrollador puede descargarlo, compilarlo y probarlo en su propia máquina. La invitación de Torvalds es clara: esta fase de desarrollo necesita que quienes se sientan cómodos compilando kernels se animen a usar la rc1 y reporten problemas lo antes posible.

Este ciclo de pruebas abierto es especialmente relevante, donde muchas administraciones públicas, universidades y empresas tecnológicas apuestan por Linux en sus infraestructuras. Cuanto mayor sea el número de escenarios y configuraciones probadas, más fácil será detectar fallos que podrían pasar desapercibidos en un conjunto de hardware más limitado.

Linus Torvalds ya ha difundido su mensaje habitual de lanzamiento en las listas de correo del kernel, aunque la comunicación se ha visto ligeramente retrasada en comparación con otras ocasiones por pequeños problemas de correo electrónico, algo que ya ha ocurrido en el pasado. En cualquier caso, la rc1 está disponible y la maquinaria de pruebas de la comunidad se ha puesto en marcha.

Con la publicación de Linux 7.1-rc1, el proyecto entra en una fase en la que se combinan nuevas funciones de gran calado —como la reescritura del driver NTFS, el soporte ampliado para SoC y la mejora de la seguridad con tecnologías como LASS— con una necesaria limpieza de código antiguo, entre la que destaca el inicio del adiós a CPUs como la Intel i486 y a viejos controladores de red y PCMCIA, de modo que, si el calendario se cumple, las distribuciones podrán contar en unas semanas con un kernel más moderno, refinado y mejor adaptado tanto a hardware de última generación como a las necesidades reales de servidores, equipos de escritorio y portátiles en el mercado actual.


Se filtra, supuestamente, el precio del Steam Controller, y no te dejará indiferente

Steam Controller

A finales de 2025, Valve sacudió al mundo de los videojuegos con una triple noticia: estaba preparando la Steam Machine, las Steam Frame y el Steam Controller. Muchos fuimos los que pensamos que era un bombazo, porque podríamos tener el hardware medio usado en Steam por un precio reducido. Pronto empezamos a enfriarnos, cuando Valve aseguró que no podría vender a pérdidas y que la Machine tendría un precio de PC. La situación empeoró por el «RAMpocalipsis» (precios altos en la RAM por la IA) y la última noticia ya ha terminado por helarnos.

Y es que se habría filtrado que el precio del Steam Controller subiría hasta los 99$, algo menos de 85€ si hacen cambio correcto. La filtración habría sido un error de un creador de contenidos que a lo habría probado. TechyTalk publicó el vídeo, aunque lo retiró poco después. Ahora bien, ¿es un precio justo, competitivo o se les ha ido la olla con él?

Los 85€ del Steam Controller son precio de mercado

El Steam Controller no es un mando normal. Tiene lo que otros, pero también los dos trackpads y botones traseros, y esto encaja más en un controlador premium. Si miramos por ahí y comparamos, el DualSense de Sony no es mucho más barato. Pero si miramos otros tipo «Pro», los precios se disparan y superan por mucho los 100€, llegando a cerca del doble los de gama más alta de Xbox y Sony..

La duda que queda es si este controlador vendría con la Steam Machine o no. Todo parece indicar que no, que como la Machine es un «ordenador», los periféricos se tendrán que comprar por separado. Sí se espera que haya una opción con mando, y que con esa opción se puedan ahorrar algunos euros, pero quien esté esperando que algo de todo esto sea barato, que se olvide.