Raspberry Pi OS 2026-04-13 llega requiriendo contraseña para usar sudo

Raspberry Pi OS 2026-04-13

Raspberry Pi OS 2026-04-13 ya está disponible e introduce un cambio importante en su enfoque de seguridad que rompe con una de las características más cómodas (y también más debatidas) del sistema. La popular distribución basada en Debian ahora apuesta por reforzar la protección del usuario, incluso a costa de sacrificar cierta facilidad de uso en tareas administrativas.

Esta nueva versión, publicada el lunes, incorpora mejoras generales en el sistema y en el centro de control, pero destaca especialmente por un ajuste clave en la gestión de privilegios. La decisión responde al aumento de amenazas de ciberseguridad y a la necesidad de evitar accesos indebidos en sistemas que, muchas veces, se utilizan en entornos educativos, domésticos o incluso profesionales.

Raspberry Pi OS 2026-04-13 refuerza la seguridad al eliminar el sudo sin contraseña

El cambio más relevante de Raspberry Pi OS 2026-04-13 es que el uso de sudo sin contraseña queda desactivado por defecto en nuevas instalaciones. Esto significa que, a partir de ahora, los usuarios deberán introducir su contraseña cada vez que ejecuten comandos con privilegios de administrador, una medida que busca impedir accesos no autorizados si alguien obtiene acceso físico o remoto al dispositivo.

Hasta ahora, Raspberry Pi OS permitía ejecutar comandos administrativos sin necesidad de autenticación adicional, lo que facilitaba mucho el uso diario, especialmente para principiantes. Sin embargo, este enfoque también abría la puerta a posibles abusos, ya que cualquier usuario con acceso al sistema podía ejecutar acciones críticas sin restricciones.

Con este cambio, el sistema se alinea más con otras distribuciones Linux, donde introducir la contraseña al usar sudo es una práctica estándar. Además, tras introducirla una vez, no será necesario repetirla durante un breve periodo, lo que mantiene cierto equilibrio entre seguridad y comodidad.

Para quienes prefieran el comportamiento anterior, los desarrolladores han añadido una opción que permite reactivar el modo sin contraseña desde el centro de control o mediante herramientas como raspi-config. Esto demuestra que, aunque la prioridad ahora es la seguridad, todavía se ofrece flexibilidad para distintos perfiles de usuario.

En conjunto, Raspberry Pi OS 2026-04-13 no solo introduce mejoras visuales y funcionales, sino que marca un paso importante hacia sistemas más seguros por defecto, algo cada vez más necesario en un contexto donde los dispositivos conectados están constantemente expuestos a riesgos.


OpenAI refuerza la ciberseguridad con GPT-5.4-Cyber en despliegue controlado

GPT-5.4-Cyber

La aparición de GPT-5.4-Cyber marca un nuevo capítulo en el uso de la inteligencia artificial para la ciberseguridad. OpenAI ha comenzado a probar esta variante de su modelo insignia GPT-5.4 en un entorno muy controlado, con el objetivo de reforzar la defensa de sistemas críticos frente a vulnerabilidades de software cada vez más sofisticadas.

El modelo llega en un momento en el que crece la preocupación por el doble uso de la IA, capaz tanto de reforzar la seguridad como de facilitar ciberataques. En este contexto, OpenAI apuesta por un despliegue escalonado y por requisitos estrictos de acceso, buscando un equilibrio entre aprovechar el potencial de la tecnología y reducir al mínimo los riesgos asociados.

Qué es GPT-5.4-Cyber y en qué se diferencia del GPT-5.4 estándar

GPT-5.4-Cyber es una versión ajustada específicamente para ciberseguridad del modelo GPT-5.4. No se trata de un sistema pensado para el público general, ni para el uso cotidiano en chatbots, sino de una herramienta dirigida a equipos especializados en defensa digital, auditoría de código y análisis de vulnerabilidades.

OpenAI describe esta variante como un modelo “ciberpermisivo”, es decir, con un umbral de rechazo más bajo para solicitudes relacionadas con trabajos legítimos de ciberseguridad. Mientras que el GPT-5.4 convencional tiende a bloquear o limitar respuestas en tareas sensibles, GPT-5.4-Cyber acepta con mayor facilidad consultas avanzadas si se enmarcan en flujos de trabajo defensivos y de investigación.

La compañía explica que GPT-5.4-Cyber reduce las restricciones habituales en operaciones relacionadas con la identificación de fallos y el análisis técnico, pero manteniendo controles de acceso estrictos. El objetivo declarado es permitir pruebas más profundas, sin abrir la puerta indiscriminadamente a usos potencialmente dañinos.

Capacidades técnicas: análisis profundo de software y vulnerabilidades

Una de las características más destacadas de GPT-5.4-Cyber es su enfoque en tareas técnicas avanzadas de ciberseguridad. OpenAI señala que el modelo está optimizado para mejorar los flujos de trabajo defensivos y ofrece funciones que van más allá de la simple explicación de código.

Entre las capacidades clave se incluyen herramientas de ingeniería inversa binaria, que permiten a profesionales de seguridad analizar software ya compilado, sin necesidad de acceder al código fuente. Esto resulta especialmente relevante para revisar programas propietarios, componentes de terceros o binarios heredados en infraestructuras críticas.

El modelo puede asistir en la detección de posibles malware, vulnerabilidades y debilidades en la robustez del código, así como en la priorización de riesgos. Con ello, se pretende que los equipos de seguridad puedan localizar fallos con mayor rapidez y evaluar su impacto potencial antes de que sean explotados.

Además del análisis binario, GPT-5.4-Cyber está diseñado para auditar configuraciones, revisar patrones en el comportamiento del software y apoyar tareas de evaluación de riesgos en entornos complejos. El modelo actúa como una especie de asistente técnico de alto nivel, capaz de combinar conocimiento general de seguridad con detalle técnico específico de cada entorno.

Despliegue limitado: quién puede acceder a GPT-5.4-Cyber

En esta fase inicial, OpenAI ha optado por un despliegue muy restringido de GPT-5.4-Cyber. El modelo se está poniendo a disposición de un grupo selecto de proveedores de seguridad, organizaciones e investigadores verificados, que deben superar un proceso de autenticación riguroso.

El acceso se articula a través del programa Trusted Access for Cyber (TAC), lanzado a comienzos de año. Este programa establece varios niveles de verificación, de forma que las capacidades más sensibles del modelo solo se desbloquean para aquellos usuarios que acreditan ser defensores de la ciberseguridad y aceptan trabajar estrechamente con OpenAI bajo condiciones específicas.

Según la compañía, el nivel más alto de verificación dentro de TAC es el que permite utilizar GPT-5.4-Cyber. Inicialmente, este sistema está siendo probado por cientos de usuarios, con la previsión de ampliar gradualmente el alcance a miles de especialistas y equipos responsables de proteger software crítico y servicios esenciales.

El planteamiento es claramente iterativo: OpenAI recopila comentarios de estos evaluadores para entender mejor los beneficios concretos del modelo, reforzar su resistencia frente a intentos de “jailbreak” u otros ataques adversarios y ajustar los límites de uso para evitar filtraciones o abusos.

Trusted Access for Cyber: un filtro de seguridad adicional

El programa Trusted Access for Cyber se ha convertido en el principal mecanismo de control para acceder a GPT-5.4-Cyber y a futuras herramientas similares. OpenAI plantea TAC como una vía para que organizaciones y expertos acreditados puedan probar modelos avanzados en condiciones supervisadas.

Dentro de TAC, los usuarios deben autenticarse como defensores de la ciberseguridad, demostrar experiencia en el ámbito y aceptar unas políticas de uso que restringen el empleo del modelo estrictamente a tareas defensivas y de investigación legítima. Solo tras cumplir esas condiciones se les permite acceder a variantes más potentes y menos limitadas.

La empresa detalla que GPT-5.4-Cyber forma parte de una ampliación del alcance de TAC, con nuevos niveles de acceso y una estructura más granular de permisos. En la práctica, esto se traduce en que no todos los integrantes del programa ven las mismas capacidades del modelo: únicamente los que alcanzan el máximo nivel pueden utilizar las funciones más sensibles, como el análisis binario avanzado.

Este modelo de gobernanza busca responder a un reto evidente: la misma tecnología que ayuda a defender sistemas podría, en manos equivocadas, servir para encontrar puntos débiles y preparar ataques. De ahí que la compañía insista en mantener el acceso cerrado a perfiles concretos, al menos durante las primeras fases.

Competencia con Anthropic y el papel de Mythos

El anuncio de GPT-5.4-Cyber llega apenas días después de que Anthropic diera a conocer Mythos, su propio modelo de ciberseguridad. Mythos se está desplegando bajo el paraguas del llamado Project Glasswing, una iniciativa en la que solo unas pocas organizaciones de confianza pueden experimentar con Claude Mythos Preview, aún no disponible de forma general.

Según la información publicada, Mythos habría detectado miles de vulnerabilidades críticas en sistemas operativos, navegadores y otras aplicaciones de software. Esto refuerza la idea de que tanto Anthropic como OpenAI están compitiendo de forma directa por liderar el uso de IA avanzada aplicada a la seguridad digital.

Project Glasswing está concebido como un entorno altamente controlado, similar al TAC de OpenAI, en el que socios seleccionados —incluyendo grandes tecnológicas y entidades que gestionan infraestructuras clave— ponen a prueba el modelo en escenarios reales. La atención que este proyecto ha generado en sectores como el financiero o el gubernamental, especialmente en Estados Unidos, pone de manifiesto el peso estratégico de estas herramientas.

Dentro de este contexto, GPT-5.4-Cyber puede interpretarse como la respuesta de OpenAI a la presión competitiva. La empresa reconoce que está ajustando GPT-5.4-Cyber para “allanar el camino” a modelos todavía más capaces que se presentarán en los próximos meses, lo que sugiere una hoja de ruta en la que la ciberseguridad tendrá un papel destacado.

Riesgos de doble uso y preocupación regulatoria

El desarrollo de modelos como GPT-5.4-Cyber o Mythos ha puesto sobre la mesa un debate delicado: las mismas capacidades que sirven para proteger sistemas permiten también identificar vulnerabilidades con un nivel de detalle que podría resultar muy útil para ciberatacantes.

Expertos y autoridades advierten de que la frontera entre uso defensivo y ofensivo se está difuminando. Herramientas capaces de localizar fallos críticos en cuestión de minutos, proponer vectores de explotación o automatizar análisis de gran escala pueden convertirse en armas muy eficaces en manos malintencionadas.

De hecho, empiezan a surgir indicios de que tecnologías de IA ya se están empleando para facilitar ataques informáticos, optimizar campañas maliciosas o escanear masivamente sistemas en busca de puntos débiles. Esto ha llevado a gobiernos y reguladores, especialmente en economías avanzadas, a reclamar marcos más estrictos de control y supervisión.

En Europa, aunque GPT-5.4-Cyber se está implantando inicialmente en un contexto global, el debate se cruza con la nueva regulación de IA impulsada por la Unión Europea. El enfoque comunitario, más restrictivo en materia de riesgos y transparencia, apunta a que herramientas de este tipo deberán someterse a evaluaciones específicas, sobre todo si se utilizan en sectores como el financiero, las telecomunicaciones o la gestión de infraestructuras críticas.

Impacto potencial en empresas y administraciones

Para empresas y administraciones públicas, la llegada de GPT-5.4-Cyber abre un escenario en el que la automatización avanzada del análisis de seguridad puede convertirse en un pilar de las estrategias de ciberdefensa.

Organizaciones con grandes bases de código heredado, sistemas complejos o dependencia de soluciones de terceros podrían beneficiarse especialmente de las capacidades de análisis binario, al permitirles revisar componentes para los que no disponen de código fuente o documentación completa. Esto es habitual en bancos, operadores energéticos, empresas de telecomunicaciones o administraciones con sistemas antiguos integrados en infraestructuras modernas.

Sin embargo, el acceso restringido y el énfasis en usuarios verificados significa que, al menos en el corto plazo, GPT-5.4-Cyber será una herramienta al alcance de equipos de seguridad especializados, más que de pequeñas empresas o perfiles generalistas. Es previsible que los primeros en probarlo en Europa sean grandes proveedores de ciberseguridad, operadores críticos y centros de respuesta a incidentes (CSIRT) con convenios o acuerdos específicos.

Además, las organizaciones europeas deberán encajar el uso de GPT-5.4-Cyber en su marco normativo, cumpliendo con las exigencias de protección de datos, gestión de riesgo de terceros y obligaciones de reporte de incidentes, que en la UE son cada vez más estrictas. La adopción de estas tecnologías no será solo una cuestión técnica, sino también de gobernanza y cumplimiento.

GPT-5.4-Cyber está diseñadado para aprender de la práctica

OpenAI presenta GPT-5.4-Cyber como una pieza dentro de una estrategia más amplia orientada a modelos de IA más potentes y especializados. La compañía insiste en que la fase actual es de prueba controlada, en la que el feedback de proveedores y defensores de seguridad resulta clave para pulir el sistema.

La experiencia con GPT-5.4-Cyber servirá para mejorar las defensas integradas en futuros modelos, endurecer sus barreras frente a abusos y afinar los criterios que determinan qué uso se considera legítimo. Aunque el modelo tenga menos restricciones que la versión estándar de GPT-5.4, esta permisividad se compensa con exigencias de autenticación y monitorización más estrictas.

En paralelo, la propia dinámica competitiva con Anthropic y otros actores del sector está acelerando la evolución de la ciberseguridad basada en IA. La carrera no se limita a quién tiene el modelo más potente, sino a quién es capaz de ofrecer mejores garantías de seguridad, gobernanza y control de riesgos en un entorno cada vez más vigilado por reguladores y mercados.

Con GPT-5.4-Cyber, OpenAI posiciona su tecnología en el centro del debate sobre cómo deben gestionarse las herramientas de inteligencia artificial capaces de detectar y analizar vulnerabilidades críticas. La combinación de acceso limitado, capacidades avanzadas y supervisión estrecha refleja un intento de aprovechar el potencial de estos modelos sin perder de vista los riesgos de su uso indebido, un equilibrio que será determinante para su adopción en España, Europa y el resto del mundo.


GNU Linux-libre 7.0 llega con una limpieza profunda de controladores gráficos y de red para eliminar dependencias de firmware no libre

GNU Linux-libre 7.0

La llegada de GNU Linux-libre 7.0 marca un nuevo paso en la evolución de los núcleos completamente libres, pensados para quienes quieren evitar cualquier tipo de firmware o módulo propietario en su sistema. Esta edición se publica justo después del lanzamiento del kernel Linux 7.0, replicando sus novedades técnicas, pero sometidas a un exhaustivo proceso de limpieza del código.

En esta versión se mantiene el objetivo que ha definido históricamente al proyecto: eliminar cualquier rastro de binarios y referencias a firmware no libre, aun a costa de reducir el soporte para cierto hardware. Para usuarios y organizaciones preocupados por la transparencia, la auditabilidad y la libertad del software, este enfoque sigue siendo especialmente relevante.

Publicación en paralelo a Linux 7.0

GNU Linux-libre 7.0 se publica inmediatamente después de que el kernel Linux 7.0 haya sido anunciado oficialmente en el proyecto principal. A partir de ese código base, el equipo de mantenimiento aplica su ya tradicional proceso de “deblob”, consistente en revisar el árbol completo del kernel para retirar el soporte de carga de módulos y firmware privativo, así como cualquier referencia a blobs binarios incrustados o descargables.

Este procedimiento no solo se limita a borrar ficheros binarios; implica también modificar partes del código fuente de los controladores que esperan cargar firmware externo no libre, bloquear rutas de ejecución que podrían terminar en la carga de microcódigo propietario y ajustar documentación y descripciones de dispositivos. El resultado es un núcleo preparado para funcionar únicamente con componentes que dispongan de firmware libre o que no requieran firmware cargado en tiempo de ejecución.

GNU Linux-libre 7.0 y la limpieza intensiva de controladores y código del kernel

La versión 7.0 ha centrado buena parte de su trabajo en depurar controladores y secciones del núcleo relacionadas con gráficos, red y procesamiento especializado. Una de las piezas destacadas en esta ronda de cambios es el controlador IWLMLD, usado en determinados adaptadores inalámbricos, que ha sido revisado para eliminar dependencias de firmware no libre y referencias a blobs binarios que el kernel original podría intentar cargar.

Junto a ese controlador, se han actualizado las normas de “deblob” aplicadas a diversos componentes muy presentes en equipos de escritorio, portátiles y estaciones de trabajo, como las GPU de amdgpu y adreno, donde suelen ser frecuentes los microcódigos internos y paquetes de firmware. El proyecto ha reajustado las reglas para que el kernel resultante no intente cargar ni recomendar firmware propietario, lo que afecta de forma directa al soporte de determinadas funcionalidades avanzadas en tarjetas gráficas modernas.

El trabajo de limpieza se extiende también a otros controladores de red y periféricos, como TI PRUeth (relacionado con interfaces Ethernet programables de Texas Instruments), el hardware air_en8811h, el controlador inalámbrico ath12k, la unidad de procesamiento de vídeo TI VPE y diferentes componentes de red y audio como rtw8852b, rt1320, rt5575 SPI o el amplificador de audio tas2783. En todos estos casos, el objetivo ha sido ajustar las reglas de eliminación de blobs para que ningún firmware privativo quede referenciado en el árbol del kernel.

También se ha actuado sobre la parte de audio de ciertas plataformas Intel, con la revisión del controlador Intel catpt, que en el kernel estándar puede involucrar firmware específico para la gestión del procesador de audio. La edición libre del núcleo bloquea o elimina cualquier intento de carga de código no libre para este tipo de componentes, alineándose con la filosofía del proyecto.

Revisión de NPU, Bluetooth y documentación de dispositivos

Más allá de los controladores clásicos de red y vídeo, la versión GNU Linux-libre 7.0 introduce cambios en torno a las unidades de procesamiento neuronal (NPU) y a dispositivos Bluetooth. Con la aparición de más NPU en el mercado, muchos controladores incorporan referencias a firmware cerrado necesario para sacar partido a la aceleración de inteligencia artificial, algo que entra en conflicto directo con los objetivos del proyecto.

En este contexto, se han limpiado específicamente las referencias relacionadas con la NPU de Airoha, evitando que el kernel modificado intente utilizar microcódigo o firmware que no cumpla con los requisitos de libertad de la comunidad GNU Linux-libre. De forma similar, se ha revisado el soporte para Bluetooth de Qualcomm/Atheros, ya que buena parte de esos dispositivos dependen de pequeños blobs para funcionar plenamente; en la versión libre se han eliminado o bloqueado los caminos de código que requerían esos ficheros privativos.

El mantenimiento también ha alcanzado al ecosistema de documentación y descripciones de hardware, con cambios en los ficheros de árbol de dispositivos (device tree) vinculados a tecnologías como TI hms-m4fss y otros componentes. Se han ajustado y limpiado varios documentos y ficheros DTS para que no contengan indicaciones de uso de firmware no libre. En el caso del componente rt5514, se ha reorganizado el orden en el que se realizan las tareas de limpieza, aunque la cantidad y tipo de contenido eliminado permanece igual, lo que garantiza coherencia con versiones anteriores.

Gráficos y red, los grandes focos de intervención en GNU Linux-libre 7.0

Según destacan los mantenedores, esta versión confirma una tendencia ya conocida: los controladores de vídeo y de red siguen siendo los más afectados por las tareas de “deblob”. Se trata de categorías de hardware que, en el kernel principal, dependen con frecuencia de microcódigos, firmware auxiliares y actualizaciones binaras cargadas en tiempo de ejecución, muchas de ellas con licencias que no permiten su modificación o redistribución en condiciones compatibles con el software libre.

Para usuarios y administradores de sistemas, esto implica que en entornos basados en GNU Linux-libre 7.0 es más probable encontrar limitaciones en la compatibilidad o en las prestaciones de determinadas tarjetas de red inalámbricas, adaptadores Bluetooth y GPUs modernas, especialmente cuando el fabricante solo ofrece firmware privativo. A cambio, se gana la seguridad de trabajar con un núcleo que evita por completo la carga de componentes cuyo código no puede auditarse ni modificarse.

El avance de nuevas arquitecturas y dispositivos —sobre todo en campos como la aceleración de IA, el procesamiento multimedia y las comunicaciones de alta velocidad— hace que, con cada versión mayor del kernel upstream, aumenten las secciones de código que hacen referencia a firmware binario. Esto obliga al equipo de GNU Linux-libre a repetir, versión tras versión, un proceso minucioso de auditoría y saneamiento del código, revisando una y otra vez los controladores que se van incorporando.

Compromiso con un kernel totalmente libre

La prioridad del proyecto sigue siendo garantizar que el kernel resultante no dependa en absoluto de firmware privativo, ni siquiera como opción de uso. Por ello, las rutinas encargadas de cargar firmware externo, los mensajes que recomiendan instalar blobs binarios o el simple soporte para módulos propietarios se deshabilitan o eliminan de manera sistemática.

Esta postura, que puede parecer estricta para quienes buscan la máxima compatibilidad con hardware reciente, responde a una visión muy clara dentro de la comunidad de software libre: si una parte fundamental del sistema no es auditable, modificable o redistribuible en condiciones de libertad, se considera que el usuario pierde control sobre su propio equipo. De ahí que se mantenga la decisión de priorizar la libertad sobre el soporte a dispositivos que no ofrecen alternativas abiertas.

Donde la preocupación por la soberanía tecnológica, la seguridad y el respeto a la privacidad va en aumento, este enfoque resulta especialmente interesante para administraciones públicas, organizaciones del tercer sector y usuarios avanzados que quieran evitar depender de componentes cerrados en áreas tan sensibles como el cifrado, las comunicaciones o el procesamiento de datos críticos.

Para usuarios que valoran trabajar únicamente con software libre desde el núcleo hacia arriba, la publicación de GNU Linux-libre 7.0 supone la disponibilidad de un kernel actualizado a la última versión principal de Linux, pero filtrado para eliminar dependencias de firmware no libre, reforzando así tanto la coherencia con los principios del software libre como la confianza en el código que se ejecuta en sus equipos.


Little Snitch en Linux, todo lo que necesitas saber: instalación, configuración y uso

Little Snitch en Manjaro

La semana pasada llegó Little Snitch a Linux. No es igual que en macOS, para lo bueno y para lo malo. Su desarrollador confiesa que le asombra la velocidad del funcionamiento en Linux, pero por lo menos la v1.0.0 muestra su interfaz en el navegador. Muchos usuarios de Linux estarán encantados con herramientas tipo CLI como iftop o nethogs, pero tener algo con interfaz de usuario es totalmente diferente. Para muchos usuarios, y aunque me encanten algunas herramientas como yt-dlp en el terminal podría incluirme en este grupo, mucho mejor.

En este artículo vamos a explicar todo lo que necesitáis saber para instalar, configurar y usar Little Snitch. Adelanto que es mucho más intuitivo que cualquier herramienta con línea de comandos, y funciona mejor que OpenSnitch. Vamos allá.

Instalación de Little Snitch

Antes de empezar, un aviso

Yo lo he probado en diferentes sistemas operativos, y en al menos dos me he encontrado con problemas. Uno fue Ubuntu 26.04, y el otro EndeavourOS. En ambos casos se instaló correctamente, pero no pude iniciar ni en Linux 6.19 ni en Linux 7.0, el kernel que usa Resolute Raccoon. Mi recomendación es que se use en Linux 6.12, que es en donde lo ha probado el desarrollador, o en 6.18, que es donde el autor de este artículo tuvo éxito.

La información oficial dice que funcionará en Linux 6.12 en adelante, pero yo no lo he conseguido ejecutar en 6.19 (ni nativo ni máquina virtual) ni 7.0 (máquina virtual).

Si se instala y no se puede entrar al sistema operativo, lo mejor es iniciar y entrar al terminal. Esto se consigue eligiendo la opción secundaria en el grub, la que pondrá «recuperación» o algo que nos dé a entender que son opciones extra. Una vez en el terminal, se puede usar el comando sudo apt remove littlesnitch (o pacman, dnf…) y podrá volver a iniciar.

Proceso de instalación

El proceso de instalación es muy sencillo:

  1. En este enlace están los paquetes oficiales. Los .deb son para distribuciones con base Debian, los .rpm con base Fedora o similares y los .pkg.tar.zst para Arch. Los hay para arquitecturas x86_64, ARM y RISC.
  2. Se instala con el comando adecuado: Hay que tener en cuenta que el comando se lanza en la ruta en donde está el paquete, o tras la orden install o -U se pone la ruta completa:
    • Debian/Ubuntu: sudo apt install littlesnitch_1.0.0_amd64.deb
    • Fedora, RHEL, etc: sudo dnf install littlesnitch_1.0.0_amd64.deb
    • Arch: sudo pacman -U littlesnitch_1.0.0_amd64.deb

En el caso de Arch, existe en paquete littlesnitch-bin en AUR. Y eso sería todo. El servicio se habrá añadido para que inicie con el sistema.

Uso del programa

Lo mejor es abrir un terminal y ejecutar littlesnitch, por lo menos la primera vez. El motivo es sencillo: cuando se escribe el comando, en el terminal vemos «Opened the Little Snitch Web UI in a browser window.», lo que significa que, al menos, ya se ha instalado e intentado ejecutarse. Se abrirá la interfaz web en una ventana del navegador web por defecto, con la URL http://localhost:3031. Las demás veces se puede lanzar desde cualquier herramienta compatible con comandos, como Kickoff o Krunner de Plasma.

Si no vemos la interfaz web, recomiendo mirar el monitor del sistema del sistema operativo. Yo he llegado a ver en Manjaro con Linux 6.19 (que no funciona) que el proceso «littlesnitch» ha estado ocupando cerca del 90% de la CPU, algo que no pasa en un kernel compatible.

Partes de la interfaz

En la parte superior, al lado del nombre del programa, veremos una «i» que sólo da información del software. El interruptor del centro nos permitirá activar o desactivar el filtro. A la derecha del todo está el botón del tema (sistema, oscuro o claro), y a su izquierda las pestañas.

Pestaña Rules de Little Snitch

En la pestaña «Conections» se verán las conexiones. La imagen de abajo muestra que Firefox está haciendo muchas llamadas, una de ellas a es.euronews.com, esto en el cuadro izquierdo. En el derecho se ven las reglas, y abajo hay un gráfico del tráfico (que en el momento de escribir este artículo no refresca bien).

Centrémonos en el cuadro izquierdo, donde están las conexiones. Como es una máquina virtual y no sé por qué sale ese es.euronews.com, haremos clic en la bola verde.

Click en bola verde

Automáticamente veremos tres cosas: aparecerá el icono de una flecha circular a la izquierda para deshacer cambios, la bola pasará a ser roja, y en el apartado derecho veremos que se ha creado la regla «Firefox -> domain euronews.com».

Creación de regla

Ahora se puede hacer la prueba de intentar ir a euronews.com: veréis que no es posible. Esto nos lleva a la tercera pestaña, a la de reglas.

regla con la nota

En este apartado podemos ver las reglas creadas. Al hacer clic en una de ellas veremos la información, y también podemos añadir una nota, lo que es muy útil. Como yo estoy probando, he añadido que el bloqueo de euronews.com es eso, una prueba y que no tengo claro por qué está llamando ahí.

No nos habíamos olvidado de la segunda pestaña, que es la de listas de bloqueo. Aquí podemos añadir listas de bloqueo remotos, como cuando añadimos una a un bloqueador de anuncios.

Blocklist de Little Snitch

El servicio de Little Snitch siempre se está ejecutando

Está claro por qué, pero no está de más recordarlo. Para que pueda funcionar y gestionar las conexiones siempre, el servicio se añade y se ejecuta con el inicio del sistema. Si no queremos que sea sí, y queremos gestionar las conexiones manualmente, se puede hacer lo siguiente:

  1. Se elimina el servicio del inicio:
sudo systemctl disable littlesnitch
  1. Ahora, para lanzarlo escribiremos:
sudo systemctl start littlesnitch
  1. Y para pararlo:
sudo systemctl stop littlesnitch

Si queremos que inicie con el sistema una vez más, en el primer comando ponemos «enable»

Little Snitch es fácil de usar

Little Snitch es verdaderamente fácil de usar. Si se sabe un poco de inglés, gestionar el tráfico es cuestión de mirar y hacer un par de clics. Su interfaz clara permitirá hacer todo esto sin volverse loco mirando a la terminal ni la necesidad de lanzar varios procesos.


Helium: el navegador con base Chromium que menos ofrece para una navegación personal y privada

Helium

Cuando buscas información sobre Helium Browser en Internet te encuentras con cosas muy distintas: desde un navegador flotante para macOS hasta un proyecto open source centrado en la privacidad, pasando incluso por servicios que nada tienen que ver con navegar por la web. Esto genera bastante confusión, así que conviene poner orden y explicar, con calma, qué es lo que nos interesa aquí, que es el navegador web con base Chromium.

Alguno estará pensando algo así como «oh, no. Otro más», pero no. Para nada. De hecho, es posible que Helium sea el motivo por el que Brave está desarrollando Origin, un navegador que sería el resultado de hacer Brave más privado y sin muchas de sus funciones, como Rewards y Wallet.

Helium como navegador privado basado en Chromium

Hoy en día cuando se habla de Helium Browser se suele hacer referencia a un navegador web open source construido sobre un Chromium “desgoogleado”, es decir, sobre la base de un proyecto como ungoogled-chromium pero con un fuerte énfasis en la privacidad y sin dependencias en los servicios de Google.

En el panorama actual, la mayoría de navegadores de escritorio que ves (Opera, Edge, Vivaldi, Brave y muchos otros) son en realidad variantes más o menos personalizadas de Chromium, e incluso existen proyectos p2p como Beaker que siguen enfoques radicalmente distintos. Muchos reutilizan casi tal cual la interfaz gráfica y no solo el motor de renderizado Blink, y los que no calcan la UI suelen seguir una arquitectura parecida. Helium no es una excepción: ofrece una experiencia muy cercana a Chromium, pero con su propia capa de pulido.

La filosofía del proyecto es apostar por ser “ligero, privado por defecto y respetuoso de serie”, evitando a la vez meter funciones que no aportan al núcleo del navegador. En vez de rediseñarlo todo desde cero o llenarlo de extras que no vas a usar, se mantiene cerca del comportamiento estándar de Chromium, añadiendo un conjunto de mejoras enfocadas claramente a la privacidad, el bloqueo de anuncios y algunos atajos que ahorran tiempo sin sacrificar seguridad.

Esta combinación ha hecho que algunos usuarios lo describan como una especie de “Brave mejor que Brave”: un navegador con muchas de las ventajas de otros proyectos centrados en la privacidad, pero sin su historial controvertido ni elementos extra que puedan generar desconfianza. La pregunta clave, como siempre, es si realmente cumple con lo que promete en el día a día.

Arranque inicial y configuración de Helium privado

En cuanto abres por primera vez este Helium moderno, te das cuenta de que la privacidad está presente desde el primer arranque. De entrada, el navegador incorpora uBlock Origin integrado de serie, algo posible gracias a que mantiene el soporte para Manifest V2, el modelo de extensiones que muchos proyectos están abandonando pero que sigue siendo crucial para los bloqueadores de contenido más potentes.

Durante la primera configuración puedes elegir entre quedarte con los ajustes por defecto ya orientados a la privacidad o tomarte un rato para personalizarlo a tu gusto. Nada de pasos de sincronización ni creación de cuentas: toda la configuración se guarda localmente. Además, si más adelante quieres repetir este asistente de inicio, basta con escribir helium://setup en la barra de direcciones para abrir de nuevo el proceso de configuración guiada.

En la sección de ajustes avanzados aparece el concepto de “Helium services”. Se trata de un servicio intermedio que actúa como envoltorio de privacidad, pensado para anonimizar determinadas conexiones externas. Sólo se utiliza si activas funciones concretas, como la descarga de extensiones, filtros de bloqueo de anuncios, la actualización del navegador o el uso de ciertos atajos tipo “bang”.

La lógica detrás de estos Helium services es que Google u otros proveedores externos no puedan saber qué extensiones instalas o eliminas ni qué recursos concretos estás descargando. Incluso las consultas que haces mediante algunos bangs, incluidas las relacionadas con herramientas de IA, se anonimizan pasando por este intermediario para evitar que se asocien directamente con tu identidad o tu dirección IP. Este enfoque busca, en esencia, anonimizar conexiones externas cuando se invoca funcionalidad que lo requiere.

Si a pesar de todo prefieres no depender de la instancia oficial, el navegador permite configurar tu propio servidor de Helium services desde las opciones. Eso sí, los desarrolladores avisan con claridad de que, si te montas tu propia infraestructura, no dan soporte si algo se rompe o deja de funcionar como debería, así que esta opción está más orientada a usuarios avanzados que quieran el control absoluto.

Privacidad extrema: sin gestor de contraseñas, sin sincronización

Una decisión muy llamativa de Helium es que el navegador no incluye gestor de contraseñas integrado ni funciones nativas de sincronización. A primera vista puede parecer un recorte, pero responde a una postura firme: evitar que exista una “cuenta central” del navegador o un repositorio de credenciales que dependa de terceros.

De serie, Helium bloquea las cookies de terceros, no hace peticiones externas salvo las que sean estrictamente necesarias para los Helium services (y solo cuando se usan) y fuerza la conexión mediante HTTPS siempre que sea posible. Es un planteamiento muy radical: el navegador prácticamente no “llama a casa” ni manda datos si tú no provocas esas conexiones.

En cuanto a la sincronización, si quieres tener marcadores, contraseñas o ajustes replicados en distintos equipos, vas a necesitar apoyarte en soluciones externas: extensiones específicas para sincronizar favoritos, gestores de contraseñas independientes o servicios que ya uses para mantener tus datos a salvo. El navegador soporta perfiles de usuario, incluyendo perfiles de invitado, pero todo se queda en local y cualquier sincronización la tienes que montar tú.

Para quienes valoran mucho la privacidad, esto es más una ventaja que un inconveniente: al no haber un almacén centralizado de contraseñas ni un sistema de sincronización propietario, se reduce la superficie de ataque y se refuerza la idea de que tus datos solo se mueven cuando tú lo decides y mediante las herramientas que elijas. Muchos usuarios avanzados recurren, por ejemplo, a soluciones como Nextcloud Passwords u otros gestores de contraseñas multiplaforma para cubrir esta necesidad.

Bangs integrados y navegación ultrarrápida por atajos

Uno de los elementos más originales de Helium es la integración nativa de “bangs”, un concepto popularizado por DuckDuckGo que permite saltar directos a resultados o búsquedas específicas usando atajos en la barra de direcciones.

Los bangs funcionan de forma muy sencilla: escribes un comando corto precedido de un signo de exclamación y la palabra clave que quieras, y el navegador te lleva directo al sitio o a la búsqueda correspondiente. Por ejemplo, si escribes “!w software libre”, Helium te lanza directamente al artículo relevante de Wikipedia sobre ese tema en lugar de mostrar primero una página de resultados intermedios.

Helium mantiene una lista en caché de más de diez mil bangs distintos, cubriendo servicios de todo tipo, incluidas consultas hacia herramientas de IA como ChatGPT a través de atajos pensados para preservar la privacidad. En algunas pruebas se ha visto que el bang para ChatGPT, por ejemplo, rellena el cuadro de texto con el prompt pero no llega a pulsar el botón de enviar, por lo que todavía hay margen para pulir la experiencia y hacerla totalmente manos libres.

En cualquier caso, el hecho de tener un repertorio tan amplio de bangs directamente en el navegador convierte la barra de direcciones en una especie de lanzador universal: saltar de la búsqueda en un sitio concreto a otro se vuelve algo casi instantáneo, sin andar cambiando de pestañas de motor de búsqueda ni escribiendo URLs largas.

Otras mejoras de uso y personalización en Helium

Más allá de la privacidad y los bangs, Helium incorpora una serie de pequeñas mejoras de interfaz y calidad de vida que, sin ser revolucionarias, se notan en el uso diario. No aspira al nivel de personalización extremo de navegadores como Vivaldi, pero sí añade retoques que van al grano.

Un ejemplo claro está en cómo maneja la personalización visual del navegador. Mientras que Chrome insiste en vincular el tema del navegador a la imagen de fondo de la página de nueva pestaña, en Helium se separan claramente el “wallpaper” del speed dial y la apariencia general del navegador. Puedes cambiar el fondo de la página de inicio sin que eso arrastre colores y estilos al resto de la interfaz, y además la opción de “Personalizar Helium” tiene su propia entrada en el menú para acceder rápido a estos ajustes.

Otra función destacable es la vista dividida o Split View para pestañas. En lugar de abrir dos ventanas del navegador lado a lado y pelearte con el gestor de ventanas del sistema, Helium permite poner dos pestañas en paralelo dentro de la misma ventana, algo especialmente útil para comparar información, seguir un vídeo mientras tomas notas o investigar con dos fuentes simultáneas. No llega al tab tiling avanzado de otros navegadores (solo permite dos pestañas en paralelo), pero para la mayoría de tareas cotidianas es más que suficiente.

En el apartado de extensiones, Helium se ha comprometido a mantener el soporte para Manifest V2 todo el tiempo que le sea posible. Esto es clave porque muchas extensiones enfocadas en privacidad, como la propia uBlock Origin que viene incluida, dependen de las capacidades de este modelo antiguo para funcionar con toda su potencia. Aunque en el futuro Chromium elimine completamente V2, el proyecto ha dejado caer que intentará reinyectar o mantener este soporte, aunque todavía no está claro cómo lo harán técnicamente.

Limitaciones, problemas conocidos y puntos débiles

El enfoque radical en privacidad de Helium también tiene su cara B en forma de limitaciones y pequeños inconvenientes que conviene conocer antes de usarlo como navegador principal.

Uno de los problemas más comentados tiene que ver con el uBlock Origin que viene integrado. En algunos sitios web determinados se han detectado fallos a la hora de iniciar sesión cuando se usa la versión integrada del bloqueador. La forma de evitar estos problemas pasa por desactivar el uBlock incluido y instalar manualmente uBlock Lite desde la Chrome Web Store, donde el comportamiento es más predecible.

Al navegar por la tienda de extensiones de Chrome verás, además, que esta insiste en sugerirte la instalación de Google Chrome. Se trata de un comportamiento conocido y ya registrado como bug abierto en el repositorio del proyecto, relacionado probablemente con los retoques de privacidad que diferencian a Helium de un Chromium estándar. A pesar de ese aviso algo pesado, la instalación de extensiones sigue funcionando correctamente.

Otra limitación importante es que Helium no incluye soporte para DRM mediante Widevine u otros sistemas similares. Como consecuencia, servicios de streaming como Netflix, Prime Video, Spotify Web y cualquier plataforma que requiera DRM para reproducir contenido protegido no funcionarán correctamente en este navegador. Si consumes mucho contenido de este tipo, probablemente tendrás que mantener otro navegador alternativo solo para estas tareas.

Conviene también recordar que el propio equipo considera que el estado actual del navegador es de “calidad beta”, algo que se refleja en su repositorio de GitHub. El proyecto es estable para el día a día en muchos casos, pero todavía está en fase de maduración, así que es de esperar que aparezcan pulidos continuos, cambios y mejoras a medida que avanza el desarrollo.

Distribución, plataformas y empaquetado de Helium

Helium en su versión moderna está disponible para Linux, macOS y Windows. El método de distribución principal, disponible en su página web, es un AppImage para Linux, lo que facilita bastante la instalación sin depender de paquetes específicos de cada distribución. Para mantenerlo actualizado de forma más cómoda, se suele recomendar el uso de aplicaciones especializadas en gestionar AppImages, como Gear Lever, aunque también se ofrecen tarballs binarios, compilaciones para ARM64 y el propio código fuente desde la página de lanzamientos de GitHub.

En el caso concreto de macOS, existe un repositorio dedicado a la creación de paquetes y al tooling de desarrollo específico para esta plataforma. macOS es el entorno principal donde se desarrolla Helium, por lo que se considera el sistema recomendado si quieres contribuir a nuevas funcionalidades o trabajar a fondo con el código del proyecto. La documentación de compilación se encuentra en archivos como docs/building.md, y se pide leer con atención las pautas de CONTRIBUTING.md del repositorio principal antes de enviar parches o abrir pull requests.

Para las compilaciones en macOS, el proyecto cuenta con el apoyo de infraestructura patrocinada por Depot, que ofrece runners de alto rendimiento. Gracias a estos recursos, es posible compilar, empaquetar y publicar nuevas versiones del navegador en cuestión de horas, no de días, acelerando mucho el ciclo de desarrollo y distribución.

Este repositorio específico de macOS toma como base el proyecto ungoogled-chromium-macos, pero ha sido modificado en profundidad para adaptarse a las necesidades y particularidades de Helium. El equipo detrás de ungoogled-chromium recibe un agradecimiento explícito, ya que su trabajo ha simplificado enormemente la tarea de lidiar con la compleja base de código de Chromium y ha permitido centrar esfuerzos en las mejoras propias del navegador.

En cuanto a licencias, todo el código, parches y contenido original que sean específicos de Helium y que no procedan de otros repositorios se publican bajo licencia GPL-3.0. Por otro lado, cualquier fragmento importado desde proyectos de terceros conserva su licencia original. Un ejemplo típico es el código no modificado heredado de ungoogled-chromium, que mantiene su licencia BSD de 3 cláusulas. Esta combinación garantiza que el proyecto siga siendo software libre y que se respeten las condiciones de quienes han contribuido aguas arriba.


Linux 7.0 llega con muchas mejoras de hardware y un rendimiento superior en tareas de Inteligencia Artificial

Linux 7.0

Linus Torvalds decidió que todo estaba en su sitio y no esperar más. En la tarde-noche de ayer en España, Linus Torvalds lanzó Linux 7.0, la versión del kernel que usará Ubuntu 26.04 cuando sea lanzado en el tercer tercio de este abril. Aunque suele decir que el salto de número lo hace porque no le quedan dedos ni sumando los de las manos con los de los pies, también suele coincidir en que dicho salto se da con muchas mejoras importantes.

Lo que sigue es la lista con todos los cambios (vía Phoronix), así como alguna que otra recomendación para su instalación o no dependiendo de cada caso. Vamos con las novedades.

Novedades de Linux 7.0

  • Cambios de CPU en Linux 7.0:
    • Linux 7.0 ahora usa por defecto el modo automático de Intel TSX para exponer las Transactional Synchronization Extensions (TSX) en CPUs Intel sin problemas de seguridad conocidos relacionados con TSX.
    • Preparativos de Intel para el acelerador DSA 3.0 (Data Streaming Accelerators).
    • Nuevas estadísticas de caché L2 en la herramienta Turbostat incluida en el árbol de código fuente del kernel.
    • Soporte de eventos de rendimiento y métricas para AMD Zen 6 en el subsistema perf del kernel.
    • Soporte del driver Intel NTB para Xeon Diamond Rapids.
    • Soporte de eventos de rendimiento para Diamond Rapids.
    • Indicadores de carga de trabajo «lenta» para Intel Panther Lake.
    • Nuevas características de CPU LoongArch integradas.
    • Soporte Nova Lake S en el driver Intel LPSS.
    • Soporte de sonido para Intel Nova Lake.
    • Soporte CXL para la característica de traducción de direcciones en AMD Zen 5.
    • Soporte CFI en espacio de usuario para RISC-V.
    • Mejor soporte para placas FPGA en OpenRISC.
    • Soporte para instrucciones atómicas de copia única LS64/LS64V en ARM64.
    • Actividad en los ports de CPU SPARC y Alpha, principalmente correcciones.
    • Soporte mainline para el SoC SpacemiT K3 RVA23.
  • Linux 7.0 GPUs / Gráficos:
    • Nuevo soporte para hardware gráfico AMD de próximos productos.
    • Trabajo continuo en SR-IOV y SVM multi-dispositivo para el driver gráfico Intel Xe.
    • Soporte multi-cola de Intel para Crescent Island junto con otros trabajos de habilitación para este acelerador de inferencia de IA.
    • Soporte de pantalla para Intel Nova Lake.
    • El driver Intel ahora expone más sensores de temperatura de la GPU.
    • El driver Intel deja de bloquear D3cold para todas las GPUs Battlemage.
    • Nouveau vuelve a exponer soporte para páginas grandes, mejorando el rendimiento de NVK.
    • El driver PowerVR de Imagination ahora soporta AM62P.
    • Correcciones en AMDGPU para hardware antiguo GCN 1.0/1.1.
    • Otras mejoras en drivers gráficos y de pantalla del kernel.
  • Linux 7.0 Almacenamiento + Sistemas de archivos:
    • Btrfs introduce una función experimental remap-tree.
    • Capacidades autónomas de autorreparación para XFS.
    • EXT4 mejora el rendimiento de escritura en I/O directo concurrente.
    • Optimizaciones de rendimiento para F2FS.
    • Correcciones en el driver NTFS3.
    • eCryptfs vuelve a recibir actividad de parches upstream.
    • Tamaño dinámico del pool de hilos para el servidor NFS.
    • Preparativos en Ceph para claves AES256K.
    • Driver de secuenciación de energía para conectores PCIe M.2.
    • Soporte 8D-8D-8D octal DTR para SPI NAND.
    • Timestamps no bloqueantes y reporte genérico estandarizado de errores de I/O.
    • Numerosos cambios en el subsistema de bloques.
    • Filtrado BPF para IO_uring.
    • Se integran NULLFS y OPEN_TREE_NAMESPACE.
  • Linux 7.0 Optimizaciones de rendimiento:
    • Cambios en el scheduler para mejorar rendimiento y escalabilidad.
    • Mejoras en el rescuer de workqueue (WQ).
    • Optimizaciones en el código de gestión de memoria.
    • Los «sheaves» pasan a tener un papel más relevante en el kernel.
    • Aceleración de la liberación de grandes folios respaldados por archivos hasta un 50~75%.
    • Mejora significativa en la syscall close_range.
  • Linux 7.0 Red:
    • Mejora notable de rendimiento en UDP al inlinear una función.
    • CAKE_MQ como versión multi-cola de sch_cake.
    • Soporte para Realtek RTL8127ATF 10G Fiber SFP.
    • Soporte para Qualcomm QCC2072 en el driver Ath12k.
    • Soporte PHY de 2.5 Gbps para Airoha AN8811HB.
    • Preparativos para WiFi 8 UHR.
  • Otros cambios de hardware en Linux 7.0:
    • Monitorización de sensores para más placas base ASUS.
    • Soporte SPI multi-lane.
    • Soporte de guitarra Rock Band 4 para PS4/PS5.
    • Soporte UCSI Thunderbolt Alt mode.
    • Soporte PHY USB Type-C de Apple y soporte PHY para hardware Qualcomm Snapdragon X2 Elite.
    • Limpieza continua del driver WiFi Realtek RTL8723BS 802.11b/g/n.
    • Varias mejoras en portátiles a través del árbol de drivers de plataforma x86.
    • Nuevo driver RGB LED de TI.
    • Varias actualizaciones en drivers multimedia.
  • Linux 7.0 Virtualización:
    • Mejoras en Microsoft Hyper-V, incluyendo soporte para scheduler integrado.
    • Soporte para virtualización de AMD ERAPS.
  • Rust para Linux 7.0:
    • Preparativos para Rust 1.95.
    • Más mejoras en el core de drivers en Rust.
    • Se da por concluido oficialmente el experimento Rust for Linux: Rust ha llegado para quedarse en el kernel.
  • Linux 7.0 Seguridad:
    • Varias mejoras de AppArmor integradas upstream.
    • Soporte de firmas resistentes a computación cuántica ML-DSA para módulos del kernel.
  • Linux 7.0 Eliminaciones:
    • Mejor separación del código legacy de CardBus.
    • Retirada del driver de módem IBM Mwave de los ThinkPad de los 90.
    • Eliminación del último driver Ethernet por puerto paralelo.
    • Eliminación del antiguo driver Intel 440BX EDAC para Pentium por estar roto desde hace décadas.
    • Se elimina el soporte para firmar módulos con SHA-1.
  • Otros cambios en Linux 7.0:
    • Se facilita la monitorización del consumo energético de grupos de tareas.
    • Más fácil reemplazar el logo de Tux durante el arranque mediante nuevas opciones de Kconfig.
    • Se integra comprobación de contexto de bloqueo mediante análisis estático guiado por el compilador.

Ya disponible

Linux 7.0 es oficial, pero aún no se puede descargar desde la vía oficial, que es kernel.org. Debería aparecer en cualquier momento. De hecho, es extraño que unas 12 horas después del lanzamiento aún no aparezca allí. No viene mal para recordar que no merece la pena instalar un nuevo kernel por uno mismo, a no ser que un equipo muestre errores graves de hardware. Además, Ubuntu 26.04 llegará la semana que viene, será una versión LTS y usará el mismo kernel.


Linux 7.0: así es el nuevo kernel que ya impulsa la próxima generación de PCs y servidores

Linux 7.0

La llegada de Linux 7.0 marca un nuevo hito en la evolución del kernel, pero no tanto por el número redondo como por la suma de cambios que incorpora. Linus Torvalds ha confirmado la disponibilidad de esta versión estable tras un ciclo de desarrollo intenso, con muchas correcciones pequeñas, pruebas masivas y una clara orientación a la estabilidad y al hardware de nueva generación.

Aunque Torvalds insiste en que los saltos de numeración no responden a un gran «mega‑cambio» concreto, Linux 7.0 se ha convertido de facto en el pilar sobre el que se apoyarán distribuciones clave como Ubuntu 26.04 LTS y muchas rolling release populares. Entre sus grandes bazas destacan un planificador de tareas más inteligente, mejoras profundas en memoria y swap, el aterrizaje definitivo de Rust en el núcleo y un soporte reforzado para CPUs, GPUs y NPUs que todavía ni siquiera han llegado al mercado.

Por qué ahora se llama Linux 7.0 y no 6.20

La decisión de saltar a la rama 7.x tiene más que ver con organización interna que con marketing. Torvalds sigue su costumbre de reiniciar el contador cuando una serie alcanza la versión x.19, para evitar numeraciones largas y confusas. En este caso, tras Linux 6.19, el siguiente paso natural era 7.0.

Durante las semanas previas, las versiones candidatas (release candidates) mostraron una actividad inusualmente alta. Este volumen de commits no significaba un aluvión de novedades de última hora, sino más bien que la comunidad estaba puliendo un gran número de fallos menores. Hubo momentos de inquietud, sobre todo en las RC2 y RC3, que Torvalds calificó entre las más grandes en mucho tiempo, pero finalmente el desarrollo se mantuvo en la hoja de ruta planeada.

En la última semana antes del lanzamiento, el patrón se mantuvo: «muchos pequeños arreglos» que parecían benignos. Torvalds señaló además un cambio de contexto interesante: el uso de herramientas de inteligencia artificial para encontrar casos extremos y errores sutiles empieza a ser algo habitual en el ciclo de desarrollo, hasta el punto de que podría convertirse en la nueva normalidad.

Calendario y llegada de Linux 7.0 a las distribuciones

El ciclo de desarrollo de Linux 7.0 ha seguido el esquema habitual de unas diez semanas entre el primer release candidate (7.0‑rc1) y la versión final. En paralelo, se manejaban estimaciones para una fecha de lanzamiento en torno al 12 de abril, con cierto margen si era necesario añadir una RC extra. Finalmente, la publicación estable se ha producido dentro de esas previsiones, sin retrasos relevantes a pesar de unas RC algo agitadas.

Para quienes usan distribuciones de actualización continua (rolling release) como Arch Linux o similares, el nuevo kernel llegará a los repositorios oficiales con rapidez tras la etiqueta estable. En el extremo opuesto, en entornos más conservadores como Debian estable o derivados, la actualización a 7.0 puede tardar bastante más o directamente no llegar, dependiendo de las políticas de cada proyecto.

Ubuntu 26.04 LTS se lanzará directamente con Linux 7.0 como base, mientras que Ubuntu 24.04 LTS recibirá este kernel vía backport en una actualización prevista para julio, probablemente la última gran versión de kernel que Canonical ofrezca a esa edición. En cambio, usuarios de otras versiones intermedias como 25.10 no verán 7.0 de forma estándar y tendrán que recurrir, si lo desean, a paquetes del mainline PPA, a DEB externos o a la compilación manual, con las implicaciones de soporte que eso conlleva.

La mayoría de distribuciones que se emplean en administraciones, centros educativos y empresas tienden a priorizar versiones LTS y kernels con soporte extendido. Linux 7.0 no es una edición de larga duración, de modo que en servidores críticos y sistemas de producción de organismos públicos será habitual seguir anclados en ramas 6.x soportadas hasta 2028, mientras que 7.0 se irá abriendo paso sobre todo en estaciones de trabajo, laboratorios, despliegues de prueba y entornos donde se necesite un soporte temprano para nuevo hardware.

Un planificador de tareas más fino: adiós a parte del micro‑stutter

Uno de los cambios que más pueden percibir los usuarios en el día a día es la revisión del planificador de tareas del kernel. Desde hace años, ciertos escenarios acusaban pequeños tirones (micro‑stutter) cuando una tarea crítica perdía el control del procesador en un momento delicado, por ejemplo, al compilar, jugar o ejecutar cargas de trabajo con picos intensos.

Con Linux 7.0 se introduce la denominada Time Slice Extension (TSE), un mecanismo que permite que las tareas consideradas relevantes dispongan de un poco más de tiempo de CPU antes de ser interrumpidas. Esta concesión adicional de milisegundos reduce las interrupciones inoportunas sin comprometer la equidad global entre procesos, algo especialmente interesante en equipos de escritorio, portátiles y estaciones de trabajo donde se combinan aplicaciones interactivas con cargas de fondo.

La mejora del planificador no llega sola: la gestión de memoria también se ha afinado de forma notable. El kernel reparte y recupera memoria de manera más inteligente y se han eliminado cuellos de botella que afectaban al rendimiento bajo presión. Esto se nota tanto en sistemas con mucha RAM, donde las colas se gestionan mejor, como en equipos más modestos, donde el uso de swap y zram adquiere especial relevancia.

Memoria, swap y zram: más rendimiento con la casa llena

Linux 7.0 continúa el trabajo iniciado en versiones 6.18 y 6.19 para aumentar la eficiencia del subsistema de swap. En una primera fase se había mejorado el rendimiento bajo presión de memoria; ahora se optimiza la lectura de datos de vuelta desde swap a RAM cuando esta está saturada.

Las pruebas con cargas donde múltiples procesos comparten las mismas páginas intercambiadas, como configuraciones de Redis con persistencia, han mostrado mejoras de hasta un 20 % en el rendimiento. En entornos de escritorio las ganancias son más discretas, pero los resultados tienden a ser iguales o mejores frente a la línea base anterior, sin penalizaciones aparentes.

Una novedad relevante para muchos portátiles y dispositivos de gama media es que el kernel puede escribir directamente datos comprimidos de zram al disco cuando la memoria se llena, sin necesidad de descomprimirlos antes. Este cambio reduce trabajo extra y mejora la eficiencia en sistemas que combinan zram con swap en disco, algo habitual en distribuciones que se usan mucho en equipos antiguos o de bajo coste.

Rust se queda: seguridad y nuevos drivers en Linux 7.0

Uno de los titulares técnicos de este lanzamiento es que el lenguaje Rust deja de ser un experimento y pasa a ser un ciudadano de pleno derecho dentro del kernel. Lo que empezó en 2022 como una prueba limitada se consolida ahora como parte estable del código, con el beneplácito de Linus Torvalds y el trabajo continuado del proyecto Rust‑for‑Linux, liderado por desarrolladores como Miguel Ojeda.

Esto no significa que C vaya a desaparecer del núcleo. C seguirá siendo el lenguaje predominante en la inmensa mayoría de subsistemas, pero a partir de Linux 7.0 se abre la puerta a que nuevos drivers y componentes se escriban directamente en Rust. El objetivo es reducir las vulnerabilidades relacionadas con gestión de memoria, que según estimaciones internas representan alrededor del 70 % de los fallos de seguridad graves.

Rust aporta garantías estructurales contra errores típicos como accesos fuera de rango, dobles liberaciones o uso de punteros colgantes. Para la industria que depende de Linux en sectores como banca, telecomunicaciones, administración o sanidad, este movimiento supone un refuerzo de la seguridad de base, algo especialmente valioso ahora que la normativa comunitaria es cada vez más exigente en materia de ciberseguridad.

Sistemas de ficheros: XFS que se repara solo, EXT4 y NTFS3 más rápidos

El terreno del almacenamiento también recibe atención importante. Una de las incorporaciones más llamativas es la capacidad de «auto‑sanación» del sistema de ficheros XFS. A través de un nuevo demonio, xfs_healer, gestionado por systemd, el sistema monitoriza errores de metadatos y fallos de I/O en tiempo real y puede iniciar reparaciones automáticas sin necesidad de desmontar el volumen.

Esta funcionalidad se apoya en un nuevo marco genérico de reporte de errores de sistemas de ficheros, que unifica cómo el kernel comunica corrupciones de metadatos y problemas de I/O hacia espacio de usuario mediante fsnotify. Hasta ahora, cada filesystem tenía sus propios mecanismos, cuando los tenía, lo que complicaba la monitorización centralizada y la reacción automatizada.

EXT4, el sistema de ficheros por defecto en muchas distribuciones como Ubuntu, mejora la escritura concurrente con I/O directo. Los cambios retrasan la división de extents no escritos hasta que se completa la operación y evitan invalidaciones de caché innecesarias, lo que beneficia escenarios en los que múltiples procesos escriben simultáneamente, como herramientas de copia de seguridad, sistemas de compilación o gestores de descargas.

Para quienes conviven con particiones Windows o discos externos, el driver NTFS3 recibe una actualización sustancial: se añade asignación diferida para mejorar rendimiento, operaciones basadas en iomap y un readahead más eficiente en escaneos de directorios grandes. En exFAT se han afinado las lecturas multi‑cluster, con mejoras de rendimiento especialmente en medios con clusters pequeños, como ciertas tarjetas SD y USB de capacidad modesta.

Rendimiento general: procesos, ficheros y latencia

Más allá de cambios visibles, Linux 7.0 introduce mejoras internas en la creación y destrucción de procesos, así como en operaciones de apertura y cierre de archivos. Benchmarks específicos muestran que la asignación de PIDs es ahora entre un 10 y un 16 % más rápida, mientras que las operaciones de open/close pueden ser entre un 4 y un 16 % más ágiles en máquinas con varios núcleos.

En el plano de la seguridad, se añade filtrado BPF para io_uring, lo que permite sandboxear operaciones que antes muchos administradores preferían directamente desactivar por precaución. De esta forma se mantiene la ganancia de rendimiento de io_uring, pero con la posibilidad de controlar de forma fina qué se puede hacer y cómo, algo valorado en centros de datos y nubes privadas.

El kernel también aprovecha este salto para retirar características históricas con poco sentido en el parque actual, como laptop_mode, un mecanismo de ahorro energético para discos duros mecánicos que venía de la época del kernel 2.6. Con el dominio de los SSD en portátiles y la complejidad que añadía al código de memoria y escritura, los desarrolladores han decidido que ya no compensa mantenerlo.

Soporte para hardware actual y futuro: Intel Nova Lake, AMD Zen 6 y más

Uno de los focos de Linux 7.0 es preparar el terreno para arquitecturas de CPU y GPU que llegarán al mercado en los próximos años. En el lado de Intel, el kernel incorpora soporte base para las futuras CPUs Nova Lake, incluidas variantes de sobremesa y configuraciones con diferentes números de núcleos, así como trabajo adicional en aceleradores Crescent Island.

En procesadores Intel modernos (décima generación en adelante), el kernel activa por defecto el modo automático para Intel TSX (Transactional Synchronization Extensions). Esta tecnología, que en su día se deshabilitó de forma masiva por vulnerabilidades como TSX Asynchronous Abort, se reactiva ahora en chips que no son vulnerables y se mantiene desactivada en los afectados, gracias a una lógica de autodetección. El resultado es un potencial aumento de rendimiento en cargas multihilo que puedan aprovechar TSX, sin comprometer la seguridad.

Del lado de AMD, Linux 7.0 incluye soporte de eventos de rendimiento y métricas para la futura generación Zen 6, abarcando contadores relacionados con predicción de saltos, actividad de cachés L1 y L2, TLB y eventos uncore como la actividad del controlador de memoria. Aunque el usuario final no verá cambios inmediatos, estos datos son valiosos para desarrolladores y administradores que preparan software y plataformas para cuando los nuevos procesadores salgan al mercado.

En virtualización, KVM suma soporte para AMD ERAPS (Enhanced Return Address Predictor Security), una característica de seguridad de Zen 5 que amplía la profundidad del Return Stack Buffer en entornos de máquina virtual. Esto permite que las VMs se beneficien de las mismas protecciones y prestaciones de predicción de retorno que el sistema anfitrión.

Gráficos, NPU y vídeo: GPUs preparadas y más eficiencia en IA gracias a Linux 7.0

En el apartado gráfico, Linux 7.0 sigue ampliando el alcance de los drivers libres. El driver amdgpu continúa incorporando bloques de IP para GPUs basadas en RDNA 3.5 y posibles sucesores RDNA 4, sembrando el terreno para futuras tarjetas que aún no se han anunciado oficialmente. También se intuye una integración más profunda entre GPU y NPU en próximas generaciones de hardware Radeon, aunque por ahora sin detalles públicos.

Para los usuarios de GPUs Intel Arc y gráficas integradas Xe, el nuevo kernel expone mucha más telemetría térmica a través de HWMON: ya no sólo se ve la temperatura general de la GPU, sino también límites de apagado, valores críticos y máximos, así como lecturas del controlador de memoria, del enlace PCIe e incluso de canales de VRAM individuales. Esto mejora el control de temperatura y el diagnóstico, especialmente útil para equipos de sobremesa y portátiles de gama alta que empiezan a venderse con estas GPUs.

En el mundo NVIDIA, el driver NVK de código abierto para GPUs recientes recupera el soporte de páginas grandes, lo que supone mejoras de rendimiento en determinadas cargas 3D y de cómputo que puedan aprovechar ese tamaño de página.

Más allá del GPU puro, Linux 7.0 introduce un subsistema de aceleración computacional renovado para hablar directamente con las NPUs. Esto permite que tareas de inteligencia artificial se ejecuten en la NPU sin intermediarios adicionales, con beneficios importantes: se reduce el consumo de batería hasta en un 80 % frente a ejecutar las mismas tareas en la CPU y, al ganar eficiencia, más aplicaciones podrán realizar inferencias en local sin depender tanto de la nube. Para usuarios y organizaciones preocupadas por la soberanía de los datos, procesar modelos de IA en el propio dispositivo es una ventaja clara.

Portátiles, periféricos y nuevas teclas para la era de la IA

En equipos portátiles, muchos cambios pueden pasar inadvertidos pero marcan la diferencia en el día a día. El driver ASUS WMI mejora el control de brillo, retroiluminación y efectos RGB en gamas como ROG y TUF, e incluye soporte para atajos como la tecla Fn + F5 de control de ventiladores en algunos modelos. El driver HP WMI suma control manual de ventiladores en portátiles HP Victus y resuelve pequeños problemas como el LED de muteo de audio en el Victus 16, que no se actualizaba correctamente.

Los portátiles y consolas portátiles de Lenovo, como la familia Legion y dispositivos tipo Legion Go, exponen más sensores de hardware a herramientas de monitorización gracias a mejoras en el driver Lenovo WMI, lo que facilita vigilar temperaturas y velocidades de ventilador desde Linux. Para marcas como TUXEDO, el kernel añade la posibilidad de gestionar el cTGP (Total Graphics Power configurable) en algunos modelos InfinityBook Gen7 con GPU NVIDIA serie 3000, aunque de momento a través de atributos sysfs y no de interfaces gráficas.

Entre los periféricos curiosos que ganan soporte destacan los mandos Bluetooth de Rock Band 4 para PS4 y PS5, que ahora funcionan directamente en Linux, y el teclado inalámbrico de carga solar Logitech K980, totalmente soportado a través de Bluetooth. También se añaden nuevos códigos HID relacionados con teclas de interacción con agentes de IA, anticipando portátiles con botones específicos para asistentes inteligentes y funciones de IA integradas.

Arquitecturas y plataformas: ARM, RISC‑V, Loongson y más

Linux 7.0 continúa ampliando el espectro de arquitecturas soportadas. Esta versión refuerza el soporte para plataformas ARM, RISC‑V y Loongson, así como para procesadores veteranos como SPARC o DEC Alpha, que siguen recibiendo actualizaciones puntuales gracias a una comunidad muy fiel.

En el caso de RISC‑V, el kernel gana soporte para mecanismos de integridad de flujo de control en espacio de usuario (CFI), una pieza importante para endurecer la seguridad de software en esta arquitectura emergente. También se sigue avanzando en la integración de SoCs concretos como el SpacemiT K3 RVA23 y en el soporte para nuevas especificaciones de conectividad inalámbrica como WiFi 8 (Ultra High Reliability), que empieza a perfilarse en la pila de red aunque aún falten años para su despliegue masivo.

En el ámbito ARM, además de los SoCs Rockchip ya mencionados, continúan los esfuerzos por mejorar la experiencia en dispositivos con Qualcomm Snapdragon, incluidos los nuevos chips orientados a portátiles como Snapdragon X Elite y X2 Elite. En 7.0 se han integrado nuevos elementos de PHY y otros bloques de soporte, pero el propio ecosistema reconoce que todavía queda camino para alcanzar una experiencia totalmente pulida en portátiles ARM con Linux.

Seguridad del kernel y criptografía post‑cuántica

La seguridad sigue siendo un eje central. Además de las ventajas indirectas de Rust, Linux 7.0 introduce cambios en la infraestructura criptográfica y en la gestión de firmas de módulos. Una de las decisiones más relevantes es la retirada de SHA‑1 como algoritmo de firma para módulos del kernel, sustituyéndolo por esquemas basados en ML‑DSA, considerados más robustos frente a ataques de nueva generación y alineados con la transición hacia criptografía post‑cuántica.

Durante la fase final del desarrollo, los mantenedores también han resuelto vulnerabilidades concretas que podían haber retrasado el lanzamiento. Entre ellas, errores de hardware espurios detectados en CPUs AMD Zen 3 y un acceso fuera de límites en el código de certificados X.509 que podía ser disparado por usuarios sin privilegios y que llevaba presente en el kernel principal desde hacía tres años.

En paralelo, la documentación de seguridad del kernel, en concreto el archivo security-bugs.rst, se ha actualizado para guiar mejor a las herramientas de IA que envían informes automáticos y a los usuarios humanos que reportan fallos. El objetivo es reducir el ruido y centrarse en reportes con información realmente útil, dado que el volumen de notificaciones se ha disparado al mejorar las herramientas automatizadas.

Linux 7.0 en la nube y la protección de datos

En entornos de cloud, donde Linux sigue siendo dominante, esta versión refuerza el aislamiento de máquinas virtuales y la protección de datos en tránsito y en reposo. Un foco clave son los enclaves de memoria cifrados y la mejora de las técnicas de aislamiento, pensadas para que incluso personal con privilegios elevados en la infraestructura no pueda inspeccionar datos sensibles de los clientes.

Grandes proveedores internacionales como Meta o Amazon, que mantienen un peso significativo en centros de datos, demandan mecanismos que permitan que los datos sean invisibles incluso para administradores. Linux 7.0 avanza en esa dirección mediante mejores herramientas de aislamiento y cifrado, lo que, combinado con el auto‑sanado de XFS y la estandarización del reporte de errores de I/O, ofrece una base más sólida para servicios financieros, sanitarios o gubernamentales desplegados en nubes públicas y privadas.

En conjunto, Linux 7.0 se presenta como una versión que, sin venderse como revolución, consolida muchas líneas de trabajo iniciadas en la serie 6.x y prepara el ecosistema para la próxima década de hardware y servicios. Desde el escritorio hasta la nube, pasando por portátiles, servidores y dispositivos embebidos, este kernel refuerza la estabilidad, afina el rendimiento en memoria y almacenamiento, acerca la IA al dispositivo con menos consumo y refuerza la seguridad tanto a nivel de lenguaje como de criptografía y aislamiento. No es una edición de soporte extendido, pero sí un punto de referencia claro para medir hacia dónde se dirige el desarrollo del núcleo de Linux.


Así es Brave Origin, el futuro navegador más sencillo que habrá que pagar… si no usas Linux

Brave Origin

Cuando veo que la gente usa Chrome como navegador web por defecto, sólo puedo pensar que lo hacen porque no saben qué hay y qué pasa. Inmediatamente les recomiendo usar Brave, alegando que es lo más parecido a Chrome sin las garras de Google, pero también entiendo que tiene demasiados añadidos que hacen que la experiencia sea extraña para este tipo de usuarios. Quizá ese sea el motivo por el que hace unos meses se empezó a coquetear con la idea de Brave Origin.

Cuando yo recomiendo a Brave como «Chrome sin Google», se podría decir también que Brave Origin será «Brave sin Brave», de algún modo. La versión normal ofrece Rewards, Wallet, Leo AI y varias cosas más que le hacen ser quien es, pero todas estas funciones no están hechas para todos. Brave Origin pretende ser, tal y como algunos describen, la versión «des-bloatizada» del navegador del león valiente.

Actualizar Brave a Brave Origin o descargar la versión sencilla

Brave aún no lo ha publicado en redes sociales, pero sí hay mucho en su GitHub. Por ejemplo, esta pull request muestra un apartado en el Brave tradicional que permitirá desactivar todas esas cositas para ir simplificando el navegador de siempre. En esta otra petición se muestra el muro de pago que pedirá suscripción para usar el Brave Origin.

Más tarde, el CEO de Brave salió al paso a cortar lo que considera «desinformación» y explicó que Brave Origin será una versión nueva, opcional, separada y con menos funciones que será gratis en Linux, con un pago y sólo uno en otras plataformas:

Personalmente, a mí no me parece que lo que publican en Reddit sea desinformación. Más bien interpretan lo que ven en GitHub, y si ven allí un muro de pago y la palabra «suscripción», la cosa parece clara. O parece clara cuál era la intención en un principio.

Gratis en Linux. ¿Por qué?

Gratis en Linux

Origin será gratis en Linux, mientras que el resto de usuarios tendrá que pagar por él. ¿Por qué? No lo han dicho. Es posible que usen al 5% de los usuarios de escritorio como parte de su promoción. Hay parte de la comunidad que piensa que pretenden convertirse en el navegador por defecto en la mayoría de distribuciones Linux, puesto que ahora ocupa Firefox, pero esto es pura especulación.

Lo único cierto es que se espera que también llegue a Windows, macOS, Android y iOS, y todos ellos tendrán que pagar. ¿Cuánto? No se sabe. De momento, en los últimos seis meses ya hay información contradictoria GitHub vs. CEO y una habla de suscripción mensual/anual y la otra de un pago único. Ponerle precio en esta situación es totalmente imposible. Aún así, he leído algo de 59.99$ en la versión de iOS.

Cómo instalar la versión Nightly

La versión Nightly de Origin ya está disponible en su GitHub. Hay decenas de paquete (Ctrl +F y buscar «origin» ayudará), pero a los usuarios de Linux nos interesan los .deb y .rpm que hay para amd64 y arm64. La instalación es tan sencilla como descargar el paquete compatible con nuestra distribución e instalarlo con el comando de turno (en Ubuntu sería sudo apt install /ruta/al/paquete.deb).

Los usuarios de una distribución con base Arch aún lo tenemos más sencillo, pues hay un paquete en AUR acabado en -bin que significa que ya está compilado. Para instalarlo basta con usar un asistente como yay o paru e instalar brave-origin-nightly-bin (por ejemplo, yay -S brave-origin-nightly-bin).

Simplificar la versión oficial para obtener Brave Origin

Lo cierto es que no se puede llegar a lo que ofrece Origin desde la versión oficial o normal. Sí podemos desactivar algunas cosas:

  • Las recompensas (Rewards) se desactivan poniendo brave://rewards en la barra de URL. Abajo a la izquierda encontramos el menú «Más» y allí «Desactivar y restablecer las Recompensas».
  • Brave Wallet se puede desactivar desde brave://flags, concretamente la bandera»Enable Brave Wallet».
  • Brave Talk está en el panel izquierdo, y se puede quitar con un clic secundario y «Eliminar».
  • Leo tiene su propia pestaña en los ajustes. Bastaría con ir allí e ir desactivando todas las opciones.
  • En el apartado de Privacidad y seguridad de Ajustes podemos desactivar Tor (yo no lo haría), y también evitar compartir estadísticas en la sección «Recopilación de datos».

Aún con todo, si alguien busca un navegador con base Chromium sencillo, Brave Origin será lo mejor. Y más si es gratis.


KDE Frameworks 6.25 introduce correcciones de errores y ajustes de mantenimiento en sus bibliotecas básicas

KDE Frameworks 6.25

La última versión de las bibliotecas de KDE ya está disponible. Con el lanzamiento de KDE Frameworks 6.25, el proyecto da un nuevo paso en su ciclo de actualizaciones mensuales, introduciendo cambios pensados principalmente para desarrolladores, pero que también se traducen en una experiencia algo más pulida para quienes usan aplicaciones KDE en su día a día.

Aunque no se trata de una revolución, esta entrega llega cargada de ajustes de mantenimiento, mejoras de rendimiento y correcciones de errores que consolidan la base técnica sobre la que se construyen aplicaciones y el propio escritorio Plasma, muy presentes en el ecosistema GNU/Linux.

KDE Frameworks 6.25: una actualización de mantenimiento importante

El conjunto de bibliotecas que forman KDE Frameworks se actualiza de forma periódica, y la versión 6.25 se enmarca en esta serie de lanzamientos mensuales que buscan ofrecer a los desarrolladores un flujo de mejoras constante y predecible. No estamos ante un cambio radical de funcionalidades, sino ante una versión que pule detalles, refuerza la estabilidad y corrige errores detectados en versiones anteriores.

Según la información publicada por la comunidad KDE, el objetivo es que quienes desarrollan software sobre estas bibliotecas puedan acceder rápidamente a correcciones y pequeñas mejoras, sin tener que esperar a grandes lanzamientos espaciados en el tiempo. Esta filosofía facilita que distribuciones muy asentadas en KDE, como las basadas en Plasma 6, puedan ir integrando estos avances de manera progresiva.

KDE Frameworks 6.25 introduce mejoras de rendimiento y experiencia de uso en aplicaciones KDE

Una de las líneas de trabajo más destacadas en KDE Frameworks 6.25 tiene que ver con el rendimiento general de las aplicaciones que hacen uso de estas bibliotecas. Se han aplicado optimizaciones que se traducen en programas más ágiles y sensibles a las acciones del usuario, algo que notan tanto quienes desarrollan como quienes solo utilizan el software.

Estas optimizaciones afectan especialmente a aplicaciones KDE, reduciendo tiempos de respuesta y mejorando la fluidez. Para el entorno donde KDE Plasma es uno de los escritorios más extendidos en muchas distribuciones GNU/Linux, estos pequeños incrementos de rendimiento pueden notarse en tareas cotidianas como la gestión de archivos, el uso del menú de aplicaciones o la ejecución de herramientas de productividad.

Ajustes en KRunner y mejoras en el tratamiento de mensajes

Entre los cambios concretos, KDE Frameworks 6.25 introduce novedades en las búsquedas basadas en KRunner, el conocido lanzador y motor de búsqueda integrado en KDE. A partir de esta versión, el sistema es capaz de manejar conversiones relacionadas con la unidad «momme», una medida de peso utilizada en el sector de los textiles de seda. Esta incorporación, aunque muy específica, demuestra cómo KDE sigue ampliando poco a poco los casos de uso de su motor de búsqueda.

Además, se han introducido cambios en la forma de mostrar diálogos y cuadros de mensaje en las aplicaciones KDE. Ahora, el texto de estos mensajes se ajusta para que se envuelva alrededor de unas 70 columnas de ancho, en lugar de depender tanto del tamaño de la pantalla. Con ello se busca que la legibilidad de los avisos y cuadros de diálogo sea más consistente, algo que puede marcar la diferencia en portátiles, monitores ultrapanorámicos o configuraciones multi pantalla habituales en oficinas y centros educativos.

Correcciones de errores y regresiones solucionadas

La versión 6.25 también se centra en resolver fallos detectados en lanzamientos previos. Uno de los más llamativos tenía que ver con iconos que dejaban de mostrarse correctamente en algunas aplicaciones, como OBS Studio o Ungoogled Chromium, muy usadas en ámbitos como la creación de contenidos, el streaming o la navegación centrada en la privacidad.

Para hacer frente a este problema, KDE Frameworks 6.25 revierte un cambio anterior que provocaba esa rotura de iconos, relacionada con una limitación en el motor de renderizado SVG de Qt, la base tecnológica sobre la que se apoya gran parte del software KDE. Al restaurar el comportamiento previo se recupera la visualización correcta de muchos iconos sin introducir nuevos efectos colaterales.

Otro ajuste que destaca es el relacionado con el manejo del portapapeles. A partir de ahora, cuando el usuario intenta pegar contenido y el portapapeles está vacío, el sistema deja de mostrar una notificación innecesaria. Este cambio, aparentemente pequeño, reduce el ruido visual y evita avisos que no aportan información útil, algo que muchos usuarios de escritorios KDE agradecerán en su trabajo diario.

KDE Frameworks 6.25 muestra una interfaz más pulida y flujo de trabajo mejorado para desarrolladores

Aunque KDE Frameworks sea principalmente un conjunto de bibliotecas, la comunidad también ha trabajado en que las herramientas asociadas resulten más fáciles de utilizar. Buena parte de los cambios de la rama 6.x se centran en que los desarrolladores encuentren antes lo que necesitan, con interfaces y flujos de trabajo más claros.

En este contexto, la versión 6.25 continúa el esfuerzo por una interfaz más intuitiva y coherente en todo el ecosistema. Esto no solo influye en quienes escriben código, sino en la sensación de homogeneidad que perciben los usuarios finales al moverse por distintas aplicaciones KDE, algo relevante para los despliegues en entornos profesionales, instituciones públicas y centros educativos, donde la consistencia visual y funcional se valora especialmente.

Documentación actualizada y más accesible para nuevos desarrolladores

Otro de los pilares de este lanzamiento es la actualización de la documentación oficial de KDE Frameworks. La comunidad ha incorporado nuevos tutoriales y ejemplos prácticos para facilitar que tanto desarrolladores experimentados como quienes dan sus primeros pasos puedan entender y aprovechar las novedades incorporadas.

Esta documentación renovada incluye guías paso a paso, ejemplos de código y explicaciones detalladas sobre las nuevas funcionalidades, además de mejores prácticas para sacar partido a las bibliotecas. Para el ecosistema de software libre, donde muchas personas se inician en el desarrollo a través de proyectos KDE, contar con materiales claros y al día es un factor clave para atraer nuevas contribuciones.

Un paso más en la evolución del ecosistema KDE 6

KDE Frameworks 6.25 se inserta en un momento de transición en el que el ecosistema KDE avanza de forma decidida en torno a Plasma 6 y las nuevas versiones de sus aplicaciones. Que las bibliotecas fundamentales mantengan un ritmo constante de lanzamientos con correcciones y pequeñas mejoras es crucial para que todo el conjunto se mantenga cohesionado.

Mientras los usuarios continúan adoptando escritorios y aplicaciones basados en KDE 6, versiones como la 6.25 sirven para refinar detalles, corregir regresiones y mejorar aspectos específicos que quizá pasan desapercibidos en notas de prensa, pero tienen un impacto directo en la solidez del entorno y en la confianza de quienes lo utilizan a diario.

Con esta actualización, KDE refuerza la idea de que su prioridad pasa por ofrecer unas bibliotecas estables, bien documentadas y en mejora continua, sobre las que se pueda construir software libre competitivo y adaptado a las necesidades actuales. Desde ajustes en el comportamiento del portapapeles, pasando por la corrección de iconos en aplicaciones populares, hasta la incorporación de nuevas capacidades en KRunner, KDE Frameworks 6.25 demuestra que incluso los lanzamientos considerados «menores» juegan un papel importante a la hora de mantener un ecosistema sano y listo para seguir creciendo en la comunidad.