Cuando Linus Torvalds decide intervenir en una discusión pública, la comunidad del software libre contiene el aliento. El creador del kernel de Linux, conocido por su aversión al consenso blando y su franqueza a menudo brutal, ha lanzado un nuevo discurso lleno de críticas violentas…
Esta vez dirigido contra los intentos de convertir la documentación técnica del kernel en un campo de batalla ideológico contra el contenido generado por Inteligencia Artificial, denominado «basura de IA».
La controversia surgió a raíz de un intercambio de correos con Lorenzo Stokes, un desarrollador afiliado a Oracle, quien mantenía una postura cautelosa y crítica frente a los Grandes Modelos de Lenguaje (LLM). En respuesta a una iniciativa para establecer directrices sobre contribuciones asistidas por bots, Stokes sugirió que tratar a los LLM como una simple herramienta más era una postura ingenua.
La réplica de Torvalds fue inmediata y tajante:
La documentación técnica no es el lugar para declaraciones morales ni manifiestos políticos.
El pragmatismo frente al activismo simbólico
El argumento central de Torvalds no niega la existencia de código de baja calidad generado por IA, sino que cuestiona la utilidad de regularlo mediante advertencias en la documentación. Según su visión, aquellos desarrolladores que envían «basura de IA» no van a etiquetar sus parches como tales, independientemente de lo que dicten las normas. Por lo tanto, llenar la documentación de advertencias éticas es, en sus palabras, una pose inútil que solo sirve para tranquilizar la conciencia de quien escribe las reglas, sin aportar valor real a la calidad del código.
Torvalds insiste en que la documentación está escrita para desarrolladores honestos. Tratar de resolver el problema de la calidad del código mediante cláusulas morales es un error de enfoque. Para el padre de Linux, el kernel debe mantenerse neutral ante la tecnología utilizada para crearlo. Hay suficientes opiniones divididas entre quienes ven la IA como el fin del mundo y quienes la ven como la solución definitiva; la documentación del kernel no debe tomar partido por ninguno de los dos bandos, sino limitarse a establecer estándares técnicos de verificabilidad y responsabilidad.
La IA ya está dentro: El caso de AUTOSEL
La ironía de este debate moral es que la inteligencia artificial lleva años operando silenciosamente dentro del ecosistema de Linux. El proceso de estabilización del kernel, una tarea titánica que requiere decidir qué parches aplicar a las ramas estables, se apoya desde hace tiempo en AUTOSEL. Esta herramienta, diseñada para seleccionar automáticamente parches relevantes basándose en modelos estadísticos, ha evolucionado recientemente para incorporar técnicas avanzadas de IA, incluyendo incrustaciones (embeddings) que le permiten analizar el significado semántico del código y los comentarios.
Sasha Levin, ingeniero sénior en Nvidia, ilustró esta realidad durante la Open Source Summit 2025. Levin explicó cómo utilizó IA para escribir una rutina completa para git-resolve en el kernel 6.16, limitándose él mismo a revisar y probar el código resultante. Este ejemplo subraya la visión que ya impera en la ingeniería de alto nivel: la herramienta acelera la selección y corrección de errores, permitiendo a los humanos centrarse en la validación. Incluso desarrolladores veteranos, como Dmitry Brant de Wikimedia, han documentado públicamente el uso de asistentes como Claude Code para modernizar controladores con décadas de antigüedad.
La analogía del Autotune y la responsabilidad humana
Para explicar su filosofía sobre la IA en el desarrollo creativo, Torvalds recurre a una analogía musical: el Autotune. Para él, la inteligencia artificial es a la programación lo que el Autotune es a la música. Si se utiliza para permitir que personas sin talento canten, el resultado es mediocre y artificial. Sin embargo, en manos de un productor competente, es una herramienta poderosa para pulir y perfeccionar. El verdadero talento no necesita la IA para el proceso creativo, pero puede usarla para tareas de organización, verificación y eliminación de barreras de entrada.
En última instancia, la postura de Torvalds es un llamado a la responsabilidad individual. Las herramientas, sean LLM o compiladores, son amplificadores de las habilidades y de los errores del usuario. Lo que importa en un proyecto crítico como el kernel de Linux no es el origen del código (ya sea escrito por un humano insomne o por una red neuronal), sino que este sea preciso, mantenible y correcto. Convertir la documentación en un panfleto contra la tecnología desvía la atención de lo único que realmente importa: la calidad técnica y la revisión humana rigurosa.
Continúar leyendo...