El núcleo de Linux es pesado y enorme, dice Linus Torvalds

Linus participaba en una mesa de trabajo en el evento LinuxCon cuando un ingeniero de Novell haciéndose eco de un un estudio interno de Intel que analiza el lanzamientos del kernel determinando que había caído un 12 por ciento en los últimos diez años, preguntó si las características del kernel se estaban incorporando demasiado rápido sin esperar a que el Kernel se optimizara/estabilizara antes y que si esto era un problema.

Torvalds reconoció que “sí, que era un problema y que el kernel estaba inflado y era ya enorme”, admitiendo además que no había planes para solucionarlo y que le gustaría contar “con un kernel pequeño e hipereficiente como había imaginado hace quince años”. Sin embargo explicó que aunque esta situación “era inaceptable, al mismo tiempo era inevitable”, seguramente por la misma arquitectura del kernel y especilmente por la inmensidad de código añadido en los últimos años.

Líneas de código fuente que se han multiplicado por 10 en los últimos diez años o ficheros que se han multiplicado por 5 en el mismo periodo, además de añadir todo tipo de controladores y características añadidas para soportar nuevo hardware y tecnologías. Por otro lado una cosa es el kernel y otra muy distinta las distribuciones basadas en él, que precisamente apoyadas por la mejora del hardware son cada vez más rápidas y eficientes, que es lo que verdaderamente interesa a la inmensa mayoría de usuarios finales.

No sé, me parece un debate estéril. ¿Qué te parece a tí? ¿Autocrítica o flame de Torvalds? ¿Necesidad de mejora? ¿Cambio futuro a conceptos como el micro-kernel o ya es tarde?

vINQulos
The Register