Versión para imprimir (PDF, 127kb)

Cooperación y producción inmaterial en el software libre.
Elementos para una lectura política del fenómeno GNU/Linux

Laurent Moineau y Aris Papathéodorou

Enero 2000

El jueves 9 de diciembre de 1999 la compañía VA Linux1 entra en bolsa en el Nasdaq, el mercado público de las nuevas tecnologías. Las acciones VA Linux, que cotizan al salir 30$ valen al final de la sesión 239,25$. Una subida récord (698% en una sola sesión) para una entrada en bolsa en los EE.UU., pero sobre todo es la primera vez que en circunstancias similares unas acciones terminan la sesión por encima de la barrera de los 200$. Más allá de la anécdota, estos hechos merecen una reflexión. En efecto, el entusiasmo repentino de los medios bursátiles por lo que no era, hasta poco antes, más que un sector marginal en la producción de software ¿es sólo un producto de la ideología americana de la new economy, la creencia en la reconquista del paraíso perdido gracias a las ``nuevas tecnologías'' de la comunicación y de lo inmaterial? ¿El capitalismo financiero está cediendo en esto a una simple moda pasajera con la esperanza de obtener algunos beneficios fáciles y rápidos? ¿O quizá es la señal de que el software libre --del que el sistema GNU/Linux es su locomotora-- después de haber aumentado espectacularmente contra todo pronóstico el número de usuarios se impone ahora también al conjunto de la economía-mundo? Una de las paradojas de esta situación, y no la menos importante, reside precisamente en la emergencia en el seno mismo de la economía capitalista de un nuevo modelo productivo --el del ``software libre''-- que se construye por una parte en torno al rechazo de la apropiación privada de las fuentes de innovación y de la producción inmaterial y, sobre todo, por un ciclo de producción totalmente cooperativo.

Es la naturaleza y las modalidades de esta cooperación productiva, excepcional por muchos motivos, lo que nos interesa captar. En efecto, si no nos quedamos en la simple interpretación ideológica que no vería aquí más que una pura (y tradicional) contradicción entre una ``alternativa no mercantil'' y la potencia recuperadora del mercado, podremos observar en la emergencia del modelo productivo del software libre, en sus contradicciones y en los envites que se anudan alrededor de su devenir, no solamente elementos de interpretación del capitalismo posindustrial, sino sobre todo indicadores de los envites políticos que se dibujan bastante más allá del sector informático. Pero, para comprender lo que se está tejiendo ahora, nos parece que hace falta antes de nada recorrer una serie de procesos de constitución de saberes, de agregaciones comunitarias y de innovaciones tecno-científicas.

1   El nacimiento de Unix. Una auténtica revolución del software

La informática --nacida en la continuidad de la competición tecnológica de la II Guerra Mundial y desarrollada bajo el aguijón belicoso de la guerra fría-- no está todavía, a principio de las años setenta, más que en una etapa quasi-experimental de una tecnología punta infrecuente y costosa. Los ordenadores son principalmente supercalculadoras imponentes, de uso frágil y a veces incierto pero sobre todo prácticamente incapaces de comunicarse entre sí. Un universo particularmente fragmentado en el límite del autismo, en el que los fabricantes ofrecían cada modelo de máquina con su propia sistema, su propio software, su propio lenguaje de programación pero también en el que los propios usuarios --en cuyos círculos restringidos a los programadores-pioneros se les empieza a conocer como hackers-- preferían a menudo simplemente ``producir'' su propio sistema y sus propios lenguajes de programación adaptados a sus necesidades específicas...

En este contexto aparece un nuevo sistema operativo, Unix, que da radicalmente la vuelta al mundo de la informática.

Según una leyenda, el jefe de AT&T, cansado de los numerosos problemas de incompatibilidad entre los diferentes tratamiento de textos utilizados en aquel momento, habría abierto una importante línea de crédito para intentar resolver este quebradero de cabeza permanente. Ken Thompson --experto en materia de sistemas que procede de los laboratorios-- y Dennis Ritchie --el inventor del lenguaje de programación C-- se ponen manos a la obra. Rápidamente ponen en evidencia que el verdadero envite no está tanto en hacer compatibles los programas de tratamiento de textos con las diferentes arquitecturas de hardware, sino más bien en hacer que el sistema operativo mismo sea ``portable'' a los diferentes tipos de máquinas. Para ellos la evolución del hardware, que vive ya la aparición de los primeros miniordenadores, así como los auténticos progresos en materia de programación, hacen posible y necesaria la concepción de un sistema operativo completamente nuevo que contenga como cualidad intrínseca la posibilidad de la cooperación.

El proyecto Unix, iniciado en 1971, se impone en gran medida a partir de 1974, año en el que se aplica con éxito en numerosos modelos de ordenadores diferentes en los que funciona de manera casi idéntica. El sistema Unix se muestra por lo tanto como un agenciamiento de herramientas informáticas concebidas para combinarse eficazmente las unas con las otras y constituir así un ``entorno informático común''. Se impone rápidamente por sus cualidades nuevas: una simplificación para el usuario de la estructura lógica de programación, una concepción modular del sistema que aumenta las posibilidades de adaptación (por ejemplo, en diferentes arquitecturas de hardware). Y sobre todo, Unix es el primer sistema operativo multiusuario y multitarea que se basa en el respeto de estándares abiertos.

2   El laboratorio de inteligencia de Berkeley

El interés de la comunidad universitaria por el sistema Unix cristaliza particularmente en la Universidad de Berkeley, California. En 1974 un grupo de investigadores y estudiantes de Informática adquiere el Unix de AT&T. La empresa les ha cedido por una cantidad razonable el código fuente del sistema 2

Pero el sistema AT&T requiere para funcionar correctamente en las máquinas de Berkeley algunas mejoras y adaptaciones que aportarán en particular dos jóvenes estudiantes de Informática, Chuck Halley y Bill Joy, con la ayuda del mismo Ken Thompson. De este trabajo --estructurado en torno a a un pequeño equipo de pioneros-- saldrá, a principios de 1977, la Berkeley Software Distribution (BSD), una versión del sistema Unix mejorada por los hackers de la Universidad de Berkeley. El sistema BSD, que conoce un verdadero éxito entre los equipos universitarios de todo el mundo, se pondrá al día regularmente durante los años siguientes gracias a las múltiples contribuciones y aportaciones de los mismos usuarios.

En seguida dos versiones Unix, pero sobre todo dos culturas Unix, corren paralelamente para luego enfrentarse. La de Unix System Labs de AT&T por un lado y la de Computers Systems Research Group (CSRG) de Berkeley por el otro; por un lado los mecanismos de innovación de empresa, por otro un proceso cooperativo de innovación en el seno de una comunidad (si bien restringida). El éxito de BSD plantea un problema en seguida a AT&T, que en 1992 lleva al CSRG a los tribunales por haber sobrepasado los términos de la licencia acordada y haber hecho públicos ``secretos industriales''. Será el comienzo de una larga batalla jurídica que no acabará hasta 1994, con la venta por parte de AT&T de los Unix System Blacks a la empresa Novell, que se apresura a llegar a un acuerdo. El proyecto BSD no sobrevive sin embargo a la aventura judicial. El acuerdo al que se llegó entonces permite de todos modos sacar una última versión del sistema BSD llamada ``4.4 BSD Lite'', bajo licencia libre y desembarazada de toda huella de código perteneciente a AT&T.3.

El final del desarrollo del Unix BSD, a causa de la epopeya judicial del copyright, pone fin a una época. La informática pasa de la era de los pioneros a la de la producción industrial de mercado. Numerosos hackers históricos abandonan los laboratorios para formar su propia empresa o se integran en los mayoristas del sector. La empresa Sun, por ejemplo, surge directamente del vivero de la Universidad de Berkeley donde fue concebida la versión BSD de Unix.

Esta situación tiene dos consecuencias principales. En primer lugar, la de conducir a una verdadera balcanizacion de los diferentes sistemas basados en Unix, hasta las diferentes tentativas de relanzar el proyecto BSD fuera del marco universitario (NetBSD, FreeBSD, OpenBSD). Cada una desarrolla sus propia variantes, sus propias implementaciones en detrimento la mayor parte de las veces de la compatibilidad. Y, en segundo lugar, encierra al desarrollo informático en lo que será llamado ``sistema propietario'', es decir, la aplicación estricta por parte de las empresas del principio de propiedad privada a toda producción de software, excluyendo así toda publicidad del código y por lo tanto toda participación de los usuarios en su desarrollo. Lo que, en otros términos, lleva a impedir cualquier innovación en el seno de un producto terminado.

3   Una necesidad no satisfecha de innovación y de libertad

Anticipándose a ese callejón sin salida, en 1984 Richard M. Stallman lanza el movimiento del software libre (``Free Software Foundation'') con el objetivo político de oponerse a la apropiación privada de la inteligencia informática (el software) por parte de las empresas del sector. Pero ¿qué es eso del software libre? Podemos decir que un programa es libre si ``tienes la libertad para ejecutarlo, sea cual sea el motivo por el que quieres hacerlo; tienes la libertad de modificar el programa para adaptarlo a tus necesidades (en la práctica, para que esta libertad tenga efecto, tienes que poder acceder al código fuente, ya que introducir modificaciones en un programa del que no se dispone del código fuente es un ejercicio extremadamente difícil); dispones de la libertad de redistribuir copias, ya sea gratuitamente o a cambio de una cantidad de dinero; tienes libertad para distribuir versiones modificadas del programa, de tal manera que la comunidad pueda beneficiarse de tus mejoras''.4

Con la constitución de la FSF y del proyecto GNU5, Stallman y otros hackers se empeñan en el objetivo de construir un sistema operativo de tipo Unix completamente basado en software libre...``Un sistema operativo permite hacer muchas cosas; sin sistema el ordenador ni siquiera puede funcionar. Un sistema operativo libre haría de nuevo posible una comunidad de hackers trabajando de modo cooperativo --e invitar a que se nos uniera quien quisiese. Todos y cada uno podrían utilizar un ordenador sin tener que sumarse a una conspiración que buscaba privar a tus propios amigos de los programas que utilizas.''6 Una tarea descomunal que pasa primero por el desarrollo de programas libres (bajo etiqueta GNU) que correspondan a las funciones esenciales requeridas por un sistema operativo (compiladores, editores de texto, etc.). Pero también una formalización del estatuto del software libre de manera que lo que se desarrolle como código libre no pueda ser después transformado en ``software propietario'', privando de este modo a los usuarios de toda libertad de uso. Se trata de la creación del principio de copyleft --por oposición al copyright-- y sobre todo de su puesta en marcha bajo la forma de la licencia libre GPL. Esto plantea al mismo tiempo la libertad de uso y de modificación del código bajo GPL y la imposición de que todo programa que integre todo o una parte tenga que ser imperativamente a su vez software libre.7

4   Internet, la estructura que conecta

No es posible hablar de lo que ha ocurrido en el mundo de la informática y del software sin evocar el papel determinante de Internet. A partir de la experimentación de las primeras redes telemáticas, a fines de los años cincuenta bajo la égida de la investigación militar avanzada (ARPA), esta forma de comunicación seduce a los investigadores y a los informáticos por sus potencialidades en materia de intercambio de datos de manera horizontal y por la posibilidad de la cooperación a distancia.

Sin duda no es casualidad que el sistema Unix incluya de principio sus propios protocolos de red (UUCP e IP), que permiten a dos ordenadores funcionando bajo Unix intercambiarse mensajes electrónicos a través de líneas telefónicas ordinarias. Las máquinas Unix crearán muy pronto una red en la red, de la que saldrá en 1980 la red Usenet (la de los newsgroups, los forums electrónicos hoy parte integrante de Internet), que en seguida superará en amplitud a ARPAnet8. Este sistema de relaciones sociales a distancia9, a través de la escritura transportada de un ordenador a otro, no podía quedar confinada al mundo de la investigación. Los investigadores mismos son frecuentemente jóvenes y tienen inquietudes diversas, desde la política a la música, de la filosofía zen al deporte, gradualmente el uso de la red comienza a ``desviarse'' de su función primera que es la de conectar los superordenadores de los laboratorios de investigación y crean áreas de discusión dedicadas a los temas más diversos.

La red deviene un instrumento autónomo en manos de comunidades de investigadores. Un instrumento que funciona como una máquina de guerra para la circulación de procesos cognitivos pero también como máquina subjetiva para la constitución de espacios comunitarios virtuales. Así, lo que circula a través de las líneas telefónicas (correo, newsgroups) es más que una suma de simples datos académicos: la comunicación electrónica se convierte en el vector de agregación de microcomunidades de intereses, de cooperación en proyectos comunes. De hecho el sistema GNU/Linux llega en un momento en el que la cooperación se ha hecho posible a gran escala a través de la red. Podemos incluso decir que es de alguna manera la primera producción ``palpable'' de Internet, es decir, la primera vez que la red de redes materializa otra cosa diferente que ella misma.

5   El núcleo viene del frío

A principios de los años noventa, un joven estudiante finlandés, Linus Torvalds, sorprende proponiendo casi por azar un nuevo sistema operativo construido alrededor de un núcleo10 muy pronto bautizado como ``Linux''. Linus deseaba simplemente poder ejecutar en su casa, en su propio PC, los programas que él mismo realizaba o utilizaba en su carrera. Como su universidad estaba equipada con ordenadores de tipo Unix, Linus se propuso crear un sistema Unix libre de derechos que pudiera funcionar con una arquitectura hardware de tipo Intel (los PC), los microordenadores más corrientes.

De hecho, en ese momento, la tarea no era tan dura como parece. El proyecto GNU de la Free Software Foundation (FSF) se había ocupado ya de redesarrollar la mayor parte de los comandos Unix, así como cierto número de software fundamental como el compilador GCC. Un Unix libre, diferente del sistema BSD, ya había sido casi realizado, pero la FSF no había anticipado correctamente el desarrollo formidable del PC. Los programas de GNU eran instalados por administradores del sistema atentos al rendimiento y a la portabilidad sobre los miniordenadores que funcionaran con Unix. La idea genial de Linus fue centrarse en la concepción y realización de un núcleo capaz de interactuar con los programas de GNU, llevando el conjunto a los ordenadores personales.

Eric S. Raymond relata así su descubrimiento de GNU/Linux: ``El encuentro con Linux fue un shock. A pesar de llevar bastantes años de actividad en la cultura hacker, todavía arrastraba la idea no contrastada de que los hackers amateurs, aun los más dotados, no podrían juntar jamás los recursos suficientes ni el talento para producir un sistema operativo multitarea utilizable[...] Observar este exceso de código maravilloso desplegado ante mis ojos fue una experiencia bastante más potente que contentarme con saber, desde un punto de vista únicamente intelectual, que todas los trozos existían probablemente ya en alguna parte. Es como si me hubiera estado paseando durante años en medio de montones de piezas de recambio desparejadas y me encuentro de repente enfrente de esas mismas piezas juntadas bajo la forma de un Ferrari rojo y rutilante, con las puertas abiertas, las llaves bailando en el contacto y el motor rugiendo promesas de potencia...Las tradiciones hackers que yo venía observando durante los últimos veinte años cobraban de repente vida de un modo nuevo y vibrante.''11

Concebido de manera casi confidencial en 1990, el sistema GNU/Linux se revela realmente en 1993. En nada de tiempo, se contagia lo que queda de las comunidades de hackers dispersas en el mundo y la joven comunidad de los nuevos usuarios de PC, que pasan así del bricolaje en MS-DOS a la programación en Linux. Algunos han dicho a propósito de Linux que era ``el summum del hack''. Tras el énfasis de esta expresión, se constata que efectivamente el sistema construido en torno al núcleo linux potencia el conjunto del patrimonio del código acumulado durante dos decenios por toda la comunidad. Se revela como el sistema operativo más portable, puesto que funciona no solamente sobre arquitecturas Intel, sino también con PowerPC (Macintosh, IBM, Amiga), Sparc (Sun). GNU/Linux es también una plataforma opcional para sistemas empotrados: en pocos años, equipamientos tan diversos como autorradios, lavadoras o cafeteras llevarán este sistema incorporado.

6   El proceso de desarrollo del software libre

La verdadera innovación del sistema GNU/Linux no reside solo en su dimensión ``tecnológica'' (el núcleo portable), sino en los mecanismos sociales de producción de la innovación que se ponen en juego alrededor suyo. En efecto, una de las mayores fuerzas de este sistema operativo --que puede explicar ampliamente su éxito actual-- es no solamente su fuerte contenido innovador, sino sobre todo haberlo basado en el potencial creativo existente en el software libre, y después en la utilización de la red Internet como espacio en el que se elaboran nuevos proyectos y en el que se pone en marcha una cooperación masiva y abierta. Retomando en gran medida los métodos de trabajo ``comunitario'' puestos en marcha durante un tiempo en torno a la rama BSD/Unix, o del Massachussets Institute Technology (MIT), el desarrollo del código no será ya un acto aislado, ni como actividad personal ni en el marco empresarial, sino un verdadero proceso de cooperación en el que la relación producción/utilización tiende a diluirse. Los primeros usuarios del sistema son los mismos que lo desarrollan; del mismo modo podríamos decir que los primeros que lo desarrollan son sus propios usuarios.

El proceso de creación del software libre --contrariamente al ``software propietario''-- escapa a cualquier aproximación estilo marketing, basándose más bien en la noción de utilidad social. Alguien utiliza un programa y constata que no corresponde exactamente a sus necesidades, ya sea porque faltan algunas funcionalidades, ya sea porque su concepción no le satisface. Hace entonces el inventario de los programas existentes para comprobar si puede utilizar otro producto. Si este no es el caso, puede intentar la modificación del código fuente de un programa ya desarrollado o bien crear un software completamente nuevo, y en este último caso recurrir, vía listas de correo o grupos de news, a todos aquellos que expresen la misma necesidad para unir sus fuerzas y dar cuerpo a un nuevo software, por lo general retomando el código libre existente. Por tanto, la participación en un nuevo proyecto puede adoptar múltiples formas. Un usuario aguerrido puede aportar documentación pero también exponer una modificación del código --llamado patch o ``parche''-- al ``mantenedor'' del software.