Chapô
XX
Au cours de l'été 1999, un phénomène étrange s'est produit sur les marchés boursiers des Etats-Unis : l'entrée au Nasdaq de la société Red Hat qui commercialise un produit, le logiciel système Linux, que tout un chacun peut se procurer gratuitement sur l'Internet. Introduite à 14 dollars en août, l'action dépasse en 3 mois 230 dollars et la société Red Hat se présente dans les média comme le David qui abattra le géant Microsoft. Ce succès financier s'appuie sur un mouvement social et technique ancien, mais qui, dynamisé par l'Internet, n'a émergé que récemment aux yeux du public avec des allures de lame de fond : les logiciels libres.
Cette
histoire de liberté débute 30 ans plus tôt.
1969 fut une année faste. Année de naissance de l'Internet,
ce fut aussi celle de la création d'Unix aux Laboratoires Bell de
la société ATT. Créé
par Ken Thompson et Dennis Ritchie, ce qui leur valu le prix Turing en
1983, Unix était le premier système d'exploitation des ordinateurs
facilement portable sur des machines diverses. Il était écrit
dans un langage symbolique général, le langage C, au lieu
des « langages machines » * ou « assembleurs »*,
spécifiques de chaque ordinateur, qui étaient habituellement
utilisés à l'époque.
Le lien
entre le système Unix et l'Internet est profond. Tout d'abord, comme
le soulignent Michael et Ronda Hauben dans Netizens, un livre dédié
à l'idéologie de l'Internet, une motivation
du développement des systèmes à partage de temps*,
dont Unix reste l'exemple le plus achevé, était de pouvoir
faire de l'ordinateur un noeud d'échange et de coopération
[1]. Le développement de l'Arpanet, puis de l'Internet,
encouragé par les mêmes acteurs institutionnels américains,
participait également de cette philosophie pronée par des
pionniers comme Joseph C.R. Licklider et Robert
W. Taylor [2]. Flexible et rapidement disponible sur des architectures
variées, Unix devint
l'environnement de prédilection pour le développement
des composants logiciels de l'Internet, et le reste à ce jour.
Puissant
monopole américain des télécommunications, ATT était
à l'époque interdit d'activités commerciales dans
le secteur informatique en raison des lois anti-trust. N'étant pas
une ressource commerciale essentielle pour son propriétaire, le
logiciel Unix et le code source servant à son développement
furent assez facilement mis à disposition des universitaires et
des experts informaticiens. Et, compte-tenu également de la portabilité
du système, il se développa rapidement une communauté
ouverte de professionnels de l'informatique échangeant librement
idées et réalisations, collaborant, évaluant, améliorant
ou reprenant les travaux de leurs pairs, comme il est de tradition dans
la recherche scientifique. Les années 70 et 80 virent ainsi se multiplier
les contributions au système et à la science informatique
en général. Facilitant les communications et les échanges
de logiciels, et étant lui-même développé dans
l'environnement Unix, l'Internet fut un facteur décisif de cette
éclosion.
L'Internet
est constitué d'un ensemble de protocoles de communication et de
gestion de la structure du réseau, réalisés
par
des logiciels spécifiques. La standardisation des protocoles assurée
par l'action consensuelle de l'IETF (the Internet
Engineering Task Force) et le caractère public -
dû au financement public - des logiciels qui les réalisent
ont assuré, comme pour le système Unix, une activité
de recherche ouverte, libre et efficace. Le succès sociologique
et technique - et maintenant économique - de l'Internet est la conséquence
directe de cette situation.
La
fin des années 70 marque une montée protectionniste en
matière de logiciel. Les ordinateurs, jusqu'alors
rares, chers et peu puissants deviennent nombreux, bon marchés et
de plus en plus puissants. Les logiciels, qui étaient souvent livrés
avec les machines ou développés à la demande, sont
désormais des produits commerciaux indépendants, de complexité
croissante, sur le marché grandissant de ces machines bon marchés.
Les deux décennies qui suivent voient donc l'émergence d'une
nouvelle industrie : les éditeurs de logiciels. Cette industrie
repose sur une idée assez simple : comme toute oeuvre, le logiciel
appartient à celui qui le crée. Ce dernier peut donc le vendre
en en contrôlant la dissémination, avec des bénéfices
d'autant plus grands que le coût de chaque nouvel exemplaire est
quasi nul : il lui suffit de faire une copie. Et lui seul détient
le droit de le faire.
Pour
se préserver de la concurrence, les éditeurs
prennent l'habitude de protéger leurs techniques
de production des logiciels. L'effet sur l'évolution du système
Unix est dramatique : on assiste à une balkanisation
croissante du système due à la création de versions
concurrentes et privées, interdites de retouche aux programmeurs
[3].
Bien entendu, cette balkanisation a aussi un coût lié à
une incompatibilité croissante des versions, et surtout au désengagement
progressif de la communauté des chercheurs et techniciens. Cette
évolution explique en partie l'émergence et de la domination
de l'empire Microsoft.
La disparition du libre échange des logiciels est ressentie par nombre de chercheurs et développeurs comme une atteinte au fondement même de l'élaboration de la connaissance. Pour mieux comprendre ce sentiment, on peut s'appuyer sur un résultat de logique dû à H.B. Curry et W.A. Howard , dit isomorphisme de Curry-Howard, qui énonce une identité de nature entre les preuves mathématiques et les algorithmes informatiques[4]. La notion mathématique de proposition ou de théorème correspond, au travers de cet isomorphisme, à celle de spécification pour les programmes.
On imagine la frustration des mathématiciens si on leur disait tout à coup que les théorèmes sont une propriété privée, qu'il faut payer pour avoir le droit de les utiliser et que, en outre, les preuves étant secrètes, ils doivent donc faire confiance à la société commerciale qui les vend en spécifiant qu'elle ne saurait être tenue responsable des erreurs éventuelles.
La confiance
que l'on peut accorder à une théorie mathématique
est le résultat d'un processus social fondé sur la libre
circulation de l'information dans la communauté scientifique : elle
se développe par la coopération, la critique, la concurrence,
les ajouts et transformations, en étant à chaque étape
soumise à l'appréciation et au contrôle des pairs.
La preuve mathématique est en théorie un objet rigoureux,
mais en pratique si complexe que seul ce processus en garantit la crédibilité.
Il en va d'ailleurs de même pour bien d'autres disciplines de la
recherche scientifique, et c'est aussi comme cela que se développent
efficacement les programmes informatiques, comme l'a analysé Eric
S. Raymond dans son essai « La cathédrale et le bazar »
[5].
La
réponse
des libéraux ne se fit pas attendre.
Richard
M. Stallman, chercheur au MIT et programmeur exceptionnel, prit conscience
de ce qu'impliquait à terme la "propriétarisation"*
des logiciels. Habitué à partager les fruits de son travail,
il s'aperçut bien vite que des entreprises construisaient leurs
produits sur ses programmes, sans le faire bénéficier en
retour de leurs améliorations.
La "propriétarisation"
des programmes est fondée sur le droit d'auteur. Nul n'a aucun droit
sur la création d'autrui s'il n'est explicitement spécifié
sur un contrat de cession que l'on appelle « licence ». Pour
préserver le modèle de développement de la recherche
scientifique, Richard Stallman créa une nouvelle licence pour ses
programmes, mondialement connue aujourd'hui sous le nom de "General Public
License" ou GPL [6]. Cette licence accorde
au détenteur trois droits fondamentaux, qui caractérisent
les « logiciels libres » : liberté de copie et de diffusion,
liberté d'utilisation et liberté de modification.
Outre la composante juridique, ces trois droits imposent la disponibilité des informations nécessaires à leur exercice effectif, notamment celle des codes sources. Mais cela existait déjà dans les licences imposées par l'administration fédérale aux projets qu'elle finançait. L'originalité de la GPL consiste en une clause complémentaire, qui oblige à réutiliser cette même licence et à donner les mêmes droits à tous ceux à qui le logiciel est transmis, avec ou sans modification. Ainsi sont garanties la libre circulation des savoirs contenus dans les logiciels et la possibilité pour tous d'y contribuer.
Pour
concrétiser sa vision, Stallman créa la Free Software Fondation
qui entreprit la tâche titanesque, et sans espoir, de développer
sous licence GPL un environnement informatique complet, baptisé
GNU.
Sa chance fut un allié inespéré
: l'Internet. Le réseau lui permit de communiquer ses idées
et de trouver des collaborateurs. Mais surtout il se révéla
un médium d'échange et d'accélération du processus
créatif bien plus efficace que ne l'avait été l'imprimé
pendant des siècles de développement scientifique. Moins
de dix ans plus tard, le Finlandais Linus Torvalds parachevait l'oeuvre
en commençant la réalisation
du système Linux, sous licence GPL, bientôt assisté
par des chercheurs et programmeurs du monde
entier.
En quinze ans, Richard Stallman a prouvé le bien fondé de sa démarche et de la vision de Joseph Licklider. Le système GNU/Linux et les logiciels libres ont fait leurs preuves et commencent à être adopté massivement par les professionnels [7].
La conclusion
de cette aventure technologique n'est somme toute guère surprenante.
Pourquoi ce qui serait vrai en économie,
à savoir que la croissance des richesses est favorisée par
leur libre circulation, devrait-il être faux dans le monde scientifique
? Et ce qui s'est révélé efficace pour le développement
des logiciels peut l'être aussi pour toute
activité de création. Enfin permise par l'Internet,
la libération des créateurs et des savoirs commence à
peine.
Notes
en marge
Les
« langages machines » reflètent directement les
instructions élémentaires utilisées par les machines
et sont peu lisibles par le programmeur. Bien que plus symbolique, l'assembleur
est encore très proche du langage machine
Les
systèmes d'exploitation à partage de temps, permettent
à plusieurs utilisateurs de travailler simultanément sur
la machine.
la
propriétarisation
est
un néologisme utilisé par les spécialistes pour désigner
la transformation d'une ressource immatérielle,
par exemple un logiciel, en un bien susceptible d'être possédé
et auquel s'tattachent certains droits.
Références
[1] Michael Hauben et Ronda Hauben , Netizens
IEEE Computer Society Press, 1997, ISBN 0-8186-7706-6
http://www.columbia.edu/~hauben/netbook/
[2] In Memoriam: J. C. R. Licklider 1915-1990, Rapport DEC, Août 1990.
Contient 2 articles fondamentaux:
"Man-Computer Symbiosis" from IRE Trans-actions on Human Factors in Electronics, volume HFE-1, pages 4 11, March 1960.
"The Computer as a Communication Device is reprinted from Science and Technology, April 1968.
http://gatekeeper.dec.com/pub/DEC/SRC/research-reports/abstracts/src-rr-061.html
[3] Fear of Forking - How the GPL Keeps Linux Unified and Strong. Rick Moen, Linuxcare, 17 novembre 1999. http://www.linuxcare.com/news_columns/articles/1999/11-17-99.epl
Traduction
par Jean Peyratout http://pauillac.inria.fr/~lang/libre/reperes/local/GPL-Linux.html
[4]
William A. Howard, « The formulae-as-types notion of construction
», in To Haskell Brooks Curry : Essays on Combinatory Logic, Lambda
Calculus and Formalism, Jonathan Paul Seldin et James Roger Hindley, Academic
Press, 1980.
[5] Eric S. Raymond, « The Cathedral and the Bazaar», firstmonday, Vol.3 No.3, mars 1998. http://www.firstmonday.dk/issues/issue3_3/raymond/index.html
Traduction
par Sébastien Blondeel: http://www.linux-france.org/article/these/cathedrale-bazar/
[6] GNU General Public Licence (GPL), Version 2,
Free Software Fondation, juin 1991.
http://www.fsf.org/copyleft/gpl.html
Traduction
par René Cougnenc et Manuel Makarévitch http://www.linux-france.org/article/these/gpl.html
[7] Logiciels Libres et entreprises. Bernard Lang, à paraître dans Terminal, Editions L'Harmattan, 2000.
http://pauillac.inria.fr/~lang/ecrits/monaco/
A
lire :
Jean-Paul Smets-Solanes et Benoît Faucon
Logiciels Libres - Liberté, Egalite, Business Edition Edispher, 1999, ISBN 2-911-968-7.
http://www.freepatents.org/liberty/
Tribune libre - Ténors de l'Informatique Libre
Ouvrage collectif.
Éditions ÓReilly, 1999, ISBN : 2-84177-084-2
http://www.editions-oreilly.fr/catalogue/tribune-libre.html
Olivier Blondeau & Florent Latrive
Libres enfants du savoir numérique
éditions
de l'éclat, Perreux, mars 2000, ISBN 2-84162-043-3
Illustrations
Tux le Pingouin de Linux
auteur Larry Ewing
http://www.aub.dk/~luke/linux/linux.htm#Tux
>»> Le Gnou (GNU) de la Free Software Fondation
GNOU philosophe
http://www.gnu.org/graphics/philosophicalgnu.html
auteur: Markus Gerwinski ,
GNOU
http://pauillac.inria.fr/~lang/aful/PERSO/PICS/gnu-head.jpg
Auteur inconnu, dessin fréquemment utilisé
GNOU et Blaise Pascal «== J'aime bien
http://www.gnu.org/graphics/Gnu+Pascal.jpg
auteur:
Markus Gerwinski ,
Photo
de Joseph C.R.Licklider .
Un camembert : répartition des systèmes utilisés pour les serveurs.