Voici le premier chapitre d'une série d'articles sur les licences libres : le contexte historique et technologique.
Définition selon Wikipedia :
Une licence libre est une licence s'appliquant à une œuvre de l'esprit par laquelle l'auteur concède tout ou partie des droits que lui confère le droit d'auteur, en laissant au minimum les possibilités de modification, de rediffusion et de réutilisation de l'œuvre dans des œuvres dérivées. Ces libertés peuvent être soumises à conditions, notamment l'application systématique de la même licence aux copies de l'œuvre et aux œuvres dérivées, principe nommé copyleft.
En guise d'introduction, cette vidéo très bien réalisée de Kirby Ferguson, extraite de la série "Everything is a remix" et sympathiquement traduite en français par Dopamine67, retraçant l'histoire de la "propriété intellectuelle" :
Bien que la vidéo sur termine sur l'interrogation : "Bon et on fait quoi maintenant ?", cette série d'articles n'a pas vocation à vous convaincre que la licence libre est "La Solution", mais plutôt vous présenter quelques réponses à cet emballement copyrighteux et ce que sont ces licences, car il y en a plusieurs, chacune avec ses particularités, il serait même difficile de les présenter toutes d'autant plus que leur évolution est quasi-constante, mais certaines ont conquis une reconnaissance morale et légale.
Revenons tout d'abord, dans cette première partie, au contexte dans le monde informatique, qui a mené à la naissance des licences libres :
Depuis la naissance des ordinateurs jusqu'à la fin des années 70, les utilisateurs (principalement des militaires, des scientifiques puis des étudiants) développent eux-mêmes leurs logiciels, se les échangent, reprennent des bouts de codes écrits par d'autres, sans aucun problème.
Avant les années 60, la programmation informatique était une procédure incroyablement abstraite. Pour communiquer avec la machine, les programmeurs créaient une série de cartes perforées où chacune représentait une commande logicielle unique. Ces derniers passaient ensuite ces cartes à un administrateur du système central qui les insérait une à une dans la machine, attendant qu'en ressorte une nouvelle série que le programmeur déchiffrait alors comme données de sortie. Cette procédure appelée « traitement par lots » était lourde et très longue. Elle était aussi sujette aux abus de pouvoir. Un des facteurs instinctif motivant l'aversion des premiers "hackers" envers la centralisation était le pouvoir détenu par les opérateurs système qui dictaient l'ordre de priorité des lots à exécuter.
Au cours des années 60 la situation change, le secteur est à son premier grand boom technologique. L'utilisation des transistors et des circuits imprimés lance la quête à la miniaturisation. Les premières interfaces télétypes informatiques, permettant de communiquer avec du texte tapé ligne par ligne sur le clavier d'un terminal remplacent les cartes perforées. Les premiers ordinateurs multiprocesseurs apparaissent, et c'est également à cette époque que se développe à grande échelle le recours aux bandes magnétiques pour stocker les données (la disquette apparait dès 1967). L'année suivante, la souris et le premier branchement sur écran vidéo permettant les premières interactions utilisateur/ordinateur en temps réel sont présentés au public. Ces innovations seront commercialisées durant les années 70 puis démocratisées lors de la décennie suivante.
En 1970, le AI Lab ( Artificial Intelligence Laboratory) est fondé au MIT, avec des personnes précédemment impliquées dans le projet MAC et de jeunes étudiants talentueux, comme Richard Stallman ( Un nom qui va revenir souvent !). Avec l'apparition des premiers micro-ordinateurs et des systèmes terminal/console vont naitre les premiers éditeurs de textes "WYSIWYG", notamment un éditeur développé par l'université de Stanford, qui est capable de rafraichir le texte à l'écran après chaque touche frappée, puis TECO, l'éditeur développé par le MIT qui va intégrer cette fonction peu de temps après, l'activation du mode d'édition "en temps réel" s'obtenant par une combinaison de touches, ayant donné son nom à la fonction : Control-R.
Stallman va se baser sur cette idée pour inventer le concept de "macro" : exécuter une commande personnalisée, préalablement programmée, sauvegardée et accessible par une simple combinaison de touches (oui, c'est ce que l'on appelle à présent les raccourcis-clavier !). Cela a provoqué une véritable révolution, chacun programmant ses propres macros, se les échangeant, les re-modifiants, etc...
« Nous avions un effet Tour de Babel »
Deux ans après, le taux d'innovations commençait à montrer des effets secondaires dangereux. La croissance explosive avait confirmé l'approche collaboratrice des hackers, suscitant l'enthousiasme, mais elle avait aussi conduit à un excès de complexité. « Nous avions un effet Tour de Babel », raconte Guy Steele, un des hackers du AI Lab. L'effet menaçait de tuer l'esprit qui l'avait animé. Frustré, sur une idée de Steele, Stallman entreprend de développer un système standardisé de commandes macros. Créant un programme standard, il violait un principe hacker fondamental : « promouvoir la décentralisation ». Il menaçait également d'entraver la grande flexibilité qui avait alimenté en premier lieu l'explosion des innovations de TECO. L'équipe décide de ne standardiser qu'une petite partie des macros, les plus basiques.
Stallman se trouvait maintenant devant une énigme : si les usagers faisaient des changements sans les communiquer au reste de la communauté, l'effet "Tour de Babel" apparaîtrait ailleurs. S'en remettant à la doctrine hacker de partage d'innovation, il incorpora un message dans le code source pour établir les conditions d'utilisation. Les utilisateurs étaient libres de modifier et redistribuer le code à la condition qu'ils donnent en retour les extensions qu'ils écrivaient. Pour lui, il s'agissait d'un contrat social, dans une première note documentant le projet, Stallman décrit les termes du contrat : ce logiciel « a été distribué sur la base du partage communautaire, ce qui signifie que toute amélioration doit m'être retournée pour être incorporée et redistribuée.», EMACS est né.
Tout le monde n'accepta pas le contrat. L'innovation explosive continua au cours de la décennie.
La puissance des ordinateurs augmente tandis que leur coût et leur taille se réduisent, les possibilités d'utilisation s'élargissent et les lignes de code s'allongent. Les premiers "desktop computers" se répandent dans les universités.
Les programmes se complexifient, le temps de programmation s'allonge, et le temps... c'est de l'argent !
Ainsi vont naitre les premiers concepts de "logiciel fermé" à la fin des années 70. De plus en plus souvent, le code source n'est plus distribué, seulement les fichiers exécutables binaires, il n'est plus possible de modifier les logiciels selon ses besoins, plus possible d'étudier leur fonctionnement. C'est aussi les premiers arrangements avec les constructeurs informatiques pour inclure leurs logiciels fermés par défaut dans les premiers véritables "PC". Et puis en 1979, la première "Time Bomb" insérée dans Scribe, permettant à l’entreprise Unilogic de limiter l’utilisation gratuite du logiciel (Scribe a été développé par Brian Reid puis revendu à Unilogic). Un sombre présage pour Stallman : « Il considérait ça comme la chose la plus ‘nazie’ qu’il ait jamais vue au cours de sa vie » se rappelle Brian Reid.