Home
  By Author [ A  B  C  D  E  F  G  H  I  J  K  L  M  N  O  P  Q  R  S  T  U  V  W  X  Y  Z |  Other Symbols ]
  By Title [ A  B  C  D  E  F  G  H  I  J  K  L  M  N  O  P  Q  R  S  T  U  V  W  X  Y  Z |  Other Symbols ]
  By Language
all Classics books content using ISYS

Download this book: [ ASCII | HTML | PDF ]

Look for this book on Amazon


We have new books nearly every day.
If you would like a news letter once a week or once a month
fill out this form and we will give you a summary of the books for that week or month by email.

Title: Les mutations du livre
Author: Lebert, Marie
Language: French
As this book started as an ASCII text book there are no pictures available.
Copyright Status: Not copyrighted in the United States. If you live elsewhere check the laws of your country before downloading this ebook. See comments about copyright issues at end of book.

*** Start of this Doctrine Publishing Corporation Digital Book "Les mutations du livre" ***

This book is indexed by ISYS Web Indexing system to allow the reader find any word or number within the document.



LES MUTATIONS DU LIVRE


MARIE LEBERT


NEF, University of Toronto, 2007

Copyright © 2007 Marie Lebert

Daté de septembre 2007, un livre de synthèse de 1971 à nos jours, basé sur le
suivi de l'actualité francophone et internationale, et issu des multiples liens
tissés sur la toile avec nombre de professionnels du livre au fil des ans. La
version originale est disponible sur le NEF:
http://www.etudes-francaises.net/dossiers/mutations.htm


TABLE


1. En quelques mots

2. Introduction


4. Des livres à vendre sur le web

5. Les auteurs tissent leur toile

6. Les éditeurs sur le réseau

7. La mue des bibliothèques

8. Une vaste encyclopédie

9. Le livre numérique

10. Les supports de lecture

11. Une information multilingue

12. De nombreux défis

13. Conclusion

14. Chronologie commentée

15. Remerciements

16. Commentaires

17. Sites et pages web

18. Index


1. EN QUELQUES MOTS


«Les mutations du livre» est un livre de synthèse de 1971 à nos jours, basé sur
le suivi de l'actualité francophone et internationale, et issu des multiples
liens tissés sur la toile avec nombre de professionnels du livre au fil des ans.

L’internet et les technologies numériques bouleversent le monde du livre.
Imprimé sous de multiples formes depuis plus de cinq siècles, le livre se
convertit. Si le livre imprimé a toujours sa place, d’autres supports se
développent, et les habitudes de travail changent. On voit apparaître les textes
électroniques, les bibliothèques numériques, les librairies en ligne, les
éditeurs électroniques, les encyclopédies en ligne, les oeuvres hypermédias, les
logiciels de lecture et les appareils de lecture dédiés. Le web devient une
vaste encyclopédie et le patrimoine mondial est en cours de numérisation. Le
papier électronique est pour bientôt. Basé sur une centaine d’entretiens, ce
livre tente de faire le tour de la question. Il est complété par une chronologie
détaillée et une liste de sites web.

Marie Lebert est chercheuse et journaliste. Elle s’intéresse de près aux
changements apportés par les technologies numériques dans le monde du livre et
celui des langues. «Après De l'imprimé à Internet (00h00, 1999), Le Livre 010101
(NEF/Numilog, 1993-2003) et le Dictionnaire du NEF (2003-2007), la journaliste
la plus assidue de la sphère cyberbibliophile nous livre un nouvel état des
lieux de la révolution numérique engagée au milieu des années 90 dans le secteur
du livre et de la culture. La chronologie méticuleuse et sourcée de Marie Lebert
retend le fil d'Ariane que l'on croyait définitivement perdu avec le brouillage
sémantique de ces dernières années.» (Marc Autret, juillet 2007)

Ce livre est issu des multiples liens tissés sur le Net des études françaises
(NEF), fondé en mai 2000 par Russon Wooldridge, professeur à l’Université de
Toronto (Canada). Le NEF se veut d’une part «un filet trouvé qui ne capte que
des morceaux choisis du monde des études françaises, tout en tissant des liens
entre eux», d’autre part un réseau dont les «auteurs sont des personnes oeuvrant
dans le champ des études françaises et partageant librement leur savoir et leurs
produits avec autrui», deux belles définitions qui conviennent aussi à ce livre
et aux nombreux entretiens, études et enquêtes qui l'ont précédé. L'ensemble de
ces travaux est librement disponible en ligne sur le NEF.


2. INTRODUCTION


L’internet et les technologies numériques bouleversent le monde du livre.
Imprimé sous de multiples formes depuis plus de cinq siècles, le livre se
convertit. Si le livre imprimé a toujours sa place, d’autres supports se
développent, et les habitudes de travail changent. On voit apparaître les textes
électroniques, les bibliothèques numériques, les librairies en ligne, les
éditeurs électroniques, les encyclopédies en ligne, les oeuvres hypermédias, les
logiciels de lecture et les appareils de lecture dédiés. Le web devient une
vaste encyclopédie et le patrimoine mondial est en cours de numérisation. Le
papier électronique est pour bientôt.

Apparu en 1974, l’internet est d’abord un phénomène expérimental enthousiasmant
quelques branchés. A partir de 1983, il relie les centres de recherche et les
universités. Suite à l’apparition du web en 1990 et du premier navigateur en
1993, il envahit notre vie quotidienne. Les signes cabalistiques des adresses
web fleurissent sur les livres, les journaux, les affiches et les publicités. La
presse s’enflamme pour ce nouveau médium. La majuscule d’origine d’Internet
s’estompe. Internet devient l’internet, avec un «i» minuscule. De nom propre il
devient nom commun, au même titre que l’ordinateur, le téléphone, le fax et le
minitel. La même remarque vaut pour le World Wide Web, qui devient tout
simplement le web.

Alors que leur vie professionnelle était relativement stable jusque-là, les
professionnels du livre doivent composer avec un outil nouveau venu bousculer
l’imprimé pluricentenaire. Antagonisme ou complémentarité? L’internet avale-t-il
vraiment le monde de l’imprimé? L’internet révolutionne-t-il vraiment le monde
du livre, au même titre que l’imprimerie en d’autres temps? Certains annoncent
même la mort prochaine du papier traditionnel et son remplacement par le papier
électronique.

Au début des années 2000, des milliers d’oeuvres du domaine public sont en accès
libre sur le web. Les libraires et les éditeurs ont pour la plupart un site web.
Certains naissent  directement sur le web, avec la totalité de leurs
transactions s'effectuant via l’internet. De plus en plus de livres et revues ne
sont disponibles qu’en version numérique, pour éviter les coûts d’une
publication imprimée. L’internet devient indispensable pour se documenter, avoir
accès aux documents et élargir ses connaissances. Le web devient une gigantesque
encyclopédie, une énorme bibliothèque, une immense librairie et un médium des
plus complets. De statique dans les livres imprimés, l’information devient
fluide, avec possibilité d’actualisation constante.

A ceci s’ajoute la mise au point de technologies numériques pour faire passer
les oeuvres du papier à l’écran, pour concevoir des logiciels de lecture et pour
mettre au point des appareils de lecture. Le livre imprimé doit désormais
compter avec le livre numérique, qu’on peut lire sur son ordinateur, sur son
assistant personnel (PDA), sur son téléphone ou sur un appareil dédié. Des
écrivains explorent les possibilités offertes par l’hyperlien et le courriel
pour créer des oeuvres d’un genre nouveau.

Contrairement aux pronostics un peu rapides de quelques spécialistes
enthousiastes, le livre imprimé n’est pas menacé pour autant, loin s’en faut, et
il est un peu tôt pour pleurer la mort du papier. On a désormais deux supports -
papier et numérique - au lieu d’un seul. Si les lecteurs sont maintenant
nombreux à utiliser les ressources offertes par le numérique, peu d'entre eux
sont devenus pour autant des adeptes du «zéro papier», et beaucoup restent
amoureux du livre imprimé, à la fois pour son côté pratique et pour le plaisir
de l’objet.

Le livre imprimé a cinq siècles et demi. Le livre numérique a tout juste 35 ans.
Il est né avec le Projet Gutenberg, créé en juillet 1971 par Michael Hart pour
distribuer gratuitement les oeuvres du domaine public par voie électronique. Si
on le réduit à son aspect commercial, il est né en mai 1998 avec la mise en
vente des premiers titres numériques par les éditions 00h00.

Signe des temps, en novembre 2000, la British Library met en ligne la version
numérique de la Bible de Gutenberg, premier livre à avoir jamais été imprimé.
Datant de 1454 ou 1455, cette Bible aurait été imprimée par Gutenberg en 180
exemplaires dans son atelier de Mayence, en Allemagne. 48 exemplaires, dont
certains incomplets, existeraient toujours. La British Library en possède deux
versions complètes, et une partielle. En mars 2000, dix chercheurs et experts
techniques de l’Université Keio de Tokyo et de NTT (Nippon Telegraph and
Telephone Communications) viennent travailler sur place pendant deux semaines
pour numériser les deux versions complètes, légèrement différentes.

Le présent livre se base à la fois sur le suivi de l’actualité et sur une
centaine d’entretiens menés par courriel dans nombre de pays et sur plusieurs
années, les mêmes personnes étant souvent interviewées plusieurs fois. Il ne
prend malheureusement pas en compte - ou si peu - les vastes domaines que sont
les manuels d’enseignement et les livres pour enfants. On ne parle donc ni du
cartable électronique ni de Harry Potter, excepté pour son édition en braille.
Les quelque 250 pages de ce livre ne peuvent couvrir les multiples facettes d’un
sujet qui évolue sans arrêt. Tenter de faire le tour de la question ne signifie
pas prétendre à l’exhaustivité, malheureusement. On s’est également efforcé
d’éviter le jargon informatique réservé aux initiés, ce qui n’est pas toujours
facile. Tout en restant modeste, parce que tenter de concilier analyse et
synthèse est loin d’être évident. Et coller à l’actualité tout en gardant le
recul nécessaire est souvent une gageure.

Ce livre se veut francophone, sans souci de frontières. On privilégie les
informations concernant l’ensemble de la Francophonie, plutôt que celles
provenant d’un pays donné. Tout en accordant une large place à la communauté
anglophone, pour des raisons évidentes, l’internet ayant débuté en Amérique du
Nord avant de s’étendre au monde entier. On n’oublie pas non plus le grand pôle
technologique qu’est l’Asie. Nombreuses sont les informations concernant
l’ensemble de la planète, l’internet n’ayant pas de frontières.

Autre originalité du présent livre, la quasi-totalité des informations émane de
l’internet. Les premiers sites sont «épluchés» directement sur le web dès ses
débuts, à l’époque où il est encore embryonnaire. Le travail se poursuit au fil
des ans, en suivant l’actualité sur la vaste encyclopédie que devient le web.
Les entretiens sont conduits via l’internet après avoir trouvé les courriels des
personnes concernées sur leurs sites respectifs. Les échanges se poursuivent
d’année en année, à distance et en personne. La totalité des entretiens, études,
enquêtes et analyses est disponible en ligne sur le Net des études françaises
(www.etudes-francaises.net/entretiens/), basé à l’Université de Toronto
(Canada).


3. LE PROJET GUTENBERG


[3.1. De 1971 à 2006 / Un pari sur 35 ans / Gestation puis persévérance / De dix
à mille livres / De mille à dix mille livres / De dix mille à vingt mille livres
// 3.2. La méthode adoptée // 3.3. La correction partagée // 3.4. Des
collections multilingues // 3.5. Du passé vers l’avenir // 3.6. Chronologie]

Si le livre imprimé a cinq siècles et demi, le livre numérique a tout juste 35
ans. Il est né avec le Projet Gutenberg, créé en juillet 1971 par Michael Hart
pour diffuser gratuitement sous forme électronique les oeuvres littéraires du
domaine public. Site pionnier à tous égards, le Projet Gutenberg est à la fois
le premier site d’information sur un réseau encore embryonnaire et la première
bibliothèque numérique. Longtemps considéré par ses détracteurs comme totalement
irréaliste, le Projet Gutenberg compte 20.000 titres en décembre 2006, avec des
dizaines de milliers de téléchargements quotidiens. A ce jour, personne n’a fait
mieux pour mettre les classiques de la littérature mondiale à la disposition de
tous, ni pour créer à moindres frais un immense réseau de volontaires de par le
monde, sans gâchis de compétences ni d’énergie.


3.1. De 1971 à 2006


= Un pari sur 35 ans

Les vingt premières années, Michael Hart numérise lui-même les cent premiers
livres, avec l’aide occasionnelle de telle ou telle personne. Lorsque
l’utilisation du web se généralise au milieu des années 1990, le projet trouve
un second souffle et un rayonnement international. Tout en continuant de
numériser des livres, Michael Hart coordonne désormais le travail de dizaines
puis de centaines de volontaires de par le monde. Les collections atteignent
1.000 livres en août 1997, 2.000 livres en mai 1999, 3.000 livres en décembre
2000 et 4.000 livres en octobre 2001.

Trente ans après ses débuts, le Projet Gutenberg fonctionne à plein régime. La
barre des 5.000 livres est franchie en avril 2002, celle des 10.000 livres en
octobre 2003, celle des 15.000 livres en janvier 2005 et celle des 20.000 livres
en décembre 2006. Avec 360 nouveaux livres par mois, 38 sites miroirs dans de
nombreux pays, plusieurs dizaines de milliers de téléchargements par jour et des
milliers de volontaires toutes équipes confondues.

Qu’ils aient été numérisés il y a trente ans ou qu’ils soient numérisés
maintenant, tous les livres sont numérisés en mode texte, en utilisant l’ASCII
(American standard code for information interchange) original sur sept bits,
avec des règles précises pour le formatage. Grâce à quoi les textes peuvent être
lus sans problème quels que soient la machine, la plateforme et le logiciel
utilisés, y compris sur un PDA ou sur une tablette de lecture. Libre ensuite à
chacun de convertir les livres dans d'autres formats, après avoir vérifié que
les oeuvres sont également du domaine public dans le pays concerné.

En janvier 2004, le Projet Gutenberg essaime outre-Atlantique avec la création
du Projet Gutenberg Europe. A la mission originelle s’ajoute le rôle de
passerelle entre les langues et les cultures, l’objectif étant une bibliothèque
d’un million de livres d’ici 2015, avec de nombreuses sections nationales et
linguistiques. Tout en conservant la même ligne de conduite, à savoir la lecture
pour tous à moindres frais, par le biais du texte électronique gratuit,
indéfiniment utilisable et reproductible. Et, dans un deuxième temps, la
numérisation de l’image et du son, dans le même esprit.

= Gestation puis persévérance

Revenons aux tous débuts du projet. Alors étudiant à l’Université d’Illinois
(Etats-Unis), Michael Hart se voit attribuer 100 millions de dollars de «temps
machine» par le laboratoire informatique (Materials Research Lab) de son
université. Le 4 juillet 1971, jour de la fête nationale, il saisit The United
States Declaration of Independence (Déclaration de l’indépendance des
Etats-Unis, signée le 4 juillet 1776) sur le clavier de son ordinateur. En
caractères majuscules, puisque les caractères minuscules n’existent pas encore.
Le texte électronique représente 5 Ko (kilo-octets). Mais l’envoi d’un fichier
de 5 Ko à la centaine de personnes que représente le réseau de l’époque aurait
fait imploser celui-ci, la bande passante étant infime. Michael Hart diffuse
donc un message indiquant où le texte est stocké (sans lien hypertexte
toutefois, puisque le web ne voit le jour que vingt ans après), suite à quoi le
fichier est téléchargé par six personnes. Le Projet Gutenberg est né.

Dans la foulée, Michael Hart décide de consacrer ce crédit-temps de 100 millions
de dollars à la recherche des oeuvres du domaine public disponibles en
bibliothèque et à la numérisation de celles-ci. Il décide aussi de stocker les
textes électroniques de la manière la plus simple possible, au format ASCII,
pour que ces textes puissent être lus sans problème quels que soient la machine,
la plateforme et le logiciel utilisés. Au lieu d’un ensemble de pages reliées,
le livre devient un texte électronique que l’on peut dérouler en continu, avec
des lettres capitales pour les termes en italique, en gras et soulignés de la
version imprimée.

Peu après, il définit la mission du Projet Gutenberg: mettre à la disposition de
tous, par voie électronique, le plus grand nombre possible d’oeuvres du domaine
public. «Nous considérons le texte électronique comme un nouveau médium, sans
véritable relation avec le papier», explique-t-il beaucoup plus tard, en août
1998. «Le seul point commun est que nous diffusons les mêmes oeuvres, mais je ne
vois pas comment le papier peut concurrencer le texte électronique une fois que
les gens y sont habitués, particulièrement dans les écoles.»

Après avoir saisi The United States Declaration of Independence en 1971, Michael
Hart poursuit ses efforts en 1972 en saisissant un texte plus long, The United
States Bill of Rights (Déclaration des droits américaine). Cette Déclaration des
droits comprend les dix premiers amendements ajoutés en 1789 à la Constitution
des Etats-Unis (qui date elle-même de 1787), et définissant les droits
individuels des citoyens et les pouvoirs respectifs du gouvernement fédéral et
des Etats. En 1973, Michael Hart saisit The United States Constitution
(Constitution des Etats-Unis) dans son entier.

D’année en année, la capacité de la disquette augmente régulièrement (le disque
dur n’existe pas encore), si bien qu'il est possible d’envisager des fichiers de
plus en plus volumineux. Michael Hart entreprend la numérisation de la Bible,
composée elle-même de plusieurs «livres», qui peuvent être traités séparément et
occuper chacun un fichier différent. Il débute aussi la saisie des oeuvres
complètes de Shakespeare, une pièce après l’autre, avec un fichier pour chaque
pièce. Cette édition n'est d’ailleurs jamais mise en ligne, du fait d’une loi
plus contraignante sur le copyright entrée en vigueur dans l’intervalle, et qui
vise non pas le texte de Shakespeare, tombé depuis longtemps dans le domaine
public, mais les commentaires et notes de cette édition. D’autres éditions
annotées appartenant au domaine public sont mises en ligne quelques années
après.

Parallèlement, l’internet, qui était encore embryonnaire en 1971, débute
véritablement en 1974, suite à la création du protocole TCP/IP (transmission
control protocol / internet protocol). En 1983, le réseau est en plein essor.

= De dix à mille livres

En août 1989, le Projet Gutenberg met en ligne son dixième texte, The King James
Bible. En 1990, les internautes sont au nombre de 250.000, et le standard en
vigueur est la disquette de 360 Ko (kilo-octets). En janvier 1991, Michael Hart
saisit Alice’s Adventures in Wonderland (Alice au pays des merveilles) de Lewis
Carroll (paru en 1865). En juillet de la même année, il saisit Peter Pan de
James M. Barrie (paru en 1904). Ces deux classiques de la littérature enfantine
tiennent chacun sur une disquette standard.

Arrive ensuite le web, opérationnel en 1991. Le premier navigateur, Mosaic,
apparaît en novembre 1993. Lorsque l’utilisation du web se généralise, il
devient plus facile de faire circuler les textes électroniques et de recruter
des volontaires. Le Projet Gutenberg rode sa méthode de travail, avec la
numérisation d’un texte par mois en 1991, deux textes par mois en 1992, quatre
textes par mois en 1993 et huit textes par mois en 1994. En janvier 1994, le
Projet Gutenberg fête son centième livre avec la mise en ligne de The Complete
Works of William Shakespeare (Les oeuvres complètes de William Shakespeare). La
production continue ensuite d’augmenter, avec une moyenne de 8 textes par mois
en 1994, 16 textes par mois en 1995 et 32 textes par mois en 1996.

Comme on le voit, entre 1991 et 1996, la production double chaque année. Tout en
continuant de numériser des livres, Michael Hart coordonne désormais le travail
de dizaines de volontaires. Depuis la fin 1993, le Projet Gutenberg s’articule
en trois grands secteurs: a) «Light Literature» (littérature de divertissement),
qui inclut par exemple Alice’s Adventures in Wonderland, Peter Pan ou Aesop’s
Fables (Les Fables d’Esope) ; b) «Heavy Literature» (littérature «sérieuse»),
qui inclut par exemple La Bible, les oeuvres de Shakespeare ou Moby Dick ; c)
«Reference Literature» (littérature de référence), composée d’encyclopédies et
de dictionnaires, par exemple le Roget’s Thesaurus. Cette présentation en trois
secteurs est abandonnée par la suite.

Le Projet Gutenberg se veut «universel», aussi bien pour les oeuvres choisies
que pour le public visé, le but étant de mettre la littérature à la disposition
de tous, en dépassant largement le public habituel des étudiants et des
enseignants. Le secteur consacré à la littérature de divertissement est destiné
à amener devant l’écran un public très divers, par exemple des enfants et leurs
grands-parents recherchant le texte électronique de Peter Pan après avoir vu le
film Hook, ou bien la version électronique d’Alice au pays des merveilles après
avoir regardé l'adaptation filmée à la télévision, ou encore l’origine d’une
citation littéraire après avoir vu un épisode de Star Trek. Pratiquement tous
les épisodes de Star Trek citent des livres ayant leur correspondant numérique
dans les collections du Projet Gutenberg.

L’objectif est donc que tous les publics, qu’ils soient familiers ou non avec le
livre imprimé, puissent facilement retrouver des textes entendus dans des
conversations, des films, des musiques, ou alors lus dans d’autres livres,
journaux et magazines. Les fichiers électroniques prennent peu de place grâce à
l’utilisation du format ASCII. On peut facilement les télécharger par le biais
de la ligne téléphonique. La recherche textuelle est tout aussi simple. Il
suffit d’utiliser la fonction «recherche» présente dans n’importe quel logiciel.

En 1997, la production est toujours de 32 titres par mois. En juin 1997, le
Projet Gutenberg met en ligne The Merry Adventures of Robin Hood (Les aventures
de Robin des Bois) de Howard Pyle (paru en 1883). En août 1997, il met en ligne
son millième texte électronique, La Divina Commedia di Dante (La Divine Comédie
de Dante, parue en 1321), dans sa langue d’origine, en italien.

En août 1998, Michael Hart écrit: «Mon projet est de mettre 10.000 textes
électroniques sur l’internet. (Ce sera chose faite en octobre 2003, ndlr.) Si je
pouvais avoir des subventions importantes, j’aimerais aller jusqu’à un million
et étendre aussi le nombre de nos usagers potentiels de 1,x% à 10% de la
population mondiale, ce qui représenterait la diffusion de 1.000 fois un
milliard de textes électroniques au lieu d’un milliard seulement.»

= De mille à dix mille livres

Entre 1998 et 2000, la moyenne est constante, avec 36 textes par mois. En mai
1999, les collections comptent 2.000 livres. Le 2.000e texte est Don Quijote
(Don Quichotte) de Cervantès (paru en 1605), dans sa langue d’origine, en
espagnol.

Disponible en décembre 2000, le 3.000e titre est le troisième volume de A
l’ombre des jeunes filles en fleurs de Marcel Proust (paru en 1919), dans sa
langue originale, en français. La moyenne passe à 104 livres par mois en 2001.

Mis en ligne en octobre 2001, le 4.000e texte est The French Immortals Series
(La série des Immortels français), dans sa traduction anglaise. Publié en 1905
par la Maison Mazarin (Paris), ce livre rassemble plusieurs fictions d’écrivains
couronnés par l’Académie française, comme Emile Souvestre, Pierre Loti, Hector
Malot, Charles de Bernard, Alphonse Daudet, etc.

Disponible en avril 2002, le 5.000e texte est The Notebooks of Leonardo da Vinci
(Les Carnets de Léonard de Vinci), qui datent du début du 16e siècle. Un texte
qui, en 2008, se trouve toujours dans le «Top 100» des livres téléchargés.

En 1988, Michael Hart choisit de numériser Alice’s Adventures in Wonderland et
Peter Pan parce que, dans l’un et l’autre cas, leur version numérisée tient sur
la disquette standard de l’époque de 360 Ko (kilo-octets). Quinze ans plus tard,
en 2002, on dispose de disquettes de 1,44 Mo (mégaoctets) et on peut aisément
compresser les fichiers en les zippant. Un fichier standard peut désormais
comporter trois millions de caractères, plus qu’il n’en faut pour un livre de
taille moyenne. Un roman de 300 pages numérisé au format ASCII représente un
mégaoctet. Un livre volumineux représente deux fichiers ASCII, téléchargeables
tels quels ou en version zippée.

Cinquante heures environ sont nécessaires pour sélectionner un livre de taille
moyenne, vérifier qu’il est bien du domaine public, le scanner, le corriger, le
formater et le mettre en page.

Quelques numéros de livres sont réservés pour l’avenir, par exemple le numéro
1984 (eBook #1984) pour le roman éponyme de George Orwell, publié en 1949, et
qui est donc loin d’être tombé dans le domaine public.

En 2002, les collections s’accroissent de 203 titres par mois. Au printemps
2002, elles représentent le quart des oeuvres du domaine public en accès libre
sur le web, recensées de manière pratiquement exhaustive par l’Internet Public
Library (IPL). Un beau résultat dû au patient travail de milliers de volontaires
actifs dans plusieurs pays.

1.000 livres en août 1997, 2.000 livres en mai 1999, 3.000 livres en décembre
2000, 4.000 livres en octobre 2001, 5.000 livres en avril 2002, 10.000 livres en
octobre 2003. Le 10.000e livre est The Magna Carta, qui fut le premier texte
constitutionnel anglais, signé au début du 13e siècle.

Entre avril 2002 et octobre 2003, les collections doublent, passant de 5.000 à
10.000 livres en dix-huit mois. La moyenne mensuelle est de 348 livres numérisés
en 2003.

Un CD «Best of Gutenberg» est disponible en août 2003 avec une sélection de 600
livres. En décembre 2003, date à laquelle le Projet Gutenberg franchit la barre
des 10.000 livres, la quasi-totalité des livres (9.400 livres) est gravée sur un
DVD. CD et DVD sont envoyés gratuitement à qui en fait la demande. Libre ensuite
à chacun de faire autant de copies que possible et de les distribuer autour de
soi.

Dix mille livres. Un chiffre impressionnant quand on pense à ce que cela
représente de pages scannées, relues et corrigées. Cette croissance rapide est
due à l’activité de Distributed Proofreaders (DP), un site conçu en 2000 par
Charles Franks pour permettre la correction partagée. Les volontaires
choisissent un livre en cours de traitement pour relire et corriger une page
donnée. Chacun travaille à son propre rythme. A titre indicatif, le site
conseille de relire une page par jour. C’est peu de temps sur une journée, et
c’est beaucoup pour le projet.

= De dix mille à vingt mille livres

En décembre 2003, les collections approchent les 11.000 livres. Plusieurs
formats sont désormais présents, à commencer par les formats HTML, XML et RTF,
le format principal (et obligatoire) restant l’ASCII. Le tout représente 46.000
fichiers, soit une capacité totale de 110 gigaoctets. Le 13 février 2004, date
de la conférence de Michael Hart au siège de l’UNESCO à Paris, les collections
comprennent très exactement 11.340 livres dans 25 langues différentes. En mai
2004, les 12.581 livres disponibles représentent 100.000 fichiers dans vingt
formats différents, soit une capacité totale de 135 gigaoctets, destinée à
doubler chaque année avec l’ajout de plus de 300 livres par mois (348 livres en
2003 et 338 livres en 2004).

Parallèlement, le Doctrine Publishing Corporation Consortia Center (PGCC), qui avait été lancé
en 1997 pour rassembler des collections de livres numériques avec point d’accès
unique, est officiellement affilié au Projet Gutenberg en 2003. Par ailleurs, à
l’instigation du Projet Rastko, basé à Belgrade (Serbie), les activités du
Projet Gutenberg Europe débutent en janvier 2004, avec la mise en ligne des cent
premiers livres dans les mois qui suivent. La présence de plusieurs langues
reflète la diversité linguistique prévalant en Europe. Cent langues sont prévues
sur le long terme.

En janvier 2005, le Projet Gutenberg fête ses 15.000 livres, avec la mise en
ligne de The Life of Reason de George Santayana (paru en 1906). En juin 2005, le
nombre de livres s’élève à 16.000 et 42 langues sont représentées. Le 3 août
2005, outre l’anglais (14.590 livres), six langues disposent d’un nombre de
livres significatif: le français (578 livres), l’allemand (349 livres), le
finnois (225 livres), le hollandais (130 livres), l’espagnol (105 livres) et le
chinois (69 livres).

Lancé en août 2001, le Doctrine Publishing Corporation of Australia fête ses 500 livres en
juillet 2005, tandis que le Doctrine Publishing Corporation of Canada est en gestation, avec
un suivi grâce à la liste PGCanada. Les choses sont en bonne voie pour un Projet
Gutenberg au Portugal et aux Philippines.

En décembre 2006, le Projet Gutenberg franchit la barre des 20.000 livres, dont
10.000 produits par Distributed Proofreaders depuis octobre 2000. La moyenne est
de 346 nouveaux livres par mois en 2006. Le nombre de nouveaux livres pour
l’année 2006 s’élève à 4.146 alors qu’il était de 3 186 pour l’année 2005. S'il
a fallu 32 ans pour numériser les 10.000 premiers livres, entre juillet 1971 et
octobre 2003, il n’a fallu que trois ans et deux mois, d’octobre 2003 à décembre
2006, pour numériser les 10.000 livres suivants. Le Doctrine Publishing Corporation of
Australia approche les 1.500 livres (c'est chose faite en avril 2007). Le Projet
Gutenberg Europe compte 500 livres.

La section Doctrine Publishing Corporation PrePrints débute en janvier 2006 pour accueillir de
nouveaux documents suffisamment intéressants pour être mis en ligne, mais ne
pouvant être intégrés aux collections existantes sans traitement ultérieur par
des volontaires, pour diverses raisons: collections incomplètes, qualité
insuffisante, conversion souhaitée dans un autre format, etc. Cette section
comprend 379 titres en décembre 2006.

Le site Doctrine Publishing Corporation News débute en novembre 2006 à l’instigation de Mike
Cook, le nouvel éditeur de la lettre d’information hebdomadaire et mensuelle. Le
site offre par exemple les statistiques de production hebdomadaires, mensuelles
et annuelles depuis 2001. La production hebdomadaire est de 24 livres en 2001,
47 livres en 2002, 79 livres en 2003, 78 livres en 2004, 58 livres en 2005 et 80
livres en 2006. La production mensuelle est de 104 livres en 2001, 203 livres en
2002, 348 livres en 2003, 338 livres en 2004, 251 livres en 2005 et 346 livres
en 2006. La production annuelle est de 1.244 livres en 2001, 2.432 livres en
2002, 4.176 livres en 2003, 4.058 livres en 2004, 3.017 livres en 2005 et 4.146
livres en 2006.


3.2. La méthode adoptée


Qu’ils aient été numérisés il y a des années ou qu’ils soient numérisés
maintenant, tous les livres sont numérisés en mode texte, en utilisant l’ASCII
original. Présent dès les débuts de l’informatique et dénommé Plain Vanilla
ASCII, cet ASCII sur sept bits traite 128 caractères, dont 97 caractères
imprimables correspondant aux touches du clavier anglais ou américain (A-Z, a-z,
chiffres, ponctuation et quelques symboles). Dans le cas de langues autres que
l’anglais, on utilise des extensions de l’ASCII (appelées ISO-8859 ou ISO-Latin)
prenant en compte les caractères accentués. Mais, même dans ce cas, le Projet
Gutenberg propose systématiquement en complément une version ASCII sur sept bits
sans accents. Sauf, bien entendu, dans le cas de langues non traduisibles en
ASCII, comme le chinois, qui est encodé au format Big-5.

Dénommé à juste titre le plus petit dénominateur commun, l’ASCII sur sept bits
est le seul format compatible avec 99% des machines et des logiciels, et pouvant
être converti dans d’autres formats. Il sera toujours utilisé quand d’autres
formats auront disparu, à commencer par les formats éphémères liés à quelques
tablettes de lecture commercialisées entre 1999 et 2003 et déjà disparues du
marché. Il est l’assurance que les collections ne deviendront jamais obsolètes,
et survivront aux changements technologiques des prochaines décennies ou même
des prochains siècles. Il n’existe pas d’autre standard aussi largement utilisé
pour le moment, y compris l’Unicode, système d’encodage «universel» créé en
1991.

Le Projet Gutenberg propose toutefois certains livres dans d’autres formats,
notamment dans les trois formats répandus que sont les formats HTML, XML et RTF.
Des fichiers Unicode sont également présents. De plus, tout format proposé par
tel ou tel volontaire (PDF, LIT, TeX et beaucoup d’autres) est généralement
accepté, dans la mesure où un fichier ASCII est également présent.

Pour une conversion à grande échelle dans un format donné, le relais est passé à
d’autres organismes. Par exemple Blackmask Online, qui puise dans les
collections du Projet Gutenberg pour proposer des milliers de livres gratuits
dans huit formats différents, tous issus du format Open eBook (OeB). Ou encore
Manybooks.net, qui convertit les collections du Projet Gutenberg dans des
formats lisibles sur PDA. Ou encore GutenMark, un outil permettant de reformater
les livres aux formats HTML et LaTEX pour une lecture plus attractive ou de les
reformater au format PDF pour une impression à la demande. Ou encore
MobileBooks, qui propose 5.000 livres en Java pour lecture sur l’écran d’un
téléphone portable. Ou encore Bookshare.org, la grande bibliothèque numérique
destinée aux personnes aveugles et malvoyantes résidant aux Etats-Unis.
Bookshare.org utilise les collections du Projet Gutenberg pour offrir les
classiques du domaine public au format braille et au format DAISY, qui permet
l’écoute du livre sur synthèse vocale.

En quoi consiste exactement le travail des volontaires, une fois reçue la
confirmation que le livre est bien du domaine public? Il consiste à scanner le
livre page après page, ce qui donne des fichiers numérisés en mode image, puis à
utiliser un logiciel OCR (optical character recognition), qui permet de
convertir chaque fichier image en un fichier texte. Il consiste ensuite à relire
le contenu du fichier texte au regard de l’original (image scannée ou livre
imprimé) en corrigeant les erreurs, à savoir dix erreurs par page en moyenne
quand le logiciel OCR est de qualité.

Le livre est relu et corrigé à deux reprises par deux personnes différentes. Les
livres anciens sont parfois saisis ligne après ligne si le texte original manque
de clarté. Certains volontaires préfèrent également taper eux-mêmes des textes
courts ou des oeuvres qu’ils aiment particulièrement. Mais les livres sont le
plus souvent scannés et «OCRisés», puis relus et corrigés.

Contrairement à la numérisation en mode image (qui s’arrête à l’étape du
scanner), la numérisation en mode texte permet la copie du texte, l’indexation,
la recherche plein texte, l’analyse textuelle, une étude comparative entre
plusieurs textes, etc. On peut aussi lancer une recherche à partir de la
fonction «chercher» proposée par n’importe quel programme, sans logiciel de
recherche intermédiaire.

Le Projet Gutenberg dispose d’un moteur de recherche pour l’ensemble de ses
collections, grâce à un partenariat avec Google, avec mise à jour mensuelle.
Tout comme une recherche sur les métadonnées (auteur, titre, descriptif,
mots-clés) grâce à un partenariat avec Yahoo!, avec mise à jour hebdomadaire.
Pour la recherche avancée (Advanced Search), la recherche multicritères (auteur,
titre, sujet, langue, catégorie, classification, format, numéro) inclut
désormais un critère supplémentaire de recherche plein texte (Full Text), à
titre expérimental.

Les avantages de la numérisation en mode texte sont multiples. Les fichiers
prennent peu de place et circulent d’autant plus facilement. Contrairement à
d’autres formats, le téléchargement d’un livre au format texte ne requiert pas
de bande passante large. Le fichier texte peut être copié à l’infini, et
constituer la base de centaines de nouvelles versions numériques et imprimées,
pour un coût pratiquement nul. A tout moment, on peut corriger les erreurs
typographiques qui auraient pu subsister. Les lecteurs peuvent changer à volonté
la taille et la police des caractères, ainsi que les marges ou le nombre de
lignes par page. Le lecteur malvoyant peut grossir la taille des polices et le
lecteur aveugle utiliser un logiciel de reconnaissance vocale. Tout ceci est
nettement plus difficile, sinon impossible, avec nombre d’autres formats.

Si la correction par deux personnes différentes permet de mettre en ligne un
texte fiable à 99,9%, le but n’est pas pour autant de créer des éditions faisant
autorité, ou d’épiloguer sans fin avec un lecteur pointilleux sur le bien-fondé
ou non d’un signe de ponctuation tel que deux points à la place d’un point
virgule entre deux propositions.

Le Projet Gutenberg insiste régulièrement sur la nécessité de la relecture,
qu’il juge essentielle. Utiliser directement des livres scannés puis convertis
au format texte par un logiciel OCR, sans relecture, donne un résultat de bien
moindre qualité, avec une fiabilité de 99% dans le meilleur des cas. L’étape de
la relecture avec correction permet d’atteindre une fiabilité de 99,95%, un
pourcentage élevé qui est aussi le standard de la Library of Congress.

Le Projet Gutenberg s’inscrit donc dans une perspective assez différente de la
bibliothèque de l’Internet Archive (qui héberge également les collections du
Projet Gutenberg, en tant que deuxième site de distribution et site de
sauvegarde). Dans le cas de l’Internet Archive, les livres sont scannés puis
«OCRisés», mais ils ne sont pas relus par des correcteurs s’attachant à traquer
les erreurs. Plus rapide et moins fiable quant au résultat, la numérisation des
livres sans relecture est aussi la méthode adoptée par Google, Microsoft et bien
d’autres pour leurs propres bibliothèques numériques.

Disponible sur le site du Projet Gutenberg, le File Recode Service permet de
convertir les fichiers d’un système d’encodage (ASCII, ISO-8859, Unicode, Big-5,
etc.) à un autre. A l’avenir, un logiciel de conversion beaucoup plus puissant
devrait permettre la conversion automatique dans bien d’autres formats (XML,
HTML, PDF, TeX, RTF, BRF, etc.). Il sera également possible de choisir d’emblée
la taille et la police des caractères, ainsi que le fonds d’écran. Une autre
conversion très attendue est la conversion d’une langue à une autre par le biais
d’un logiciel de traduction automatique. Une telle conversion pourrait être
possible dans quelques années, quand ce type de logiciel aura gagné en qualité.


3.3. La correction partagée


La croissance rapide des collections depuis 2001 est due à l’activité de
Distributed Proofreaders, site lancé en octobre 2000 par Charles Franks pour
gérer la correction partagée entre les volontaires. A l’origine, il s’agit
seulement d’intensifier la production de livres du Projet Gutenberg. Mais le
succès est tel que le site devient la principale source des collections. En
2002, Distributed Proofreaders est officiellement affilié au Projet Gutenberg.

Les volontaires n’ont aucun quota à respecter. A titre indicatif, il est suggéré
de relire une page par jour, si possible. Cela semble peu, mais une page
multipliée par des centaines de volontaires représente un chiffre considérable.
La progression est rapide. En 2003, une moyenne de 250 à 300 relecteurs
quotidiens permet de produire entre 2.500 et 3.000 pages par jour, ce qui
représente deux pages par minute. En 2004, la moyenne est de 300 à 400
relecteurs quotidiens produisant entre 4.000 et 7.000 pages par jour, à savoir
quatre pages par minute. Distributed Proofreaders comptabilise un total de 3.000
livres en février 2004, 5.000 livres en octobre 2004, 7.000 livres en mai 2005,
8.000 livres en février 2006 et 10.000 livres en mars 2007, avec plusieurs
milliers de volontaires dans le monde et une production de cinq livres par jour.

Le site a pour but de permettre à plusieurs correcteurs de travailler
simultanément au même livre, sur des pages différentes. Le volontaire commence
par s’inscrire. Il reçoit des directives détaillées. Ces directives concernent
par exemple les parties en gras, en italique et soulignées, ou les notes, qui
sont toutes traitées de la même manière. Un forum permet de poser des questions
et de demander de l’aide si nécessaire. Quand le volontaire se connecte au site,
il sélectionne le livre de son choix à partir d’une liste donnée. Une page du
livre choisi apparaît simultanément en deux versions: d’une part l’image
scannée, d’autre part le texte issu de cette image, produit par un logiciel OCR.
Le relecteur compare les deux versions et corrige les différences. Un logiciel
OCR étant fiable à 99%, cela représente une moyenne de dix erreurs à corriger
par page. La page est ensuite sauvegardée. Le relecteur peut soit cesser le
travail, soit opter pour la correction d’une autre page. Tous les livres sont
relus et corrigés deux fois de suite et, la deuxième fois, uniquement par des
correcteurs expérimentés. Les pages corrigées sont ensuite formatées selon des
règles précises et assemblées par d’autres volontaires pour obtenir un livre
numérique. Durant tout le processus, un livre donné est suivi par un responsable
(project manager) qui s’assure du bon déroulement des opérations. Après la mise
en forme suit la mise en ligne, avec indexation (titre, sous-titre, numéro de
l’ebook et format) puis catalogage (dates de naissance et de décès de l’auteur,
classification de la Library of Congress, etc.).

Les volontaires peuvent aussi travailler de manière indépendante, en s’adressant
directement au Projet Gutenberg. Ils peuvent saisir leur livre préféré de bout
en bout sur le traitement de texte de leur choix. Ils peuvent aussi scanner
eux-mêmes un livre, le convertir en texte par le biais d’un logiciel OCR et
faire les corrections nécessaires en comparant le résultat à l’original. Dans
les deux cas, une deuxième relecture est faite par une autre personne. Toute
participation est bienvenue, quelle que soit la méthode adoptée. Il est tout à
fait possible de joindre des fichiers dans d'autres formats en complément du
fichier ASCII.

Aussi bien pour Distributed Proofreaders (DP-INT) que pour Distributed
Proofreaders Europe (DP Europe), de nouveaux volontaires sont bienvenus, y
compris pour les livres en français. La tâche est immense. Comme indiqué sur les
deux sites, «DP ne s’attend pas à un engagement inconditionnel de votre part.
Corrigez des textes aussi souvent que vous le voulez, et le nombre de pages que
vous voulez. Nous encourageons les gens à corriger une page par jour, mais vous
êtes tout à fait libre de faire ce qui vous plaît. Nous espérons que vous vous
joindrez à notre mission de préserver "la littérature mondiale dans un format
gratuit et disponible pour tous".»


3.4. Des collections multilingues


Qu’en est-il exactement des langues? Dans un premier temps, le Projet Gutenberg
est essentiellement anglophone, puisqu’il est basé aux Etats-Unis et qu’il sert
en priorité la communauté anglophone nationale et internationale.

En octobre 1997, Michael Hart annonce son intention d’intensifier la production
de livres dans d’autres langues. Début 1998, le catalogue comprend quelques
oeuvres en allemand, en espagnol, en français (dix titres), en italien et en
latin. En juillet 1999, Michael Hart écrit: «J’introduis une nouvelle langue par
mois maintenant, et je vais poursuivre cette politique aussi longtemps que
possible.»

Début 2004, 25 langues sont représentées. En juillet 2005, 42 langues sont
représentées, dont l’iroquois, le sanscrit et les langues mayas. Outre l’anglais
(14 548 livres le 27 juillet 2005), six langues disposent de plus de cinquante
titres: le français (577 livres), l’allemand (349 livres), le finnois (218
livres), le hollandais (130 livres), l’espagnol (103 livres) et le chinois (69
livres). En décembre 2006, 50 langues sont représentées. Les langues comprenant
plus de 50 titres sont l’anglais (17 377 livres le 16 décembre 2006), le
français (966 titres), l’allemand (412 titres), le finnois (344 titres), le
hollandais (244 titres), l’espagnol (140 titres), l’italien (102 titres), le
chinois (69 titres), le portugais (68 titres) et le tagalogue (51 titres).

La quantité de livres progresse rapidement pour chaque langue. Pour le français
par exemple, sur 11 340 livres disponibles le 13 février 2004, on comptait
seulement 181 livres en français. Sur 15 505 livres disponibles le 16 mai 2005,
on compte 547 livres en français. Soit trois fois plus en quinze mois. Sur 19
996 livres disponibles le 16 décembre 2006, on compte 966 livres en français,
soit un peu moins du double en dix-huit mois. Le mouvement devrait sensiblement
s’accélérer avec le lancement du Projet Gutenberg Europe en janvier 2004.

Les premiers titres disponibles dans la langue de Molière sont six romans de
Stendhal et deux romans de Jules Verne, tous mis en ligne au début de 1997. Les
six romans de Stendhal sont L’Abbesse de Castro, Les Cenci, La Chartreuse de
Parme, La Duchesse de Palliano, Le Rouge et le Noir et Vittoria Accoramboni, et
les deux romans de Jules Verne De la terre à la lune et Le tour du monde en
quatre-vingts jours. A la même date, si aucun titre de Stendhal n’est disponible
en anglais, trois romans de Jules Verne le sont : 20,000 Leagues Under the Seas
(Vingt mille lieues sous les mers, mis en ligne en septembre 1994), Around the
World in 80 Days (Le tour du monde en quatre-vingts jours, mis en ligne en
janvier 1994) et From the Earth to the Moon (De la terre à la lune, mis en ligne
en septembre 1993). Stendhal et Jules Verne sont suivis par Edmond Rostand avec
Cyrano de Bergerac, mis en ligne en mars 1998.

A la fin de 1999, le «Top 20», à savoir la liste des vingt auteurs les plus lus,
mentionne Jules Verne à la onzième place, et Emile Zola à la seizième place. Ils
sont toujours en bonne position dans le «Top 100» actuel.

A titre anecdotique, le premier document illustré disponible toutes langues
confondues est French Cave Paintings (Peintures des cavernes en France), mis en
ligne dès avril 1995, avec une version XHTML ajoutée en novembre 2000. Il s’agit
de quatre photos de peintures paléolithiques retrouvées dans une grotte de
l’Ardèche (département de la région Rhône-Alpes). Ces photos sous droits ont été
mises à la disposition du Projet Gutenberg par Jean Clottes, conservateur
général du patrimoine, pour être largement diffusées.

En 2004, le multilinguisme devient l’une des priorités du Projet Gutenberg, tout
comme l’internationalisation. Michael Hart prend son bâton de pèlerin vers
l’Europe, avec des étapes à Bruxelles, Paris et Belgrade. Le 12 février 2004, il
donne une conférence au siège de l’UNESCO (Organisation des Nations Unies pour
l’éducation, la science et la culture) à Paris. Le lendemain, toujours à Paris,
il anime un débat à l’Assemblée nationale. La semaine suivante, il s’adresse au
Parlement européen à Bruxelles. Puis il rend visite à l’équipe du Projet Rastko
à Belgrade, pour soutenir la création du Projet Gutenberg Europe (PG Europe) et
de Distributed Proofreaders Europe (DP Europe).

Le lancement de DP Europe par le Projet Rastko en janvier 2004 représente une
étape importante. DP Europe est calqué sur le site original de Distributed
Proofreaders, pour gérer la relecture partagée du Projet Gutenberg Europe. Dès
ses débuts, DP Europe est un site multilingue, qui prend en compte les
principales langues nationales. En avril 2004, grâce à des traducteurs
volontaires, le site de DP Europe est disponible en douze langues. L’objectif à
moyen terme est soixante langues, et donc soixante équipes linguistiques, avec
prise en compte de toutes les langues européennes. Quand il aura atteint sa
vitesse de croisière, DP Europe devrait alimenter plusieurs bibliothèques
numériques nationales et/ou linguistiques, par exemple le Projet Gutenberg
France pour la France. Le but étant que chaque pays ou région ait son propre
accès réseau autorisé (respectant la législation en vigueur dans le pays donné),
qui sera un accès local au sein d’un réseau continental (dans le cas de la
France, le réseau européen) et d’un réseau global (à l’échelle de la planète).

Quelques mots maintenant sur le Projet Rastko, qui s’est porté volontaire pour
un pari aussi fou, catalysant du même coup les bonnes volontés européennes à
l’est comme à l’ouest. Fondé en 1997, le Projet Rastko est une initiative non
gouvernementale à vocation culturelle et pédagogique. L’un de ses objectifs est
la mise en ligne de la culture serbe. Il fait partie de la Balkans Cultural
Network Initiative, un réseau culturel régional couvrant la péninsule des
Balkans, située au sud-est de l’Europe.

En mai 2005, Distributed Proofreaders Europe fête le centième livre numérisé par
ses soins, avec mise en ligne de ces cent livres le mois suivant sur le site du
Projet Gutenberg Europe. En décembre 2006, DP Europe comptabilise 400 livres
numérisés. La règle utilisée pour définir le domaine public est l’équation
«décès de l’auteur + 70 ans», qui correspond à la législation en vigueur dans
l’Union européenne. DP Europe utilise l’Unicode pour pouvoir traiter des livres
dans un grand nombre de langues. Créé en 1991 et largement répandu à partir de
1998, l’Unicode est un système d’encodage qui attribue un code unique à chaque
caractère pour être en mesure de traiter toutes les langues, contrairement à
l’ASCII qui ne peut traiter que l’anglais et quelques langues européennes.


3.5. Du passé vers l’avenir


Le pari fait par Michael Hart en 1971 est donc réussi. Le Projet Gutenberg
compte 10 livres en août 1989, 100 livres en janvier 1994, 1.000 livres en août
1997, 2.000 livres en mai 1999, 3.000 livres en décembre 2000, 4.000 livres en
octobre 2001, 5.000 livres en avril 2002, 10.000 livres en octobre 2003, 15.000
livres en janvier 2005 et 20.000 livres en décembre 2006, avec une prévision
d’un million de livres d’ici 2015.

Mais les résultats du Projet Gutenberg ne se mesurent pas seulement à ces
chiffres, qui restent assez modestes par rapport à la production imprimée. Les
résultats se mesurent également à l’influence du projet, qui est considérable.
Premier site d’information sur l’internet et première bibliothèque numérique, le
Projet Gutenberg a inspiré bien d’autres bibliothèques numériques depuis, par
exemple le Projekt Runeberg pour la littérature scandinave ou le Projekt
Gutenberg-DE pour la littérature allemande, pour n’en citer que deux. Fondé en
décembre 1992 par Lysator, un club informatique d’étudiants, en collaboration
avec la Linköping University Library (Suède), le Projekt Runeberg regroupe 200
oeuvres appartenant à la littérature nordique. Créé en 1994, le Projekt
Gutenberg-DE (désormais hébergé sur le site de l’hebdomadaire Der Spiegel)
comprend 200 titres de littérature allemande et de littérature étrangère en
allemand.

La structure administrative et financière du Projet Gutenberg se limite au
strict minimum, avec une devise qui tient en trois mots : «Less is more.»
Michael Hart insiste régulièrement sur la nécessité d’un cadre aussi souple que
possible laissant toute initiative aux volontaires, et la porte grande ouverte
aux idées nouvelles. Le but est d’assurer la pérennité du projet indépendamment
des crédits, des coupures de crédits et des priorités politiques et culturelles
du moment. Pas de pression possible donc par le pouvoir et par l’argent. Et
respect à l’égard des volontaires, qui sont assurés de voir leur travail utilisé
pendant de nombreuses années, si ce n’est pour plusieurs générations, d’où
l’intérêt d’un format numérique qui soit toujours valable dans quelques siècles.
Le suivi régulier du projet est assuré grâce à une lettre d’information
hebdomadaire et mensuelle et des forums de discussion.

Les dons servent à financer des ordinateurs et des scanners, et à envoyer des CD
et DVD gratuits à ceux qui en font la demande. Suite au CD «Best of Gutenberg»
disponible en août 2003 avec une sélection de 600 titres et à un premier DVD
disponible en décembre 2003 avec 9.400 titres, un deuxième DVD est disponible en
juillet 2006 avec 17.000 titres sur les 19.000 titres que comprennent désormais
les collections. Le contenu des CD et DVD est également téléchargeable sur le
site de BitTorrent. Créé en 2000, le PGLAF (Doctrine Publishing Corporation Literary Archive
Foundation) emploie en tout et pour tout trois personnes à temps partiel.

Chose souvent passée sous silence, Michael Hart est le véritable inventeur de
l’ebook. Si on considère l’ebook dans son sens étymologique, à savoir un livre
numérisé pour diffusion sous forme de fichier électronique, celui-ci aurait 35
ans et serait né avec le Projet Gutenberg en juillet 1971. Une paternité
beaucoup plus réconfortante que les divers lancements commerciaux dans un format
propriétaire ayant émaillé le début des années 2000. Il n’y a aucune raison pour
que la dénomination «ebook» ne désigne que l’ebook commercial et soit réservée
aux Amazon, Barnes & Noble, Gemstar et autres. L’ebook non commercial est un
ebook à part entière, et non un parent pauvre, tout comme l’édition électronique
non commerciale est une forme d’édition à part entière, et tout aussi valable
que l’édition commerciale. En 2003, les etexts du Projet Gutenberg deviennent
des ebooks, pour coller à la terminologie ambiante.

En juillet 1971, l’envoi d’un fichier de 5 Ko (kilo-octets) à cent personnes
aurait fait sauter l’embryon de réseau disponible à l’époque. En novembre 2002,
le Projet Gutenberg peut mettre en ligne les 75 fichiers du Human Genome Project
(Le séquençage du génome humain), chaque fichier se chiffrant en dizaines sinon
en centaines de mégaoctets. Ceci peu de temps après sa parution initiale en
février 2001, puisqu’il appartient d’emblée au domaine public. En 2004, la
capacité de stockage des disques durs est telle qu’il serait possible de faire
tenir l’intégralité de la Library of Congress sur un support de stockage coûtant
140 dollars US. Et quelques années seulement nous sépareraient d’une clé USB
permettant de stocker l’intégralité du patrimoine écrit de l’humanité.

Qu’en est-il des documents autres que l’écrit? En septembre 2003, le Projet
Gutenberg se lance dans la diffusion de livres audio. En décembre 2006, on
compte 367 titres lus par une synthèse vocale (Audio Book, computer-generated)
et 132 titres lus par l’être humain (Audio Book, human-read). Le nombre de ces
derniers devrait fortement augmenter dans un proche avenir. Par contre, les
titres lus par une synthèse vocale ne devraient plus être stockés dans une
section spécifique, mais réalisés à la demande à partir des fichiers
électroniques existant dans les collections générales. Les lecteurs aveugles ou
malvoyants pourront utiliser une commande vocale pour demander le texte de tel
ou tel livre.

Lancée à la même époque, la section The Sheet Music Subproject est consacrée aux
partitions musicales numérisées (Music, Sheet). Elle est complétée par une
section d’enregistrements musicaux (Music, recorded). Des sections sont
également disponibles pour les images fixes (Pictures, still) et animées
(Pictures, moving). Ces nouvelles collections devraient être développées dans
les prochaines années.

Mais la numérisation des livres reste prioritaire. Et la demande est énorme. En
témoigne le nombre de téléchargements, qui se comptent désormais en dizaines de
milliers par jour. A la date du 31 juillet 2005, on compte 37.532 fichiers
téléchargés dans la journée, 243.808 fichiers téléchargés dans la semaine et
1.154.765 fichiers téléchargés dans le mois. A la date du 6 mai 2007, on compte
89.841 fichiers téléchargés dans la journée, 697.818 fichiers téléchargés dans
la semaine et 2.995.436 fichiers téléchargés dans le mois. Courant mai, la
nombre de téléchargements mensuels atteint la barre des trois millions. Ceci
l’Université de Caroline du Nord, Chapel Hill, Etats-Unis), qui héberge aussi le
site du Projet Gutenberg. Le deuxième site de téléchargement est l’Internet
Archive, qui met également à disposition une capacité de stockage considérable.
Un «Top 100» recense les cent titres et les cent auteurs les plus téléchargés
dans la journée, dans la semaine et dans le mois. Le Projet Gutenberg dispose de
38 sites miroirs répartis dans de nombreux pays, et il en cherche d’autres. La
circulation des fichiers se fait aussi en mode P2P (peer-to-peer), qui permet
d’échanger des fichiers directement d’un utilisateur à l’autre.

Les livres du Projet Gutenberg peuvent aider à combler la fracture numérique.
Ils sont aisément téléchargeables sur PDA. Un ordinateur ou un PDA d’occasion ne
coûte que quelques dollars ou quelques dizaines de dollars, en fonction du
modèle. Certains PDA fonctionnent à l’énergie solaire, permettant la lecture
dans les régions reculées et les pays en développement.

Lorsque, dans une dizaine d’années, les collections atteindront un million de
livres, on pourra peut-être bénéficier de leur traduction simultanée dans une
centaine de langues. En utilisant la traduction automatique qui, d’ici là,
pourrait avoir atteint un taux de fiabilité de l’ordre de 99%, un pourcentage
dont on est encore loin. En 2004, le Projet Gutenberg était en lien avec un
projet européen envisageant un logiciel de traduction automatique relayé par des
traducteurs (non pas des machines, mais des êtres humains), sur un modèle
comparable à la technologie OCR relayée par des correcteurs (non pas des
logiciels, mais des êtres humains) pour offrir un contenu de grande qualité.

35 ans après les débuts du Projet Gutenberg, Michael Hart se définit toujours
comme un fou de travail dédiant toute sa vie à son projet, qu’il voit comme
étant à l’origine d’une révolution néo-industrielle. Il se définit aussi comme
altruiste, pragmatique et visionnaire. Après avoir été traité de toqué pendant
de nombreuses années, il force maintenant le respect. Au fil des ans, la mission
du Projet Gutenberg reste la même, à savoir changer le monde par le biais de
l’ebook gratuit indéfiniment utilisable et reproductible. L’objectif reste lui
aussi le même, à savoir la lecture et la culture pour tous à moindres frais.
Quant à la mission, elle se résume en quelques mots: «encourager la création et
la distribution d’ebooks», par autant de personnes que possible, et par tous les
moyens. Tout en prenant les virages nécessaires pour intégrer de nouvelles
idées, de nouvelles méthodes et de nouveaux supports.

D’après Michael Hart, le patrimoine écrit de l’humanité représenterait 25
millions de livres appartenant au domaine public, qui pourraient être collectés
auprès des grandes bibliothèques nationales et régionales, à raison d’un
exemplaire par livre, sans tenir compte des nombreuses éditions annotées et
commentées. Si Gutenberg a permis à chacun d’avoir des livres grâce à
l’invention de l’imprimerie, le Projet Gutenberg permet à chacun d’avoir une
bibliothèque de livres grâce au stockage de ceux-ci sur un support numérique
tenant dans un sac sinon dans une poche. Fin 2006, le Projet Gutenberg permet
d'ores et déjà à chacun d’avoir une bibliothèque numérique de 20.000 livres,
auxquels s’ajoutent les 75.000 livres provenant de diverses collections
rassemblés par le Doctrine Publishing Corporation Consortia Center (PGCC).

Laissons le mot de la fin à Michael Hart, à qui je demandais en août 1998 quel
était son meilleur souvenir. A l’époque, il répondait: «Le courrier que je
reçois me montre combien les gens apprécient que j’aie passé ma vie à mettre des
livres sur l’internet. Certaines lettres sont vraiment émouvantes, et elles me
rendent heureux pour toute la journée.» Quelques années après, il confirme que
sa réponse serait toujours la même.


3.6. Chronologie


1971 (juillet): Saisie par Michael Hart de The United States Declaration of
Independence (ebook #1) et diffusion d’un message auprès des cent premiers
usagers du réseau. Le Projet Gutenberg est né.

1972: Saisie de The United States Bill of Rights (ebook #2).

1973: Saisie de The United States Constitution (ebook #5).

1974-1988: Saisie de la Bible et de plusieurs pièces de Shakespeare.

1989 (août): The King James Bible (ebook #10).

1991 (janvier): Alice’s Adventures in Wonderland (ebook #11).

1991 (juin): Peter Pan (ebook #16).

1991: Numérisation d’un livre par mois.

1992: Numérisation de deux livres par mois.

1993: Numérisation de quatre livres par mois.

1993 (décembre): Constitution de trois grands secteurs: Light Literature, Heavy
Literature, Reference Literature.

1994: Numérisation de huit livres par mois.

1994 (janvier): The Complete Works of William Shakespeare (ebook #100).

1995: Numérisation de 16 livres par mois.

1996-1997: Numérisation de 32 livres par mois.

1997 (août): La Divina Commedia di Dante, en italien (ebook #1000).

1997: Lancement du Doctrine Publishing Corporation Consortia Center (PGCC).

1998-2000: Numérisation de 36 livres par mois.

1999 (mai): Don Quijote, de Cervantès, en espagnol (ebook #2000).

2000: Création de la Doctrine Publishing Corporation Literary Archive Foundation (PGLAF).

2000 (octobre): Conception de Distributed Proofreaders par Charles Franks pour
permettre la correction partagée.

2000 (décembre): A l’ombre des jeunes filles en fleurs (vol. 3), de Proust, en
français (ebook #3000).

2001 (août): Création du Doctrine Publishing Corporation of Australia.

2001 (octobre): The French Immortals Series, en anglais (eBook #4000).

2001: Numérisation de 104 livres par mois.

2002: Affiliation officielle de Distributed Proofreaders au Projet Gutenberg.

2002 (avril): The Notebooks of Leonardo da Vinci, en anglais (ebook #5000).

2002: Numérisation de 203 livres par mois.

2003 (août): Edition d’un CD «Best of Gutenberg» contenant 600 livres.

2003 (septembre): Lancement de la section Doctrine Publishing Corporation Audio eBooks.

2003 (octobre): Les collections doublent en dix-huit mois, passant de 5.000 à
10.000 livres.

2003 (octobre): The Magna Carta (ebook # 10000).

2003 (décembre): Edition du premier DVD, qui contient 9.400 livres.

2003: Numérisation de 348 livres par mois.

2003: Affiliation officielle du Doctrine Publishing Corporation Consortia Center (PGCC) au
Projet Gutenberg.

2004 (janvier): Lancement du Projet Gutenberg Europe par le Projet Rastko.

2004 (janvier): Lancement de Distributed Proofreaders Europe par le Projet
Rastko.

2004 (février): Voyage de Michael Hart en Europe (Paris, Bruxelles, Belgrade).

2004 (février): Conférence de Michael Hart au siège de l’UNESCO, à Paris.

2004 (février): Visite de Michael Hart au Parlement européen, à Bruxelles.

2004 (octobre): 5.000 livres produits par Distributed Proofreaders.

2004: Numérisation de 338 livres par mois.

2005 (janvier): The Life of Reason, par George Santayana (ebook #15000).

2005 (mai): 7.000 livres produits par Distributed Proofreaders.

2005 (mai): 100 premiers livres produits par Distributed Proofreaders Europe.

2005 (juin): Le Projet Gutenberg compte 16.000 livres.

2005 (juin): Le Projet Gutenberg Europe compte 100 livres.

2005 (juillet): Premiers pas du Doctrine Publishing Corporation of Canada.

2005 (octobre): 5e anniversaire de Distributed Proofreaders.

2005: Numérisation de 251 livres par mois.

2006 (janvier):  Lancement de la section Doctrine Publishing Corporation PrePrints.

2006 (février): 8.000 livres produits par Distributed Proofreaders.

2006 (mai): Création de la Distributed Proofreaders Foundation.

2006 (juillet): 35e anniversaire du Projet Gutenberg.

2006 (juillet): Edition d’un nouveau DVD, qui contient 17.000 livres.

2006 (novembre): Lancement du site PG News.

2006 (décembre): Le Projet Gutenberg compte 20.000 livres.

2006 (décembre): 400 livres produits par Distributed Proofreaders Europe.

2006: Numérisation de 346 livres par mois.

2007 (mars): 10.000 livres produits par Distributed Proofreaders.

2007 (avril): 1.500 livres pour Doctrine Publishing Corporation of Australia.

2007 (juillet): Lancement de Doctrine Publishing Corporation Canada.

2010 (estimation): Conversion automatique dans de nombreux formats.

2015 (estimation): Un million de livres au catalogue.

2015 (estimation): Conversion automatique dans cent langues différentes.


4. DES LIVRES A VENDRE SUR LE WEB


[4.1. Dans le sillage d’Amazon / Amazon, librairie en ligne / Internet Bookshop
// 4.2. Librairies en ligne francophones // 4.3. Expériences de libraires /
Librairies traditionnelles / Librairies de voyage / Librairies d’ancien // 4.4.
Numilog, librairie numérique // 4.5. Chronologie]

Nées sur le web au milieu des années 1990, de nouvelles librairies n’ont ni
murs, ni vitrine, ni enseigne sur la rue, et toutes leurs transactions
s’effectuent sur le réseau. C’est le cas d’Amazon qui, sous la houlette de Jeff
Bezos, ouvre ses portes virtuelles en juillet 1995 avec dix salariés et trois
millions d’articles pour devenir rapidement un géant du commerce électronique.
D'autres librairies suivent. On peut consulter le catalogue à l’écran, lire le
résumé du livre ou même des extraits, puis passer sa commande en ligne. Cinq ans
plus tard, dans les années 2000, on voit surgir des librairies qui ne vendent
que des livres numériques, avec téléchargement des livres dans les minutes
suivant la commande.


4.1. Dans le sillage d’Amazon


= Amazon, librairie en ligne

Fondé par Jeff Bezos, Amazon.com (devenue Amazon dans le langage courant) voit
le jour en juillet 1995 à Seattle, dans l’Etat de Washington, sur la côte ouest
des Etats-Unis. Quinze mois auparavant, au printemps 1994, Jeff Bezos fait une
étude de marché pour décider du meilleur produit de consommation à vendre sur
l’internet. Dans sa liste de vingt produits marchands, qui comprennent entre
autres les vêtements et les instruments de jardinage, les cinq premiers du
classement se trouvent être les livres, les CD, les vidéos, les logiciels et le
matériel informatique.

«J’ai utilisé tout un ensemble de critères pour évaluer le potentiel de chaque
produit, relate Jeff Bezos dans le kit de presse d’Amazon. Le premier critère a
été la taille des marchés existants. J’ai vu que la vente des livres
représentait un marché mondial de 82 milliards de dollars US. Le deuxième
critère a été la question du prix. Je voulais un produit bon marché. Mon
raisonnement était le suivant : puisque c’était le premier achat que les gens
allaient faire en ligne, il fallait que la somme à payer soit modique. Le
troisième critère a été la variété dans le choix : il y avait trois millions de
titres de livres alors qu’il n’y avait que 300.000 titres pour les CD, par
exemple.»

La vente de livres en ligne débute en juillet 1995, avec dix salariés et un
stock quatorze fois supérieur à celui des hypermarchés. Le catalogue en ligne
permet de rechercher les livres par titre, auteur, sujet ou rubrique. On y
trouve aussi des CD, des DVD, des jeux informatiques, etc. Très attractif, le
contenu éditorial du site change quotidiennement et forme un véritable magazine
littéraire proposant des extraits de livres, des entretiens avec des auteurs et
des conseils de lecture. Amazon devient le pionnier d’un nouveau modèle
économique. Son évolution rapide est suivie de près par des analystes de tous
bords.

En 1998, avec 1,5 million de clients dans 160 pays et une très bonne image de
marque, Amazon est régulièrement cité comme un symbole de réussite dans le
cybercommerce. Si la librairie en ligne est toujours déficitaire, sa cotation
boursière est excellente, suite à une introduction à la Bourse de New York en
mai 1997.

En novembre 2000, la société compte 7.500 salariés, 28 millions d’articles, 23
millions de clients et quatre filiales (Royaume-Uni, Allemagne, France, Japon),
auxquelles s’ajoute en juin 2002 une cinquième filiale au Canada. La maison mère
diversifie ses activités. Elle vend non seulement des livres, des vidéos, des CD
et des logiciels, mais aussi des produits de santé, des jouets, des appareils
électroniques, des ustensiles de cuisine, des outils de jardinage, etc. En
novembre 2001, la vente des livres, disques et vidéos ne représente plus que 58%
du chiffre d’affaires global. Admiré par certains, le modèle économique d’Amazon
est contesté par d’autres, notamment en matière de gestion du personnel, avec
des contrats de travail précaires et de bas salaires.

Tout comme la grande librairie en ligne britannique Internet Bookshop, Amazon
offre une part des bénéfices à ses «associés» en ligne. Depuis le printemps
1997, tous les possesseurs d’un site web peuvent vendre des livres appartenant
au catalogue de la librairie et toucher un pourcentage de 15% sur les ventes.
Ces associés font une sélection dans les titres du catalogue et rédigent leurs
propres résumés. Amazon reçoit les commandes par leur intermédiaire, expédie les
livres et rédige les factures. Les associés reçoivent un rapport hebdomadaire
d’activité. Au printemps 1998, le libraire en ligne compte plus de 30.000 sites
affiliés.

La présence européenne d’Amazon débute en octobre 1998. Les deux premières
filiales sont implantées en Allemagne et au Royaume-Uni. En août 2000, avec 1,8
million de clients en Grande-Bretagne, 1,2 million de clients en Allemagne et
quelques centaines de milliers de clients en France, la librairie réalise 23% de
ses ventes hors des Etats-Unis. A la même date, elle ouvre sa filiale française.
Une filiale japonaise est ouverte en octobre 2000. En novembre 2000, Amazon
ouvre un secteur eBooks, à savoir un secteur vendant des livres numériques. En
2001, les 29 millions de clients d’Amazon génèrent un chiffre d’affaires de 4
milliards de dollars US. En juin 2002, une cinquième filiale est ouverte au
Canada. Au 3e trimestre 2003, la société devient bénéficiaire pour la première
fois de son histoire. En octobre 2003, Amazon lance un service de recherche
plein texte (Search Inside the Book) qui scanne le texte intégral de 120.000
titres, un nombre promis à une croissance rapide. Amazon lance aussi son propre
moteur de recherche A9.com mais, contrairement aux autres initiatives, le succès
n’est pas au rendez-vous. Une sixième filiale est ouverte en Chine sous le nom
de Joyo en septembre 2004.

En 2004, le bénéfice net d’Amazon est de 588 millions de dollars US, dont 45%
généré par ses filiales, avec un chiffre d’affaires de 6,9 milliards de dollars.
Présent dans sept pays (Etats-Unis, Canada, Royaume-Uni, Allemagne, France,
Japon, Chine) et devenu une référence mondiale du commerce en ligne, Amazon fête
ses dix ans d’existence en juillet 2005, avec 9.000 salariés et 41 millions de
clients actifs, attirés par des produits culturels, high-tech et autres aux prix
attractifs et une livraison en 48 heures maximum dans les pays hébergeant une
plateforme Amazon.

= Internet Bookshop

Basée au Royaume-Uni, l’Internet Bookshop (iBS) se trouve être la plus grande
librairie européenne en 1998, avec un catalogue de 1,4 million de titres. Moins
connue qu’Amazon, elle lance cependant à plusieurs reprises des initiatives
originales et inédites copiées ensuite par les librairies concurrentes, Amazon y
compris.

La librairie développe d’abord un système de partenariat sur le web, repris par
Amazon dans sa politique de sites affiliés. Tout possesseur d’un site web peut
devenir partenaire de l’Internet Bookshop en sélectionnant sur son propre site
un certain nombre de titres présents dans le catalogue de la librairie. Celle-ci
prend en charge toute la partie commerciale, à savoir les commandes, les envois
et les factures. L’internaute partenaire reçoit 10% du prix des ventes. C’est la
première fois qu’une librairie en ligne propose une part aux bénéfices par le
biais du web, entraînant à terme la nécessité d’une nouvelle réglementation dans
ce domaine.

Autre initiative originale, qui débute en octobre 1997, une politique de grosses
remises, chose inconnue jusque-là. La librairie propose des remises allant
jusqu’à 45%, prenant le risque d’une guerre des prix et des droits avec les
libraires et les éditeurs traditionnels. L’idée est ensuite reprise
outre-Atlantique. Principale chaîne de librairies traditionnelles aux
Etats-Unis, avec 480 librairies réparties dans tout le pays, Barnes & Noble
décide de se lancer dans la vente en ligne en créant en mai 1997 son site
barnesandnoble.com. Il devient rapidement le principal concurrent d’Amazon et
déclenche lui aussi une guerre des prix - puisque le prix du livre est libre aux
Etats-Unis - à la grande satisfaction des internautes, qui, sur l’un ou l’autre
site, se voient parfois offrir des réductions allant jusqu’à 50% pour certains
titres.

En octobre 1997, l’Internet Bookshop attend également la réaction des libraires
et des éditeurs traditionnels à sa décision de vendre des livres provenant des
Etats-Unis, une initiative débutée un mois auparavant. Une deuxième librairie en
ligne britannique, Waterstone’s (rachetée ensuite par Amazon), songe elle aussi
à introduire des titres américains dans son catalogue, à partir de janvier 1998.
The Publishers Association, organisme représentant les éditeurs du Royaume-Uni,
a fort à faire pour étudier les doléances de ceux-ci, jointes à celles des
libraires traditionnels, qui souhaiteraient non seulement faire interdire la
vente de titres américains par des librairies en ligne britanniques, mais aussi
faire interdire l’activité des librairies en ligne américaines au Royaume-Uni,
sous-entendu: qu’elles ne puissent pas vendre de livres à des clients
britanniques. Sur le site web de l’Internet Bookshop, en 1997 et 1998, la
rubrique iBS News permet de suivre pas à pas le combat engagé par les libraires
en ligne contre les associations d’éditeurs et de libraires traditionnels, afin
d’obtenir la suppression totale des frontières pour la vente des livres. Comme
on le voit, ce qui nous paraît évident maintenant ne l’était guère il y a dix
ans. Mais, de par la structure même de l’internet, l’abolition des frontières
dans le marché du livre est inévitable, et les librairies en ligne européennes
ne tardent pas à suivre l’exemple de l’Internet Bookshop.

Concernant la fiscalité, un accord-cadre entre les Etats-Unis et l’Union
européenne est conclu en décembre 1997. L’internet est considéré comme une zone
de libre-échange, c’est-à-dire sans droits de douane pour les logiciels, les
films et les livres achetés sur le réseau. Les biens matériels et autres
services sont soumis au régime existant dans les pays concernés, avec perception
de la TVA (taxe sur la valeur ajoutée) sans frais de douane supplémentaires. Cet
accord-cadre est suivi ensuite d’une convention internationale.

Quelques années plus tard, l’Internet Bookshop ancienne formule est intégré à la
librairie en ligne de la chaîne de librairies WHSmith. En 2007, un Internet
Bookshop nouvelle formule, dénommé Internet Bookshop UK (IBUK), se trouve être
la troisième librairie en ligne mondiale, avec un stock de 2 millions de livres
neufs, épuisés, anciens et d’occasion, et 4.000 nouveaux titres par semaine. Ses
locaux sont implantés dans un cadre idyllique, à Cambridge, village du comté du
Gloucestershire, au sud-ouest de l’Angleterre.

= Librairies en ligne francophones

Fondée en 1996 par Patrice Magnard, la librairie en ligne Alapage vend tous les
livres, disques et vidéos disponibles sur le marché français, soit 400.000
articles, avec paiement sécurisé. Sur le site bilingue français-anglais, la
recherche est possible par auteur, titre et éditeur. Le même service est
disponible sur minitel (3615 Alapage).

Alapage travaille en partenariat avec la librairie en ligne Novalis (intégrée
plus tard à Alapage) qui assure elle aussi la vente par correspondance de
produits culturels: disques, livres, vidéos et multimédia.

En octobre 1997, les deux librairies décident de créer le premier prix
littéraire francophone sur l’internet. Comme indiqué à la même date sur leurs
sites respectifs: «1) C’est la première fois que l’on utilise le support
internet pour organiser un vote autour d’un prix littéraire. 2) C’est la
première fois qu’est constitué un jury littéraire composé d’un potentiel aussi
important et diversifié de votants, fidèle reflet de la diffusion de la culture
française. Ce vote est en effet ouvert à nos visiteurs de tous horizons,
disséminés sur les cinq continents, qui pourront émettre leur avis sur
l’ensemble des ouvrages concourant aux principaux prix littéraires de fin
d’année. 3) C’est la première fois qu’est imaginé un instrument de mesure de la
satisfaction du lecteur et du bonheur de la lecture, qui ne soit pas seulement
un outil de mesure des ventes de livres, aussi fiable soit-il.» Un vote est
organisé entre le 20 octobre et le 9 novembre 1997 auprès des internautes. Afin
d’éviter les votes multiples, chaque voix n’est validée que si la fiche de vote
est scrupuleusement remplie. Toute fiche double est annulée. Ce premier prix
littéraire des internautes est remporté par Marc Trillard pour son roman Coup de
lame, paru aux éditions Phébus.

A Alapage et Novalis vient s’ajouter une troisième librairie en ligne,
Chapitre.com, librairie indépendante créée en 1997 par Juan Pirlot de Corbion.
Son catalogue de 350.000 titres est complété par une bouquinerie, un choix
d’éditeurs, une sélection de 1.000 sites littéraires et culturels, ainsi qu’une
revue des littératures intitulée Tête de chapitre.

Contrairement à leurs homologues anglophones, les libraires en ligne français ne
peuvent se permettre les réductions substantielles proposées par leurs collègues
des Etats-Unis ou du Royaume-Uni, pays dans lesquels le prix du livre est libre.
Si la loi française sur le prix unique du livre leur laisse peu de latitude, les
libraires sont toutefois optimistes sur les perspectives d’un marché francophone
international. Dès 1997, un nombre significatif de commandes provient de
l’étranger, par exemple 10% des commandes pour le service en ligne de la Fnac.

Alapage rejoint le groupe France Télécom en septembre 1999 puis devient en
juillet 2000 une filiale à part entière de Wanadoo, le fournisseur d’accès
internet de France Télécom. Quant à Chapitre.com, il comprend désormais
plusieurs secteurs: livres neufs, livres neufs à prix réduit, livres anciens,
revues anciennes ou épuisées, gravures et affiches.

Alapage, Chapitre.com, la Fnac et quelques autres voient débarquer avec
inquiétude Amazon.fr, la filiale qu'Amazon ouvre en août 2000 dans l’hexagone.
Un mois après son lancement, Amazon.fr est à la seconde place des sites de biens
culturels français, après la Fnac. La société de mesure d’audience Media Metrix
Europe donne les chiffres suivants pour septembre 2000: 40.000 requêtes
individuelles pour Fnac.com, 217.000 requêtes pour Amazon.fr, 209.000 requêtes
pour Alapage et 74.000 requêtes pour BOL.fr, la succursale française de
l'européen BOL.com (BOL: Bertelsmann On Line).

Le nombre de librairies en ligne s’avère toutefois trop élevé par rapport au
marché existant. En juillet 2001, BOL.com annonce la fermeture de BOL.fr, créé
deux ans auparavant par les deux géants des médias Bertelsmann et Vivendi. A la
même date, les difficultés rencontrées par d’autres libraires en ligne montrent
la nécessité de revoir à la baisse des prévisions quelque peu optimistes, afin
de laisser à la clientèle le temps de s’habituer à ce nouveau mode d’achat.


4.2. Expériences de libraires


= Librairies traditionnelles

Qu’en est-il des librairies traditionnelles? A la fin des années 1990, les
chaînes de librairies ont toutes une librairie en ligne à côté de leur réseau de
librairies «en dur». C’est le cas notamment de la Fnac, de Virgin, de France
Loisirs, ou encore du Furet du Nord, qui dessert le Nord de la France, et de
Decitre, qui dessert la région Rhône-Alpes.

Le site de la Fnac ouvre sur le logo «fnac» blanc et ocre bien connu. Présente
en France, en Belgique et en Espagne, la Fnac, selon ses propres termes, se veut
à la fois défricheur, agitateur culturel et commerçant, et se définit par «une
politique commerciale fondée sur l’alliance avec le consommateur, sa vocation
culturelle et sa volonté de découvrir les nouvelles technologies». La Fnac crée
un magazine littéraire en ligne et ouvre un secteur «commerce électronique»
permettant de commander livres, disques, vidéos et CD-Rom par internet, minitel
ou téléphone. La livraison est possible en France comme à l’étranger. Les modes
de paiement sont la carte de crédit ou le chèque à la commande.

Le Furet du Nord est une chaîne de librairies implantée dans le Nord de la
France et dont le siège est à Lille. Son site permet de consulter une base de
données de 250.000 livres et de les commander en ligne. Il propose aussi un
suivi permanent de l’actualité littéraire. La vente à distance représente 15 à
20% du chiffre d’affaires total de l’entreprise. Les meilleurs clients sont les
écoles, les universités, les comités d’entreprise et les ambassades.

La chaîne de librairies Decitre officie dans la région Rhône-Alpes. Ses neuf
librairies sont particulièrement dynamiques dans le domaine de l’informatique,
du multimédia et de l’internet, avec des présentations régulières de nouveaux
CD-Rom et des initiations à l’internet. Créé en 1996, le site est remanié en
décembre 1997. «Notre site est pour l’instant juste un moyen de communication de
plus (par le biais du mail) avec nos clients des magasins et nos clients
bibliothèques et centres de documentation», explique en juin 1998 Muriel Goiran,
libraire. «Nous avons découvert son importance en organisant DocForum, le
premier forum de la documentation et de l’édition spécialisée, qui s’est tenu à
Lyon en novembre 1997. Il nous est apparu clairement qu’en tant que libraires,
nous devions avoir un pied dans le net. Internet est très important pour notre
avenir. Nous allons mettre en ligne notre base de 400.000 livres français à
partir de fin juillet 1998, et elle sera en accès gratuit pour des recherches
bibliographiques. Ce ne sera pas une n-ième édition de la base de Planète Livre,
mais notre propre base de gestion, que nous mettons sur internet.»

Spécialisée dans les ouvrages scientifiques, la librairie Interférences serait
la première librairie française à avoir créé un site web, dès 1995. Le Monde en
Tique propose quant à lui un catalogue de 37.000 titres sur l’informatique, les
nouvelles technologies, le multimédia et l’internet.

Mais la vente à distance n’est pas l’apanage des grandes librairies ni des
librairies à vocation scientifique et technique, comme le montrent les exemples
qui suivent, pris dans les librairies de voyage et les librairies d’ancien.

= Librairies de voyage

Fondée en 1985 par Hélène Larroche, Itinéraires est une librairie de voyages
située au cœur de Paris, rue Saint-Honoré, dans l’ancien quartier des Halles. La
librairie propose guides, cartes, manuels de conversation, reportages, récits de
voyage, livres de cuisine, livres d’art et de photos, ouvrages d’histoire, de
civilisation, d’ethnographie, de religion et de littérature étrangère, et ceci
pour 160 pays et 250 destinations. «Le monde en mémoire», tel est le sous-titre
de son site bilingue français-anglais.

Dès les débuts de la librairie, le personnel crée une base de données avec
classement des livres par pays et par sujets. Dix ans après, en 1995, la
consultation du catalogue est possible sur minitel. Trois ans plus tard, la
librairie est présente sur le web. En juin 1998, Hélène Larroche relate: «Il y a
un peu plus de trois ans, nous avons rendu la consultation de notre base de
données possible sur minitel et effectuons près de 10% de notre chiffre
d’affaires avec la vente à distance. Passer du minitel à internet nous semblait
intéressant pour atteindre la clientèle de l’étranger, les expatriés désireux de
garder par les livres un contact avec la France et à la recherche d’une
librairie qui "livre à domicile" et bien sûr les "surfeurs sur le net", non
minitélistes.

La vente à distance est encore trop peu utilisée sur internet pour avoir modifié
notre chiffre d’affaires de façon significative. Internet a cependant eu une
incidence sur le catalogue de notre librairie, avec la création d’une rubrique
sur le web, spécialement destinée aux expatriés, dans laquelle nous mettons des
livres, tous sujets confondus, qui font partie des meilleures ventes du moment
ou/et pour lesquels la critique s’emballe. Nous avons toutefois décidé de
limiter cette rubrique à 60 titres quand notre base en compte 13.000. Un
changement non négligeable, c’est le temps qu’il faut dégager ne serait-ce que
pour répondre au courrier que génèrent les consultations du site. Outre le
bénéfice pour l’image de la librairie qu’internet peut apporter (et dont nous
ressentons déjà les effets), nous espérons pouvoir capter une nouvelle clientèle
dans notre spécialité (la connaissance des pays étrangers), atteindre et
intéresser les expatriés et augmenter nos ventes à l’étranger.»

En janvier 2000, Hélène Larroche ajoute: «Un net regain de personnes viennent à
notre librairie après nous avoir découvert sur le web. C’est plutôt une
clientèle parisienne ou une clientèle venue de province pour pouvoir feuilleter
sur place ce que l’on a découvert sur le web. Mais l’expérience est très
intéressante et nous conduit à poursuivre.»

D’autres librairies se débrouillent au mieux avec des moyens limités, comme la
librairie Ulysse, sise elle aussi à Paris, dans l’île Saint-Louis. Créée en 1971
par Catherine Domain, elle est la première librairie au monde uniquement
consacrée au voyage. Ses 20.000 livres, cartes et revues neufs et d’occasion
recèlent des documents introuvables ailleurs. A la fois libraire et grande
voyageuse, Catherine Domain est membre du Syndicat national de la librairie
ancienne et moderne (SLAM), du Club des explorateurs et du Club international
des grands voyageurs. En 1999, elle décide de se lancer dans un voyage autrement
plus ingrat, virtuel cette fois-ci, à savoir la réalisation d’un site web en
autodidacte. «Mon site est embryonnaire et en construction, raconte-t-elle en
novembre 2000. Il se veut à l’image de ma librairie, un lieu de rencontre avant
d’être un lieu commercial. Il sera toujours en perpétuel devenir ! Internet me
prend la tête, me bouffe mon temps et ne me rapporte presque rien, mais cela ne
m’ennuie pas...» Elle est toutefois assez pessimiste sur l’avenir des librairies
comme la sienne. «Internet tue les librairies spécialisées. En attendant d’être
dévorée, je l’utilise comme un moyen d’attirer les clients chez moi, et aussi de
trouver des livres pour ceux qui n’ont pas encore internet chez eux ! Mais j’ai
peu d’espoir...»

= Librairies d’ancien

L’internet permet aux libraires d’ancien de considérablement élargir leur champ
d’action. Dans un domaine où la vente par correspondance sur catalogue a
toujours été primordiale, l’internet vient à point nommé pour faciliter les
transactions. Courriel, listes de diffusion, bases de données sur le web et
commerce électronique prennent le relais des méthodes traditionnelles.

Pascal Chartier est le gérant de la librairie du Bât d’Argent (Lyon). Dès
novembre 1995, il crée Livre-rare-book, un site professionnel de livres
d’occasion, anciens et modernes disponible en français et en anglais. Un
catalogue en ligne regroupe les catalogues de plusieurs librairies de la région,
situées à Lyon, Moulins, Dijon et Naples. Il est complété par un annuaire
international des librairies d’occasion.  Pascal Chartier considère le web comme
«une vaste porte», à la fois pour lui et pour ses clients. L’internet est
«peut-être la pire et la meilleure des choses. La pire parce qu’il peut générer
un travail constant sans limite et la dépendance totale. La meilleure parce
qu’il peut s’élargir encore et permettre surtout un travail intelligent!»,
écrit-il en juin 1998. En août 2003, Livre-rare-book propose un catalogue de
plus d’un million de livres émanant de quelque 320 librairies situées en France
et à l’étranger, et un annuaire international recensant près de 4.000
librairies. Le catalogue comprend 2 millions de livres émanant de 500 librairies
en septembre 2005, et 2,6 millions de livres émanant de 550 librairies en
décembre 2006.

Autre réalisation, celle du Syndicat national de la librairie ancienne et
moderne (SLAM), un syndicat professionnel regroupant 220 librairies françaises.
Le SLAM met en ligne un premier site web en 1997, remplacé par une nouvelle
version de conception plus dynamique en juillet 1999. Alain Marchiset, président
du SLAM, explique en juillet 2000: «Ce site intègre une architecture de type
"base de données", et donc un véritable moteur de recherche, qui permet de faire
des recherches spécifiques (auteur, titre, éditeur, et bientôt sujet) dans les
catalogues en ligne des différents libraires. Le site contient l’annuaire des
libraires avec leurs spécialités, des catalogues en ligne de livres anciens avec
illustrations, un petit guide du livre ancien avec des conseils et les termes
techniques employés par les professionnels, et aussi un service de recherche de
livres rares. De plus, l’association organise chaque année en novembre une foire
virtuelle du livre ancien sur le site, et en mai une véritable foire
internationale du livre ancien qui a lieu à Paris et dont le catalogue officiel
est visible aussi sur le site. (...)

Les libraires membres proposent sur le site du SLAM des livres anciens que l’on
peut commander directement par courriel et régler par carte de crédit. Les
livres sont expédiés dans le monde entier. Les libraires de livres anciens
vendaient déjà par correspondance depuis très longtemps au moyen de catalogues
imprimés adressés régulièrement à leurs clients. Ce nouveau moyen de vente n’a
donc pas été pour nous vraiment révolutionnaire, étant donné que le principe de
la vente par correspondance était déjà maîtrisé par ces libraires. C’est
simplement une adaptation dans la forme de présentation des catalogues de vente
qui a été ainsi réalisée. Dans l’ensemble, la profession envisage assez
sereinement ce nouveau moyen de vente.»

Résolument optimiste en 1999 et 2000, la profession revoit ensuite ses
espérances à la baisse. En juin 2001, Alain Marchiset écrit: «Après une
expérience de près de cinq années sur le net, je pense que la révolution
électronique annoncée est moins évidente que prévue, et sans doute plus
"virtuelle" que réelle pour le moment. Les nouvelles technologies n’ont pas
actuellement révolutionné le commerce du livre ancien. Nous assistons surtout à
une série de faillites, de rachats et de concentrations de sociétés de services
(principalement américaines) autour du commerce en ligne du livre, chacun
essayant d’avoir le monopole, ce qui bien entendu est dangereux à la fois pour
les libraires et pour les clients qui risquent à la longue de ne plus avoir de
choix concurrentiel possible. Les associations professionnelles de libraires des
29 pays fédérées autour de la Ligue internationale de la librairie ancienne
(LILA) ont décidé de réagir et de se regrouper autour d’un gigantesque moteur de
recherche mondial sous l’égide de la LILA. Cette fédération représente un
potentiel de 2.000 libraires indépendants dans le monde, mais offrant des
garanties de sécurité et de respect de règles commerciales strictes. Ce nouveau
moteur de recherche de la LILA (ILAB en anglais) en pleine expansion est déjà
référencé par AddALL et BookFinder.com.»


4.3. Numilog, librairie numérique


Les librairies en ligne vendront-elles un jour le texte intégral des livres en
version électronique?, se demande-t-on en 1998. Dans ce cas, l’inévitable délai
dû à l’envoi postal disparaîtra, puisque les fichiers électroniques pourront
parvenir au lecteur en un temps infime via l’internet. Deux ans plus tard, c’est
chose faite avec le lancement des premières librairies numériques.

Les librairies en ligne Amazon.com et Barnes & Noble.com ouvrent toutes deux un
secteur numérique à quelques mois d’intervalle. Barnes & Noble.com ouvre son
secteur eBooks en août 2000, suite à un accord passé avec Microsoft en janvier
2000 pour la vente de livres lisibles sur son nouveau logiciel de lecture, le
Microsoft Reader. Amazon.com suit son concurrent de peu. Après avoir conclu une
alliance avec Microsoft en août 2000, Amazon ouvre son service eBooks en
novembre 2000, avec 1.000 titres disponibles au départ. En septembre 2001,
Yahoo! leur emboîte le pas en créant son eBook Store, suite à des accords passés
avec de grands éditeurs: Penguin Putnam, Simon & Schuster, Random House et
HarperCollins.

Mais les librairies numériques ne sont pas l’apanage des mastodontes du métier,
comme en témoigne l’activité de Numilog, une librairie numérique qui ouvre ses
portes en octobre 2000 pour devenir rapidement la grande librairie numérique
francophone du réseau.

En février 2001, Denis Zwirn, président de Numilog, relate: «Dès 1995, j’avais
imaginé et dessiné des modèles de lecteurs électroniques permettant d’emporter
sa bibliothèque avec soi et pesant comme un livre de poche. Début 1999, j’ai
repris ce projet avec un ami spécialiste de la création de sites internet, en
réalisant la formidable synergie possible entre des appareils de lecture
électronique mobiles et le développement d’internet, qui permet d’acheminer les
livres dématérialisés en quelques minutes dans tous les coins du monde. (...)
Nous avons créé une base de livres accessible par un moteur de recherche. Chaque
livre fait l’objet d’une fiche avec un résumé et un extrait. En quelques clics,
il peut être acheté en ligne par carte bancaire, puis reçu par e-mail ou
téléchargement.»

Le site offre ensuite «des fonctionnalités nouvelles, comme l’intégration d’une
"authentique vente au chapitre" (les chapitres vendus isolément sont traités
comme des éléments inclus dans la fiche-livre, et non comme d’autres livres) et
la gestion très ergonomique des formats de lecture multiples».

Fondée en avril 2000 par Denis Zwirn, la société Numilog a en fait une triple
activité: librairie en ligne, studio de fabrication et diffuseur. «Numilog est
d’abord une librairie en ligne de livres numériques, explique Denis Zwirn en
2001. Notre site internet est dédié à la vente en ligne de ces livres, qui sont
envoyés par courrier électronique ou téléchargés après paiement par carte
bancaire. Il permet aussi de vendre des livres par chapitres. Numilog est
également un studio de fabrication de livres numériques: aujourd’hui, les livres
numériques n’existent pas chez les éditeurs, il faut donc d’abord les fabriquer
avant de pouvoir les vendre, dans le cadre de contrats négociés avec les
éditeurs détenteurs des droits. Ce qui signifie les convertir à des formats
convenant aux différents "readers" du marché. (...) Enfin Numilog devient aussi
progressivement un diffuseur. Car, sur internet, il est important d’être présent
en de très nombreux points du réseau pour faire connaître son offre. Pour les
livres en particulier, il faut les proposer aux différents sites thématiques ou
de communautés, dont les centres d’intérêt correspondent à leur sujet (sites de
fans d’histoire, de management, de science-fiction...). Numilog facilitera ainsi
la mise en oeuvre de multiples "boutiques de livres numériques" thématiques.»

Répartis à l’origine en trois grandes catégories - savoir, guides pratiques et
littérature - les livres sont disponibles en plusieurs formats: format PDF
(portable document format) pour lecture sur l’Acrobat Reader et l’Adobe Reader,
format LIT (abrégé du terme anglais «literature») pour lecture sur le Microsoft
Reader et format PRC (Palm resource) pour lecture sur le Mobipocket Reader.

En septembre 2003, le catalogue comprend 3.500 titres (livres et périodiques) en
français et en anglais, grâce à un partenariat avec une quarantaine d’éditeurs,
le but à long terme étant de «permettre à un public d’internautes de plus en
plus large d’avoir progressivement accès à des bases de livres numériques aussi
importantes que celles des livres papier, mais avec plus de modularité, de
richesse d’utilisation et à moindre prix».

Au fil des ans, Numilog devient la principale librairie francophone de livres
numériques, suite à des accords avec de nombreux éditeurs: Gallimard, Albin
Michel, Eyrolles, Hermès Science, Pearson Education France, etc. Numilog propose
aussi des livres audionumériques lisibles sur synthèse vocale. Une librairie
anglophone est lancée suite à des accords de diffusion conclus avec plusieurs
éditeurs anglo-saxons: Springer-Kluwer, Oxford University Press, Taylor &
Francis, Kogan Page, etc. Les différents formats proposés permettent la lecture
des livres sur tout appareil électronique: ordinateur, assistant personnel,
téléphone portable, smartphone, etc.

La société est également prestataire de services pour les technologies DRM
(digital rights management), à savoir les systèmes de gestion des droits
numériques permettant de contrôler l’accès aux livres numériques sous droits, et
donc de gérer les droits d’un livre selon les consignes données par le
gestionnaire des droits, par exemple en autorisant ou non l’impression ou le
prêt.

En 2004, Numilog met sur pied un système de bibliothèque en ligne pour le prêt
de livres numériques. Ce système est surtout destiné aux bibliothèques, aux
administrations et aux entreprises. En janvier 2006, Numilog contribue au
lancement à titre expérimental de la Bibliothèque numérique pour le Handicap
(BnH), en partenariat avec la ville de Boulogne-Billancourt (région parisienne).
En décembre 2006, le catalogue de la librairie numérique de Numilog comprend
35.000 livres grâce à un partenariat avec 200 éditeurs, dont 60 éditeurs
francophones.

Une autre grande librairie numérique est celle de Mobipocket. Fondé à Paris par
Thierry Brethes et Nathalie Ting en mars 2000, Mobipocket se spécialise d’emblée
dans la lecture et la distribution sécurisée de livres pour assistant personnel
(PDA). Son logiciel de lecture, le Mobipocket Reader, est «universel»,
c’est-à-dire utilisable sur n’importe quel PDA, puis sur ordinateur en avril
2002. En 2003, le nombre de livres lisibles sur le Mobipocket Reader se chiffre
à 6.000 titres dans plusieurs langues (français, anglais, allemand, espagnol),
distribués soit dans la librairie de Mobipocket soit dans les librairies
partenaires. Mobipocket est racheté par la grande librairie en ligne Amazon en
avril 2005.


4.4. Chronologie


* Cette chronologie ne prétend pas à l’exhaustivité.

1994 (printemps): Etude de marché par Jeff Bezos, futur fondateur d’Amazon.com.

1995 (juillet): Amazon.com, librairie en ligne fondée par Jeff Bezos.

1995 (novembre): Livre-rare-book, catalogue de Pascal Chartier.

1996: Alapage, librairie en ligne fondée par Patrice Magnard.

1997: Chapitre.com, librairie en ligne fondée par Juan Pirlot de Corbion.

1997: Site web du Syndicat de la librairie ancienne et moderne (SLAM).

1997 (octobre): Politique de grosses remises inaugurée par l’Internet Bookshop.

1998: BOL.com, librairie en ligne européenne fondée par Bertelsmann.

1999 (juillet): BOL.fr, filiale de BOL.com.

2000 (mars): Mobipocket, société fondée par Thierry Brethes et Nathalie Ting.

2000 (mars): Numilog, société fondée par Denis Zwirn.

2000 (août): Amazon.fr, filiale d’Amazon.

2000 (août): Secteur eBooks de Barnes & Noble.com.

2000 (octobre): Numilog lance sa librairie numérique.

2000 (novembre): Secteur eBooks d’Amazon.

2001 (juillet): Fermeture de BOL.fr.

2001 (septembre): Secteur eBooks de Yahoo!

2005 (avril): Rachat de Mobipocket par Amazon.


5. LES AUTEURS TISSENT LEUR TOILE


[5.1. Des échanges accrus // 5.2. Best-sellers en numérique / The Plant, de
Stephen King / Deux expériences européennes / Des centaines de titres // 5.3.
Nouveaux genres littéraires / Sites d’écriture hypermédia / Hyper-romans /
Mail-romans / Littérature numérique // 5.4. Chronologie]

On oublie parfois que les auteurs ne sont pas seulement les écrivains faisant
partie de notre patrimoine, mais aussi les passionnés du verbe, souvent
inconnus, qui écrivent tout en gagnant leur vie par ailleurs. Publiés ou non,
nombre d’entre eux s’accordent à reconnaître les bienfaits du web et du
courriel, que ce soit pour la recherche d’information, la diffusion de leurs
oeuvres, les échanges avec les lecteurs ou la collaboration avec d’autres
créateurs. Des écrivains férus de nouvelles technologies explorent les
possibilités offertes par l’hyperlien ou se lancent dans le mail-roman. Appelée
aussi littérature électronique ou littérature informatique, la littérature
numérique devient un genre à part entière.


5.1. Des échanges accrus


Poète et plasticienne, Silvaine Arabo vit dans la région Poitou-Charentes. En
mai 1997, elle crée l’un des premiers sites francophones consacrés à la poésie,
Poésie d’hier et d’aujourd’hui, sur lequel elle propose de nombreux poèmes, y
compris les siens. En juin 1998, elle raconte: «Je suis poète, peintre et
professeur de lettres (13 recueils de poèmes publiés, ainsi que deux recueils
d’aphorismes et un essai sur le thème : poésie et transcendance; quant à la
peinture, j’ai exposé mes toiles à Paris - deux fois - et en province). (...)
Pour ce qui est d’internet, je suis autodidacte (je n’ai reçu aucune formation
informatique quelle qu’elle soit). J’ai eu l’idée de construire un site
littéraire centré sur la poésie : internet me semble un moyen privilégié pour
faire circuler des idées, pour communiquer ses passions aussi. Je me suis donc
mise au travail, très empiriquement, et ai finalement abouti à ce site sur
lequel j’essaye de mettre en valeur des poètes contemporains de talent, sans
oublier la nécessaire prise de recul (rubrique "Réflexions sur la poésie") sur
l’objet considéré. (...) Par ailleurs, internet m’a mis en contact avec d’autres
poètes, dont certains fort intéressants. Cela rompt le cercle de la solitude et
permet d’échanger des idées. On se lance des défis aussi. Internet peut donc
pousser à la créativité et relancer les motivations des poètes puisqu’ils savent
qu’ils seront lus et pourront même, dans le meilleur des cas, correspondre avec
leurs lecteurs et avoir les points de vue de ceux-ci sur leurs textes. Je ne
vois personnellement que des aspects positifs à la promotion de la poésie par
internet, tant pour le lecteur que pour le créateur.»

Très vite, Poésie d’hier et d’aujourd’hui prend la forme d’une cyber-revue.
Quatre ans plus tard, en mars 2001, Silvaine Arabo crée une deuxième revue,
Saraswati: revue de poésie, d’art et de réflexion, cette fois sur papier. Les
deux revues «se complètent et sont vraiment à placer en regard l’une de
l’autre».

Romancière et essayiste, Anne-Bénédicte Joly habite en région parisienne. En
avril 2000, elle décide d’auto-publier ses oeuvres en utilisant l’internet pour
les faire connaître. «Mon site a plusieurs objectifs, relate-t-elle en juin
2000. Présenter mes livres (essais, nouvelles et romans auto-édités) à travers
des fiches signalétiques (dont le format est identique à celui que l’on trouve
dans la base de données Electre) et des extraits choisis, présenter mon parcours
(de professeur de lettres et d’écrivain), permettre de commander mes ouvrages,
offrir la possibilité de laisser des impressions sur un livre d’or, guider le
lecteur à travers des liens vers des sites littéraires. (...) Créer un site
internet me permet d’élargir le cercle de mes lecteurs en incitant les
internautes à découvrir mes écrits. Internet est également un moyen pour élargir
la diffusion de mes ouvrages. Enfin, par une politique de liens, j’espère
susciter des contacts de plus en plus nombreux.»

Poète et romancier, Nicolas Ancion vit à Madrid. Lui aussi utilise l’internet
comme outil de diffusion. En avril 2001, il raconte: «Je publie des textes en
ligne, soit de manière exclusive (j’ai publié un polar uniquement en ligne et je
publie depuis février 2001 deux romans-feuilletons écrits spécialement pour ce
support), soit de manière complémentaire (mes textes de poésie sont publiés sur
papier et en ligne). Je dialogue avec les lecteurs et les enseignants à travers
mon site web.»

Michel Benoît habite Montréal. Auteur de nouvelles policières, de récits noirs
et d’histoires fantastiques, il utilise l’internet pour élargir ses horizons et
pour abolir le temps et la distance. Il écrit en juin 2000: «L’internet s’est
imposé à moi comme outil de recherche et de communication, essentiellement. Non,
pas essentiellement. Ouverture sur le monde aussi. Si l’on pense: recherche, on
pense: information. Voyez-vous, si l’on pense: écriture, réflexion, on pense:
connaissance, recherche. Donc on va sur la toile pour tout, pour une idée, une
image, une explication. Un discours prononcé il y a vingt ans, une peinture
exposée dans un musée à l’autre bout du monde. On peut donner une idée à
quelqu’un qu’on n’a jamais vu, et en recevoir de même. La toile, c’est le monde
au clic de la souris. On pourrait penser que c’est un beau cliché. Peut-être
bien, à moins de prendre conscience de toutes les implications de la chose.
L’instantanéité, l’information tout de suite, maintenant. Plus besoin de
fouiller, de se taper des heures de recherche. On est en train de faire, de
produire. On a besoin d’une information. On va la chercher, immédiatement. De
plus, on a accès aux plus grandes bibliothèques, aux plus importants journaux,
aux musées les plus prestigieux. (...)

Mon avenir professionnel en inter-relation avec le net, je le vois exploser.
Plus rapide, plus complet, plus productif. Je me vois faire en une semaine ce
qui m’aurait pris des mois. Plus beau, plus esthétique. Je me vois réussir des
travaux plus raffinés, d’une facture plus professionnelle, même et surtout dans
des domaines connexes à mon travail, comme la typographie, où je n’ai aucune
compétence. La présentation, le transport de textes, par exemple. Le travail
simultané de plusieurs personnes qui seront sur des continents différents.
Arriver à un consensus en quelques heures sur un projet, alors qu’avant le net,
il aurait fallu plusieurs semaines, parlons de mois entre les Francophones. Plus
le net ira se complexifiant, plus l’utilisation du net deviendra profitable,
nécessaire, essentielle.»

Murray Suid vit à Palo Alto, dans la Silicon Valley, en Californie. Il est
l’auteur de livres pédagogiques, de livres pour enfants, d’oeuvres multimédias
et de scénarios. Dès septembre 1998, il préconise une solution choisie depuis
par de nombreux auteurs: «Un livre peut avoir un prolongement sur le web – et
donc vivre en partie dans le cyberespace. L’auteur peut ainsi aisément
l’actualiser et le corriger, alors qu’auparavant il devait attendre longtemps,
jusqu’à l’édition suivante, quand il y en avait une. (...) Je ne sais pas si je
publierai des livres sur le web, au lieu de les publier en version imprimée.
J’utiliserai peut-être ce nouveau support si les livres deviennent multimédias.
Pour le moment, je participe au développement de matériel pédagogique
multimédia. C’est un nouveau type de matériel qui me plaît beaucoup et qui
permet l’interactivité entre des textes, des films, des bandes sonores et des
graphiques qui sont tous reliés les uns aux autres.»

Un an après, en août 1999, il ajoute: «En plus des livres complétés par un site
web, je suis en train d’adopter la même formule pour mes oeuvres multimédias –
qui sont sur CD-Rom – afin de les actualiser et d’enrichir leur contenu.»
Quelques mois plus tard, l’intégralité de ses oeuvres multimédias est sur le
réseau. Le matériel pédagogique auquel il contribue est conçu non plus pour
diffusion sur CD-Rom, mais pour diffusion sur le web. D’entreprise multimédia,
la société de logiciels éducatifs qui l’emploie devient une entreprise internet.

On assiste aussi à l’apparition du roman «interactif» qui, à l’époque, désigne
une oeuvre de fiction à laquelle participent les internautes. Le pionnier est
«le grand écrivain américain John Updike, qui, l’an dernier, balança sur le web
le premier chapitre d’un roman que les internautes étaient censés poursuivre»,
raconte Emmanuèle Peyret, journaliste, dans le quotidien Libération du 27
février 1998. Cette première expérience de littérature interactive est réalisée
à l’initiative de la librairie en ligne Amazon.

En France, lors de la fête de l’internet des 20 et 21 mars 1998, ATOS et France
Loisirs lancent à leur tour le premier roman «interactif» francophone. Signé par
le romancier Yann Queffélec, le premier chapitre est disponible sur le site de
France Loisirs le 20 mars 1998. Les internautes disposent de deux semaines pour
proposer un deuxième chapitre. Le jury du club sélectionne le meilleur chapitre,
qui devient la suite officielle du roman, et ainsi de suite jusqu’au 27 juillet.
Yann Queffélec prend à nouveau la plume pour rédiger le huitième et dernier
chapitre. France Loisirs publie le roman en septembre 1998.

Pour les auteurs de documentaires également, l’apport de l’internet est réel,
comme en témoigne l’expérience d’Esther Dyson, présidente d’EDventure Holdings,
société spécialisée dans l’étude des technologies de l’information. Depuis 1982,
elle publie Release 1.0, lettre d’information mensuelle très prisée des
spécialistes et surnommée la lettre intellectuelle du monde informatique. En
1997, elle publie aussi un livre Release 2.0: A Design for Living in the Digital
Age. Parallèlement à la publication simultanée de son livre par plusieurs
éditeurs dans divers pays, Esther Dyson ouvre le site Release 2.0 afin de
dialoguer avec ses lecteurs et tirer parti de tous ces échanges pour préparer
une nouvelle édition de son livre. Dans ce cas précis, le site web se trouve
être une étape intermédiaire entre deux publications imprimées.


5.2. Best-sellers en numérique


En 2000, lorsque le livre numérique commence à se généraliser mais que la partie
est loin d’être gagnée, trois auteurs de best-sellers se lancent dans l’aventure
malgré les risques commerciaux encourus. Aux Etats-Unis, Stephen King tente de
publier un roman épistolaire indépendamment de son éditeur. Au Royaume-Uni,
Frederick Forsyth publie un recueil de nouvelles chez l’éditeur électronique
Online Originals. En Espagne, en partenariat avec son éditeur habituel, Arturo
Pérez-Reverte diffuse son nouveau roman sous forme numérique en exclusivité
pendant un mois, avant la sortie de la version imprimée.

= The Plant, de Stephen King

En mars 2000, le maître du suspense Stephen King commence d’abord par distribuer
uniquement sur l’internet sa nouvelle Riding the Bullet, assez volumineuse
puisqu’elle fait 66 pages. Il est le premier auteur à succès à tenter un pari
considéré par beaucoup comme perdu d’avance. Mais, du fait de la notoriété de
l’auteur et de la couverture médiatique de ce scoop, la «sortie» de cette
nouvelle sur le web est un succès immédiat, avec 400.000 exemplaires téléchargés
lors des premières ving-quatre heures dans les librairies en ligne qui la
vendent (au prix de 2,5 dollars US).

En juillet 2000, fort de cette expérience prometteuse, Stephen King décide de se
passer des services de Simon & Schuster, son éditeur habituel. Il crée un site
web spécifique pour débuter l’auto-publication en épisodes de The Plant, un
roman épistolaire inédit qui raconte l’histoire d’une plante carnivore
s’emparant d’une maison d’édition en lui promettant le succès commercial en
échange de sacrifices humains. Le premier chapitre est téléchargeable en
plusieurs formats - PDF, OeB, HTML, TXT - pour la somme de un dollar, avec
paiement différé ou paiement immédiat sur le site d’Amazon.

Dans une lettre aux lecteurs disponible sur son site à la même date, l’auteur
raconte que la création du site, le design et la publicité lui ont coûté la
somme de 124.150 dollars, sans compter sa prestation en tant qu’écrivain ni la
rémunération de son assistante. Il précise aussi que la publication des
chapitres suivants est liée au paiement du premier chapitre par au moins 75% des
internautes. « Mes amis, vous avez l’occasion de devenir le pire cauchemar des
éditeurs, déclare-t-il. Comme vous le voyez, c’est simple. Pas de cryptage
assommant! Vous voulez imprimer l’histoire et en faire profiter un(e) ami(e)?
Allez-y. Une seule condition: tout repose sur la confiance, tout simplement.
C’est la seule solution. Je compte sur deux facteurs. Le premier est
l’honnêteté. Prenez ce que bon vous semble et payez pour cela, dit le proverbe.
Le second est que vous aimerez suffisamment l’histoire pour vouloir en lire
davantage. Si vous le souhaitez vraiment, vous devez payer. Rappelez-vous:
payez, et l’histoire continue; volez, et l’histoire s’arrête.»

Une semaine après la mise en ligne du premier chapitre, on compte 152.132
téléchargements, avec paiement par 76% des lecteurs. Certains paient davantage
que le dollar demandé, allant parfois jusqu’à 10 ou 20 dollars pour compenser le
manque à gagner de ceux qui ne paieraient pas, et éviter ainsi que la série ne
s’arrête. La barre des 75% est dépassée de peu, au grand soulagement des fans,
si bien que le deuxième chapitre suit un mois après. En août 2000, dans une
nouvelle lettre aux lecteurs, Stephen King annonce un nombre de téléchargements
légèrement inférieur à celui du premier chapitre. Il en attribue la cause à une
publicité moindre et à des problèmes de téléchargement. Si le nombre de
téléchargements n’a que légèrement décru, le nombre de paiements est en nette
diminution, les internautes ne réglant leur dû qu’une seule fois pour plusieurs
téléchargements. L’auteur s’engage toutefois à publier le troisième chapitre
comme prévu, fin septembre, et à prendre une décision ensuite sur la poursuite
ou non de l’expérience, en fonction du nombre de paiements. Ses prévisions sont
de onze ou douze chapitres en tout, avec un nombre total de 1,7 million de
téléchargements. Le ou les derniers chapitres seraient gratuits.

Plus volumineux (environ 10.000 signes au lieu de 5.000), les chapitres 4 et 5
passent à 2 dollars. Mais le nombre de téléchargements et de paiements ne cesse
de décliner: 40.000 téléchargements seulement pour le cinquième chapitre, alors
que le premier chapitre avait été téléchargé 120.000 fois, et paiement pour 46%
des téléchargements seulement.

Fin novembre, Stephen King annonce l’interruption de la publication pendant une
période indéterminée, après la parution du sixième chapitre, téléchargeable
gratuitement à la mi-décembre. «The Plant va retourner en hibernation afin que
je puisse continuer à travailler, précise-t-il sur son site. Mes agents
insistent sur la nécessité d’observer une pause afin que la traduction et la
publication à l’étranger puissent rattraper la publication en anglais.» Mais
cette décision semble d’abord liée à l’échec commercial de l’expérience.

Cet arrêt suscite de vives critiques. On oublie de reconnaître à l’auteur au
moins un mérite, celui d’avoir été le premier à se lancer dans l’aventure, avec
les risques qu’elle comporte. Entre juillet et décembre 2000, pendant les six
mois qu’elle aura duré, nombreux sont ceux qui suivent les tribulations de The
Plant, à commencer par les éditeurs, quelque peu inquiets face à un médium qui
pourrait un jour concurrencer le circuit traditionnel. Quand Stephen King décide
d’arrêter l’expérience, plusieurs journalistes et critiques littéraires
affirment qu’il se ridiculise aux yeux du monde entier. N’est-ce pas un peu
exagéré? L’auteur avait d’emblée annoncé la couleur puisqu’il avait lié la
poursuite de la publication à un pourcentage de paiements satisfaisant.

Qu’est-il advenu ensuite des expériences numériques de Stephen King? L’auteur
reste très présent dans ce domaine, mais cette fois par le biais de son éditeur.
En mars 2001, son roman Dreamcatcher est le premier roman à être lancé
simultanément en version imprimée par Simon & Schuster et en version numérique
par Palm Digital Media, pour lecture sur les assistants personnels Palm Pilot et
Pocket PC. En mars 2002, son recueil de nouvelles Everything’s Eventual est lui
aussi publié simultanément en deux versions: en version imprimée par Scribner,
subdivision de Simon & Schuster, et en version numérique par Palm Digital Media,
qui en propose un extrait en téléchargement libre.

= Deux expériences européennes

En novembre 2000, deux Européens, l’anglais Frederick Forsyth et l’espagnol
Arturo Pérez-Reverte, décident eux aussi de tenter l’aventure numérique. Mais,
forts de l’expérience d’auto-publication de Stephen King peut-être, ni l’un ni
l’autre n’ont l’intention de se passer d’éditeur.

Frederick Forsyth, le maître britannique du thriller, aborde la publication
numérique avec l’appui de l’éditeur électronique londonien Online Originals. En
novembre 2000, Online Originals publie The Veteran, histoire d’un crime violent
commis à Londres et premier volet de Quintet, une série de cinq nouvelles
électroniques (annoncées dans l’ordre suivant: The Veteran, The Miracle, The
Citizen, The Art of the Matter, Draco). Disponible en trois formats (PDF,
Microsoft Reader et Glassbook Reader), la nouvelle est vendue au prix de 3,99
pounds (6,60 euros) sur le site de l’éditeur et dans plusieurs librairies en
ligne au Royaume-Uni (Alphabetstreet, BOL.com, WHSmith)  et aux Etats-Unis
(Barnes & Noble, Contentville, Glassbook).

«La publication en ligne sera essentielle à l’avenir, déclare Frederick Forsyth
sur le site d’Online Originals. Elle crée un lien simple et surtout rapide et
direct entre le producteur original (l’auteur) et le consommateur final (le
lecteur), avec très peu d’intermédiaires. Il est passionnant de participer à
cette expérience. Je ne suis absolument pas un spécialiste des nouvelles
technologies. Je n’ai jamais vu de livre numérique. Mais je n’ai jamais vu non
plus de moteur de Formule 1, ce qui ne m’empêche pas de constater combien ces
voitures de course sont rapides.»

La première expérience numérique d’Arturo Pérez-Reverte est un peu différente.
La série best-seller du romancier espagnol relate les aventures du Capitan
Alatriste au 17e siècle. Le nouveau titre à paraître en 2000 s’intitule El Oro
del Rey. En novembre 2000, en collaboration avec son éditeur Alfaguara, l’auteur
décide de diffuser El Oro del Rey en version numérique sur un site spécifique du
portail Inicia, en exclusivité pendant un mois, avant sa sortie en librairie. Le
roman est disponible au format PDF pour 2,90 euros, un prix très inférieur aux
15,10 euros annoncés pour le livre imprimé.

Résultat de l’expérience, le nombre de téléchargements est très satisfaisant,
mais pas celui des paiements. Un mois après la mise en ligne du roman, on compte
332.000 téléchargements, avec paiement par 12.000 lecteurs seulement. A la même
date, Marilo Ruiz de Elvira, directrice de contenus du portail Inicia, explique
dans un communiqué: «Pour tout acheteur du livre numérique, il y avait une clé
pour le télécharger en 48 heures sur le site internet et, surtout au début,
beaucoup d’internautes se sont échangés ce code d’accès dans les forums de
dialogue en direct (chats) et ont téléchargé leur exemplaire sans payer. On a
voulu tester et cela faisait partie du jeu. Arturo Pérez-Reverte voulait surtout
qu’on le lise.» En 2006, les cinq premiers tomes de cette saga littéraire
devenue un succès planétaire ont été vendus à 4 millions d’exemplaires. Ils sont
également condensés dans le film Alatriste, une superproduction espagnole de 20
millions d’euros.

= Des centaines de titres

Trois ans après ces premières tentatives, si les expériences purement numériques
sont provisoirement abandonnées, les livres numériques ont une place
significative à côté de leurs correspondants imprimés. En 2003, des centaines de
best-sellers sont vendus en version numérique sur Amazon.com, Barnes &
Noble.com, Yahoo! eBook Store ou sur des sites d’éditeurs (Random House,
PerfectBound, etc.), pour lecture sur ordinateur ou sur assistant personnel.
Mobipocket distribue 6.000 titres numériques dans plusieurs langues, soit sur
son site soit dans des librairies partenaires. Le catalogue de Palm Digital
Media approche les 10.000 titres, lisibles sur les gammes Palm et Pocket PC,
avec 15 à 20 nouveaux titres par jour et 1.000 nouveaux clients par semaine.

Romancier brésilien, Paulo Coelho est devenu mondialement célèbre depuis la
parution de L’Alchimiste. Début 2003, ses livres, traduits en 56 langues, ont
été vendus en 53 millions d’exemplaires dans 155 pays, dont 6,5 millions
d’exemplaires dans les pays francophones. En mars 2003, Paulo Coelho décide de
distribuer plusieurs de ses romans gratuitement en version PDF, en diverses
langues, avec l’accord de ses éditeurs respectifs, dont Anne Carrière, son
éditrice en France. Trois romans sont disponibles en français: Manuel du
guerrier de la lumière, La cinquième montagne et Veronika décide de mourir.
Pourquoi une telle décision? «Comme le français est présent, à plus ou moins
grande échelle, dans le monde entier, je recevais sans cesse des courriers
électroniques d’universités et de personnes habitant loin de la France, qui ne
trouvaient pas mes oeuvres», déclare le romancier par le biais de son éditrice.
A la question classique relative au préjudice éventuel sur les ventes futures,
il répond : «Seule une minorité de gens a accès à l’internet, et le livre au
format ebook ne remplacera jamais le livre papier.» Une remarque très juste en
2003, mais qui ne sera peut-être plus de mise dans quelques années.


5.3. Nouveaux genres littéraires


Principe de base du web, le lien hypertexte permet de relier entre eux des
documents textuels et des images. Quant au lien hypermédia, il permet l’accès à
des graphiques, des images animées, des bandes sonores et des vidéos. Des
écrivains férus de nouvelles technologies ne tardent pas à en explorer les
possibilités, dans des sites d’écriture hypermédia ou des oeuvres
d’hyperfiction. D’autres utilisent les outils que sont le courriel et la liste
de diffusion pour se lancer dans le mail-roman.

= Sites d’écriture hypermédia

Webmestre du site hypermédia cotres.net, Jean-Paul relate en juin 2000: «La
navigation par hyperliens se fait en rayon (j’ai un centre d’intérêt et je
clique méthodiquement sur tous les liens qui s’y rapportent) ou en louvoiements
(de clic en clic, à mesure qu’ils apparaissent, au risque de perdre de vue mon
sujet). Bien sûr, les deux sont possibles avec l’imprimé. Mais la différence
saute aux yeux : feuilleter n’est pas cliquer. L’internet n’a donc pas changé ma
vie, mais mon rapport à l’écriture. On n’écrit pas de la même manière pour un
site que pour un scénario, une pièce de théâtre, etc. (...) Depuis, j’écris
(compose, mets en page, en scène) directement à l’écran. L’état "imprimé" de mon
travail n’est pas le stade final, le but; mais une forme parmi d’autres, qui
privilégie la linéarité et l’image, et qui exclut le son et les images animées.
(...)

C’est finalement dans la publication en ligne (l’entoilage?) que j’ai trouvé la
mobilité, la fluidité que je cherchais. Le maître mot y est "chantier en cours",
sans palissades. Accouchement permanent, à vue, comme le monde sous nos yeux.
Provisoire, comme la vie qui tâtonne, se cherche, se déprend, se reprend. Avec
évidemment le risque souligné par les gutenbergs, les orphelins de la
civilisation du livre: plus rien n’est sûr. Il n’y a plus de source fiable,
elles sont trop nombreuses, et il devient difficile de distinguer un clerc d’un
gourou. Mais c’est un problème qui concerne le contrôle de l’information. Pas la
transmission des émotions.»

Mis en ligne en juin 1997, oVosite est un espace d’écriture conçu par un
collectif de six auteurs issus du département hypermédias de l’Université Paris
8: Chantal Beaslay, Laure Carlon, Luc Dall’Armellina (qui est aussi webmestre),
Philippe Meuriot, Anika Mignotte et Claude Rouah. « oVosite est un site web
conçu et réalisé (...) autour d’un symbole primordial et spirituel, celui de
l’oeuf, explique Luc Dall’Armellina en juin 2000. Le site s’est constitué selon
un principe de cellules autonomes qui visent à exposer et intégrer des sources
hétérogènes (littérature, photo, peinture, vidéo, synthèse) au sein d’une
interface unifiante.»

Les possibilités offertes par l’hypertexte ont-elles changé son mode d’écriture?
Sa réponse est à la fois négative et positive.

Négative d’abord : «Non - parce qu’écrire est de toute façon une affaire très
intime, un mode de relation qu’on entretient avec son monde, ses proches et son
lointain, ses mythes et fantasmes, son quotidien et enfin, appendus à l’espace
du langage, celui de sa langue d’origine. Pour toutes ces raisons, je ne pense
pas que l’hypertexte change fondamentalement sa manière d’écrire, qu’on procède
par touches, par impressions, associations, quel que soit le support
d’inscription, je crois que l’essentiel se passe un peu à notre insu.»

Positive ensuite : «Oui - parce que l’hypertexte permet sans doute de commencer
l’acte d’écriture plus tôt : devançant l’activité de lecture (associations,
bifurcations, sauts de paragraphes) jusque dans l’acte d’écrire. L’écriture
(ceci est significatif avec des logiciels comme StorySpace) devient peut-être
plus modulaire. On ne vise plus tant la longue horizontalité du récit, mais la
mise en espace de ses fragments, autonomes. Et le travail devient celui d’un
tissage des unités entre elles. L’autre aspect lié à la modularité est la
possibilité d’écritures croisées, à plusieurs auteurs. Peut-être s’agit-il
d’ailleurs d’une méta-écriture, qui met en relation les unités de sens
(paragraphes ou phrases) entre elles.»

= Hyper-romans

Lucie de Boutiny est l’auteur de Non, roman multimédia débuté en août 1997 et
publié en feuilleton par la revue en ligne d’art contemporain Synesthésie. «NON
est un roman comique qui fait la satire de la vie quotidienne d’un couple de
jeunes cadres supposés dynamiques, raconte-t-elle en juin 2000. Bien
qu’appartenant à l’élite high-tech d’une industrie florissante, Monsieur et
Madame sont les jouets de la dite révolution numérique. (...) Non prolonge les
expériences du roman post-moderne (récits tout en digression, polysémie avec
jeux sur les registres - naturaliste, mélo, comique... - et les niveaux de
langues, etc.). Cette hyperstylisation permet à la narration des développements
inattendus et offre au lecteur l’attrait d’une navigation dans des récits
multiples et multimédias, car l’écrit à l’écran s’apparente à un jeu et non
seulement se lit mais aussi se regarde.»

Les romans précédents de Lucie de Boutiny sont publiés sous forme imprimée. Un
roman numérique requiert-il une démarche différente? «D’une manière générale,
mon humble expérience d’apprentie auteur m’a révélé qu’il n’y a pas de
différence entre écrire de la fiction pour le papier ou le pixel : cela demande
une concentration maximale, un isolement à la limite désespéré, une patience
obsessionnelle dans le travail millimétrique avec la phrase, et bien entendu, en
plus de la volonté de faire, il faut avoir quelque chose à dire! Mais avec le
multimédia, le texte est ensuite mis en scène comme s’il n’était qu’un scénario.
Et si, à la base, il n’y a pas un vrai travail sur le langage des mots, tout le
graphisme et les astuces interactives qu’on peut y mettre fera gadget. Par
ailleurs, le support modifie l’appréhension du texte, et même, il faut le
souligner, change l’oeuvre originale.»

Autre roman numérique, Apparitions inquiétantes (devenu ensuite La malédiction
du parasol) est né sous la plume d’Anne-Cécile Brandenbourger. Il s’agit d’«une
longue histoire à lire dans tous les sens, un labyrinthe de crimes, de mauvaises
pensées et de plaisirs ambigus». Pendant deux ans, cette histoire se construit
sous forme de feuilleton sur le site d’Anacoluthe, en collaboration avec Olivier
Lefèvre. En février 2000, l’histoire est publiée en version numérique (au format
PDF) et en version imprimée aux éditions 00h00, en tant que premier titre de la
Collection 2003, consacrée aux écritures numériques.

00h00 présente l'ouvrage comme «un cyber-polar fait de récits hypertextuels
imbriqués en gigogne. Entre personnages de feuilleton américain et intrigue
policière, le lecteur est – hypertextuellement - mené par le bout du nez dans
cette saga aux allures borgésiennes. (...) C’est une histoire de meurtre et une
enquête policière; des textes écrits court et montés serrés ; une balade dans
l’imaginaire des séries télé; une destructuration (organisée) du récit dans une
transposition littéraire du zapping; et par conséquent, des sensations de
lecture radicalement neuves.» Suite au succès du livre, les éditions Florent
Massot publient en août 2000 une deuxième version imprimée (la première étant
celle de 00h00, imprimée uniquement à la demande), avec une couverture en 3D, un
nouveau titre - La malédiction du parasol - et une maquette d’Olivier Lefèvre
restituant le rythme de la version originale.

Anne-Cécile Brandenbourger écrit en juin 2000: «Les possibilités offertes par
l’hypertexte m’ont permis de développer et de donner libre cours à des tendances
que j’avais déjà auparavant. J’ai toujours adoré écrire et lire des textes
éclatés et inclassables (comme par exemple La vie mode d’emploi de Perec ou Si
par une nuit d’hiver un voyageur de Calvino) et l’hypermédia m’a donné
l’occasion de me plonger dans ces formes narratives en toute liberté. Car, pour
créer des histoires non linéaires et des réseaux de textes qui s’imbriquent les
uns dans les autres, l’hypertexte est évidemment plus approprié que le papier.
Je crois qu’au fil des jours, mon travail hypertextuel a rendu mon écriture de
plus en plus intuitive. Plus "intérieure" aussi peut-être, plus proche des
associations d’idées et des mouvements désordonnés qui caractérisent la pensée
lorsqu’elle se laisse aller à la rêverie. Cela s’explique par la nature de la
navigation hypertextuelle, le fait que presque chaque mot qu’on écrit peut être
un lien, une porte qui s’ouvre sur une histoire.»

= Mail-romans

Le mail-roman utilise le canal du courriel. Une première expérience est relatée
dans le quotidien Libération du 27 février 1998. Le romancier américain Barry
Beckham lance une formule originale pour diffuser son nouveau roman You Have a
Friend: The Rise and Fall and Rise of the Chase Manhattan Bank. Ce roman a pour
décor la grande banque Chase Manhattan, et ceci sur deux siècles, entre 1793 et
1995. Le sujet est inspiré de la vie professionnelle de l’auteur, qui est
rédacteur dans le service des relations publiques de cette banque. Moyennant un
abonnement de 9,95 dollars, le lecteur reçoit un épisode par courriel tous les
quinze jours pendant six mois. Barry Beckham inaugure ainsi la formule du
roman-feuilleton sur le web, dans la lignée de Dostoïevski, Dumas et Dickens en
d’autres temps. Sur son site (disparu depuis), Barry Beckham dit s’être inspiré
de la démarche des feuilletonnistes du 19e siècle «pour atteindre des lecteurs à
une époque où l’édition littéraire est dominée par des conglomérats obsédés par
des titres ayant un fort potentiel commercial mais peu de substance
intellectuelle».

Le premier mail-roman francophone est lancé en 2001 par Jean-Pierre Balpe,
directeur du département hypermédias de l’Université Paris 8, chercheur et
écrivain. Pendant très exactement cent jours, entre le 11 avril et le 19 juillet
2001, il diffuse quotidiennement un chapitre de Rien n’est sans dire auprès de
cinq cents personnes - sa famille, ses amis, ses collègues, etc. - en y
intégrant les réponses et les réactions des lecteurs. Racontée par un narrateur,
l’histoire est celle de Stanislas et Zita, qui vivent une passion tragique
déchirée par une sombre histoire politique. « Cette idée d’un mail-roman m’est
venue tout naturellement, raconte l’auteur en février 2002. D’une part en me
demandant depuis quelque temps déjà ce qu’internet peut apporter sur le plan de
la forme à la littérature (...) et d’autre part en lisant de la littérature
"épistolaire" du 18e siècle, ces fameux "romans par lettres". Il suffit alors de
transposer: que peut être le "roman par lettres" aujourd’hui?»

Jean-Pierre Balpe tire plusieurs conclusions de cette expérience: «D’abord c’est
un "genre": depuis, plusieurs personnes m’ont dit lancer aussi un mail-roman.
Ensuite j’ai aperçu quantité de possibilités que je n’ai pas exploitées et que
je me réserve pour un éventuel travail ultérieur. La contrainte du temps est
ainsi très intéressante à exploiter: le temps de l’écriture bien sûr, mais aussi
celui de la lecture : ce n’est pas rien de mettre quelqu’un devant la nécessité
de lire, chaque jour, une page de roman. Ce "pacte" a quelque chose de
diabolique. Et enfin le renforcement de ma conviction que les technologies
numériques sont une chance extraordinaire du renouvellement du littéraire.»

= Littérature numérique

Comme on vient de le voir, les technologies numériques donnent naissance à
plusieurs genres: site d’écriture hypermédia, roman multimédia, hyper-roman,
nouvelle hypertexte, feuilleton hypermédia, mail-roman, etc. Une véritable
littérature numérique - appelée aussi littérature informatique, littérature
électronique ou cyber-littérature - bouscule désormais la littérature
traditionnelle en lui apportant un souffle nouveau, et s’intègre aussi à
d’autres formes artistiques puisque le support numérique favorise la fusion de
l’écrit avec l’image et le son.

Selon Jean-Paul, webmestre du site hypermédia cotres.net, interviewé en août
1999, l’avenir de la cyber-littérature est tracé par sa technologie même. «Il
est maintenant impossible à un(e) auteur(e) seul(e) de manier à la fois les
mots, leur apparence mouvante et leur sonorité. Maîtriser aussi bien Director,
Photoshop et Cubase, pour ne citer que les plus connus, c’était possible il y a
dix ans, avec les versions 1. Ça ne l’est plus. Dès demain (matin), il faudra
savoir déléguer les compétences, trouver des partenaires financiers aux reins
autrement plus solides que Gallimard, voir du côté d’Hachette-Matra, Warner,
Pentagone, Hollywood. Au mieux, le statut de... l’écrivaste? du multimédiaste?
sera celui du vidéaste, du metteur en scène, du directeur de produit: c’est lui
qui écope des palmes d’or à Cannes, mais il n’aurait jamais pu les décrocher
seul. Soeur jumelle (et non pas clone) du cinématographe, la cyber-littérature
(= la vidéo + le lien) sera une industrie, avec quelques artisans isolés dans la
périphérie off-off (aux droits d’auteur négatifs, donc).»

Lucie de Boutiny, romancière multimédia, raconte pour sa part en juin 2000: «Mes
"conseillers littéraires", des amis qui n’ont pas ressenti le vent de liberté
qui souffle sur le web, aimeraient que j’y reste, engluée dans la pâte à papier.
Appliquant le principe de demi-désobéissance, je fais des allers-retours
papier-pixel. L’avenir nous dira si j’ai perdu mon temps ou si un nouveau genre
littéraire hypermédia va naître. (...) Si les écrivains français classiques en
sont encore à se demander s’ils ne préfèrent pas le petit carnet Clairefontaine,
le Bic ou le Mont-Blanc fétiche, et un usage modéré du traitement de texte,
plutôt que l’ordinateur connecté, voire l’installation, c’est que l’HTX
(hypertext literature) nécessite un travail d’accouchement visuel qui n’est pas
la vocation originaire de l’écrivain papier. En plus des préoccupations du
langage (syntaxe, registre, ton, style, histoire...), le techno-écrivain -
collons-lui ce label pour le différencier - doit aussi maîtriser la syntaxe
informatique et participer à l’invention de codes graphiques car lire sur un
écran est aussi regarder.»

Luc Dall’Armellina, co-auteur et webmestre de l'espace d’écritures hypermédias
oVosite, écrit à la même date: «La couverture du réseau autour de la surface du
globe resserre les liens entre les individus distants et inconnus. Ce qui n’est
pas simple puisque nous sommes placés devant des situations nouvelles : ni
vraiment spectateurs, ni vraiment auteurs, ni vraiment lecteurs, ni vraiment
interacteurs. Ces situations créent des nouvelles postures de rencontre, des
postures de "spectacture" ou de "lectacture" (Jean-Louis Weissberg). Les notions
de lieu, d’espace, de temps, d’actualité sont requestionnées à travers ce médium
qui n’offre plus guère de distance à l’événement mais se situe comme aucun autre
dans le présent en train de se faire. L’écart peut être mince entre l’envoi et
la réponse, parfois immédiat (cas de la génération de textes).

Mais ce qui frappe et se trouve repérable ne doit pas masquer les aspects encore
mal définis tels que les changements radicaux qui s’opèrent sur le plan
symbolique, représentationnel, imaginaire et plus simplement sur notre mode de
relation aux autres. "Plus de proximité" ne crée pas plus d’engagement dans la
relation, de même "plus de liens" ne créent pas plus de liaisons, ou encore
"plus de tuyaux" ne créent pas plus de partage. Je rêve d’un internet où nous
pourrions écrire à plusieurs sur le même dispositif, une sorte de lieu d’atelier
d’écritures permanent et qui autoriserait l’écriture personnelle (c’est en voie
d’exister), son partage avec d’autres auteurs, leur mise en relation dans un
tissage d’hypertextes et un espace commun de notes et de commentaires sur le
travail qui se crée.»

En janvier 2007, Jean-Paul fait à nouveau le point sur son activité
d’«entoileur» du site hypermédia cotres.net: «J’ai gagné du temps. J’utilise
moins de logiciels, dont j’intègre le résultat dans Flash. Ce dernier m’assure
de contrôler à 90% le résultat à l’affichage sur les écrans de réception (au
contraire de ceux qui préfèrent présenter des oeuvres ouvertes, où
l’intervention tantôt du hasard tantôt de l’internaute est recherchée). Je peux
maintenant me concentrer sur le cœur de la chose: l’architecture et le
développement du récit. (...) Les deux points forts des trois ou quatre ans à
venir sont: (1) la généralisation du très haut débit (c’est-à-dire en fait du
débit normal), qui va m’affranchir des limitations purement techniques,
notamment des soucis de poids et d’affichage des fichiers (mort définitive,
enfin, des histogrammes de chargement); (2) le développement de la 3 D. C’est le
récit en hypermédia (= le multimédia + le clic) qui m’intéresse. Les pièges que
pose un récit en 2 D sont déja passionnants. Avec la 3 D, il va falloir
chevaucher le tigre pour éviter la simple prouesse technique et laisser la
priorité au récit.»


5.4. Chronologie


* Cette chronologie ne prétend pas à l’exhaustivité.

1997 (mai): Poésie d’hier et d’aujourd’hui, site de Silvaine Arabo.

1997 (juin): oVosite, espace d’écriture créé par un collectif.

1997 (août): Non_roman, roman multimédia de Lucie de Boutiny.

1998 (février): You Have a Friend, mail-roman de Barry Beckham.

1998 (mars): Premier roman «interactif» francophone.

1998 (octobre): Cotres.net, site hypermédia collectif.

2000 (février): Apparitions inquiétantes, roman d’Anne-Cécile Brandenbourger,
aux éditions 00h00.

2000 (mars): Riding the Bullet, nouvelle de Stephen King, distribuée sur le web.

2000 (avril): Site d’Anne-Bénédicte Joly, écrivain auto-éditeur.

2000 (juillet): Autopublication de The Plant, roman de Stephen King.

2000 (novembre): Arrêt de l’autopublication de The Plant, roman de Stephen King.

2000 (novembre): The Veteran, de Frederick Forsyth, en version numérique.

2000 (novembre): El Oro del Rey, d’Arturo Pérez-Reverte, en version numérique.

2001 (été): Rien n’est sans dire, mail-roman de Jean-Pierre Balpe.

2003 (mars): Plusieurs titres de Paulo Coelho mis en ligne gratuitement.


6. LES EDITEURS SUR LE RESEAU


[6.1. Editeurs en ligne littéraires / Premiers pas / CyLibris / 00h00 / Luc Pire
électronique / Choucas / Plateformes d’édition / Auto-édition // 6.2. Editeurs
en ligne scientifiques / Net des études françaises / Public Library of Science /
Cours du MIT / Livres gratuits sur le web / Gratuit versus payant // 6.3.
Chronologie]

Au début des années 2000, l’édition électronique creuse son sillon à côté de
l’édition traditionnelle, du fait des avantages qu’elle procure: stockage plus
simple, accès plus rapide, diffusion plus facile, coût moins élevé, etc. Elle
amène aussi un souffle nouveau dans le monde de l’édition, et même une certaine
zizanie. On voit des éditeurs vendre directement leurs titres en ligne, des
éditeurs électroniques commercialiser les versions numérisées de livres publiés
par des éditeurs traditionnels, des librairies numériques vendre les versions
numérisées de livres publiés par des éditeurs partenaires, des auteurs
s’auto-éditer ou promouvoir eux-mêmes leurs oeuvres publiées, des sites
littéraires se charger de faire connaître de nouveaux auteurs pour pallier les
carences de l’édition traditionnelle, etc. Le numérique pourra-il à terme
rajeunir la structure éditoriale en place, considérée par beaucoup comme
passablement sclérosée? Par ailleurs, des éditeurs scientifiques et des
organismes de renom décident de mettre leurs publications et leurs cours en
accès libre sur le web et de privilégier la diffusion libre du savoir.


6.1. Editeurs en ligne littéraires


= Premiers pas

Les premiers titres purement électroniques sont des oeuvres courtes,
répertoriées dans l’E-zine-list, une liste créée en été 1993 par John Labovitz.
Abrégé de fanzine ou magazine, un zine est généralement l’oeuvre d’une personne
ou d’un petit groupe. Quant au e-zine, il est uniquement diffusé par courriel ou
sur un site web. Le plus souvent, il ne contient pas de publicité, ne vise pas
un profit commercial et n’est pas dirigé vers une audience de masse.

Comment l’E-zine-list débute-t-elle? Dans l’historique présent sur le site, John
Labovitz relate qu’à l’origine son intention est de faire connaître Crash, un
zine imprimé pour lequel il souhaite créer une version électronique. A la
recherche de répertoires, il ne trouve que le groupe de discussion Alt.zines, et
des archives comme le The Well et The Etext Archives. Lui vient alors l’idée
d’un répertoire organisé. Il commence avec douze titres classés manuellement sur
un traitement de texte. Puis il écrit sa propre base de données. En quatre ans,
de 1993 à 1997, les quelques dizaines de e-zines deviennent plusieurs centaines,
et la signification même d’e-zine s’élargit pour recouvrir tout type de
publication publiée par voie électronique, même s’« il subsiste toujours un
groupe original et indépendant désormais minoritaire qui continue de publier
suivant son coeur ou de repousser les frontières de ce que nous appelons un
e-zine». En été 1998, l’E-zine-list comprend 3.000 titres. Elle sera poursuivie
jusqu’en novembre 2001.

Qu’en est-il pour les textes en français? En avril 1995, Pierre François Gagnon,
poète et essayiste québécois, décide d’utiliser le numérique pour la réception
des textes, leur stockage et leur diffusion. Il crée Editel, premier site
d’auto-édition collective de langue française. En juillet 2000, il raconte: «En
fait, tout le monde et son père savent ou devraient savoir que le premier site
d’édition en ligne commercial fut CyLibris (fondé en août 1996, ndlr), précédé
de loin lui-même, au printemps de 1995, par nul autre qu’Editel, le pionnier
d’entre les pionniers du domaine, bien que nous fûmes confinés à l’action
symbolique collective, faute d’avoir les moyens de déboucher jusqu’ici sur une
formule de commerce en ligne vraiment viable et abordable (...). Nous sommes
actuellement trois mousquetaires (Pierre François Gagnon, Jacques Massacrier et
Mostafa Benhamza, ndlr) à développer le contenu original et inédit du webzine
littéraire qui continuera de servir de façade d’animation gratuite, offerte
personnellement par les auteurs maison à leur lectorat, à d’éventuelles
activités d’édition en ligne payantes, dès que possible au point de vue
technico-financier. Est-il encore réaliste de rêver à la démocratie économique?»

A la suite d’Editel, des éditeurs naissent directement sur le web pour tenter
une aventure inédite. Dans le monde francophone, le premier éditeur électronique
commercial est CyLibris, fondé en août 1996. CyLibris est suivi en mai 1998 par
00h00, premier éditeur au monde à commercialiser des livres numériques.

= CyLibris

Fondé par Olivier Gainon en août 1996, CyLibris (de Cy, cyber et Libris, livre),
basé à Paris, est le pionnier francophone de l’édition électronique commerciale.
CyLibris est en effet la première maison d’édition à utiliser l’internet et le
numérique pour publier de nouveaux auteurs littéraires, et parfois des auteurs
confirmés, dans divers genres: littérature générale, policier, science-fiction,
théâtre et poésie. Vendus uniquement sur le web, les livres sont imprimés à la
commande et envoyés directement au client, ce qui permet d’éviter le stock et
les intermédiaires. Des extraits sont disponibles en téléchargement libre.

Pendant son premier trimestre d’activité, l’éditeur signe des contrats avec
treize auteurs. En 2000, CyLibris compte une moyenne de 15.000 visites
mensuelles sur son site, 3.500 livres vendus tous exemplaires confondus et une
année 1999 financièrement équilibrée. En 2001, certains titres sont également
vendus en version imprimée par un réseau de librairies partenaires, notamment la
Fnac, et en version numérique par Mobipocket et Numilog, pour lecture sur
ordinateur et sur assistant personnel. En 2003, le catalogue de CyLibris
comprend une cinquantaine de titres.

«CyLibris a été créé d’abord comme une maison d’édition spécialisée sur un
créneau particulier de l’édition et mal couvert à notre sens par les autres
éditeurs: la publication de premières oeuvres, donc d’auteurs débutants,
explique Olivier Gainon en décembre 2000. Nous nous intéressons finalement à la
littérature qui ne peut trouver sa place dans le circuit traditionnel: non
seulement les premières oeuvres, mais les textes atypiques, inclassables ou en
décalage avec la mouvance et les modes littéraires dominantes. Ce qui est
rassurant, c’est que nous avons déjà eu quelques succès éditoriaux: le grand
prix de la SGDL (Société des gens de lettres) en 1999 pour La Toile de
Jean-Pierre Balpe, le prix de la litote pour Willer ou la trahison de Jérôme
Olinon en 2000, etc. Ce positionnement de "défricheur" est en soi original dans
le monde de l’édition, mais c’est surtout son mode de fonctionnement qui fait de
CyLibris un éditeur atypique.

Créé dès 1996 autour de l’internet, CyLibris a voulu contourner les contraintes
de l’édition traditionnelle grâce à deux innovations: la vente directe par
l’intermédiaire d’un site de commerce sur internet, et le couplage de cette
vente avec une impression numérique en "flux tendu". Cela permettait de
contourner les deux barrières traditionnelles dans l’édition: les coûts
d’impression (et de stockage), et les contraintes de distribution. Notre système
gérait donc des flux physiques: commande reçue par internet, impression du livre
commandé, envoi par la poste. Je précise que nous sous-traitons l’impression à
des imprimeurs numériques, ce qui nous permet de vendre des livres de qualité
équivalente à celle de l’offset, et à un prix comparable. Notre système n’est ni
plus cher, ni de moindre qualité, il obéit à une économie différente, qui, à
notre sens, devrait se généraliser à terme.»

En quoi consiste l’activité d’un éditeur électronique? «Je décrirais mon
activité comme double, explique Olivier Gainon. D’une part celle d’un éditeur
traditionnel dans la sélection des manuscrits et leur retravail (je m’occupe
directement de la collection science-fiction), mais également le choix des
maquettes, les relations avec les prestataires, etc. D’autre part, une activité
internet très forte qui vise à optimiser le site de CyLibris et mettre en oeuvre
une stratégie de partenariat permettant à CyLibris d’obtenir la visibilité qui
lui fait parfois défaut. Enfin, je représente CyLibris au sein du SNE (le
Syndicat national de l’édition, dont CyLibris fait partie depuis le printemps
2000, ndlr). CyLibris est aujourd’hui une petite structure. Elle a trouvé sa
place dans l’édition, mais est encore d’une économie fragile sur internet. Notre
objectif est de la rendre pérenne et rentable et nous nous y employons.»

Le site web se veut aussi le carrefour de la petite édition. Il procure des
informations pratiques aux auteurs en herbe: comment envoyer un manuscrit à un
éditeur, ce que doit comporter un contrat d’édition, comment protéger ses
manuscrits, comment tenter sa chance dans des revues ou concours littéraires,
etc.

Par ailleurs, l’équipe de CyLibris lance en mai 1999 CyLibris Infos, une lettre
d’information électronique gratuite dont l’objectif n’est pas tant de promouvoir
les livres de l’éditeur que de présenter l’actualité de l’édition francophone.
Volontairement décalée et souvent humoristique sinon décapante, la lettre est
tout d’abord mensuelle, puis elle paraît deux fois par mois à compter de février
2000. Elle compte 565 abonnés en octobre 2000. Elle change de nom en février
2001 pour devenir Edition-actu. Elle compte 1.500 abonnés en 2003. Elle laisse
ensuite la place au blog de CyLibris.

= 00h00

Lui aussi pionnier de l’édition en ligne commerciale, 00h00 fait son apparition
en mai 1998, un peu moins de deux ans après la création de CyLibris. Mais le
champ d’investigation de 00h00  (qui se prononce : zéro heure) est différent. Il
est le premier éditeur au monde à se lancer dans la commercialisation de livres
numériques. En 2000, les versions numériques (au format PDF) représentent 85%
des ventes, les 15% restants étant des versions imprimées à la demande du
client.

00h00 est fondé à l’instigation de Jean-Pierre Arbon et Bruno de Sa Moreira,
respectivement directeur général de Flammarion et directeur de Flammarion
Multimédia. «Aujourd’hui mon activité professionnelle est 100% basée sur
internet, explique Bruno de Sa Moreira en juillet 1998. Le changement ne s’est
pas fait radicalement, lui, mais progressivement (audiovisuel puis multimédia
puis internet). (...) La gestation du projet a duré un an: brainstorming,
faisabilité, création de la société et montage financier, développement
technique du site et informatique éditoriale, mise au point et production des
textes et préparation du catalogue à l’ouverture. (...) Nous faisons un pari,
mais l’internet me semble un média capable d’une très large popularisation, sans
doute grâce à des terminaux plus faciles d’accès que le seul micro-ordinateur.»

«La création de 00h00 marque la véritable naissance de l’édition en ligne,
lit-on sur le site web. C’est en effet la première fois au monde que la
publication sur internet de textes au format numérique est envisagée dans le
contexte d’un site commercial, et qu’une entreprise propose aux acteurs
traditionnels de l’édition (auteurs et éditeurs) d’ouvrir avec elle sur le
réseau une nouvelle fenêtre d’exploitation des droits. Les textes offerts par
00h00 sont soit des inédits, soit des textes du domaine public, soit des textes
sous copyright dont les droits en ligne ont fait l’objet d’un accord avec leurs
ayants droit. (...) Avec l’édition en ligne émerge probablement une première
vision de l’édition au 21e siècle. C’est cette idée d’origine, de nouveau départ
qui s’exprime dans le nom de marque, 00h00. (...) Internet est un lieu sans
passé, où ce que l’on fait ne s’évalue pas par rapport à une tradition. Il y
faut inventer de nouvelles manières de faire les choses. (...) Le succès de
l’édition en ligne ne dépendra pas seulement des choix éditoriaux : il dépendra
aussi de la capacité à structurer des approches neuves, fondées sur les lecteurs
autant que sur les textes, sur les lectures autant que sur l’écriture, et à
rendre immédiatement perceptible qu’une aventure nouvelle a commencé.»

Les collections sont très diverses: inédits, théâtre classique français, contes
et récits fantastiques, contes et récits philosophiques, souvenirs et mémoires,
philosophie classique, réalisme et naturalisme, cyberculture, romans d’enfance,
romans d’amour, nouvelles et romans d’aventure. Le recherche est possible par
auteur, par titre et par genre. Pour chaque livre, on a un descriptif court, un
descriptif détaillé, la table des matières et une courte présentation de
l’auteur. S’ajoutent ensuite les commentaires des lecteurs. Pas de stock, pas de
contrainte physique de distribution, mais un lien direct avec le lecteur et
entre les lecteurs. Sur le site, les internautes/lecteurs qui le souhaitent
peuvent créer leur espace personnel pour y rédiger leurs commentaires,
participer à des forums ou recommander des liens vers d’autres sites. Ils
peuvent encore s’abonner à la lettre d’information de 00h00 pour être tenus au
courant des nouveautés. L'éditeur produit aussi des clips littéraires pour
présenter les ouvrages publiés.

En 2000, le catalogue comprend 600 titres, qui comprennent une centaine
d’oeuvres originales et des rééditions électroniques d’ouvrages publiés par
d’autres éditeurs. Les oeuvres originales sont réparties en plusieurs
collections: nouvelles écritures interactives et hypertextuelles, premiers
romans, documents d’actualité, études sur les NTIC (nouvelles technologies de
l’information et de la communication), co-éditions avec des éditeurs
traditionnels ou de grandes institutions. Le paiement est effectué en ligne
grâce à un système sécurisé mis en place par la Banque populaire. Ceux que le
paiement en ligne rebute peuvent régler leur commande par carte bancaire (envoi
par fax) ou par chèque (envoi par courrier postal).

En septembre 2000, 00h00 est racheté par la société américaine Gemstar-TV Guide
International, spécialisée dans les produits et services numériques pour les
médias. Quelques mois auparavant, en janvier 2000, Gemstar rachète les deux
sociétés californiennes à l’origine des premières tablettes électroniques de
lecture, NuvoMedia, créatrice du Rocket eBook, et Softbook Press, créatrice du
Softbook Reader. Selon un communiqué de Henry Yuen, président de Gemstar, «les
compétences éditoriales dont dispose 00h00 et les capacités d’innovation et de
créativité dont elle a fait preuve sont les atouts nécessaires pour faire de
Gemstar un acteur majeur du nouvel âge de l’édition numérique qui s’ouvre en
Europe.» La communauté francophone ne voit pas ce rachat d’un très bon œil, la
mondialisation de l’édition semblant justement peu compatible avec l’innovation
et la créativité. Moins de trois ans plus tard, en juin 2003, 00h00 cesse
définitivement ses activités, tout comme la branche eBook de Gemstar.

Il reste le souvenir d’une belle aventure. En octobre 2006, Jean-Pierre Arbon,
devenu chanteur, raconte sur son site: «J’avais fondé, avec Bruno de Sa Moreira,
une maison d’édition d’un genre nouveau, la première au monde à tenter à grande
échelle l’aventure de l’édition en ligne. Tout était à faire, à inventer.
L’édition numérique était terra incognita: on explorait, on défrichait.»

= Luc Pire électronique

En Belgique, le premier éditeur à s’intéresser au numérique est Luc Pire. Fondée
en automne 1994, sa maison d’édition est présente à Bruxelles et à Liège. Luc
Pire électronique est lancé en février 2001 pour proposer des versions
numériques de titres déjà publiés chez l'éditeur ou de nouveaux titres en
version numérique. Nicolas Ancion, le responsable éditorial de ce nouveau
secteur, explique en avril 2001: «Ma fonction est d’une double nature : d’une
part, imaginer des contenus pour l’édition numérique de demain et, d’autre part,
trouver des sources de financement pour les développer. (...) Je supervise le
contenu du site de la maison d’édition et je conçois les prochaines générations
de textes publiés numériquement (mais pas exclusivement sur internet).»

Comment voit-il l’avenir? «L’édition électronique n’en est encore qu’à ses
balbutiements. Nous sommes en pleine phase de recherche. Mais l’essentiel est
déjà acquis: de nouveaux supports sont en train de voir le jour et cette
apparition entraîne une redéfinition du métier d’éditeur. Auparavant, un éditeur
pouvait se contenter d’imprimer des livres et de les distribuer. Même s’il s’en
défendait parfois, il fabriquait avant tout des objets matériels (des livres).
Désormais, le rôle de l’éditeur consiste à imaginer et mettre en forme des
contenus, en collaboration avec des auteurs. Il ne fabrique plus des objets
matériels, mais des contenus dématérialisés. Ces contenus sont ensuite
"matérialisés" sous différentes formes: livres papier, livres numériques, sites
web, bases de données, brochures, CD-Rom, bornes interactives. Le département de
"production" d’un éditeur deviendrait plutôt un département d’"exploitation" des
ressources. Le métier d’éditeur se révèle ainsi beaucoup plus riche et plus
large. Il peut amener le livre et son contenu vers de nouveaux lieux, de
nouveaux publics. C’est un véritable défi qui demande avant tout de
l’imagination et de la souplesse.»

= Choucas

L’expérience des éditions du Choucas est totalement différente. Fondé en 1992
par Nicolas et Suzanne Pewny, alors libraires en Haute-Savoie, Le Choucas est
une petite maison d’édition spécialisée dans les romans policiers, la
littérature, les livres de photos et les livres d’art. En juin 1998, Nicolas
Pewny raconte: «Le site des éditions du Choucas a été créé fin novembre 1996.
Lorsque je me suis rendu compte des possibilités qu’internet pouvait nous
offrir, je me suis juré que nous aurions un site le plus vite possible. Un petit
problème: nous n’avions pas de budget pour le faire réaliser. Alors, au prix
d’un grand nombre de nuits sans sommeil, j’ai créé ce site moi-même et l’ai fait
référencer (ce n’est pas le plus mince travail). Le site a alors évolué en même
temps que mes connaissances (encore relativement modestes) en la matière et
s’est agrandi, et a commencé à être un peu connu même hors France et Europe.

Le changement qu’internet a apporté dans notre vie professionnelle est
considérable. Nous sommes une petite maison d’édition installée en province.
Internet nous a fait connaître rapidement sur une échelle que je ne soupçonnais
pas. Même les médias "classiques" nous ont ouvert un peu leur portes grâce à
notre site. Les manuscrits affluent par le courrier électronique. Ainsi nous
avons édité deux auteurs québécois (Fernand Héroux et Liz Morency, auteurs de
Affaire de cœurs, paru en septembre 1997, ndlr). Beaucoup de livres se réalisent
(corrections, illustrations, envoi des documents à l’imprimeur) par ce moyen.
Dès le début du site nous avons reçu des demandes de pays où nous ne sommes pas
(encore) représentés: Etats-Unis, Japon, Amérique latine, Mexique, malgré notre
volonté de ne pas devenir un site "commercial" mais d’information et à
"connotation culturelle". (Nous n’avons pas de système de paiement sécurisé,
nous avons juste référencé sur une page les libraires qui vendent en ligne).»

En ce qui concerne l’avenir, «j’aurais tendance à répondre par deux questions:
Pouvez vous me dire comment va évoluer internet? Comment vont évoluer les
utilisateurs? Nous voudrions bien rester aussi peu "commercial" que possible et
augmenter l’interactivité et le contact avec les visiteurs du site. Y
réussirons-nous? Nous avons déjà reçu des propositions qui vont dans un sens
opposé. Nous les avons mis "en veille". Mais si l’évolution va dans ce sens,
pourrons-nous résister, ou trouver une "voie moyenne"? Honnêtement, je n’en sais
rien.»

Bien qu’étant d’abord un éditeur à vocation commerciale, Nicolas Pewny tient
aussi à avoir des activités non commerciales pour faire connaître des auteurs
peu diffusés, par exemple Raymond Godefroy, écrivain-paysan normand, qui
désespérait de trouver un éditeur pour son recueil de fables, Fables pour l’an
2000. Quelques jours avant le passage à l'an 2000, Nicolas Pewny réalise un beau
design pour ces fables et publie le recueil en ligne sur le site du Choucas.

«Internet représente pour moi un formidable outil de communication qui nous
affranchit des intermédiaires, des barrages doctrinaires et des intérêts des
médias en place, écrit Raymond Godefroy en décembre 1999. Soumis aux mêmes lois
cosmiques, les hommes, pouvant mieux se connaître, acquerront peu à peu cette
conscience du collectif, d’appartenir à un même monde fragile pour y vivre en
harmonie sans le détruire. Internet est absolument comme la langue d’Esope, la
meilleure et la pire des choses, selon l’usage qu’on en fait, et j’espère qu’il
me permettra de m’affranchir en partie de l’édition et de la distribution
traditionnelle qui, refermée sur elle-même, souffre d’une crise d’intolérance
pour entrer à reculons dans le prochain millénaire.»

Très certainement autobiographique, la fable Le poète et l’éditeur (sixième
fable de la troisième partie) relate on ne peut mieux les affres du poète à la
recherche d’un éditeur. Raymond Godefroy restant très attaché au papier, il
auto-publie la version imprimée de ses fables en juin 2001, avec un titre
légèrement différent, Fables pour les années 2000, puisque le cap du 21e siècle
est désormais franchi.

Quant aux éditions du Choucas, elles cessent leur activité en mars 2001, une
disparition de plus à déplorer chez les éditeurs indépendants. «Comme je le
prévoyais, notre distributeur a déposé son bilan, raconte Nicolas Pewny en juin
2001. Et malheureusement les éditions du Choucas (ainsi que d’autres éditeurs)
ont cessé leur activité éditoriale. Je maintiens gracieusement le site web pour
témoignage de mon savoir-faire d’éditeur on- et off-line. (...) Je ne regrette
pas ces dix années de lutte, de satisfactions et de malheurs passés aux éditions
du Choucas. J’ai connu des auteurs intéressants dont certains sont devenus des
amis... Maintenant je fais des publications et des sites internet pour d’autres.
En ce moment pour une ONG (organisation non gouvernementale) internationale
caritative ; je suis ravi de participer (modestement) à leur activité à but non
lucratif. Enfin on ne parle plus de profit ou de manque à gagner, c’est
reposant.»

= Plateformes d’édition

Des auteurs déçus par le système éditorial en place créent des plateformes
d’édition littéraire non commerciale pour faire connaître leurs oeuvres et
celles d’autres auteurs. Eux aussi font un véritable travail d’éditeur si l’on
considère que le but premier d’un éditeur est de découvrir et diffuser des
auteurs.

En 1997, Jacky Minier crée Diamedit, site français de promotion d’inédits
artistiques et littéraires. «J’ai imaginé ce site d’édition virtuelle il y a
maintenant plusieurs années, à l’aube de l’ère internautique francophone,
relate-t-il en octobre 2000. A l’époque, il n’y avait aucun site de ce genre sur
la toile à l’exception du site québécois Editel de Pierre François Gagnon (fondé
en avril 1995, ndlr). J’avais alors écrit un roman et quelques nouvelles que
j’aurais aimé publier mais, le système français d’édition classique papier étant
ce qu’il est, frileux et à la remorque de l’Audimat, il est devenu de plus en
plus difficile de faire connaître son travail lorsqu’on n’est pas déjà connu
médiatiquement. J’ai donc imaginé d’utiliser le web pour faire la promotion
d’auteurs inconnus qui, comme moi, avaient envie d’être lus. Diamedit est fait
pour les inédits. Rien que des inédits. Pour encourager avant tout la création.
Je suis, comme beaucoup de pionniers du net sans doute, autodidacte et
multiforme. A la fois informaticien, écrivain, auteur de contenus, webmestre,
graphiste au besoin, lecteur, correcteur pour les tapuscrits des autres, et
commercial, tout à la fois. Mon activité est donc un mélange de ces diverses
facettes.»

Comment Jacky Minier voit-il l’avenir? «Souriant. Je le vois très souriant. Je
crois que le plus dur est fait et que le savoir-faire cumulé depuis les années
de débroussaillage verra bientôt la valorisation de ces efforts. Le nombre des
branchés francophones augmente très vite maintenant et, même si, en France, on a
encore beaucoup de retard sur les Amériques, on a aussi quelques atouts
spécifiques. En matière de créativité notamment. C’est pile poil le créneau de
Diamedit. De plus, je me sens moins seul maintenant qu’en 1998. Des confrères
sérieux ont fait leur apparition dans le domaine de la publication d’inédits.
Tant mieux! Plus on sera et plus l’expression artistique et créatrice prendra
son envol. En la matière, la concurrence n’est à craindre que si on ne maintient
pas le niveau d’excellence. Il ne faut pas publier n’importe quoi si on veut que
les visiteurs comme les auteurs s’y retrouvent.»

Une des consoeurs de Jacky Minier est Marie-Aude Bourson, lyonnaise férue de
littérature et d’écriture qui, en septembre 1999, débute le site littéraire La
Grenouille Bleue. «L’objectif est de faire connaître de jeunes auteurs
francophones, pour la plupart amateurs, raconte-t-elle en décembre 2000. Chaque
semaine, une nouvelle complète est envoyée par e-mail aux abonnés de la lettre.
Les lecteurs ont ensuite la possibilité de donner leurs impressions sur un forum
dédié. Egalement, des jeux d’écriture ainsi qu’un atelier permettent aux auteurs
de "s’entraîner" ou découvrir l’écriture. Un annuaire recense les sites
littéraires. Un agenda permet de connaître les différentes manifestations
littéraires.» En décembre 2000, elle doit fermer le site pour un problème de
marque. En janvier 2001, elle ouvre un deuxième site, Gloupsy.com, géré selon le
même principe, «mais avec plus de "services" pour les jeunes auteurs, le but
étant de mettre en place une véritable plateforme pour "lancer" les auteurs» et
fonder peut-être ensuite «une véritable maison d’édition avec impression papier
des auteurs découverts». Gloupsy.com cesse ses activités en mars 2003, date de
la fin du contrat d’hébergement du site.

= Auto-édition

L’internet permet de renforcer les relations entre les auteurs et les lecteurs.
Si les éditeurs ne peuvent vivre sans les auteurs, les auteurs peuvent enfin
vivre sans les éditeurs. Un site web leur permet de promouvoir leurs oeuvres
sans intermédiaire. Le courriel leur permet de discuter avec leurs lecteurs. En
définitive, les auteurs ont-ils encore besoin des éditeurs?

L’auto-édition est la solution choisie par Anne-Bénédicte Joly, romancière, qui
crée un site web en avril 2000 pour diffuser ses oeuvres. En juin 2000, elle
raconte: «Après avoir rencontré de nombreuses fins de non-recevoir auprès des
maisons d’édition et ne souhaitant pas opter pour des éditions à compte
d’auteur, j’ai choisi, parce que l’on écrit avant tout pour être lu (!), d’avoir
recours à l’auto-édition. Je suis donc un écrivain-éditeur et j’assume
l’intégralité des étapes de la chaîne littéraire, depuis l’écriture jusqu’à la
commercialisation, en passant par la saisie, la mise en page, l’impression, le
dépôt légal et la diffusion de mes livres. Mes livres sont en règle générale
édités à 250 exemplaires et je parviens systématiquement à couvrir mes frais
fixes. Je pense qu’internet est avant tout un média plus rapide et plus
universel que d’autres, mais je suis convaincue que le livre "papier" a encore,
pour des lecteurs amoureux de l’objet livre, de beaux jours devant lui. Je pense
que la problématique réside davantage dans la qualité de certains éditeurs, pour
ne pas dire la frilosité, devant les coûts liés à la fabrication d’un livre, qui
préfèrent éditer des livres "vendeurs" plutôt que de décider de prendre le
risque avec certains écrits ou certains auteurs moins connus ou inconnus (...).
Si l’internet et le livre électronique ne remplaceront pas le support livre, je
reste convaincue que disposer d’un tel réseau de communication est un avantage
pour des auteurs moins (ou pas) connus.»

Jean-Paul, auteur hypermédia, relate en août 1999 : «L’internet va me permettre
de me passer des intermédiaires : compagnies de disques, éditeurs,
distributeurs... Il va surtout me permettre de formaliser ce que j’ai dans la
tête (et ailleurs) et dont l’imprimé (la micro-édition, en fait) ne me
permettait de donner qu’une approximation. Puis les intermédiaires prendront
tout le pouvoir. Il faudra alors chercher ailleurs, là où l’herbe est plus
verte...»

Il est possible que l’auto-édition soit promise à un bel avenir. Jean-Pierre
Cloutier, auteur des Chroniques de Cybérie, une chronique hebdomadaire des
actualités de l’internet, écrit en août 2000 : «J’ai une théorie des forces qui
animent et modifient la société, et qui se résume à classer les phénomènes en
tendances fortes, courants porteurs et signaux faibles. Le livre électronique
(appelé ici livre numérique, ndlr) ne répond pas encore aux critères de tendance
forte. On perçoit des signaux faibles qui pourraient annoncer un courant
porteur, mais on n’y est pas encore. Cependant, si et quand on y sera, ce sera
un atout important pour les personnes qui souhaiteront s’auto-éditer, et le
phénomène pourrait bouleverser le monde de l’édition traditionnelle.»

Mais comment trier le bon grain de l’ivraie? Philippe Renaut, gérant des
éditions du Presse-Temps, croit à la nécessité d’un tamis éditorial. Il explique
en février 2003: «C’est plutôt par la conjonction de ces deux éléments
essentiels - vecteur de communication d’un contenu travaillé éditorialement –
que l’on peut définir le livre par opposition à la mise en ligne ou mise à
disposition massive de textes sans un regard ou une labellisation
professionnels. En effet sans pouvoir assurer que magiquement l’oeil d’un
éditeur permet de déceler le mauvais du bon, il reste néanmoins l’instrument par
lequel un lecteur peut tenter de trier dans la production désormais pléthorique
de livres. Parfois des ouvrages de qualité se retrouveront malheureusement
auto-édités pour n’avoir su être décelés, et d’autres médiocres se retrouveront
édités envers et contre tout, mais cela ne change rien au processus de base qui
veut que le tamis éditorial joue son rôle et aide le public dans ses choix (il
suffit de considérer le niveau moyen des manuscrits reçus par une maison
d’édition pour s’en convaincre!). De la même manière, un surfeur sur le web va
utiliser ses annuaires préférés pour identifier les sites qui lui sembleront les
plus adaptés, seuls outils permettant encore un tri dans la masse désordonnée et
titanesque d’informations qui lui est accessible.»


6.2. Editeurs en ligne scientifiques


Des éditeurs scientifiques et universitaires décident d’utiliser l'outil de
diffusion qu’est le web pour mettre des livres, des articles et des cours à la
disposition de tous en privilégiant la diffusion libre du savoir. C'est le cas
par exemple du Net des études françaises (NEF), de la Public Library of Science
(PLoS) ou du MIT (Massachusetts Institute of Technology). Des éditeurs
commerciaux décident quant à eux de mettre le texte intégral de certains livres
en accès libre sur le web, sans entraîner une baisse des ventes de la version
imprimée, au contraire, puisque ces livres voient leurs ventes augmenter.

= Net des études françaises

Professeur au département d’études françaises de l’Université de Toronto, Russon
Wooldridge est un ardent défenseur de la diffusion libre du savoir. En février
2001, il explique: «Je mets toutes les données de mes recherches des vingt
dernières années sur le web (réédition de livres, articles, textes intégraux de
dictionnaires anciens en bases de données interactives, de traités du 16e
siècle, etc.). Je publie des actes de colloques, j’édite un journal, je
collabore avec des collègues français, mettant en ligne à Toronto ce qu’ils ne
peuvent pas publier en ligne chez eux. (...) Il est crucial que ceux qui croient
à la libre diffusion des connaissances veillent à ce que le savoir ne soit pas
bouffé, pour être vendu, par les intérêts commerciaux. Ce qui se passe dans
l’édition du livre en France, où on n’offre guère plus en librairie que des
manuels scolaires ou pour concours (c’est ce qui s’est passé en linguistique,
par exemple), doit être évité sur le web. Ce n’est pas vers les Amazon.com qu’on
se tourne pour trouver la science désintéressée.»

En mai 2000, Russon Wooldridge rassemble quelques collègues francophones à
Toronto lors d’un colloque intitulé «Colloque international sur les études
françaises favorisées par les nouvelles technologies d’information et de
communication». A la suite de ce colloque, il crée le Net des études françaises
(NEF), qui se veut d’une part «un filet trouvé qui ne capte que des morceaux
choisis du monde des études françaises, tout en tissant des liens entre eux»,
d’autre part un réseau dont les «auteurs sont des personnes oeuvrant dans le
champ des études françaises et partageant librement leur savoir et leurs
produits avec autrui».

Plus précisément, «le NEF est un site web consacré à divers aspects des études
françaises, notamment les outils critiques, réflexions et autres ressources,
ainsi que le World Wide Web comme répositoire de textes et de bases de données
textuelles, en même temps qu'objet d'étude et d'analyse critique» (Russon
Wooldridge). Le NEF propose entre autres des bases textuelles interactives, par
exemple les oeuvres complètes de Maupassant, ou encore les théâtres complets de
Corneille, Molière, Racine, Marivaux et Beaumarchais (base Théâtres d'Ancien
Régime). Le NEF propose aussi nombre d'entretiens avec des professionnels de
l'information.

Le NEF s’étend ensuite à l’Europe grâce au site miroir Translatio, créé dans le
même esprit en septembre 2001. Emilie Devriendt, sa responsable, relate en
février 2003: «Translatio est le site miroir de trois sites académiques dédiés à
la diffusion de ressources documentaires dans le domaine des études françaises,
et plus particulièrement de l’histoire de la langue française. Il s’agit du site
du professeur Russon Wooldridge, du site Net des études françaises (créé et
maintenu par ce dernier), et du site Langue du 19e siècle, du professeur
Jacques-Philippe Saint-Gérand, déjà miroirisé à Clermont-Ferrand. Plus qu’une
simple copie, Translatio est avant toute chose le fruit de collaborations
actives, en réseau, entre enseignants, chercheurs et documentalistes issus de
différentes institutions : à Toronto (University of Toronto), à Clermont-Ferrand
(Université Blaise Pascal), Lisieux (Bibliothèque électronique), Paris (École
normale supérieure). Fidèle à l’architecture initiale des trois sites originaux,
Translatio en conserve aussi les objectifs : diffuser de la connaissance
(sources primaires et secondaires) sous forme de bases linguistiques,
philologiques, culturelles - interactives ou non. Autrement dit, proposer
gratuitement outils de recherche et ressources en ligne offrant toutes les
garanties d’une nécessaire rigueur scientifique.»

= Public Library of Science

A l’heure de l’internet, il paraît assez scandaleux que le résultat de travaux
de recherche – travaux originaux et demandant de longues années d’efforts – soit
détourné par  des éditeurs spécialisés s’appropriant ce travail et le monnayant
à prix fort. L’activité des chercheurs est souvent financée par les deniers
publics, et de manière substantielle en Amérique du Nord. Il semblerait donc
normal que la communauté scientifique et le grand public puissent bénéficier
librement du résultat de ces recherches.

Dans le domaine scientifique et médical par exemple, 1.000 nouveaux articles
sont publiés chaque jour, en ne comptant que les articles révisés par les pairs.
Se basant sur ce constat, la Public Library of Science (PLoS) est fondée en
octobre 2000 à San Francisco à l’initiative de Harold Varmus, Patrick Brown et
Michael Eisen, groupe de chercheurs des Universités de Stanford et de Berkeley.
Le but est de contrer les pratiques de l’édition spécialisée en regroupant tous
les articles scientifiques et médicaux au sein d’archives en ligne en accès
libre. Au lieu d’une information disséminée dans des millions de rapports et des
milliers de périodiques en ligne ayant chacun des conditions d’accès
différentes, un point d’accès unique permettrait de lire le contenu intégral de
ces articles, avec moteur de recherche multicritères et système d’hyperliens
entre les articles.

Pour ce faire, PLoS fait circuler une lettre ouverte demandant que les articles
publiés par les éditeurs spécialisés soient distribués librement dans un service
d’archives en ligne, et incitant les signataires de cette lettre à promouvoir
les éditeurs prêts à soutenir ce projet. La réponse de la communauté
scientifique internationale est remarquable. Au cours des deux années suivantes,
la lettre ouverte est signée par 30.000 chercheurs de 180 pays différents. Bien
que la réponse des éditeurs soit nettement moins enthousiaste, plusieurs
éditeurs donnent également leur accord pour une distribution immédiate des
articles publiés par leurs soins, ou alors une distribution dans un délai de six
mois. Mais, dans la pratique, même les éditeurs ayant donné leur accord
formulent nombre d’objections au nouveau modèle proposé, si bien que le projet
d’archives en ligne ne voit finalement pas le jour.

Un autre objectif de la Public Library of Science est de devenir elle-même
éditeur. PLoS fonde donc une maison d’édition scientifique non commerciale qui
reçoit en décembre 2002 une subvention de 9 millions de dollars US de la part de
la Moore Foundation. Une équipe éditoriale de haut niveau est constituée en
janvier 2003 pour lancer des périodiques de qualité selon un nouveau modèle
d’édition en ligne basé sur la diffusion libre du savoir. Le premier numéro de
PLoS Biology sort en octobre 2003, avec une version en ligne gratuite et une
version imprimée au prix coûtant (couvrant uniquement les frais de fabrication
et de distribution). PLoS Medicine est lancé en octobre 2004. Trois nouveaux
titres voient le jour en 2005: PLoS Genetics, PLoS Computational Biology et PLoS
Pathogens. PLoS Clinical Trials voit le jour en 2006. PloS Neglected Tropical
Diseases est lancé à l’automne 2007 en tant que première publication
scientifique consacrée aux maladies tropicales négligées. Ces maladies affectent
les populations pauvres des zones rurales ou urbaines.

Tous les articles de ces périodiques sont librement accessibles en ligne, sur le
site de PLoS et dans PubMed Central, le service d’archives en ligne public et
gratuit de la National Library of Medicine (Etats-Unis), avec moteur de
recherches multicritères. Les versions imprimées sont abandonnées en 2006 pour
laisser place à un service d’impression à la demande proposé par la société
Odyssey Press. Ces articles peuvent être librement diffusés et réutilisés
ailleurs, y compris pour des traductions, selon les termes de la licence
Creative Commons, la seule contrainte étant la mention des auteurs et de la
source. PLoS lance aussi PLoS ONE, un forum en ligne destiné à la publication
d’articles sur tout sujet scientifique et médical.

Le succès est total. Trois ans après les débuts de PLoS en tant qu’éditeur, PLoS
Biology et PLos Medicine ont la même réputation d’excellence que les grandes
revues Nature, Science ou The New England Journal of Medicine. PLoS reçoit le
soutien financier de plusieurs fondations tout en mettant sur pied un modèle
économique viable, avec des revenus émanant des frais de publication payés par
les auteurs, de la publicité, de sponsors et d'activités destinées aux membres
de l’association. PLoS souhaite que ce modèle économique d’un genre nouveau
inspire d’autres éditeurs pour créer des revues du même type ou pour mettre les
revues existantes en accès libre.

= Cours du MIT

Professeur à l’Université d’Ottawa (Canada), Christian Vandendorpe salue en mai
2001 «la décision du MIT (Massachusetts Institute of Technology) de placer tout
le contenu de ses cours sur le web d’ici dix ans, en le mettant gratuitement à
la disposition de tous. Entre les tendances à la privatisation du savoir et
celles du partage et de l’ouverture à tous, je crois en fin de compte que c’est
cette dernière qui va l’emporter.» Le MIT décide en effet de publier ses cours
en ligne, avec accès libre et gratuit, une initiative menée avec le soutien
financier de la Hewlett Foundation et de la Mellon Foundation.

Mise en ligne en septembre 2002, la version pilote du MIT OpenCourseWare (MIT
OCW) offre en accès libre le matériel d’enseignement de 32 cours représentatifs
des cinq facultés du MIT. Ce matériel d’enseignement comprend des textes de
conférences, des travaux pratiques, des exercices et corrigés, des
bibliographies, des documents audio et vidéo, etc. Le lancement officiel du site
a lieu un an plus tard, en septembre 2003, avec accès à quelques centaines de
cours. En mars 2004, 500 cours sont disponibles dans 33 disciplines différentes,
avec actualisation régulière. En mai 2006, les 1.400 cours en ligne émanent de
34 départements appartenant aux cinq facultés du MIT. La totalité des 1.800
cours dispensés par le MIT est en ligne en 2008. Certains cours sont traduits en
espagnol, en portugais et en chinois, avec l’aide d’autres organismes.

Le MIT espère que cette expérience de publication électronique - la première du
genre - va permettre de définir un standard et une méthode de publication, et
inciter d’autres universités à créer un « opencourseware » pour la mise à
disposition gratuite de leurs propres cours. Un « opencourseware » peut être
défini comme la publication électronique en accès libre de matériel
d’enseignement de grande qualité organisé sous forme de cours. A cet effet, le
MIT lance l’OpenCourseWare Consortium (OCW Consortium) en décembre 2005, avec
accès libre et gratuit au matériel d’enseignement de cent universités dans le
monde un an plus tard.

= Livres gratuits sur le web

La publication en ligne d’un livre à titre gratuit nuit-elle aux ventes de la
version imprimée ou non? La National Academy Press (NAP) est la première à
prendre un tel risque, dès 1994, avec un pari gagné. Des expériences plus
récentes et tout aussi concluantes sont menées par O’Reilly Media et les
éditions de l’Eclat.

«A première vue, cela paraît illogique», écrit Beth Berselli, journaliste au
Washington Post, dans un article repris par le Courrier international en
novembre 1997. «Un éditeur de Washington, la National Academy Press (NAP), qui a
publié sur internet 700 titres de son catalogue actuel, permettant ainsi à tout
un chacun de lire gratuitement ses livres, a vu ses ventes augmenter de 17%
l’année suivante. Qui a dit que personne n’achèterait la vache si on pouvait
avoir le lait gratuitement?»

Une politique atypique porte donc ses fruits. Editeur universitaire, la NAP
(National Academy Press, qui devient ensuite la National Academies Press) publie
environ 200 livres par an, essentiellement des livres scientifiques et
techniques et des ouvrages médicaux. En 1994, l’éditeur choisit de mettre en
accès libre sur le web le texte intégral de plusieurs centaines de livres, afin
que les lecteurs puissent les «feuilleter» à l’écran, comme ils l’auraient fait
dans une librairie, avant de les acheter ensuite si utile. La NAP est le premier
éditeur à se lancer dans un tel pari, une initiative saluée par les autres
maisons d’édition, qui hésitent cependant à se lancer elles aussi dans
l’aventure, et ce pour trois raisons: le coût excessif qu’entraîne la mise en
ligne de milliers de pages, les problèmes liés au droit d’auteur, et enfin une
concurrence qu’ils estiment nuisible à la vente.

Dans le cas de la NAP, ce sont les auteurs eux-mêmes qui, pour des raisons
publicitaires, demandent à ce que leurs livres soient mis en ligne sur le site.
Pour l’éditeur, le web est un nouvel outil de marketing face aux 50.000 ouvrages
publiés chaque année aux Etats-Unis. Une réduction de 20% est accordée pour
toute commande effectuée en ligne. La présence de ces livres sur le web entraîne
aussi une augmentation des ventes par téléphone. Le mouvement va en s’amplifiant
puisque, en 1998, le site de la NAP propose le texte intégral d’un millier de
titres. La solution choisie par la NAP est également adoptée par la MIT Press,
qui voit rapidement ses ventes doubler pour les livres disponibles en version
intégrale sur le web.

Un autre exemple est celui de O’Reilly Media. Fondé par Tim O’Reilly en 1978,
O’Reilly Media est un éditeur réputé de manuels informatiques et de livres sur
les technologies de pointe. O’Reilly dispose d’une formule de « copyright ouvert
» pour les  auteurs qui le souhaitent ou alors pour des projets collectifs. A
partir de 2003, il privilégie le Creative Commons Founders’ Copyright permettant
d’offrir des contrats flexibles de droit d’auteur à ceux qui veulent également
diffuser leurs oeuvres sur le web. En octobre 2005, avec l’accord de certains
auteurs, O’Reilly met en ligne plusieurs livres en version intégrale, avec une
copie numérique dans la bibliothèque de l’Internet Archive. Il s’agit soit de
livres récents, soit de livres plus anciens dont la version imprimée est
épuisée. Lancée sous le nom d’Open Books, cette initiative est menée dans le
cadre de l’Open Content Alliance (OCA), un vaste projet de bibliothèque
numérique collective dirigé par l’Internet Archive et dont O’Reilly Media est
l’un des membres fondateurs.

Michel Valensi, directeur des éditions de l’Eclat, tente une expérience un peu
différente à partir de mars 2000 en instituant le lyber, un terme «construit à
partir du mot latin liber qui signifie à la fois: libre, livre, enfant, vin». Il
s’agit d’un livre numérique disponible gratuitement sur le web dans son
intégralité, selon le principe du shareware (partagiciel), avec possibilité
d’acheter un exemplaire pour soi ou ses amis, possibilité de signaler l’adresse
du libraire le plus proche et possibilité de laisser des commentaires sur le
texte en ligne. Sur les 180 titres que comprend le catalogue (sciences humaines,
philosophie, théologie), une vingtaine est disponible sous forme de lyber.

A l’occasion du colloque «Textualités & nouvelles technologies» organisé à
Montréal en novembre 2001 par la revue ec/arts, Michel Valensi relate: «La mise
en ligne de textes dans leur intégralité et gratuitement sur le net n’a en rien
entamé les ventes de ces mêmes textes sous forme de livre. Mieux: il est arrivé
que certains ouvrages dont les ventes pouvaient stagner depuis plusieurs mois,
soient parvenus à un rythme de vente supérieur et plus régulier depuis leur mise
en ligne. Quelques livres dont les ventes restent faibles sont faiblement
consultés. Je ne veux pas établir de relation de cause à effet entre ces
phénomènes, mais je constate au moins qu’il n’y a pas de perte pour l’éditeur
(...). Nos statistiques nous permettent de constater que les ouvrages les mieux
vendus en librairie sont également les plus consultés en ligne. (...) Je signale
que les livres dont il existe une version en ligne sont souvent des livres qui
marchent très bien en librairie.»

= Gratuit versus payant

Question cruciale qui suscite de nombreux débats, l’accès au savoir doit-il être
gratuit ou payant ? Eduard Hovy, directeur du Natural Language Group de
l’USC/ISI (University of Southern California / Information Sciences Institute),
donne son sentiment sur ce point en septembre 2000: «En tant qu’universitaire,
je suis bien sûr un des parasites de notre société (remarque à prendre au
deuxième degré, ndlr), et donc tout à fait en faveur de l’accès libre à la
totalité de l’information. En tant que co-propriétaire d’une petite start-up, je
suis conscient du coût représenté par la collecte et le traitement de
l’information, et de la nécessité de faire payer ce service d’une manière ou
d’une autre. Pour équilibrer ces deux tendances, je pense que l’information à
l’état brut et certaines ressources à l’état brut (langages de programmation ou
moyens d’accès à l’information de base comme les navigateurs web) doivent être
disponibles gratuitement. Ceci crée un marché et permet aux gens de les
utiliser. Par contre l’information traitée doit être payante, tout comme les
systèmes permettant d’obtenir et de structurer très exactement ce dont on a
besoin. Cela permet de financer ceux qui développent ces nouvelles
technologies.»

Dans le domaine du livre, l’édition non commerciale offre des avantages sans
précédent. Au lieu de vendre quelques dizaines ou quelques centaines de livres
et de toucher des droits d’auteur souvent insignifiants, l’auteur a un vaste
lectorat et ne touche pas de droits d’auteur, tout en échappant aux contraintes
souvent inacceptables des éditeurs commerciaux. A chacun de choisir s’il veut
céder les droits de ses travaux, gagner quelques euros et n’être lu par
(presque) personne, ou s’il préfère garder le copyright de ses écrits, être
largement diffusé et ne rien gagner, sous-entendu ne pas gagner d’argent, parce
qu’en fait il gagne le plus important, à savoir le fait d’être lu et de partager
un savoir.

Grâce au réseau, l’édition non commerciale a le vent en poupe. Des organismes
deviennent éditeurs dans le vrai sens du terme. Des auteurs sont heureux à juste
titre de voir leurs textes publiés en ligne. Des lecteurs avides, enthousiastes
et exigeants ne choisissent pas leurs lectures en fonction de la dernière liste
de best-sellers, mais les choisissent dans une profusion de fictions, de
documentaires, d’études généralistes et d’articles scientifiques, avec en prime
la diffusion libre du savoir. Et, pour finir, de plus en plus d’auteurs ne se
soucient même plus du fait que leurs textes auraient pu être acceptés par un
éditeur traditionnel, dont ils jugent le modèle complètement dépassé.

Certains préfèrent la rentabilité économique à la diffusion gratuite du savoir,
y compris pour les oeuvres tombées dans le domaine public. On a d’un côté des
éditeurs électroniques qui vendent notre patrimoine en version numérique, de
l’autre des bibliothèques numériques qui diffusent gratuitement ce patrimoine à
l’échelle de la planète. De même, on a d’une part des organismes publics et
privés qui monnaient leurs bases de données au prix fort, d’autre part des
éditeurs et des universités qui mettent leurs publications et leurs cours en
accès libre sur le web. Reste à savoir si, pour les premiers, les profits
dégagés en valent vraiment la peine. Dans de nombreux cas, il semblerait que la
somme nécessaire à la gestion interne soit au moins équivalente sinon supérieure
aux gains réalisés. Est-il vraiment utile de mettre un pareil frein à la
diffusion de l’information pour un profit finalement nul?

La diffusion gratuite du savoir n’est toutefois possible que parce qu’il existe
en amont des organismes financeurs, par exemple des universités ou des centres
de recherche. Ou alors parce qu’une petite équipe en place (rémunérée) est
relayée par un vaste réseau de volontaires (bénévoles) gagnant leur vie par
ailleurs et décidant de consacrer une partie de leur temps à une activité qu’ils
estiment importante pour le bien de la collectivité. C’est le cas du Projet
Gutenberg, pionnier des bibliothèques numériques, ou de Bookshare.org, une
bibliothèque numérique destinée aux personnes ayant un problème visuel. C'est
aussi le cas des grandes encyclopédies collaboratives en ligne que sont
Wikipedia (débuté en janvier 2001), Citizendium (débuté en mars 2007) et
l’Encyclopedia of Life (débutée en mai 2007).


6.3. Chronologie


* Cette chronologie ne prétend pas à l’exhaustivité.

1993 (été): L’E-zine-list, liste de John Labovitz.

1994: Livres de la National Academy Press (NAP) mis en ligne gratuitement.

1995 (avril): Editel, premier éditeur en ligne francophone, fondé par Pierre
François Gagnon.

1996 (août): CyLibris, premier éditeur en ligne francophone commercial, fondé
par Olivier Gainon.

1996 (novembre): Site web des éditions du Choucas lancé par Nicolas Pewny.

1997: Diamedit, plateforme d’édition littéraire créée par Jacky Minier.

1998 (mai): 00h00, premier éditeur commercial de livres numériques, fondé par
Jean-Pierre Arbon et Bruno de Sa Moreira.

2000 (mars): Le lyber, concept de Michel Valensi, directeur des éditions de
l’Eclat.

2000 (mai): Création du Net des études françaises (NEF) par Russon Wooldridge.

2000 (septembre): Rachat de 00h00 par Gemstar-TV Guide International.

2000 (octobre): Fondation de la Public Library of Science (PLoS).

2001 (février): Luc Pire électronique, secteur électronique des éditions Luc
Pire.

2002 (septembre): Lancement du MIT OpenCourseWare en version bêta.

2003 (juin): Arrêt des activités de 00h00 et de la branche eBook de Gemstar.

2003 (septembre): Lancement officiel du MIT OpenCourseWare.

2003 (octobre): La Public Library of Science (PLoS) devient éditeur.

2005 (octobre): Livres des éditions O’Reilly Media mis en ligne gratuitement.

2005 (décembre): Lancement de l'OpenCourseWare Consortium.


7. LA MUE DES BIBLIOTHEQUES


[7.1. Bibliothèques numériques / Premiers pas / Numérisation: mode texte ou
image / ABU et Athena / Bibliothèque électronique de Lisieux / Gallica / Online
Books Page // 7.2. Bibliothèques traditionnelles / ARPALS, en milieu rural /
Cyberespace des Nations Unies / Enluminures de la Bibliothèque de Lyon /
Gabriel, serveur européen / De la conservation à la communication // 7.3. Du
bibliothécaire au cyberthécaire / Bibliothécaires et internet / Quelques
expériences // 7.4. Dans la lignée de Handicapzéro/ Premiers pas / Bookshare.org
/ Handicapzéro / Bibliothèque numérique pour le Handicap // 7.5. Une future
bibliothèque planétaire / Google Book Search - Google Livres / Open Content
Alliance / Autres initiatives // 7.6. Chronologie]

«Qu’il me suffise, pour le moment, de redire la sentence classique: "La
bibliothèque est une sphère dont le centre véritable est un hexagone quelconque,
et dont la circonférence est inaccessible."» Cette citation de Jorge Luis Borges
peut tout aussi bien définir la bibliothèque numérique. La numérisation du
patrimoine mondial est en cours, d'abord pour le texte, et ensuite pour l’image
et le son, avec la mise en ligne de centaines puis de milliers d’oeuvres du
domaine public, de publications littéraires et scientifiques, d’articles,
d’images, de bandes sonores et de films. Nombre d’entre eux sont en accès libre.
En 2005, le mouvement va en s’amplifiant avec l’entrée en lice des géants de
l’internet pour la constitution d’une bibliothèque planétaire.


7.1. Bibliothèques numériques


= Premiers pas

Objectif poursuivi par des générations de bibliothécaires, la diffusion
d’oeuvres du domaine public devient enfin possible à vaste échelle dans les
années 1990, puisque les livres peut désormais être convertis en fichiers
électroniques et transiter via l’internet.

Si certaines bibliothèques numériques naissent directement sur le web, la
plupart émanent de bibliothèques traditionnelles. En 1996, la Bibliothèque
municipale de Lisieux (Normandie) lance la Bibliothèque électronique de Lisieux,
qui offre les versions numériques d'oeuvres littéraires courtes choisies dans
les collections municipales. En 1997, la Bibliothèque nationale de France (BnF)
crée Gallica qui, dans un premier temps, propose des images et textes du 19e
siècle francophone. Une sélection de 3.000 livres est complétée par un
échantillon de la future iconothèque numérique. En 1998, la Bibliothèque
municipale de Lyon met les enluminures de 200 manuscrits et incunables à la
disposition de tous sur son site web. Trois exemples parmi tant d’autres.

Les bibliothèques numériques permettent à un large public d’avoir accès à des
documents difficiles à consulter parce qu’appartenant à des fonds anciens,
locaux,  régionaux ou spécialisés. Ces fonds sont souvent peu accessibles pour
des raisons diverses: souci de conservation des documents rares et fragiles,
heures d’ouverture réduites, nombreux formulaires à remplir, longs délais de
communication, pénurie de personnel, qui sont autant de barrières à franchir et
demandent souvent au lecteur une patience à toute épreuve et une détermination
hors du commun pour arriver jusqu’au document.

Grâce à la bibliothèque numérique, la bibliothèque traditionnelle peut enfin
rendre compatibles deux objectifs qui jusque-là ne l’étaient guère, à savoir la
conservation des documents et la communication de ceux-ci. D’une part le
document ne quitte son rayonnage qu’une seule fois pour être scanné, d’autre
part le grand public y a enfin accès. Si le lecteur souhaite consulter le
document original, il pourra se lancer dans le parcours évoqué plus haut, mais
en connaissance de cause, grâce au «feuilletage» préalable à l’écran.

Selon la British Library, la bibliothèque numérique peut être définie comme une
entité résultant de l’utilisation des technologies numériques pour acquérir,
stocker, préserver et diffuser des documents. Ces documents sont soit publiés
directement sous forme numérique, soit numérisés à partir d’un document imprimé,
audiovisuel ou autre. Une collection numérique devient une bibliothèque
numérique si elle répond aux quatre critères suivants: 1) elle peut être créée
et produite dans un certain nombre d’endroits différents, mais elle est
accessible en tant qu’entité unique; 2) elle doit être organisée et indexée pour
un accès aussi facile que possible à partir du lieu où elle est produite; 3)
elle doit être stockée et gérée de manière à avoir une existence assez longue
après sa création; 4) elle doit trouver un équilibre entre le respect du droit
d’auteur et les exigences universitaires.

Dans Information Systems Strategy, un document disponible sur le site de la
British Library en 1997, Brian Lang, directeur de projet, explique que la future
bibliothèque numérique de la British Library n’est pas envisagée comme un
secteur à part, mais qu’elle fera partie intégrante d’une vision globale de la
bibliothèque. Si d’autres bibliothèques pensent que les documents numériques
prédomineront dans les bibliothèques du futur, la British Library n’envisage pas
une bibliothèque exclusivement numérique. Elle considère comme fondamentale la
communication physique des imprimés, manuscrits, partitions musicales, bandes
sonores, etc., tout en ayant conscience de la nécessité du développement
parallèle de collections numériques.

Hébergée par l’Université Carnegie Mellon (Pittsburgh, Pennsylvanie, Etats-Unis)
et reliée au catalogue expérimental (ESS : experimental search system) de la
Library of Congress, l’Universal Library insiste sur les trois avantages de la
bibliothèque numérique: 1) elle occupe moins de place qu’une bibliothèque
traditionnelle et son contenu peut être copié ou sauvegardé électroniquement; 2)
elle est immédiatement accessible à quiconque sur l’internet; 3) comme toute
recherche sur son contenu est automatisée, elle permet une réduction des coûts
importante et une plus grande accessibilité des documents.

A titre historique, le site Library 2000 présente un condensé des recherches
menées entre octobre 1995 et octobre 1997 par le MIT/LCS (Massachusetts
Institute of Technology / Laboratory of Computer Science). Pragmatique, le
projet Library 2000 étudie pendant deux ans les problèmes posés par le stockage
en ligne d’une très grande quantité de documents. Il développe un prototype
utilisant la technologie et les configurations de systèmes sensés économiquement
viables en l’an 2000, prototype grâce auquel plusieurs grandes bibliothèques
numériques sont mises en ligne à compter de l’automne 1997.

= Numérisation: mode texte ou image

Qui dit bibliothèque numérique dit numérisation. Pour pouvoir être consulté à
l’écran, un livre peut être numérisé soit en mode texte soit en mode image.

La numérisation en mode texte implique la saisie d’un texte. Elle consiste à
patiemment saisir le livre sur un clavier, page après page, solution souvent
adoptée lors de la constitution des premières bibliothèques numériques, ou alors
à scanner le livre et le convertir en texte grâce à un logiciel OCR (optical
character recognition), puis à contrôler le résultat à l’écran en relisant
intégralement le texte obtenu pour le comparer avec le texte scanné et le
corriger si nécessaire. Quand les documents originaux manquent de clarté, pour
les livres anciens par exemple, ils sont saisis ligne après ligne, de la
première page à la dernière. Contrairement à la numérisation en mode image, la
version informatique ne conserve pas la présentation originale du livre ou de la
page. Le livre devient texte, à savoir un ensemble de caractères apparaissant en
continu à l’écran. A cause du temps passé au traitement de chaque livre, ce mode
de numérisation est assez long, et donc nettement plus coûteux que la
numérisation en mode image. Dans de nombreux cas, il est toutefois très
préférable, puisqu’il permet l’indexation, la recherche et l’analyse textuelles,
une étude comparative entre plusieurs textes ou plusieurs versions du même
texte, etc. C’est la méthode utilisée par exemple par le Projet Gutenberg, fondé
dès 1971, ou encore la Bibliothèque électronique de Lisieux, créée en 1996.

La numérisation en mode image correspond à la photographie du livre page après
page. La version informatique est le fac-similé numérique de la version
imprimée. La présentation originale étant conservée, on peut feuilleter le texte
page après page à l’écran. C’est la méthode employée pour les numérisations à
grande échelle, par exemple pour le programme de numérisation de la Bibliothèque
nationale de France (BnF) et la constitution de sa bibliothèque numérique
Gallica. La numérisation en mode texte est toutefois utilisée pour les tables
des matières, les sommaires et les corpus de documents iconographiques, ce afin
de faciliter la recherche textuelle. Pourquoi ne pas tout numériser en mode
texte? La BnF répond sur le site de Gallica: «Le mode image conserve l’aspect
initial de l’original y compris ses éléments non textuels. Si le mode texte
autorise des recherches riches et précises dans un document et permet une
réduction significative du volume des fichiers manipulés, sa réalisation, soit
par saisie soit par OCR, implique des coûts de traitement environ dix fois
supérieurs à la simple numérisation. Ces techniques, parfaitement envisageables
pour des volumes limités, ne pouvaient ici être économiquement justifiables au
vu des 50.000 documents (représentant presque 15 millions de pages) mis en
ligne.»

Concepteur de Mot@mot, logiciel de remise en page de fac-similés numériques,
Pierre Schweitzer insiste sur l’utilité des deux modes de numérisation. «Le mode
image permet d’avancer vite et à très faible coût, explique-t-il en janvier
2001. C’est important car la tâche de numérisation du domaine public est
immense. Il faut tenir compte aussi des différentes éditions: la numérisation du
patrimoine a pour but de faciliter l’accès aux oeuvres, il serait paradoxal
qu’elle aboutisse à se focaliser sur une édition et à abandonner l’accès aux
autres. Chacun des deux modes de numérisation s’applique de préférence à un type
de document, ancien et fragile ou plus récent, libre de droit ou non (pour
l’auteur ou pour l’édition), abondamment illustré ou pas. Les deux modes ont
aussi des statuts assez différents: en mode texte ça peut être une nouvelle
édition d’une oeuvre, en mode image c’est une sorte d’"édition d’édition", grâce
à un de ses exemplaires (qui fonctionne alors comme une fonte d’imprimerie pour
du papier). En pratique, le choix dépend bien sûr de la nature du fonds à
numériser, des moyens et des buts à atteindre. Difficile de se passer d’une des
deux façons de faire.»

Si une bibliothèque numérique est d’abord une bibliothèque d’oeuvres numérisées,
ce terme s’applique aussi par extension à une collection organisée de liens vers
des oeuvres numérisées disponibles sur le web. C’est le cas de l’Online Books
Page, un répertoire d’oeuvres anglophones en accès libre créé en 1993 par John
Mark Ockerbloom. C’est également le cas de l’Internet Public Library (IPL),
fondée en 1995 pour répertorier les ressources disponibles sur l’internet.
D’autres bibliothèques numériques proposent à la fois des textes numérisés par
l’équipe en place et un ensemble de liens vers des oeuvres disponibles ailleurs.
C’est le cas d’Athena, bibliothèque numérique fondée en 1994 par Pierre Perroud
et hébergée sur le site de l’Université de Genève.

= ABU et Athena

L’ABU est la première bibliothèque numérique francophone du réseau. Fondée en
avril 1993 par l’Association des bibliophiles universels (ABU) dans la lignée du
Projet Gutenberg, elle est hébergée par le Centre d’études et de recherche
informatique (CEDRIC) du Conservatoire des arts et métiers (CNAM) de Paris. En
janvier 2002, les collections comptent 288 textes et 101 auteurs. Il ne semble
pas que d'autres textes aient été ajoutés depuis.

Ce nom ABU est aussi une référence à Aboulafia, petit ordinateur présent dans Le
pendule de Foucault, un roman d’Umberto Ecco dans lequel «s’entremêlent savoirs
anciens et high tech», et dont l’intrigue se situe justement au CNAM. Quant au
nom de l’association, «au départ, il s’agissait de biblioFiles universels, et
non de biblioPHiles, mais la préfecture de Paris n’a pas semblé saisir tout le
sel de ce néologisme», explique l’ABU sur son site.

Dans la FAQ (foire aux questions) présente sur le site, l’ABU donne les neuf
conseils suivants aux volontaires souhaitant scanner ou saisir des textes: 1)
pas de mise en page, mais un texte en continu avec des lignes d’environ 70
caractères et des sauts de ligne; 2) des sauts de ligne avant chaque paragraphe,
y compris pour les dialogues; 3) la transcription du tiret long accompagnant les
dialogues par deux petits tirets; 4) des majuscules pour les titres, noms de
chapitres et sections, avec un soulignement fait de petits tirets; 5) la
transcription des mots en italique par des blancs soulignés; 6) pas de
tabulation, mais des blancs; 7) les notes de l’auteur mises entre crochets dans
le corps du texte; 8) la pagination de l’édition originale entre crochets
(facultatif); 9) l’encodage final en ISO-Latin-1, qui est une extension de
l’ASCII.

Créée en 1994 et hébergée sur le site de l’Université de Genève, Athena est
l’oeuvre de Pierre Perroud, qui y consacre trente heures par semaine, en plus de
son activité de professeur au collège Voltaire (Genève). Pierre-Louis Chantre,
journaliste, raconte dans L’Hebdo n° 7 du 13 février 1997: «Il numérise des
livres, met en page des textes que des correspondants inconnus lui envoient,
crée des liens électroniques avec des livres disponibles ailleurs, tout en
essayant de répondre le mieux possible aux centaines de lettres électroniques
qu’il reçoit (mille personnes consultent Athena chaque jour). Un travail
artisanal qu’il accomplit seul, sans grande rémunération. Malgré des demandes
répétées, le Département de l’instruction publique de Genève ne lui paie que
deux heures par semaine.»

En 1997, le site bilingue français-anglais donne accès à 3.500 textes
électroniques dans des domaines aussi variés que la philosophie, les sciences,
la période classique, la littérature, l’histoire, l’économie, etc. En décembre
1998, les collections comprennent 8.000 textes. Un des objectifs d’Athena est de
mettre en ligne des textes français. Une section spécifique (Swiss Authors and
Texts) regroupe les auteurs et textes suisses. On y trouve aussi un répertoire
mondial des ressources littéraires en ligne (Athena Literature Resources). Par
ailleurs, Athena propose une table de minéralogie qui est l’oeuvre de Pierre
Perroud et qui est consultée dans le monde entier.

Dans un article publié en février 1997 dans la revue Informatique-Informations,
Pierre Perroud insiste sur la complémentarité du texte électronique et du livre
imprimé. Selon lui, «les textes électroniques représentent un encouragement à la
lecture et une participation conviviale à la diffusion de la culture», notamment
pour l’étude et la recherche textuelle. Ces textes «sont un bon complément du
livre imprimé - celui-ci restant irremplaçable lorsqu’il s’agit de lire». S’il
est persuadé de l’utilité du texte électronique, le livre imprimé reste «un
compagnon mystérieusement sacré vers lequel convergent de profonds symboles: on
le serre dans la main, on le porte contre soi, on le regarde avec admiration; sa
petitesse nous rassure autant que son contenu nous impressionne; sa fragilité
renferme une densité qui nous fascine; comme l’homme il craint l’eau et le feu,
mais il a le pouvoir de mettre la pensée de celui-là à l’abri du Temps.»

= Bibliothèque électronique de Lisieux

En juin 1996 apparaît la Bibliothèque électronique de Lisieux, créée à
l’initiative d’Olivier Bogros, directeur de la Bibliothèque municipale de
Lisieux, en Normandie. Dès ses débuts, cette réalisation suscite l’intérêt de la
communauté francophone parce qu’elle montre ce qui est faisable sur l’internet
avec beaucoup de détermination et des moyens limités. Le site propose chaque
mois la version intégrale d’une oeuvre littéraire du domaine public. S’y
ajoutent les archives des mois précédents, une sélection d’oeuvres courtes du
19e siècle, une sélection du fonds documentaire de la bibliothèque (opuscules,
brochures, tirés à part), une sélection de son fonds normand (brochures et
bibliographies), et enfin un choix de sites normands et de sites littéraires
francophones.

En juin 1998, Olivier Bogros enregistre le nom de domaine bmlisieux.com et
déménage l’ensemble sur un nouveau serveur. A la même date, il relate: «Le site
a été ouvert en juin 1996. Hébergé sur les pages personnelles, limitées à 5
mégaoctets, de mon compte CompuServe, il est depuis quelques jours installé sur
un nouveau serveur où il dispose d’un espace disque plus important (15
mégaoctets) et surtout d’un nom de domaine. Les frais inhérents à l’entretien du
site sont à ma charge, la ville finance de manière indirecte le site en
acceptant que tous les textes soient choisis, saisis et relus par du personnel
municipal sur le temps de travail (ma secrétaire pour la saisie et une collègue
pour la relecture). Ce statut étrange et original fait de la Bibliothèque
électronique de Lisieux le site presque officiel de la Bibliothèque municipale,
tout en restant sous mon entière responsabilité, sans contrôle ni contrainte.

J’ai déjà rapporté dans un article paru dans le Bulletin des bibliothèques de
France (1997, n° 3, ndlr) ainsi que dans le Bulletin de l’ABF (Association des
bibliothécaires français) (n° 174, 1997, ndlr), comment l’envie de créer une
bibliothèque virtuelle avait rapidement fait son chemin depuis ma découverte de
l’informatique en 1994: création d’un bulletin électronique d’informations
bibliographiques locales (Les Affiches de Lisieux) en 1994 dont la diffusion
locale ne rencontre qu’un très faible écho, puis en 1995 début de la
numérisation de nos collections de cartes postales en vue de constituer une
photothèque numérique, saisie de nouvelles d’auteurs d’origine normande courant
1995 en imitation (modeste) du projet de l’ABU (Association des bibliophiles
universels) avec diffusion sur un BBS spécialisé.

L’idée du site internet vient d’Hervé Le Crosnier, enseignant à l’Université de
Caen et modérateur de la liste de diffusion Biblio-fr, qui monta sur le serveur
de l’université la maquette d’un site possible pour la Bibliothèque municipale
de Lisieux, afin que je puisse en faire la démonstration à mes élus. La suite
logique en a été le vote au budget primitif de 1996 d’un crédit pour l’ouverture
d’une petite salle multimédia avec accès public au réseau pour les Lexoviens
(habitants de Lisieux, ndlr). Depuis cette date un crédit d’entretien pour la
mise à niveau des matériels informatiques est alloué au budget de la
bibliothèque qui permettra cette année la montée en puissance des machines,
l’achat d’un graveur de cédéroms et la mise à disposition d’une machine
bureautique pour les lecteurs de l’établissement.... ainsi que la création en ce
début d’année d’un emploi jeune pour le développement des nouvelles
technologies.»

En juillet 1999, 370 oeuvres sont disponibles en ligne. A la même date, Olivier
Bogros explique: «Les oeuvres à diffuser sont choisies à partir d’exemplaires
conservés à la Bibliothèque municipale de Lisieux ou dans des collections
particulières mises à disposition. Les textes sont saisis au clavier et relus
par du personnel de la bibliothèque, puis mis en ligne après encodage. La mise à
jour est mensuelle (3 à 6 textes nouveaux). Par goût, mais aussi contraints par
le mode de production, nous sélectionnons plutôt des textes courts (nouvelles,
brochures, tirés à part de revues, articles de journaux...). De même nous
laissons à d’autres (bibliothèques ou éditeurs) le soin de mettre en ligne les
grands classiques de la littérature française, préférant consacrer le peu de
temps et de moyens dont nous disposons à mettre en ligne des textes excentriques
et improbables. (...) Nous réfléchissons aussi, dans le domaine patrimonial, à
un prolongement du site actuel vers les arts du livre - illustration,
typographie... - toujours à partir de notre fonds. Sinon, pour ce qui est des
textes, nous allons vers un élargissement de la part réservée au fonds normand.»

L’année 2000 marque le début du partenariat de la Bibliothèque électronique de
Lisieux avec l’Université de Toronto. Lancé officiellement en août 2000, LexoTor
est une base de données utilisant le logiciel TACTweb (TACT: text analysis
computing tools) et permettant l’interrogation en ligne des oeuvres de la
bibliothèque, ainsi que des analyses et des comparaisons textuelles. Le projet
est issu de la rencontre d’Olivier Bogros avec Russon Wooldridge, professeur au
département d’études françaises de l’Université de Toronto, lors d'un colloque
organisé par ce dernier en mai 2000 à Toronto («colloque international sur les
études françaises valorisées par les nouvelles technologies d’information et de
communication»). Deux ans après, en mai 2002, un deuxième colloque international
sur le même sujet est organisé cette fois par Olivier Bogros à Lisieux.

En septembre 2003, la bibliothèque électronique approche les 600 textes. En
décembre 2006, les collections comprennent 930 oeuvres et 20 galeries d'images,
le tout représentant 327,1 Mo  (mégaoctets) sur une capacité de stockage de 600
Mo.

= Gallica

Secteur numérique de la Bibliothèque nationale de France (BnF), Gallica est
inauguré en 1997 avec des images et textes du 19e siècle francophone, «siècle de
l’édition et de la presse moderne, siècle du roman mais aussi des grandes
synthèses historiques et philosophiques, siècle scientifique et technique». A
l’époque, le serveur stocke 2.500 livres numérisés en mode image complétés par
les 250 volumes numérisés en mode texte de la base Frantext de l’INaLF (Institut
national de la langue française). Classées par discipline, ces ressources sont
complétées par une chronologie du 19e siècle et des synthèses sur les grands
courants en histoire, sciences politiques, droit, économie, littérature,
philosophie, sciences et histoire des sciences. Le site propose aussi un
échantillon de la future iconothèque numérique, à savoir le fonds du photographe
Eugène Atget, une sélection de documents sur l’écrivain Pierre Loti, une
collection d’images de l’Ecole nationale des ponts et chaussées sur les grands
travaux liés à la révolution industrielle en France, et enfin un choix de livres
illustrés de la Bibliothèque du Musée de l’homme.

Fin 1997, Gallica se considère moins comme une banque de données numérisées que
comme un «laboratoire dont l’objet est d’évaluer les conditions d’accès et de
consultation à distance des documents numériques». Le but est d’expérimenter la
navigation dans ces collections, en permettant aussi bien le libre parcours du
chercheur ou du curieux que des recherches textuelles pointues.

Début 1998, Gallica annonce 100.000 volumes et 300.000 images pour la fin 1999,
avec un accroissement rapide des collections ensuite. Ces collections numériques
pourront également être consultées sur place à la BnF au moyen de 3.000 postes
multimédias, dont quelques centaines fonctionnent déjà début 1998. Sur les
100.000 volumes prévus, qui représenteront 30 millions de pages numérisées, plus
du tiers concerne le 19e siècle. Quant aux 300.000 images fixes, la moitié
appartient aux départements spécialisés de la BnF (Estampes et photographie,
Manuscrits, Arts du spectacle, Monnaies et médailles, etc.). L’autre moitié
provient de collections d’établissements publics (musées et bibliothèques,
Documentation française, Ecole nationale des ponts et chaussées, Institut
Pasteur, Observatoire de Paris, etc.) ou privés (agences de presse dont Magnum,
l’Agence France-Presse, Sygma, Rapho, etc.).

Par ailleurs, à la même date, le site bilingue français-anglais de la BnF est à
la fois solidement ancré dans le passé et résolument ouvert sur l’avenir, comme
en témoigne le menu principal de la page d’accueil avec ses neuf rubriques:
nouveau (à savoir les nouvelles manifestations culturelles), connaître la BnF,
les actualités culturelles, les expositions virtuelles (quatre expositions en
septembre 1998: les splendeurs persanes, le roi Charles V et son temps,
naissance de la culture française, tous les savoirs du monde), des informations
pratiques, l’accès aux catalogues de la BnF, l’information professionnelle
(conservation, dépôt légal, produits bibliographiques, etc.), la bibliothèque en
réseau (Francophonie, coopération nationale, coopération internationale, etc.),
et les autres serveurs (bibliothèques nationales, bibliothèques françaises,
universités, etc.). Enfin, bien en vue sur la page d’accueil, un logo permet
d’accéder à Gallica.

En mai 1998, la BnF revoit ses espérances à la baisse et modifie quelque peu ses
orientations premières. Jérôme Strazzulla, journaliste, écrit dans Le Figaro du
3 juin 1998 que la BnF est «passée d’une espérance universaliste,
encyclopédique, à la nécessité de choix éditoriaux pointus». Dans le même
article, le président de la BnF, Jean-Pierre Angremy, rapporte la décision du
comité éditorial de Gallica: «Nous avons décidé d’abandonner l’idée d’un vaste
corpus encyclopédique de cent mille livres, auquel on pourrait sans cesse
reprocher des trous. Nous nous orientons aujourd’hui vers des corpus
thématiques, aussi complets que possibles, mais plus restreints. (...) Nous
cherchons à répondre, en priorité, aux demandes des chercheurs et des lecteurs.»
Le premier corpus aura trait aux voyages en France, avec mise en ligne prévue en
2000. Ce corpus rassemblera des textes, estampes et photographies du 16e siècle
à 1920. Les corpus envisagés ensuite sont : Paris, les voyages en Afrique des
origines à 1920, les utopies, et les mémoires des Académies des sciences de
province.

En 2003, Gallica donne accès à tous les documents libres de droit du fonds
numérisé de la BnF, à savoir 70.000 ouvrages et 80.000 images allant du
Moyen-Age au début du 20e siècle. Mais, de l’avis de nombreux usagers, les
fichiers sont très lourds puisque les livres sont numérisés en mode image, et
l’accès en est très long. Chose tout aussi problématique, la numérisation en
mode image n’autorise pas la recherche textuelle alors que Gallica se trouve
être la plus grande bibliothèque numérique francophone du réseau en nombre de
titres disponibles en ligne. Seule une petite collection de livres (1.117 titres
en février 2004) est numérisée en mode texte.

En février 2005, Gallica compte 76.000 ouvrages. A la même date, la BnF annonce
la mise en ligne prochaine (entre 2006 et 2009) de la presse française parue
entre 1826 et 1944, à savoir 22 titres représentant 3,5 millions de pages. Début
2006, les premiers journaux disponibles en ligne sont Le Figaro (fondé en 1826),
La Croix (fondée en 1883), L'Humanité (fondée en 1904) et Le Temps (fondé en
1861 et disparu en 1942). En décembre 2006, les collections comprennent 90.000
ouvrages numérisés (fascicules de presse compris), 80.000 images et des dizaines
d'heures de ressources sonores. Gallica débute la conversion en mode texte des
livres numérisés en mode image pour pour favoriser l'accès à leur contenu.

= Online Books Page

Certains se donnent pour tâche non pas de numériser des oeuvres mais, tout aussi
utile, de répertorier celles qui sont en accès libre sur le web, en offrant au
lecteur un point d’accès commun. C’est le cas de John Mark Ockerbloom, doctorant
à l’Université Carnegie Mellon (Pittsburgh, Pennsylvanie, Etats-Unis), qui crée
l’Online Books Page pour recenser les oeuvres anglophones.

Cinq ans plus tard, en septembre 1998, il relate: «J’étais webmestre ici pour la
section informatique de la CMU (Carnegie Mellon University), et j’ai débuté
notre site local en 1993. Il comprenait des pages avec des liens vers des
ressources disponibles localement, et à l’origine l’Online Books Page était
l’une de ces pages, avec des liens vers des livres mis en ligne par des
collègues de notre département (par exemple Robert Stockton, qui a fait des
versions web de certains textes du Projet Gutenberg). Ensuite les gens ont
commencé à demander des liens vers des livres disponibles sur d’autres sites.
J’ai remarqué que de nombreux sites (et pas seulement le Projet Gutenberg ou
Wiretap) proposaient des livres en ligne, et qu’il serait utile d’en avoir une
liste complète qui permette de télécharger ou de lire des livres où qu’ils
soient sur l’internet. C’est ainsi que mon index a débuté. J’ai quitté mes
fonctions de webmestre en 1996, mais j’ai gardé la gestion de l’Online Books
Page, parce qu’entre temps je m’étais passionné pour l’énorme potentiel qu’a
l’internet de rendre la littérature accessible au plus grand nombre. Maintenant
il y a tant de livres mis en ligne que j’ai du mal à rester à jour. Je pense
pourtant poursuivre cette activité d’une manière ou d’une autre. Je suis très
intéressé par le développement de l’internet en tant que médium de communication
de masse dans les prochaines années. J’aimerais aussi rester impliqué dans la
mise à disposition gratuite de livres sur l’internet, que ceci fasse partie
intégrante de mon activité professionnelle, ou que ceci soit une activité
bénévole menée sur mon temps libre.»

Fin 1998, John Mark Ockerbloom obtient son doctorat en informatique. En 1999, il
rejoint l’Université de Pennsylvanie, où il travaille à la R&D (recherche et
développement) de la bibliothèque numérique de l'université. A la même époque,
il y transfère l’Online Books Page, tout en gardant la même présentation, très
sobre, et il poursuit son travail d’inventaire dans le même esprit. Ce
répertoire recense 20.000 textes électroniques en septembre 2003 et 25.000
textes électroniques en décembre 2006.

Une autre initiative est celle de l’Internet Public Library (IPL). Créée en mars
1995 par l’Université du Michigan (Etats-Unis) dans le cadre de la School of
Information and Library Studies, l’IPL se définit comme la première bibliothèque
publique de l’internet sur l’internet, à savoir une bibliothèque sélectionnant,
organisant et cataloguant les ressources disponibles sur l’internet, et
n’existant elle-même que sur celui-ci. Cette bibliothèque publique d’un genre
nouveau devient vite une référence. L’IPL recense de manière pratiquement
exhaustive les livres (Online Texts, avec 22.500 titres en 2006), les journaux
(Newspapers) et les magazines (Magazines) disponibles sur le web. Les livres
sont essentiellement des oeuvres du domaine public.


7.2. Bibliothèques traditionnelles


Qu’en est-il de l’internet dans les bibliothèques traditionnelles? La première
bibliothèque présente sur le web est la Bibliothèque municipale d’Helsinki
(Finlande), qui inaugure son site en février 1994. Des bibliothèques mettent sur
pied des «cyberespaces» à destination de leurs lecteurs. D’autres bibliothèques
font connaître les joyaux de leurs collections par le biais du web. Des
bibliothèques nationales unissent leurs efforts pour créer un portail commun.
Voici un récit succint de quelques réalisations très différentes.

= ARPALS, en milieu rural

Lancé en 1996, le site web de l’ARPALS a pour sous-titre: «Internet et
multimédia aux champs, ou comment amener la culture en milieu rural». L’ARPALS
(Amicale du regroupement pédagogique Armillac Labretonie Saint-Barthélémy)
regroupe les 950 habitants de quatre villages (Armillac, Labretonie, Laperche et
Saint-Barthélémy) sis dans le département du Lot-et-Garonne, dans le sud-ouest
de la France. Le regroupement pédagogique intercommunal (RPI) permet aux quatre
villages de faire école commune afin d’éviter la fermeture de classes
malheureusement fréquente en zone rurale.

L’ARPALS met sur pied d’une part des animations (repas, kermesse, bal masqué),
d’autre part une bibliothèque intercommunale de 1.300 livres en partenariat avec
la Bibliothèque départementale de prêt (BDP) de Villeneuve-sur-Lot. Le site web
présente une sélection de livres avec un résumé pour chacun d’eux. L’association
crée aussi une médiathèque ouverte 22 heures par semaine pour un public allant
de 3 à 76 ans. Quatre ordinateurs multimédias - complétés par deux imprimantes
couleur et un scanner à plat  - permettent la consultation de CD-Rom, le libre
accès à l’internet et l’utilisation de logiciels bureautiques tels que Works,
Dbase for Windows, Corel Draw, Publisher, PhotoPaint, etc.

En juin 1998, Jean-Baptiste Rey, webmestre de l’ARPALS, précise: «Le but de
notre site internet est de faire connaître l’existence de la médiathèque
intercommunale de Saint-Barthélémy et ce que nous y faisons. C’est un moyen pour
nous de démontrer l’utilité et l’intérêt de ce type de structure et la
simplicité de l’usage des nouvelles technologies dans le cadre d’une
bibliothèque. » C’est aussi un moyen de « pallier la faiblesse de notre fonds
documentaire. Internet et le multimédia nous permettent d’offrir beaucoup plus
de ressources et d’informations à nos usagers.»

= Cyberespace des Nations Unies

L’internet peut aussi relancer les bibliothèques traditionnelles. C’est le cas
de la Bibliothèque de l’Organisation des Nations Unies à Genève (ONUG), sise
dans l’imposant Palais des Nations, entre le Lac Léman et le quartier des
organisations internationales.

En juillet 1997, à l’initiative de Pierre Pelou, son directeur, la bibliothèque
ouvre un cyberespace de 24 postes informatiques en libre accès avec plusieurs
dizaines de CD-Rom en réseau et connexion à l’internet. Aménagé au premier étage
de la bibliothèque par Antonio Bustamante, architecte au Palais des Nations, ce
cyberespace est mis gratuitement à la disposition des représentants des missions
permanentes, délégués de conférences, fonctionnaires internationaux, chercheurs,
étudiants, journalistes, membres des professions libérales, ingénieurs et
techniciens, sans sélection par le rang, chose assez rare dans ce milieu. Le
premier arrivé est le premier servi.

Les 24 stations du cyberespace comprennent chacune un ordinateur multimédia, un
lecteur de CD-Rom et un casque individuel. Chaque groupe de trois ordinateurs
est relié à une imprimante laser. Chaque station permet de consulter l’internet
et sa messagerie électronique et d’utiliser le traitement de texte WordPerfect.
Sont disponibles aussi les services suivants: 1) le système optique des Nations
Unies; 2) un serveur regroupant une cinquantaine de CD-Rom en réseau; 3) la
banque de données UNBIS (United Nations Bibliographic Information System),
coproduite par les deux bibliothèques des Nations Unies à New York et à Genève;
4) le catalogue de la Bibliothèque de l’Office des Nations Unies à Genève; 5)
Profound, un ensemble de banques de données économiques et commerciales; 6)
RERO, le catalogue du Réseau romand des bibliothèques suisses (qui comprend le
catalogue de la Bibliothèque des Nations Unies de Genève à titre de bibliothèque
associée); 7) plusieurs CD-Rom multimédia (Encarta 97, L’Etat du monde, Elysée
2, Nuklear, etc.); 8) des vidéocassettes multistandards et des DVD présentant
des programmes, films et documentaires sur l’action internationale et l’action
humanitaire.

Très rapidement, de l’avis du personnel, «la consultation électronique induit
une plus grande consultation imprimée et un renforcement de toutes les formes de
recherche». Dépassant les prévisions les plus optimistes, ce cyberespace joue le
rôle de catalyseur, amenant un public nouveau, jeune, varié et enthousiaste à
consulter les collections de la bibliothèque et à utiliser ses autres services.
Suite au succès du premier cyberespace, un deuxième cyberespace ouvre en avril
1998, deux étages plus haut, avec six postes informatiques et une vue imprenable
sur le lac Léman et la chaîne des Alpes.

= Enluminures de la Bibliothèque de Lyon

Nombre de bibliothèques recèlent des joyaux que l’internet permet de faire
connaître. C'est le cas de la Bibliothèque municipale de Lyon qui, en 1998,
décide de diffuser en ligne sa collection d’enluminures, en débutant par une
collection numérique de 3.000 images, le but à terme étant une collection de
10.000 images émanant de 200 manuscrits et incunables s’échelonnant du 5e siècle
à la Renaissance. Le système utilisé est le SGBI (Système de gestion de banques
d’images) créé par la Maison de l’Orient à Lyon, sous l’égide du CNRS (Centre
national de la recherche scientifique) et de l’Université Lyon 2.

«Chaque document, signalé par son auteur, son titre et son siècle de
réalisation, représente une entité, est-il expliqué sur le site web. Par un
double clic sur l’entité choisie, on accède à un écran qui permet de feuilleter
les images du document. Chaque écran peut comporter neuf imagettes,
correspondant à des objets-images. Lorsque le document comporte davantage
d’objets-images, des flèches permettent d’accéder aux objets-images suivants.
Chaque objet-image peut comprendre plusieurs images, leur nombre étant indiqué
sous chaque objet-image. Un double-clic sur une imagette permet de voir l’image
agrandie. Dans une seconde étape, une interrogation multicritères sera
possible.»

Deux ans plus tard, en décembre 2000, le site web donne accès à la plus
importante collection française d’enluminures médiévales, soit 12.000 images
scannées dans 457 ouvrages précieux. Certains manuscrits et incunables sont à
dominante religieuse: bibles, missels, bréviaires, pontificaux, livres d’heures,
droit canon. D’autres, à dominante profane, traitent de philosophie, d’histoire,
de littérature, de sciences, etc. Les images numérisées sont les peintures en
pleine page et les miniatures, ainsi que les initiales ornées et les décors des
marges.

La bibliothèque poursuit ensuite la numérisation de ses collections
iconographiques. Début 2003, plusieurs fonds spécialisés sont en accès libre sur
le web: manuscrits, livres imprimés anciens, manuscrits autographes, collections
locales (Lyon) et régionales (Rhône-Alpes), ésotérisme et franc-maçonnerie,
fonds de la première guerre mondiale (1914-1918), estampes, affiches, livres
d’artistes, photographies, fonds Lacassagne (père de l’Ecole lyonnaise
d’anthropologie criminelle), fonds chinois, arts du spectacle, et enfin
collection jésuite des Fontaines.

= Gabriel, serveur européen

Lancé en 1997, Gabriel - acronyme de: Gateway and Bridge to Europe’s National
Libraries - est le serveur des bibliothèques nationales européennes, créé pour
offrir un point d’accès unique à leurs services et collections. Le choix de ce
nom «rappelle également les travaux de Gabriel Naudé, dont l’Advis pour dresser
une bibliothèque (Paris, 1627) est le premier travail théorique en Europe sur
les bibliothèques et qui constitue ainsi un point de départ sur les
bibliothèques de recherche modernes. Le nom Gabriel est aussi employé dans de
nombreuses langues européennes et vient de l’Ancien Testament, Gabriel étant
l’un des archanges, ou messager céleste. Il est également présent dans le
Nouveau Testament et dans le Coran.»

Plus prosaïquement, le site trilingue (anglais, français, allemand) propose des
liens hypertextes vers les services en ligne d’un certain nombre de
bibliothèques nationales (Allemagne, Autriche, Belgique, Bulgarie, Danemark,
Espagne, Estonie, Finlande, France, Grèce, Hongrie, Irlande, Islande, Italie,
Lettonie, Liechtenstein, Lituanie, Luxembourg, Macédoine, Malte, Norvège,
Pays-Bas, Pologne, Portugal, République slovaque, République tchèque, Roumanie,
Royaume-Uni, San Marino, Suède, Suisse, Turquie et Vatican). Une rubrique
informe des projets communs à plusieurs pays. La recherche sur Gabriel est
possible par pays ou par type de services: OPAC (online public access
catalogue), bibliographies nationales, catalogues collectifs nationaux, index de
périodiques, serveurs web, gophers (à savoir des systèmes d’information à base
de menus textuels à plusieurs niveaux), liste complète des services en ligne par
bibliothèque.

Comment Gabriel voit-il le jour? L’idée d’un site web commun aux bibliothèques
nationales européennes naît en 1994 à Oslo (Norvège) lors de la réunion annuelle
de la CENL (Conference of European National Librarians). En mars 1995, une
nouvelle réunion rassemble les représentants de la Koninklijke Bibliotheek
(Pays-Bas), de la British Library (Royaume-Uni) et de l’Helsinki University
Library (Finlande). Après s’être mises d’accord sur un projet pilote, ces trois
bibliothèques sont rejointes par trois autres bibliothèques nationales: Die
Deusche Bibliothek (Allemagne), la Bibliothèque nationale de France et la
Biblioteka Narodowa (Pologne).

Le projet Gabriel est approuvé en septembre 1995 lors de la réunion annuelle de
la CENL à Berne (Suisse). Un serveur pilote est lancé sur l’internet par la
British Library, qui s’occupe ensuite de sa maintenance éditoriale avec la
collaboration des Bibliothèques nationales de Finlande et des Pays-Bas. La
seconde étape se déroule entre octobre 1995 et septembre 1996. Les bibliothèques
nationales n’ayant pas participé à la phase pilote sont invitées à se joindre au
projet. Entre-temps, nombre de bibliothèques nationales débutent leur propre
site web. Lors de sa réunion à Lisbonne (Portugal) en septembre 1996, la CENL
décide de lancer officiellement Gabriel à compter du 1er janvier 1997, la
maintenance éditoriale étant assurée par la Bibliothèque nationale des Pays-Bas.

En été 2005, Gabriel est intégré à la Bibliothèque européenne. Lancée dix-huit
mois plus tôt, en janvier 2004, la Bibliothèque européenne est issue du projet
TEL (Telematics & Electronic Libraries), un projet subventionné par la
Commission européenne pendant trois ans, entre 2001 et 2003, pour étudier la
faisabilité d’un service pan-européen donnant accès aux ressources disséminées
dans toutes les bibliothèques nationales d’Europe. Ce portail commun est mis en
ligne par la CENL et hébergé par la Bibliothèque nationale des Pays-Bas. Il
offre un point d’accès unique aux catalogues de 18 bibliothèques nationales
(Allemagne, Autriche, Croatie, Danemark, Estonie, Finlande, France, Italie,
Hongrie, Lettonie, Pays-Bas, Portugal, République tchèque, Royaume-Uni, Serbie,
Slovaquie, Slovénie et Suisse), avec accès (gratuit ou payant) aux documents
électroniques de ces bibliothèques. S’y ajoutent les catalogues de la CENL et de
l’ICCU (Instituto Centrale per il Catalogo Unico delle Bibliothece Italiane).
Les collections des 25 autres bibliothèques nationales seront intégrées dans une
phase ultérieure. La Bibliothèque européenne devrait également accueillir en son
sein la future Bibliothèque numérique européenne, nouveau projet officiellement
lancé en mars 2006.

= De la conservation à la communication

Face à un web encyclopédique et des bibliothèques numériques de plus en plus
nombreuses, les jours des bibliothèques traditionnelles sont-ils comptés? La
bibliothèque numérique menace-t-elle vraiment l’existence de la bibliothèque
traditionnelle? En 1997 et 1998, plusieurs grandes bibliothèques expliquent sur
leur site que, à côté d’un secteur numérique en pleine expansion, la
communication physique des documents reste essentielle. Ces commentaires ont
depuis disparu. La bibliothèque numérique rend enfin compatibles deux objectifs
qui ne l’étaient guère, à savoir la conservation des documents et leur
communication. Le document est numérisé une bonne fois pour toutes, et le grand
public y a facilement accès. Au début des années 2000, toute bibliothèque
traditionnelle quelque peu dynamique dispose de collections numériques, soit à
usage interne, soit en accès libre sur le web.

Les problèmes de bande passante s’estompent aussi. Après avoir proposé avec
enthousiasme des images en pleine page très agréables à l’oeil mais
excessivement longues à apparaître à l’écran, nombreux sont les sites qui optent
ensuite pour des images de format réduit, avec possibilité de cliquer ou non sur
ces images pour obtenir un format plus grand. Cette présentation est souvent
restée la norme, même avec la généralisation de l’internet à débit rapide. Le
passage du petit format ou grand format est désormais rapide sinon immédiat, à
la grande satisfaction des iconographes, photographes et autres amateurs
d’images.

La raison d’être des bibliothèques nationales est de préserver un patrimoine
accumulé au fil des siècles : manuscrits, incunables, livres imprimés, journaux,
périodiques, gravures, affiches, partitions musicales, images, photos, films,
etc. Ceci n’est pas près de changer. Si le fait de disposer de supports
numériques favorise la communication, il faut bien un endroit pour stocker les
documents physiques originaux, à commencer par les Bibles de Gutenberg.

Les bibliothèques nationales archivent d’ailleurs aussi les documents
électroniques et les pages web. A la Bibliothèque nationale de France (BnF) par
exemple, il a été décidé de collecter et d’archiver les sites dont le nom de
domaine se termine en .fr, ou encore les sites dédiés aux campagnes électorales,
d’abord pour les présidentielles de 2002, puis pour les législatives de 2004, et
enfin pour les présidentielles et les législatives de 2007, en archivant et
collectant les sites institutionnels, les sites et blogs officiels des
candidats, les sites d’analyses, les sites des médias traditionnels, les sites
d’associations et de syndicats, etc.

Les bibliothèques publiques ne semblent pas près de disparaître non plus. Malgré
la curiosité suscitée par le livre numérique, les lecteurs assurent le plus
souvent qu’ils ne sont pas prêts à lire Zola ou Proust à l’écran. Question de
génération peut-être. Les enfants ayant appris à lire directement à l’écran ne
verront peut-être aucun problème à lire des livres en ligne sur des supports
électroniques en tous genres.

Si les bibliothèques nationales et les bibliothèques publiques restent toujours
utiles, la situation est différente pour les bibliothèques spécialisées. Dans
nombre de domaines où l’information la plus récente est primordiale, on
s’interroge maintenant sur la nécessité d’aligner des documents imprimés sur des
rayonnages, alors qu’il est tellement plus pratique de rassembler, stocker,
archiver, organiser, cataloguer et diffuser des documents électroniques, et de
les imprimer seulement à la demande.


7.3. Du bibliothécaire au cyberthécaire


En trois décennies, le bibliothécaire-documentaliste a vu son activité
professionnelle frappée de plein fouet par l’informatique puis par l’internet.
Comment la transition s’est-elle passée ?

= Bibliothécaires et internet

Selon Olivier Bogros, directeur de la Bibliothèque municipale de Lisieux
(Normandie), interviewé en juin 1998, l’internet est «un outil formidable
d’échange entre professionnels (tout ce qui passe par le courrier électronique,
les listes de diffusion et les forums) (...). C’est aussi pour les bibliothèques
la possibilité d’élargir leur public en direction de toute la Francophonie. Cela
passe par la mise en ligne d’un contenu qui n’est pas seulement la mise en ligne
du catalogue, mais aussi et surtout la constitution de véritables bibliothèques
virtuelles.»

L’internet est un outil de communication sans précédent. La liste de diffusion
Biblio-fr est créée en 1993 par Hervé Le Crosnier, professeur à l’Université de
Caen (Normandie) à l’intention des «bibliothécaires et documentalistes
francophones et [de] toute personne intéressée par la diffusion électronique de
l’information documentaire». La liste se veut le regard francophone des
documentalistes sur les questions soulevées par le développement de l’internet,
par exemple «la diffusion de la connaissance, l’organisation de collections de
documents électroniques, la maintenance et l’archivage de l’écrit électronique».
Biblio-fr compte 3.329 abonnés le 20 décembre 1998 et 15.136 abonnés le 20 avril
2007. Une autre liste de diffusion est ADBS-info, gérée par l’Association des
professionnels de l’information et de la documentation (ADBS), avec 7.699
abonnés le 20 avril 2007.

Des portails sont créés à l’intention des bibliothèques, par exemple Biblio On
Line. Jean-Baptiste Rey, son rédacteur et webmestre, relate en juin 1998: «Le
site dans sa première version a été lancé en juin 1996. Une nouvelle version
(l’actuelle) a été mise en place à partir du mois de septembre 1997. Le but de
ce site est d’aider les bibliothèques à intégrer internet dans leur
fonctionnement et dans les services qu’elles offrent à leur public. Le service
est décomposé en deux parties: a) une partie "professionnelle" où les
bibliothécaires peuvent retrouver des informations professionnelles et des liens
vers les organismes, les institutions, et les projets et réalisations ayant
trait à leur activité; b) une partie comprenant annuaire, mode d’emploi de
l’internet, villes et provinces, etc... permet au public des bibliothèques
d’utiliser le service Biblio On Line comme un point d’entrée vers internet.»

Le site de l’ENSSIB (Ecole nationale supérieure des sciences de l’information et
des bibliothèques) héberge la version électronique du Bulletin des bibliothèques
de France (BBF), une revue professionnelle bimensuelle dans laquelle
«professionnels et spécialistes de l’information discutent de toutes les
questions concernant la politique et le développement des bibliothèques et des
centres de documentation: évolution par secteur, grands projets,
informatisation, technologies de l’information, écrits électroniques, réseaux,
coopération, formation, gestion, patrimoine, usagers et publics, livre et
lecture...» Annie Le Saux, rédactrice de la revue, relate en juillet 1998:
«C’est en 1996 que le BBF a commencé à paraître sur internet (les numéros de
1995). (...) Nous nous servons beaucoup du courrier électronique pour prendre
contact avec nos auteurs et pour recevoir leurs articles. Cela diminue
grandement les délais. Nous avons aussi recours au web pour prendre connaissance
des sites mentionnés lors de colloques, vérifier les adresses, retrouver des
indications bibliographiques dans les catalogues des bibliothèques...»

Avec cette manne documentaire qu’offre désormais l’internet, que vont devenir
les bibliothécaires-documentalistes? Vont-ils devenir des cyberthécaires, ou
bien vont-ils progressivement disparaître parce que les usagers n’auront tout
simplement plus besoin d’eux?
Le métier de bibliothécaire n'en est pas à sa première transformation.
L’apparition de l'informatique permet au bibliothécaire de remplacer des
catalogues de fiches sur bristol par des catalogues consultables à l’écran, avec
un classement alphabétique ou systématique effectué non plus par lui-même mais
par la machine. L'informatisation du prêt et de la gestion des commandes fait
disparaître l’impressionnant stock de fiches et bordereaux nécessaires lors des
opérations manuelles. L’informatique en réseau permet ensuite la gestion de
catalogues collectifs regroupant dans une même base de données les catalogues
des bibliothèques de la même région, du même pays ou de la même spécialité,
entraînant du même coup des services très facilités pour le prêt
inter-bibliothèques et le regroupement des commandes auprès des fournisseurs.
Puis les bibliothèques ouvrent un serveur minitel pour la consultation de leur
catalogue, désormais disponible au domicile du lecteur. Ces catalogues sont
progressivement transférés sur l’internet, avec une consultation plus souple et
plus attractive que sur minitel. Outre un catalogue, les sites web des
bibliothèques offrent un ensemble de documents numérisés ou encore un choix de
liens hypertextes vers d’autres sites, évitant ainsi aux usagers de se perdre
sur la toile.

= Quelques expériences

Il ne semble donc pas que la profession soit en danger, au contraire. Piloter
les usagers sur l’internet, filtrer et organiser l’information à leur intention,
créer et gérer un site web, rechercher des documents dans des bases de données
spécialisées, telles sont désormais les tâches de nombreux bibliothécaires. Le
bibliothécaire devient cyberthécaire, comme en témoignent diverses expériences
relatées au fil des ans, par Peter Raggett en 1998, Bruno Didier en 1999,
Bakayoko Bourahima et Emmanuel Barthe en 2000, et Anissa Rachef en 2001.

Peter Raggett est directeur du centre de documentation et d’information (CDI) de
l’OCDE. Située à Paris, l’OCDE (Organisation de coopération et de développement
économiques) regroupe trente pays membres. Au noyau d’origine, constitué des
pays d’Europe de l’Ouest et d’Amérique du Nord, viennent s’ajouter le Japon,
l’Australie, la Nouvelle-Zélande, la Finlande, le Mexique, la République
tchèque, la Hongrie, la Pologne et la Corée. Réservé aux fonctionnaires de
l’organisation, le centre de documentation permet la consultation de quelque
60.000 monographies et 2.500 périodiques imprimés. En ligne depuis 1996, les
pages intranet du CDI deviennent une source d’information essentielle pour le
personnel.

«Je dois filtrer l’information pour les usagers de la bibliothèque, ce qui
signifie que je dois bien connaître les sites et les liens qu’ils proposent,
explique Peter Raggett en juin 1998. J’ai sélectionné plusieurs centaines de
sites pour en favoriser l’accès à partir de l’intranet de l’OCDE. Cette
sélection fait partie du bureau de référence virtuel proposé par la bibliothèque
à l’ensemble du personnel. Outre de nombreux liens, ce bureau de référence
contient des pages recensant les articles, monographies et sites web
correspondant aux différents projets de recherche en cours à l’OCDE, l’accès en
réseau aux CD-Rom et une liste mensuelle des nouveaux titres.»

Comment voit-il l’avenir de la profession? «L’internet offre aux chercheurs un
stock d’informations considérable. Le problème pour eux est de trouver ce qu’ils
cherchent. Jamais auparavant on n’avait senti une telle surcharge
d’informations, comme on la sent maintenant quand on tente de trouver un
renseignement sur un sujet précis en utilisant les moteurs de recherche
disponibles sur l’internet. A mon avis, les bibliothécaires auront un rôle
important à jouer pour améliorer la recherche et l’organisation de l’information
sur le réseau. Je prévois aussi une forte expansion de l’internet pour
l’enseignement et la recherche. Les bibliothèques seront amenées à créer des
bibliothèques numériques permettant à un étudiant de suivre un cours proposé par
une institution à l’autre bout du monde. La tâche du bibliothécaire sera de
filtrer les informations pour le public. Personnellement, je me vois de plus en
plus devenir un bibliothécaire virtuel. Je n’aurai pas l’occasion de rencontrer
les usagers, ils me contacteront plutôt par courriel, par téléphone ou par fax,
j’effectuerai la recherche et je leur enverrai les résultats par voie
électronique.»

En 1999, Bruno Didier est bibliothécaire à l’Institut Pasteur (Paris), une
fondation privée dont le but est la prévention et le traitement des maladies
infectieuses par la recherche, l’enseignement et des actions de santé publique.
Séduit par les perspectives qu’offre le réseau pour la recherche documentaire,
Bruno Didier crée le site web de la bibliothèque en 1996 et devient son
webmestre. «Le site web de la bibliothèque a pour vocation principale de servir
la communauté pasteurienne, relate-t-il en août 1999. Il est le support
d’applications devenues indispensables à la fonction documentaire dans un
organisme de cette taille: bases de données bibliographiques, catalogue,
commande de documents et bien entendu accès à des périodiques en ligne. C’est
également une vitrine pour nos différents services, en interne mais aussi dans
toute la France et à l’étranger. Il tient notamment une place importante dans la
coopération documentaire avec les instituts du réseau Pasteur à travers le
monde. Enfin j’essaie d’en faire une passerelle adaptée à nos besoins pour la
découverte et l’utilisation d’internet. (...) Je développe et maintiens les
pages du serveur, ce qui s’accompagne d’une activité de veille régulière. Par
ailleurs je suis responsable de la formation des usagers, ce qui se ressent dans
mes pages. Le web est un excellent support pour la formation, et la plupart des
réflexions actuelles sur la formation des usagers intègrent cet outil.»

Son activité professionnelle a changé de manière radicale, tout comme celle de
ses collègues. «C’est à la fois dans nos rapports avec l’information et avec les
usagers que les changements ont eu lieu, explique-t-il. Nous devenons de plus en
plus des médiateurs, et peut-être un peu moins des conservateurs. Mon activité
actuelle est typique de cette nouvelle situation: d’une part dégager des chemins
d’accès rapides à l’information et mettre en place des moyens de communication
efficaces, d’autre part former les utilisateurs à ces nouveaux outils. Je crois
que l’avenir de notre métier passe par la coopération et l’exploitation des
ressources communes. C’est un vieux projet certainement, mais finalement c’est
la première fois qu’on dispose enfin des moyens de le mettre en place.»

En 2000, Bakayoko Bourahima est responsable de la bibliothèque de l’ENSEA (Ecole
nationale supérieure de statistique et d’économie appliquée) d’Abidjan, un
établissement qui assure la formation de statisticiens pour les pays africains
d’expression française. Le site web de l’ENSEA est mis en ligne en avril 1999
dans le cadre du réseau REFER, mis sur pied par l’Agence universitaire de la
Francophonie (AUF) pour desservir la communauté scientifique et technique en
Europe de l’Est, en Asie et en Afrique (24 pays participants en 2002).

Bakayoko Bourahima s’occupe de la gestion de l’information scientifique et
technique et de la diffusion des travaux publiés par l’Ecole. En ce qui concerne
l’internet, «mon service a eu récemment des séances de travail avec l’équipe
informatique pour discuter de l’implication de la bibliothèque dans l’animation
du site, relate-t-il en juillet 2000. Le service de la bibliothèque travaille
aussi à deux projets d’intégration du web pour améliorer ses prestations. (...)
J’espère bientôt pouvoir mettre à la disposition de mes usagers un accès
internet pour l’interrogation de bases de données. Par ailleurs, j’ai en projet
de réaliser et de mettre sur l’intranet et sur le web un certain nombre de
services documentaires (base de données thématique, informations
bibliographiques, service de références bibliographiques, bulletin analytique
des meilleurs travaux d’étudiants...). Il s’agit donc pour la bibliothèque, si
j’obtiens les financements nécessaires pour ces projets, d’utiliser pleinement
l’internet pour donner à notre école un plus grand rayonnement et de renforcer
sa plateforme de communication avec tous les partenaires possibles. En intégrant
cet outil au plan de développement de la bibliothèque, j’espère améliorer la
qualité et élargir la gamme de l’information scientifique et technique mise à la
disposition des étudiants, des enseignants et des chercheurs, tout en étendant
considérablement l’offre des services de la bibliothèque.»

En 2000, Emmanuel Barthe est documentaliste juridique et responsable
informatique de Coutrelis & Associés, un cabinet d’avocats parisien. «Les
principaux domaines de travail du cabinet sont le droit communautaire, le droit
de l’alimentation, le droit de la concurrence et le droit douanier, écrit-il en
octobre 2000. Je fais de la saisie indexation, et je conçois et gère les bases
de données internes. Pour des recherches documentaires difficiles, je les fais
moi-même ou bien je conseille le juriste. Je suis aussi responsable informatique
et télécoms du cabinet : conseils pour les achats, assistance et formation des
utilisateurs. De plus, j’assure la veille, la sélection et le catalogage de
sites web juridiques: titre, auteur et bref descriptif. Je suis également
formateur internet juridique aussi bien à l’intérieur de mon entreprise qu’à
l’extérieur lors de stages de formation.»

Emmanuel Barthe est aussi le modérateur de Juriconnexion, une liste de
discussion créée par l’association du même nom. «L’association Juriconnexion a
pour but la promotion de l’électronique juridique, c’est-à-dire la documentation
juridique sur support électronique et la diffusion des données publiques
juridiques. Elle organise des rencontres entre les utilisateurs et les éditeurs
juridiques (et de bases de données), ainsi qu’une journée annuelle sur un thème.
Vis-à-vis des autorités publiques, Juriconnexion a un rôle de médiateur et de
lobbying à la fois. L’association, notamment, est favorable à la diffusion
gratuite sur internet des données juridiques produites par le Journal officiel
et les tribunaux. Les bibliothécaires-documentalistes juridiques représentent la
majorité des membres de l’association, suivis par certains représentants des
éditeurs et des juristes.»

En 2001, Anissa Rachef est bibliothécaire et professeur à l’Institut français de
Londres. Présents dans nombre de pays, les instituts français sont des
organismes officiels proposant des cours et manifestations culturelles. A
Londres, 5.000 étudiants environ s'inscrivent aux cours chaque année. Inaugurée
en mai 1996, la médiathèque utilise l’internet dès sa création.

«L’objectif de la médiathèque est double, explique Anissa Rachef en avril 2001.
Servir un public s’intéressant à la culture et la langue françaises et
"recruter" un public allophone en mettant à disposition des produits d’appel
tels que vidéos documentaires, livres audio, CD-Rom. La mise en place récente
d’un espace multimédia sert aussi à fidéliser les usagers. L’installation d’un
service d’information rapide a pour fonction de répondre dans un temps minimum à
toutes sortes de questions posées via le courrier électronique, ou par fax. Ce
service exploite les nouvelles technologies pour des recherches très
spécialisées. Nous élaborons également des dossiers de presse destinés aux
étudiants et professeurs préparant des examens de niveau secondaire. Je m’occupe
essentiellement de catalogage, d’indexation et de cotation. (...) J’utilise
internet pour des besoins de base. Recherches bibliographiques, commande de
livres, courrier professionnel, prêt inter-bibliothèques. C’est grâce à internet
que la consultation de catalogues collectifs, tels SUDOC (Système universitaire
de documentation) et OCLC (Online Computer Library Center), a été possible.
C’est ainsi que j’ai pu mettre en place un service de fourniture de documents
extérieurs à la médiathèque. Des ouvrages peuvent désormais être acheminés vers
la médiathèque pour des usagers ou bien à destination des bibliothèques
anglaises.»


7.4. Dans la lignée de Handicapzéro


L’existence de bibliothèques numériques représente un tournant important pour
l’accès des personnes handicapées au livre, par exemple les personnes ayant un
problème visuel, à savoir 10% de la population, ou encore les personnes à
motricité réduite, par exemple celles qui ne peuvent tenir un livre dans les
mains ou bien tourner les pages. Pour la première fois, elles peuvent accéder à
de nombreux titres du patrimoine scientifique et littéraire, et non plus
seulement à un pourcentage infime, et elles peuvent accéder aux nouveautés sans
devoir attendre des mois sinon des années.

= Premiers pas

Un département de la Library of Congress, le NLS (National Library Service for
the Blind and Physically Handicapped), lance en août 1999 un serveur permettant
aux personnes handicapées visuelles de télécharger des livres, soit au format
BRF (braille format) pour une lecture sur plage braille ou une impression sur
imprimante braille, soit au format DAISY (digital accessible information system)
pour une écoute sur synthèse vocale. A l’ouverture du service, 3.000 livres sont
disponibles pour téléchargement ou consultables en ligne. Ce service fournit
aussi un synthétiseur de parole, qui est un logiciel permettant de désagréger le
texte pour lecture sur synthèse vocale. Les collections du NLS comptent 4.700
titres en septembre 2003.

De son côté, l’association Recording For the Blind & Dyslexic (RFB&D) enregistre
4.000 titres par an avec l’aide de 5.000 volontaires officiant dans 32 studios
d’enregistrement répartis dans tout le pays. Elle est la plus grande association
de ce type aux Etats-Unis.  En 2002, la RFB&D débute la numérisation de ses
collections au format DAISY. 6.000 livres audionumériques sont disponibles sur
CD-Rom en septembre 2002, et 37.500 livres cinq ans plus tard, en septembre
2007.

Les transcriptions en braille peuvent être rapides quand existent à la fois la
motivation et les moyens. Le quatrième volet de la série best-seller de Joanne
K. Rowling, Harry Potter and the Goblet of Fire, est publié par la National
Braille Press (NBP) en juillet 2000, vingt jours seulement après sa sortie en
librairie, avec un premier tirage de 500 exemplaires. Si les 734 pages du livre
«standard» publié par Scholastic donnent 1.184 pages en braille, le prix du
livre braille n’est pas plus élevé, souligne la NBP. Ce court délai est dû à
deux facteurs. D’une part, Scholastic fournit le fichier électronique, une
initiative dont d’autres éditeurs feraient bien de s’inspirer. D’autre part, les
31 membres de l’équipe de la NBP travaillent sans relâche pendant quinze jours.
Comme pour les autres titres de la NBP, le livre est également disponible au
format PortaBook, à savoir un fichier en braille informatique abrégé stocké sur
disquette, pour lecture sur un lecteur braille portable ou au moyen d’un
logiciel braille. Sept ans plus tard, en juillet 2007, le septième et dernier
opus de la série, Harry Potter and the Deathly Hallows, est disponible chez
Bookshare.org 4 heures et 20 minutes après la parution officielle le 21 juillet
à minuit et une minute, le temps de scanner le livre et de mettre en forme les
fichiers numériques.

Dans de nombreux pays, malgré l’existence d’un matériel informatique adapté,
l’édition braille reste encore confidentielle sinon clandestine, le problème des
droits d’auteur sur les transcriptions n’étant pas résolu. Les livres en gros
caractères et sur cassettes sont eux aussi peu nombreux par rapport aux milliers
de titres paraissant chaque année, malgré les efforts dispensés par les éditeurs
spécialisés et les organismes bénévoles.

Directeur de la communication de l’association Handicapzéro, Patrice Cailleaud
explique en janvier 2001 que, si le livre numérique est «une nouvelle solution
complémentaire aux problèmes des personnes aveugles et malvoyantes, (...) les
droits et autorisations d’auteurs demeurent des freins pour l’adaptation en
braille ou caractères agrandis d’ouvrage. Les démarches sont saupoudrées,
longues et n’aboutissent que trop rarement.» D’où la nécessité impérieuse de
lois nationales et d’une loi internationale du droit d’auteur pour les personnes
atteintes de déficience visuelle.

Richard Chotin, professeur à l’Ecole supérieure des affaires (ESA) de Lille,
relate en mai 2001: «Ma fille vient d’obtenir la deuxième place à l’agrégation
de lettres modernes. Un de ses amis a obtenu la maîtrise de conférence en droit
et un autre a soutenu sa thèse de doctorat en droit également. Outre l’aspect
performance, cela prouve au moins que, si les aveugles étaient réellement aidés
(tous les aveugles n’ont évidemment pas la chance d’avoir un père qui peut
passer du temps et consacrer de l’argent) par des méthodes plus actives dans la
lecture des documents (obligation d’obtenir en braille ce qui existe en "voyant"
notamment), le handicap pourrait presque disparaître.»

Entérinée à la même date, la directive 2001/29/CE de la Commission européenne
sur «l’harmonisation de certains aspects du droit d’auteur et des droits voisins
dans la société de l’information» - plus simplement appelée directive EUCD
(European Union Copyright Directive) - insiste dans son article 43 sur la
nécessité pour les Etats membres d’adopter «toutes les mesures qui conviennent
pour favoriser l’accès aux oeuvres pour les personnes souffrant d’un handicap
qui les empêche d’utiliser les oeuvres elles-mêmes, en tenant plus
particulièrement compte des formats accessibles». C'est chose faite les années
suivantes. En France par exemple, la loi du 1er août 2006 sur le droit d'auteur
et droits voisins dans la société de l'information - plus simplement appelée loi
DADVSI - prévoit l'exception au droit d'auteur en faveur des personnes
handicapées, exception qui permet d'adapter à moindre coût des oeuvres
originales en fonction de certains handicaps pour offrir des version numériques,
des versions audio, etc.

En partenariat avec plusieurs organismes (associations, établissements
d’enseignement spécialisé, éditeurs), l'association BrailleNet - fondée en 1997
par Dominique Burger - crée en novembre 2001 le serveur Hélène pour l'édition
adaptée, afin de proposer en accès restreint des livres numériques permettant
des impressions en braille ou en gros caractères. Ces livres sont des oeuvres
littéraires récentes, des documentations techniques, des ouvrages scientifiques,
des manuels scolaires et des supports de cours adaptés, ainsi que des livres du
domaine public. Développé en partenariat avec l’INRIA Rhône-Alpes (INRIA:
Institut national de recherche en informatique et en automatique) et soutenu par
la Direction du livre et de la lecture (Ministère de la culture et de la
communication), le serveur comprend 2.700 titres en août 2007, dont 70% de
livres sous droits. Les fichiers numériques sont utilisés par 67 centres de
transcription spécialisés situés en France et dans la Francophonie.

En parallèle, la Bibliothèque Hélène ouvre en janvier 2006 à l'intention des
lecteurs déficients visuels, avec des livres pour la jeunesse, suivis ensuite
d'ouvrages de littérature générale. Les collections comptent 1 200 livres, dont
la moitié du domaine public. Catherine Desbuquois, gestionnaire de la
bibliothèque, explique en août 2007: «Le catalogue de la bibliothèque Hélène
progresse au rythme de la bonne volonté des éditeurs, qui commencent à envisager
les avantages du droit de prêt numérique, mais c'est un long travail de
pédagogie.» L'inscription est gratuite sur présentation d'un certificat médical.
A ce stade, la lecture est possible uniquement sur le bloc-notes braille Iris de
la société Eurobraille, qui coûte entre 6.595 euros et 11.910 euros selon les
modèles (prix d'août 2007), et dont le parc compte 700 unités seulement dans
toute l'Europe (en 2006). De ce fait, la bibliothèque touche un public réduit,
avec 123 lecteurs actifs et 217 lecteurs inscrits. «L'écart significatif entre
le nombre de lecteurs inscrits et le nombre de lecteurs actifs tient au fait que
beaucoup de personnes intéressées par la lecture numérique - mais non équipées
d'Iris - se sont inscrites dans l'attente de la mise en place du nouveau mode de
lecture sécurisé (PDF) auquel travaillent BrailleNet et la société Adobe
(France).» (extrait d'un document statistique de BrailleNet) Ce nouveau mode de
lecture est  sécurisé au moyen d'un certificat numérique individuel déposé sur
un eToken, à savoir un système d'authentification sur clé USB. Disponible à
l'automne 2007, il permet d'augmenter la fréquentation de la bibliothèque
puisqu'une plateforme spécifique n'est plus nécessaire.

= Bookshare.org

Lancé par Benetech en 2002, Bookshare.org est à ce jour la plus grande
bibliothèque numérique mondiale destinée aux personnes ayant un problème visuel,
et son modèle est envié dans de nombreux pays.

Benetech est une société de la Silicon Valley (Californie) qui se donne pour
objectif de mettre les technologies au service de tous les êtres humains, et pas
seulement de quelques-uns. Dès ses débuts en 2001, Benetech décide de créer une
grande bibliothèque numérique à l'intention des personnes aveugles et
malvoyantes résidant aux Etats-Unis. L’idée étant que, à l’heure du numérique,
il est beaucoup plus rapide et économique de scanner les livres récents plutôt
que de les enregister sur cassettes (version audio) ou de les transcrire en
braille embossé (version imprimée). Le temps nécessaire se compte en heures ou
en jours, et non plus en semaines ou en mois. Et le coût se trouve réduit de
75%.

Bookshare.org est mis en ligne en février 2002. Après avoir soumis la preuve
écrite de leur handicap et s’être acquittés de la somme de 25 dollars pour
l’inscription, les adhérents ont accès à la bibliothèque moyennant un abonnement
annuel de 50 dollars. Scannés par une centaine de volontaires, les 7.620 titres
disponibles au départ sont proposés en deux formats, BRF et DAISY.

L’initiative de Bookshare.org constitue une avancée considérable. L’objectif de
l’association est assez différent de celui du NLS ou du RFB&D, dont le nombre de
titres est très inférieur et dont les textes sont enregistrés par des narrateurs
sous contrat (NLS) ou par des volontaires (RFB&D), avec un processus de contrôle
garantissant une qualité optimale et entraînant un coût assez élevé par livre.
Dans le cas de Bookshare.org, le but est de proposer une grande bibliothèque de
livres scannés à moindre coût au lieu d’une petite bibliothèque de livres de
grande qualité.

Il faut compter entre deux et quatre heures pour scanner le livre, le convertir
en texte grâce à un logiciel OCR, puis vérifier le fichier électronique obtenu
pour s'assurer qu'aucune page n'a été oubliée et que les paragraphes sont
distincts les uns des autres. Un second volontaire vérifie ensuite que les
informations relatives au livre (auteur, titre, date, copyright) sont correctes
et corrige éventuellement le fichier numérique au regard du livre original, en
fonction du temps qu’il souhaite y consacrer. Un logiciel convertit enfin le
livre aux formats BRF et DAISY. L’association distingue trois niveaux de qualité
pour le livre numérisé: excellent (pratiquement sans erreur), bon (avec quelques
erreurs) et correct (avec beaucoup d’erreurs, mais lisible), ceci en fonction de
la qualité du logiciel OCR utilisé. Le coût de production est estimé à 6 dollars
US pour un roman et 50 dollars pour un manuel d'enseignement dont le contenu est
entièrement vérifié au regard de l'original.

Si, jusque-là, moins de 5% des titres publiés aux Etats-Unis sont disponibles en
version braille ou en version audio, la seule limite devient celle du nombre de
volontaires scannant les livres. Nombreux sont ceux qui scannent déjà des livres
à titre privé, pour un usage personnel ou pour un membre de leur famille aveugle
ou malvoyant.  L’association les incite donc à envoyer leurs fichiers et à
grossir les rangs de l’équipe actuelle, afin de proposer à terme plusieurs
dizaines de milliers de livres, y compris toutes les nouveautés.

Le nombre de livres et de volontaires augmente rapidement. En un an, de février
2002 à février 2003, le catalogue passe de 7.620 livres à 11.500 livres, et le
nombre de volontaires de 100 à 200 personnes.  Le catalogue comprend 14.000
livres en août 2003, 17.000 livres en février 2004, 20.000 livres en janvier
2005, 23.000 livres en juillet 2005 et 30.000 livres en décembre 2006. 5.000
nouveaux livres sont ajoutés au cours de l’année 2006, avec un rythme de 100
livres par semaine. En mars 2005, Bookshare.org débute des collections en
espagnol, la deuxième langue du pays, avec un fonds initial de 500 livres, qui
passe à 1.000 livres en décembre 2006. A la même date, la bibliothèque compte
5.000 adhérents.

Bookshare.org propose aussi des oeuvres du domaine public en téléchargement
libre. Accessibles à tous, abonnés ou non, ces oeuvres sont disponibles en
quatre formats: HTML, TXT, BRF et DAISY. Toujours en tête de file lorsqu’il
s’agit de lecture pour tous, le Projet Gutenberg met à la disposition de
l’association l’ensemble de ses collections.

En juillet 2002, Bookshare.org passe un partenariat avec le service Braille
Press du Braille Institute of America pour proposer des éditions en braille
embossé à toute personne résidant aux Etats-Unis, moyennant un coût modique. Les
transcripteurs et  correcteurs de la Braille Press produisent 13 millions de
pages par an à destination des écoles, des entreprises, des agences
gouvernementales et des particuliers. En février 2003, Bookshare.org s’associe
avec la société Pulse Data pour que ses livres puissent être facilement
téléchargés sur le BrailleNote, un assistant personnel destiné aux personnes
malvoyantes. En février 2004, Bookshare.org lance diverses formules
d’inscription à destination des écoles et des groupes. En avril 2004,
l'association LightHouse International débute une collection de livres sur
l’emploi et le développement professionnel à l'intention des membres de la
bibliothèque. En 2005, Bookshare.org procure un logiciel de synthèse vocale lors
de l’inscription. Il s’agit du Victor Reader de la société HumanWare (qui
remplace Pulse Data en janvier 2005).

Bookshare.org n’aurait pu voir le jour sans la volonté bien ancrée de l’équipe
de faire appliquer un amendement spécifique de la loi sur le copyright, le 1996
Chafee Amendment (U.S. Copyright Law, 17 U.S.C. § 121). Cet amendement autorise
la distribution d’oeuvres littéraires dans des formats adaptés, et ce auprès des
personnes handicapées visuelles, des personnes souffrant d’un handicap de
lecture (par exemple la dyslexie) et des personnes à motricité réduite (par
exemple les personnes ne pouvant tourner les pages d'un livre). Toute version
numérique doit obligatoirement inclure la mention du copyright, avec le nom de
l’éditeur détenteur des droits et la date originale de publication.

De plus, dès sa phase initiale, Bookshare.org s’assure du soutien de
l’Association of American Publishers (AAP), et prend en compte les diverses
remarques faites par l’AAP et plusieurs éditeurs. Le fait que les livres ne
puissent être utilisés que par la communauté concernée est strictement appliqué,
avec un système adapté de gestion des droits numériques - fichiers encryptés,
empreintes digitales, autres procédures de contrôle - et les infractions sont
immédiatement sanctionnées. De plus, plusieurs éditeurs et auteurs donnent à
Bookshare.org le droit de mettre leurs livres à la disposition de ses adhérents.
C’est le cas par exemple de O’Reilly Media, éditeur de manuels informatiques et
de livres sur les technologies qui, en mars 2003, passe un accord avec
Bookshare.org pour que ses livres soient intégrés aux collections dès
publication et convertis aux formats BRF et DAISY.

En mars 2006, suite à une phase pilote menée depuis 2004, Bookshare.org
s’associe officiellement avec la National Federation of the Blind (NFB) pour
proposer la lecture vocale de 125 journaux et magazines régionaux et nationaux.
Cette lecture était jusque-là réservée aux adhérents de la NFB, et possible
uniquement par téléphone au moyen d’une synthèse vocale. Les membres de
Bookshare.org peuvent désormais lire ces périodiques sur leur ordinateur. 150
titres sont disponibles en décembre 2006.

En mai 2007, Benetech lance un service international. 15% des collections - 4
600 livres en anglais et 600 livres en espagnol - sont disponibles à l'intention
des personnes ayant un problème similaire dans d'autres pays.

Qu’en est-il de Benetech, la société fondatrice de Bookshare.org? Benetech est
fondé en 2001 par Jim Fruchterman, pour prendre la suite d’Arkenstone, une
société spécialisée dans les appareils de lecture pour personnes aveugles.
Benetech conçoit, développe et met en oeuvre des technologies novatrices au
service du handicap, des droits humains, de l’alphabétisation, de l’éducation et
de la fracture numérique. Pour tous les projets qu'elle lance, la société
privilégie un retour sur investissement plus social que financier. Après avoir
lancé Bookshare.org, Benetech lance notamment Route 66, un logiciel de lecture
pour l’alphabétisation des adultes, et Martus, un logiciel sécurisé permettant
de recenser les atteintes aux droits de l’homme.

= Handicapzéro

Dans la Francophonie, l’association la plus active dans ce domaine est
Handicapzéro, qui a pour but d’améliorer l’autonomie des personnes handicapées
visuelles, à savoir 10% de la population francophone. L'association est créée en
1987 à partir du constat suivant: l’information visuelle est omniprésente, mais
les personnes aveugles et malvoyantes n’y ont pas accès. En France par exemple,
une personne sur mille est aveugle, une personne sur cent est malvoyante et une
personne sur deux a des problèmes de vue. Selon le Programme de prévention de la
cécité publié par l'Organisation mondiale de la santé (OMS) en 2001, on dénombre
1,5 million de déficients visuels, dont 112.000 personnes aveugles et 250.000
personnes dont l'acuité visuelle est en dessous de 4 dizièmes.

Mis en ligne en septembre 2000, le site web de l’association devient rapidement
le site adapté le plus visité, avec 10.000 requêtes mensuelles. Suite à cette
première expérience réussie, l’association lance en février 2003 un portail
généraliste offrant en accès libre l’information nationale et internationale en
temps réel (en partenariat avec l’Agence France-Presse), l’actualité sportive
(avec le journal L’Equipe), les programmes de télévision (avec le magazine
Télérama), la météo (avec Météo France) et un moteur de recherche (avec Google),
ainsi que toute une gamme de services dans les domaines de la santé, de
l’emploi, de la consommation, des loisirs, des sports et de la téléphonie.

Les personnes aveugles peuvent accéder au site au moyen d’une plage braille ou
d’une synthèse vocale. Les personnes malvoyantes peuvent paramétrer leur propre
«confort de lecture», à savoir la taille et la police des caractères ainsi que
la couleur du fond d’écran pour une navigation confortable, en créant puis en
modifiant leur profil selon leur potentiel visuel. Ce profil est utilisable pour
la lecture de n’importe quel texte situé sur le web, en faisant un copier-coller
dans la fenêtre prévue à cet effet. Les personnes voyantes peuvent correspondre
en braille avec des aveugles par le biais du site, l’association assurant
gratuitement la transcription et l’impression braille des courriers (4.000
caractères maximum) ainsi que leur expédition par voie postale dans les pays de
l’Union européenne. Handicapzéro entend ainsi démontrer «que, sous réserve du
respect de certaines règles élémentaires, l’internet peut devenir enfin un
espace de liberté pour tous».

L’association permet aussi à l’internaute de recevoir directement à son domicile
un document adapté à ses besoins, en braille, en caractères agrandis ou en
audio. 80.000 documents sont édités en braille et en caractères agrandis en
2005, et 90.000 documents en 2006, avec un champ d’action dans 15 pays. Par le
biais du site ou à partir du numéro vert de l’association, 20.000 personnes en
2005 et 25.000 personnes en 2006 bénéficient gratuitement des services de plus
de 200 collectivités et entreprises partenaires. Le site reçoit la visite de
200.000 visiteurs par mois. En octobre 2006, le portail adopte une nouvelle
présentation en enrichissant encore son contenu, en adoptant une navigation plus
intuitive pour la page d’accueil, en proposant des raccourcis de clavier, en
offrant un service amélioré pour l’affichage «confort de lecture», etc. Plus de
2 millions de visiteurs utilisent les services du portail au cours de l'année
2006.

= Bibliothèque numérique pour le Handicap

Handicapzéro est l'un des nombreux partenaires de la Bibliothèque numérique pour
le Handicap (BnH), un projet novateur qui voit le jour en janvier 2006 à
l’initiative de la ville de Boulogne-Billancourt (région parisienne) et sous
l'égide d'Alain Patez, bibliothécaire numérique chargé de mission pour la BnH.
Celui-ci explique: «Projet à vocation nationale, la BnH repose sur la conviction
que l'édition numérique est le moyen d'accès à l'information et à la culture le
mieux adapté aux personnes en situation de handicap. L'objectif de la BnH est de
permettre à toute personne confrontée à un handicap de télécharger à distance
des livres numériques. Ces documents sont commercialisés dans le public, donc
non libres de droit de reproduction.»

La BnH se veut un service public proposant un accès adapté à l'édition, et non
un accès à l'édition adaptée. Elle propose un service de prêt de livres
numériques et de livres audio téléchargeables et chronodégradables (durée
limitée dans le temps). En 2006, lors de sa première année de fonctionnement à
titre expérimental en tant que projet d'étude et de recherche, la bibliothèque
compte 400 lecteurs, 971 titres (60% fiction et 40% documentaires) et 1.500
prêts. Chaque livre est disponible en cinq exemplaires numériques (permettant
cinq accès simultanés) et dix exemplaires audio (permettant dix accès
simultanés). Le prêt est de trois livres pour une durée de trois semaines. Les
personnes inscrites sont pour moitié des handicapés moteurs et pour moitié des
handicapés visuels.

Comment la BnH voit-elle le jour? Alain Patez est responsable des éditions
numériques à la Médiathèque Landowski de Boulogne-Billancourt depuis juin 2000.
L’ouverture de la BnH est précédée de deux expériences. Première expérience, un
service de prêt de tablettes de lecture Cybook qui débute en février 2002 au
sein de la Médiathèque Landowski. Le public intéressé s’avère être de grands
lecteurs, plutôt âgés, et des lecteurs malvoyants. Mais la société Cytale, qui
développe et commercialise le Cybook, cesse ses activités quelques mois plus
tard. Deuxième expérience, suite à un partenariat avec la société Mobipocket,
spécialisée dans la lecture et la distribution sécurisée de livres numériques,
la Bibliothèque numérique Landowski (BnL) crée en février 2003 un service de
prêt de livres d'une durée de deux semaines. Cette bibliothèque comprend 1 100
titres, essentiellement des oeuvres de fiction (65% de livres en français, 30%
en anglais, 5% en allemand et en espagnol). La BnL totalise 256 lecteurs et 1
020 emprunts pour l’année 2005.

En 2003, la BnL passe un partenariat avec l’Association du locked-in syndrome
(ALIS), - qui regroupe des personnes tétraplégiques et muettes communiquant
uniquement par clignement de paupières - pour que les malades de l’association
puissent avoir accès à la bibliothèque numérique. De ce partenariat émerge
l’idée d’une bibliothèque à vocation nationale pour les personnes handicapées.

Début 2005, un groupe est constitué avec des représentants de la ville de
Boulogne-Billancourt, l’Association du locked-in syndrome (ALIS), l’Association
française contre les myopathies (AFM), l’Association des paralysés de France
(APF) et la Mission handicap de l’Assistance publique – Hôpitaux de Paris
(AP-HP). Ce groupe décide en mai 2005 de développer une bibliothèque numérique
pour le handicap. Après approbation à l’unanimité par le conseil municipal de
Boulogne-Billancourt en septembre 2005, la BnH est lancée en janvier 2006. Son
comité technique de pilotage est composé des associations ci-dessus, auxquelles
s’ajoutent l’Association Valentin Haüy (AVH), le Groupement pour l’insertion des
personnes handicapées physiques (GIHP) et l’Union nationale des associations de
parents et amis de personnes handicapées mentales (UNAPEI).

Qu'est-ce exactement qu'une bibliothèque numérique du handicap? Alain Patez
explique en juin 2007: «Il faut lever une ambiguïté : le livre numérique n'est
pas à proprement parler de l'édition adaptée - braille, gros caractères... -
mais fournit un accès adapté à l'édition: il nécessite en effet une médiation
technique. C'est en particulier une orthèse de lecture pour certains types de
handicap : l’accès au texte imprimé est limité pour la manipulation dans le cas
de handicaps moteurs très lourds, tels les locked-in syndrome; ces difficultés
sont supprimées avec la fonction de défilement automatique du texte.»

Le financement des livres est pris en charge par la ville de
Boulogne-Billancourt et l'Association française contre les myopathies (AFM).
L'AFM finance également l'étude sur la lecture numérique (ELUPHA - Etude de la
lecture numérique pour les personnes handicapées) et le site de la bibliothèque
au regard des différents critères d’accessibilité. La plateforme technique est
entièrement gérée par la société Numilog, spécialisée dans la distribution de
livres numériques.

Denis Zwirn, président de Numilog, explique en juin 2007: «Numilog, en tant que
principal diffuseur français de livres numériques, fournit à la Bibliothèque
numérique pour le Handicap sa plateforme technique - permettant de gérer le prêt
des livres depuis un site dédié et adapté aux personnes non voyantes - et le
catalogue des livres prêtés. Ces livres et audiolivres sont issus des accords
passés par Numilog avec de nombreux éditeurs francophones, parmi lesquels entre
autres : Gallimard, POL, Le Dilettante, Le Rocher, La Découverte, De Vive Voix,
Eyrolles ou Pearson Education France. Ce projet est particulièrement important
pour Numilog, tant par les services qu'il rend à des personnes atteintes de
diverses formes de handicap, que par le fait qu'il démontre la valeur ajoutée
apportée par le numérique à la lecture et au développement de ses accès. Il
montre également la possibilité de proposer des modèles techniques et
économiques adaptés aux personnes handicapées et satisfaisant les éditeurs, dont
les droits sont parfaitement respectés au sein de cette bibliothèque numérique.»

La bibliothèque comprend 1.098 livres en juin 2007. Ces livres sont disponibles
en plusieurs formats. Le format PRC permet la lecture sur assistant personnel
(PDA) et sur smartphone. Le format PDF peut être lu avec JAWS, un logiciel de
lecture d’écran sur plateforme Windows utilisé par 80% des personnes aveugles.
Ces deux formats permettent notamment le défilement automatique du texte – le
lecteur n’est donc plus dépendant d’un tiers pour tourner les pages - et le
grossissement de la taille des caractères. Les livres audio sont au format WMA
(Windows media audio), lisible sur les logiciels Windows Media et Real Player,
tout comme sur baladeur WMA. Tous ces livres audio sont lus par des comédiens et
parfois par les auteurs eux-mêmes, et sont disponibles par ailleurs en librairie
sous forme de CD-Rom.

En septembre 2007, l'accès à la BnH est généralisé à  toutes les personnes en
situation de handicap - aveugles et malvoyants, sourds et malentendants,
handicapés moteurs, handicapés psychiques et mentaux. Dans cette optique, Alain
Patez précise en juin 2007: «Je travaille au rapprochement de la BnH avec des
institutions ou des organisations nationales et internationales liées à la
question du handicap, de tous les handicaps. La BnH est d'abord et avant tout un
projet collaboratif, partenarial, et pourrait devenir un projet "sans
frontière". C’est notamment le cas avec la Bibliothèque nationale de France.
Concrètement, et dans un premier temps, les lecteurs handicapés pourront
télécharger des ouvrages de la BnH à partir des postes informatiques qui leur
sont dédiés.»

Il ajoute en août 2007: «La BnH s’adresse aux lecteurs quel que soit leur
handicap, leur lieu géographique ou leur support de lecture; le handicap peut
d’ailleurs être définitif ou temporaire, comme dans le cas d’une
hospitalisation. Un don important de Hewlett-Packard France va permettre à un
partenaire de la BnH, l’hôpital Raymond Poincaré de Garches (région parisienne),
de créer le premier service de prêt de portables dans un hôpital public
français. De quoi favoriser le développement de la lecture numérique en milieu
hospitalier.»


7.5. Une future bibliothèque planétaire


En 2005, alors que le Projet Gutenberg poursuit tranquillement la mise en ligne
gratuite des oeuvres du domaine public, une tâche immense entreprise depuis
nombre d’années, le livre devient un objet convoité par les géants de l’internet
que sont Google, Yahoo! et Microsoft, d’une part par souci méritoire de mettre
le patrimoine mondial à la disposition de tous, d’autre part à cause de l’enjeu
représenté par les recettes publicitaires générées par les liens commerciaux
accolés aux résultats des recherches. L’Internet Archive considère quant à elle
qu’un projet de cette ampleur ne doit pas être lié à des enjeux commerciaux et
fonde à cet effet l’Open Content Alliance (OCA) pour fédérer un grand nombre de
partenaires dans l’optique d’une bibliothèque planétaire publique.

= Google Book Search / Google Livres

Le moteur de recherche Google décide de mettre son expertise au service du
livre. En octobre 2004, il lance la première partie de son programme Google
Print, établi en partenariat avec les éditeurs pour pouvoir consulter à l’écran
des extraits de livres, puis commander les livres auprès d’une librairie en
ligne. La version bêta de Google Print est mise en ligne en mai 2005. En
novembre 2004, Google lance Google Scholar, qui indexe la production
scientifique et universitaire disponible sur le web. En décembre 2004, Google
lance la deuxième partie de son programme Google Print, cette fois à destination
des bibliothèques. Il s’agit d’un projet de bibliothèque numérique de 15
millions de livres consistant à numériser plusieurs grandes bibliothèques
partenaires, à commencer par la bibliothèque de l’Université du Michigan (dans
sa totalité, à savoir 7 millions d’ouvrages), les bibliothèques des Universités
de Harvard, de Stanford et d’Oxford, et celle de la ville de New York. Le coût
estimé au départ se situe entre 150 et 200 millions de dollars US, avec la
numérisation de 10 millions de livres sur six ans, et une durée totale de dix
ans. En août 2005, Google Print est suspendu pour un temps indéterminé pour
cause de conflit avec les éditeurs de livres sous droits.

Le programme reprend en août 2006 sous le nouveau nom de Google Book Search,
dénommé Google Livres pour la version française. Google Book Search permet des
recherches par date, titre ou éditeur. La numérisation des fonds de grandes
bibliothèques se poursuit, axée cette fois sur les livres libres de droit, tout
comme le développement de partenariats avec les éditeurs qui le souhaitent. Les
livres libres de droit sont consultables à l’écran en texte intégral, leur
contenu est copiable et l’impression est possible page à page. Ils sont
également téléchargeables sous forme de fichiers PDF et imprimables dans leur
entier. Les liens publicitaires associés aux pages de livres sont situés en haut
et à droite de l’écran. Le conflit avec les éditeurs se poursuit lui aussi,
puisque Google continue de numériser des livres sous droits sans l’autorisation
préalable des éditeurs en invoquant le droit de citation pour présenter des
extraits sur le web. L’Authors Guild et l’Association of American Publishers
(AAP) invoquent pour leur part le non respect de la législation relative au
copyright pour attaquer Google en justice. Le feuilleton judiciaire promet de
durer.

Alexandre Laumonier, directeur des éditions Kargo, participe au programme Google
Livres en France. Dans La non affaire Google Livres, suite, un texte daté de
juin 2006 et publié sur le site de l’éditeur, il propose une analyse lucide des
véritables enjeux: «Sur le fond, au-delà des discours et des rebonds, au-delà
des problèmes juridiques à régler, au-delà des intérêts économiques et/ou
corporatistes que chacun(e) essaie de défendre, au-delà des technologies encore
balbutiantes, au-delà d’un antiaméricanisme primaire qui se révèle ici et là, au
fond les véritables interrogations que posent les transformations
technologiques, notamment lorsqu’elles impliquent certaines formes de savoir,
sont celles du partage de l’information, du savoir en tant que bien commun, des
qualités et des défauts de l’écriture numérique, qui permet désormais une
maniabilité du savoir comme jamais cela n’avait été possible auparavant.
Rarement trouve-t-on, dans les quelques discussions ici et là sur Google Livres,
les mots "bien commun", "partage du savoir", "démocratisation de l’écriture"...
Car c’est bien de cela dont il s’agit, au moment où l’on constate que
l’objet-livre, qui symboliquement et dans les faits, était jusqu’à maintenant le
seul garant d’une vérité, ne l’est plus (seulement).»

Michel Valensi, directeur des éditions de l’Eclat, passe lui aussi un
partenariat avec Google Livres en août 2005. Dans Faut-il une grande cuiller
pour signer avec Google? (version 2.0), un texte en ligne daté de septembre 2006
et disponible sur le site de l’éditeur, il explique: «Le projet Google Livres
est le premier projet de grande envergure (il en existait d’autres auparavant,
parmi lesquels le lyber lui-même; il en existera d’autres dans les mois à venir)
qui permet une entrée en force du Livre dans l’internet. Après la multiplication
des sites de toutes sortes sur les sujets les plus divers et la prolifération
épidémique des blogs (dont le terme même, onomatopéïque, dit toute la
profondeur: blog!) on en revient au Livre comme source première d’information.
On permet l’accès à une partie des contenus, on permet une recherche thématique
à l’intérieur du livre, on renvoie à d’autres livres, à l’éditeur, vers des
librairies, etc., mais jamais on ne se substitue au livre, dont la forme reste
omni-présente à travers l’image même des pages consultées. Contrairement aux
sites, on ne peut ni télécharger, ni imprimer. Paradoxalement, Google Livres
indique ainsi les limites d’une information infinie (qui est un leurre) surfant
de blogs en sites, et propose un retour (qui est une avancée) vers un médium
ancien, encore aujourd’hui sans équivalent.»

Fin 2006, Google scanne 3.000 livres par jour, ce qui représenterait un million
de livres par an. Le coût estimé serait de 30 dollars par livre - d'autres
sources mentionnent un coût double - et les collections actuelles se monteraient
à 3 millions de livres. Tous chiffres à prendre avec précaution, la société ne
communiquant pas de statistiques à ce sujet. A l’exception de la New York Public
Library, les collections en cours de numérisation appartiennent toutes à des
bibliothèques universitaires (Harvard, Stanford, Michigan, Oxford, Californie,
Virginie, Wisconsin-Madison, Complutense de Madrid). S’y ajoutent début 2007 les
bibliothèques des Universités de Princeton et du Texas (Austin), ainsi que la
Biblioteca de Catalunya (Catalogne, Espagne) et la Bayerische Staatbibliothek
(Bavière, Allemagne). En mai 2007, Google annonce la participation de la
première bibliothèque francophone, la Bibliothèque cantonale et universitaire
(BCU) de Lausanne (Suisse), pour la numérisation de 100.000 titres en français,
allemand et italien publiés entre le 17e et le 19e siècle, qui seront
consultables dans leur intégralité et téléchargeables au format PDF.

= Open Content Alliance

Parallèlement est lancée une autre initiative du même genre, mais cette fois
respectueuse du copyright et sur un modèle ouvert. En janvier 2005, l’Internet
Archive s’associe à Yahoo! pour mettre sur pied l’Open Content Alliance (OCA),
une initiative visant à créer un répertoire libre et multilingue de livres
numérisés et de documents multimédias pour consultation sur n’importe quel
moteur de recherche. L’OCA est officiellement lancée en octobre 2005. Un site de
démonstration, l’Open Library, présente quelques livres numérisés issus des
fonds de l’Université de Californie. Le but de l’initiative est de s’inspirer de
Google Livres tout en évitant ses travers, à savoir la numérisation des livres
sous droits sans l’accord préalable des éditeurs, tout comme la consultation et
le téléchargement impossibles sur un autre moteur de recherche.

L’OCA regroupe de nombreux partenaires: des bibliothèques et des universités
bien sûr, mais aussi des organisations gouvernementales, des associations à but
non lucratif, des organismes culturels et des sociétés informatiques (Adobe,
Hewlett Packard, Microsoft, etc.). Les premiers partenaires sont les
bibliothèques des Universités de Californie et de Toronto, l’European Archive,
les Archives nationales du Royaume-Uni, O’Reilly Media et Prelinger Archives.
Seuls les livres appartenant au domaine public sont numérisés, pour éviter les
problèmes de copyright auxquels se heurte Google. Les collections numérisées
alimenteront la section Text Archive de l’Internet Archive.

Qu’est-ce exactement que l’Internet Archive, l'organisme pilotant l'Open Content
Alliance? Fondée en avril 1996 par Brewster Kahle à San Francisco, l’Internet
Archive a pour but premier de constituer, stocker, préserver et gérer une
«bibliothèque» de l’internet, en archivant la totalité du web tous les deux
mois, afin d’offrir un outil de travail aux universitaires, chercheurs et
historiens, et de préserver un historique de l’internet pour les générations
futures. En octobre 2001, l’Internet Archive met ses archives en accès libre sur
le web grâce à la Wayback Machine, qui permet à tout un chacun de consulter
l’historique d’un site web, à savoir le contenu et la présentation d’un site web
à différentes dates, théoriquement tous les deux mois, à partir de 1996.
L’Internet Archive débute aussi la constitution de collections numériques telles
que le Million Book Project (10.520 livres en avril 2005), des archives de films
de la période 1903-1973, des archives de concerts live récents, des archives de
logiciels, etc. Toutes ces collections sont en consultation libre sur le web.

En décembre 2006, l’Open Content Alliance franchit la barre des 100.000 livres
numérisés, avec un rythme de 12.000 nouveaux livres par mois. A la même date,
l’Internet Archive reçoit une subvention de 1 million de dollars de la part de
la Sloan Foundation pour numériser les collections du Metropolitan Museum of Art
(l’ensemble des livres et plusieurs milliers d’images) ainsi que certaines
collections de la Boston Public Library (les 3.800 livres de la bibliothèque
personnelle de John Adams, deuxième président des Etats-Unis), du Getty Research
Institute, de la John Hopkins University (une série de documents liés au
mouvement anti-esclavagiste) et de l’Université de Californie à Berkeley (une
série de documents relatifs à la ruée vers l’or). En mai 2007, l’Open Content
Alliance franchit la barre des 200.000 livres numérisés.

= Autres initiatives

Si Microsoft est l’un des partenaires de l’Open Content Alliance, il se lance
également dans l’aventure à titre personnel. En décembre 2006 est mise en ligne
aux Etats-Unis la version bêta de Live Search Books, qui permet une recherche
par mots-clés dans les livres du domaine public. Ces livres sont numérisés par
Microsoft suite à des accords passés avec de grandes bibliothèques, les
premières étant la British Library et les bibliothèques des Universités de
Californie et de Toronto, suivies en janvier 2007 par celles de la New York
Public Library et de l’Université Cornell. Microsoft compte aussi ajouter des
livres sous droits, mais uniquement avec l’accord préalable des éditeurs. Tout
comme Google Book Search, Live Search Books permet de consulter les livres avec
les mots-clés surlignés. Par la suite, il sera possible de télécharger les
livres dans leur entier au format PDF. A ce stade, la base est beaucoup moins
riche que celle de Google Book Search et son moteur de recherche plus
rudimentaire. En mai 2007, Microsoft annonce des accords avec plusieurs grands
éditeurs américains, dont Cambridge University Press et McGraw Hill.

En Europe, certains s’inquiètent d’une soi-disant hégémonie américaine. En
septembre 2005, la Commission européenne lance une vaste consultation sur un
projet de bibliothèque numérique européenne, avec réponse requise en janvier
2006. Le projet est officiellement lancé en mars 2006. «Le plan de la Commission
européenne visant à promouvoir l’accès numérique au patrimoine de l’Europe prend
forme rapidement, lit-on dans le communiqué de presse. Dans les cinq prochaines
années, au moins six millions de livres, documents et autres oeuvres culturelles
seront mis à la disposition de toute personne disposant d’une connexion à
l’internet, par l’intermédiaire de la "bibliothèque numérique européenne". Afin
de stimuler les initiatives de numérisation européennes, la Commission va
cofinancer la création d’un réseau paneuropéen de centres de numérisation. La
Commission abordera également, dans une série de documents stratégiques, la
question du cadre approprié à adopter pour assurer la protection des droits de
propriété intellectuelle dans le cadre des bibliothèques numériques.» Cette
bibliothèque numérique européenne devrait être accessible à partir de la
Bibliothèque européenne, un portail commun aux 43 bibliothèques nationales
d’Europe lancé en janvier 2004 par la CENL (Conference of European National
Librarians) et hébergé par la Bibliothèque nationale des Pays-Bas.


7.6. Chronologie


* Cette chronologie ne prétend pas à l’exhaustivité.

1971 (juillet): Le Projet Gutenberg, fondé par Michael Hart.

1993: L’Online Books Page, créée par John Mark Ockerbloom.

1993 (avril): L’ABU, créée par l’Association des bibliophiles universels (ABU).

1994: Athena, bibliothèque numérique créée par Pierre Perroud.

1995 (mars): Internet Public Library (IPL), première bibliothèque de l’internet
sur l’internet.

1995 (septembre): Gabriel, serveur des bibliothèques nationales européennes.

1996 (avril): L’Internet Archive, fondée par Brewster Kahle.

1996 (juin): La Bibliothèque électronique de Lisieux, créée par Olivier Bogros.

1996: Mise en ligne du Bulletin des bibliothèques de France (BBF).

1997: Gallica, bibliothèque numérique de la Bibliothèque nationale de France.

1997 (juillet): Cyberespace de la Bibliothèque des Nations Unies à Genève.

1998: Mise en ligne des enluminures de la Bibliothèque municipale de Lyon.

1999 (août): Serveur de la Library of Congress pour aveugles et malvoyants.

2000 (septembre): Premier site web de Handicapzéro.

2001 (octobre): Wayback Machine, sur le site de l’Internet Archive.

2002 (février): Bookshare.org, pour les personnes déficientes visuelles.

2003 (février): Portail généraliste de Handicapzéro.

2004 (janvier): Bibliothèque européenne, portail des bibliothèques nationales
européennes.

2004 (octobre): Google Print, première partie, à l’intention des éditeurs.

2004 (novembre): Google Scholar.

2004 (décembre): Google Print, deuxième partie, à l’intention des
bibliothèques.

2005 (août): Arrêt de Google Print.

2005 (octobre): Open Content Alliance, lancée par l’Internet Archive.

2005 (novembre): Bibliothèque numérique pour le Handicap (BnH).

2006 (mars): Projet de Bibliothèque numérique européenne.

2006 (août): Google Book Search (Google Livres).

2006 (décembre): Live Search Books, bibliothèque numérique de Microsoft.


8. UNE VASTE ENCYCLOPEDIE


[8.1. Outils de référence / Dictionnaires et encyclopédies / Dictionnaires de
langues / Annuaires et portails // 8.2. Bases textuelles / Quelques exemples /
Payant versus gratuit // 8.3. Catalogues collectifs / Premiers pas / WorldCat et
RedLightGreen // 8.4. Chronologie]

Au fil des ans, le web devient une vaste encyclopédie. On y trouve des
dictionnaires et des encyclopédies de renom, d'abord issus d’ouvrages imprimés
puis nés directement sur le web, ainsi que des dictionnaires de langues, des
annuaires, des portails, des bases textuelles, des catalogues collectifs, etc.
Si certains organismes facturent l’utilisation de leurs services, d’autres
tiennent à ce que les leurs soient en accès libre, pour favoriser la diffusion
libre du savoir. Des services payants passent en gratuit, à commencer par le
grand catalogue collectif mondial WorldCat.


8.1. Outils de référence


= Dictionnaires et encyclopédies

Un des premiers dictionnaires en accès libre est le Dictionnaire universel
francophone en ligne, qui répertorie 45.000 mots et 116.000 définitions tout en
présentant «sur un pied d’égalité, le français dit "standard" et les mots et
expressions en français tel qu’on le parle sur les cinq continents». Issu de la
collaboration entre Hachette et l’AUPELF-UREF (devenu depuis l’AUF - Agence
universitaire de la Francophonie), il correspond à la partie «noms communs» du
dictionnaire imprimé disponible chez Hachette. L’équivalent pour la langue
anglaise est le site Merriam-Webster OnLine, qui donne librement accès au
Collegiate Dictionary et au Collegiate Thesaurus.

En décembre 1999 apparaissent sur le web plusieurs encyclopédies de renom,
parallèlement à leur version imprimée ou CD-Rom. La première encyclopédie
francophone en accès libre est WebEncyclo, publiée par les éditions Atlas. La
recherche est possible par mots-clés, thèmes, médias (cartes, liens internet,
photos, illustrations) et idées. Un appel à contribution incite les spécialistes
d’un sujet donné à envoyer des articles, qui sont regroupés dans la section
«WebEncyclo contributif». Après avoir été libre, l’accès est ensuite soumis à
une inscription préalable gratuite.

Mis en ligne à la même date, Britannica.com propose en accès libre l’équivalent
numérique des 32 volumes de la 15e édition de l’Encyclopaedia Britannica,
parallèlement à la version imprimée et à la version sur CD-Rom, toutes deux
payantes. Le site web offre une sélection d’articles issus de 70 magazines, un
guide des meilleurs sites, un choix de livres, etc., le tout étant accessible à
partir d’un moteur de recherche unique. En septembre 2000, le site fait partie
des cent sites les plus visités au monde. En juillet 2001, la consultation
devient payante sur la base d’un abonnement mensuel ou annuel.

Décembre 1999 est aussi la date de mise en ligne de l’Encyclopaedia Universalis,
avec 28.000 articles signés par 4.000 auteurs. Si la consultation est payante
sur la base d’un abonnement annuel, de nombreux articles sont en accès libre.

La mise en ligne d’encyclopédies de renom se poursuit en 2000 et 2001.

En mars 2000, les 20 volumes de l’Oxford English Dictionary sont mis en ligne
par l’Oxford University Press (OUP). La consultation du site est payante. Le
dictionnaire bénéficie d’une mise à jour trimestrielle d’environ 1.000 entrées
nouvelles ou révisées. Deux ans après cette première expérience, en mars 2002,
l’OUP met en ligne l’Oxford Reference Online, une vaste encyclopédie conçue
directement pour le web et consultable elle aussi sur abonnement payant. Avec
60.000 pages et un million d’entrées, elle représente l’équivalent d’une
centaine d’ouvrages de référence.

A la même date, le Quid, encyclopédie en un volume actualisée une fois par an
depuis 1963, décide de mettre une partie de son contenu en accès libre sur le
web. En septembre 2000, après avoir été payante, la consultation de
l’encyclopédie Encarta de Microsoft devient libre.

Issu du terme hawaïen «wiki» (qui signifie : vite, rapide), un wiki est un site
web permettant à plusieurs utilisateurs de collaborer en ligne sur un même
projet. A tout moment, ces utilisateurs peuvent contribuer à la rédaction du
contenu, modifier ce contenu et l'enrichir en permanence. Le wiki est utilisé
par exemple pour créer et gérer des dictionnaires, des encyclopédies ou encore
des sites d'information sur un sujet donné. Le programme présent derrière
l'interface d'un wiki est plus ou moins élaboré. Un programme simple gère du
texte et des hyperliens. Un programme élaboré permet d'inclure des images, des
graphiques, des tableaux, etc. L’encyclopédie wiki la plus connue est Wikipedia.

Créée en janvier 2001 à l’initiative de Jimmy Wales et de Larry Sanger,
Wikipedia est une encyclopédie gratuite écrite collectivement et dont le contenu
est librement réutilisable. Elle est immédiatement très populaire. Sans
publicité et financée par des dons, cette encyclopédie coopérative est rédigée
par des milliers de volontaires (appelés Wikipédiens), avec possibilité de
corriger et de compléter les articles. Les articles restent la propriété de
leurs auteurs, et leur libre utilisation est régie par la licence GFDL (GNU free
documentation license). En décembre 2004, Wikipedia compte 1,3 million
d'articles rédigés par 13.000 contributeurs dans 100 langues. En décembre 2006,
elle compte 6 millions d'articles dans 250 langues, et elle est l'un de dix
sites les plus visités du web. En avril 2007, un CD payant est édité pour la
première fois avec une sélection de 2.000 articles de la version anglophone. En
mai 2007, la version francophone fête ses 500.000 articles (et un CD en 2008). A
la même date, Wikipedia compte 7 millions d'articles dans 192 langues, dont 1,8
million en anglais, 589.000 en allemand, 260.000 en portugais et 236.000 en
espagnol.

Fondée en juin 2003, la Wikimedia Foundation gère non seulement Wikipedia mais
aussi Wiktionary, un dictionnaire et thésaurus multilingue lancé en décembre
2002, puis Wikibooks (livres et manuels en cours de rédaction) lancé en juin
2003, auxquels s'ajoutent ensuite Wikiquote (répertoire de citations),
Wikisource (textes appartenant au domaine public), Wikimedia Commons (sources
multimédias), Wikispecies (répertoire d'espèces animales et végétales), Wikinews
(site d'actualités) et enfin Wikiversity (matériel d'enseignement), lancé en
août 2006. La fin 2007 voit le lancement d'un moteur de recherche dénommé Wiki
Search, qui utilise le réseau de contributeurs de Wikipedia pour classer les
sites en fonction de leur qualité.

Une nouvelle étape s’ouvre avec les débuts de Citizendium (qui se veut l’abrégé
de: The Citizens’ Compendium), une grande encyclopédie collaborative en ligne
conçue en novembre 2006 et lancée en mars 2007 (version bêta) par Larry Sanger,
co-fondateur de Wikipedia, mais qui quitte ensuite l’équipe de Wikipedia suite à
des problèmes de qualité de contenu. Citizendium est basé sur le même modèle que
Wikipedia (collaborative et gratuite) tout en évitant ses travers (vandalisme et
manque de rigueur). Les auteurs signent les articles de leur vrai nom et les
articles sont édités par des experts («editors») titulaires d'une licence
universitaire et âgés d'au moins 25 ans. De plus, des «constables» sont chargés
de la bonne marche du projet et du respect du règlement. Le jour de son
lancement (25 mars 2007), Citizendium comprend 820 auteurs et 180 experts.

Dans Why Make Room for Experts in Web 2.0?, une communication datée d’octobre
2006, Larry Sanger voit dans Citizendium l’émergence d’un nouveau modèle de
collaboration massive de dizaines de milliers d’intellectuels et scientifiques,
non seulement pour les encyclopédies, mais aussi pour les manuels
d’enseignement, les ouvrages de référence, le multimédia et les applications en
3D. Cette collaboration est basée sur le partage des connaissances, dans la
lignée du web 2.0, un concept lancé en 2004 pour caractériser les notions de
communauté et de partage et qui se manifeste d’abord par une floraison de wikis,
de blogs et de sites sociaux. D’après Larry Sanger, il importe maintenant de
créer des structures permettant des collaborations scientifiques et Citizendium
pourrait servir de prototype dans ce domaine.

Un appel qui semble déjà se concrétiser avec l’Encyclopedia of Life, nouveau
«compendium» dont le projet débute en mai 2007. Cette vaste encyclopédie
collaborative en ligne rassemblera les connaissances sur toutes les espèces
animales et végétales connues (1,8 million), y compris les espèces en voie
d’extinction, avec l’ajout de nouvelles espèces au fur et à mesure de leur
identification (il en existerait de 8 à 10 millions). Il s’agira d’une
encyclopédie multimédia permettant de ressembler textes, photos, cartes, bandes
sonores et vidéos, avec une page web par espèce, et permettant aussi d’offrir un
portail unique à des millions de documents épars, en ligne et hors ligne. Outil
d’apprentissage et d’enseignement pour une meilleure connaissance de notre
planète, cette encyclopédie sera à destination de tous: scientifiques,
enseignants, étudiants, scolaires, médias, décideurs et grand public.

Ce projet collaboratif est mené par plusieurs grandes institutions (Field Museum
of Natural History, Harvard University, Marine Biological Laboratory, Missouri
Botanical Garden, Smithsonian Institution, Biodiversity Heritage Library). Son
directeur honoraire est Edward Wilson, professeur émérite à l’Université de
Harvard, qui, dans un essai daté de 2002, est le premier à émettre le voeu d’une
telle encyclopédie. Cinq ans après, en 2007, c'est chose désormais possible
grâce aux avancées technologiques de ces dernières années, notamment les outils
logiciels permettant l’agrégation de contenu, le mash-up (à savoir le fait de
rassembler un contenu donné à partir de très nombreuses sources différentes),
les wikis de grande taille et la gestion de contenu à vaste échelle. Consortium
des dix plus grandes bibliothèques des sciences de la vie (d’autres suivront),
la Biodiversity Heritage Library a d’ores et déjà débuté la numérisation de 2
millions de documents, dont les dates de publication s’étalent sur 200 ans. En
mai 2007, date du lancement officiel du projet, on compte déjà 1,25 million de
pages traitées dans les centres de numérisation de Londres, Boston et Washington
DC, et disponibles sur le site de l’Internet Archive.

Le financement initial est assuré par la MacArthur Foundation (10 millions de
dollars) et la Sloan Foundation (2,5 millions de dollars). 100 millions de
dollars US sont nécessaires pour un financement sur dix ans, avant que
l'encyclopédie ne puisse s'autofinancer. La réalisation des pages web débute
courant 2007. L’encyclopédie fait ses débuts à la mi-2008. Opérationnelle d'ici
trois à cinq ans, elle devrait être complète - c'est-à-dire à jour - dans dix
ans.

Dans la lignée du Human Genome Project (Séquencage du génome humain), publié
pour la première fois en février 2001 et appartenant d'emblée au domaine public,
l’Encyclopedia of Life permettra non seulement de rassembler toutes les
connaissances disponibles à ce jour sur les espèces animales et végétales, mais
elle sera aussi un «macroscope» permettant de déceler les grandes tendances à
partir d’un stock considérable d’informations, à la différence du microscope qui
permet l’étude du détail. En plus de sa flexibilité et de sa diversité, elle
permettra à chacun de contribuer au contenu sous une forme s’apparentant au
wiki, ce contenu étant ensuite validé ou non par des scientifiques. La version
initiale sera d’abord en anglais avant d’être traduite en plusieurs langues par
de futurs organismes partenaires.

= Dictionnaires de langues

Des dictionnaires de langues sont en accès libre dès les débuts du web. Souvent
sommaires et de qualité inégale, ils sont répertoriés dans Travlang, un site
consacré aux voyages et aux langues créé en 1994 par Michael M. Martin.

Fondé en 1979 à Modène (Italie) par Rodrigo Vergara, Logos est une société de
traduction offrant des services dans 35 langues en 1997, avec un réseau de 300
traducteurs dans le monde. Initiative peu courante à l’époque, Logos décide de
mettre tous ses outils professionnels en accès libre sur le web. Dans un
entretien publié dans le quotidien Le Monde du 7 décembre 1997, Rodrigo Vergara
relate: «Nous voulions que nos traducteurs aient tous accès aux mêmes outils de
traduction. Nous les avons donc mis à leur disposition sur internet, et tant
qu’à faire nous avons ouvert le site au public. Cela nous a rendus très
populaires, nous a fait beaucoup de publicité. L’opération a drainé vers nous de
nombreux clients, mais aussi nous a permis d’étoffer notre réseau de traducteurs
grâce aux contacts établis à la suite de cette initiative.»

Les outils de traduction disponibles sur le web comprennent un dictionnaire
multilingue de 7,5 millions d’entrées (Logos Dictionary), une base de données de
553 glossaires (Linguistic Resources), des tables de conjugaison en 17 langues
(Conjugation of Verbs), et enfin la Wordtheque, une base de données multilingue
de 328 millions de termes issus de traductions de romans et de documents
techniques. La recherche dans la Wordtheque est possible par langue, mot, auteur
ou titre. En 2007, la Wordtheque, devenue la Logos Library, comprend 710
millions de termes. Conjugation of Verbs, devenu l’Universal Conjugator, propose
des tableaux de conjugaison dans 36 langues. Linguistic Resources offre un point
d’accès unique pour 1 215 glossaires.

Au début des années 2000, des dictionnaires bilingues et multilingues de qualité
sont progressivement mis en ligne par des organismes de renom, par exemple la
base Eurodicautom de la Commission européenne, ou encore Le Signet et le Grand
dictionnaire terminologique (GDT) de l’Office québécois de la langue française
(OQLF), tous trois en accès libre et gratuit.

Géré par le service de traduction de la Commission européenne, Eurodicautom est
un dictionnaire multilingue de termes économiques, scientifiques, techniques et
juridiques, avec une moyenne de 120.000 consultations quotidiennes. Il permet de
combiner entre elles les onze langues officielles de l’Union européenne
(allemand, anglais, danois, espagnol, finnois, français, grec, hollandais,
italien, portugais, suédois), ainsi que le latin. Fin 2003, Eurodicautom annonce
son intégration dans une base terminologique plus vaste regroupant les bases de
plusieurs institutions de l’Union européenne. Cette nouvelle base traiterait non
plus douze langues, mais une vingtaine, puisque l’Union européenne s’élargit à
l’Est et passe de 15 à 25 membres en mai 2004, pour atteindre 27 membres en
janvier 2007. Cette base terminologique voit le jour en mars 2007, sous le nom
de IATE (Inter-Active Terminology for Europe), avec 1,4 million d’entrées dans
24 langues.

Géré par l’Office québécois de la langue française (OQLF), Le Signet propose
10.000 fiches bilingues français-anglais dans le domaine des technologies de
l’information. Quant au Grand dictionnaire terminologique (GDT), il est mis en
ligne en septembre 2000. Il s’agit d’un vaste dictionnaire bilingue
français-anglais de 3 millions de termes du vocabulaire industriel, scientifique
et commercial, qui représente l’équivalent de 3.000 ouvrages de référence
imprimés. Sa mise en ligne est le résultat d’un partenariat entre l’OQLF, auteur
du dictionnaire, et Semantix, société spécialisée dans les solutions logicielles
linguistiques. Evénement célébré par de nombreux linguistes, cette mise en ligne
est un succès. Dès le premier mois, le GDT est consulté par 1,3 million de
personnes, avec des pointes de 60.000 requêtes quotidiennes. La gestion de la
base est ensuite assurée par Convera Canada. En février 2003, les requêtes sont
au nombre de 3,5 millions par mois. Une nouvelle version du GDT est mise en
ligne en mars 2003. Sa gestion est désormais assurée par l’OQLF lui-même, et non
plus par une société prestataire.

Par ailleurs, des moteurs spécifiques permettent la recherche simultanée dans
plusieurs centaines de dictionnaires. Pour ne prendre qu’un exemple, le site
OneLook, créé par Robert Ware, puise dans près de 9 millions de termes provenant
de 936 dictionnaires généralistes et spécialisés (chiffres d’avril 2007).

Des équipes de linguistes gèrent aussi des répertoires de dictionnaires, par
exemple Dictionnaires électroniques et yourDictionary.com.

Maintenu par la section française des services linguistiques centraux de la
Chancellerie fédérale suisse, Dictionnaires électroniques est un excellent
répertoire de dictionnaires monolingues (français, allemand, italien, anglais,
espagnol), bilingues et multilingues en accès libre sur le web. Ce répertoire
est complété par des listes d’abréviations et d'acronymes et par des répertoires
géographiques, essentiellement des atlas. Marcel Grangier, responsable de la
section française des services linguistiques, précise en janvier 2000: «Les
Dictionnaires électroniques ne sont qu’une partie de l’ensemble, et d’autres
secteurs documentaires ont trait à l’administration, au droit, à la langue
française, etc., sans parler des informations générales. (...) Conçu d’abord
comme un service intranet, notre site web se veut en premier lieu au service des
traducteurs opérant en Suisse, qui souvent travaillent sur la même matière que
les traducteurs de l’Administration fédérale, mais également, par certaines
rubriques, au service de n’importe quel autre traducteur où qu’il se trouve.
(...) Travailler sans internet est devenu tout simplement impossible. Au-delà de
tous les outils et commodités utilisés (messagerie électronique, consultation de
la presse électronique, activités de services au profit de la profession des
traducteurs), internet reste pour nous une source indispensable et inépuisable
d’informations dans ce que j’appellerais le "secteur non structuré" de la toile.
Pour illustrer le propos, lorsqu’aucun site comportant de l’information
organisée ne fournit de réponse à un problème de traduction, les moteurs de
recherche permettent dans la plupart des cas de retrouver le chaînon manquant
quelque part sur le réseau.»

Réputé lui aussi pour sa qualité, yourDictionary.com est cofondé par Robert
Beard en 1999, dans le prolongement de son ancien site - A Web of Online
Dictionaries - créé dès 1995. En septembre 2003, yourDictionary.com répertorie
plus de 1.800 dictionnaires dans 250 langues, ainsi que de nombreux outils
linguistiques: vocabulaires, grammaires, glossaires, méthodes de langues, etc.
En avril 2007, le répertoire comprend 2.500 dictionnaires et grammaires dans 300
langues. Soucieux de servir toutes les langues sans exception, le site propose
une section spécifique - Endangered Language Repository - consacrée aux langues
menacées d’extinction.

Publiée par SIL International (SIL: Summer Institute of Linguistics),
l’encyclopédie Ethnologue : Languages of the World existe à la fois en version
web (gratuite), sur CD-Rom (payant) et en version imprimée (payante). Barbara
Grimes, sa directrice de publication entre 1971 et 2000 (8e-14e éditions),
relate en janvier 2000: «Il s’agit d’un catalogue des langues dans le monde,
avec des informations sur les endroits où elles sont parlées, une estimation du
nombre de personnes qui les parlent, la famille linguistique à laquelle elles
appartiennent, les autres termes utilisés pour ces langues, les noms de
dialectes, d’autres informations socio-linguistiques et démographiques, les
dates des Bibles publiées, un index des noms de langues, un index des familles
linguistiques et des cartes géographiques relatives aux langues.» En avril 2007,
cette encyclopédie répertorie 6.912 langues selon plusieurs critères (pays, nom
de la langue, code de la langue attribué par le SIL, famille de langues), avec
moteur de recherche.

= Annuaires et portails

Le premier annuaire internet francophone est lancé par l’UREC (Unité réseaux du
CNRS). Créé dès janvier 1994, cet annuaire recense d’abord les sites académiques
avant d’offrir un contenu plus généraliste. Il permet aux usagers francophones
de se familiariser avec le web sans se noyer dans la masse d’informations
mondiale. Trois ans plus tard, la gestion de l’annuaire devient difficile du
fait du nombre exponentiel de sites web, notamment de sites commerciaux. De
plus, d'autres annuaires voient le jour dans l'intervalle, dont certains débutés
avec l’aide de l’UREC. En juillet 1997, considérant que sa mission est
accomplie, l’UREC arrête la mise à jour de cet annuaire généraliste. L’annuaire
retourne à sa vocation première, à savoir un annuaire spécialisé consacré à
l’enseignement supérieur et la recherche.

Patrick Rebollar est professeur de littérature française et d’informatique dans
des universités japonaises. Dès 1987, il utilise l’ordinateur pour ses activités
d’enseignement et de recherche. En 1994, il voit apparaître l’internet «dans le
champ culturel et linguistique francophone». En 1996, il débute un site web de
recherches et activités littéraires. Son site inclut une Chronologie littéraire
1848-1914 organisée par année. Une série de liens mène au texte intégral des
oeuvres publiées cette année-là, avec des notes historiques, politiques,
sociales, scientifiques, techniques et médicales, et des informations sur le
monde littéraire de l’époque.

En juillet 1998, Patrick Rebollar raconte: «Pour la Chronologie littéraire, cela
a commencé dans les premières semaines de 1997, en préparant un cours sur le
roman fin de siècle (19e). Je rassemblai alors de la documentation et m’aperçus
d’une part que les diverses chronologies trouvées apportaient des informations
complémentaires les unes des autres, et d’autre part que les quelques documents
littéraires alors présents sur le web n’étaient pas présentés de façon
chronologique, mais toujours alphabétique. Je fis donc un document unique qui
contenait toutes les années de 1848 à 1914, et l’augmentais progressivement.
Jusqu’à une taille gênante pour le chargement, et je décidai alors, fin 1997, de
le scinder en faisant un document pour chaque année. Dès le début, je l’ai
utilisé avec mes étudiants, sur papier ou sur écran. Je sais qu’ils continuent
de s’en servir, bien qu’ils ne suivent plus mon cours. J’ai reçu pas mal de
courrier pour saluer mon entreprise, plus de courrier que pour les autres
activités web que j’ai développées.»

Une autre activité web de Patrick Rebollar est la gestion de ses Signets, un
répertoire très complet des sites francophones littéraires: littérature et
recherche (normes et règles, bibliothèques et éditeurs, bibliographies), revues
littéraires, linguistique, dictionnaires, lexiques, recherche littéraire,
documents littéraires par thème et par auteur (Malraux, Sarraute, Camus, Gracq,
Robbe-Grillet, etc.), oeuvres littéraires, poésie, bandes dessinées, etc. Quelle
est l’origine de ces Signets? Patrick Rebollar relate en juillet 1998: «Animant
des formations d’enseignants à l’Institut franco-japonais de Tokyo, je voyais
d’un mauvais œil d’imprimer régulièrement des adresses pour demander aux gens de
les recopier. J’ai donc commencé par des petits documents rassemblant les
quelques adresses web à utiliser dans chaque cours (avec Word), puis me suis dit
que cela simplifierait tout si je mettais en ligne mes propres signets, vers la
fin 1996. Quelques mois plus tard, je décidai de créer les sections finales de
nouveaux signets afin de visualiser des adresses qui sinon étaient fondues dans
les catégories. Cahin-caha, je renouvelle chaque mois.»

Une Autre Terre, portail de science-fiction, débute en novembre 1996. Fabrice
Lhomme, son créateur, raconte en juin 1998: «J’ai commencé en présentant
quelques bibliographies très incomplètes à l’époque et quelques critiques.
Rapidement, j’ai mis en place les forums à l’aide d’un logiciel "maison" qui
sert également sur d’autres actuellement. (...) Ensuite, le phénomène le plus
marquant que je puisse noter, c’est la participation de plusieurs personnes au
développement du serveur alors que jusque-là j’avais tout fait par moi-même. Le
graphisme a été refait par un généreux contributeur et je reçois régulièrement
des critiques réalisées par d’autres personnes. Pour ce qui est des nouvelles,
la rubrique a eu du mal à démarrer mais une fois qu’il y en a eu un certain
nombre, j’ai commencé à en recevoir régulièrement (effet d’entraînement).
Actuellement, j’ai toutes les raisons d’être satisfait car mon site reçoit plus
de 2.000 visiteurs différents chaque mois et toutes les rubriques ont une bonne
audience. Le forum des visiteurs est très actif, ce qui me ravit. Concernant les
perspectives d’avenir, j’envisage pour très bientôt d’ouvrir une nouvelle
rubrique proposant des livres d’occasion à vendre avec l’ambition de proposer un
gros catalogue. Eventuellement, j’ouvrirai aussi une rubrique présentant des
biographies car je reçois pas mal de demandes de visiteurs en ce sens. (...) Si
l’activité de vente de livres d’occasion se montre prometteuse, il est possible
que j’en fasse une activité professionnelle sous la forme d’une
micro-entreprise.»

Le Club des poètes est un site de poésie francophone qui souhaite la «bienvenue
en territoire de poésie de la France au Chili, de Villon jusqu’à de jeunes
poètes contemporains, en passant par toutes les grandes voix de la poésie de
tous les temps et de tous les pays». Son webmestre, Blaise Rosnay, relate les
débuts du site en juin 1998: «Le site du Club des Poètes a été créé en 1996, il
s’est enrichi de nombreuses rubriques au cours des années et il est mis à jour
deux fois par semaine. L’internet nous permet de communiquer rapidement avec les
poètes du monde entier, de nous transmettre des articles et poèmes pour notre
revue, ainsi que de garder un contact constant avec les adhérents de notre
association. Par ailleurs, nous avons organisé des travaux en commun, en
particulier dans le domaine de la traduction. Nos projets pour notre site sont
d’y mettre encore et toujours plus de poésie. Ajouter encore des enregistrements
sonores de poésie dite, ainsi que des vidéos de spectacles.»

Poésie française propose pour sa part un choix de poèmes allant de la
Renaissance au début du 20e siècle. Claire Le Parco, de la société Webnet,
raconte à la même date: «Nous avons créé ce site lors de la création de notre
société, spécialisée dans la réalisation de sites internet et intranet. Nous
sommes des informaticiens qui aimons la poésie, et nous avions envie de montrer
que poésie et internet pouvaient faire bon ménage!»

Isabelle Aveline est d’abord libraire puis journaliste avant de se lancer dans
la conception de sites internet et intranet. En juin 1996, elle fonde Zazieweb,
un site indépendant conçu pour tous les amoureux du livre, professionnels et
amateurs. Selon ses propres mots, «le site Zazieweb débarque sur la toile dans
un no man’s land littéraire». Le succès est immédiat. A l'époque, Zazieweb se
présente comme une revue en ligne permettant de suivre l’actualité du livre sur
le réseau, avec un graphisme d’Olivier Cornu. On y trouve un éditorial, une
rubrique d’actualité, un agenda, une revue de presse, un annuaire des sites et
un self-service multimédia.

Puis le site évolue. Sur une nouvelle mouture du site, Isabelle Aveline
explique: «Zazieweb est un site World Wide Web professionnel et grand public
indépendant, spécifiquement dédié aux libraires, éditeurs... et grand public de
culture "livre". Conçu comme une librairie virtuelle, un espace de
documentation, d’orientation et de ressources pour un public de culture "papier"
s’intéressant à internet, il se situe aux frontières de l’écrit et de l’édition
électronique. L’originalité du traitement des rubriques par rapport à un média
papier étant évidemment de "mailler" l’information avec un site sur internet.
C’est donc un site "passerelle" vers internet pour un public curieux et
désorienté, avide de connaître ce qui se passe "de l’autre côté de l’écran".»

Quelques années plus tard, Zazieweb est un portail offrant de multiples
services. Un annuaire recense 5.000 sites littéraires. Zazieweb offre aussi «des
espaces d’échanges et de rencontres pour lecteurs communicants et actifs», avec
la possibilité pour chacun de poster des nouvelles et des commentaires. Y
participe une communauté active de plus de 10.000 membres appelés e-lecteurs.
«Qu’est-ce qu’un e-lecteur? Un e-lecteur est un lecteur actif et communicant qui
souhaite échanger, discuter, polémiquer avec d’autres lecteurs. Des espaces et
services lui sont dédiés sur Zazieweb, sur le mode interactif du web ! Zazieweb
se présente comme une interface média qui reconstruit, réinvente les relations
entre les gens, entre les textes, entre toutes ces articulations possibles qui
existent entre les personnes et les livres.»


8.2. Bases textuelles


= Quelques exemples

Le web favorise la création et la consultation de bases textuelles. Le
laboratoire ATILF (Analyse et traitement informatique de la langue française)
gère plusieurs bases textuelles payantes, par exemple Frantext, un corpus à
dominante littéraire de textes français (16e-20e), ou encore l’Encyclopédie de
Diderot, réalisée en collaboration avec le programme ARTFL (American and French
Research on the Treasury of the French Language) de l’Université de Chicago. En
accès libre, la section «Dictionnaires» de l’ATILF est une collection de
dictionnaires informatisés comprenant les dictionnaires de Robert Estienne
(1552), Jean Nicot (1606) et Pierre Bayle (1740), plusieurs éditions des
dictionnaires de l’Académie française (1694, 1798, 1835, 1932-1935, 1992) et
enfin le Trésor de la langue française informatisé (TLFi, 1971-1994).

Débutée en 1995 par l’Institut national de la langue française (INaLF, remplacé
par le laboratoire ATILF en janvier 2001), la base Frantext, en accès payant,
comprend en janvier 1998 180 millions de mots-occurrences résultant du
traitement informatique de 3.500 unités textuelles en arts, sciences et
techniques, une collection représentative  couvrant cinq siècles (16e-20e). 82
centres de recherche et bibliothèques universitaires d'Europe, d'Australie, du
Japon et du Canada y sont abonnés, ce qui représente 1.250 postes de travail,
avec une cinquantaine d’interrogations de la base par jour.

L’ARTFL est un projet commun du CNRS (Centre national de la recherche
scientifique, France) et de l’Université de Chicago (Illinois, Etats-Unis).
L’ARTFL propose notamment une version en ligne exhaustive de la première édition
(1751-1772) de l’Encyclopédie ou Dictionnaire raisonné des sciences, des métiers
et des arts de Diderot et d’Alembert. 72.000 articles rédigés par plus de 140
collaborateurs (dont Voltaire, Rousseau, Marmontel, d’Holbach, Turgot, etc.)
font de cette encyclopédie un monumental ouvrage de référence, avec 17 volumes
de texte, 11 volumes de planches, 18.000 pages et 20,8 millions de mots.
Destinée à rassembler puis divulguer les connaissances de l’époque, elle porte
la marque des courants intellectuels et sociaux du Siècle des Lumières, dont
elle aide à propager les idées.

En 1998, la base de données correspondant au premier volume est accessible sur
le web en démonstration libre, à titre expérimental. La recherche est possible
par mot, portion de texte, auteur ou catégorie, ou en combinant ces critères
entre eux. On dispose de renvois d’un article à l’autre, et de liens permettant
d’aller d’une planche au texte, ou d’aller du texte au fac-similé des pages
originales. Il reste encore à corriger les erreurs typographiques et les erreurs
d’identification dues à l’automatisation complète des procédures de saisie. Il
reste aussi à compléter la recherche textuelle par la recherche d’images,
envisagée par mot, portion de texte (légende) et catégorie. C'est chose faite
dans les années qui suivent.

L’ARTFL propose également les versions en ligne du Dictionnaire de l’Académie
française (1694-1935), de l’édition illustrée du Dictionnaire historique et
critique de Philippe Bayle (1740), du Thresor de la langue française de Jean
Nicot (1606), etc.

Autre exemple, très différent, et dû cette fois à une initiative individuelle:
le site Rubriques à Bac. Créé en 1998 par Gérard Fourestier, diplômé en science
politique et professeur de français à Nice, le site regroupe des bases de
données à destination des lycéens et des étudiants. ELLIT (Eléments de
littérature) propose des centaines d’articles sur la littérature française du
12e siècle à nos jours, ainsi qu’un répertoire d’auteurs. RELINTER (Relations
internationales) recense 2.000 liens sur le monde contemporain depuis 1945. Ces
deux bases de données sont accessibles par souscription, avec version de
démonstration en accès libre. Lancé en juin 2001 dans le prolongement d’ELLIT,
la base de données Bac-L (baccalauréat section lettres) est en accès libre.

En octobre 2000, Gérard Fourestier raconte: «Rubriques à Bac a été créé pour
répondre au besoin de trouver sur le net, en un lieu unique, l’essentiel,
suffisamment détaillé et abordable par le grand public, dans le but: a) de se
forger avant tout une culture tout en préparant à des examens probatoires à des
études de lettres - c’est la raison d’ELLIT (Eléments de littérature), base de
données en littérature française; b) de comprendre le monde dans lequel nous
vivons en en connaissant les tenants et les aboutissants, d’où RELINTER
(Relations internationales). J’ai développé ces deux matières car elles
correspondent à des études que j’ai, entre autres, faites en leur temps, et
parce qu’il se trouve que, depuis une dizaine d’années, j’exerce des fonctions
de professeur dans l’enseignement public (18 établissements de la 6e aux
terminales de toutes sections et de tous types d’établissements). (...)

Mon activité liée à internet consiste tout d’abord à en sélectionner les outils,
puis à savoir les manier pour la mise en ligne de mes travaux et, comme tout a
un coût et doit avoir une certaine rentabilité, organiser le commercial qui
permette de dégager les recettes indispensables ; sans parler du butinage
indispensable pour la recherche d’informations qui seront ensuite traitées.
(...) Mon initiative à propos d’internet n’est pas directement liée à mes
fonctions de professeur. J’ai simplement voulu répondre à un besoin plus général
et non pas étroitement scolaire, voire universitaire. Débarrassé des contraintes
du programme, puisque j’agis en mon nom et pour mon compte et non "es-qualité",
mais tout en donnant la matière grise qui me paraît indispensable pour mieux
faire une tête qu’à la bien remplir, je laisse à d’autres le soin de ne préparer
qu’à l’examen.»

Les recettes de Rubriques à Bac sont consacrées à la réalisation de projets
éducatifs en Afrique. Par la suite, Gérard Fourestier aimerait développer des
bases de données dans d’autres domaines, par exemple l’analyse sociétale,
l’analyse sémantique ou l’écologie.

= Payant versus gratuit

Bases de données payantes à destination des organismes et des particuliers qui
en ont les moyens, ou bases de données gratuites à la disposition de tous? Au
début des années 2000, les outils dont on dispose pour créer et gérer des bases
textuelles à moindres frais permettent de pencher vers la deuxième solution,
tout au moins lorsqu’il existe une véritable volonté dans ce sens.

Emilie Devriendt, élève professeur à l’Ecole normale supérieure (ENS) de Paris,
écrit en juin 2001: «L’avenir me semble prometteur en matière de publications de
ressources en ligne, même si, en France tout au moins, bon nombre de
résistances, inhérentes aux systèmes universitaire et éditorial, ne risquent pas
de céder du jour au lendemain (dans dix, vingt ans, peut-être ?). Ce qui me
donne confiance, malgré tout, c’est la conviction de la nécessité pratique
d’internet. J’ai du mal à croire qu’à terme, un chercheur puisse se passer de
cette gigantesque bibliothèque, de ce formidable outil. Ce qui ne veut pas dire
que les nouvelles pratiques de recherche liées à internet ne doivent pas être
réfléchies, mesurées à l’aune de méthodologies plus traditionnelles, bien au
contraire. Il y a une histoire de l’"outillage", du travail intellectuel, où
internet devrait avoir sa place.»

Professeur au département d’études françaises de l’Université de Toronto, Russon
Wooldridge est le créateur de ressources littéraires librement accessibles en
ligne. En 2001, sa tâche se trouve facilitée par TACTweb (TACT: text analysis
computing tools). Développé par John Bradley, informaticien au King’s College
London (Royaume-Uni), et par Geoffrey Rockwell, professeur à la McMaster
University (Canada), TACTweb est un logiciel de recherche de données textuelles
en ligne. En mai 2001, Russon Wooldridge explique: «La dernière version de
TACTweb permet dorénavant de construire des bases interactives importantes comme
les dictionnaires de la Renaissance (Estienne et Nicot ; base RenDico), les deux
principales éditions du Dictionnaire de l’Académie française (1694 et 1835), les
collections de la Bibliothèque électronique de Lisieux (base LexoTor), les
oeuvres complètes de Maupassant, ou encore les théâtres complets de Corneille,
Molière, Racine, Marivaux et Beaumarchais (base théâtre 17e-18e). À la
différence de grosses bases comme Frantext ou ARTFL nécessitant l’intervention
d’informaticiens professionnels, d’équipes de gestion et de logiciels coûteux,
TACTweb, qui est un gratuiciel que l’on peut décharger en ligne et installer
soi-même, peut être géré par le chercheur individuel créateur de ressources
textuelles en ligne.»

Autre exemple, le projet HyperNietzsche, lancé en 2000 sous la direction de
Paolo d’Iorio, chargé de recherches à l’Institut des textes et manuscrits
modernes (ITEM) du CNRS. Ce projet expérimental «vise à créer une infrastructure
de travail collectif en réseau, lit-on sur le site web. Cette infrastructure
sera d’abord appliquée et testée sur l’oeuvre de Nietzsche, pour être ensuite
généralisable à d’autres auteurs, à l’étude d’une période historique ou d’un
fonds d’archive, ou à l’analyse d’un problème philosophique. Il ne s’agit donc
pas seulement d’un projet de numérisation et de mise en réseau d’un ensemble de
textes et d’études sur Nietzsche, ni d’une édition électronique conçue comme un
produit confectionné et offert à la consultation, mais plutôt d’un instrument de
travail permettant à une communauté savante délocalisée de travailler de façon
coopérative et cumulative et de publier les résultats de son travail en réseau,
à l’échelle de la planète. Il ne s’agit pas seulement d’une bibliothèque de
textes électroniques en ligne, plus ou moins bien indexée, accompagnée d’un
moteur de recherche par mots-clés ou en texte intégral. C’est un véritable
système hypertextuel qui permet tout d’abord de disposer les textes et les
manuscrits de Nietzsche selon des ordonnancements chronologiques, génétiques ou
thématiques, et surtout d’activer un ensemble de liens hypertextuels qui relient
les sources primaires aux essais critiques produits par les chercheurs.» Le
texte intégral consacré à la présentation du projet est disponible pendant deux
ans en accès libre sur le site des PUF (Presses universitaires de France). Son
équivalent imprimé est publié en octobre 2000 dans la série «Ecritures
électroniques» de la collection «Que sais-je?».

En février 2003, Emilie Devriendt fait à nouveau le point: «Dans ce domaine que
l’on appelle parfois l’informatique littéraire, deux aspects du texte
électronique m’intéressent plus particulièrement, dans une perspective
d’enseignement ou de recherche: la publication de ressources textuelles, par
exemple littéraires, sur le web au format texte ou au format image (exemple:
Gallica ou la Bibliothèque électronique de Lisieux); la publication de bases de
données textuelles interactives, c’est à dire d’outils de recherche et d’analyse
linguistique appliqués à des textes électroniques donnés (exemple: la Nefbase du
Net des études françaises ou, si l’on veut citer une banque de données payante,
Frantext). Aujourd’hui ce type de ressources est relativement bien développé
(même si aucune "explosion" ne semble avoir eu lieu si l’on compare la situation
actuelle à celle d’il y a deux ou trois ans). En revanche, on ne peut
véritablement mesurer les usages qui en sont faits.»


8.3. Catalogues collectifs


= Premiers pas

Par le passé, on a pu reprocher aux catalogues de bibliothèques d’être austères,
peu conviviaux, et surtout de donner les références du document mais en aucun
cas l’accès  au contenu. Depuis qu’ils sont disponibles sur l’internet, les
catalogues sont moins austères et plus conviviaux. Et surtout - rêve de tous qui
commence à devenir réalité - ils permettent l’accès aux documents eux-mêmes :
textes et images dans un premier temps, extraits sonores et vidéos dans un
deuxième temps. En 1998, les 2.500 oeuvres de l’Universal Library sont
accessibles par le biais d’un système expérimental (ESS: experimental search
system) intégré ensuite au catalogue en ligne de la Library of Congress.

L’avenir des catalogues en réseau tient à l’harmonisation du format MARC
(machine readable cataloguing) par le biais de l’UNIMARC (universal machine
readable cataloguing). Créé en 1977 par l’IFLA (International Federation of
Library Associations), le format UNIMARC est un format universel permettant le
stockage et l’échange de notices bibliographiques au moyen d’une codification
des différentes parties de la notice (auteur, titre, éditeur, etc.) pour
traitement informatique. Ce format favorise les échanges de données entre la
vingtaine de formats MARC existants, qui correspondent chacun à une pratique
nationale de catalogage (INTERMARC en France, UKMARC au Royaume-Uni, USMARC aux
Etats-Unis, CAN/MARC au Canada, etc.). Les notices dans le format MARC d’origine
sont d’abord converties au format UNIMARC avant d’être converties à nouveau dans
le format MARC de destination. UNIMARC peut aussi être utilisé comme standard
pour le développement de nouveaux formats MARC.

Dans le monde anglophone, la British Library (qui utilise UKMARC), la Library of
Congress (qui utilise USMARC) et la Bibliothèque nationale du Canada (qui
utilise CAN/MARC) décident d’harmoniser leurs formats MARC nationaux. Un
programme de trois ans (décembre 1995 - décembre 1998) permet de mettre au point
un format MARC commun aux trois bibliothèques.

Parallèlement, en 1996, dans le cadre de son Programme des bibliothèques, la
Commission européenne promeut l’utilisation du format UNIMARC comme format
commun d’échange entre tous les formats MARC utilisés dans les pays de l'Union
européenne. Le groupe de travail correspondant étudie aussi les problèmes posés
par les différentes polices de caractères, ainsi que la manière d’harmoniser le
format bibliographique, tout comme le format du document lui-même pour les
documents disponibles en ligne.

A la fin des années 1990, de plus en plus de catalogues sont disponibles sur le
web, moyennant une interface spécifique. L’usager a souvent le choix entre deux
types de recherche, simple et avancée, et il peut sélectionner plusieurs
critères complémentaires tels que le nombre de notices souhaitées ou bien le
mode de classement. A réception du résultat, il dispose de plusieurs pages de
notices abrégées ou complètes. Les notices sélectionnées peuvent être copiées,
imprimées, sauvegardées ou bien envoyées par courriel. Des liens hypertextes
permettent de passer facilement d’une requête à l’autre.

Ces catalogues utilisent le protocole Z39.50, un standard de communication
permettant de chercher et récupérer des informations bibliographiques dans des
bases de données en ligne. Ce protocole est d'abord utilisé par le WAIS (wide
area information servers), un système de recherche créé au début des années 1990
pour consulter les index de bases de données situées sur des serveurs
consultables à distance, avant l'apparition des moteurs de recherche sur le web.
La version du Z39.50 en cours (norme ISO 23950: 1998) est utilisée par les
grands catalogues de bibliothèques disponibles sur le web, notamment par celui
de la Library of Congress. Ce protocole est également promu par la Commission
européenne pour favoriser son utilisation dans les pays de l’Union européenne.

Tous deux en accès libre, les catalogues de la British Library et de la Library
of Congress sont d’excellents outils bibliographiques à l’échelon mondial. En
mai 1997, la British Library lance son OPAC 97 (OPAC: online public access
catalogue), un catalogue en ligne permettant l’accès aux catalogues de ses
principales collections à Londres et à Boston Spa, soit 150 millions de
documents rassemblés depuis 250 ans. Catalogue expérimental, l’OPAC 97 est
ensuite remplacé par sa version définitive, le BLPC (British Library public
catalogue). Quant au catalogue de la Library of Congress, avec menus en anglais
et en espagnol, il s’agit du plus important catalogue en ligne au monde, avec un
grand nombre de notices en français.

Les catalogues collectifs visent à faire connaître les ressources disponibles à
l’échelon local, régional, national et international. C'est le cas par exemple
du Catalogue collectif de France (CCFr), mis en chantier en juillet 1997, qui
permet de «trouver des informations détaillées sur les bibliothèques françaises,
leurs collections et leurs fonds (anciens, locaux ou spécifiques), connaître
précisément les services qu’elles rendent et interroger leur catalogue en
ligne». A terme, annonce-t-on en 1998, il permettra aussi de «localiser des
ouvrages (documents imprimés, audio, vidéo, multimédia) dans les principales
bibliothèques et demander le prêt ou la reproduction» de documents qui seront
remis à l’usager dans la bibliothèque de son choix. C’est chose faite en
novembre 2002. En juillet 2001, la gestion du CCFr est confiée à la Bibliothèque
nationale de France (BnF). Le CCFr regroupe les catalogues de la BnF et des
bibliothèques universitaires, ainsi que les catalogues des fonds anciens (avant
1811) et locaux des bibliothèques municipales et spécialisées. En décembre 2006,
le CCFr permet de localiser 15 millions de documents dans 160 bibliothèques
françaises.

= WorldCat et RedLightGreen

L’internet facilite la gestion de catalogues collectifs mondiaux. Le but premier
de ces catalogues est d’éviter de cataloguer à nouveau un document déjà
catalogué par une bibliothèque partenaire. Si le catalogueur trouve la notice du
livre qu’il est censé cataloguer, il la copie pour l’inclure dans le catalogue
de sa propre bibliothèque. S’il ne trouve pas la notice, il la crée, et cette
notice est aussitôt disponible pour les catalogueurs officiant dans d'autres
bibliothèques. Ce pari osé est tenté par deux associations, l’OCLC (Online
Computer Library Center) dès 1971 et le RLG (Research Libraries Group) dès 1980.
Quelque trente ans plus tard, l’OCLC et le RLG gèrent de gigantesques bases
bibliographiques alimentées par leurs adhérents, permettant ainsi aux
bibliothécaires d’unir leurs forces par-delà les frontières.

Fondée en 1967 dans l’Ohio (Etats-Unis), l’OCLC gère l’OCLC Online Union
Catalog, débuté en 1971 pour desservir les bibliothèques universitaires de
l’Etat de l’Ohio. Ce catalogue collectif s’étend ensuite à tout le pays, puis au
monde entier. Désormais appelé WorldCat, et disponible sur abonnement payant, il
comprend en 1998 38 millions de notices en 370 langues, avec translittération
pour les caractères non romains des langues JACKPHY (japonais, arabe, chinois,
coréen, persan, hébreu et yiddish). L’accroissement annuel est de 2 millions de
notices. WorldCat utilise huit formats bibliographiques correspondant aux
catégories suivantes: livres, périodiques, documents visuels, cartes et plans,
documents mixtes, enregistrements sonores, partitions, documents informatiques.
En 2005, 61 millions de notices bibliographiques produites par 9.000
bibliothèques et centres de documentation sont disponibles dans 400 langues. En
2006, 73 millions de notices provenant de 10.000 bibliothèques dans 112 pays
permettent de localiser un milliard de documents. Une notice type contient la
description du document ainsi que des informations sur son contenu: table des
matières, résumé, couverture, illustrations et courte biographie de l’auteur.

Devenue la plus grande base mondiale de données bibliographiques, WorldCat migre
progressivement sur le web, d’abord en rendant la consultation des notices
possible par le biais de plusieurs moteurs de recherche (Yahoo!, Google et bien
d’autres), puis en lançant en août 2006 une version web (bêta) de WorldCat en
accès libre, avec en sus un accès direct aux documents électroniques des
bibliothèques membres: livres du domaine public, articles, photos, livres audio,
musique et vidéos.

Fondé en 1980 en Californie, avec une antenne à New York, le RLG (Research
Library Group, qui devient ensuite le Research Libraries Group) se donne pour
but d’améliorer l’accès à l’information dans le domaine de l’enseignement et de
la recherche. Le RLG débute son propre catalogue sous le nom de RLIN (Research
Libraries Information Network). Contrairement à WorldCat qui n'accepte qu'une
notice par document, RLIN accepte plusieurs notices pour un même document. En
1998, RLIN comprend 82 millions de notices  dans 365 langues, avec des notices
translittérées pour les documents publiés dans les langues JACKPHY et en
cyrillique. Des centaines de dépôts d’archives, bibliothèques de musées,
bibliothèques universitaires, bibliothèques publiques, bibliothèques de droit,
bibliothèques techniques, bibliothèques d’entreprise et bibliothèques d’art
utilisent RLIN pour le catalogage, le prêt inter-bibliothèques et le contrôle
des archives et des manuscrits. Une des spécialités de RLIN est l’histoire de
l’art. Alimentée par 65 bibliothèques spécialisées, une section spécifique
comprend 100.000 notices de catalogues d’expositions et 168.500 notices de
documents iconographiques (photographies, diapositives, dessins, estampes et
affiches). Cette section inclut aussi les 110.000 notices de la base
bibliographique Scipio, consacrée aux catalogues de ventes.

En 2003, RLIN change de nom pour devenir le RLG Union Catalog, qui comprend
désormais 126 millions de notices bibliographiques correspondant à 42 millions
de documents (livres, cartes, manuscrits, films, bandes sonores, etc.). Au
printemps 2004, une version web du catalogue est disponible en accès libre sous
le nom de RedLightGreen, suite à une phase pilote lancée à l’automne 2003. La
mise en ligne de RedLightGreen inaugure une ère nouvelle. C’est en effet la
première fois qu’un catalogue collectif mondial est en accès libre. Destiné en
premier lieu aux étudiants du premier cycle universitaire, RedLightGreen propose
130 millions de notices, avec des liens vers des informations spécifiques aux
bibliothèques d’un campus donné (cote, version en ligne si celle-ci existe,
etc.). Après trois ans d’activité, en novembre 2006, les usagers sont invités à
utiliser WorldCat, dont la version web (bêta) est en accès libre depuis août
2006. A la même date, le RLG est intégré à OCLC.


8.4. Chronologie


* Cette chronologie ne prétend pas à l’exhaustivité.

1967: Fondation d’OCLC (Online Computer Library Center).

1971: Débuts de l’OCLC Online Union Catalog, qui deviendra WorldCat.

1977: Lancement de l’UNIMARC, format universel de catalogage.

1980: Débuts du RLG (Research Libraries Group) et de son catalogue RLIN
(Research Libraries Information Network).

1994: Travlang, répertoire de dictionnaires de langues créé par Michael Martin.

1994 (janvier): Annuaire de l’UREC (Unité réseaux du CNRS).

1995: Frantext, base textuelle de l’Institut national de la langue française
(INaLF).

1995: A Web of Online Dictionaries, créé par Robert Beard.

1996: Adoption de l’UNIMARC par la Communauté européenne.

1996: Site de recherches et activités littéraires de Patrick Rebollar.

1996: Une Autre Terre, portail de science-fiction, créé par Fabrice Lhomme.

1996 (juin): Zazieweb, site d’actualité littéraire créé par Isabelle Aveline.

1997 (mai): OPAC (online public access catalogue) de la British Library.

1997 (juillet): Débuts du Catalogue collectif de France (CCFr).

1997 (décembre): Outils linguistiques de la société de traduction Logos.

1998: Rubriques à Bac, site créé par Gérard Fourestier.

1998: ESS (experimental search system) de la Library of Congress.

1999: yourDictionary.com, portail cofondé par Robert Beard.

1999 (décembre): WebEncyclo, première encyclopédie francophone en accès libre.

1999 (décembre): Britannica.com, première encyclopédie anglophone en accès
libre.

1999 (décembre): Mise en ligne de l’Encyclopaedia Universalis.

2000: Mise en ligne du Quid.

2000: HyperNietzsche, lancé sous la direction de Paolo d’Iorio.

2000 (mars): Mise en ligne de l’Oxford English Dictionary.

2000 (septembre): L’encyclopédie Encarta de Microsoft en accès libre.

2000 (septembre): Mise en ligne du Grand dictionnaire terminologique (GDT) par
l'Office québécois de la langue française (OQLF).

2001 (janvier): Laboratoire ATILF (Analyse et traitement informatique de la
langue française).

2001 (janvier): Wikipedia, grande encyclopédie coopérative fondée par Jimmy
Wales et Larry Sanger.

2003: RLIN devient le RLG Union Catalog, puis le RedLightGreen.

2004 (printemps): RedLightGreen, premier catalogue collectif mondial en accès
libre.

2006 (août): Le catalogue collectif mondial WorldCat en accès libre en version
bêta.

2006 (novembre): Disparition de RedLightGreen, et fusion du RLG avec l’OCLC.

2007 (mars): Citizendium, grande encyclopédie collaborative en ligne fondée par
Larry Sanger.

2007 (mai): Encyclopedia of Life, grande encyclopédie collaborative des sciences
de la vie  fondée par un consortium.


9. LE LIVRE NUMERIQUE


[9.1. Formats de lecture / PDF - Adobe Reader / OeB (Open eBook) / LIT -
Microsoft Reader / PRC - Mobipocket Reader / PDB - Palm Reader / BRF (braille
format) / DAISY - livre audio // 9.2. Une tâche titanesque / Une voie tracée par
la presse / Divers canaux de diffusion / Une progression régulière // 9.3.
Chronologie]

Si le livre numérique commercial naît en mai 1998, il ne se développe
véritablement qu’à compter du deuxième semestre 2000, en tant que mode de
diffusion complémentaire de l’imprimé. De plus en plus de titres sont
disponibles en deux versions, imprimée et numérique, puis, au fil des ans,
uniquement en version numérique. Tout comme la version imprimée, la version
numérique se décline en plusieurs formats, y compris au format braille et audio.
En 2007, on compte des dizaines de milliers de livres numériques lisibles sur
ordinateur, PDA, téléphone, smartphone et tablette électronique.


9.1. Formats de lecture


Un format de lecture correspond à un logiciel donné. Un logiciel de lecture
permet de lire à l’écran un livre numérique tout en bénéficiant des
fonctionnalités suivantes: navigation hypertexte au sein du livre ou vers le
web, changement de la taille et de la police des caractères, surlignage de
certains passages, recherche de mots dans l’ensemble du texte, ajout de signets
ou de notes personnelles, choix de l’affichage en mode paysage ou portrait,
agrandissement des figures et graphiques, sommaire affiché en permanence, et
enfin formatage automatique du livre et de sa pagination en fonction de la
taille de l’écran (ce qu’on appelle le reflowing). Lancés en 2001 pour contrôler
l’accès aux livres numériques sous droits, des systèmes de DRM (digital rights
management) permettent la gestion des droits numériques en fonction des
consignes données par l’éditeur.

= PDF / Adobe Reader

Lancé en juin 1993 par la société Adobe et diffusé gratuitement, le premier
logiciel de lecture du marché est l’Acrobat Reader, qui permet de lire des
documents au format PDF (portable document format). Ce format permet de figer
les documents numériques dans une présentation donnée, pour conserver les
polices, les couleurs et les images du document source, quelle que soit la
plateforme utilisée pour le créer et pour le lire. Vendu en parallèle, le
logiciel Adobe Acrobat permet de convertir n’importe quel document au format
PDF.

Au fil des ans, le format PDF devient la norme internationale de diffusion des
documents électroniques, pour impression ou pour transfert d'une plateforme à
l'autre. Des millions de documents PDF sont présents sur le web pour lecture ou
téléchargement, ou bien transitent par courriel sous forme de fichier attaché.
L’Acrobat Reader pour ordinateur est progressivement disponible dans plusieurs
langues et pour diverses plateformes (Windows, Mac, Linux, Unix). En 2001, Adobe
lance également un Acrobat Reader pour assistant personnel (PDA), utilisable sur
le Palm Pilot (en mai 2001) puis sur le Pocket PC (en décembre 2001).

Face à la concurrence représentée par le Microsoft Reader (lancé en avril 2000),
Adobe annonce en août 2000 l’acquisition de la société Glassbook, spécialisée
dans les logiciels de distribution de livres numériques à destination des
éditeurs, des libraires, des distributeurs et des bibliothèques. Adobe passe
aussi un partenariat avec Amazon.com et Barnes & Noble.com afin de proposer des
titres lisibles sur l’Acrobat Reader et le Glassbook Reader.

En janvier 2001, Adobe met sur le marché deux nouveaux logiciels. Le premier,
gratuit, est l’Acrobat eBook Reader. Il permet de lire les fichiers PDF de
livres numériques sous droits, avec gestion des droits par l’Adobe Content
Server. Il permet aussi d’ajouter des notes et des signets, de choisir
l’orientation de lecture des livres (paysage ou portrait), ou encore de
visualiser leur couverture dans une bibliothèque personnelle. Il utilise la
technique d’affichage CoolType et comporte un dictionnaire intégré. Le deuxième
logiciel, payant, est l’Adobe Content Server, destiné aux éditeurs et
distributeurs. Il s’agit d’un logiciel serveur de contenu assurant le
conditionnement, la protection, la distribution et la vente sécurisée de livres
numériques au format PDF. Ce système de gestion des droits numériques (DRM)
permet de contrôler l’accès aux livres numériques sous droits, et donc de gérer
les droits d’un livre selon les consignes données par le gestionnaire des
droits, par exemple en autorisant ou non l’impression ou le prêt. En avril 2001,
Adobe conclut un partenariat avec la grande librairie en ligne Amazon, qui met
en vente 2.000 livres numériques lisibles sur l’Acrobat eBook Reader : titres de
grands éditeurs, guides de voyages, livres pour enfants, etc.

En dix ans, entre 1993 et 2003, l’Acrobat Reader aurait été téléchargé 500
millions de fois. Ce logiciel gratuit est désormais disponible dans de
nombreuses langues et pour de nombreuses plateformes (Windows, Mac, Linux, Unix,
Palm OS, Pocket PC, Symbian OS, etc.). En mai 2003, l’Acrobat Reader (5e
version) fusionne avec l’Acrobat eBook Reader (2e version) pour devenir l’Adobe
Reader (débutant à la version 6), qui permet de lire aussi bien les fichiers PDF
standard que les fichiers PDF sécurisés.

Fin 2003, Adobe ouvre sa librairie en ligne, dénommée Digital Media Store, avec
les titres au format PDF de grands éditeurs (HarperCollins Publishers, Random
House, Simon & Schuster, etc.) et des versions électroniques de journaux et
magazines (The New York Times, Popular Science, etc.). Adobe lance aussi Adobe
eBooks Central, un service permettant de lire, publier, vendre et prêter des
livres numériques, et l’Adobe eBook Library, qui se veut un prototype de
bibliothèque de livres numériques. Très complet, le site Planet PDF permet de
suivre l’actualité du PDF. En novembre 2004, l’Adobe Content Server est remplacé
par l’Adobe LiveCycle Policy Server. Les versions récentes d’Adobe Acrobat
permettent de créer des PDF compatibles avec le standard Open eBook (OeB).

= OeB (Open eBook)

Les années 1998 et 1999 sont marquées par la prolifération des formats, dans le
cadre d’un marché naissant promis à une expansion rapide. Aux formats classiques
- format texte, Word, HTML (hypertext markup language), XML (extensible markup
language) et PDF (portable document format) - s’ajoutent des formats
propriétaires créés par plusieurs sociétés pour une lecture sur leurs propres
logiciels: Glassbook Reader, Rocket eBook Reader, Peanut Reader, Franklin
Reader, logiciel de lecture Cytale, Gemstar eBook Reader, Palm Reader, etc., ces
logiciels correspondant le plus souvent à un appareil donné: Rocket eBook,
eBookMan (Franklin), Cybook (Cytale), Gemstar eBook, Palm Pilot, etc.

Inquiets pour l’avenir du livre numérique qui, à peine né, propose presque
autant de formats que de titres, certains insistent sur l’intérêt, sinon la
nécessité, d’un format unique. A l’instigation du NIST (National Institute of
Standards and Technology, Etats-Unis) naît en juin 1998 l’Open eBook Initiative,
qui constitue un groupe de travail de 25 personnes (Open eBook Authoring Group).
Ce groupe élabore l’OeB (open ebook), un format basé sur le langage XML pour
normaliser le contenu, la structure et la présentation des livres numériques. Le
format OeB est défini par l’OeBPS (open ebook publication structure), dont la
version 1.0 est disponible en septembre 1999. L’OeB est un format ouvert et
gratuit appartenant au domaine public. Le format original est toutefois utilisé
uniquement par les professionnels de la publication, puisqu’il doit être associé
à un système de gestion des droits numériques (DRM).

Fondé en janvier 2000 à la suite de l’Open eBook Initiative, l’Open eBook Forum
(OeBF) est un consortium industriel international regroupant constructeurs,
concepteurs de logiciels, éditeurs, libraires et spécialistes du numérique (85
participants en 2002) pour développer le format OeB et définir les versions
successives de l’OeBPS. En avril 2005, l’OeBF change de nom pour devenir l’IDPF
(International Digital Publishing Forum). La version en cours de l’OeBPS date de
décembre 2006.

= LIT / Microsoft Reader

Lancé en avril 2000, le Microsoft Reader est un logiciel permettant la lecture
de livres numériques au format LIT (abrégé du terme anglais «literature»),
lui-même basé sur le format OeB. Dans un premier temps, le Microsoft Reader
équipe uniquement le Pocket PC, l’assistant personnel lancé à la même date par
Microsoft. Quatre mois plus tard, en août 2000, il est utilisable sur toute
plateforme Windows, et donc aussi bien sur ordinateur que sur assistant
personnel. Ses caractéristiques sont un affichage utilisant la technologie
Cleartype, le choix de la taille des caractères, la mémorisation des mots-clés
pour des recherches ultérieures, et l’accès d’un clic au Merriam-Webster
Dictionary.

Ce logiciel étant téléchargeable gratuitement, Microsoft facture les éditeurs et
distributeurs pour l’utilisation de sa technologie de gestion des droits
numériques (DRM), et touche une commission sur la vente de chaque titre. La
gestion des droits numériques s’effectue au moyen du Microsoft DAS Server (DAS:
digital asset server). Microsoft passe aussi des partenariats avec les grandes
librairies en ligne - Barnes & Noble.com en janvier 2000 puis Amazon.com en août
2000 – pour la vente de livres numériques lisibles sur le Microsoft Reader.
Barnes & Noble.com ouvre son secteur numérique en août 2000, suivi par
Amazon.com en novembre 2000. En novembre 2002, le Microsoft Reader est
disponible pour tablette PC, dès la commercialisation de cette nouvelle machine
par 14 fabricants.

= PRC / Mobipocket Reader

Face à Adobe et Microsoft, un nouvel acteur s’impose rapidement sur le marché,
sur un créneau bien spécifique, la lecture sur assistant personnel (PDA). Créée
à Paris en mars 2000 par Thierry Brethes et Nathalie Ting, la société Mobipocket
est financée en partie par Viventures, branche de la multinationale Vivendi.
Mobipocket conçoit le logiciel de lecture Mobipocket Reader, qui permet la
lecture de fichiers au format PRC (Palm resource). Gratuit et disponible en
plusieurs langues (français, anglais, allemand, espagnol, italien), il est
«universel», c’est-à-dire utilisable sur tout assistant personnel. En octobre
2001, le Mobipocket Reader reçoit l’eBook Technology Award de la Foire
internationale du livre de Francfort. A la même date, Franklin passe un
partenariat avec Mobipocket pour l’installation du Mobipocket Reader sur
l’eBookMan, l’assistant personnel multimédia de Franklin, au lieu du partenariat
prévu à l’origine entre Franklin et Microsoft pour l’installation du Microsoft
Reader.

Si le Mobipocket Reader est gratuit, d’autres logiciels Mobipocket sont payants.
Le Mobipocket Web Companion est un logiciel d’extraction automatique de contenu
auprès des sites de presse partenaires. Le Mobipocket Publisher permet aux
particuliers (qui ont le choix entre une version privée gratuite et une version
standard payante) et aux éditeurs (version professionnelle payante) de créer des
livres numériques sécurisés utilisant la technologie Mobipocket DRM, afin de
contrôler l’accès aux livres numériques sous droits. Dans un souci d’ouverture
aux autres formats, le Mobipocket Publisher permet de créer des livres
numériques non seulement au format PRC, lu par le Mobipocket Reader, mais aussi
au format LIT, lu par le Microsoft Reader.

En avril 2002, la société lance une version du Mobipocket Reader pour ordinateur
personnel. Au printemps 2003, le Mobipocket Reader équipe tous les assistants
personnels du marché, à savoir les gammes Palm Pilot, Pocket PC, eBookMan et
Psion, et les smartphones de Nokia et Sony Ericsson. A la même date, le nombre
de livres lisibles sur le Mobipocket Reader se chiffre à 6.000 titres dans
plusieurs langues (français, anglais, allemand, espagnol), distribués soit sur
le site de Mobipocket soit dans les librairies partenaires.

= PDB / Palm Reader

En mars 1996, la société Palm lance le Palm Pilot, un assistant personnel (PDA)
dont le succès est immédiat. Son système d’exploitation est le Palm OS,
développé par PalmSource, une division de Palm. Sept ans après, malgré la
concurrence de la gamme Pocket PC de Microsoft - lancée en avril 2000 - et des
modèles de Hewlett-Packard, Sony, Handspring, Toshiba et Casio, le Palm Pilot
reste l’assistant personnel le plus utilisé au monde, avec 23 millions de
machines vendues entre 1996 et 2002. Quant au Palm OS, il équipe 55% des
assistants personnels vendus en 2002, l'autre grande plateforme étant le système
d’exploitation Pocket PC de Microsoft, avec un pourcentage de 25,7%.

En mars 2001, Palm aborde le marché du livre numérique en faisant l’acquisition
de Peanutpress.com, éditeur et distributeur de livres numériques pour assistant
personnel, qui appartenait jusque-là à la société netLibrary. Le Peanut Reader
devient le Palm Reader, et le format correspondant devient le format PDB (Palm
database). D’abord utilisable uniquement sur les gammes Palm et Pocket PC, le
Palm Reader est utilisable sur ordinateur en juillet 2002. Le Palm Pilot est
équipé des logiciels de lecture Palm Reader et Mobipocket Reader.

Lors du rachat de Peanutpress.com par Palm en mars 2001, les 2.000 titres
numériques de Peanutpress.com - des best-sellers et des titres de grands
éditeurs - sont transférés dans la librairie numérique Palm Digital Media. A la
même date, le roman Dreamcatcher de Stephen King, dont on connaît l’intérêt pour
le numérique, sort simultanément en version imprimée chez Simon & Schuster et en
version numérique chez Palm Digital Media. Sont disponibles aussi chez Palm les
versions numériques des best-sellers de Michael Connelly, Michael Crichton, Anne
Rice et Scott Turow, ainsi que le Wall Street Journal et plusieurs magazines. En
mars 2002, Everything’s Eventual, le nouveau recueil de nouvelles de Stephen
King, est lancé simultanément par Scribner, une subdivision de Simon & Schuster,
et par Palm Digital Media, qui en propose un extrait en téléchargement libre. En
juillet 2002, les collections de Palm Digital Media se chiffrent à 5.500 titres
dans plusieurs langues. En 2003, le catalogue approche les 10.000 titres. Palm
Digital Media devient ensuite le Palm eBook Store.

= BRF (braille format)

Alphabet tactile inventé en 1829 par le français Louis Braille, le braille est
le seul système d’écriture accessible aux aveugles. Il s’agit d’un système de
six points composé de deux colonnes de trois points. La combinaison de ces six
points permet de former toutes les lettres de l’alphabet, les signes de
ponctuation et les symboles. Le braille est d’abord embossé sur papier au moyen
d’une tablette et d’un poinçon. A partir de la fin des années 1970, il est
produit à l’aide d’un afficheur braille piézo-électrique. A cet afficheur
succède la machine Perkins avec son clavier de six touches. Puis apparaît le
matériel informatique, par exemple le bloc-notes braille, qui sert à la fois de
machine à écrire le braille et, quand il est connecté à un ordinateur, d’écran
tactile permettant de lire l’écran de l’ordinateur. Le braille informatique peut
s’afficher sur huit points, ce qui permet d’augmenter par quatre le nombre de
combinaisons possibles.

Le document numérique permettant de dissocier contenu et présentation, on peut
désormais influer sur cette dernière en changeant la taille et la police des
caractères, en inversant les contrastes, en supprimant la couleur ou en la
modifiant, afin de faciliter la lecture des personnes malvoyantes. Les personnes
aveugles peuvent convertir le contenu au format BRF ou alors au format DAISY
pour lecture sur synthèse vocale.

= DAISY / livre audio

Quelle est l’origine du format DAISY, acronyme de «digital audio information
system» puis de «digital accessible information system»?

Depuis trente ans sinon plus, les personnes ayant un problème visuel peuvent
écouter des livres sur bandes magnétiques ou sur cassettes, enregistrés au fil
des ans par des centaines de bénévoles. Elles peuvent aussi se procurer en
librairie des livres audio sur cassettes et - plus récemment - sur CD-Rom.
Certains éditeurs proposent en effet une petite série de titres parfois
enregistrés par les auteurs eux-mêmes.

Fait récent, les technologies numériques permettent désormais de convertir
automatiquement un document numérique en «voix» pour lecture sur synthèse
vocale.

Si les techniques de synthèse vocale s’améliorent, de l’avis de certains, rien
ne remplace une vraie voix, c’est-à-dire une voix humaine, moins parfaite
peut-être, mais vivante, avec des nuances, des intonations, des inflexions, etc.
Or de nombreux organismes disposent d’enregistrements réalisés en analogique (à
savoir sur bandes magnétiques et sur cassettes) par des bénévoles. La
numérisation de tous ces enregistrements permettrait de les utiliser non
seulement dans la communauté desservie mais partout ailleurs. D’une part chaque
organisme pourrait accroître ses collections de manière exponentielle, d’autre
part de nouvelles bibliothèques audio pourraient être créées à moindre coût,
notamment dans les pays en développement.

Plusieurs organismes spécialisés décident d’unir leurs forces pour oeuvrer en
commun. Ils fondent en mai 1996 le DAISY Consortium, un consortium international
chargé d’assurer la transition entre le livre audio analogique et le livre
audionumérique. Sa tâche est immense: définir une norme internationale,
déterminer les conditions de production, d’échange et d’utilisation du livre
audionumérique, organiser la numérisation du matériel audio à l’échelle
mondiale. Les activités du consortium sont peu à peu mises en place: définition
des normes de spécification de fichiers à partir de celles du World Wide Web
Consortium (W3C), conception de logiciels de conversion des bandes son
analogiques en bandes son numériques, gestion d’ensemble de la production,
échange de livres audionumériques entre bibliothèques, définition d’une loi
internationale du droit d’auteur pour les personnes atteintes de déficience
visuelle, protection des documents soumis au droit d’auteur, et enfin promotion
de la norme DAISY à l’échelle mondiale.

La norme DAISY se base sur le format DTB (digital talking book), qui permet
l’indexation du livre audio et l’ajout de signets pour une navigation facile au
niveau du paragraphe, de la page ou du chapitre. Près de 41.000 livres audio
répondent à cette norme en mars 2003, 104.100 livres audio en mars 2004 et
129.650 livres audio en août 2005. D’autres formats possibles sont les standards
de compression audio utilisés pour la musique, comme le MP3 ou le WMA (Windows
media audio). En 2007, les collections enregistrées de livres du domaine public
sont nombreuses, et le plus souvent en accès libre, par exemple AudioLivres (en
français), LiteralSystems (en anglais), AudioBooksForFree (en anglais) et
LibriVox (multilingue).


9.2. Une tâche titanesque


= Une voie tracée par la presse

Le développement de la presse en ligne (dans les années 1990) est intéressant
parce qu’il préfigure celui du livre en ligne (dans les années 2000). Raison
pour laquelle on l’expose brièvement ici.

Au début des années 1990, les premières éditions électroniques de journaux sont
disponibles par le biais de services commerciaux tels que America Online ou
CompuServe. Suite à l'apparition du premier navigateur fin 1993 et à la
croissance rapide du web qui s'ensuit, les organes de presse créent leurs
propres sites. Au Royaume-Uni, le Times et le Sunday Times font web commun sur
un site dénommé Times Online, avec possibilité de créer une édition
personnalisée. Aux Etats-Unis, la version en ligne du Wall Street Journal est
payante, avec 100.000 abonnés en 1998. Celle du New York Times est disponible
sur abonnement gratuit. Le Washington Post propose l’actualité quotidienne en
ligne et de nombreux articles archivés, le tout avec images, sons et vidéos.
Pathfinder (rebaptisé ensuite Time) est le site web du groupe Time-Warner,
éditeur de Time Magazine, Sports Illustrated, Fortune, People, Southern Living,
Money, Sunset, etc. On peut y lire les articles maison et les rechercher par
date ou par sujet. Lancé en 1992 en Californie, Wired, premier magazine imprimé
entièrement consacré à la culture cyber, est bien évidemment présent sur le web.

Mis en ligne en février 1995, le site web du mensuel Le Monde diplomatique est
le premier site d’un périodique imprimé français. Monté dans le cadre d’un
projet expérimental avec l’Institut national de l’audiovisuel (INA), ce site est
inauguré lors du forum des images Imagina. Il donne accès à l’ensemble des
articles depuis janvier 1994, par date, par sujet et par pays. L’intégralité du
mensuel en cours est consultable gratuitement pendant deux semaines suivant sa
parution. Un forum de discussion permet au journal de discuter avec ses
lecteurs. En juin 1998, Philippe Rivière, responsable du site, précise que,
trois ans après sa mise en ligne, celui-ci a «bien grandi, autour des mêmes
services de base: archives et annonce de sommaire». Grâce à l’internet, «le
travail journalistique s’enrichit de sources faciles d’accès, aisément
disponibles. Le travail éditorial est facilité par l’échange de courriers
électroniques; par contre, une charge de travail supplémentaire due aux messages
reçus commence à peser fortement.»

Fin 1995, le quotidien Libération met en ligne son site web, peu après le
lancement du Cahier Multimédia, un cahier imprimé hebdomadaire inclus dans
l’édition du jeudi. Le site propose la Une du quotidien, la rubrique Multimédia,
qui propose les articles du Cahier Multimédia et les archives des cahiers
précédents, le Cahier Livres complété par Chapitre Un (les premiers chapitres
des nouveautés), et bien d’autres rubriques. La rubrique Multimédia est ensuite
rebaptisée Numériques.

Le site du quotidien Le Monde est lancé en 1996. On y trouve des dossiers en
ligne, la Une en version graphique à partir de 13 h, l’intégralité du journal
avant 17 h, l’actualité en liaison avec l’AFP (Agence France-Presse), et des
rubriques sur la bourse, les livres, le multimédia et les sports. En 1998, le
journal complet en ligne coûte 5 FF (0,76 euros) alors que l’édition papier
coûte 7,50 FF (1,15 euros). S’ils concernent le multimédia, les articles du
supplément imprimé hebdomadaire Télévision-Radio-Multimédia sont disponibles
gratuitement en ligne dans la rubrique Multimédia, rebaptisée ensuite Nouvelles
technologies.

L’Humanité est le premier quotidien français à proposer la version intégrale du
journal en accès libre. Classés par rubriques, les articles sont disponibles
entre 10 h et 11 h du matin, à l’exception de L’Humanité du samedi, disponible
en ligne le lundi suivant. Tous les articles sont archivés sur le site. En
juillet 1998, Jacques Coubard, responsable du site web, explique: «Le site de
L’Humanité a été lancé en septembre 1996 à l’occasion de la Fête annuelle du
journal. Nous y avons ajouté depuis un forum, un site consacré à la récente
Coupe du monde de football (avec d’autres partenaires), et des données sur la
Fête et sur le meeting d’athlétisme, parrainé par L’Humanité. Nous espérons
pouvoir développer ce site à l’occasion du lancement d’une nouvelle formule du
quotidien qui devrait intervenir à la fin de l’année ou au début de l’an
prochain. Nous espérons également mettre sur le web L’Humanité Hebdo, dans les
mêmes délais. Jusqu’à présent on ne peut pas dire que l’arrivée d’internet ait
bouleversé la vie des journalistes, faute de moyens et de formation (ce qui va
ensemble). Les rubriques sont peu à peu équipées avec des postes dédiés, mais
une minorité de journalistes exploitent ce gisement de données. Certains s’en
servent pour transmettre leurs articles, leurs reportages. Il y a sans doute
encore une "peur" culturelle à plonger dans l’univers du net. Normal, en face de
l’inconnu. L’avenir devrait donc permettre par une formation (peu compliquée) de
combler ce handicap. On peut rêver à un enrichissement par une sorte d’édition
électronique, mais nous sommes sévèrement bridés par le manque de moyens
financiers.»

La presse régionale est présente sur le web, par exemple Dernières nouvelles
d’Alsace et Ouest-France. Lancé en septembre 1995, le site des Dernières
nouvelles d’Alsace propose l’intégrale de l’édition du jour, tout comme des
informations pratiques: cours de la bourse, calcul des impôts, etc. Il offre
aussi une édition abrégée en allemand. Michel Landaret, responsable du site,
précise en juin 1998 que celui-ci «compte actuellement 5.500 lecteurs par jour».

Le quotidien Ouest-France est mis en ligne en juillet 1996. D’abord appelé
France-Ouest, le site est ensuite renommé Ouest-France, du nom du journal. En
juin 1998, Bernard Boudic, son responsable éditorial, relate: «A l’origine,
l’objectif était de présenter et relater les grands événements de l’Ouest en
invitant les internautes à une promenade dans un grand nombre de pages
consacrées à nos régions (tourisme, industrie, recherche, culture). Très vite,
nous nous sommes aperçus que cela ne suffisait pas. Nous nous sommes tournés
vers la mise en ligne de dossiers d’actualité, puis d’actualités tout court.
Aujourd’hui nous avons quatre niveaux d’infos : quotidien, hebdo (tendant de
plus en plus vers un rythme plus rapide), événements et dossiers. Et nous
offrons des services (petites annonces, guide des spectacles, presse-école,
boutique, etc.). Nous travaillons sur un projet de journal électronique total:
mise en ligne automatique chaque nuit de nos quarante éditions (450 pages
différentes, 1.500 photos) dans un format respectant typographie et hiérarchie
de l’information et autorisant la constitution par chacun de son journal
personnalisé (critères géographiques croisés avec des critères thématiques).»

Quelles sont les retombées de l’internet pour les journalistes? «Elles sont
encore minces. Nous commençons seulement à offrir un accès internet à chacun
(rédaction d’Ouest-France: 370 journalistes répartis dans soixante rédactions,
sur douze départements... pas simple). Certains utilisent internet pour la
messagerie électronique (courrier interne ou externe, réception de textes de
correspondants à l’étranger, envoi de fichiers divers) et comme source
d’informations. Mais cette pratique demande encore à s’étendre et à se
généraliser. Bien sûr, nous réfléchissons aussi à tout ce qui touche à
l’écriture multimédia et à sa rétro-action sur l’écriture imprimée, aux
changements d’habitudes de nos lecteurs, etc. (...) Internet est à la fois une
menace et une chance. Menace sur l’imprimé, très certainement (captation de la
pub et des petites annonces, changement de réflexes des lecteurs, perte du goût
de l’imprimé, concurrence d’un média gratuit, que chacun peut utiliser pour
diffuser sa propre info, etc.). Mais c’est aussi l’occasion de relever tous ces
défis, de rajeunir la presse imprimée.»

Tous sujets que l'on retrouve quelques années plus tard pour les débuts du livre
numérique: rapport accru de l'auteur avec ses lecteurs, mise en place de forums
de discussion, nécessité d'une formation technique, utilisation de sources très
diverses émanant de l'encyclopédie que devient le web, version payante versus
version gratuite, version numérique versus version imprimée, etc.

= Divers canaux de diffusion

Contrairement au livre imprimé, vendu dans les librairies, le livre numérique
est d’abord vendu par les éditeurs avant d’être vendu par les libraires, pour la
raison bien simple qu’il faut laisser le temps à ces derniers de créer une
structure qui n’existe pas. Par la suite, l’éditeur peut soit vendre directement
sur son propre site ses titres numériques, soit passer un partenariat avec une
librairie numérique, soit adopter simultanément les deux formules.

Publiés en mai 1998 par les éditions 00h00, les tout premiers livres numériques
commerciaux sont des classiques de la littérature française - Le Tour du monde
en 80 jours de Jules Verne, Colomba de Prosper Mérimée, Poil de carotte de Jules
Renard, etc. - ainsi que deux inédits : Sur le bout de la langue de Rouja
Lazarova et La Coupe est pleine de Pierre Marmiesse. 00h00 passe aussi des
accords avec des éditeurs «traditionnels» pour publier en version numérique
certains de leurs titres imprimés.

En mars 2000, Michel Valensi, directeur des éditions de l’Eclat, lance le
concept du lyber, un terme «construit à partir du mot latin liber qui signifie à
la fois: libre, livre, enfant, vin». Dans lePetit traité plié en dix sur le
lyber, paru dans Libres enfants du savoir (éditions de l’Eclat, avril 2000), il
définit le lyber comme un livre numérique disponible gratuitement sur l’internet
dans son intégralité, selon le principe du shareware (partagiciel). Avec
invitation d’acheter un exemplaire pour soi ou ses amis, possibilité de signaler
l’adresse du libraire le plus proche où trouver le livre, et possibilité de
laisser des commentaires sur le texte en ligne. «Le lyber est une tentative de
cohabitation dynamique de ces supports. Le principe est simple: diffusion
simultanée d’un même contenu sur les deux supports. Livre papier et
document-en-ligne.»

A la même date, en mars 2000, Stephen King décide de distribuer sa nouvelle
Riding The Bullet uniquement par voie électronique, avec vente dans des
librairies en ligne. Suite à cette expérience qui s’avère un succès à la fois
médiatique et financier, l’auteur décide de se passer des services de Simon &
Schuster, son éditeur habituel. En juillet 2000, il crée un site web spécifique
pour débuter la publication en épisodes d’un roman épistolaire, The Plant. Cette
deuxième expérience s’avère beaucoup moins concluante que la première, le nombre
de téléchargements et de paiements ne cessant de baisser au fil des chapitres.
En décembre 2000, après la parution gratuite du sixième chapitre, l’auteur
décide de mettre The Plant en hibernation pendant une période indéterminée. Le
suivi médiatique de cette expérience pendant les six mois qu’elle aura duré
contribue largement à faire connaître le livre numérique, aussi bien chez les
professionnels du livre que dans le grand public. D’autres auteurs de
best-sellers prennent ensuite le relais, comme Frederick Forsyth au Royaume-Uni
et Arturo Pérez-Reverte en Espagne, mais cette fois en partenariat avec leurs
éditeurs respectifs.

Durant l’été 2000, Simon & Schuster, l’éditeur habituel de Stephen King, profite
de la vague médiatique entourant l’auto-publication d’un de ses auteurs-phare
pour se lancer dans l’aventure en créant SimonSays.com. Il décide aussi de
publier en version numérique seulement, sans correspondant imprimé, certains
titres de Star Trek, la série de science-fiction la plus vendue au monde, qui
compte six titres vendus par minute et quarante nouveaux titres publiés par an,
en incluant les histoires et récits basés sur les séries télévisées et les
films. Le premier titre numérique, The Belly of the Beast de Dean Wesley Smith,
est disponible en août 2000 pour 5 dollars US.

D’autres éditeurs emboîtent le pas à Simon & Schuster et débutent la vente de
certains titres en version numérique, par exemple le géant Random House et,
quelques mois plus tard, St. Martin’s Press, puis HarperCollins par le biais de
son service électronique PerfectBound.

En octobre 2000, les Presses universitaires de France (PUF) annoncent la
parution de quatre titres simultanément en version numérique et en version
imprimée. Ces quatre titres ont trait à l’internet: La presse sur internet de
Charles de Laubier, La science et son information à l’heure d’internet de
Gilbert Varet, Internet et nos fondamentaux par un collectif d’auteurs, et enfin
HyperNietzsche publié sous la direction de Paolo d’Iorio. Chose peu courante
chez les éditeurs français, le texte intégral d’HyperNietzsche est en accès
libre sur le site des PUF pendant deux ans.

En novembre 2000, pour convertir les auteurs qu’il publie à ce nouveau format,
Random House annonce que ceux-ci recevront 50% des bénéfices nets réalisés sur
la vente de leurs livres numériques, au lieu des 15% habituels. Si ce fort
pourcentage était déjà proposé par certains éditeurs électroniques comme le
londonien Online Originals, c’est la première fois qu’une maison d’édition
traditionnelle de réputation internationale fait un tel effort financier.

En janvier 2001, Barnes & Noble, autre géant du livre, se lance dans l’aventure
en créant Barnes & Noble Digital. Barnes & Noble est non seulement une chaîne de
librairies traditionnelles doublée d’une librairie en ligne, en partenariat avec
Bertelsmann pour cette dernière, mais aussi un éditeur de livres classiques et
illustrés. Pour attirer les auteurs, l’éditeur leur propose de leur verser 35%
du prix des livres numériques vendus sur son site et les sites affiliés. Un
pourcentage moindre que celui offert par Random House, mais nettement supérieur
à celui versé par les autres éditeurs en ligne qui, après avoir proposé un
pourcentage de 15% à l’origine, proposent un pourcentage d’environ 25% début
2001. L’opération de Barnes & Noble Digital vise bien sûr à convaincre les
auteurs de best-sellers de l’intérêt d’une version numérique à côté de la
version imprimée.

= Une progression régulière

Comme on le voit, si la vente de livres numériques débute dès mai 1998 avec la
commercialisation de quelques titres par les éditions 00h00, elle ne commence
vraiment à se généraliser qu’à l’automne 2000. Les titres disponibles sont
vendus soit directement par les éditeurs, soit par le biais des libraires, avec
impression à la demande grâce aux nouvelles technologies d’impression numérique
développées notamment par les sociétés Xerox, Océ et IBM.

Téléchargeables gratuitement, les principaux logiciels de lecture sont les
logiciels d’Adobe (Acrobat Reader en juin 1993, Adobe eBook Reader en janvier
2001, Adobe Reader en mai 2003), le Mobipocket Reader (lancé en mars 2000), le
Microsoft Reader (lancé en avril 2000) et le Palm Reader (lancé en mars 2001). A
l’exception du format PDF (portable document format) apparu dès 1993, les
formats utilisés sont basés sur l’OeB (open ebook), devenu en 1999 le format
standard des livres numériques.

On voit apparaître les premières librairies numériques, à savoir des librairies
vendant exclusivement des livres numériques, le plus souvent par téléchargement,
et dans plusieurs formats.

Outre le fait qu’il faille une machine pour le lire - mais, après tout, c’est ce
qui le caractérise, en attendant le papier électronique de demain - l’obstacle
majeur à la diffusion du livre numérique est le faible nombre de titres
disponibles. «Le volume de titres disponibles en format de lecture à l’écran est
ridicule par rapport aux quelque 600.000 titres existant en français», indique
en février 2001 Denis Zwirn, président de la librairie numérique Numilog. Mais,
dès cette date, nombre d’éditeurs numérisent - ou font numériser - leurs fonds,
à la perspective d’un marché naissant qui devrait connaître une forte expansion
dans les prochaines années. Editeurs en ligne et libraires numériques négocient
patiemment les droits auprès des éditeurs traditionnels, et ce non sans mal
puisque, à tort ou à raison, la profession reste très inquiète des risques de
piratage.

Selon Zina Tucsnak, ingénieur d’études en informatique au Laboratoire ATILF
(Analyse et traitement informatique de la langue française), interviewée en
novembre 2000, «l’ebook offre une combinaison d’opportunités: la digitalisation
et l’internet. Les éditeurs apportent leurs titres à tous les lecteurs du monde.
C’est une nouvelle ère de la publication.» Mais, à l'époque, le livre numérique
est encore dans l’enfance. Comme l’explique en janvier 2001 Bakayoko Bourahima,
documentaliste à l’ENSEA (Ecole nationale supérieure de statistique et
d’économie appliquée) d’Abidjan, «il faut voir par la suite comment il se
développera et quelles en seront surtout les incidences sur la production, la
diffusion et la consommation du livre. A coup sûr cela va entraîner de profonds
bouleversements dans l’industrie du livre, dans les métiers liés au livre, dans
l’écriture, dans la lecture, etc.»

Une des incidences sur la diffusion du livre est la vente de celui-ci «en pièces
détachées», à savoir un chapitre seul, ou une partie de livre, ou un article à
l’unité, ou encore une carte ou un tableau statistique. Ce type de vente débute
en 2002, à titre expérimental, par exemple chez Numilog ou encore dans la
librairie en ligne de l’OCDE (Organisation de coopération et de développement
économiques).

Le prix du livre numérique est inférieur d’environ 30% à celui du livre imprimé.
Sa commande et sa livraison sont quasi immédiates via l’internet. Quant à sa
«taille» et son «poids», ils sont nuls, bien qu’en pareil cas il faille bien sûr
prendre en compte la taille et le poids de la machine nécessaire pour le lire.
En 2003, un assistant personnel (PDA) de type Pocket PC ou Palm Pilot pesant
environ 200 grammes permet d’emporter avec soi une quinzaine de romans de 200
pages. Un ordinateur ultra-portable disposant d’un disque dur de 6 Go
(gigaoctets), pesant moins de 1,5 kilo et équipé des logiciels de bureautique
standard permet de stocker environ 5.000 livres.

Quelle est la taille d’un fichier de livre numérique, et son temps de
téléchargement? En 2003, quelques exemples sont donnés à titre indicatif dans la
FAQ de Numilog. Une nouvelle de 50 pages représente un fichier de 150
kilo-octets. Le temps nécessaire à son téléchargement est de 37 secondes avec un
modem 56 K (kilobits par seconde) et de 3 à 6 secondes avec une connexion à haut
débit (câble ou DSL – digital subscriber line). Un roman de 300 pages représente
un fichier de 1 mégaoctet. Son temps de téléchargement est de 4 minutes avec un
modem 56 K et de 20 à 40 secondes avec une connexion à haut débit. Un guide
pratique de 200 pages incluant des tableaux représente un fichier de 1,5
mégaoctet. Son temps de téléchargement est de 6 minutes avec un modem 56 K et de
30 à 60 secondes avec une connexion à haut débit. Un livre illustré avec des
photos représente un fichier de 10 mégaoctets. Son temps de téléchargement est
de 41 minutes avec un modem 56 K et de 3 à 6 minutes avec une connexion à haut
débit.

Chez les adeptes du livre numérique, l’enthousiasme des années 2000 et 2001 fait
place à plus de mesure dans les années qui suivent. On ne parle plus du tout
numérique pour le proche avenir, mais plutôt de la publication simultanée d’un
même titre en deux versions, imprimée et numérique. Pour mettre en place ce
nouveau mode de distribution, la tâche est rude. Il faut constituer les
collections, améliorer les logiciels de lecture, rendre le prix des appareils de
lecture abordable et, plus difficile encore, habituer le grand public à lire un
livre à l’écran.

Alors que, en octobre 2000, l’eBook est l’une des vedettes de la Foire
internationale du livre de Francfort, il se fait beaucoup plus modeste les
années suivantes. La même remarque vaut pour le Salon du livre de Paris qui,
après avoir proposé un Village eBook en mars 2000, puis le premier sommet
européen de l’édition numérique – dénommé eBook Europe 2001 – l’année suivante,
n’organise pas de grande manifestation spécifique en 2002 et 2003. Il faut
attendre le Salon de 2006 pour observer à nouveau un réel engouement, avec une
vaste «plateforme numérique» rassemblant des imprimeurs numériques, des sociétés
de numérisation d’ouvrages et des fabricants de livres numériques.

Cependant, malgré le pessimisme relatif ayant succédé aux déclarations
enthousiastes, le livre numérique poursuit patiemment son chemin. Si sa
progression est lente, elle est constante. En 2001, le grand éditeur Random
House vend deux fois plus de livres numériques qu’en 2000. Tous éditeurs
confondus, les ventes de 2001 se chiffrent par milliers pour le New World
College Dictionary de Webster, les ouvrages de fiction de Stephen King et de
Lisa Scottolini, les livres d’économie et les manuels pratiques. Palm Digital
Media, grande librairie numérique pour assistant personnel (PDA), vend 180.000
livres en 2001, une augmentation de 40% par rapport à l’année précédente. Début
2002, PerfectBound, le service électronique de l’éditeur HarperCollins, propose
10% du catalogue imprimé sous forme numérique. A la même date, Random House
décide de publier systématiquement une version imprimée et une version numérique
pour ses nouveaux titres.

Conséquence d’un marché en pleine expansion, après avoir été conçus pour une
machine spécifique - soit un ordinateur soit un assistant personnel - les
principaux logiciels de lecture deviennent polyvalents. Si l’Acrobat Reader est
d'abord uniquement disponible sur ordinateur les premières années, Adobe lance
un Acrobat Reader pour assistant personnel en 2001, d'abord pour le Palm Pilot
(mai 2001), puis pour Pocket PC (décembre 2001). Si, à l’origine, le Mobipocket
Reader est destiné à la lecture sur assistant personnel, Mobipocket lance une
version pour ordinateur en avril 2002. La même remarque vaut pour le Palm
Reader. D'abord destiné au Palm Pilot et au Pocket PC, il s'étend à l'ordinateur
en juillet 2002.

Chose peu courante chez les concepteurs de logiciels, Mobipocket propose
d’emblée un logiciel de lecture «universel», utilisable sur tout assistant
personnel puis sur ordinateur, et manifeste très tôt un réel souci d’ouverture
aux autres formats. Le Mobipocket Publisher permet de créer des livres
numériques non seulement au format PRC (lisible sur le Mobipocket Reader) mais
aussi au format LIT (lisible sur le Microsoft Reader).

Après avoir fait cavalier seul en promouvant leur propre logiciel de lecture,
les constructeurs y mettent aussi du leur. L’assistant personnel Palm Pilot
permet de lire des livres numériques aussi bien sur le Palm Reader que sur le
Mobipocket Reader. Son principal concurrent, le Pocket PC de Microsoft, permet
de lire des livres sur le Microsoft Reader, le Mobipocket Reader et le Palm
Reader.

Vétéran des logiciels de lecture avec dix ans d’existence en 2003, l’Acrobat
Reader (devenu l’Adobe Reader en mai 2003) s’adapte régulièrement aux besoins du
marché. Pour ne prendre qu’un exemple, les utilisateurs d’autres logiciels
disent apprécier le reflowing, une technique leur permettant de reformater
automatiquement un livre et sa pagination en fonction de la taille de l’écran.
Le reflowing est autorisé par les formats basés sur l’OeB (open ebook). Alors
que ceci était impossible avec les versions précédentes de l’Acrobat Reader, le
format PDF n’étant pas basé sur l’OeB, les versions 5 et suivantes d’Adobe
Acrobat permettent de créer des documents PDF autorisant le reflowing, même si
la numérotation des pages du document initial reste figée. Quatre ans après, en
2007, il est possible de créer des PDF compatibles avec l'OeB.

Le nombre de titres s’accroît rapidement au fil des ans. En septembre 2003, le
catalogue de Numilog comprend 3 500 titres (livres et numéros de revues) en
français et en anglais, grâce à un partenariat avec une quarantaine d’éditeurs.
En décembre 2006, ce catalogue comprend 35.000 titres grâce à un partenariat
avec 200 éditeurs, dont 60 éditeurs francophones. La progression est tout aussi
rapide pour Mobipocket. En 2003, le catalogue comprend 6.000 titres en plusieurs
langues. En avril 2007, le catalogue comprend 39.000 titres en vente et 10.000
titres gratuits, et il est désormais diffusé par Amazon, qui a racheté la
société en avril 2005.


9.3. Chronologie


* Cette chronologie ne prétend pas à l’exhaustivité.

1993 (juin): Acrobat Reader, premier logiciel de lecture, lancé par Adobe.

1996 (mars): Palm Pilot, premier assistant personnel du marché.

1996 (mai): Fondation du DAISY Consortium pour définir un standard de livre
audionumérique.

1998 (mai): Premiers livres commerciaux lancés par les éditions 00h00.

1999 (septembre): Open eBook (OeB), standard de livre numérique.

2000 (janvier): Fondation de l’Open eBook Forum (OeBF).

2000 (janvier): Partenariat entre Microsoft et Barnes & Noble.com pour la vente
de livres  numériques.

2000 (mars): Mobipocket Reader, logiciel de lecture de Mobipocket.

2000 (mars): Concept du lyber par Michel Valensi.

2000 (mars): Riding the Bullet, nouvelle de Stephen King, distribuée sur
l’internet.

2000 (avril): Pocket PC, assistant personnel de Microsoft.

2000 (avril): Microsoft Reader, logiciel de lecture utilisable sur Pocket PC.

2000 (juillet): Autopublication sur le web de The Plant, roman de Stephen King.

2000 (août): Partenariat entre Microsoft et Amazon pour la vente de livres
numériques.

2000 (août): Microsoft Reader disponible pour toute plateforme Windows.

2000 (août): eBooks Store de Barnes & Noble.com.

2000 (été): SimonSays.com, branche numérique de Simon & Schuster.

2000 (octobre): Premiers titres numériques des PUF (Presses universitaires de
France).

2000 (novembre): Conditions attractives pour la publication en numérique des
auteurs de Random House.

2000 (décembre): eBooks Store d’Amazon.

2000 (décembre): Arrêt de l’autopublication sur le web de The Plant, roman de
Stephen King.

2001: Premiers systèmes de DRM pour la gestion des droits numériques.

2001 (janvier): Adobe eBook Reader, logiciel de lecture pour livres sous droits.

2001 (janvier): Adobe Content Server, logiciel de gestion des droits numériques.

2001 (janvier): Barnes & Noble Digital, branche numérique de Barnes & Noble.

2001 (mars): Rachat de Peanutpress et de son logiciel de lecture par Palm.

2001 (mars): Palm Reader, logiciel de lecture de Palm.

2001 (avril): Partenariat entre Adobe et Amazon pour la vente de livres
numériques.

2001 (mai): Acrobat Reader disponible pour Palm Pilot.

2001 (décembre): Acrobat Reader disponible pour Pocket PC.

2002 (avril): Mobipocket Reader disponible pour ordinateur personnel.

2002 (juillet): Palm Reader disponible pour ordinateur personnel.

2002 (novembre): Microsoft Reader disponible pour tablette PC.

2003 (mai): L’Adobe Reader remplace l’Acrobat Reader et l’Adobe eBook Reader.

2004 (novembre): L’Adobe LiveCycle Policy Server remplace l’Adobe Content
Server.

2005 (avril): L’IDPF (International Digital Publishing Forum) succède à l’OeBF
(Open eBook Forum).

2005 (avril): Rachat de Mobipocket par Amazon.


10. LES SUPPORTS DE LECTURE


[10.1. Tablettes de lecture / Premiers modèles / Gemstar eBook / Cybook (Cytale
- Bookeen) / Autres tablettes récentes // 10.2. Assistants personnels (PDA) /
Psion / eBookMan (Franklin) / Palm Pilot et Pocket PC // 10.3. Nouveaux
appareils / Souhaits en l'an 2000 / @folio, baladeur de textes / Smartphones et
successeurs // 10.4. Le papier électronique / Souhaits en l’an 2000 / E Ink /
Autres initiatives // 10.5. Chronologie]

Les livres numériques sont d’abord lisibles sur l’écran de l'ordinateur. En
1999, pour plus de mobilité, on voit apparaître des appareils dédiés, sous forme
de tablettes électroniques. A partir de l'an 2000, les assistants personnels
(PDA) intègrent peu à peu des logiciels de lecture.  Suit la lecture sur webpad
et tablette PC, puis sur téléphone portable et smartphone. Annoncé pour la fin
des années 2000, le papier électronique devrait permettre de concilier les
avantages du numérique et le confort d’un matériau souple proche du papier.


10.1. Tablettes de lecture


Une tablette électronique de lecture se présente comme une machine portable de
la taille d’un gros livre, avec un écran à cristaux liquides (appelé aussi écran
LCD: liquid crystal display) rétro-éclairé ou non, noir et blanc ou en couleur.
Elle fonctionne sur batterie et, selon les modèles, dispose d’un modem intégré,
d’un port USB et de  connexions Bluetooth et WiFi, pour connexion à l’internet
et téléchargement des livres à partir de sites d’éditeurs ou de librairies
numériques.

= Premiers modèles

Apparues en 1999, les premières tablettes de lecture sont conçues et développées
dans la Silicon Valley, en Californie. Le modèle le plus connu, le Rocket eBook,
est créé par la société NuvoMedia, en partenariat avec la chaîne de librairies
Barnes & Noble et le géant des médias Bertelsmann. Un deuxième modèle, le
Softbook Reader, est développé par la société Softbook Press, en partenariat
avec les deux grandes maisons d’édition Random House et Simon & Schuster.
Plusieurs autres modèles ont une durée de vie assez courte, par exemple
l’Everybook, appareil à double écran créé par la société du même nom, ou encore
le Millennium eBook, créé par Librius.com. A cette époque, qui n’est pas si
lointaine, toutes ces tablettes électroniques pèsent entre 700 grammes et 2
kilos et peuvent stocker une dizaine de livres.

= Gemstar eBook

Lancés en octobre 2000 à New York, les deux premiers modèles de Gemstar eBook
sont les successeurs du Rocket eBook (conçu par la société NuvoMedia) et du
Softbook Reader (conçu par la société Softbook Press), suite au rachat de
NuvoMedia et de Softbook Press par Gemstar-TV Guide International en janvier
2000. Commercialisés en novembre 2000 aux Etats-Unis, ces deux modèles - le REB
1100 (écran noir et blanc, successeur du Rocket eBook) et le REB 1200 (écran
couleur, successeur du Softbook Reader) - sont construits et vendus sous le
label RCA, appartenant à Thomson Multimedia. Le système d’exploitation, le
navigateur et le logiciel de lecture sont spécifiques au produit, tout comme le
format de lecture, basé sur le format OeB (open ebook).

Le REB 1100 (18 x 13,5 centimètres) a une taille comparable à celle d’un (très)
gros livre broché. Son poids est de 510 grammes. Son autonomie est de 15 heures.
Il dispose d’un modem 36,6 K (kilobits par seconde). Sa mémoire compact flash de
8 mégaoctets permet de stocker 20 romans, soit 8.000 pages de texte. La mémoire
peut être étendue à 72 mégaoctets pour permettre un stockage de 150 livres, soit
60.000 pages de texte. L’écran tactile noir et blanc rétro-éclairé a une
résolution de 320 x 480 pixels. Le REB 1100 est vendu par la chaîne de magasins
SkyMall au prix de 300 dollars US.

Un peu plus volumineux, le REB 1200 (23 x 19 centimètres) a la taille d’un grand
livre cartonné. Son poids est de 750 grammes. Son autonomie est de 6 à 12
heures. Il dispose d’un modem 56 K et d’une connexion Ethernet. Sa mémoire
compact flash de 8 mégaoctets permet de stocker 5.000 pages. La mémoire peut
être étendue à 128 mégaoctets pour permettre un stockage de 80.000 pages.
L’écran tactile couleur rétro-éclairé a une résolution de 480 x 640 pixels. Le
REB 1200 est vendu par SkyMall au prix de 699 dollars.

La commercialisation du modèle européen, le GEB 2200, débute en octobre 2001 en
commençant par l’Allemagne. Le GEB 2200 a les mêmes caractéristiques que le REB
1200. Son poids est un peu supérieur (970 grammes) parce qu’il inclut une
couverture en cuir protégeant l’écran. Son prix est de 649 euros. Ce prix inclut
deux abonnements - un abonnement de six semaines à la version électronique de
Der Spiegel et un abonnement de quatre semaines à la version électronique du
Financial Times Deutschland - ainsi que deux best-sellers et quinze oeuvres
classiques.

Aux Etats-Unis, les ventes sont très inférieures aux pronostics. En avril 2002,
un article du New York Times annonce l’arrêt de la fabrication de ces appareils
par RCA. A l’automne 2002, leurs successeurs, le GEB 1150 et le GEB 2150, sont
produits sous le label Gemstar et vendus par SkyMall à un prix beaucoup plus
compétitif, avec ou sans abonnement annuel ou bisannuel à la librairie numérique
de Gemstar eBook. Le GEB 1150 coûte 199 dollars sans abonnement, et 99 dollars
avec abonnement annuel (facturé 20 dollars par mois). Le GEB 2150 coûte 349
dollars sans abonnement, et 199 dollars avec abonnement bisannuel (20 dollars
par mois). Les deux modèles GEB 1150 et GEB 2150 sont livrés non seulement avec
un dictionnaire intégré, le Webster’s Pocket American Dictionary (publié par
Random House), mais aussi avec la version anglaise du Tour du monde en 80 jours
de Jules Verne (publiée par eBooks Classics), best-seller universel qui poursuit
ainsi sa carrière en version numérique. En Allemagne, on parle d’un remplacement
éventuel du GEB 2200 par le GEB 1150 courant 2003. Mais Gemstar décide de mettre
fin à ses activités eBook. La société cesse la vente de ses tablettes de lecture
en juin 2003 et celle de ses livres numériques le mois suivant.

= Cybook (Cytale / Bookeen)

Première tablette de lecture européenne, le Cybook (21 x 16 centimètres) est
conçu et développé par la société française Cytale, et commercialisé en janvier
2001. Son poids est de 1 kilo. Sa mémoire - 32 Mo (mégaoctets) de mémoire SDRAM
(synchronous dynamic random access memory) et 16  Mo de mémoire flash - permet
de stocker 15.000 pages de texte, soit 30 livres de 500 pages. Son autonomie est
de 5 heures. Il est équipé d’un modem 56 K, d’un haut-parleur, d’une sortie
stéréo avec prise casque et de plusieurs ports pour périphériques. L’écran
tactile couleur rétro-éclairé a une résolution de 600 x 800 pixels. L’affichage
est possible en mode portrait ou paysage. Le Cybook utilise le système
d’exploitation Windows CE de Microsoft, le navigateur Internet Explorer et un
logiciel de lecture spécifique basé sur le format OeB. Il intègre un
dictionnaire Hachette de 35.000 mots. En mars 2002, il coûte 883 euros sans
abonnement, et 456 euros avec abonnement annuel (facturé 20 euros par mois). Les
 livres sont téléchargés à partir du site web de Cytale, suite à des
partenariats avec plusieurs éditeurs et sociétés de presse.

«J’ai croisé il y a deux ans le chemin balbutiant d’un projet extraordinaire, le
livre électronique, écrit en décembre 2000 Olivier Pujol, PDG de Cytale. Depuis
ce jour, je suis devenu le promoteur impénitent de ce nouveau mode d’accès à
l’écrit, à la lecture, et au bonheur de lire. La lecture numérique se développe
enfin, grâce à cet objet merveilleux: bibliothèque, librairie nomade, livre
"adaptable", et aussi moyen d’accès à tous les sites littéraires (ou non), et à
toutes les nouvelles formes de la littérature, car c’est également une fenêtre
sur le web.»

Cytale développe aussi le Cybook Pro, une version du Cybook à destination des
entreprises, des universités et des collectivités pour la gestion de leurs
documents numérisés: dossiers clients, normes techniques, procédures,
catalogues, cartes, etc.

Par ailleurs, en collaboration avec l’INSERM (Institut national de la santé et
de la recherche médicale), Cytale adapte son logiciel pour permettre la lecture
de livres numériques sur plage braille ou sur synthèse vocale. Dans cette
optique, la société développe le Cybook Vision, une tablette adaptée aux besoins
des personnes malvoyantes et distribuée par un réseau d’opticiens. «Toutes les
opérations de navigation, en mode autonome, ont été élaborées sur les conseils
d’orthoptistes et à partir des suggestions de malvoyants, lit-on sur le site
web. Réduites à l’essentiel, elles autorisent la création de stratégies de
lecture personnalisées. L’appareil, qui fonctionne comme un enregistreur, est
doté d’une capacité de mémoire qui autorise une contenance d’environ trente
livres. Chaque ouvrage est lisible dans deux polices et six tailles de
caractères. La catégorie la plus grande correspond à un corps de texte 28 ou à
la taille P. 20 selon les normes des orthoptistes. La résolution d’écran "Super
VGA" (super video graphics adapter) de 100 DPI (dots per inch) offre une
excellente netteté des caractères. Le rétro-éclairage de cet écran autorise la
lecture dans une ambiance peu lumineuse. Le contraste et la luminosité peuvent
être réglés séparément et sont activés par un bouton. Une icône autorise le
changement de couleur de fond, qui passe du blanc au jaune pour répondre à
certains problèmes de photosensibilité. Les textes peuvent être lus en corps
noir sur blanc ou blanc sur noir, jaune sur noir ou noir sur jaune.»

Pour les trois modèles, les ventes sont très inférieures aux pronostics. Ces
ventes insuffisantes forcent la société à se déclarer en cessation de paiement,
l’administrateur ne parvenant pas à trouver un repreneur après le redressement
judiciaire prononcé en avril 2002. Cytale est mis en liquidation judiciaire en
juillet 2002 et cesse ses activités à la même date.

La commercialisation du Cybook est reprise quelques mois plus tard par la
société Bookeen, créée en 2003 à l’initiative de Michael Dahan et de Laurent
Picard, deux ex-ingénieurs de chez Cytale. «A côté des logiciels "maison" - le
Boo Reader et le Boo Reader Vision - le Mobipocket Reader, le µBook et le PDF
Viewer équipent désormais par défaut la tablette», explique Alain Patez,
responsable des éditions numériques à la Médiathèque Landowski de
Boulogne-Billancourt, et qui met ces tablettes à la disposition de son public.
«Le Cybook s’enrichit d’une nouvelle suite logicielle et d’un nouveau mode de
connexion et de synchronisation, grâce au support de l’infrarouge et de l’USB.
Cette nouvelle version est mise en vente en juin 2004. Grâce à son partenariat
avec Mobipocket, Bookeen ouvre en novembre 2004 sa propre librairie en ligne
(Ubibooks). Les livres sont également proposés sur carte amovible, la
"BibliCarte", au format OeB. Commercialisée principalement aux Etats-Unis, la
tablette est en rupture de stock en octobre 2006. En juillet 2007, Bookeen
dévoile la nouvelle version e-ink / e-paper de sa tablette baptisée "Cybook
Gen3". Cette machine opère désormais sous plateforme Linux et dispose d’une
suite logicielle comparable à la version antérieure. Elle se distingue
particulièrement par son poids - 174 grammes - et par une autonomie de lecture
d’un mois sans rechargement. L’écran, monochrome, affiche quatre nuances de
gris. La commercialisation du Cybook Gen3 est annoncée pour septembre 2007.
Cette tablette exploitera la technologie d'encre électronique E Ink.»

= Autres tablettes récentes

En avril 2004, Sony lance au Japon le Librié 1000-EP, produit en partenariat
avec les sociétés Philips et E Ink. Cette nouvelle tablette est la première à
utiliser la technologie d’affichage développée par la société E Ink et
communément appelée encre électronique. L’appareil pèse 300 grammes (avec piles
et protection d’écran), pour une taille de 12,6 x 19 x 1,3 centimètres. Sa
mémoire est de 10 mégaoctets - avec possibilité d’extension - et sa capacité de
stockage de 500 livres. Son écran de 6 pouces a une définition de 170 DPI et une
résolution de 800 x 600 pixels. Un port USB permet le téléchargement des livres
à partir de l’ordinateur. L’appareil comprend aussi un clavier, une fonction
enregistrement et une synthèse vocale. Il fonctionne avec quatre piles
alcalines, qui permettraient la consultation de 10.000 pages. Son prix est de
375 dollars US.

D’autres modèles sont lancés par divers constructeurs, par exemple Toshiba, qui
lance le Ebook, Panasonic, qui lance le Sigma Book, ou eREAD, qui lance le
STAReBook (appelé aussi e-Reader par le quotidien Les Echos).

Les trois modèles les plus présents en 2007 semblent être l’iLiad (iRex
Technologies), le Sony Reader (Sony) et le Hanlin eReader (Jinke), qui utilisent
tous les trois la technologie E Ink. Lancé par la société néerlandaise iRex
Technologies, l’iLiad est conçu spécifiquement pour la consultation de journaux
électroniques et pour la lecture de livres sur le Mobipocket Reader. Produit par
la société chinoise Jinke, le Hanlin eReader se décline en plusieurs versions et
supporte de nombreux formats, dont les formats PDF, DOC, HTML, MP3, JPG, TXT et
ZIP. Lancé en octobre 2006 aux Etats-Unis, le Sony Reader, plus petit que
l’iLiad, est vendu au prix de 350 dollars US.

En mai 2007, Telecom Italia lance le Librofonino, décrit comme un « livre
cellulaire ». Connectable en permanence aux réseaux téléphoniques sans fil (3GSM
et autres) quel que soit le pays, le Librofonino tient aisément dans une poche,
avec un écran ouvrant  plus large que l’appareil lui-même. Suite à l’acquisition
de Mobipocket en avril 2005, Amazon lance fin 2007 sa propre tablette de
lecture, le Kindle. Reste à voir si ces modèles auront une durée de vie
supérieure à celle de leurs prédécesseurs. En 2008, on attend un écran souple
ultrafin appelé papier électronique.

Parallèlement, quelques quotidiens tentent une expérience de lecture nomade. En
avril 2006, le quotidien belge De Tidj est proposé en version électronique
nomade sur l’iLiad. En avril 2007, le quotidien français Les Echos lance une
version électronique nomade - actualisée plusieurs fois par jour - sur deux
tablettes de lecture, avec un prix différent selon la tablette achetée: 649
euros (abonnement annuel + achat de l'e-Reader d'e-READ) ou 769 euros
(abonnement annuel + achat de l'iLiad). Pour ceux qui auraient déjà leur
tablette, l'abonnement annuel sans tablette est de 365 euros.


10.2. Assistants personnels (PDA)


Lorsque le livre numérique commence à se généraliser en 2000, les fabricants
d’assistants personnels (PDA) décident d’intégrer un logiciel de lecture dans
leur machine, en plus des fonctionnalités habituelles : agenda, dictaphone,
lecteur de MP3, etc. En parallèle, à partir de la production imprimée existante,
ils négocient les droits de diffusion numérique de centaines de titres. Si
certains professionnels du livre s’inquiètent de la petitesse de l’écran, les
adeptes de la lecture sur PDA assurent que la taille de l’écran n’est pas un
problème.

= Psion

Marie-Joseph Pierre est enseignante-chercheuse à l’Ecole pratique des hautes
études (EPHE, section Sciences religieuses, Paris-Sorbonne). Elle utilise un
Psion depuis plusieurs années pour lire et étudier dans le train lors de ses
fréquents déplacements entre Argentan, sa ville de résidence, et Paris. Elle
achète son premier Psion en 1997, un Série 3, remplacé ensuite par un Série 5,
remplacé lui-même par un Psion 5mx en juin 2001. En février 2002, elle raconte:
«J’ai chargé tout un tas de trucs littéraires – dont mes propres travaux et dont
la Bible entière – sur mon Psion 5mx (16 + 16 mégaoctets), que je consulte
surtout dans le train ou pour mes cours, quand je ne peux pas emporter toute une
bibliothèque. J’ai mis les éléments de programme qui permettent de lire page par
page comme sur un véritable ebook. Ce qui est pratique, c’est de pouvoir charger
une énorme masse documentaire sur un support minuscule. Mais ce n’est pas le
même usage qu’un livre, surtout un livre de poche qu’on peut feuilleter, tordre,
sentir..., et qui s’ouvre automatiquement à la page qu’on a aimée. C’est
beaucoup moins agréable à utiliser, d’autant que sur PDA, la page est petite: on
n’a pas de vue d’ensemble. Mais une qualité appréciable: on peut travailler sur
le texte enregistré, en rechercher le vocabulaire, réutiliser des citations,
faire tout ce que permet le traitement informatique du document, et cela m’a pas
mal servi pour mon travail, ou pour mes activités associatives. Je fais par
exemple partie d’une petite société poétique locale, et nous faisons
prochainement un récital poétique. J’ai voulu rechercher des textes de Victor
Hugo, que j’ai maintenant pu lire et même charger à partir du site de la
Bibliothèque nationale de France: c’est vraiment extra.»

Le Psion Organiser est le vétéran des agendas électroniques. Le premier modèle
est lancé dès 1984 par la société britannique Psion. Au fil des ans, la gamme
des appareils s’étend et la société se développe à l’international. En 2000, les
divers modèles (Série 7, Série 5mx, Revo, Revo Plus) sont concurrencés par le
Palm Pilot et le Pocket PC. Suite à une baisse des ventes, la société décide de
diversifier ses activités. Suite au rachat de Teklogix, Psion Teklogix est fondé
en septembre 2000 afin de développer des systèmes informatiques mobiles sans fil
à destination des entreprises. Psion Software est fondé en 2001 pour développer
les logiciels de la nouvelle génération d’appareils mobiles utilisant la
plateforme Symbian OS, par exemple ceux du smartphone Nokia 9210, modèle
précurseur commercialisé la même année.

= eBookMan (Franklin)

Basée dans le New Jersey (Etats-Unis), la société Franklin commercialise dès
1986 le premier dictionnaire consultable sur une machine de poche. Quinze ans
plus tard, Franklin distribue 200 ouvrages de référence sur des machines de
poche: dictionnaires unilingues et bilingues, encyclopédies, bibles, manuels
d’enseignement, ouvrages médicaux et livres de loisirs.

En octobre 2000, Franklin lance l’eBookMan, un assistant personnel multimédia
qui, entre autres fonctionnalités (agenda, dictaphone, etc.), permet la lecture
de livres numériques sur le logiciel de lecture Franklin Reader. A la même date,
l’eBookMan reçoit l’eBook Technology Award de la Foire internationale du livre
de Francfort. Trois modèles (EBM-900, EBM-901 et EBM-911) sont disponibles début
2001. Leurs prix respectifs sont de 130, 180 et 230 dollars US. Le prix est
fonction de la taille de la mémoire vive (8 ou 16 mégaoctets) et de la qualité
de l’écran à cristaux liquides (écran LCD), rétro-éclairé ou non selon les
modèles. Nettement plus grand que celui de ses concurrents, l’écran n’existe
toutefois qu’en noir et blanc, contrairement à la gamme Pocket PC ou à certains
modèles Palm avec écran couleur. L’eBookMan permet l’écoute de livres audio et
de fichiers musicaux au format MP3.

En octobre 2001, Franklin décide de ne pas intégrer le Microsoft Reader à
l’eBookMan, mais de lui préférer le Mobipocket Reader, logiciel de lecture jugé
plus performant, et primé à la même date par l’eBook Technology Award à
Francfort. Parallèlement, le Franklin Reader est progressivement disponible pour
les gammes Psion, Palm, Pocket PC et Nokia. Franklin développe aussi une
librairie numérique sur son site en passant des partenariats avec plusieurs
éditeurs, notamment avec Audible.com pour avoir accès à sa collection de 4.500
livres audionumériques.

= Palm Pilot et Pocket PC

Suite au Psion et à l'eBookMan, les usagers se tournent peu à peu vers deux
nouvelles gammes d'assistants personnels (ou PDA: personal digital assistant),
les Palm Pilot et les Pocket PC, qui deviennent les favoris du marché.

La société Palm lance le premier Palm Pilot en mars 1996 et vend 23 millions de
machines entre 1996 et 2002. Son système d’exploitation est le Palm OS et son
logiciel de lecture le Palm Reader. En mars 2001, les modèles Palm permettent
aussi la lecture de livres numériques sur le Mobipocket Reader.

Commercialisé par Microsoft en avril 2000 pour concurrencer le Palm Pilot, le
Pocket PC utilise un système d’exploitation spécifique, Windows CE, qui intègre
le nouveau logiciel de lecture Microsoft Reader. En octobre 2001, Windows CE est
remplacé par Pocket PC 2002, qui permet entre autres de lire des livres
numériques sous droits. Ces livres sont protégés par un système de gestion des
droits numériques dénommé Microsoft DAS Server (DAS: digital asset server). En
2002, le Pocket PC permet la lecture sur trois logiciels: le Microsoft Reader
bien sûr, le Mobipocket Reader et le Palm Reader.

D’après Seybold Reports.com, en avril 2001, on compte 100.000 tablettes de
lecture pour 17 millions d’assistants personnels (PDA). Deux ans plus tard, en
juin 2003, plus aucune tablette n’est commercialisée. De nouveaux modèles
apparaissent ensuite, mais on se demande s'ils peuvent vraiment réussir à
s’imposer face à l’assistant personnel, qui offre aussi d’autres
fonctionnalités.  On se demande aussi s'il existe une clientèle spécifique pour
les deux machines, la lecture sur assistant personnel étant destinée au grand
public, et la lecture sur tablette électronique étant réservée aux gros
consommateurs de documents que sont les lycéens, les étudiants, les professeurs,
les chercheurs ou les juristes. Le débat reste toujours d'actualité dans les
années qui suivent.


10.3. Nouveaux appareils


= Souhaits en l'an 2000

En l’an 2000, à l’exception de quelques spécialistes, les professionnels du
livre restent assez sceptiques sur le confort de lecture procuré par une
machine. Si le concept les séduit, les premiers modèles ne suscitent guère
d’enthousiasme, sinon une curiosité amusée et le souhait de meilleurs appareils
de lecture. «Je pense qu’on est loin des formats et des techniques définitifs,
déclare en novembre 2000 Nicolas Pewny, fondateur des éditions du Choucas.
Beaucoup de recherches sont en cours, et un format et un support idéal verront
certainement le jour sous peu.»

Anne-Bénédicte Joly, écrivain auto-éditeur, écrit à la même date: «Le livre
électronique est avant tout un moyen pratique d’atteindre différemment une
certaine catégorie de lecteurs composée pour partie de curieux aventuriers des
techniques modernes et pour partie de victimes du mode résolument technologique.
(...) Je suis assez dubitative sur le "plaisir" que l’on peut retirer d’une
lecture sur un écran d’un roman de Proust. Découvrir la vie des personnages à
coups de souris à molette ou de descente d’ascenseur ne me tente guère. Ce
support, s’il possède à l’évidence comme avantage la disponibilité de toute
oeuvre à tout moment, possède néanmoins des inconvénients encore trop
importants. Ceci étant, sans nous cantonner à une position durablement ancrée
dans un mode passéiste, laissons à ce support le temps nécessaire pour acquérir
ses lettres de noblesse.»

Cet avis est partagé par Jacky Minier, créateur de Diamedit, site de promotion
d’inédits artistiques et littéraires. «L’ebook est sans aucun doute un support
extraordinaire, explique-t-il en octobre 2000. Il aura son rôle à jouer dans la
diffusion des oeuvres ou des journaux électroniques, mais il ne remplacera
jamais le véritable bouquin papier de papa. Il le complétera. (...) Voyez la
monnaie électronique: on ne paie pas encore son boulanger ou ses cigarettes avec
sa carte de crédit et on a toujours besoin d’un peu de monnaie dans sa poche, en
plus de sa carte Visa. L’achat d’un livre n’est pas un acte purement
intellectuel, c’est aussi un acte de sensualité que ne comblera jamais un ebook.
Naturellement, l’édition classique devra en tenir compte sur le plan marketing
pour se différencier davantage, mais je crois que l’utilisation des deux types
de supports sera bien distincte. Le téléphone n’a pas tué le courrier, la radio
n’a pas tué la presse, la télévision n’a pas tué la radio ni le cinéma... Il y a
de la place pour tout, simplement, ça oblige à chaque fois à une adaptation et à
un regain de créativité. Et c’est tant mieux!»

Jean-Pierre Balpe, directeur du département hypermédias de l’Université Paris 8,
écrit pour sa part en janvier 2001: «J’attends de voir concrètement comment ils
fonctionnent et si les éditeurs sont capables de proposer des produits
spécifiques à ce support car, si c’est pour reproduire uniquement des livres
imprimés, je suis assez sceptique. L’histoire des techniques montre qu’une
technique n’est adoptée que si - et seulement si... - elle apporte des avantages
concrets et conséquents par rapport aux techniques auxquelles elle prétend se
substituer.»

Ce scepticisme est partagé par Olivier Bogros, directeur de la Médiathèque
municipale de Lisieux (Normandie), qui s’exclame en août 2000: «De quoi
parle-t-on? Des machines monotâches encombrantes et coûteuses, avec format
propriétaire et offre éditoriale limitée? Les Palm, Psion et autres hand et
pocket computers permettent déjà de lire ou de créer des livres électroniques
(appelés ici livres numériques, ndlr), et en plus servent à autre chose. Ceci
dit, la notion de livre électronique m’intéresse en tant que bibliothécaire et
lecteur. Va-t-il permettre de s’affranchir d’un modèle économique à bout de
souffle (la chaîne éditoriale n’est pas le must en la matière)? Les machines à
lire n’ont de mon point de vue de chance d’être viables que si leur utilisateur
peut créer ses propres livres électroniques avec (cf. cassettes vidéo).»

Patrick Rebollar, professeur de littérature française et d’informatique dans des
universités japonaises, écrit en décembre 2000: «Je trouve enthousiasmant le
principe de stockage et d’affichage mais j’ai des craintes quant à la
commercialisation des textes sous des formats payants. Les chercheurs
pourront-ils y mettre leurs propres corpus et les retravailler? L’outil
sera-t-il vraiment souple et léger, ou faut-il attendre le développement de
l’encre électronique? Je crois également que l’on prépare un cartable
électronique pour les élèves des écoles, ce qui pourrait être bon pour leur
dos...»

Olivier Gainon, fondateur des éditions CyLibris, manifeste lui aussi un certain
scepticisme à l’égard des modèles actuels. Il explique à la même date: «Je ne
crois pas trop à un objet qui a des inconvénients clairs par rapport à un livre
papier (prix / fragilité / aspect / confort visuel / etc.), et des avantages qui
me semblent minimes (taille des caractères évolutifs / plusieurs livres dans un
même appareil / rétro-éclairage de l’écran / etc.). De même, je vois mal le
positionnement d’un appareil exclusivement dédié à la lecture, alors que nous
avons les ordinateurs portables d’un côté, les téléphones mobiles de l’autre et
les assistants personnels (dont les Pocket PC) sur le troisième front. Bref,
autant je crois qu’à terme la lecture sur écran sera généralisée, autant je ne
suis pas certain que cela se fera par l’intermédiaire de ces objets.»

Nicolas Ancion, écrivain et responsable éditorial de Luc Pire électronique,
partage le même sentiment. «Ces appareils ne me paraissent pas porteurs d’avenir
dans le grand public tant qu’ils restent monotâches (ou presque), écrit-il en
avril 2001. Un médecin ou un avocat pourront adopter ces plateformes pour
remplacer une bibliothèque entière, je suis prêt à le croire. Mais pour
convaincre le grand public de lire sur un écran, il faut que cet écran soit
celui du téléphone mobile, du PDA ou de la télévision. D’autre part, je crois
qu’en cherchant à limiter les fournisseurs de contenus pour leurs appareils
(plusieurs types d’ebooks ne lisent que les fichiers fournis par la bibliothèque
du fabricant), les constructeurs tuent leur machine. L’avenir de ces appareils,
comme de tous les autres appareils technologiques, c’est leur ouverture et leur
souplesse. S’ils n’ont qu’une fonction et qu’un seul fournisseur, ils
n’intéresseront personne. Par contre, si, à l’achat de son téléphone portable,
on reçoit une bibliothèque de vingt bouquins gratuits à lire sur le téléphone et
la possibilité d’en charger d’autres, alors on risque de convaincre beaucoup de
monde.»

Emilie Devriendt, élève professeur à l’Ecole normale supérieure (ENS) de Paris,
écrit en juin 2001: «S’il doit s’agir d’un ordinateur portable légèrement
"relooké", mais présentant moins de fonctionnalités que ce dernier, je n’en vois
pas l’intérêt. Tel qu’il existe, l’ebook est relativement lourd, l’écran peu
confortable à mes yeux, et il consomme trop d’énergie pour fonctionner
véritablement en autonomie. A cela s’ajoute le prix scandaleusement élevé, à la
fois de l’objet même et des contenus téléchargeables; sans parler de
l’incompatibilité des formats constructeur, et des "formats" maison d’édition.
J’ai pourtant eu l’occasion de voir un concept particulièrement astucieux,
vraiment pratique et peu coûteux, qui me semble être pour l’heure le support de
lecture électronique le plus intéressant: celui du "baladeur de textes" ou
@folio, en cours de développement à l’Ecole nationale supérieure des arts et
industries de Strasbourg. Bien évidemment, les préoccupations de ses concepteurs
sont à l’opposé de celles des "gros" concurrents qu’on connaît, en France ou
ailleurs: aucune visée éditoriale monopolistique chez eux, puisque c’est le
contenu du web (dans l’idéal gratuit) que l’on télécharge.»

= @folio, baladeur de textes

Conçu dès octobre 1996 par Pierre Schweitzer, architecte designer à Strasbourg,
@folio (qui se prononce: a-folio) est un support de lecture nomade permettant de
lire des textes glanés sur l’internet. Il cherche à mimer, sous forme
électronique, le dispositif technique du livre, afin de proposer une mémoire de
fac-similés reliés en hypertexte pour faciliter le feuilletage.

«J’hésite à parler de livre électronique, écrit Pierre Schweitzer en janvier
2001, car le mot "livre" désigne aussi bien le contenu éditorial (quand on dit
qu’untel a écrit un livre) que l’objet en papier, génial, qui permet sa
diffusion. La lecture est une activité intime et itinérante par nature. @folio
est un baladeur de textes, simple, léger, autonome, que le lecteur remplit selon
ses désirs à partir du web, pour aller lire n’importe où. Il peut aussi y
imprimer des documents personnels ou professionnels provenant d’un CD-Rom. Les
textes sont mémorisés en faisant : "imprimer", mais c’est beaucoup plus rapide
qu’une imprimante, ça ne consomme ni encre ni papier. Les liens hypertextes sont
maintenus au niveau d’une reliure tactile. (...) Le projet est né à l’atelier
Design de l’Ecole d’architecture de Strasbourg où j’étais étudiant. Il est
développé à l’Ecole nationale supérieure des arts et industries de Strasbourg
avec le soutien de l’ANVAR-Alsace. Aujourd’hui, je participe avec d’autres à sa
formalisation, les prototypes, design, logiciels, industrialisation,
environnement technique et culturel, etc., pour transformer ce concept en un
objet grand public pertinent.» Pour ce faire, la start-up iCodex est fondée en
juillet 2002.

Quelques années après, l'optique de Pierre Schweitzer reste toujours la même.
«Il ne s’agit pas de transformer le support papier des livres existants, c’est
absurde, écrit-il en janvier 2007. Il s’agit plutôt d’offrir un support de
lecture efficace aux textes qui n’en ont pas, ceux qui sont accessibles sur le
web. Avec @folio, je reste persuadé qu’un support de lecture transportable qui
serait à la fois simple et léger, annotable et effaçable, à bas coût,
respectueux de la page et de nos traditions typographiques, pourrait apporter un
supplément de confort appréciable à tous les usagers du texte numérique. Une
ardoise dont on pourrait feuilleter l’hypertexte à main nue, en lieu et place de
l’imprimante...»

Quelle est la technologie utilisée? Pierre Schweitzer explique en août 2007: «La
technologie d'@folio est très différente de celle des autres "ebooks", actuels
ou passés: elle est inspirée du fax et du classeur à onglets. La mémoire flash
est imprimée comme Gutenberg imprimait ses livres. Ce mode facsimilé ne
nécessite aucun format propriétaire, il est directement lisible à l'oeil nu. Le
facsimilé est un mode de représentation de l'information robuste, pérenne,
adaptable à tout type de contenu (de la musique imprimée aux formules de
mathématique ou de chimie) sans aucune adaptation nécessaire. C'est un mode de
représentation totalement ouvert et accessible à tous: il supporte l'écriture
manuscrite, la calligraphie, les écritures non alphabétiques, et le dessin à
main levée, toutes choses qui sont très difficiles à faire à l'aide d'un seul
outil sur un ordinateur ou un eBook classique. Cette conception technique
nouvelle et très simplifiée permet de recueillir une grande variété de contenus
et surtout, elle permet un prix de vente très raisonnable (100 euros pour le
modèle de base) dans différentes combinaisons de formats (tailles d'écran) et de
mémoire (nombre de pages) adaptées aux différentes pratiques de lecture.»

Outre cette technologie novatrice, quel est l'avantage de la lecture sur @folio
par rapport à la lecture sur ordinateur portable? «La simplicité d'usage,
l'autonomie, le poids, le prix. Quoi d'autre? La finesse n'est pas négligeable
pour pouvoir être glissé presque n'importe où. Et l'accès immédiat aux documents
- pas de temps d'attente comme quand on "allume" son ordinateur portable :
@folio ne s'allume jamais et ne s'éteint pas, la dernière page lue reste
affichée et une simple pression sur le bord de l'écran permet de remonter
instantanément au sommaire du document ou aux onglets de classement.»

= Smartphones et successeurs

Au début des années 2000, le choix des gros consommateurs de documents semble se
porter vers l’ordinateur ultra-portable, du fait de ses fonctions multi-tâches.
Outre le stockage d’un millier de livres sinon plus, selon le format numérique
choisi, celui-ci permet l’utilisation d’outils bureautiques standard, l’accès au
web, l’écoute de fichiers musicaux et le visionnement de vidéos ou de films.
Certains sont également tentés par le webpad, un ordinateur-écran sans disque
dur disposant d’une connexion sans fil à l’internet, apparu en 2001. D’autres
optent pour la tablette PC, une tablette informatique pourvue d’un écran
tactile, apparue fin 2002.

Parallèlement, le marché des assistants personnels (PDA) poursuit sa croissance.
13,2 millions d'assistants personnels sont vendus dans le monde en 2001, et 12,1
millions en 2002. En 2002, Palm est toujours le leader du marché (36,8% des
machines vendues), suivi par la gamme Pocket PC de Microsoft et les modèles de
Hewlett-Packard, Sony, Handspring, Toshiba et Casio. Les systèmes d'exploitation
utilisés sont essentiellement le Palm OS (pour 55% des machines) et le Pocket PC
(pour 25,7% des machines). En 2004, on note une amélioration des machines, une
plus grande diversité des modèles et une baisse des prix chez tous les
fabricants. Les trois principaux fabricants sont Palm, Sony et Hewlett-Packard.
Suivent Handspring, Toshiba, Casio et d'autres. Mais l'assistant personnel est
de plus en plus concurrencé par le smartphone, qui est un téléphone portable
doublé d'un assistant personnel, et les ventes commencent à baisser. En février
2005, Sony décide de se retirer complètement du marché des assistants
personnels.

Le premier smartphone est le Nokia 9210, modèle précurseur lancé en 2001 par la
société finlandaise Nokia, grand fabricant mondial de téléphones portables.
Apparaissent ensuite le Nokia Series 60, le Sony Ericsson P800, puis les modèles
de Motorola et de Siemens. Ces différents modèles permettent de lire des livres
numériques sur le Mobipocket Reader. Appelé aussi téléphone multimédia,
téléphone multifonctions ou encore téléphone intelligent, le smartphone dispose
d’un écran couleur, du son polyphonique et de la fonction appareil photo, qui
viennent s'ajouter aux diverses fonctions de l’assistant personnel: agenda,
dictaphone, lecteur de livres numériques, lecteur de musique, etc. Les
smartphones représentent 3,7% des ventes de téléphones portables en 2004 et 9%
des ventes en 2006, à savoir 90 millions d'unités sur un milliard.

Si les livres numériques ont une longue vie devant eux, les appareils de lecture
risquent de muer régulièrement. Denis Zwirn, président de la société Numilog,
résume bien la situation en février 2003: «L’équipement des individus et des
entreprises en matériel pouvant être utilisé pour la lecture numérique dans une
situation de mobilité va continuer de progresser très fortement dans les dix
prochaines années sous la forme de machines de plus en plus performantes (en
terme d’affichage, de mémoire, de fonctionnalités, de légèreté...) et de moins
en moins chères. Cela prend dès aujourd’hui la forme de PDA (Pocket PC et Palm
Pilot), de tablettes PC et de smartphones, ou de smart displays (écrans tactiles
sans fil). Trois tendances devraient être observées : la convergence des usages
(téléphone / PDA), la diversification des types et tailles d’appareils (de la
montre-PDA-téléphone à la tablette PC waterproof), la démocratisation de l’accès
aux machines mobiles (des PDA pour enfants à 15 euros). Si les éditeurs et les
libraires numériques savent en saisir l’opportunité, cette évolution représente
un environnement technologique et culturel au sein duquel les livres numériques,
sous des formes variées, peuvent devenir un mode naturel d’accès à la lecture
pour toute une génération.»


10.4. Le papier électronique


= Souhaits en l’an 2000

Considéré par beaucoup comme transitoire, l’appareil de lecture ne serait qu’une
étape vers le papier électronique. De l’avis d’Alex Andrachmes, explorateur
d’hypertexte,  interviewé en décembre 2000, «c’est l’arrivée du fameux "papier
électrique" qui changera la donne. Ce projet du MIT (Massachusetts Institute of
Technology) qui consiste à charger électriquement une fine couche de "papier" -
dont je ne connais pas la formule - permettra de charger la (les) feuille(s) de
nouveaux textes, par modification de cette charge électrique. Un ebook sur
papier, en somme, c’est ce que le monde de l’édition peut attendre de mieux.»

Lucie de Boutiny, romancière multimédia, écrit pour sa part en juin 2000: «Et
voici le changement que j’attends : arrêter de considérer les livres
électroniques comme le stade ultime post-Gutenberg. L’ebook rétro-éclairé a pour
l’instant la mémoire courte: il peut accueillir par exemple dix livres contenant
essentiellement du texte mais pas une seule oeuvre multimédia riche en son et
images, etc. Donc ce que l’on attend pour commencer: l’écran souple comme une
feuille de papier légère, transportable, pliable, autonome, rechargeable,
accueillant tout ce que le web propose (du savoir, de l’information, des
créations...) et cela dans un format universel avec une résolution sonore et
d’image acceptable.»

Pierre-Noël Favennec, expert à la direction scientifique de France Télécom R&D,
explique en février 2001: «Si l’invention du livre-papier avait été faite après
celle de l’ebook, nous l’aurions tous trouvé géniale, Mais un ebook a un avenir
prometteur si on peut télécharger suffisamment d’ouvrages, si la lecture est
aussi agréable que sur le papier, s’il est léger (comme un livre), s’il est
pliable (comme un journal), s’il n’est pas cher (comme un livre de poche)... En
d’autres mots, l’ebook a un avenir s’il est un livre, si le hard fait croire que
l’on a du papier imprimé... Techniquement, c’est possible, aussi j’y crois. Au
niveau technologique, cela exigera encore quelques efforts (chimie,
électronique, physique...).»

Christian Vandendorpe, professeur à l’Université d’Ottawa et spécialiste des
théories de la lecture, résume les développements probables. «Le livre
électronique va accélérer cette mutation du papier vers le numérique, surtout
pour les ouvrages techniques, prédit-il dès mai 2001. Mais les développements
les plus importants sont encore à venir. Lorsque le procédé de l’encre
électronique sera commercialisé sous la forme d’un codex numérique plastifié
offrant une parfaite lisibilité en lumière réfléchie, comparable à celle du
papier - ce qui devrait être courant vers 2010 ou 2015 -, il ne fait guère de
doute que la part du papier dans nos activités de lecture quotidienne descendra
à une fraction de ce qu’elle était hier. En effet, ce nouveau support portera à
un sommet l’idéal de portabilité qui est à la base même du concept de livre.

Tout comme le codex avait déplacé le rouleau de papyrus, qui avait lui-même
déplacé la tablette d’argile, le codex numérique déplacera le codex papier, même
si ce dernier continuera à survivre pendant quelques décennies, grâce notamment
au procédé d’impression sur demande qui sera bientôt accessible dans des
librairies spécialisées. Avec sa matrice de quelques douzaines de pages
susceptibles de permettre l’affichage de millions de livres, de journaux ou de
revues, le codex numérique offrira en effet au lecteur un accès permanent à la
bibliothèque universelle. En plus de cette ubiquité et de cette instantanéité,
qui répondent à un rêve très ancien, le lecteur ne pourra plus se passer de
l’indexabilité totale du texte électronique, qui permet de faire des recherches
plein texte et de trouver immédiatement le passage qui l’intéresse. Enfin, le
codex numérique permettra la fusion des notes personnelles et de la bibliothèque
et accélérera la mutation d’une culture de la réception vers une culture de
l’expression personnelle et de l’interaction.»

= E Ink

Le développement du papier électronique débute dès 1997. On peut le définir
comme un support souple d’une densité comparable au papier plastifié ou au
transparent. Ce support peut être utilisé indéfiniment et le texte changé à
volonté au moyen d’une connexion sans fil. Si le concept est révolutionnaire, le
produit lui-même est le résultat d’une fusion entre trois sciences : la chimie,
la physique et l’électronique. Plusieurs équipes travaillent à des projets
différents, le plus connu étant E Ink.

Fondée en avril 1997 par des chercheurs du Media Lab du MIT (Massachusetts
Institute of Technology), la société E Ink met au point une technologie d'encre
électronique. Il s'agit d'une technologie à particules, dites
électrophorétiques. Très schématiquement, on peut la décrire ainsi : prises
entre deux feuilles de plastique souple, des millions de microcapsules
contiennent chacune des particules noires et blanches en suspension dans un
fluide clair. Un champ électrique positif ou négatif permet de faire apparaître
le groupe de particules souhaité à la surface du support, afin d’afficher, de
modifier ou d’effacer les données.

En juillet 2002, E Ink présente le prototype du premier écran utilisant cette
technologie, un écran de haute résolution à matrice active développé en
partenariat avec les sociétés Toppan et Philips. La commercialisation de cet
écran de 6 pouces est effective en avril 2004 pour le Librié de Sony, suivi
ensuite de l’iLiad d’Irex Technologies puis du Sony Reader en décembre 2006.

Dès ses débuts, E Ink envisage des livres et journaux électroniques sur support
souple, notamment ce que la société appelle provisoirement le RadioPaper, qui
donnera les nouvelles du jour via l'internet sans fil. Un projet qui deviendra
bientôt réalité dans les usines de Plastic Logic en Europe et de LG.Philips LCD
en Asie, avec des produits utilisant tous deux la technologie E Ink.

Fondée en 2000, la société britannique Plastic Logic est spécialisée dans le
développement et la production de papier électronique. Avec un poids infime de
62 grammes (un quotidien imprimé pèse 375 grammes), cet écran souple à matrice
active aura au départ quatre niveaux de gris. Le fait de plier le support souple
déclenchera le chargement d'une nouvelle page. Le téléchargement des livres et
journaux se fera par connexion WiFi. En janvier 2007, Plastic Logic annonce la
construction de son premier site de production de papier électronique dans la
région de Dresde, en Allemagne, avec début de production en 2008. Si l'affichage
des données se fera en noir et blanc dans un premier temps, la couleur est
prévue pour 2010 et la vidéo pour 2012.

La société coréenne LG.Philips LCD travaille quant à elle sur un prototype
d’écran flexible couleur. Un écran souple de 10,1 pouces est d'abord disponible
en noir et blanc en octobre 2005, suivi d'un écran souple de 14,1 pouces en mai
2006 puis d'un écran couleur de même taille en mai 2007. Le groupe japonais
Epson présente lui aussi un papier électronique ultrafin et de haute résolution
en avril 2007.

En mai 2007, la société E Ink présente le successeur de sa technologie E Ink
sous le nom de Vizplex Imaging Film, appelé plus simplement Vizplex, une
technologie EPD (electronic paper display) avec un chargement d’image deux fois
plus rapide (740 microsecondes au lieu de 1200), une image plus constrastée (20%
de plus) et huit niveaux de gris au lieu de quatre. Les premiers modèles
utilisant la technologie Vizplex seront produits dès l’été 2007 par PrimeView
International (PVI), qui est à ce jour le seul fabricant d’écrans EPD à matrice
active. Les futurs écrans souples auront une diagonale de 1,9 pouces, 5 pouces,
6 pouces, 8 pouces et 9,7 pouces. Ils équiperont divers appareils : téléphones
mobiles, lecteurs de MP3, accessoires PC, assistants personnels (PDA),
affichettes commerciales, dictionnaires électroniques, tablettes de lecture et
tablettes PC. La génération précédente (technologie E Ink) se limite aux écrans
de 6 pouces équipant les tablettes de lecture.

= Autres initiatives

Tout comme l'équipe d'E Ink, des chercheurs du Palo Alto Research Center (PARC),
le centre Xerox de la Silicon Valley, travaillent depuis 1997 à la mise au point
d’une technique d’affichage dénommée gyricon. Le procédé est un peu différent de
celui d’E Ink. Très schématiquement, la technologie est la suivante: prises
entre deux feuilles de plastique souple, des millions de micro-alvéoles
contiennent des microbilles bicolores en suspension dans un liquide clair.
Chaque bille est pourvue d’une charge électrique. Cette fois, c’est une
impulsion électrique extérieure qui permet la rotation des billes, et donc le
changement de couleur, permettant ainsi d’afficher, de modifier ou d’effacer les
données. Intitulé SmartPaper, le matériau correspondant serait produit en
rouleaux, tout comme le papier traditionnel. La société Gyricon Media est créée
en décembre 2000 pour commercialiser cette technologie. Le marché pressenti est
d’abord celui de l’affichage commercial, qui utilise le système SmartSign,
développé en complément du SmartPaper. La vente d’affichettes fonctionnant sur
piles débute en 2004. Sont prévus ensuite les panneaux de signalisation, puis le
papier électronique et le journal électronique. La société cesse ses activités
en 2005. Les activités de développement  se poursuivent ensuite au sein de
Xerox.

Un autre acteur d'importance est Nemoptic. Créée en 1999 en région parisienne
par Alain Boissier et une équipe du CNRS, la société Nemoptic développe et
produit des écrans à cristaux liquides (écrans LCD) bistables pour des
applications mobiles destinées au grand public et aux professionnels. Comme
indiqué sur le site web, «ces écrans fins et légers permettent d’obtenir des
images de haute résolution très contrastées et présentent un confort de lecture
équivalent au papier imprimé.  La technologie de rupture BiNem® (Bistable
Nematic) de Nemoptic peut s’appliquer à de nombreux produits portables, comme
les livres éducatifs électroniques, les dictionnaires et journaux électroniques,
les PC ultra-portables, les téléphones portables, les jouets ainsi que les
étiquettes électroniques. Les écrans de Nemoptic possèdent plusieurs avantages :
haute résolution, consommation d’énergie nulle en état de veille, rapidité
d’affichage et faible coût. Les écrans Nemoptic sont déclinables en version noir
et blanc ou couleurs (jusqu’à 32.000).»

La compétition risque d’être rude sur un marché qui s’annonce très prometteur.
Reste à voir quels seront les modèles qui seront retenus par l'usager parce que
solides, légers, économiques et procurant un véritable «confort de lecture»,
sans oublier l'aspect esthétique et les possibilités de lecture en 3 D.

«On progresse», écrit en janvier 2007 Jean-Paul, webmestre du site hypermédia
cotres.net. «Les PDA et autres baladeurs multimédia ont formé le public à
manipuler des écrans tactiles de dimension individuelle (par opposition aux
bornes publiques de circulation et autres tirettes-à-sous). L’hypermédia est
maintenant une évidence. Il ne reste plus qu’à laisser se bousculer les
ingénieurs et les marketteurs pour voir sortir un objet rentable, léger,
attirant, peu fragile, occupant au mieux l’espace qui sépare les deux mains d’un
terrien assis dans le bus ou sur sa lunette WC : la surface d’une feuille A4 en
format italien, soit ± 800x600 pixels. Bien sûr, ce que montrera cette surface
ne sera pas en 2 D mais en 3 D. Comme les GPS prochaine génération, ou les
écrans de visée sur le cockpit d’un A-Win.»


10.5. Chronologie


* Cette chronologie ne prétend pas à l’exhaustivité.

1984: Psion Organiser, vétéran des agendas électroniques.

1986: Premier dictionnaire sur machine de poche, par Franklin.

1996 (mars): Palm Pilot, premier assistant personnel (PDA).

1996 (octobre): Projet @folio, baladeur de textes conçu par Pierre Schweitzer.

1997: E Ink développe une technologie de papier électronique.

1997: Gyricon, technologie de papier électronique développée par PARC.

1999: Rocket eBook, tablette de lecture conçue par Nuvomedia.

1999: Softbook Reader, tablette de lecture conçue par Softbook Press.

1999: Nemoptic développe une technologie d’encre électronique.

2000: Création de la société Plastic Logic.

2000 (janvier): Rachat de Nuvomedia et Softbook Press par Gemstar.

2000 (avril): Pocket PC, assistant personnel de Microsoft.

2000 (octobre): Premiers modèles du Gemstar eBook.

2000 (octobre): eBookMan, assistant personnel multimédia de Franklin.

2001 (janvier): Cybook, tablette de lecture de Cytale.

2001 (mars): Mobipocket Reader intégré aux modèles Palm.

2001 (octobre): Modèle européen du Gemstar eBook.

2001 (octobre): Mobipocket Reader intégré à l’eBookMan.

2001: Nokia 9210, premier smartphone du marché.

2002 (juillet): Arrêt de la commercialisation du Cybook par Cytale.

2003 (juin): Arrêt de la commercialisation du Gemstar eBook.

2003: Reprise de la commercialisation du Cybook par Bookeen.

2004 (avril): Librié, tablette de lecture de Sony.

2006 (avril): De Tidj, quotidien en version électronique nomade.

2006 (octobre): Sony Reader, tablette de lecture de Sony.

2007 (avril): Les Echos, quotidien en version électronique nomade.

2007 (avril): Projet de la première usine de papier électronique de Plastic
Logic.

2007 (mai): Vizplex, nouvelle technologie d'encre électronique de la société E
Ink.


11. UNE INFORMATION MULTILINGUE


[11.1. Premiers pas // 11.2. Anglais versus autres langues // 11.3. Langues
minoritaires // 11.4. Traduction // 11.5. Chronologie]

En 1998 et 1999, la nécessité d’un web multilingue occupe tous les esprits. Au
début des années 2000, le web, devenu multilingue, permet une large diffusion
des textes électroniques sans contrainte de frontières, mais la barrière de la
langue est loin d’avoir disparu. La priorité semble être la création de
passerelles entre les communautés linguistiques pour favoriser la circulation
des écrits dans d’autres langues, en améliorant notamment les outils de
traduction.


11.1. Premiers pas


A tort ou à raison, on se plaint souvent de l’hégémonie de l’anglais sur
l’internet. Celle-ci était inévitable au début, puisque le réseau se développe
d’abord en Amérique du Nord avant de s'étendre au monde entier. En 1997, on note
déjà la présence de nombreuses langues, mais il reste aux différentes
communautés linguistiques à poursuivre le travail entrepris. En décembre 1997,
Tim Berners-Lee, inventeur du World Wide Web, déclare à Pierre Ruetschi dans la
Tribune de Genève: «Pourquoi les Francophones ne mettent-ils pas davantage
d’informations sur le web? Est-ce qu’ils pensent que personne ne veut la lire,
que la culture française n’a rien à offrir? C’est de la folie, l’offre est
évidemment énorme.» C’est chose faite dans les années qui suivent.

Consultant en marketing internet de produits et services de traduction, Randy
Hobler écrit en septembre 1998: «Comme l’internet n’a pas de frontières
nationales, les internautes s’organisent selon d’autres critères propres au
médium. En termes de multilinguisme, vous avez des communautés virtuelles, par
exemple ce que j’appelle les "nations des langues", tous ces internautes qu’on
peut regrouper selon leur langue maternelle quel que soit leur lieu
géographique. Ainsi la nation de la langue espagnole inclut non seulement les
internautes d’Espagne et d’Amérique latine, mais aussi tous les Hispanophones
vivant aux Etats-Unis, ou encore ceux qui parlent espagnol au Maroc.»

En été 2000, les usagers non anglophones dépassent la barre des 50%. Ce
pourcentage continue ensuite d'augmenter, comme le montrent les statistiques de
la société Global Reach, mises à jour à intervalles réguliers. Le nombre
d’usagers non anglophones est de 52,5% en été 2001, 57% en décembre 2001, 59,8%
en avril 2002, 64,4% en septembre 2003 (dont 34,9% d’Européens non anglophones
et 29,4% d’Asiatiques) et 64,2% en mars 2004 (dont 37,9% d’Européens non
anglophones et 33% d’Asiatiques).

Bruno Didier, webmestre de la Bibliothèque de l’Institut Pasteur, écrit en août
1999: «Internet n’est une propriété ni nationale, ni linguistique. C’est un
vecteur de culture, et le premier support de la culture, c’est la langue. Plus
il y a de langues représentées dans leur diversité, plus il y aura de cultures
sur internet. Je ne pense pas qu’il faille justement céder à la tentation
systématique de traduire ses pages dans une langue plus ou moins universelle.
Les échanges culturels passent par la volonté de se mettre à la portée de celui
vers qui on souhaite aller. Et cet effort passe par l’appréhension de sa langue.
Bien entendu c’est très utopique comme propos. Concrètement, lorsque je fais de
la veille, je peste dès que je rencontre des sites norvégiens ou brésiliens sans
un minimum d’anglais.»

Dès décembre 1997, le moteur de recherche AltaVista lance Babel Fish
Translation, un logiciel de traduction automatique de l’anglais vers cinq autres
langues (allemand, espagnol, français, italien, portugais), et vice versa.
Alimenté par un dictionnaire multilingue de 2,5 millions de mots, ce service
gratuit est l’oeuvre de Systran, société pionnière en traitement automatique des
langues. Le texte à traduire doit être de trois pages maximum. La page originale
et la traduction apparaissent en vis-à-vis à l’écran. La traduction étant
entièrement automatisée, elle est évidemment approximative. Si cet outil a ses
limites, il a le mérite d’exister et il préfigure ceux de demain, développés
entre autres par Systran, Alis Technologies, Globalink et Lernout & Hauspie.

Communiquer dans plusieurs langues implique d’avoir des systèmes de codage
adaptés à nos alphabets ou idéogrammes respectifs.

Le premier système de codage informatique est l’ASCII (American standard code
for information interchange). Publié par l’American National Standards Institute
(ANSI) en 1968, avec actualisation en 1977 et 1986, l'ASCII est un code standard
de 128 caractères traduits en langage binaire sur sept bits (A est traduit par
«1000001», B est traduit par «1000010», etc.). Les 128 caractères comprennent 33
caractères de contrôle (qui ne représentent donc pas de symbole écrit) et 95
caractères imprimables: les 26 lettres sans accent en majuscules (A-Z) et
minuscules (a-z), les chiffres, les signes de ponctuation et quelques symboles,
le tout correspondant aux touches du clavier anglais ou américain.

L'ASCII permet uniquement la lecture de l’anglais et du latin. Il ne permet pas
de prendre en compte les lettres accentuées présentes dans bon nombre de langues
européennes, et à plus forte raison les systèmes non alphabétiques (chinois,
japonais, coréen, etc.). Ceci ne pose pas de problème majeur les premières
années, tant que l’échange de fichiers électroniques se limite essentiellement à
l’Amérique du Nord. Mais le multilinguisme devient bientôt une nécessité vitale.
Des variantes de l’ASCII (norme ISO-8859 ou ISO-Latin) prennent en compte les
caractères accentués de quelques langues européennes. La variante pour le
français est définie par la norme ISO 8859-1 (Latin-1). Mais le passage de
l’ASCII original à ses différentes extensions devient vite un véritable
casse-tête, y compris au sein de l’Union européenne, les problèmes étant entre
autres la multiplication des variantes, la corruption des données dans les
étapes transitoires ou encore l’incompatibilité des systèmes, les pages ne
pouvant être affichées que dans une seule langue à la fois.

Avec le développement du web, l’échange des données s’internationalise de plus
en plus. On ne peut plus se limiter à l’utilisation de l’anglais et de quelques
langues européennes, traduites par un système d’encodage datant des années 1960.

Publié pour la première fois en janvier 1991, l’Unicode est un système de codage
«universel» sur 16 bits spécifiant un nombre unique pour chaque caractère. Ce
nombre est lisible quels que soient la plateforme, le logiciel et la langue
utilisés. L’Unicode peut traiter 65.000 caractères uniques et prendre en compte
tous les systèmes d’écriture de la planète. A la grande satisfaction des
linguistes, il remplace progressivement l’ASCII. L’Unicode dispose de plusieurs
variantes en fonction des besoins, par exemple UTF-8, UTF-16 et UTF-32 (UTF:
Unicode transformation format). Il devient une composante des spécifications du
W3C (World Wide Web Consortium), l'organisme international chargé du
développement du web.

L’utilisation de l’Unicode se généralise en 1998, par exemple pour les fichiers
texte sous plateforme Windows (Windows NT, Windows 2000, Windows XP et versions
suivantes), qui étaient jusque-là en ASCII. Mais l’Unicode ne peut résoudre tous
les problèmes, comme le souligne en juin 2000 Luc Dall’Armellina, co-auteur et
webmestre d’oVosite, un espace d’écritures multimédias: «Les systèmes
d’exploitation se dotent peu à peu des kits de langues et bientôt peut-être de
polices de caractères Unicode à même de représenter toutes les langues du monde;
reste que chaque application, du traitement de texte au navigateur web, emboîte
ce pas. Les difficultés sont immenses: notre clavier avec ses ± 250 touches
avoue ses manques dès lors qu’il faille saisir des Katakana ou Hiragana
japonais, pire encore avec la langue chinoise. La grande variété des systèmes
d’écritures de par le monde et le nombre de leurs signes font barrage. Mais les
écueils culturels ne sont pas moins importants, liés aux codes et modalités de
représentation propres à chaque culture ou ethnie.»

Que préconise Olivier Gainon, créateur de CyLibris et pionnier de l’édition
littéraire en ligne? « Première étape: le respect des particularismes au niveau
technique, explique-t-il en décembre 2000. Il faut que le réseau respecte les
lettres accentuées, les lettres spécifiques, etc. Je crois très important que
les futurs protocoles permettent une transmission parfaite de ces aspects - ce
qui n’est pas forcément simple (dans les futures évolutions de l’HTML, ou des
protocoles IP, etc.). Donc, il faut que chacun puisse se sentir à l’aise avec
l’internet et que ce ne soit pas simplement réservé à des (plus ou moins)
anglophones. Il est anormal aujourd’hui que la transmission d’accents puisse
poser problème dans les courriers électroniques. La première démarche me semble
donc une démarche technique. Si on arrive à faire cela, le reste en découle : la
représentation des langues se fera en fonction du nombre de connectés, et il
faudra envisager à terme des moteurs de recherche multilingues.»


11.2. Anglais versus autres langues


Après avoir été anglophone à pratiquement 100%, l’internet est encore anglophone
à plus de 80% en 1998, un pourcentage qui s’explique par trois facteurs: a) la
création d’un grand nombre de sites web émanant des Etats-Unis, du Canada et du
Royaume-Uni; b) une proportion d'usagers particulièrement forte en Amérique du
Nord par rapport au reste du monde; c) l’anglais en tant que principale langue
d’échange internationale.

L’anglais reste en effet prépondérant et ceci n’est pas près de disparaître.
Comme indiqué en janvier 1999 par Marcel Grangier, responsable de la section
française des services linguistiques centraux de l’Administration fédérale
suisse, «cette suprématie n’est pas un mal en soi, dans la mesure où elle
résulte de réalités essentiellement statistiques (plus de PC par habitant, plus
de locuteurs de cette langue, etc.). La riposte n’est pas de "lutter contre
l’anglais" et encore moins de s’en tenir à des jérémiades, mais de multiplier
les sites en d’autres langues. Notons qu’en qualité de service de traduction,
nous préconisons également le multilinguisme des sites eux-mêmes. La
multiplication des langues présentes sur internet est inévitable, et ne peut que
bénéficier aux échanges multiculturels.»

Professeur en technologies de la communication à la Webster University de
Genève, Henri Slettenhaar insiste lui aussi sur la nécessité de sites bilingues,
dans la langue originale et en anglais. «Les communautés locales présentes sur
le web devraient en tout premier lieu utiliser leur langue pour diffuser des
informations, écrit-il en décembre 1998. Si elles veulent également présenter
ces informations à la communauté mondiale, celles-ci doivent être aussi
disponibles en anglais. Je pense qu’il existe un réel besoin de sites bilingues.
(...) Mais je suis enchanté qu’il existe maintenant tant de documents
disponibles dans leur langue originale. Je préfère de beaucoup lire l’original
avec difficulté plutôt qu’une traduction médiocre.» En août 1999, il ajoute: «A
mon avis, il existe deux types de recherches sur le web. La première est la
recherche globale dans le domaine des affaires et de l’information. Pour cela,
la langue est d’abord l’anglais, avec des versions locales si nécessaire. La
seconde, ce sont les informations locales de tous ordres dans les endroits les
plus reculés. Si l’information est à destination d’une ethnie ou d’un groupe
linguistique, elle doit d’abord être dans la langue de l’ethnie ou du groupe,
avec peut-être un résumé en anglais.»

Philippe Loubière, traducteur littéraire et dramatique, dénonce pour sa part la
main-mise anglophone sur le réseau. «Tout ce qui peut contribuer à la diversité
linguistique, sur internet comme ailleurs, est indispensable à la survie de la
liberté de penser, explique-t-il en mars 2001. Je n’exagère absolument pas:
l’homme moderne joue là sa survie. Cela dit, je suis très pessimiste devant
cette évolution. Les Anglo-saxons vous écrivent en anglais sans vergogne.
L’immense majorité des Français constate avec une indifférence totale le
remplacement progressif de leur langue par le mauvais anglais des marchands et
des publicitaires, et le reste du monde a parfaitement admis l’hégémonie
linguistique des Anglo-saxons parce qu’ils n’ont pas d’autres horizons que de
servir ces riches et puissants maîtres. La seule solution consisterait à
recourir à des législations internationales assez contraignantes pour obliger
les gouvernements nationaux à respecter et à faire respecter la langue nationale
dans leur propre pays (le français en France, le roumain en Roumanie, etc.),
cela dans tous les domaines et pas seulement sur internet. Mais ne rêvons
pas...»

Guy Antoine, fondateur du site Windows on Haiti, explique en novembre 1999:
«Pour des raisons pratiques, l'anglais continuera à dominer le web. Je ne pense
pas que ce soit une mauvaise chose, en dépit des sentiments régionalistes qui
s'y opposent, parce que nous avons besoin d'une langue commune permettant de
favoriser les communications à l'échelon international. Ceci dit, je ne partage
pas l'idée pessimiste selon laquelle les autres langues n'ont plus qu'à se
soumettre à la langue dominante. Au contraire. Tout d'abord l'internet peut
héberger des informations utiles sur les langues minoritaires, qui seraient
autrement amenées à disparaître sans laisser de trace. De plus, à mon avis,
l'internet incite les gens à apprendre les langues associées aux cultures qui
les intéressent. Ces personnes réalisent rapidement que la langue d'un peuple
est un élément fondamental de sa culture. De ce fait, je n'ai pas grande
confiance dans les outils de traduction automatique qui, s'ils traduisent les
mots et les expressions, ne peuvent guère traduire l'âme d'un peuple. Que sont
les Haïtiens, par exemple, sans le kreyòl (créole pour les non initiés), une
langue qui s'est développée et qui a permis de souder entre elles diverses
tribus africaines transplantées à Haïti pendant la période de l'esclavage? Cette
langue représente de manière la plus palpable l'unité de notre peuple. Elle est
toutefois principalement une langue parlée et non écrite. A mon avis, le web va
changer cet état de fait plus qu'aucun autre moyen traditionnel de diffusion
d'une langue. Dans Windows on Haiti, la langue principale est l'anglais, mais on
y trouve tout aussi bien un forum de discussion animé conduit en kreyòl. Il
existe aussi des documents sur Haïti en français et dans l'ancien créole
colonial, et je suis prêt à publier d'autres documents en espagnol et dans
diverses langues. Je ne propose pas de traductions, mais le multilinguisme est
effectif sur ce site, et je pense qu'il deviendra de plus en plus la norme sur
le web.»

Tôt ou tard, le pourcentage des langues sur le réseau correspondra-t-il à leur
répartition sur la planète? Rien n’est moins sûr à l’heure de la fracture
numérique entre riches et pauvres, entre zones rurales et zones urbaines, entre
régions favorisées et régions défavorisées, entre l’hémisphère nord et
l’hémisphère sud, entre pays développés et pays en développement. Selon Zina
Tucsnak, ingénieur d’études au Laboratoire ATILF (Analyse et traitement
informatique de la langue française), interviewée en octobre 2000, «le meilleur
moyen serait l’application d’une loi par laquelle on va attribuer un "quota" à
chaque langue. Mais n’est-ce pas une utopie de demander l’application d’une
telle loi dans une société de consommation comme la nôtre?» A la même date,
Emmanuel Barthe, documentaliste juridique, exprime un avis contraire: «Des
signes récents laissent penser qu’il suffit de laisser les langues telles
qu’elles sont actuellement sur le web. En effet, les langues autres que
l’anglais se développent avec l’accroissement du nombre de sites web nationaux
s’adressant spécifiquement aux publics nationaux, afin de les attirer vers
internet. Il suffit de regarder l’accroissement du nombre de langues disponibles
dans les interfaces des moteurs de recherche généralistes.»

Bakayoko Bourahima, bibliothécaire à l’ENSEA (Ecole nationale supérieure de
statistique et d’économie appliquée) d’Abidjan, écrit en juillet 2000: «Pour
nous les Africains francophones, le diktat de l’anglais sur la toile représente
pour la masse un double handicap d’accès aux ressources du réseau. Il y a
d’abord le problème de l’alphabétisation qui est loin d’être résolu et que
l’internet va poser avec beaucoup plus d’acuité, ensuite se pose le problème de
la maîtrise d’une seconde langue étrangère et son adéquation à l’environnement
culturel. En somme, à défaut de multilinguisme, l’internet va nous imposer une
seconde colonisation linguistique avec toutes les contraintes que cela suppose.
Ce qui n’est pas rien quand on sait que nos systèmes éducatifs ont déjà beaucoup
de mal à optimiser leurs performances, en raison, selon certains spécialistes,
des contraintes de l’utilisation du français comme langue de formation de base.
Il est donc de plus en plus question de recourir aux langues vernaculaires pour
les formations de base, pour "désenclaver" l’école en Afrique et l’impliquer au
mieux dans la valorisation des ressources humaines. Comment faire? Je pense
qu’il n’y a pas de chance pour nous de faire prévaloir une quelconque exception
culturelle sur la toile, ce qui serait de nature tout à fait grégaire. Il faut
donc que les différents blocs linguistiques s’investissent beaucoup plus dans la
promotion de leur accès à la toile, sans oublier leurs différentes spécificités
internes.»

Richard Chotin, professeur à l’Ecole supérieure des affaires (ESA) de Lille,
rappelle à juste titre que la suprématie de l’anglais a succédé à celle du
français. «Le problème est politique et idéologique : c’est celui de
l’"impérialisme" de la langue anglaise découlant de l’impérialisme américain,
explique-t-il en septembre 2000. Il suffit d’ailleurs de se souvenir de
l’"impérialisme" du français aux 18e et 19e siècles pour comprendre la
déficience en langues des étudiants français: quand on n’a pas besoin de faire
des efforts pour se faire comprendre, on n’en fait pas, ce sont les autres qui
les font.»


11.3. Langues minoritaires


De plus, cet impérialisme linguistique, politique et idéologique n’est-il pas
universel, malheureusement ? La France elle aussi n’est pas sans exercer
pression pour imposer la suprématie de la langue française sur d’autres langues,
comme en témoigne Guy Antoine, créateur du site Windows on Haiti, qui écrit en
juin 2001: «J’ai fait de la promotion du kreyòl (créole haïtien) une cause
personnelle, puisque cette langue est le principal lien unissant tous les
Haïtiens, malgré l’attitude dédaigneuse d’une petite élite haïtienne - à
l’influence disproportionnée - vis-à-vis de l’adoption de normes pour l’écriture
du kreyòl et le soutien de la publication de livres et d’informations
officielles dans cette langue. A titre d’exemple, il y avait récemment dans la
capitale d’Haïti un Salon du livre de deux semaines, à qui on avait donné le nom
de "Livres en folie". Sur les 500 livres d’auteurs haïtiens qui étaient
présentés lors du salon, il y en avait une vingtaine en kreyòl, ceci dans le
cadre de la campagne insistante que mène la France pour célébrer la Francophonie
dans ses anciennes colonies. A Haïti cela se passe relativement bien, mais au
détriment direct de la Créolophonie.

En réponse à l’attitude de cette minorité haïtienne, j’ai créé sur mon site web
Windows on Haiti deux forums de discussion exclusivement en kreyòl. Le premier
forum regroupe des discussions générales sur toutes sortes de sujets, mais en
fait ces discussions concernent principalement les problèmes socio-politiques
qui agitent Haïti. Le deuxième forum est uniquement réservé aux débats sur les
normes d’écriture du kreyòl. Ces débats sont assez animés, et un certain nombre
d’experts linguistiques y participent. Le caractère exceptionnel de ces forums
est qu’ils ne sont pas académiques. Je n’ai trouvé nulle part ailleurs sur
l’internet un échange aussi spontané et aussi libre entre des experts et le
grand public pour débattre dans une langue donnée des attributs et des normes de
la même langue.»

En septembre 2000, Guy Antoine rejoint l’équipe dirigeante de Mason Integrated
Technologies, dont l’objectif est de créer des outils permettant l’accessibilité
des documents publiés dans des langues dites minoritaires. «Etant donné
l’expérience de l’équipe en la matière, nous travaillons d’abord sur le créole
haïtien (kreyòl), qui est la seule langue nationale d’Haïti, et l’une des deux
langues officielles, l’autre étant le français. Cette langue ne peut guère être
considérée comme une langue minoritaire dans les Caraïbes puisqu’elle est parlée
par huit à dix millions de personnes.»

Autre expérience, celle de Caoimhín Ó Donnaíle, professeur d’informatique à
l’Institut Sabhal Mór Ostaig, situé sur l’île de Skye, en Ecosse. Il dispense
ses cours en gaélique écossais. Il est aussi le webmestre du site de l’institut,
qui est bilingue anglais-gaélique et se trouve être la principale source
d’information mondiale sur le gaélique écossais. Sur ce site, il tient à jour
European Minority Languages, une liste de langues minoritaires elle aussi
bilingue, avec classement par ordre alphabétique de langues et par famille
linguistique. Interviewé en mai 2001, il raconte: «Nos étudiants utilisent un
correcteur d’orthographe en gaélique et une base terminologique en ligne en
gaélique. (...) Il est maintenant possible d’écouter la radio en gaélique
(écossais et irlandais) en continu sur l’internet partout dans le monde. Une
réalisation particulièrement importante a été la traduction en gaélique du
logiciel de navigation Opera. C’est la première fois qu’un logiciel de cette
taille est disponible en gaélique. » En janvier 2007, le gaélique irlandais est
ajouté aux langues officielles de la Communauté européenne, en plus du roumain
et du bulgare, les deux langues des pays entrants. Le nombre de langues
officielles passe de 20 à 23 langues. Pour mémoire, ce nombre était passé de 12
à 20 langues lors de l’élargissement de l’Union européenne en mai 2004.

Robert Beard co-fonde en 1999 yourDictionary.com en tant que portail de
référence pour toutes les langues sans exception, avec une section importante
consacrée aux langues menacées (Endangered Language Repository). «Les langues
menacées sont essentiellement des langues non écrites, écrit-il en janvier 2000.
Un tiers seulement des quelque 6.000 langues existant dans le monde sont à la
fois écrites et parlées. Je ne pense pourtant pas que le web va contribuer à la
perte de l’identité des langues et j’ai même le sentiment que, à long terme, il
va renforcer cette identité. Par exemple, de plus en plus d’Indiens d’Amérique
contactent des linguistes pour leur demander d’écrire la grammaire de leur
langue et de les aider à élaborer des dictionnaires. Pour eux, le web est un
instrument à la fois accessible et très précieux d’expression culturelle.»
Caoimhín Ó Donnaíle indique pour sa part en mai 2001: «En ce qui concerne
l’avenir des langues menacées, l’internet accélère les choses dans les deux
sens. Si les gens ne se soucient pas de préserver les langues, l’internet et la
mondialisation qui l’accompagne accéléreront considérablement la disparition de
ces langues. Si les gens se soucient vraiment de les préserver, l’internet
constituera une aide irremplaçable.»


11.4. Traduction


L’internet étant une source d’information à vocation mondiale, il semble
indispensable de favoriser les activités de traduction. Auteur des Chroniques de
Cybérie, une chronique hebdomadaire des actualités du réseau, Jean-Pierre
Cloutier déplore en août 1999 «qu’il se fasse très peu de traductions des textes
et essais importants qui sont publiés sur le web, tant de l’anglais vers
d’autres langues que l’inverse. (...) La nouveauté d’internet dans les régions
où il se déploie présentement y suscite des réflexions qu’il nous serait utile
de lire. À quand la traduction des penseurs hispanophones et autres de la
communication?» Professeur d’espagnol en entreprise et traductrice, Maria
Victoria Marinetti écrit à la même date: «Il est très important de pouvoir
communiquer en différentes langues. Je dirais même que c’est obligatoire, car
l’information donnée sur le net est à destination du monde entier, alors
pourquoi ne l’aurions-nous pas dans notre propre langue ou dans la langue que
nous souhaitons lire? Information mondiale, mais pas de vaste choix dans les
langues, ce serait contradictoire, pas vrai?»

Il va sans dire que la traduction automatique n’offre pas la qualité de travail
des professionnels de la traduction, et qu’il est préférable de faire appel à
ces derniers lorsqu'on a le temps et l’argent nécessaires. Les logiciels de
traduction sont toutefois très pratiques pour fournir un résultat immédiat et à
moindres frais, sinon gratuit. Certains logiciels sont en accès libre sur
l'internet et permettent de traduire en quelques secondes une page web ou un
texte court, avec plusieurs combinaisons de langues possibles.

Le but d’un logiciel de traduction est d’analyser le texte dans la langue source
(texte à traduire) et de générer automatiquement le texte correspondant dans la
langue cible (texte traduit), en utilisant des règles précises pour le transfert
de la structure grammaticale. Comme l’explique l’EAMT (European Association for
Machine Translation) sur son site, «il existe aujourd’hui un certain nombre de
systèmes produisant un résultat qui, s’il n’est pas parfait, est de qualité
suffisante pour être utile dans certaines applications spécifiques, en général
dans le domaine de la documentation technique. De plus, les logiciels de
traduction, qui sont essentiellement destinés à aider le traducteur humain à
produire des traductions, jouissent d’une popularité croissante auprès des
organismes professionnels de traduction.»

En 1998, un historique de la traduction automatique est présent sur le site de
Globalink, société spécialisée dans les produits et services de traduction. Le
site a depuis disparu, Globalink ayant été racheté en 1999 par Lernout &
Hauspie, lui-même racheté en 2002 par ScanSoft. Voici cet historique résumé en
deux paragraphes.

La traduction automatique et le traitement de la langue naturelle font leur
apparition à la fin des années 1930, et progressent ensuite de pair avec
l’évolution de l’informatique quantitative. Pendant la deuxième guerre mondiale,
le développement des premiers ordinateurs programmables bénéficie des progrès de
la cryptographie et des efforts faits pour tenter de fissurer les codes secrets
allemands et autres codes de guerre. Le secteur émergent des technologies de
l’information continue ensuite de s’intéresser de près à la traduction et à
l’analyse du texte en langue naturelle. Dans les années 1950, la recherche porte
sur la traduction littérale, à savoir la traduction mot à mot sans prise en
compte des règles linguistiques. Le projet russe débuté en 1950 à l’Université
de Georgetown représente la première tentative systématique visant à créer un
système de traduction automatique utilisable. Tout au long des années 1950 et au
début des années 1960, des recherches sont également menées en Europe et aux
Etats-Unis. En 1965, les progrès rapides en linguistique théorique culminent
avec la publication d’Aspects de la théorie syntaxique de Noam Chomsky, qui
propose de nouvelles définitions pour la phonologie, la morphologie, la syntaxe
et la sémantique du langage humain. En 1966, un rapport officiel américain donne
une estimation prématurément négative des systèmes de traduction automatique,
mettant fin au financement et à l’expérimentation dans ce domaine pour la
décennie suivante.

Il faut attendre la fin des années 1970 pour que des expériences sérieuses
soient à nouveau entreprises, parallèlement aux progrès de l’informatique et des
technologies des langues. Cette période voit le développement de systèmes de
transfert d’une langue à l’autre et le lancement des premières tentatives
commerciales. Des sociétés comme Systran et Metal sont persuadées de la
viabilité et de l’utilité d’un tel marché. Elles mettent sur pied des produits
et services de traduction automatique reliés à un serveur central. Mais les
problèmes restent nombreux, par exemple des coûts élevés de développement, un
énorme travail lexicographique, la difficulté de proposer de nouvelles
combinaisons de langues, l’inaccessibilité de tels systèmes pour l’utilisateur
moyen, et enfin la difficulté de passer à de nouveaux stades de développement.

En 1999 et 2000, la généralisation de l’internet et les débuts du commerce
électronique entraînent la naissance d’un véritable marché. Trois sociétés –
Systran, Softissimo et Lernout & Hauspie – lancent des produits à destination du
grand public, des professionnels et des industriels. Systran développe un
logiciel de traduction utilisé notamment par le moteur de recherche AltaVista.
Softissimo commercialise la série de logiciels de traduction Reverso, à côté de
produits d’écriture multilingue, de dictionnaires électroniques et de méthodes
de langues. Reverso équipe par exemple Voilà, le moteur de recherche de France
Télécom. Lernout & Hauspie (racheté depuis par ScanSoft) propose des produits et
services en dictée, traduction, compression vocale, synthèse vocale et
documentation industrielle.

En mars 2001, IBM se lance à son tour dans un marché en pleine expansion avec un
produit professionnel haut de gamme, le WebSphere Translation Server. Ce
logiciel traduit instantanément en plusieurs langues (allemand, anglais,
chinois, coréen, espagnol, français, italien, japonais) les pages web, les
courriels et les dialogues en direct (chats). Il interprète 500 mots à la
seconde et permet l’ajout de vocabulaires spécifiques.

En juin 2001, les sociétés Logos et Y.A. Champollion s’associent pour créer
Champollion Wordfast, une société de services d’ingénierie en traduction et
localisation et en gestion de contenu multilingue. Wordfast est un logiciel de
traduction avec terminologie disponible en temps réel et contrôle typographique.
Il est compatible avec le WebSphere Translation Server d’IBM, les logiciels de
TMX et ceux de Trados. Une version simplifiée de Wordfast est téléchargeable
gratuitement, avec un manuel d’utilisation disponible en 16 langues.

Des organismes publics participent eux aussi à la R&D (recherche et
développement) en traduction automatique. Suivent trois exemples parmi d’autres.

Rattaché à l’USC/ISI (University of Southern California / Information Sciences
Institute), le Natural Language Group traite de plusieurs aspects du traitement
de la langue naturelle: traduction automatique, résumé automatique de texte,
gestion multilingue des verbes, développement de taxinomies de concepts
(ontologies), génération de texte, élaboration de gros lexiques multilingues,
communication multimédia.

Au sein du laboratoire CLIPS (Communication langagière et interaction
personne-système) de l’Institut d’informatique et mathématiques appliquées
(IMAG) de Grenoble, le GETA (Groupe d’étude pour la traduction automatique) est
une équipe pluridisciplinaire formée d’informaticiens et de linguistes. Ses
thèmes de recherche concernent tous les aspects théoriques, méthodologiques et
pratiques de la traduction assistée par ordinateur (TAO), et plus généralement
de l’informatique multilingue.

Le GETA participe entre autres à l’élaboration de l’UNL (universal networking
language), un métalangage numérique destiné à l’encodage, au stockage, à la
recherche et à la communication d’informations multilingues indépendamment d’une
langue source donnée. Ce métalangage est développé par l’UNL Program, un
programme international rassemblant de nombreux partenaires dans toutes les
communautés linguistiques. Créé dans le cadre de l’UNU/IAS (United Nations
University / Institute of Advanced Studies), ce programme se poursuit désormais
sous l’égide de l’UNDL Foundation (UNDL: universal networking digital language).

Comme le souligne en février 2001 Pierre-Noël Favennec, expert à la direction
scientifique de France Télécom R&D, «les recherches sur la traduction
automatique devraient permettre une traduction automatique dans les langues
souhaitées, mais avec des applications pour toutes les langues et non les seules
dominantes (ex.: diffusion de documents en japonais, si l’émetteur est de langue
japonaise, et lecture en breton, si le récepteur est de langue bretonne...). Il
y a donc beaucoup de travaux à faire dans le domaine de la traduction
automatique et écrite de toutes les langues.»


11.5. Chronologie


* Cette chronologie ne prétend pas à l’exhaustivité.

1963: ASCII (American standard code for information interchange).

1991 (janvier): Fondation de l’Unicode Consortium.

1997: Outils professionnels de Logos en accès libre.

1999: yourDictionary.com, cofondé par Robert Beard.

2001 (mars): WebSphere Translation Server, lancé par IBM.

2001 (juin): Wordfast, logiciel de traduction de Logos et Champollion.


12. DE NOMBREUX DEFIS


[12.1. L’internet, espace de liberté // 12.2. Domaine public versus copyright //
12.3. La convergence multimédia // 12.4. La relation information-utilisateur //
12.5. Ecriture et édition en ligne // 12.6. Numérique versus imprimé]

«L’internet pose une foule de questions et il faudra des années pour organiser
des réponses, imaginer des solutions», écrit en janvier 2001 Pierre Schweitzer,
inventeur du projet @folio, une tablette numérique de lecture nomade. «L’état
d’excitation et les soubresauts autour de la dite "nouvelle" économie sont sans
importance, c’est l’époque qui est passionnante.»


12.1. L’internet, espace de liberté


Apparu en 1974, l'internet se développe à partir de 1983 et prend son essor avec
l’avènement du web en 1990 et l’apparition du premier navigateur en 1993.
Quelque trente ans après les débuts de l'internet, «ses trois pouvoirs -
l'ubiquité, la variété et l'interactivité - rendent son potentiel d'usages quasi
infini», lit-on dans le quotidien Le Monde du 19 août 2005. Nous sommes un
milliard à utiliser l’internet à la fin 2006.

Mais comment définir l'internet autrement que par ses composantes techniques?
Sur le site de l’Internet Society (ISOC), organisme international coordonnant le
développement du réseau, A Brief History of the Internet propose une triple
définition. L’internet est: a) un instrument de diffusion internationale, b) un
mécanisme de diffusion de l’information, c) un moyen de collaboration et
d’interaction entre les individus et les ordinateurs, indépendamment de leur
situation géographique.

Selon ce document, bien plus que toute autre invention (télégraphe, téléphone,
radio, ordinateur), l’internet révolutionne de fond en comble le monde des
communications. Il représente l'un des exemples les plus réussis d’interaction
entre un investissement soutenu dans la recherche et le développement d’une
infrastructure de l’information, dans le cadre d’un réel partenariat entre les
gouvernements, les entreprises et les universités.

Sur le site du World Wide Web Consortium (W3C), organisme international de
normalisation du web, Bruce Sterling décrit le développement spectaculaire de
l’internet dans Short History of the Internet. L’internet se développe plus vite
que les téléphones cellulaires et les télécopieurs. En 1996, sa croissance est
de 20% par mois. Le nombre de machines ayant une connexion directe TCP/IP
(transmission control protocol / internet protocol) a doublé depuis 1988.
D’abord présent dans l’armée et dans les instituts de recherche, l’internet
déferle dans les écoles, les universités et les bibliothèques, et il est
également pris d’assaut par le secteur commercial.

Bruce Sterling s’intéresse aux raisons pour lesquelles on se connecte à
l’internet. Une raison majeure lui semble être la liberté. L’internet est un
exemple d’«anarchie réelle, moderne et fonctionnelle». Il n’y a pas de société
régissant l’internet. Il n’y a pas non plus de censeurs officiels, de patrons,
de comités de direction ou d’actionnaires. Toute personne peut parler d’égale à
égale avec une autre, du moment qu’elle se conforme aux protocoles TCP/IP, des
protocoles qui ne sont pas sociaux ni politiques mais strictement techniques.
Malgré tous les efforts des «dinosaures» politiques et commerciaux, il est
difficile à quelque organisme que ce soit de mettre la main sur l’internet.
C’est ce qui fait sa force.

On y voit aussi une réelle solidarité. Christiane Jadelot, ingénieur d’études à
l’INaLF-Nancy (INaLF: Institut national de la langue française), relate en juin
1998: «J’ai commencé à utiliser vraiment l’internet en 1994, je crois, avec un
logiciel qui s’appelait Mosaic. J’ai alors découvert un outil précieux pour
progresser dans ses connaissances en informatique et linguistique,
littérature... Tous les domaines sont couverts. Il y a le pire et le meilleur,
mais en consommateur averti, il faut faire le tri de ce que l’on trouve. J’ai
surtout apprécié les logiciels de courrier, de transfert de fichiers, de
connexion à distance. J’avais à cette époque des problèmes avec un logiciel qui
s’appelait Paradox et des polices de caractères inadaptées à ce que je voulais
faire. J’ai tenté ma chance et posé la question dans un groupe de News
approprié. J’ai reçu des réponses du monde entier, comme si chacun était
soucieux de trouver une solution à mon problème!»

Quelles sont les relations entre l’internet et les autres médias? En janvier
1998, lors d’un entretien avec Annick Rivoire, journaliste du quotidien
Libération, Pierre Lévy, philosophe, explique que l’internet va contribuer à la
fin des monopoles: «Le réseau désenclave, donne plus de chance aux petits. On
crie "ah! le monopole de Microsoft", mais on oublie de dire que l’internet sonne
la fin du monopole de la presse, de la radio et de la télévision et de tous les
intermédiaires.» D'après lui, l'internet ouve la voie à une intelligence
collective: «Les réseaux permettent de mettre en commun nos mémoires, nos
compétences, nos imaginations, nos projets, nos idées, et de faire en sorte que
toutes les différences, les singularités se relancent les unes les autres,
entrent en complémentarité, en synergie.»

D’après Timothy Leary, philosophe adepte du cyberespace dès ses débuts, le 21e
siècle verrait l’émergence d’un nouvel humanisme, dont les idées-force seraient
la contestation de l’autorité, la liberté de pensée et la créativité
personnelle, le tout soutenu et encouragé par la vulgarisation de l’ordinateur
et des technologies de la communication. Dans son livre Chaos et cyberculture
(éditions du Lézard, 1998), il écrit: «Jamais l’individu n’a eu à sa portée un
tel pouvoir. Mais, à l’âge de l’information, il faut saisir les signaux.
Populariser signifie "rendre accessible au peuple". Aujourd’hui, le rôle du
philosophe est de personnaliser, de populariser et d’humaniser les concepts
informatiques, de façon à ce que personne ne se sente exclu.»

L’internet vient au secours de la liberté d’expression. Il permet de lire en
ligne des titres difficiles ou impossibles à trouver en kiosque. Il permet aussi
aux journaux interdits d’être publiés malgré tout. C’est le cas de
l’hebdomadaire algérien La Nation, contraint de cesser ses activités en décembre
1996 parce qu’il dénonce les violations des droits humains en Algérie. Un an
après, un numéro spécial de La Nation est disponible sur le site de Reporters
sans frontières (RSF). «En mettant La Nation en ligne, notre but était de dire :
cela n’a plus de sens de censurer les journaux en Algérie, parce que grâce à
internet les gens peuvent récupérer les articles, les imprimer, et les
distribuer autour d’eux», indique Malti Djallan, à l’origine de cette
initiative.

En décembre 1997, le journal électronique Nouvelles du bled est lancé dans la
même optique à Paris par Mohamed Zaoui, journaliste algérien en exil, et
Christian Debraisne, infographiste français responsable de la mise en page.
L’équipe regroupe une douzaine de personnes qui se retrouvent le jeudi soir dans
un café du 11e arrondissement. La revue de presse est  faite à partir des
journaux d’Alger. Dans Le Monde du 23 mars 1998, Mohamed Zaoui explique: «La
rédaction d’El Watan (quotidien algérien, ndlr), par exemple, nous envoie des
papiers qu’elle ne peut pas publier là-bas. C’est une façon de déjouer la
censure. J’avais envie d’être utile et j’ai pensé que mon rôle en tant que
journaliste était de saisir l’opportunité d’internet pour faire entendre une
autre voix entre le gouvernement algérien et les intégristes.» Christian
Debraisne ajoute : «Avec internet, nous avons trouvé un espace de libre
expression et, en prime, pas de problème d’imprimerie ni de distribution. Je
récupère tous les papiers et je les mets en ligne la nuit à partir de chez moi.»
Nouvelles du bled paraît jusqu’en octobre 1998. Quant à El Watan, il est en
ligne depuis octobre 1997. Redha Belkhat, son rédacteur en chef, explique: «Pour
la diaspora algérienne, trouver dans un kiosque à Londres, New York ou Ottawa un
numéro d’El Watan daté de moins d’une semaine relève de l’exploit. Maintenant,
le journal tombe ici à 6 heures du matin, et à midi il est sur internet.»

Outil de communication, l’internet est une passerelle au-dessus du gouffre
séparant riches et pauvres, ceux qui ont du travail et ceux qui n’en ont pas,
ceux qui ont leur place dans la société et ceux qui en sont exclus. Un encart de
la revue Psychologies de mai 1998 relate: «Aux Etats-Unis, un mouvement voit le
jour: la confiance en soi... par internet! Des milliers de sans-abri ont recours
au réseau pour retrouver une place dans la société. Non seulement le net fournit
une adresse à qui n’en a pas et ôte les inhibitions de qui redoute d’être jugé
sur son apparence, mais c’est aussi une source d’informations et de contacts
incomparable. Bibliothèques et associations d’aide au quart-monde l’ont bien
compris: des salles informatiques, avec accès à internet, animées par des
formateurs, sont ouvertes un peu partout et les mairies en publient la liste. A
travers le e-mail (courrier électronique), les homeless (sans-abri) obtiennent
les adresses des lieux d’accueil, des banques alimentaires et des centres de
soins gratuits, ainsi qu’une pléthore de sites pour trouver un emploi. A 50 ans,
Matthew B. a passé le quart de sa vie dans la rue et survit, depuis trois ans,
d’une maigre subvention. Il hante la bibliothèque de San Francisco, les yeux
rivés sur l’écran des ordinateurs. "C’est la première fois, dit-il, que j’ai le
sentiment d’appartenir à une communauté. Il est moins intimidant d’être sur
internet que de rencontrer les gens face à face."»


12.2. Domaine public versus copyright


Si le débat relatif au droit d’auteur sur l’internet est vif dans les années
2000, Philippe Loubière, traducteur littéraire et dramatique, ramène ce débat
aux vrais problèmes. «Le débat sur le droit d’auteur sur le web me semble assez
proche sur le fond de ce qu’il est dans les autres domaines où le droit d’auteur
s’exerce, ou devrait s’exercer, écrit-il en mars 2001. Le producteur est en
position de force par rapport à l’auteur dans pratiquement tous les cas de
figure. Les pirates, voire la simple diffusion libre, ne menacent vraiment
directement que les producteurs. Les auteurs ne sont menacés que par ricochet.
Il est possible que l’on puisse légiférer sur la question, au moins en France où
les corporations se revendiquant de l’exception culturelle sont actives et
résistent encore un peu aux Américains, mais le mal est plus profond. En effet,
en France comme ailleurs, les auteurs étaient toujours les derniers et les plus
mal payés avant l’apparition d’internet, on constate qu’ils continuent d’être
les derniers et les plus mal payés depuis. Il me semble nécessaire que l’on
règle d’abord la question du respect des droits d’auteur en amont d’internet.
Déjà dans le cadre général de l’édition ou du spectacle vivant, les sociétés
d’auteurs - SACD (Société des auteurs et compositeurs dramatiques), SGDL
(Société des gens de lettres), SACEM (Société des auteurs, compositeurs et
éditeurs de musique), etc. - faillissent dès lors que l’on sort de la routine ou
du vedettariat, ou dès que les producteurs abusent de leur position de force, ou
tout simplement ne payent pas les auteurs, ce qui est très fréquent.»

Des auteurs et créateurs souhaitent respecter la vocation première du web,
réseau de diffusion à l’échelon mondial. De ce fait, les adeptes de contrats
flexibles  -  copyleft, GPL (general public license) et Creative Commons - sont
de plus en plus nombreux.

L'idée du copyleft est lancée en 1984 par Richard Stallman, programmeur et
défenseur inlassable du logiciel libre au sein de la Free Software Foundation
(FSF). Conçu à l’origine pour les logiciels, le copyleft est formalisé par la
GPL (general public license) et étendu ensuite à toute oeuvre de création. Il
contient la déclaration normale du copyright affirmant le droit d'auteur. Son
originalité est de donner au lecteur le droit de librement redistribuer le
document et de le modifier. Le lecteur s’engage toutefois à ne revendiquer ni le
travail original, ni les changements effectués par d’autres personnes. De plus,
tous les travaux dérivés de l’oeuvre originale sont eux-mêmes soumis au
copyleft.

Lancée en 2004 par Lawrence Lessig, professeur de droit en Californie, la
licence Creative Commons a pour but de favoriser la diffusion d'oeuvres
numériques tout en protégeant le droit d'auteur. L'organisme du même nom propose
des licences-type, qui sont des contrats flexibles de droit d'auteur compatibles
avec une diffusion sur l'internet. Simplement rédigées, ces autorisations non
exclusives permettent aux titulaires des droits d'autoriser le public à utiliser
leurs créations tout en ayant la possibilité de restreindre les exploitations
commerciales et les oeuvres dérivées. L'auteur peut par exemple choisir
d'autoriser ou non la reproduction et la rediffusion de ses oeuvres. Ces
contrats peuvent être utilisés pour tout type de création : texte, film, photo,
musique, site web, etc. Finalisée en février 2007, la version 3.0 de la Creative
Commons instaure une licence internationale et la compatibilité avec d'autres
licences similaires, dont le copyleft et la GPL.

Chose inquiétante à l’heure d’une société dite de l’information, le domaine
public se réduit comme peau de chagrin. A une époque qui n'est pas si lointaine,
50% des oeuvres appartenaient au domaine public, et pouvaient donc être
librement utilisées par tous. D'ici 2100, 99% des oeuvres seraient régies par le
droit d’auteur, avec un maigre 1% laissé au domaine public. Un problème épineux
pour tous ceux qui gèrent des bibliothèques numériques, et qui affecte aussi
bien le Projet Gutenberg que Google Livres.

Si le Projet Gutenberg s’est donné pour mission de diffuser gratuitement par
voie électronique le plus grand nombre possible d’oeuvres du domaine public, sa
tâche n’est guère facilitée par les coups de boutoir portés au domaine public.
Michael Hart, son fondateur, se penche sur la question depuis quelque trente
ans, avec l’aide d’un groupe d’avocats spécialisés dans le droit d’auteur.
Raison pour laquelle on expose ici ses réflexions, pour montrer combien le
domaine public s'est dégradé au fil des siècles, et particulièrement au 20e
siècle.

Dans la section Copyright HowTo, le Projet Gutenberg détaille les calculs à
faire pour déterminer si un titre publié aux Etats-Unis appartient ou non au
domaine public. Les oeuvres publiées avant 1923 sont soumises au droit d’auteur
pendant 75 ans à partir de leur date de publication (elles sont donc maintenant
du domaine public). Les oeuvres publiées entre 1923 et 1977 sont soumises au
droit d’auteur pendant 95 ans à partir de leur date de publication (rien ne
tombera dans le domaine public avant 2019). Une oeuvre publiée en 1998 et les
années suivantes est soumise au droit d’auteur pendant 70 ans à partir de la
date du décès de l’auteur s’il s’agit d’un auteur personnel (rien dans le
domaine public avant 2049), ou alors pendant 95 ans à partir de la date de
publication - ou 120 ans à partir de la date de création - s’il s’agit d’un
auteur collectif (rien dans le domaine public avant 2074). Tout ceci dans les
grandes lignes. D’autres règles viennent s’ajouter à ces règles de base, et la
loi sur le copyright est retouchée 11 fois au cours des 40 dernières années.

Nettement plus contraignante que la précédente, la législation actuelle est
entérinée par le Congrès le 27 octobre 1998 pour contrer le formidable véhicule
de diffusion qu'est l'internet. Au fil des siècles, chaque avancée technique est
accompagnée d'un durcissement du copyright, qui semble être la réponse des
éditeurs à un accès plus facile au savoir, et la peur afférente de perdre des
royalties. «Le copyright a été augmenté de 20 ans, explique Michael Hart en
juillet 1999. Auparavant on devait attendre 75 ans, on est maintenant passé à 95
ans. Bien avant, le copyright durait 28 ans (plus une extension de 28 ans si on
la demandait avant l’expiration du délai) et, avant cela, le copyright durait 14
ans (plus une extension de 14 ans si on la demandait avant l’expiration du
délai). Comme on le voit, on assiste à une dégradation régulière et constante du
domaine public.»

Les dates évoquées sont les suivantes:

(a) 1790 est la date de la main-mise de la Guilde des imprimeurs (les éditeurs
de l’époque en Angleterre) sur les auteurs, qui entraîne la naissance du
copyright. Le 1790 Copyright Act institue un copyright de 14 ans après la date
de publication de l’oeuvre, plus une extension de 28 ans si celle-ci est
demandée avant l’expiration du délai. Les oeuvres pouvant être légalement
imprimées passent subitement de 6.000 à 600, et neuf titres sur dix
disparaissent des librairies. Quelque 335 ans après les débuts de l'imprimerie,
censée ouvrir les portes du savoir à tous, le monde du livre est désormais
contrôlé par les éditeurs et non plus par les auteurs. Cette nouvelle
législation est également effective aux Etats-Unis et en France.

(b) 1831 est la date d'un premier renforcement du copyright pour contrer la
réédition de vastes collections du domaine public sur les nouvelles presses à
vapeur. Le 1831 Copyright Act institue un copyright de 28 ans après la date de
publication de l’oeuvre, plus une extension de 14 ans si celle-ci est demandée
avant l’expiration du délai, à savoir un total de 42 ans.

(c) 1909 est la date d'un deuxième renforcement du copyright pour contrer une
réédition des collections du domaine public sur les nouvelles presses
électriques. Le 1909 Copyright Act double la période de l’extension, qui passe à
28 ans, le tout représentant un total de 56 ans.

(d) 1976 est la date d’un nouveau durcissement du copyright suite l’apparition
de la photocopieuse lancée par Xerox. Le 1976 Copyright Act institue un
copyright de 50 ans après le décès de l’auteur. De ce fait, tout copyright en
cours avant le 19 septembre 1962 n’expire pas avant le 31 décembre 1976.

(e) 1998 est la date d’un durcissement supplémentaire du copyright suite au
développement rapide des technologies numériques et aux centaines de milliers
d'oeuvres désormais disponibles sur CD et DVD et sur le web, gratuitement ou à
un prix très bas. Le 1998 Copyright Act allonge la durée du copyright qui est
désormais de 70 ans après le décès de l’auteur, pour protéger l'empire Disney
(raison pour laquelle on parle souvent de Mickey Mouse Copyright Act) et nombre
de multinationales culturelles.

Pour ne prendre qu'un exemple, le classique mondial Autant en emporte le vent
(Gone With the Wind), publié en 1939, aurait dû tomber dans le domaine public au
bout de 56 ans, en 1995, conformément à la législation de l'époque, libérant
ainsi les droits pour les adaptations en tous genres. Suite aux législations de
1976 et 1998, ce classique ne devrait désormais tomber dans le domaine public
qu'en 2035.

La législation de 1998 porte un coup très rude aux bibliothèques numériques, en
plein essor avec le développement du web, et scandalisent ceux qui les gèrent, à
commencer par Michael Hart et John Mark Ockerbloom, créateur de l'Online Books
Page en 1993. Nombre de titres doivent être retirés des collections. Mais
comment faire le poids vis-à-vis des majors de l’édition?

Michael Hart raconte en juillet 1999: «J’ai été le principal opposant aux
extensions du copyright, mais Hollywood et les grands éditeurs ont fait en sorte
que le Congrès ne mentionne pas mon action en public. Les débats actuels sont
totalement irréalistes. Ils sont menés par “l’aristocratie terrienne de l’âge de
l’information” et servent uniquement ses intérêts. Un âge de l’information? Et
pour qui?»

John Mark Ockerbloom écrit en août 1999: «Il est important que les internautes
comprennent que le copyright est un contrat social conçu pour le bien public -
incluant à la fois les auteurs et les lecteurs. Ceci signifie que les auteurs
devraient avoir le droit d'utiliser de manière exclusive et pour un temps limité
les oeuvres qu'ils ont créées, comme ceci est spécifié dans la loi actuelle sur
le copyright. Mais ceci signifie également que leurs lecteurs ont le droit de
copier et de réutiliser ce travail autant qu'ils le veulent à l'expiration de ce
copyright. Aux Etats-Unis, on voit maintenant diverses tentatives visant à
retirer ces droits aux lecteurs, en limitant les règles relatives à
l'utilisation de ces oeuvres, en prolongeant la durée du copyright (y compris
avec certaines propositions visant à le rendre permanent) et en étendant la
propriété intellectuelle à des travaux distincts des oeuvres de création (comme
on en trouve dans les propositions de copyright pour les bases de données). Il
existe même des propositions visant à entièrement remplacer la loi sur le
copyright par une loi instituant un contrat beaucoup plus lourd. Je trouve
beaucoup plus difficile de soutenir la requête de Jack Valenti, directeur de la
MPAA (Motion Picture Association of America), qui demande d'arrêter de copier
les films sous copyright, quand je sais que, si ceci était accepté, aucun film
n'entrerait jamais dans le domaine public (Mary Bono a fait mention des vues de
Jack Valenti au Congrès l'année dernière). Si on voit les sociétés de médias
tenter de bloquer tout ce qu'elles peuvent, je ne trouve pas surprenant que
certains usagers réagissent en mettant en ligne tout ce qu'ils peuvent.
Malheureusement, cette attitude est à son tour contraire aux droits légitimes
des auteurs. Comment résoudre cela pratiquement? Ceux qui ont des enjeux dans ce
débat doivent faire face à la réalité, et reconnaître que les producteurs
d'oeuvres et leurs usagers ont tous deux des intérêts légitimes dans
l'utilisation de celles-ci. Si la propriété intellectuelle était négociée au
moyen d'un équilibre des principes plutôt que par le jeu du pouvoir et de
l'argent que nous voyons souvent, il serait peut-être possible d'arriver à un
compromis raisonnable.»

En effet. Les instances politiques ne cessent de parler d’âge de l’information
alors que, en parallèle, elles durcissent la réglementation relative à la mise à
disposition de cette information. La contradiction est flagrante. Le copyright
est passé d'une durée de 30 ans en moyenne en 1909 à une durée de 95 ans en
moyenne en 1998, explique Michael Hart sur son blog. En 89 ans, de 1909 à 1998,
le copyright a subi une extension de 65 ans qui affecte les trois quarts de la
production du 20e siècle. Seul un livre publié avant 1923 peut être considéré
avec certitude comme du domaine public. Un durcissement similaire touche les
pays de l'Union européenne. La règle générale est désormais un copyright de 70
ans après le décès de l’auteur, alors qu’il était auparavant de 50 ans. Ceci
suite aux pressions exercées par les éditeurs de contenu, sous le prétexte
d’«harmoniser» les lois nationales relatives au copyright pour répondre à la
mondialisation du marché.

A ceci s'ajoute la législation sur le copyright des éditions numériques en
application des traités internationaux de l'OMPI (Organisation mondiale de la
propriété intellectuelle) signés en 1996 dans l'optique du contrôle de la
gestion des droits numériques. Le Digital Millenium Copyright Act (DMCA) est
entériné en octobre 1998 aux Etats-Unis. La directive EUCD (European Union
Copyright Directive) est entérinée en mai 2001 par la Communauté européenne. En
français, cette directive s'intitule très précisément «Directive 2001/29/EC du
Parlement européen et du Conseil sur l'harmonisation de certains aspects du
droit d'auteur et des droits voisins dans la société de l'information». Elle
fait suite à la directive de février 1993 (Directive 93/98/EEC) qui visait à
harmoniser les législations des différents pays en matière de protection du
droit d'auteur. La directive EUCD entre peu à peu en vigueur dans tous les pays
de l'Union européenne, avec mise en place de législations nationales, le but
officiel étant de renforcer le respect du droit d'auteur sur l'internet et de
contrer ainsi le piratage. En France, par exemple, la loi DADVSI (droit d'auteur
et droits voisins dans la société de l'information) est promulguée en août 2006,
et n'est pas sans susciter de nombreux remous.

Mais revenons aux bibliothèques numériques. Pour éviter les poursuites
judiciaires, le Projet Gutenberg se lance régulièrement dans des recherches
pouvant durer des années pour déterminer si tel ou tel livre est du domaine
public ou non. A ce jour, il peut s’enorgueillir d’un résultat exact à 99,9%
pour l’ensemble de ses collections, ce qui signifie que 20 livres seulement sur
les 20.000 livres que comptent les collections (chiffres de décembre 2006)
pourraient poser problème. Sur le site du Doctrine Publishing Corporation Consortia Center
(PGCC), Michael Hart raconte que la version originale en tchèque de Universal
Robots de Rossum lui a demandé des années de recherches dans le monde entier
pour avoir l’assurance que cette version était du domaine public aux Etats-Unis.
Quant au discours I Have a Dream de Martin Luther King, tombé pendant un temps
court dans le domaine public, il a dû être retiré des collections suite au
passage d'une législation plus contraignante sur le copyright.

Une lueur d'espoir existe toutefois pour les livres parus après 1923. D’après
Greg Newby, directeur de la Doctrine Publishing Corporation Literary Archive Foundation
(PGLAF), un million de livres publiés aux Etats-Unis entre 1923 et 1963
appartiendrait en fait au domaine public, puisque seuls 10% des copyrights sont
effectivement renouvelés - avec renouvellement demandé entre 1950 et 1993. Les
livres dont le copyright n’a pas été renouvelé peuvent donc légalement intégrer
les collections du Projet Gutenberg. Pourquoi la période 1923-1963? Parce que
les livres parus avant le 1er janvier 1923 sont du domaine public et que les
livres parus à compter du 1er janvier 1964 ont vu leur copyright automatiquement
renouvelé suite à l'adoption du 1976 Copyright Act.

Pour un titre donné, comment savoir si le copyright a été renouvelé ou non? Pour
les livres aux copyrights renouvelés en 1978 et après, on dispose de la base de
données en ligne du US Copyright Office. Pour les livres aux copyrights
renouvelés entre 1950 et 1977, on ne disposait que des publications imprimées
bisannuelles (deux fois par an) du même Copyright Office. En 2004, ces listes
sont numérisées par Distributed Proofreaders et mises en ligne sur le site du
Projet Gutenberg. Si un livre publié entre 1923 et 1963 ne figure sur aucune de
ces listes, cela signifie que son copyright n'a pas été renouvelé, qu'il est
tombé dans le domaine public et qu'on peut donc le traiter. En avril 2007,
l’Université de Stanford (Californie) convertit les listes numérisées du Projet
Gutenberg en base de données (Copyright Renewal Database), avec recherche
possible par titre, auteur, date du copyright et date de renouvellement du
copyright.


12.3. La convergence multimédia


Depuis plus de trente ans, la chaîne de l’édition est soumise à de nombreux
bouleversements. Dans les années 1970, l’imprimerie traditionnelle est d’abord
ébranlée par l’apparition des machines de photocomposition. Le coût de
l’impression continue ensuite de baisser avec les procédés d’impression assistée
par ordinateur, les photocopieurs, les photocopieurs couleur et le matériel
d’impression numérique. Dans les années 1990, l’impression est souvent assurée à
bas prix par des ateliers de PAO (publication assistée par ordinateur). Tout
contenu est désormais systématiquement numérisé pour permettre son transfert par
voie électronique.

La numérisation permet de créer, d’enregistrer, de combiner, de stocker, de
rechercher et de transmettre  des textes, des sons et des images par des moyens
simples et rapides. Des procédés similaires permettent le traitement de
l’écriture, de la musique et du cinéma alors que, par le passé, ce traitement
était assuré par des procédés différents sur des supports différents (papier
pour l’écriture, bande magnétique pour la musique, celluloïd pour le cinéma). De
plus, des secteurs distincts comme l’édition (qui produit des livres) et
l’industrie musicale (qui produit des disques) travaillent de concert pour
produire des CD-Rom.

La numérisation accélère considérablement le processus matériel de production.
Dans la presse, alors qu’auparavant le personnel de production devait
dactylographier les textes du personnel de rédaction, les journalistes envoient
désormais directement leurs textes pour mise en page. Dans l’édition, le
rédacteur, le concepteur artistique et l'infographiste travaillent souvent
simultanément sur le même ouvrage. On assiste progressivement à la convergence
de tous les secteurs liés à l’information: imprimerie, édition, presse,
conception graphique, enregistrements sonores, films, radiodiffusion, etc.

La convergence multimédia peut être définie comme la convergence de
l’informatique, du téléphone, de la radio et de la télévision dans une industrie
de la communication et de la distribution utilisant les mêmes inforoutes. Si
certains secteurs voient l’apparition de nouveaux emplois, par exemple ceux liés
à la production audio-visuelle, d’autres secteurs sont soumis à d’inquiétantes
restructurations. La convergence multimédia a d’autres revers, à savoir des
contrats occasionnels et précaires pour les salariés, l’absence de syndicats
pour les télétravailleurs, le droit d’auteur souvent mis à mal pour les auteurs,
etc. Et, à l’exception du droit d’auteur, vu l’enjeu financier qu’il représente,
il est rare que ces problèmes fassent la Une des journaux.

La convergence multimédia amène-t-elle des emplois nouveaux, comme l’assurent
les employeurs, ou bien est-elle source de chômage, comme l’affirment les
syndicats? Ce sujet est débattu dès 1997 lors du Colloque sur la convergence
multimédia organisé par le Bureau international du travail (BIT) à Genève.

Si elle accélère le processus de production, l’automatisation des méthodes de
travail entraîne une diminution de l’intervention humaine et donc un
accroissement du chômage. Dans la presse comme dans l'édition, la mise en page
automatique permet de combiner rédaction et composition. Dans les services
publicitaires aussi, la conception graphique et les tâches commerciales sont
maintenant intégrées. L’informatique permet à certains professionnels de
s’installer à leur compte, une solution choisie par 30% des salariés ayant perdu
leur emploi.

Professeur associé d’études sociales à l’Université d’Utrecht (Pays-Bas), Peter
Leisink précise que la rédaction des textes et la correction d’épreuves se font
désormais à domicile, le plus souvent par des travailleurs ayant pris le statut
d’indépendants à la suite de licenciements, délocalisations ou fusions
d’entreprises. «Or cette forme d’emploi tient plus du travail précaire que du
travail indépendant, car ces personnes n’ont que peu d’autonomie et sont
généralement tributaires d’une seule maison d’édition.»

A part quelques cas particuliers mis en avant par les organisations
d’employeurs, la convergence multimédia entraîne des suppressions massives
d’emplois. Selon Michel Muller, secrétaire général de la FILPAC (Fédération des
industries du livre, du papier et de la communication), les industries
graphiques françaises perdent 20.000 emplois en dix ans. Entre 1987 et 1996, les
effectifs passent de de 110.000 à 90.000 salariés. Les entreprises doivent
mettre sur pied des plans sociaux coûteux pour favoriser le reclassement des
personnes licenciées, en créant des emplois souvent artificiels, alors qu’il
aurait été préférable de financer des études fiables sur la manière d’équilibrer
créations et suppressions d’emplois quand il était encore temps.

Partout dans le monde, de nombreux postes à faible qualification technique sont
remplacés par des postes exigeant des qualifications techniques élevées. Les
personnes peu qualifiées sont licenciées. D’autres suivent une formation
professionnelle complémentaire, parfois auto-financée et prise sur leur temps
libre, et cette formation professionnelle ne garantit pas pour autant le
réemploi.

Directeur de AT&T, géant des télécommunications aux Etats-Unis, Walter Durling
insiste sur le fait que les nouvelles technologies ne changeront pas
fondamentalement la situation des salariés au sein de l'entreprise. L’invention
du film n’a pas tué le théâtre et celle de la télévision n’a pas fait
disparaître le cinéma. Les entreprises devraient créer des emplois liés aux
nouvelles technologies et les proposer à ceux qui sont obligés de quitter
d’autres postes devenus obsolètes. Des arguments bien théoriques alors que le
problème est plutôt celui du pourcentage. Combien de créations de postes pour
combien de licenciements?

De leur côté, les syndicats préconisent la création d’emplois par
l’investissement, l’innovation, la formation professionnelle aux nouvelles
technologies, la reconversion des travailleurs dont les emplois sont supprimés,
des conditions équitables pour les contrats et les conventions collectives, la
défense du droit d’auteur, une meilleure protection des travailleurs dans le
secteur artistique et enfin la défense des télétravailleurs en tant que
travailleurs à part entière.

Malgré tous les efforts des syndicats, la situation deviendra-elle aussi
dramatique que celle décrite dans une note du rapport de ce colloque, demandant
si «les individus seront forcés de lutter pour survivre dans une jungle
électronique avec les mécanismes de survie qui ont été mis au point au cours des
précédentes décennies?»

A ceci s’ajoutent la sous-traitance et la délocalisation. Pour la numérisation
de catalogues par exemple, certaines bibliothèques font appel à des sociétés
employant un personnel temporaire avec de bas salaires et la rapidité pour seul
critère, quand les fichiers papier ne sont pas tout simplement envoyés en Asie
et les informations saisies par des opérateurs ne connaissant pas la langue et
faisant l’impasse sur les accents. Certains catalogues sont ensuite passés au
crible et vérifiés sinon corrigés, d’autres non.

La distinction traditionnelle entre maison d’édition, éditeur de presse,
librairie, bibliothèque, etc., sera-t-elle encore de mise dans quelques années?
Le développement de l’édition électronique amène des changements substantiels
dans les relations entre les auteurs, les éditeurs et les lecteurs. Les
catégories professionnelles forgées au fil des siècles - éditeurs, journalistes,
bibliothécaires, etc. - s'adapteront-elles à la convergence multimédia, comme
c’est le cas avec les premiers cyberéditeurs, cyberjournalistes, cyberthécaires,
etc., ou bien toutes ces activités seront-elles progressivement restructurées
pour donner naissance à de nouveaux métiers?

L’internet offre aussi de réels avantages en matière d’emploi, notamment la
possibilité de chercher du travail en ligne et de recruter du personnel par le
même biais. Changer d’emploi devient plus facile, tout comme le télétravail.
Créatrice du site littéraire Zazieweb, Isabelle Aveline raconte en juin 1998:
«Grâce à internet les choses sont plus souples, on peut très facilement passer
d’une société à une autre (la concurrence!), le télétravail pointe le bout de
son nez (en France c’est encore un peu tabou...), il n’y a plus forcément de
grande séparation entre espace pro et personnel.»

Claire Le Parco, de la société Webnet, qui gère le site Poésie française,
précise à la même date: «En matière de recrutement, internet a changé
radicalement notre façon de travailler, puisque nous passons maintenant toutes
nos offres d’emploi (gratuitement) dans le newsgroup "emploi". Nous utilisons un
intranet pour échanger nombre d’informations internes à l’entreprise:
formulaires de gestion courante, archivage des documents émis, suivi des
déplacements, etc. La demande des entreprises est très forte, et je crois que
nous avons de beaux jours devant nous!»

Rédacteur et webmestre du Biblio On Line, un portail destiné aux bibliothèques,
Jean-Baptiste Rey relate en juin 1998: «Personnellement internet a complètement
modifié ma vie professionnelle puisque je suis devenu webmestre de site internet
et responsable du secteur nouvelles technologies d’une entreprise informatique
parisienne (Quick Soft Ingénierie, ndlr). Il semble que l’essor d’internet en
France commence (enfin) et que les demandes tant en matière d’informations, de
formations que de réalisations soient en grande augmentation.»

Fabrice Lhomme, webmestre d’Une Autre Terre, site consacré à la science-fiction,
raconte à la même date: «Une Autre Terre est un serveur personnel hébergé
gratuitement par la société dans laquelle je travaille. Je l’ai créé uniquement
par passion pour la SF et non dans un but professionnel même si son audience
peut laisser envisager des débouchés dans ce sens. Par contre internet a bel et
bien changé ma vie professionnelle. Après une expérience de responsable de
service informatique, j’ai connu le chômage et j’ai eu plusieurs expériences
dans le commercial. Le poste le plus proche de mon domaine d’activité que j’ai
pu trouver était vendeur en micro-informatique en grande surface. Je dois
préciser quand même que je suis attaché à ma région (la Bretagne, ndlr) et que
je refusais de m’"expatrier". Jusqu’au jour donc où j’ai trouvé le poste que
j’occupe depuis deux ans. S’il n’y avait pas eu internet, je travaillerais
peut-être encore en grande surface. Actuellement, l’essentiel de mon activité
tourne autour d’internet (réalisation de serveurs web, intranet/extranet,...)
mais ne se limite pas à cela. Je suis technicien informatique au sens large du
terme puisque je m’occupe aussi de maintenance, d’installation de matériel, de
réseaux, d’audits, de formations, de programmation... (...) J’ai trouvé dans
internet un domaine de travail très attrayant et j’espère fortement continuer
dans ce segment de marché. La société dans laquelle je travaille est une petite
société en cours de développement. Pour l’instant je suis seul à la technique
(ce qui explique mes nombreuses casquettes) mais nous devrions à moyen terme
embaucher d’autres personnes qui seront sous ma responsabilité.»

Des professionnels du livre décident de rejoindre des sociétés informatiques ou
alors de se spécialiser au sein de la structure dans laquelle ils travaillent,
en devenant par exemple les webmestres de leur librairie, de leur maison
d’édition ou de leur bibliothèque. Malgré cela, de nombreux postes disparaissent
avec l’introduction des nouvelles technologies. Ces salariés peuvent-ils
vraiment tous se recycler grâce à des formations professionnelles adaptées?

A ceci s’ajoutent les contrats précaires et les salaires au rabais. Pour ne
prendre que l’exemple le plus connu, en 2000, cinq ans après son lancement, la
librairie en ligne Amazon ne fait plus seulement la Une pour son modèle
économique mais aussi pour les conditions de travail de son personnel. Malgré la
discrétion d’Amazon sur le sujet et les courriers internes adressés aux salariés
sur l’inutilité des syndicats au sein de l’entreprise, les problèmes commencent
à filtrer. Ils attirent l’attention de l’organisation internationale Prewitt
Organizing Fund et du syndicat français SUD PTT Loire Atlantique (SUD signifiant
: solidaires unitaires démocratiques, et PTT signifiant: poste, télégraphe et
téléphone). En novembre 2000,  ces deux organisations débutent une action de
sensibilisation commune auprès du personnel d’Amazon France pour les inciter à
demander de meilleures conditions de travail et des salaires plus élevés. Des
représentants des deux organisations rencontrent une cinquantaine de salariés du
centre de distribution de Boigny-sur-Bionne, situé dans la banlieue d’Orléans,
au sud de Paris. Dans le communiqué qui suit cette rencontre, SUD PTT dénonce
chez Amazon France «des conditions de travail dégradées, la flexibilité des
horaires, le recours aux contrats précaires dans les périodes de flux, des
salaires au rabais, et des garanties sociales minimales». Le Prewitt Organizing
Fund mène ensuite une action similaire dans les deux autres filiales européennes
d’Amazon, en Allemagne et au Royaume-Uni.

Les problèmes auxquels la nouvelle économie est confrontée dans les années 2000
n’arrangent rien. On assiste à l’effondrement des valeurs internet en bourse.
Les recettes publicitaires sont moins importantes que prévu, alors qu’elles
représentent souvent la principale source de revenus. Dans tous les secteurs, y
compris l’industrie du livre, le ralentissement de l’économie entraîne la
fermeture d’entreprises ou bien le licenciement d’une partie de leur personnel.
C’est le cas par exemple de Britannica.com en 2000, d’Amazon.com et BOL.fr en
2001, de Cytale, Vivendi et Bertelsmann en 2002, et enfin de Gemstar et 00h00 en
2003.

En novembre 2000, la société Britannica.com, qui gère la version web de
l’Encyclopædia Britannica, annonce sa restructuration dans l’optique d’une
meilleure rentabilité. 25% du personnel est licencié, soit 75 personnes.
L’équipe de la version imprimée n’est pas affectée.

En janvier 2001, la librairie Amazon.com, qui emploie 1 800 personnes en Europe,
annonce une réduction de 15% de ses effectifs et la restructuration du service
clientèle européen, qui était basé à La Haye (Pays-Bas). Les 240 personnes
qu’emploie ce service sont transférées dans les centres de Slough (Royaume-Uni)
et Regensberg (Allemagne). Aux Etats-Unis, dans la maison-mère, suite à un
quatrième trimestre 2000 déficitaire, les effectifs sont eux aussi réduits de
15%, ce qui entraîne 1 300 licenciements.

En juillet 2001, après deux ans d’activité, la librairie en ligne française
BOL.fr ferme définitivement ses portes. Créée par deux géants des médias,
l’allemand Bertelsmann et le français Vivendi, BOL.fr faisait partie du réseau
de librairies BOL.com (BOL: Bertelsmann on line).

En avril 2002, la société française Cytale, qui avait lancé en janvier 2001 le
Cybook, une tablette électronique de lecture, doit se déclarer en cessation de
paiement, suite à des ventes très inférieures aux pronostics. L’administrateur
ne parvenant pas à trouver un repreneur, Cytale est mis en liquidation
judiciaire en juillet 2002 et cesse ses activités.

En juillet 2002, la démission forcée de Jean-Marie Messier, PDG de Vivendi
Universal, une multinationale basée à Paris et à New York, marque l’arrêt des
activités fortement déficitaires de Vivendi liées à l’internet et au multimédia,
et la restructuration de la société vers des activités plus traditionnelles.

En août 2002, la multinationale allemande Bertelsmann décide de mettre un frein
à ses activités internet et multimédias afin de réduire son endettement.
Bertelsmann se recentre lui aussi sur le développement de ses activités
traditionnelles, notamment sa maison d’édition Random House et l’opérateur
européen de télévision RTL.

En juin 2003, Gemstar, une société américaine spécialisée dans les produits et
services numériques pour les médias, décide de cesser son activité eBook, à
savoir la vente de  ses tablettes de lecture Gemstar eBook, puis celle des
livres numériques le mois suivant. Cette cessation d’activité sonne également le
glas de 00h00, pionnier de l’édition en ligne commerciale, fondé à Paris en mai
1998 et racheté par Gemstar en septembre 2000.

Toutefois, pendant la même période, les ventes d’assistants personnels (PDA)
sont en forte progression, tout comme le nombre de livres numériques disponibles
pour PDA. Un beau démenti au scepticisme de certains professionnels du livre qui
jugent leur écran beaucoup trop petit et voient mal l’activité noble qu’est la
lecture voisiner avec l’utilisation d’un agenda, d’un dictaphone ou d’un lecteur
de MP3.


12.4. La relation information-utilisateur


L'internet offre un nouvel outil (relativement) économique abolissant les
frontières. Une encyclopédie multilingue est désormais disponible à un prix
défiant toute concurrence, une fois l’ordinateur payé. Le courriel, les forums,
les chats et les blogs favorisent l’aide mutuelle et le débat d’idées.

Dans The World Wide Web: A Very Short Personal History, Tim Berners-Lee,
inventeur du web, écrit en avril 1998: «Le rêve derrière le web est un espace
d’information commun dans lequel nous communiquons en partageant l’information.
Son universalité est essentielle, à savoir le fait qu’un lien hypertexte puisse
pointer sur quoi que ce soit, quelque chose de personnel, de local ou de global,
aussi bien une ébauche qu’une réalisation très sophistiquée.»

Un auteur peut désormais faire connaître ses oeuvres en créant un site web, sans
attendre de trouver un éditeur ou en se passant tout simplement d’éditeur, et il
peut facilement échanger avec ses lecteurs. Nombreux sont les écrivains,
journalistes, bibliothécaires, enseignants, etc. qui participent à
l’enrichissement d’une toile littéraire, artistique et scientifique. La presse
en ligne est bien assise à côté des journaux et magazines imprimés. Les
libraires en ligne peuvent vendre des livres étrangers ou bien vendre à
l’étranger des livres publiés dans leur pays. Les lecteurs ont à leur
disposition des extraits ou parfois même le texte intégral des nouveautés,
qu’ils peuvent feuilleter tout à loisir à l’écran. Outre les éditeurs
traditionnels utilisant le web comme vitrine, on voit apparaître les éditeurs
électroniques, qui utilisent l’internet pour la découverte des oeuvres, leur
publication, leur promotion et leur diffusion. Les éditeurs universitaires et
spécialisés peuvent largement diffuser leurs publications électroniques sans
passer par des publications imprimées devenues trop coûteuses sinon inutiles.
Les bibliothèques traditionnelles disposent elles aussi d’une vitrine pour faire
connaître leurs collections. Les bibliothèques numériques se développent
rapidement. Grâce à elles, on dispose du texte intégral de dizaines de milliers
d’oeuvres du domaine public. A ceci s’ajoutent les collections d’images, de
musique, de vidéos et de films.

Outre ce changement radical dans la relation information-utilisateur, on assiste
à une transformation radicale de la nature même de l’information. En 1974,
Vinton Cerf co-invente avec Bob Kahn le protocole TCP/IP, à la base de tout
échange de données sur le réseau. Sur le site de l'Internet Society (ISOC),
qu'il fonde en 1992 pour promouvoir le développement de l’internet, il explique:
«Le réseau fait deux choses (...): comme les livres, il permet d’accumuler de la
connaissance. Mais, surtout, il la présente sous une forme qui la met en
relation avec d’autres informations. Alors que, dans un livre, l’information est
maintenue isolée.» De plus, l’information contenue dans les livres reste la
même, au moins pendant une période donnée, alors que l'internet privilégie
l’information la plus récente qui, elle, est en constante mutation.

Il s'ensuit un changement dans la manière d'enseigner. Dès septembre 1996, dans
Creativity and the Computer Education Industry, une communication de la 14e
conférence mondiale de l’International Federation of Information Processing
(IFIP), Dale Spender, professeur à l’Université de Queensland (Australie), tente
d’analyser ce changement. Voici son argumentation résumée en deux paragraphes.

Depuis plus de cinq siècles, l’enseignement est essentiellement basé sur
l’information procurée par les livres. Or les habitudes liées à l’imprimé ne
peuvent être transférées dans l’univers numérique. L’enseignement en ligne offre
des possibilités tellement nouvelles qu’il n’est guère possible d’effectuer les
distinctions traditionnelles entre enseignant et enseigné. Le passage de la
culture imprimée à la culture numérique exige donc d’entièrement repenser le
processus d’acquisition du savoir, puisqu'on a maintenant l’opportunité sans
précédent de pouvoir influer sur le type d’enseignement qu'on souhaite recevoir.

Dans la culture imprimée, l’information contenue dans les livres reste la même
un certain temps, ce qui encourage à penser que l’information est stable. La
nature même de l’imprimé est liée à la notion de vérité, stable elle aussi.
Cette stabilité et l’ordre qu’elle engendre sont un des fondements de l’âge
industriel et de l’ère des sciences et techniques. Les notions de vérité, de
loi, d’objectivité et de preuve sont le fondement de nos croyances et de nos
cultures. Mais l’avènement du numérique change tout ceci. Soudain l’information
en ligne supplante l’information imprimée pour devenir la plus fiable et la plus
utile, et l’usager est prêt à la payer en conséquence. Cette transformation
radicale de la nature même de l’information doit être au cœur du débat relatif
aux nouvelles méthodes d’enseignement.

En juillet 1998, Patrick Rebollar, professeur de français et d’informatique dans
des universités japonaises, analyse l’impact de l’internet sur sa vie
professionnelle: «Mon travail de recherche est différent, mon travail
d’enseignant est différent, mon image en tant qu’enseignant-chercheur de langue
et de littérature est totalement liée à l’ordinateur, ce qui a ses bons et ses
mauvais côtés (surtout vers le haut de la hiérarchie universitaire, plutôt
constituée de gens âgés et technologiquement récalcitrants). J’ai cessé de
m’intéresser à certains collègues proches géographiquement mais qui n’ont rien
de commun avec mes idées, pour entrer en contact avec des personnes inconnues et
réparties dans différents pays (et que je rencontre parfois, à Paris ou à Tokyo,
selon les vacances ou les colloques des uns ou des autres). La différence est
d’abord un gain de temps, pour tout, puis un changement de méthode de
documentation, puis de méthode d’enseignement privilégiant l’acquisition des
méthodes de recherche par mes étudiants, au détriment des contenus (mais cela
dépend des cours). Progressivement, le paradigme réticulaire l’emporte sur le
paradigme hiérarchique - et je sais que certains enseignants m’en veulent à mort
d’enseigner ça, et de le dire d’une façon aussi crue. Cependant ils sont obligés
de s’y mettre...»

Professeur au département d’études françaises de l’Université de Toronto, Russon
Wooldridge relate en mai 2001: «Mes activités de recherche, autrefois menées
dans une tour d'ivoire, se font maintenant presque uniquement par des
collaborations locales ou à distance. (...) Tout mon enseignement exploite au
maximum les ressources d'internet (le web et le courriel): les deux lieux
communs d'un cours sont la salle de classe et le site du cours, sur lequel je
mets tous les matériaux des cours. Je mets toutes les données de mes recherches
des vingt dernières années sur le web (réédition de livres, articles, textes
intégraux de dictionnaires anciens en bases de données interactives, de traités
du 16e siècle, etc.). Je publie des actes de colloques, j'édite un journal, je
collabore avec des collègues français, mettant en ligne à Toronto ce qu'ils ne
peuvent pas publier en ligne chez eux.»

L’internet permet une information en profondeur qu’aucun organe de presse,
éditeur ou bibliothèque ne pouvait donner jusqu’ici: rapidité de propagation des
informations, accès immédiat à de nombreux sites d’information, liens vers des
articles et sources connexes, énormes capacités documentaires allant du général
au spécialisé et réciproquement (cartes géographiques, notices biographiques,
textes officiels, informations d’ordre politique, économique, social, culturel,
etc.), grande variété d’illustrations (photos, graphiques, tableaux, vidéos,
etc.), possibilité d’archivage avec moteur de recherche, etc.

Certains s'inquiètent des dérives commerciales du réseau. Lucie de Boutiny,
romancière multimédia, relate en juin 2000: «Des stratégies utopistes avaient
été mises en place mais je crains qu’internet ne soit plus aux mains
d’internautes comme c’était le cas. L’intelligence collective virtuelle pourtant
se défend bien dans divers forums ou listes de discussions, et ça, à défaut
d’être souvent efficace, c’est beau. Dans l’utopie originelle, on aurait aimé
profiter de ce nouveau média, notamment de communication, pour sortir de cette
tarte à la crème qu’on se reçoit chaque jour, merci à la société du spectacle,
et ne pas répéter les erreurs de la télévision qui n’est, du point de vue de
l’art, jamais devenue un média de création ambitieux.»

Xavier Malbreil, auteur hypermédia, est plus optimiste. «Concernant l’avenir de
l’internet, je le crois illimité, explique-t-il en mars 2001. Il ne faut pas
confondre les gamelles que se prennent certaines start-up trop gourmandes, ou
dont l’objectif était mal défini, et la réalité du net. Mettre des gens éloignés
en contact, leur permettre d’interagir, et que chacun, s’il le désire, devienne
son propre fournisseur de contenu, c’est une révolution dont nous n’avons pas
encore pris toute la mesure.»

Cet optimisme est partagé par Christian Vandendorpe, professeur à l’Université
d’Ottawa, qui écrit à la même date: «Cet outil fabuleux qu’est le web peut
accélérer les échanges entre les êtres, permettant des collaborations à distance
et un épanouissement culturel sans précédent. Mais cet espace est encore
fragile. (...) Il existe cependant des signes encourageants, notamment dans le
développement des liaisons de personne à personne et surtout dans l’immense
effort accompli par des millions d’internautes partout au monde pour en faire
une zone riche et vivante.»


12.5. Ecriture et édition en ligne


De l’avis de Jean-Pierre Balpe, directeur du département hypermédias de
l’Université Paris 8, interviewé en février 2002, «les technologies numériques
sont une chance extraordinaire du renouvellement du littéraire». Depuis 1998, de
nombreux genres ont vu le jour: sites d’écriture hypermédia, oeuvres de fiction
hypertexte, romans multimédias, hyper-romans, mail-romans, etc. Le texte
fusionne avec l’image et le son en intégrant dessins, graphiques, photos,
chansons, musique ou vidéos.

Lucie de Boutiny, qui participe à ce vaste mouvement, écrit en juin 2000:
«Depuis l’archaïque minitel si décevant en matière de création télématique,
c’est bien la première fois que, via le web, dans une civilisation de l’image,
l’on voit de l’écrit partout présent 24 h / 24, 7 jours / 7. Je suis d’avis que
si l’on réconcilie le texte avec l’image, l’écrit avec l’écran, le verbe se fera
plus éloquent, le goût pour la langue plus raffiné et communément partagé.»

L’internet renouvelle aussi la manière d’écrire. Webmestre du site hypermédia
cotres.net, Jean-Paul relate en juin 2000: «L’internet n’a pas changé ma vie,
mais mon rapport à l’écriture. On n’écrit pas de la même manière pour un site
que pour un scénario, une pièce de théâtre, etc. (...) Depuis, j’écris (compose,
mets en page, en scène) directement à l’écran.»

Chose qu’on oublie trop souvent, il rappelle que toutes les fonctionnalités de
l’internet étaient déjà en gestation dans le Macintosh - couramment appelé Mac -
lancé en 1984 par Apple. Premier ordinateur personnel à disposer d’une interface
graphique intuitive facilement utilisable par le non spécialiste, le Mac
remporte un succès colossal parce qu’il facilite le rapport entre l’utilisateur
et l’information.

«En fait, ce n'est pas sur la toile, c'est dans le premier Mac que j'ai
découvert l'hypermédia à travers l'auto-apprentissage d'Hypercard, écrit
Jean-Paul. Je me souviens encore de la stupeur dans laquelle j'ai été plongé,
durant le mois qu'a duré mon apprentissage des notions de boutons, liens,
navigation par analogies, par images, par objets. L'idée qu'un simple clic sur
une zone de l'écran permettait d'ouvrir un éventail de piles de cartes dont
chacune pouvait offrir de nouveaux boutons dont chacun ouvrait un nouvel
éventail dont... bref l'apprentissage de tout ce qui aujourd'hui sur la toile
est d'une banalité de base, cela m'a fait l'effet d'un coup de foudre (il paraît
que Steve Jobs et son équipe eurent le même choc lorsqu'ils découvrirent
l'ancêtre du Mac dans les laboratoires de Rank Xerox). Depuis, j'écris (compose,
mets en page, en scène) directement à l'écran. L'état "imprimé" de mon travail
n'est pas le stade final, le but; mais une forme parmi d'autres, qui privilégie
la linéarité et l'image, et qui exclut le son et les images animées.»

Quelles sont les perspectives quelques années après? En janvier 2007,
«l’hypermédia est maintenant une évidence. (...) La partie du public formée à
cette école et s’intéressant à la littérature demandera de nouvelles formes de
récit. Entre-temps, les juristes auront remplacé le "droit d’auteur" par un
"droit d’entoileur", libérant mes ayant-droits de tout souci de royautés.
L’argent commencera à circuler. Et les "auteurs" (?) pourront enfin prendre au
corps la seule vraie question de cette histoire : le remplacement de la
linéarité par la simultanéité, l’ubiquité. Ce que font déjà les jeux de
stratégie, dans leur domaine. Et ce sera banzaï pour un siècle au moins de
littérature hypermédiatique, avant de souffler un peu pour se regarder dans le
rétroviseur.»

De même que la littérature numérique contribue au renouvellement du littéraire,
l’édition électronique contribue au renouvellement de l’édition. Nombre
d'auteurs mettent leurs espoirs dans l’édition électronique, commerciale ou non,
pour bousculer une édition traditionnelle qui aurait fort besoin d’une cure de
rajeunissement.

Selon Lucie de Boutiny, interviewée en juin 2000, la littérature hypertextuelle,
 «qui passe par le savoir-faire technologique, rapproche donc le techno-écrivain
du scénariste, du dessinateur BD, du plasticien, du réalisateur de cinéma.
Quelles en sont les conséquences au niveau éditorial? Faut-il prévoir un budget
de production en amont? Qui est l’auteur multimédia? Qu’en est-il des droits
d’auteur? Va-t-on conserver le copyright à la française? L’HTX (hypertext
literature) sera publiée par des éditeurs papier ayant un département
multimédia? De nouveaux éditeurs vont émerger et ils feront un métier proche de
la production? Est-ce que nous n’allons pas assister à un nouveau type d’oeuvre
collective? Bientôt le sampling littéraire protégé par le copyleft?»

Anne-Bénédicte Joly, écrivain auto-éditant ses oeuvres, écrit en mai 2001:
«Certains éditeurs on line tendent à se comporter comme de véritables éditeurs
en intégrant des risques éditoriaux comme le faisaient au début du siècle
dernier certains éditeurs classiques. Il est à ma connaissance absolument
inimaginable de demander à des éditeurs traditionnels d’éditer un livre en
cinquante exemplaires. L’édition numérique offre cette possibilité, avec en plus
réédition à la demande, presque à l’unité. (...) Je suis ravie que des
techniques (internet, édition numérique, ebook...) offrent à des auteurs des
moyens de communication leur permettant d’avoir accès à de plus en plus de
lecteurs.»

Pour les documentaires également, on commence à utiliser les formes d’écriture
et de lecture devenues courantes dans le domaine de l’hyperfiction. Outre
plusieurs possibilités de lecture, linéaire, non linéaire, par thèmes, etc., le
documentaire hypermédia offre de réels avantages par rapport au documentaire
imprimé. Il permet l’accès immédiat aux documents cités. Les erreurs peuvent
être aussitôt corrigées. Le livre peut être régulièrement actualisé, en y
incluant par exemple les développements les plus récents sur tel sujet ou les
derniers chiffres et statistiques. Ces horripilants index en fin d’ouvrage -
mais combien pratiques, au moins quand ils existent - sont remplacés par un
moteur de recherche ou une base interactive.

Tout comme pour l’hyperfiction, il reste à inventer un nouveau type de maison
d’édition spécialisée dans ce type de documentaire, avec actualisation
immédiate. Si ceci vaut pour tous les sujets, cela paraît d’autant plus
indispensable pour les nouvelles technologies, l’internet et le web. La place
des livres traitant du web n’est-elle pas sur le web? L’auteur pourrait choisir
de mettre son livre en consultation payante ou gratuite. La question du droit
d’auteur serait également entièrement à revoir. Copyright ou copyleft? Paiement
à la source ou paiement à la consultation? Et comment l’éditeur serait-il
rémunéré?

A l’heure de l’internet, pour les documentaires comme pour la fiction, il
s'avère peut-être nécessaire de créer de toutes pièces une structure éditoriale
entièrement numérique se démarquant des schémas traditionnels. De nombreux
auteurs seraient certainement heureux d’expérimenter un nouveau système, au lieu
de se plier à un système traditionnel très contraignant, qui n’est peut-être
plus de mise maintenant qu’on dispose d’un moyen de diffusion à moindres frais
échappant aux frontières. Ces nouveaux éditeurs seraient différents des éditeurs
en ligne, électroniques ou numériques apparus ces dernières années, qui sont
souvent issus de l’édition traditionnelle et la copient encore. Il s’agirait
d’éditeurs qui repenseraient la chaîne éditoriale de fond en comble tout en
faisant un véritable travail d’éditeur (découverte, sélection, diffusion et
promotion).

Ces nouveaux éditeurs pourraient adopter des méthodes originales spécifiques au
réseau: envoi des manuscrits sous forme électronique, délais de réponse courts,
critères de sélection transmis par courrier électronique, publication rapide,
droits d’auteur plus élevés avec montant disponible en ligne, vente simultanée
de la version imprimée (impression à la demande) et de la version numérique en
plusieurs formats, véritable diffusion et véritable promotion de l’oeuvre selon
une méthode qui reste à mettre au point et ne se limiterait pas à un descriptif
avec un extrait en téléchargement libre, versions revues et corrigées facilement
envisageables sinon encouragées dans le domaine des sciences et techniques, etc.

Tous arguments bien théoriques peut-être, mais il existe certainement de
nouvelles pistes à explorer.

Journaliste et infographiste, Marc Autret a derrière lui dix ans de journalisme
multi-tâches et d’hyper-formation dans le domaine de l’édition, du multimédia et
du droit d’auteur. «C’est un "socle" irremplaçable pour mes activités
d’aujourd’hui, qui en sont le prolongement technique, explique-t-il en décembre
2006. Je suis un "artisan" de l’information et je travaille essentiellement avec
des éditeurs. Ils sont tellement en retard, tellement étrangers à la révolution
numérique, que j’ai du pain sur la planche pour pas mal d’années. Aujourd’hui je
me concentre sur le conseil, l’infographie, la typographie, le pré-presse et le
webdesign, mais je sens que la part du logiciel va grandir. Des secteurs comme
l’animation 3D, l’automatisation des tâches de production, l’intégration
multi-supports, la base de données et toutes les technologies issues de XML vont
s’ouvrir naturellement. Les éditeurs ont besoin de ces outils, soit pour mieux
produire, soit pour mieux communiquer. C’est là que je vois l’évolution, ou
plutôt l’intensification, de mon travail.»


12.6. Numérique versus imprimé


Les documents imprimés récents sont issus d’une version électronique sur
traitement de texte, tableur ou base de données. Il est fréquent qu’un même
document soit disponible en deux versions, numérique et imprimée. Pour des
raisons budgétaires, de plus en plus de publications n’existent qu’en version
électronique. Outre sa facilité d’accès et son faible coût, le document
électronique peut être régulièrement actualisé. Point n’est besoin d’attendre
une nouvelle édition imprimée soumise aux contraintes commerciales ou aux
exigences de l’éditeur, notamment pour les ouvrages et périodiques scientifiques
et techniques, dans lesquels l’information récente est primordiale.

Document électronique? Document numérique? Livre électronique? Livre numérique?
Un vocabulaire adapté reste à définir. Comme expliqué en 1995 par Jean-Gabriel
Ganascia, directeur du Groupement d’intérêt scientifique (GIS) Sciences de la
cognition, dans un compte-rendu du cycle de « réflexion de prospective »
consacré au livre électronique, le terme «livre électronique», souvent utilisé
en français, est «à la fois restrictif et inopportun». Ce terme est restrictif
parce que le livre désigne «un support particulier de l’écrit qui est advenu à
un moment donné dans l’histoire» alors que le document électronique comporte à
la fois de l’écrit, de l’image et du son. Ce terme est également inopportun
parce qu’on ne peut guère juxtaposer au terme «livre» le terme «électronique»,
«un nouvel objet immatériel défini par un ensemble de procédures d’accès et une
structuration logique». De plus, qu’il s’agisse de sa forme exacte ou de sa
fonction exacte, le statut même de ce qu’on appelle «livre électronique» n'est
pas encore déterminé.

C’est aussi l’avis de Pierre Schweitzer, inventeur du projet @folio, une
tablette numérique de lecture nomade, qui écrit en juillet 2002: «J’ai toujours
trouvé l’expression "livre électronique" très trompeuse, piégeuse même. Car
quand on dit "livre", on voit un objet trivial en papier, tellement courant
qu’il est devenu anodin et invisible... alors qu’il s’agit en fait d’un summum
technologique à l’échelle d’une civilisation. Donc le terme "livre" renvoie sans
s’en rendre compte à la dimension éditoriale - le contenu -, puisque "l’objet
technique", génial, n’est pas vraiment vu, réalisé... Et de ce point de vue,
cette dimension-là du livre, comme objet technique permettant la mise en page,
le feuilletage, la conservation, la distribution, la commercialisation, la
diffusion, l’échange, etc., des oeuvres et des savoirs, est absolument
indépassable. Quand on lui colle "électronique" ou "numérique" derrière, cela
renvoie à tout autre chose: il ne s’agit pas de la dimension indépassable du
codex, mais de l’exploit inouï du flux qui permet de transmettre à distance, de
recharger une mémoire, etc., et tout ça n’a rien à voir avec le génie originel
du codex! C’est autre chose, autour d’internet, de l’histoire du télégraphe, du
téléphone, des réseaux...»

Nous vivons une période transitoire quelque peu inconfortable, marquée par la
généralisation des documents numériques et la numérisation à grande échelle des
documents imprimés, mais qui reste encore fidèle au papier. Pour des raisons
aussi bien pratiques que sentimentales, les amoureux du livre peuvent
difficilement se passer du livre imprimé et de ce matériau qu'est le papier,
dont certains nous prédisent régulièrement la mort prochaine mais dont la
longévité risque de nous surprendre.

Il ne semble d’ailleurs pas opportun d’opposer livre numérique et livre imprimé,
comme le rappelle Olivier Pujol, promoteur du Cybook, une tablette électronique
de lecture. «Le livre électronique, permettant la lecture numérique, ne
concurrence pas le papier, écrit-il en décembre 2000. C’est un complément de
lecture, qui ouvre de nouvelles perspectives pour la diffusion de l’écrit et des
oeuvres mêlant le mot et d’autres médias (image, son, image animée...). Les
projections montrent une stabilité de l’usage du papier pour la lecture, mais
une croissance de l’industrie de l’édition, tirée par la lecture numérique, et
le livre électronique. De la même façon que la musique numérique a permis aux
mélomanes d’accéder plus facilement à la musique, la lecture numérique supprime,
pour les jeunes générations comme pour les autres, beaucoup de freins à l’accès
à l’écrit.»

Après avoir sonné un peu vite le glas du papier, on ne parle plus du «tout
numérique» pour le proche avenir, mais plutôt de la juxtaposition «papier et
pixel», et de la publication simultanée d’un livre en deux versions. Il reste au
livre numérique à faire ses preuves face au livre imprimé, un modèle économique
qui a plus de cinq cents ans et qui est parfaitement rôdé. Le travail est
gigantesque et comprend entre autres la constitution des collections, la mise en
place d’un réseau de distribution, l’amélioration des supports de lecture et la
baisse de leur prix. Plus important encore, les lecteurs doivent s’habituer à
lire des livres à l’écran. Si elle offre des avantages certains (recherche
textuelle, sommaire affiché en permanence, etc.), de l'avis général,
l’utilisation d’une machine - ordinateur, assistant personnel, téléphone
portable, smartphone ou tablette électronique - n'égale pas encore le confort
procuré par le livre imprimé. Toutefois, malgré les difficultés rencontrées, les
adeptes de la lecture numérique sont de plus en plus nombreux. Ils attendent
patiemment des appareils de lecture plus satisfaisants, ou encore des livres et
journaux électroniques sur support souple.

Pour les livres et revues scientifiques et techniques, qu'il est nécessaire
d'actualiser régulièrement, les technologies numériques conduisent à repenser
complètement la signification même de publication, et à s’orienter vers une
diffusion en ligne. Les tirages papier restent toujours possibles à titre
ponctuel. Des universités diffusent désormais des manuels « sur mesure »
composés d’un choix de chapitres et d’articles sélectionnés dans une base de
données, auxquels s’ajoutent les commentaires des professeurs. Pour un
séminaire, un très petit tirage peut être fait à la demande à partir de
documents transmis par voie électronique à un imprimeur. Quant aux revues en
ligne, elles passent souvent un partenariat avec une société spécialisée dans
l'impression à la demande.

Enseignante-chercheuse à l’Ecole pratique des hautes études (EPHE,
Paris-Sorbonne), Marie-Joseph Pierre écrit en février 2003: «Il me paraît
évident que la publication des articles et ouvrages au moins scientifiques se
fera de plus en plus sous forme numérique, ce qui permettra aux chercheurs
d’avoir accès à d’énormes banques de données, constamment et immédiatement
évolutives, permettant en outre le contact direct et le dialogue entre les
auteurs. Nos organismes de tutelle, comme le CNRS (Centre national de la
recherche scientifique) par exemple, ont déjà commencé à contraindre les
chercheurs à publier sous ce mode, et incitent fortement les laboratoires à
diffuser ainsi leurs recherches pour qu’elles soient rapidement disponibles. Nos
rapports d’activité à deux et à quatre ans – ces énormes dossiers peineux
résumant nos labeurs – devraient prochainement se faire sous cette forme. Le
papier ne disparaîtra pas pour autant, et je crois même que la consommation ne
diminuera pas… Car lorsque l’on veut travailler sur un texte, le livre est
beaucoup plus maniable. Je m’aperçois dans mon domaine que les revues qui ont
commencé récemment sous forme numérique commencent à être aussi imprimées et
diffusées sur papier dignement relié. Le passage de l’un à l’autre peut
permettre des révisions et du recul, et cela me paraît très intéressant.»

Editeur puis consultant en édition électronique, Nicolas Pewny écrit en février
2003: «Je vois le livre numérique du futur comme un “ouvrage total” réunissant
textes, sons, images, vidéo, interactivité: une nouvelle manière de concevoir et
d’écrire et de lire, peut-être sur un livre unique, sans cesse renouvelable, qui
contiendrait tout ce que l’on a lu,  unique et multiple compagnon.»

Marc Autret, journaliste et infographiste, écrit pour sa part en décembre 2006 :
«Sans vouloir faire dans la divination, je suis convaincu que l’e-book (ou
"ebook": impossible de trancher!) a un grand avenir dans tous les secteurs de la
non-fiction. Je parle ici de livre numérique en termes de "logiciel", pas en
terme de support physique dédié (les conjectures étant plus incertaines sur ce
dernier point). Les éditeurs de guides, d’encyclopédies et d’ouvrages
informatifs en général considèrent encore l’e-book comme une déclinaison très
secondaire du livre imprimé, sans doute parce que le modèle commercial et la
sécurité de cette exploitation ne leur semblent pas tout à fait stabilisés
aujourd’hui. Mais c’est une question de temps. Les e-books non commerciaux
émergent déjà un peu partout et opèrent d’une certaine façon un défrichage des
possibles. Il y a au moins deux axes qui émergent: 1) une interface de
lecture/consultation de plus en plus attractive et fonctionnelle (navigation,
recherche, restructuration à la volée, annotations de l’utilisateur, quizz
interactif...); 2) une intégration multimédia (vidéo, son, infographie animée,
base de données, etc.) désormais fortement couplée au web. Aucun livre physique
n’offre de telles fonctionnalités. J’imagine donc l’e-book de demain comme une
sorte de wiki cristallisé, empaqueté dans un format. Quelle sera alors sa valeur
propre? Celle d’un livre: l’unité et la qualité du travail éditorial!»

Pierre Schweitzer, inventeur du projet @folio, fait à nouveau le point en
janvier 2007: «La lecture numérique dépasse de loin, de très loin même, la seule
question du "livre" ou de la presse, Le livre et le journal restent et resteront
encore, pour longtemps, des supports de lecture techniquement indépassables pour
les contenus de valeur ou pour ceux dépassant un seuil critique de diffusion.
Bien que leur modèle économique puisse encore évoluer (comme pour les "gratuits"
la presse grand public), je ne vois pas de bouleversement radical à l’échelle
d’une seule génération. Au-delà de cette génération, l’avenir nous le dira. On
verra bien. Pour autant, d’autres types de contenus se développent sur les
réseaux. Internet défie l’imprimé sur ce terrain-là : celui de la diffusion en
réseau (dématérialisée = coût marginal nul) des oeuvres et des savoirs. Là où
l’imprimé ne parvient pas à équilibrer ses coûts. Là où de nouveaux acteurs
peuvent venir prendre leur place.

Or, dans ce domaine nouveau, les équilibres économiques et les logiques
d’adoption sont radicalement différents de ceux que l’on connaît dans l’empire
du papier - voir par exemple l’évolution des systèmes de validation pour les
archives ouvertes dans la publication scientifique. Ou les modèles économiques
émergents de la presse en ligne. Il est donc vain, dangereux même, de vouloir
transformer au forceps l’écologie du papier - on la ruinerait à vouloir le
faire! À la marge, certains contenus très spécifiques, certaines niches
éditoriales, pourraient être transformées - l’encyclopédie ou la publication
scientifique le sont déjà: de la même façon, les guides pratiques, les livres
d’actualité quasi-jetables et quelques autres segments qui envahissent les
tables des librairies pourraient l’être, pour le plus grand bonheur des
libraires. Mais il n’y a là rien de massif ou brutal selon moi: nos habitudes de
lecture ne seront pas bouleversées du jour au lendemain, elles font partie de
nos habitudes culturelles, elles évoluent lentement, au fur et à mesure de leur
adoption (= acceptation) par les générations nouvelles.»


13. CONCLUSION


Une conclusion est difficile pour un tel sujet. On parlera plutôt de
perspectives. Trois termes paraissent essentiels : stockage, organisation et
diffusion. Dans un proche avenir, on devrait disposer de l’ensemble du
patrimoine mondial stocké sous forme numérique, d’une organisation effective de
l’information et du réseau internet adapté pour y accéder.

Au milieu des années 1990, le texte est omniprésent sur le web, par défaut
peut-être, à cause des problèmes de bande passante. Il est ensuite mis de côté
au profit de l’image et du son. Dix ans après, le texte revient en force, avec
le livre numérique dans son sillage. On n’a jamais tant écrit, y compris dans
les wikis et les blogs. Confidentiel en 2000, puis parent pauvre des fichiers
musicaux et vidéo, le livre numérique est désormais en bonne place à côté de la
musique et des films. Signe des temps, en 2005, il devient un objet convoité par
les géants de l'internet pour la constitution de leurs bibliothèques
planétaires.

Le futur sera-t-il le cyberespace décrit par Timothy Leary, philosophe, dans son
livre Chaos et cyberculture (éditions du Lézard, 1998)? «Toute l’information du
monde est à l’intérieur (de gigantesques bases de données, ndlr). Et grâce au
cyberespace, tout le monde peut y avoir accès. Tous les signaux humains contenus
jusque-là dans les livres ont été numérisés. Ils sont enregistrés et disponibles
dans ces banques de données, sans compter tous les tableaux, tous les films,
toutes les émissions de télé, tout, absolument tout.»

On n’en est pas encore là. Mais, en quelques années seulement, on ne court plus
désespérément après l’information dont on a besoin. Cette information est à
notre portée, disponible à l’écran, et souvent en accès libre. Un million de
livres est disponible sur le web en janvier 2006, et 2,5 millions de livres en
mai 2007, en ne comptant que les livres lisibles et téléchargeables gratuitement
sans restriction aucune. Il existerait au moins 25 millions de livres
appartenant au domaine public, toutes éditions confondues. Il reste donc
beaucoup à faire.

Fondateur du Projet Gutenberg en 1971, Michael Hart précise souvent dans ses
écrits que, si Gutenberg a permis à chacun d'avoir ses propres livres, jusque-là
réservés à une élite, le Projet Gutenberg permet à chacun d'avoir une
bibliothèque complète, jusque-là réservée à la collectivité, sur un support
qu'on peut glisser dans sa poche, le support optimal actuel étant la clé USB.

Apparue en 2000, la première clé USB a une capacité de 32 mégaoctets, et elle
est toujours disponible au prix de 5 dollars US. En 2006, une clé USB de 4
gigaoctets - le standard à un prix abordable - permet de stocker 10.000 livres
zippés.  Apparue en 2006, la clé USB de 32 gigaoctets devrait devenir le
standard d'ici 2010. En décembre 2006, la capacité maximale d'une clé USB est 64
gigaoctets (à 5.000 dollars l’unité). On devrait disposer en 2020 d’une clé USB
de 32 téraoctets permettant de stocker l'intégralité du patrimoine écrit de
l’humanité.

Tim Berners-Lee est l'inventeur du web en 1990. A la question de Pierre
Ruetschi, journaliste à la Tribune de Genève: «Sept ans plus tard, êtes-vous
satisfait de la façon dont le web a évolué?», il répond en décembre 1997 que,
s’il est heureux de la richesse et de la variété de l’information disponible, le
web n’a pas encore la puissance prévue dans sa conception d’origine. Il aimerait
«que le web soit plus interactif, que les gens puissent créer de l’information
ensemble», et pas seulement consommer celle qui leur est proposée. Le web doit
devenir un véritable «média de collaboration, un monde de connaissance que nous
partageons». C’est chose faite quelques années plus tard.

Si, à l'origine, le web ressemble un peu à un grand livre composé de pages
reliées entre elles par des liens hypertextes, et reproduisant les modèles
connus de l’édition papier, le concept de web 2.0, lancé en 2004, met en avant
les notions de communauté et de participation, avec un contenu alimenté par les
utilisateurs, y compris une nouvelle génération de sites interactifs, par
exemple les blogs et les wikis. Le web ne vise plus seulement à utiliser
l’information, mais il incite les usagers à échanger et collaborer en ligne, par
exemple sur Wikipedia, grande encyclopédie coopérative en ligne. La paternité du
terme «web 2.0» revient d’ailleurs à un éditeur, Tim O’Reilly, qui utilise cette
expression comme titre pour une série de conférences. Certains parlent de World
Live Web au lieu de World Wide Web, le nom d’origine du web.

En 2007, on parle déjà d'un possible web 3.0. Ce web du futur serait un web
sémantique capable d’apporter une réponse complète à une requête exprimée en
langage courant, en faisant appel à des procédés d’intelligence artificielle qui
seraient appliqués à large échelle. D’après la société Radar Networks, il
s’agirait d’«un web doté d'une forme d'intelligence artificielle globale et
collective». Des données pourraient être rassemblées sur les nombreux réseaux
sociaux et participatifs existant sur le web. Elles pourraient être traitées
automatiquement après avoir été structurées sur la base du langage descriptif
RDF (resource description framework) développé par le W3C (World Wide Web
Consortium), l'organisme international chargé du développement du web. Cette
définition du web 3.0 est d’ailleurs loin de faire l’unanimité.

En ce qui concerne l'infrastructure, la connexion au réseau sera permanente, les
technologies WiFi (wireless fidelity) et WiMAX (worldwide interoperability for
microwave access) n’étant que des étapes intermédiaires. La prochaine génération
de l’internet serait un réseau pervasif permettant de se connecter en tout lieu
et à tout moment sur tout type d’appareil à travers un réseau unique et
omniprésent. Le concept de réseau pervasif est développé depuis plusieurs années
par Rafi Haladjian, fondateur de la société Ozone. «La nouvelle vague touchera
notre monde physique, notre environnement réel, notre vie quotidienne dans tous
les instants, explique-t-il sur le site de la société. Nous n’accéderons plus au
réseau, nous l’habiterons.» Les composantes futures de ce réseau (parties
filiaires, parties non filiaires, opérateurs) seront transparentes à
l’utilisateur final. Il sera toujours ouvert, assurant une permanence de la
connexion en tout lieu. Il sera également agnostique en terme d’application(s),
puisque fondé sur les protocoles mêmes de l’internet.

Webmestre du site hypermédia cotres.net, Jean-Paul résume la situation en
janvier 2007: «J’ai l’impression que nous vivons une période "flottante", entre
les temps héroïques, où il s’agissait d’avancer en attendant que la technologie
nous rattrape, et le futur, où le très haut débit va libérer les forces qui
commencent à bouger, pour l’instant dans les seuls jeux.»

«La chance qu’on a tous est de vivre là, ici et maintenant cette transformation
fantastique», écrit à la même date Pierre Schweitzer, inventeur du projet
@folio, une tablette numérique de lecture nomade. «Quand je suis né en 1963, les
ordinateurs avaient comme mémoire quelques pages de caractères à peine.
Aujourd’hui, mon baladeur de musique pourrait contenir des milliards de pages,
une vraie bibliothèque de quartier. Demain, par l’effet conjugué de la loi de
Moore et de l’omniprésence des réseaux, l’accès instantané aux oeuvres et aux
savoirs sera de mise. Le support de stockage lui-même n’aura plus beaucoup
d’intérêt. Seules importeront les commodités fonctionnelles d’usage et la
poétique de ces objets.»

Selon Denis Zwirn, président de la librairie numérique Numilog, interviewé en
août 2007, «2008 pourrait sans doute marquer un premier point d'inflexion dans
la courbe de croissance du marché des livres numériques. Plusieurs facteurs sont
réunis pour cela: (1) le développement de vastes catalogues en ligne utilisant
pleinement les fonctionnalités de la recherche plein texte dans les livres
numérisés, comme ceux de la future Bibliothèque numérique européenne, de
VolltextSuche Online, de Google et d'Amazon. Une fois le contenu trouvé dans un
des ouvrages ainsi "sondé" par ce type de recherche révolutionnaire pour le
grand public, il est naturel de vouloir accéder à la totalité de l'ouvrage...
dans sa version numérique. (2) Des progrès techniques cruciaux tels que la
proposition commerciale d'appareils de lecture à base d'encre électronique
améliorant radicalement l'expérience de lecture finale pour l'usager en la
rapprochant de celle du papier. Par exemple l'iLiad d'Irex ou le Sony Reader,
mais bien d'autres appareils s'annoncent. Le progrès concerne toutefois tout
autant le développement des nouveaux smartphones multifonctions comme les
BlackBerry ou l'iPhone, ou la proposition de logiciels de lecture à l'interface
fortement améliorée et pensée pour les ebooks sur PC, comme Adobe Digital
Edition. (3) Enfin, le changement important d'attitude de la part des
professionnels du secteur, éditeurs, et probablement bientôt aussi libraires.
Les éditeurs anglo-saxons universitaires ont massivement tracé une route que
tous les autres sont en train de suivre, en tout cas aux Etats-Unis, en Europe
du Nord et en France : proposer une version numérique de tous les ouvrages. Même
pour les plus réticents encore il y a quelques années, ce n'est plus une
question de "pourquoi?", c'est simplement devenu une question de "comment?". Les
libraires ne vont pas tarder à considérer que vendre un livre numérique fait
partie de leur métier normal.

Le livre numérique n'est plus une question de colloque, de définition
conceptuelle ou de divination par certains "experts": c'est un produit
commercial et un outil au service de la lecture. Il n'est pas besoin d'attendre
je ne sais quel nouveau mode de lecture hypermoderne et hypertextuel enrichi de
multimédias orchestrant savamment sa spécificité par rapport au papier, il
suffit de proposer des textes lisibles facilement sur les supports de lecture
électronique variés qu'utilisent les gens, l'encre électronique pouvant
progressivement envahir tous ces supports. Et de les proposer de manière
industrielle. Ce n'est pas et ne sera jamais un produit de niche (les
dictionnaires, les guides de voyage, les non voyants...): c'est en train de
devenir un produit de masse, riche de formes multiples comme l'est le livre
traditionnel.»

Volume imprimé ou fichier numérique, le livre est d’abord un ensemble de mots
émanant d’une personne voulant communiquer ses pensées, ses sentiments ou son
savoir à large échelle. Souvent appelé le père de l'internet parce que
co-fondateur en 1974 des protocoles du réseau, Vinton Cerf aime à rappeler que
l'internet relie moins des ordinateurs que des personnes et des idées. Ce fut le
cas pour la préparation du présent livre. Merci à tous - professionnels du livre
et apparentés - pour leur participation, pour leur temps et pour leur amitié.


14. CHRONOLOGIE COMMENTEE


[14.1. Les étapes essentielles // 14.2. En résumé]

Si le livre numérique naît en juillet 1971, il ne prend son essor qu’au milieu
des années 1990, parallèlement à celui du web, avec une accélération sensible à
partir de l’an 2000. Cette chronologie détaille une cinquantaine d’étapes, de
1971 à 2007.


14.1. Les étapes essentielles


Juillet 1971 - Genèse du Projet Gutenberg, première bibliothèque numérique au
monde

Fondé par Michael Hart en juillet 1971 alors qu’il était étudiant à l’Université
d’Illinois (Etats-Unis), le Projet Gutenberg a pour but de diffuser gratuitement
par voie électronique le plus grand nombre possible d’oeuvres du domaine public.
Il est le premier site d’information sur un internet encore embryonnaire, qui
débute véritablement en 1974 et prend son essor en 1983. Vient ensuite le web
(sous-ensemble de l’internet), opérationnel en 1991, puis le premier navigateur,
qui apparaît en novembre 1993. Lorsque l’utilisation du web se généralise, le
Projet Gutenberg trouve un second souffle et un rayonnement international. Au
fil des ans, des centaines d’oeuvres sont patiemment numérisées en mode texte
par des milliers de volontaires. D’abord essentiellement anglophones, les
collections deviennent peu à peu multilingues. Le Projet Gutenberg Europe débute
en janvier 2004*. Le Projet Gutenberg franchit la barre des 20.000 titres en
décembre 2006.

Janvier 1991 - Création de l’Unicode, système d’encodage permettant de traiter
toutes les langues de la planète

Créé en janvier 1991, l’Unicode Consortium a pour tâche de développer l’Unicode,
un système d’encodage «universel» sur 16 bits spécifiant un nombre unique pour
chaque caractère. Ce nombre est lisible quels que soient la plateforme, le
logiciel et la langue utilisés. L’Unicode peut traiter 65.000 caractères uniques
et prendre en compte tous les systèmes d’écriture de la planète. A la grande
satisfaction des linguistes, il remplace progressivement l’ASCII (American
standard code for information interchange), un système d’encodage sur 7 bits ne
pouvant traiter que 128 caractères, et donc uniquement l’anglais, avec des
extensions prenant en compte les lettres accentuées de quelques langues
européennes.

Janvier 1993 - Lancement de The Online Books Page, un répertoire d'oeuvres
anglophones en accès libre

The Online Books Page est créée en janvier 1993 par John Mark Ockerbloom pour
répertorier les textes électroniques de langue anglaise en accès libre sur le
web. A cette date, John Mark Ockerbloom est doctorant à l’Université Carnegie
Mellon (Pittsburgh, Pennsylvanie). En 1999, il rejoint l’Université de
Pennsylvanie pour travailler à la R&D (recherche et développement) de la
bibliothèque numérique de l'université. A la même époque, il y transfère The
Online Books Page, tout en gardant la même présentation, très sobre, et il
poursuit son travail d’inventaire dans le même esprit. En 2003, ce répertoire
fête ses dix ans et recense plus de 20.000 textes électroniques, dont 4.000
textes publiés par des femmes, à savoir 20% de sa liste de liens. En décembre
2006, il recense 25.000 titres, dont 6.300 titres du Projet Gutenberg.

Avril 1993 - Création d’ABU: la bibliothèque universelle, première bibliothèque
numérique francophone

Créée en avril 1993, ABU: la bibliothèque universelle (ABU signifiant:
Association des bibliophiles universels) est la première bibliothèque numérique
francophone à voir le jour, à l’initiative de l’association du même nom, basée à
Paris. Ses membres  bénévoles scannent ou dactylographient eux-mêmes des oeuvres
francophones du domaine public. En janvier 2002, les collections comprennent 288
textes de 101 auteurs. Il ne semble pas que d’autres textes aient été ajoutés
depuis.

Juin 1993 - Lancement par Adobe de l’Acrobat Reader, premier logiciel de lecture

En juin 1993, la société Adobe lance l’Acrobat Reader, premier logiciel de
lecture du marché, qui permet de lire des documents au format PDF (portable
document format). L’attrait de ce format est de conserver la présentation du
document source, quelle que soit la plateforme utilisée pour le créer (au moyen
du logiciel Adobe Acrobat) et pour le lire. Le format PDF devient la norme
internationale de diffusion des documents électroniques. L’Acrobat Reader est
disponible en plusieurs langues et pour diverses plateformes (Windows,
Macintosh, Linux, Unix). En 2001, Adobe lance un Acrobat Reader pour assistant
personnel (PDA), utilisable sur le Palm Pilot (en mai 2001) puis sur le Pocket
PC (en décembre 2001). En mai 2003, l’Acrobat Reader devient l’Adobe Reader.

Novembre 1994 - Naissance des Chroniques de Cybérie, première lettre
d’information électronique francophone

En novembre 1994, Jean-Pierre Cloutier, journaliste québécois, crée Les
Chroniques de Cybérie, une chronique hebdomadaire des actualités de l’internet,
sous la forme d’une lettre envoyée par courrier électronique. A partir d’avril
1995, sa chronique est présente sur le web. Au fil des ans, elle devient une
référence dans la communauté francophone, y compris dans le domaine du livre. En
2002, les Chroniques comptent 5.600 abonnés. Faute de financement, elles cessent
en avril 2003 pour laisser place au blogue de Jean-Pierre Cloutier.

Février 1995 - Lancement du site web du Monde diplomatique, premier site d’un
périodique imprimé français

En février 1995 est mis en ligne le site web du mensuel Le Monde diplomatique,
premier site d’un périodique imprimé français. Monté dans le cadre d’un projet
expérimental avec l’Institut national de l’audiovisuel (INA), ce site est
inauguré lors du forum des images Imagina. Quelques mois après, plusieurs
quotidiens imprimés mettent en ligne un site web: Libération à la fin de 1995,
Le Monde et L’Humanité en 1996, etc.

Avril 1995 - Création d’Editel, site pionnier de l’édition littéraire
francophone

En avril 1995, Pierre François Gagnon, poète et essayiste québécois, crée
Editel, site pionnier de l’édition littéraire francophone. Après avoir été le
premier site web d’auto-édition collective de langue française, Editel devient
un site de cyberédition non commerciale, en partenariat avec quelques auteurs
maison, ainsi qu’un webzine littéraire.

Juillet 1995 - Création de la librairie en ligne Amazon.com, futur géant du
commerce électronique

En juillet 1995, Jeff Bezos fonde à Seattle (Etat de Washington, Etats-Unis) la
librairie en ligne Amazon.com, futur géant du commerce électronique. Suite à une
étude de marché démontrant que les livres sont les meilleurs «produits» à vendre
sur l’internet, Amazon.com débute avec dix salariés et trois millions
d’articles. Cinq ans plus tard, en novembre 2000, la société compte 7.500
salariés, 28 millions d’articles, 23 millions de clients et quatre filiales
(Royaume-Uni, Allemagne, France, Japon), auxquelles s’ajoute une cinquième
filiale au Canada en juin 2002 puis une sixième filiale en Chine en septembre
2004.

Février 1996 - Lancement de la lettre d’information électronique LMB Actu (Le
Micro Bulletin Actu)

En février 1996, François Vadrot, directeur des systèmes d’information du CNRS
(Centre national de la recherche scientifique, France), crée LMB Actu (Le Micro
Bulletin Actu), une lettre d’information hebdomadaire consacrée à l’actualité de
l’internet et des nouvelles technologies. En août 1999, il fonde la société de
cyberpresse FTPress (French Touch Press), basée à Paris. En septembre 1999, il
lance Internet Actu, qui remplace LMB Actu. D’autres publications suivent, ainsi
que des réalisations multimédias et des émissions de télévision, dont certaines
suivent de près l’actualité du livre. En avril 2002, Internet Actu est racheté
par INIST Diffusion (INIST: Institut de l’information scientifique et
technique). FTPress cesse ses activités en mai 2003.

Avril 1996 - Fondation de l’Internet Archive pour archiver la totalité du web
tous les deux mois

Fondée en avril 1996 par Brewster Kahle à San Francisco (Californie), l’Internet
Archive a pour but de constituer, stocker, préserver et gérer une bibliothèque
de l’internet, en archivant la totalité du web tous les deux mois. L’objectif
est d’offrir un outil de travail aux universitaires, chercheurs et historiens,
et de préserver un historique de l’internet pour les générations futures. En
octobre 2001*, l’Internet Archive met ses archives en accès libre sur le web
grâce à la Wayback Machine. En 2004, les archives du web représentent plus de
300 téraoctets de données, avec une croissance de 12 téraoctets par mois. Les
archives du web représentent 30 millions de pages web en 1996, 65 milliards de
pages web (provenant de 50 millions de sites web) en décembre 2006 et 85
milliards de pages web en mai 2007.

Mai 1996 - Création du DAISY Consortium pour définir un standard de livre
audionumérique

Fondé en mai 1996, le DAISY Consortium (DAISY signifiant d'abord «digital audio
information system» puis «digital accessible information system») est un
consortium international chargé d’assurer la transition entre le livre audio
analogique (sur bande magnétique ou sur cassette) et le livre audionumérique. Sa
tâche est de définir une norme internationale, déterminer les conditions de
production, d’échange et d’utilisation du livre audionumérique, et organiser la
numérisation du matériel audio à l’échelle mondiale. La norme DAISY se base sur
le format DTB (digital talking book), qui permet l’indexation du livre audio et
l’ajout de signets pour une navigation facile au niveau du paragraphe, de la
page et du chapitre. En août 2003, près de 41.000 livres audionumériques
répondent à cette norme. En août 2005, ils sont au nombre de 129 650.

Juin 1996 - Lancement de Zazieweb, site indépendant suivant l’actualité du livre

Fondé en juin 1996 par Isabelle Aveline, Zazieweb est un site indépendant conçu
pour tous les amoureux du livre, professionnels et amateurs. Le succès est
immédiat. Suivant de près l’actualité du livre sur le réseau, le site devient
peu à peu un portail avec un espace de documentation, d’orientation et de
ressources internet. L’annuaire de Zazieweb recense plus de 5.000 sites
littéraires. Zazieweb offre aussi «des espaces d’échanges et de rencontres pour
lecteurs communicants et actifs». Y participe une communauté active de plus de
10.000 membres ou e-lecteurs. «Qu’est-ce qu’un e-lecteur? Un e-lecteur est un
lecteur actif et communicant qui souhaite échanger, discuter, polémiquer avec
d’autres lecteurs.»

Août 1996 - Création de CyLibris, pionnier francophone de l’édition électronique
commerciale

Fondé en août 1996 à Paris par Olivier Gainon, CyLibris (de Cy, cyber et Libris,
livre) est le pionnier francophone de l’édition électronique commerciale.
CyLibris est la première maison d’édition à utiliser l’internet et le numérique
pour publier de nouveaux auteurs littéraires. Vendus uniquement sur le web, les
livres sont imprimés à la commande et envoyés directement au client, ce qui
permet d’éviter le stock et les intermédiaires. Au printemps 2000, CyLibris
devient membre du Syndicat national de l’édition (SNE). En 2001, certains titres
sont également distribués par un réseau de librairies traditionnelles et
numériques. En 2003, le catalogue de CyLibris comprend une cinquantaine de
titres.

Octobre 1996 - Genèse d’@folio, défini comme un baladeur de texte ou un support
de lecture nomade

Architecte designer, Pierre Schweitzer crée en octobre 1996 le concept d’@folio
(qui se prononce: a-folio) dans le cadre d’un projet de design déposé à l’Ecole
d’architecture de Strasbourg. Défini comme un baladeur de textes ou encore comme
un support de lecture nomade, @folio permet de lire des textes glanés sur
l’internet. De petite taille, il cherche à mimer, sous forme électronique, le
dispositif technique du livre, afin d’offrir une mémoire de fac-similés reliés
en hypertexte pour faciliter le feuilletage. En juillet 2002, Pierre Schweitzer
fonde la start-up iCodex pour promouvoir son projet. En 2007, la
commercialisation d’@folio est encore du domaine de l’avenir.

Avril 1997 - Création de la société E Ink pour développer une technologie
d’encre électronique

En avril 1997, des chercheurs du Media Lab du MIT (Massachusetts Institute of
Technology) créent la société E Ink afin de développer et commercialiser une
technologie d’encre électronique. Très schématiquement, la technologie est la
suivante : prises entre deux feuilles de plastique souple, des millions de
microcapsules contiennent chacune des particules noires et blanches en
suspension dans un fluide clair. Un champ électrique positif ou négatif permet
de faire apparaître le groupe de particules souhaité à la surface du support,
afin d’afficher, de modifier ou d’effacer les données. En juillet 2002, E Ink
présente le prototype du premier écran utilisant cette technologie. Développé en
partenariat avec les sociétés Toppan et Philips, cet écran est commercialisé en
2004. Suivent d’autres écrans pour diverses tablettes électroniques de lecture,
puis les premiers écrans souples (papier électronique) en noir et blanc. En mai
2007, E Ink annonce sa nouvelle technologie d’encre électronique, le Vizplex.

Octobre 1997 - Mise en ligne de Gallica, bibliothèque numérique de la
Bibliothèque nationale de France

En octobre 1997, la Bibliothèque nationale de France (BnF) met en ligne sa
bibliothèque numérique Gallica. En accès libre, elle devient rapidement l’une
des plus importantes bibliothèques numériques du réseau. On y trouve les
documents libres de droits du fonds numérisé de la BnF, qui vont du Moyen-Age au
début du 20e siècle. Pour des raisons de coût, les documents sont
essentiellement numérisés en mode image. En décembre 2006, ces collections
comprennent 90.000 ouvrages (fascicules de presse compris), 80.000 images et des
dizaines d’heures de ressources sonores. Gallica débute la conversion en mode
texte des livres numérisés en mode image pour favoriser l'accès à leur contenu.

Mai 1998 - Lancement des éditions 00h00, premier éditeur au monde à vendre des
livres numériques

En mai 1998 sont lancées à Paris les éditions 00h00, premier éditeur au monde à
vendre des livres numériques. Les deux fondateurs de 00h00 (qui se prononce :
zéro heure), Jean-Pierre Arbon et Bruno de Sa Moreira, choisissent ce nom à
dessein pour évoquer «cette idée d’origine, de nouveau départ», en faisant le
pari de concilier édition électronique et commerce. Pas de stock, pas de
contrainte physique de distribution, mais un très beau site, sur lequel on lit:
«Internet est un lieu sans passé, où ce que l’on fait ne s’évalue pas par
rapport à une tradition. Il y faut inventer de nouvelles manières de faire les
choses.» En 2000, le catalogue comprend 600 titres, qui comprennent une centaine
d’oeuvres originales et des rééditions électroniques d’ouvrages publiés par
d’autres éditeurs. Les versions numériques représentent 85% des ventes, les 15%
restants étant des versions imprimées à la demande du client. En septembre
2000*, 00h00 est racheté par la société américaine Gemstar.

Septembre 1999 - Création du format Open eBook (OeB) pour offrir un standard de
livre numérique

En septembre 1999 est créé le format Open eBook (OeB), un standard de livre
numérique basé sur le langage XML (extensible markup language) et défini par
l’OeBPS (open ebook publication structure). Le format OeB est développé par
l’Open eBook Forum (OeBF), un consortium industriel international fondé en
janvier 2000 pour regrouper constructeurs, concepteurs de logiciels, éditeurs,
libraires et spécialistes du numérique (85 participants en 2002). En avril 2005,
l’Open eBook Forum change de nom pour devenir l’International Digital Publishing
Forum (IDPF).

Décembre 1999 - Mise en ligne de WebEncyclo, première encyclopédie francophone
en accès libre

En décembre 1999, les éditions Atlas mettent en ligne WebEncyclo, qui est la
première grande encyclopédie francophone en accès libre. La recherche est
possible par mots-clés, thèmes, médias (médias signifiant : cartes, liens
internet, photos, illustrations) et idées. La section «WebEncyclo contributif»
regroupe les articles régulièrement envoyés par des spécialistes. En 2002,
l’accès est soumis à une inscription gratuite au préalable.

Décembre 1999 - Mise en ligne de Britannica.com, première encyclopédie
anglophone en accès libre

En décembre 1999, Britannica.com propose l’équivalent numérique des 32 volumes
de la 15e édition imprimée de l’Encyclopædia Britannica, qui devient ainsi la
première grande encyclopédie anglophone en accès libre sur le web.
L’encyclopédie en ligne est complétée par un choix d’articles provenant de 70
titres de presse, un guide des meilleurs sites web, une sélection de livres,
etc., le tout étant accessible à partir d’un moteur de recherche unique. En
septembre 2000, Britannica.com fait partie des cent sites les plus visités au
monde. En juillet 2001, la consultation devient payante sur la base d’un
abonnement mensuel ou annuel.

Janvier 2000 - Lancement du Million Book Project dans le but de numériser un
million de livres

Lancé en janvier 2000 par cinq professeurs (Jaime Carbonnel, Raj Reddy, Michael
Shamos, Gloriana St Clair et Robert Thibadeau) de la Carnegie Mellon University
(Pennsylvanie, Etats-Unis), le Million Book Project a pour but de numériser un
million de livres. Cette bibliothèque numérique est hébergée sur le site de
l’Internet Archive. Les livres sont scannés puis convertis au format texte en
utilisant la technologie OCR (optical character recognition). Les collections du
Million Book Project comprennent 10 612 livres en avril 2005. Le projet cède
ensuite la place à l’Open Content Alliance (OCA), lancée  par l’Internet Archive
en octobre 2005*.

Mars 2000 - Lancement du concept du lyber par les éditions de l’Eclat

Le concept du lyber est lancé en mars 2000 par Michel Valensi, directeur des
éditions de l’Eclat. Le lyber est un terme «construit à partir du mot latin
liber qui signifie à la fois: libre, livre, enfant, vin». Dans le Petit traité
plié en dix sur le lyber, Michel Valensi définit le lyber comme un livre
numérique disponible gratuitement sur l’internet dans son intégralité, selon le
principe du shareware (partagiciel), avec invitation d’acheter un exemplaire
pour soi ou ses amis, possibilité de signaler l’adresse de la librairie locale,
et possibilité pour les lecteurs de laisser des commentaires sur le texte en
ligne. En novembre 2001, sur les 180 titres que comprend le catalogue des
éditions de l’Eclat, une vingtaine de titres est disponible sous forme de lyber.

Mars 2000 - Création de la société Mobipocket, spécialisée dans les livres
numériques pour assistant personnel

Créée en mars 2000 par Thierry Brethes et Nathalie Ting, la société Mobipocket,
basée à Paris, est spécialisée dans la lecture et la distribution sécurisée de
livres numériques sur assistant personnel (PDA). Son logiciel de lecture, le
Mobipocket Reader, est «universel», c’est-à-dire utilisable sur tout assistant
personnel (Palm Pilot, Pocket PC, eBookMan, Psion, etc.). En avril 2002, la
société lance un Mobipocket Reader pour ordinateur. Au printemps 2003, le
Mobipocket Reader équipe les premiers smartphones de Nokia et Sony Ericsson. A
la même date, le nombre de livres lisibles sur le Mobipocket Reader est de 6.000
titres dans plusieurs langues (français, anglais, allemand, espagnol),
distribués soit sur le site de Mobipocket soit dans les librairies partenaires.
En avril 2005, Mobipocket est racheté par la librairie en ligne Amazon.com.

Mai 2000 - Création du Net des études françaises (NEF), réseau francophone de
diffusion libre du savoir

En mai 2000, Russon Wooldridge, professeur au département d’études françaises de
l’Université de Toronto (Canada), crée le Net des études françaises (NEF), suite
au colloque qu’il organise à la même date à Toronto (Colloque international sur
les études françaises favorisées par les nouvelles technologies d’information et
de communication). Le NEF se veut à la fois un site d’édition non commerciale et
un réseau dont les auteurs partagent librement leur savoir et leurs produits
avec autrui. «Le NEF est un site web consacré à divers aspects des études
françaises, notamment les outils critiques, réflexions et autres ressources,
ainsi que le World Wide Web comme répositoire de textes et de bases de données
textuelles, en même temps qu'objet d'étude et d'analyse critique.» (Russon
Wooldridge) Le NEF organise ensuite un deuxième colloque en mai 2002 à Lisieux
(Normandie).

Juillet 2000 - Auto-publication en ligne d’un roman de Stephen King, premier
auteur de best-sellers à tenter l’expérience

En juillet 2000 débute l’auto-publication électronique de The Plant, roman
épistolaire de Stephen King. Premier auteur de best-sellers à se lancer dans un
tel pari, Stephen King commence d’abord par distribuer en mars 2000 sa nouvelle
Riding The Bullet uniquement en version numérique. 400.000 exemplaires sont
téléchargés en vingt-quatre heures. Suite à ce succès à la fois médiatique et
financier, il crée un site web spécifique pour auto-publier The Plant en
épisodes. Les chapitres paraissent à intervalles réguliers et sont
téléchargeables dans plusieurs formats (PDF, OeB, HTML, texte, etc.). En
décembre 2000, après la parution du sixième chapitre, l’auteur décide
d’interrompre cette expérience, le nombre de téléchargements et de paiements
ayant régulièrement baissé au fil des chapitres.

Août 2000 - Lancement du Microsoft Reader, logiciel de lecture pour plateforme
Windows

En août 2000, Microsoft aborde le marché naissant du livre numérique en lançant
son propre logiciel de lecture, le Microsoft Reader, pour équiper le Pocket PC,
l’assistant personnel de Microsoft lancé à la même date. Le Microsoft Reader est
ensuite disponible pour toute plateforme Windows. Microsoft passe aussi des
partenariats avec Barnes & Noble.com (en janvier 2000) et Amazon.com (en août
2000) pour débuter la vente de livres numériques lisibles sur le Microsoft
Reader. Barnes & Noble.com ouvre son secteur numérique en août 2000, suivi par
Amazon.com en novembre 2000. En octobre 2001, le Pocket PC troque le système
d’exploitation Windows CE contre le Pocket PC 2002, qui permet la lecture de
livres numériques sous droits.

Septembre 2000 - Rachat des éditions 00h00 par Gemstar-TV Guide International

En septembre 2000, les éditions 00h00 - fondées en mai 1998* - sont rachetées
par Gemstar-TV Guide International, société américaine spécialisée dans les
produits et services numériques pour les médias. Cette acquisition fait suite au
rachat par Gemstar en janvier 2000 des sociétés californiennes NuvoMedia et
Softbook Press, à l’origine des premiers modèles de tablettes électroniques de
lecture. Le rachat de 00h00 permet à Gemstar d’étendre ses activités à l’Europe
et d’accéder à l’édition numérique francophone, dont 00h00 est le site de
référence avec 600 titres. 00h00 cesse ses activités en juin 2003, tout comme la
branche eBook de Gemstar.

Septembre 2000 - Mise en ligne du Grand dictionnaire terminologique (GDT) par
l’Office québécois de la langue française (OQLF)

Mis en ligne en septembre 2000 et disponible en accès libre, le Grand
dictionnaire terminologique (GDT) est un vaste dictionnaire bilingue
français-anglais comprenant 3 millions de termes du vocabulaire industriel,
scientifique et commercial. La taille du GDT équivaut à 3.000 ouvrages de
référence imprimés. Cette mise en ligne est le résultat d’un partenariat entre
l’Office québécois de la langue française (OQLF), auteur du dictionnaire, et de
la société Semantix, spécialisée dans les solutions logicielles linguistiques.
Dès le premier mois, le dictionnaire est consulté par 1,3 million de personnes,
avec des pointes de 60.000 requêtes quotidiennes. En février 2003, les requêtes
sont au nombre de 3,5 millions par mois. En mars 2003, une nouvelle version du
GDT est mise en ligne, avec gestion par l’OQLF lui-même et non plus par une
société prestataire.

Septembre 2000 - Lancement de Numilog, première librairie francophone à vendre
exclusivement des livres numériques

Lancée en septembre 2000, la librairie Numilog est la première librairie
francophone à vendre exclusivement des livres numériques, par téléchargement et
dans plusieurs formats. Fondée à Paris en avril 2000 par Denis Zwirn, la société
Numilog est à la fois une librairie en ligne, un studio de fabrication et un
diffuseur de livres numériques. En 2003, le catalogue comprend 3.500 titres
(livres et périodiques) en français et en anglais,  aux formats PDF (pour
lecture sur l’Acrobat Reader puis l’Adobe Reader), LIT (pour lecture sur le
Microsoft Reader) et PRC (pour lecture sur le Mobipocket Reader), grâce à un
partenariat avec une quarantaine d’éditeurs. En décembre 2006, le catalogue de
Numilog comprend 35.000 livres numériques grâce à un partenariat avec 200
éditeurs, dont 60 éditeurs francophones.

Septembre 2000 - Lancement du portail Handicapzéro, destiné aux personnes
francophones ayant un problème visuel

Mis en ligne en septembre 2000 par l’association du même nom, Handicapzéro
devient en février 2003 un portail généraliste offrant un accès adapté à
l’information (actualités, programmes de télévision, météo, services divers pour
la santé, l’emploi, la consommation, les loisirs, les sports, la téléphonie,
etc.) pour tous les Francophones ayant un problème visuel, à savoir plus de 10%
de la population. Les personnes aveugles peuvent accéder au site au moyen d’une
plage braille ou d’une synthèse vocale. Les personnes malvoyantes peuvent
paramétrer sur la page d’accueil la taille et la police des caractères ainsi que
la couleur du fond d’écran pour une navigation confortable. Les personnes
voyantes peuvent correspondre en braille avec des aveugles par le biais du site.
En octobre 2006, le portail enrichit encore son contenu et se dote de nouvelles
fonctionnalités.

Octobre 2000 - Fondation de la Public Library of Science (PLoS) dans le but de
créer un service gratuit d’archives en ligne

Fondée en octobre 2000 par un groupe de chercheurs des universités de Stanford
et de Berkeley (Californie) pour contrer les pratiques des éditeurs spécialisés,
la Public Library of Science (PLoS) propose de regrouper tous les articles
scientifiques et médicaux au sein d’archives en ligne en accès libre, avec point
d’accès unique, moteur de recherche multicritères et système d’hyperliens entre
les articles. La réponse de la communauté scientifique internationale est
remarquable. Au cours des deux années suivantes, la lettre ouverte de PLoS est
signée par 34.000 chercheurs dans 180 pays. Le réponse des éditeurs est beaucoup
moins enthousiaste, si bien que ce projet ne voit pas le jour. Mais PLoS décide
de devenir lui-même éditeur de périodiques scientifiques et médicaux, et lance
sa maison d’édition en janvier 2003*.

Octobre 2000 - Création de Distributed Proofreaders pour aider à la numérisation
des livres du domaine public

Conçu en octobre 2000 par Charles Franks pour aider à la numérisation des livres
du domaine public, Distributed Proofreaders (DP) est mis en ligne en mars 2001.
Le concept est de permettre la correction partagée en fragmentant les livres en
pages pouvant être relues par des correcteurs différents. Destiné à intensifier
la production de livres pour le Projet Gutenberg, Distributed Proofreaders en
devient rapidement la principale source. Il est officiellement affilié au Projet
Gutenberg en 2002. Les volontaires n’ont aucun quota à respecter. A titre
indicatif, il est suggéré de relire une page par jour. Distributed Proofreaders
compte 10.000 livres numérisés par ses soins en décembre 2006. Distributed
Proofreaders Europe (DP Europe) voit le jour en janvier 2004*, en même temps que
le Projet Gutenberg Europe.

Octobre 2000 - Lancement des tablettes électroniques de lecture Gemstar eBook

En octobre 2000 sont lancés à New York les deux premiers modèles de Gemstar
eBook, successeurs du Rocket eBook (créé par la société NuvoMedia) et du
Softbook Reader (créé par la société Softbook Press), suite au rachat des deux
sociétés par Gemstar-TV Guide International en janvier 2000. Commercialisés en
novembre 2000 aux Etats-Unis, ces deux modèles - le REB 1100 (écran noir et
blanc, successeur du Rocket eBook) et le REB 1200 (écran couleur, successeur du
Softbook Reader) - sont construits sous le label RCA, appartenant à Thomson
Multimedia. Courant 2002, ces deux modèles sont remplacés par le GEB 1150 et le
GEB 2150, construits sous le label Gemstar. En Europe, le GEB 2200 (proche du
REB 1200) est lancé en octobre 2001 en commençant par l’Allemagne. Suite à des
ventes très inférieures aux pronostics, la commercialisation de toutes ces
tablettes de lecture cesse en juin 2003.

Novembre 2000 - Mise en ligne de la version numérisée de la Bible de Gutenberg
par la British Library

En novembre 2000, la version numérique de la Bible de Gutenberg est mise en
ligne sur le site de la British Library. Datée de 1454 ou 1455, cette Bible est
le premier ouvrage imprimé par Gutenberg dans son atelier de Mayence, en
Allemagne. Sur les 180 exemplaires d’origine, 48 exemplaires, dont certains
incomplets, existeraient toujours. La British Library en possède deux versions
complètes et une partielle. La numérisation est l’oeuvre de chercheurs et
experts techniques de l’Université Keio de Tokyo et de NTT (Nippon Telegraph and
Telephone Communications), venus travailler dans les locaux de la British
Library pour numériser les deux versions complètes.

Décembre 2000 - Création de la société Gyricon Media pour développer un modèle
de papier électronique

En décembre 2000, des chercheurs de PARC (Palo Alto Research Center), le centre
Xerox de la Silicon Valley, créent la société Gyricon Media dans le but de
commercialiser le SmartPaper, un modèle de papier électronique basé sur une
technologie d’affichage dénommée gyricon (elle-même développée depuis 1997).
Très schématiquement, la technologie est la suivante : prises entre deux
feuilles de plastique souple, des millions de micro-alvéoles contiennent des
microbilles bicolores en suspension dans un liquide clair. Chaque bille est
pourvue d’une charge électrique. Une impulsion électrique extérieure permet la
rotation des billes, et donc le changement de couleur, afin d’afficher, de
modifier ou d’effacer des données. En 2004, le marché pressenti est d’abord
celui de l’affichage commercial, avec vente d’affichettes fonctionnant sur
piles. La société disparaît en 2005, et les activités de recherche et
développement se poursuivent au sein de Xerox.

Janvier 2001 - Création de Wikipedia, grande encyclopédie collaborative en ligne

Créée en janvier 2001 à l’initiative de Jimmy Wales et de Larry Sanger,
Wikipedia est une encyclopédie gratuite écrite collectivement et dont le contenu
est librement réutilisable. Cette encyclopédie coopérative est rédigée par des
milliers de volontaires, avec possibilité pour tout un chacun de corriger ou
compléter les articles. Elle est financée par des dons et sans publicité. En
décembre 2004, Wikipedia compte 1,3 million d’articles rédigés par 13.000
contributeurs dans une centaine de langues. Deux ans après, en décembre 2006,
elle compte 5 millions d’articles dans 250 langues. Des centaines de milliers de
visiteurs apportent quotidiennement des corrections et compléments. Les articles
restent la propriété de leurs auteurs. La libre utilisation des articles est
régie par la licence GFDL (GNU free documentation license).

Janvier 2001 - Lancement par la société Cytale du Cybook, première tablette
électronique de lecture européenne

Première tablette électronique de lecture européenne, le Cybook est lancé en
janvier 2001 par Cytale, une société française dirigée par Olivier Pujol. Le
téléchargement des livres et journaux numériques s’effectue à partir d’une
librairie en ligne propre à Cytale, suite à des partenariats passés avec des
éditeurs. La société développe aussi le Cybook Pro, à destination des gros
consommateurs de documents, et le Cybook Vision, à destination des personnes
malvoyantes. Les ventes des trois modèles étant très inférieures aux pronostics,
Cytale, mis en liquidation judiciaire, se voit contraint de cesser ses activités
en juillet 2002. La commercialisation du Cybook est ensuite reprise par la
société Bookeen, fondée en 2003. La deuxième génération de Cybook est disponible
en juin 2004. La troisième génération de Cybook, disponible en octobre 2007,
exploite la technologie d'encre électronique E Ink.

Janvier 2001 - Lancement par Adobe de l’Acrobat eBook Reader, logiciel de
lecture pour livres numériques sous droits

En janvier 2001, Adobe lance deux nouveaux produits en complément de l’Acrobat
Reader (qui permet de lire des documents au format PDF) et de l’Adobe Acrobat
(qui permet de les créer). L’Acrobat eBook Reader, gratuit, est un logiciel de
lecture pour les livres numériques sous droits, avec gestion des droits par
l’Adobe Content Server. L’Adobe Content Server, payant, est un système de DRM
destiné aux éditeurs et distributeurs pour la gestion des droits numériques, à
savoir le conditionnement, la protection, la distribution et la vente sécurisée
des livres numériques au format PDF. En mai 2003, l’Acrobat eBook Reader
fusionne avec l’Acrobat Reader pour devenir l’Adobe Reader.

Mars 2001 - Lancement du Palm Reader, logiciel de lecture destiné au Palm Pilot

En mars 2001, la société Palm fait l’acquisition de Peanutpress.com, éditeur et
distributeur de livres numériques pour assistant personnel (PDA), qui
appartenait jusque-là à la société netLibrary. Le Peanut Reader devient le Palm
Reader, utilisable aussi bien sur le Palm Pilot que sur le Pocket PC, et les
2.000 titres de Peanutpress.com sont transférés dans la librairie numérique Palm
Digital Media. En juillet 2002, le Palm Reader est utilisable sur ordinateur. A
la même date, Palm Digital Media distribue 5.500 titres dans plusieurs langues.
En 2003, le catalogue approche les 10.000 titres.

Octobre 2001 - Lancement par l’Internet Archive de la Wayback Machine, qui
permet de voir l'historique d'un site web à différentes dates

En octobre 2001, l’Internet Archive met ses archives en accès libre grâce à la
Wayback Machine, qui permet à tout un chacun de voir l’historique d’un site web,
à savoir la présentation et le contenu d’un site web donné à différentes dates,
en général tous les deux mois, à partir de 1996. Fondée en avril 1996* par
Brewster Kahle à San Francisco (Californie), l’Internet Archive a pour but de
constituer, stocker, préserver et gérer une bibliothèque de l’internet, en
archivant régulièrement la totalité du web. En 2004, les archives du web
représentent plus de 300 téraoctets (To) de données, avec une croissance de 12
téraoctets par mois. Le nombre de pages web visibles avec la Wayback Machine est
de 65 milliards en décembre 2006 et 85 milliards en mai 2007.

Février 2002 - Mise en ligne de Bookshare.org, grande bibliothèque numérique
pour personnes aveugles et malvoyantes

En février 2002 est mis en ligne Bookshare.org, grande bibliothèque numérique à
l’intention des personnes aveugles et malvoyantes résidant aux Etats-Unis.
Bookshare.org est créé et financé par Benetech, une société de la Silicon Valley
ayant pour objectif de mettre la technologie au service de tous les êtres
humains, et pas seulement de quelques-uns. Scannés par une centaine de
volontaires, 7 620 titres sont disponibles en deux formats : le format BRF
(braille format), destiné à une lecture sur plage braille ou une impression sur
imprimante braille, et le format DAISY (digital accessible information system),
qui permet l’écoute du texte sur synthèse vocale. Le nombre de livres et de
volontaires augmente rapidement. En février 2003, un an après l’ouverture,
Bookshare.org compte 11.500 titres et 200 volontaires. Fin 2006, la bibliothèque
propose 30.000 livres et 150 quotidiens à 5.000 adhérents. En mai 2007,
Bookshare.org lance un service international.

Janvier 2003 - Débuts des activités d’édition de la Public Library of Science
(PLoS) pour lancer des périodiques scientifiques et médicaux en ligne

En janvier 2003, la Public Library of Science (PLoS) - fondée en octobre 2000* -
devient un éditeur non commercial de périodiques scientifiques et médicaux en
ligne. Une équipe éditoriale de haut niveau est constituée pour lancer des
périodiques de qualité (PLoS Biology en octobre 2003 puis PLoS Medicine en 2004)
selon un nouveau modèle d’édition en ligne basé sur la diffusion libre du
savoir. Trois nouveaux titres voient le jour en 2005: PLoS Genetics, PLoS
Computational Biology et PLoS Pathogens. PLoS Clinical Trials est lancé en mai
2006. PLoS Neglected Tropical Diseases est lancé en automne 2007. Librement
accessibles en ligne, tous les articles peuvent être diffusés et réutilisés
ailleurs, y compris pour des traductions, selon les termes de la licence
Creative Commons, la seule contrainte étant la mention des auteurs et de la
source.

Septembre 2003 - Mise en ligne gratuite du MIT OpenCourseWare, un ensemble de
cours du Massachusetts Institute of Technology

Le MIT (Massachusetts Institute of Technology) décide de publier ses cours en
ligne, avec accès libre et gratuit, pour les mettre à la disposition de tous.
Disponible en septembre 2002, la version pilote du MIT OpenCourseWare (MIT OCW)
offre en accès libre le matériel d’enseignement de 32 cours représentatifs des
cinq départements du MIT: textes des conférences, travaux pratiques, exercices
et corrigés, bibliographies, documents audio et vidéo, etc. Le lancement
officiel du site a lieu en septembre 2003, avec accès à quelques centaines de
cours. En mai 2006, 1 400 cours émanent de 34 départements appartenant aux cinq
écoles du MIT. La totalité des cours dispensés par le MIT, soit 1.800 cours, est
disponible en 2008. En décembre 2005 est lancé en parallèle l'OpenCourseWare
Consortium (OCW Consortium), qui propose les cours en accès libre de nombreuses
universités.

Janvier 2004 - Lancement du Projet Gutenberg Europe et de Distributed
Proofreaders Europe

En janvier 2004, le Projet Rastko, basé à Belgrade (Serbie), lance le Projet
Gutenberg Europe et Distributed Proofreaders Europe (DP Europe), calqué sur
Distributed Proofreaders (DP), qui opère aux Etats-Unis depuis octobre 2000*. Le
concept est de permettre la correction partagée en fragmentant les livres en
pages pouvant être relues par des correcteurs différents. La présence de
plusieurs langues reflète la diversité linguistique prévalant en Europe. En juin
2005, 100 livres sont numérisés. En décembre 2006, ce nombre s’élève à 400.
Quand il aura atteint sa vitesse de croisière, le Projet Gutenberg Europe
devrait se répartir en plusieurs bibliothèques numériques nationales et/ou
linguistiques, avec respect du copyright en vigueur dans le pays donné.

Octobre 2004 - Lancement de Google Print, le projet de bibliothèque numérique
mondiale de Google

En octobre 2004, Google lance la première partie de son programme Google Print,
établi en partenariat avec les éditeurs pour consulter à l’écran des extraits de
livres, puis commander les livres auprès d’une librairie en ligne. La version
bêta de Google Print est mise en ligne en mai 2005. En décembre 2004, Google
lance la deuxième partie de son programme Google Print, cette fois à destination
des bibliothèques, le but étant de  numériser 15 millions de livres, à commencer
par ceux des bibliothèques de plusieurs  universités (Harvard, Stanford,
Michigan, Oxford) et de la ville de New York. En août 2005, le programme est
suspendu pour cause de conflit avec les éditeurs de livres sous droits. Il
reprend en août 2006* sous le nom de Google Book Search (Google Livres).

Octobre 2005 - Lancement de l’Open Content Alliance (OCA), projet public et
coopératif de bibliothèque numérique mondiale

Lancé en octobre 2005 à l’instigation de l’Internet Archive, l’Open Content
Alliance (OCA) est un projet public et coopératif de bibliothèque numérique
mondiale. L’OCA regroupe de nombreux partenaires: bibliothèques, universités,
organisations gouvernementales, associations à but non lucratif, organismes
culturels, sociétés informatiques. Les premiers participants sont les
bibliothèques des Universités de Californie et de Toronto, l’European Archive,
les Archives nationales du Royaume-Uni, O’Reilly Media et Prelinger Archives.
L’OCA souhaite s’inspirer de l’initiative de Google en évitant ses travers, à
savoir la numérisation des livres sous droits sans l’accord préalable des
éditeurs, tout comme la consultation et le téléchargement impossibles sur un
autre moteur de recherche.

Janvier 2006 - Lancement de la Bibliothèque numérique pour le Handicap (BnH) à
destination de toutes les personnes en situation de handicap

En janvier 2006 est lancée la Bibliothèque numérique pour le Handicap (BnH) à
l’initiative de la ville de Boulogne-Billancourt (région parisienne) et sous
l'égide d'Alain Patez, bibliothécaire numérique chargé de mission pour la BnH.
«Projet à vocation nationale, la BnH repose sur la conviction que l'édition
numérique est le moyen d'accès à l'information et à la culture le mieux adapté
aux personnes en situation de handicap. L'objectif de la BnH est de permettre à
toute personne confrontée à un handicap de télécharger à distance des livres
numériques. Ces documents sont commercialisés dans le public, donc non libres de
droit de reproduction.» (Alain Patez) La plateforme technique est entièrement
gérée par la société Numilog. En septembre 2007, l'accès de la BnH est
généralisé à toute personne en situation de handicap.

Août 2006 - Lancement de Google Book Search (Google Livres) en remplacement de
Google Print

En août 2006, Google lance Google Book Search (Google Livres) pour remplacer le
très controversé Google Print, lancé en octobre 2004* et suspendu en août 2005
pour cause de conflit avec les éditeurs de livres sous droits. Google souhaite
repartir sur de nouvelles bases. La numérisation des fonds de grandes
bibliothèques se poursuit, tout comme le développement de partenariats avec les
éditeurs qui le souhaitent. Le conflit avec les éditeurs se poursuit lui aussi,
puisque Google continue de numériser des livres sous droits sans l’autorisation
préalable des éditeurs en invoquant le droit de citation pour présenter des
extraits sur le web. L’Authors Guild et l’Association of American Publishers
(AAP) invoquent pour leur part le non respect de la législation relative au
copyright pour attaquer Google en justice.

Décembre 2006 - Lancement de Live Search Books, le projet de bibliothèque
numérique mondiale de Microsoft

En décembre 2006 est lancée la version bêta de Live Search Books, qui permet de
faire des recherches par mots-clés dans les livres du domaine public scannés par
Microsoft. Les premiers fonds scannés sont la British Library et les
bibliothèques des Universités de Californie et de Toronto, suivies en janvier
2007 par la New York Public Library et  par la bibliothèque de l’Université
Cornell. Microsoft compte ajouter des livres sous droits avec l’accord préalable
des éditeurs. Microsoft participe aussi à l’Open Content Alliance (OCA), une
initiative lancée en octobre 2005* par l’Internet Archive pour créer un
répertoire libre et multilingue de livres numérisés et documents multimédias.

Décembre 2006 - Développement d'une bibliothèque numérique planétaire dans la
Text Archive, sous l'égide de l'Internet Archive

Suite à la création de l’Open Content Alliance (OCA) en octobre 2005*,
l’Internet Archive franchit la barre des 100.000 livres numérisés en décembre
2006, avec un rythme de 12.000 nouveaux livres par mois. Ces livres sont
disponibles dans la collection Text Archive de l’Internet Archive. A la même
date, l’Internet Archive reçoit une subvention importante de la Sloan Foundation
pour numériser cinq collections historiques appartenant à des établissements
réputés (Metropolitan Museum of Art, Boston Public Library, Getty Research
Institute, John Hopkins University, Université de Californie à Berkeley). La
barre des 200.000 livres numérisés est franchie en mai 2007.

Mars 2007 - Lancement de Citizendium, grande encyclopédie collaborative en ligne

Citizendium (qui se veut l’abrégé de: The Citizens’ Compendium) est une grande
encyclopédie collaborative en ligne conçue en novembre 2006 et lancée en mars
2007 (en version bêta) par Larry Sanger, co-fondateur de Wikipedia en janvier
2001*, mais qui quitte ensuite l’équipe de Wikipedia suite à des problèmes de
qualité de contenu. Citizendium est basé sur le même modèle que Wikipedia
(collaborative et gratuite) tout en évitant ses travers (vandalisme et manque de
rigueur). Les auteurs signent les articles de leur vrai nom et les articles sont
édités par des experts («editors») titulaires d'une licence universitaire et
âgés d'au moins 25 ans. De plus, des «constables» sont chargés de la bonne
marche du projet et du respect du règlement. Le jour de son lancement (25 mars
2007), Citizendium comprend 820 auteurs et 180 experts.

Mai 2007 - Lancement de l’Encyclopedia of Life, grande encyclopédie
collaborative des sciences de la vie

Projet débuté en mai 2007, l’Encyclopedia of Life est une vaste encyclopédie
collaborative en ligne rassemblant les connaissances existantes sur toutes les
espèces animales et végétales connues (1,8 million), y compris les espèces en
voie d’extinction, avec l’ajout de nouvelles espèces au fur et à mesure de leur
identification (il en existerait de 8 à 10 millions). Ce projet collaboratif est
mené par plusieurs grandes institutions (Field Museum of Natural History,
Harvard University, Marine Biological Laboratory, Missouri Botanical Garden,
Smithsonian Institution, Biodiversity Heritage Library). Le financement initial
est assuré par la MacArthur Foundation et la Sloan Foundation. La réalisation
des pages web débute courant 2007. L’encyclopédie fait ses débuts à la mi-2008.
Opérationnelle d'ici trois à cinq ans, elle devrait être complète - c'est-à-dire
à jour - dans dix ans.


14.2. En résumé


1971 (juillet): Genèse du Projet Gutenberg, première bibliothèque numérique au
monde.

1991 (janvier): Création de l’Unicode, système d’encodage permettant de traiter
toutes les langues de la planète.

1993 (janvier): Lancement de The Online Books Page, un répertoire d'oeuvres
anglophones en accès libre.

1993 (avril): Création d’ABU : la bibliothèque universelle, première
bibliothèque numérique francophone.

1993 (juin): Lancement par Adobe de l’Acrobat Reader, premier logiciel de
lecture.

1994 (novembre): Naissance des Chroniques de Cybérie, première lettre
d’information électronique francophone.

1995 (février): Lancement du site web du Monde diplomatique, premier site d’un
périodique imprimé français.

1995 (avril): Création d’Editel, site pionnier de l’édition littéraire
francophone.

1995 (juillet): Création de la librairie en ligne Amazon.com, futur géant du
commerce électronique.

1996 (février): Lancement de la lettre d’information électronique LMB Actu (Le
Micro Bulletin Actu).

1996 (avril): Fondation de l’Internet Archive pour archiver la totalité du web
tous les deux mois.

1996 (mai): Création du DAISY Consortium pour définir un standard de livre
audionumérique.

1996 (juin): Lancement de Zazieweb, site indépendant suivant l’actualité du
livre.

1996 (août): Création de CyLibris, pionnier francophone de l’édition
électronique commerciale.

1996 (octobre): Genèse d’@folio, défini comme un baladeur de texte ou un support
de lecture nomade.

1997 (avril): Création de la société E Ink pour développer une technologie
d’encre électronique.

1997 (octobre): Mise en ligne de Gallica, bibliothèque numérique de la
Bibliothèque nationale de France.

1998 (mai): Lancement des éditions 00h00, premier éditeur au monde à vendre des
livres numériques.

1999 (septembre): Création du format Open eBook (OeB) pour offrir un standard de
livre numérique.

1999 (décembre): Mise en ligne de WebEncyclo, première encyclopédie francophone
en accès libre.

1999 (décembre): Mise en ligne de Britannica.com, première encyclopédie
anglophone en accès libre.

2000 (janvier): Lancement du Million Book Project dans le but de numériser un
million de livres.

2000 (mars): Lancement du concept du lyber par les éditions de l’Eclat.

2000 (mars): Création de la société Mobipocket, spécialisée dans les livres
numériques pour assistant personnel.

2000 (mai): Création du Net des études françaises (NEF), réseau francophone de
diffusion libre du savoir.

2000 (juillet): Auto-publication en ligne d’un roman de Stephen King, premier
auteur de best-sellers à tenter l’expérience.

2000 (août): Lancement du Microsoft Reader, logiciel de lecture pour plateforme
Windows.

2000 (septembre): Rachat des éditions 00h00 par Gemstar-TV Guide International.

2000 (septembre): Mise en ligne du Grand dictionnaire terminologique (GDT) par
l’Office québécois de la langue française (OQLF).

2000 (septembre): Lancement de Numilog, première librairie francophone à vendre
exclusivement des livres numériques.

2000 (septembre): Lancement du portail Handicapzéro, destiné aux personnes
francophones ayant un problème visuel.

2000 (octobre): Fondation de la Public Library of Science (PLoS) dans le but de
créer un service gratuit d’archives en ligne.

2000 (octobre): Création de Distributed Proofreaders pour aider à la
numérisation des livres du domaine public.

2000 (octobre): Lancement des tablettes électroniques de lecture Gemstar eBook.

2000 (novembre): Mise en ligne de la version numérisée de la Bible de Gutenberg
par la British Library.

2000 (décembre): Création de la société Gyricon Media pour développer un modèle
de papier électronique.

2001 (janvier): Création de Wikipedia, grande encyclopédie collaborative en
ligne.

2001 (janvier): Lancement par la société Cytale du Cybook, première tablette
électronique de lecture européenne.

2001 (janvier): Lancement par Adobe de l’Acrobat eBook Reader, logiciel de
lecture pour livres numériques sous droits.

2001 (mars): Lancement du Palm Reader, logiciel de lecture destiné au Palm
Pilot.

2001 (octobre): Lancement par l’Internet Archive de la Wayback Machine, qui
permet de voir l'historique d'un site web à différentes dates.

2002 (février): Mise en ligne de Bookshare.org, grande bibliothèque numérique
pour personnes aveugles et malvoyantes.

2003 (janvier): Débuts des activités d’édition de la Public Library of Science
(PLoS) pour lancer des périodiques scientifiques et médicaux en ligne.

2003 (septembre): Mise en ligne gratuite du MIT OpenCourseWare, une série de
cours du Massachusetts Institute of Technology.

2004 (janvier): Lancement du Projet Gutenberg Europe et de Distributed
Proofreaders Europe.

2004 (octobre): Lancement de Google Print, le projet de bibliothèque numérique
mondiale de Google.

2005 (octobre): Lancement de l’Open Content Alliance (OCA), projet public et
coopératif de bibliothèque numérique mondiale.

2006 (janvier): Lancement de la Bibliothèque numérique pour le Handicap (BnH) à
destination de toutes les personnes en situation de handicap.

2006 (août): Lancement de Google Book Search (Google Livres) en remplacement de
Google Print.

2006 (décembre): Lancement de Live Search Books, le projet de bibliothèque
numérique mondiale de Microsoft.

2006 (décembre): Développement d'une bibliothèque numérique planétaire dans la
Text Archive, sous l'égide de l'Internet Archive.

2007 (mars): Lancement de Citizendium, grande encyclopédie collaborative en
ligne.

2007 (mai): Lancement de l’Encyclopedia of Life, grande encyclopédie
collaborative des sciences de la vie.


15. REMERCIEMENTS


Ce livre doit beaucoup à tous les professionnels du livre - et apparentés -
ayant accepté de répondre par courriel à mes questions, dans certains pendant
plusieurs années depuis 1998. La quasi-totalité des entretiens est publiée en
ligne sur le Net des études françaises (www.etudes-francaises.net/entretiens/).

- Nicolas Ancion (Madrid), écrivain et responsable éditorial de Luc Pire
électronique, le secteur numérique de l’éditeur belge Luc Pire.

- Alex Andrachmes (Europe), producteur audiovisuel, écrivain et explorateur
d’hypertexte.

- Guy Antoine (New Jersey), créateur de Windows on Haiti, site de référence sur
la culture haïtienne.

- Silvaine Arabo (Poitou-Charentes), poète et plasticienne, créatrice de la
cyber-revue Poésie d’hier et d’aujourd’hui.

- Arlette Attali (Paris), responsable de l’équipe "Recherche et projets
internet" à l’Institut national de la langue française (INaLF).

- Marc Autret (région parisienne), rédacteur en chef d'Ecrire&Editer,
journaliste et infographiste.

- Isabelle Aveline (Lyon), créatrice de Zazieweb, site consacré à l’actualité
littéraire.

- Jean-Pierre Balpe (Paris), directeur du département hypermédias de
l’Université Paris 8, chercheur et écrivain.

- Emmanuel Barthe (Paris), documentaliste juridique du cabinet d’avocats
Coutrelis & Associés, et modérateur de la liste de discussion Juriconnexion.

- Robert Beard (Lewisburg, Pennsylvanie), co-fondateur de yourDictionary.com,
portail de référence pour les langues.

- Michael Behrens (Bielefeld, Allemagne), responsable du secteur numérique de la
Bibliothèque universitaire de Bielefeld.

- Michel Benoît (Montréal), auteur de romans policiers, utilise l’internet comme
outil de recherche, de communication et d’ouverture sur le monde.

- Guy Bertrand (Montréal), directeur scientifique du Centre d'expertise et de
veille inforoutes et langues (CEVEIL).

- Olivier Bogros (Lisieux, Normandie), directeur de la Médiathèque municipale et
créateur de la Bibliothèque électronique de Lisieux.

- Christian Boitet (Grenoble), directeur du Groupe d'étude pour la traduction
automatique (GETA).

- Bernard Boudic (Rennes), responsable éditorial du site internet du quotidien
Ouest-France.

- Bakayoko Bourahima (Abidjan), documentaliste à l’Ecole nationale supérieure de
statistique et d’économie appliquée (ENSEA).

- Marie-Aude Bourson (Lyon), créatrice de la Grenouille Bleue et de Gloupsy,
sites littéraires destinés aux nouveaux auteurs.

- Lucie de Boutiny (Paris), écrivain papier et pixel, auteur de NON, roman
multimédia publié en feuilleton sur le web.

- Anne-Cécile Brandenbourger (Bruxelles), auteur de La malédiction du parasol,
hyper-roman publié aux éditions 00h00.

- Alain Bron (Paris), consultant en systèmes d'information et écrivain, met en
scène l’internet dans son roman Sanguine sur toile.

- Patrice Cailleaud (Paris), membre fondateur et directeur de la communication
de l’association Handicapzéro, qui propose un portail destiné aux personnes
aveugles et malvoyantes.

- Tyler Chambers (Boston, Massachusetts), créateur de The Human-Languages Page
et de The Internet Dictionary Project.

- Pascal Chartier (Lyon), libraire d’ancien et créateur de Livre-rare-book, site
professionnel de livres d’occasion.

- Richard Chotin (Paris), professeur à l’Ecole supérieure des affaires (ESA) de
Lille.

- Alain Clavet (Ottawa), analyste de politiques au Commissariat aux langues
officielles du Canada.

- Jean-Pierre Cloutier (Montréal), auteur des Chroniques de Cybérie, chronique
hebdomadaire des actualités de l’internet.

- Jacques Coubard (Paris), responsable du site web du quotidien L’Humanité.

- Luc Dall’Armellina (Paris), co-auteur et webmestre d’oVosite, espace
d’écritures hypermédias.

- Kushal Dave (Yale), étudiant puis professeur à l'Université de Yale.

- Cynthia Delisle (Montréal), consultante au Centre d'expertise et de veille
inforoutes et langues (CEVEIL).

- Catherine Desbuquois (Paris), conservateur en chef des bibliothèques, chargée
de mission à la Direction du livre et de la lecture (Ministère de la culture et
de la communication), en mission auprès de l'association BrailleNet.

- Emilie Devriendt (Paris), élève professeur à l’Ecole normale supérieure (ENS)
de Paris, doctorante à l’Université Paris 4-Sorbonne et responsable du site
Translatio.

- Bruno Didier (Paris), webmestre de la médiathèque de l’Institut Pasteur.

- Catherine Domain (Paris), fondatrice de la librairie Ulysse, première
librairie de voyage au monde.

- Helen Dry (Michigan), modératrice de The Linguist List.

- Bill Dunlap (Paris & San Francisco), fondateur de Global Reach, société
spécialisée dans le marketing international en ligne.

- Pierre-Noël Favennec (Paris & Lannion, Bretagne), expert à la direction
scientifique de France Télécom R&D.

- Gérard Fourestier (Nice), créateur de Rubriques à Bac, ensemble de bases de
données destinées aux lycéens et aux étudiants.

- Pierre François Gagnon (Montréal), créateur d’Editel, pionnier de l’édition
littéraire francophone en ligne.

- Olivier Gainon (Paris), fondateur et gérant de CyLibris, pionnier francophone
de l’édition électronique commerciale.

- Jacques Gauchey (San Francisco), journaliste, spécialiste en industrie des
technologies de l'information et "facilitator" entre les Etats-Unis et l'Europe.

- Raymond Godefroy (Valognes, Normandie), écrivain-paysan, diffuse son recueil
Fables pour l’an 2000 sur le web avant la parution du recueil imprimé.

- Muriel Goiran (Rhône-Alpes), libraire à la librairie Decitre.

- Marcel Grangier (Berne, Suisse), responsable de la section française des
services linguistiques centraux de l’Administration fédérale suisse.

- Barbara Grimes (Hawaii), directrice de publication de l’Ethnologue: Languages
of the World, grande encyclopédie des langues.

- Michael Hart (Illinois), fondateur du Projet Gutenberg, première bibliothèque
numérique au monde.

- Roberto Hernández Montoya (Caracas), responsable de la bibliothèque numérique
du magazine électronique Venezuela Analítica.

- Randy Hobler (Dobbs Ferry, New York), consultant en marketing internet de
produits et services de traduction.

- Eduard Hovy (Marina del Rey, Californie), directeur du Natural Language Group
de l’USC/ISI (University of Southern California / Information Sciences
Institute), et spécialiste de la traduction automatique et du traitement naturel
des langues.

- Christiane Jadelot (Nancy), ingénieur d’études à l’Institut national de la
langue française (INaLF).

- Gérard Jean-François (Caen), directeur du centre de ressources informatiques
de l'Université de Caen.

- Jean-Paul (Paris), webmestre du site hypermédia cotres.net.

- Anne-Bénédicte Joly (Antony, région parisienne), écrivain auto-éditant ses
oeuvres et utilisant le web pour les faire connaître.

- Brian King (monde), directeur du WorldWide Language Institute, à l'origine de
NetGlos, un glossaire multilingue de la terminologie de l'internet.

- Geoffrey Kingscott (Londres), co-directeur du magazine en ligne Language
Today.

- Steven Krauwer (Utrecht, Pays-Bas), coordinateur d'ELSNET (European Network of
Excellence in Human Language Technologies).

- Gaëlle Lacaze (Paris), ethnologue et professeur d'écrit électronique dans un
institut universitaire professionnalisé.

- Michel Landaret (Strasbourg), responsable du site web des Dernières nouvelles
d’Alsace.

- Hélène Larroche (Paris), fondatrice de la librairie Itinéraires, spécialisée
dans les voyages.

- Pierre Le Loarer (Grenoble), directeur du centre de documentation de
l'Institut d'études politiques de Grenoble et chargé de mission TICE.

- Claire Le Parco (Paris), de la société Webnet, société qui crée le site Poésie
française.

- Annie Le Saux (Paris), rédactrice du Bulletin des bibliothèques de France
(BBF).

- Fabrice Lhomme (Bretagne), créateur d’Une Autre Terre, site consacré à la
science-fiction.

- Philippe Loubière (Paris), traducteur littéraire et dramatique, et spécialiste
de la Roumanie.

- Pierre Magnenat (Lausanne), responsable de la cellule «gestion et prospective»
du centre informatique de l'Université de Lausanne.

- Xavier Malbreil (Ariège, Midi-Pyrénées), auteur multimédia, créateur du site
www.0m1.com et modérateur de la liste e-critures.

- Alain Marchiset (Paris), libraire d’ancien et président du Syndicat national
de la librairie ancienne et moderne (SLAM).

- Maria Victoria Marinetti (Annecy), professeur d’espagnol en entreprise et
traductrice.

- Michael Martin (Berkeley, Californie), créateur de Travlang, site consacré aux
voyages et aux langues.

- Tim McKenna (Genève), écrivain, s'interroge sur la notion complexe de «vérité»
dans un monde en mutation constante.

- Emmanuel Ménard (Paris), directeur des publications de CyLibris, maison
d'édition littéraire en ligne.

- Yoshi Mikami (Fujisawa, Japon), créateur du site The Languages of the World by
Computers and the Internet, et co-auteur du livre Pour un web multilingue paru
chez O'Reilly.

- Jacky Minier (Orléans), créateur de Diamedit, site de promotion d’inédits
artistiques et littéraires.

- Jean-Philippe Mouton (Paris), fondateur et gérant de la société d'ingénierie
Isayas.

- John Mark Ockerbloom (Pennsylvanie), fondateur de The Online Books Page,
répertoire d’oeuvres anglophones en accès libre sur le web.

- Caoimhín Ó Donnaíle (Ile de Skye, Ecosse), webmestre du principal site
d’information en gaélique écossais, avec une section consacrée aux langues
européennes minoritaires.

- Jacques Pataillot (Paris), conseiller en management chez Cap Gemini Ernst &
Young.

- Alain Patez (Boulogne-Billancourt, région parisienne), responsable des
éditions numériques à la Médiathèque Landowski de Boulogne-Billancourt, et
chargé de mission pour la Bibliothèque numérique pour le Handicap (BnH).

- Nicolas Pewny (Annecy), fondateur des éditions du Choucas, spécialisées dans
les romans policiers, puis consultant en édition électronique.

- Marie-Joseph Pierre (Argentan, Normandie), enseignante-chercheuse à l’Ecole
pratique des hautes études (EPHE, section Sciences religieuses, Paris-Sorbonne).

- Hervé Ponsot (Toulouse), webmestre des éditions du Cerf, spécialisées en
théologie.

- Olivier Pujol (Paris), PDG de la société Cytale et promoteur du Cybook,
première tablette électronique de lecture européenne.

- Anissa Rachef (Londres), bibliothécaire et professeur de français langue
étrangère à l’Institut français de Londres.

- Peter Raggett (Paris), directeur du centre de documentation et d’information
(CDI) de l’Organisation de coopération et de développement économiques (OCDE).

- Patrick Rebollar (Tokyo), professeur de littérature française et
d’informatique dans des universités japonaises, créateur d’un site web de
recherches et activités littéraires, et modérateur de la liste de diffusion
LITOR (littérature et ordinateur).

- Philippe Renaut (Paris), gérant des éditions du Presse-Temps, et rédacteur en
chef d'Edition-actu, la lettre d'information électronique de CyLibris.

- Jean-Baptiste Rey (Aquitaine), webmestre et rédacteur de Biblio On Line, site
web destiné aux bibliothèques.

- Philippe Rivière (Paris), rédacteur au Monde diplomatique et responsable du
site web.

- Blaise Rosnay (Paris), webmestre du site du Club des Poètes.

- Bruno de Sa Moreira (Paris), co-fondateur des éditions 00h00, premier éditeur
au monde à vendre des livres numériques.

- Pierre Schweitzer (Strasbourg), architecte designer, inventeur du projet
@folio, une tablette numérique de lecture nomade, et de Mot@mot, un logiciel de
remise en page de fac-similés numériques.

- Henri Slettenhaar (Genève), professeur en technologies de la communication à
la Webster University et directeur exécutif de la Silicon Valley Association
(SVA) suisse.

- Murray Suid (Palo Alto, Californie), écrivain spécialisé dans les logiciels
éducatifs en ligne et le matériel pédagogique multimédia.

- June Thompson (Hull, Royaume-Uni), directeur du C&IT (Communications &
Information Technology) Centre, basé à l'Université de Hull.

- Zina Tucsnak (Nancy), ingénieur d’études en informatique à l’ATILF (Analyse et
traitement informatique de la langue française).

- François Vadrot (Paris), fondateur et PDG de la société de cyberpresse FTPress
(French Touch Press).

- Christian Vandendorpe (Ottawa), professeur à l’Université d’Ottawa et
spécialiste des théories de la lecture.

- Robert Ware (Colorado), créateur de Onelook Dictionaries, un moteur de
recherche pour les dictionnaires.

- Russon Wooldridge (Toronto), professeur au département d’études françaises de
l’Université de Toronto, créateur de ressources littéraires librement
accessibles en ligne, et fondateur du Net des études françaises (NEF).

- Denis Zwirn (Paris), président de la société Numilog, fondateur d'une grande
librairie numérique francophone, spécialiste de la distribution de livres
numériques, et prestataire de services auprès d'éditeurs et de bibliothèques.


16. COMMENTAIRES


Ce travail de recherche a vu le jour dès 1995. Il s’est d’abord intitulé De
l’imprimé à Internet, avec une première synthèse disponible en 1999 aux éditions
00h00 (version PDF et version imprimée) puis en 2001 sur le Net des études
françaises (version web). Il s’est poursuivi au fil des ans avec deux nouveaux
titres: Entretiens (1998-2001), qui regroupe une centaine d’entretiens avec des
professionnels du livre et apparentés, et Le Livre 010101 (1993-2003), un
ouvrage de synthèse en deux volumes. L'ensemble est publié en ligne sur le Net
des études françaises (NEF), basé à l’Université de Toronto (Canada), tout comme
nombre d’enquêtes et d’articles connexes. A la demande des adeptes du format
PDF, Le Livre 010101 est également distribué par la librairie numérique Numilog.
Quatre ans plus tard suit un nouveau livre de synthèse, Les mutations du livre à
l'heure de l'internet, disponible en septembre 2007 au format PDF sur le NEF et
chez Numilog.

Marc Autret, journaliste et infographiste: «C’est tout naturellement chez
Numilog que la journaliste Marie Lebert a mis en circulation sa remarquable
enquête: Le Livre 010101 (version 2002, 158 pp., 1 Mo, ndlr). En quelque 158
pages, elle présente d’innombrables acteurs de l’édition numérique, leur
démarche, leurs problèmes, leurs espoirs. Une somme d’entretiens et d’analyses
qui, par sa densité et sa qualité, tient de la prouesse. A découvrir.» (Ecrire &
Editer nº 41, décembre-janvier 2003)

Anne-Bénédicte Joly, écrivain, qui auto-édite ses oeuvres et les promeut sur son
site web: «J’ai collaboré à trois reprises avec Marie Lebert dans le cadre de
ses travaux de recherche. Non seulement l’expérience s’est parfaitement déroulée
grâce au très grand professionnalisme dont Marie Lebert a su faire preuve tout
au long de nos travaux (tant durant la phase analyse que durant la phase
restitution avant validation), mais aussi elle a accompagné ces démarches d’un
soutien et d’une communication de tous les instants. Une fois les travaux
effectués et les données rassemblées dans un ouvrage, dont la qualité et la
pertinence font aujourd’hui référence (dans le monde de l’édition numérique),
Marie Lebert a attaché une grande importance au retour d’information auprès des
personnes interviewées. Participer dans ces conditions à de tels travaux
d’analyse et collaborer de cette manière ont été des étapes particulièrement
intéressantes à de nombreux égards.» (février 2005)

Nicolas Pewny, fondateur des éditions du Choucas, puis consultant publishing et
internet: «J’ai eu le plaisir de suivre les recherches de Marie Lebert. Elle
s’est intéressée à l’internet et au télétravail à une époque où ils n’étaient
connus que de quelques initiés. Elle a su voir très tôt les conséquences des
bouleversements apportés dans le monde du livre par l’internet et les
technologies numériques. Marie Lebert a fait un gigantesque travail de
recherche, véritable travail de précurseur, pour en faire l’historique et la
synthèse, dans ses ouvrages Le Livre 010101. Ces ouvrages sont et resteront des
documents incontournables pour qui veut comprendre les mutations profondes que
l’internet engendre.» (février 2005)

Denis Zwirn, président de Numilog, grande librairie de livres numériques et
prestataire de services: «Marie Lebert est entrée en contact avec la société
Numilog en février 2001 à l’occasion de la rédaction de son livre d’entretiens
avec des spécialistes du livre électronique Le Livre 010101. Cet ouvrage, qui
porte sur deux périodes (1993-1998 et 1998-2003), fait un point extrêmement
complet sur l’historique et les développements actuels des livres numériques
dans le monde. Il recense, compare et classifie de manière très instructive les
points de vue et expériences de la plupart des pionniers de l’édition numérique,
en particulier francophone. Le travail d’interviews effectué par Marie Lebert
témoigne d’une grande connaissance des enjeux et problématiques de ce secteur.
Il invite les spécialistes de ces nouvelles manières d’écrire, d’éditer et de
distribuer des livres à engager avec Marie Lebert une discussion constructive
afin d’éclaircir leur propre contribution et leur propre analyse de ce secteur.
L’édition numérique représente une innovation forte et profonde de la filière
livre, qui comporte des aspects multidisciplinaires et concerne des acteurs de
types très différents: auteurs, éditeurs, universitaires, entreprises de
commerce électronique. Marie Lebert a accompli à cet égard à travers cet ouvrage
un important travail de pionnier pour en effectuer la toute première synthèse
francophone existant au monde et pour la communiquer à tous les publics
intéressés par ces innovations, par l’unité qu’elles peuvent receler, les paris
sur lesquels elles reposent et les interrogations qu’elles soulèvent quant à son
avenir. Marie Lebert est devenue de ce fait une des meilleures spécialistes
mondiales du sujet. Son travail lui a par ailleurs permis de créer un réseau de
communication unique entre les spécialistes du livre électronique, utile à toute
la filière dans la mesure où par son intermédiaire de nombreux et utiles
échanges ont pu se nouer entre différents professionnels et donner naissance à
des projets concrets de coopération. Marie Lebert accomplit avec une grande
rigueur un travail indispensable et qui restera une référence pour l’étude de ce
nouveau secteur, porteur d’une révolution potentiellement majeure pour l’édition
et au-delà pour la diffusion de la connaissance et pour l’éducation. Elle le
fait avec un grand sérieux dans l’analyse, dans l’utilisation des concepts, tant
théoriques que techniques ou économiques, si tant est que tous ces plans
d’analyse sont nécessaires pour comprendre de manière complémentaire et en
profondeur les enjeux de l’édition numérique. Son approche très objective et
complète des enjeux du secteur permet par ailleurs de présenter à la fois les
modèles non commerciaux d’édition numérique, liés aux approches d’écrivains
inventant de nouvelles formes de création et de diffusion littéraire ou aux
tenants de l’internet libre et gratuit, et les modèles commerciaux, liés aux
entreprises d’édition ou aux professionnels du commerce électronique. Elle
invite à réfléchir sur les contradictions et/ou les complémentarités entre ces
deux types de modèles, une question essentielle qui traverse aujourd’hui toute
l’économie d’internet et des biens numériques culturels. Compte tenu de sa
valeur, la librairie Numilog a choisi de diffuser le travail de Marie Lebert sur
son site afin que ses visiteurs puissent librement le télécharger, le consulter
et mieux s’informer sur les livres numériques qui représentent notre activité
principale.» (février 2005)

Olivier Bogros, directeur de la Médiathèque de Lisieux et créateur de la
Bibliothèque électronique de Lisieux: «Notre première collaboration avec Marie
Lebert remonte à juin 1998, époque à laquelle elle s’était lancée dans sa série
d’entretiens en ligne consacrés aux acteurs de l’internet littéraire, encore
pionniers. La simplicité apparente de sa méthode faisait apparaître par la
confrontation des opinions la richesse du sujet et du projet. Les mises à jour
des entretiens permettent de suivre au fil des ans les modifications importantes
des sites littéraires liées au développement de l’internet grand public.» (mars
2005)

Peter Raggett, directeur du Centre de documentation et d’information (CDI) de
l’OCDE (Organisation de coopération et de développement économiques): «J’ai
participé aux Entretiens de Marie Lebert dans le cadre de son projet de
recherche Le Livre 010101 et j’ai été impressionné par ses connaissances des
derniers développements dans le domaine de l’édition électronique et par l’étude
approfondie qu’elle a rédigée. Cette étude est l’une des oeuvres les plus
importantes sur l’utilisation des nouvelles technologies dans l’édition.» (avril
2005)

Philippe Renaut, rédacteur en chef d’Edition-actu, lettre d’information de
CyLibris, et gérant des éditions du Presse-Temps: «J’ai eu l’occasion de
collaborer avec Marie Lebert dans le cadre de ses recherches en ligne. Marie
fait preuve d’un professionnalisme et d’une honnêteté intellectuelle sans faille
qui apporte à tous ses travaux une crédibilité et une dynamique exceptionnelles.
Sa recherche sur l’édition en ligne, fouillée et argumentée, a été diffusée
logiquement sur le web par moyens numériques, apportant ainsi une preuve
supplémentaire de la conviction de Marie pour l’avènement d’une ère numérique
dans la lecture et la diffusion de la culture.» (avril 2005)

Pierre Schweitzer, architecte designer, inventeur du projet @folio, une tablette
numérique de lecture nomade: «J’ai participé en janvier 2001 aux Entretiens de
Marie Lebert et découvert sa prodigieuse enquête sur le texte, le livre,
l’imprimé et leurs mutations à l’heure des nouvelles technologies de
l’information et d’internet. L’enquête réalisée par Marie est à ma connaissance
une des plus approfondies et des mieux fouillées sur le sujet. Sortant des
sentiers battus, son enquête agrège une somme impressionnante d’interviews, tout
à fait remarquable par la diversité des éclairages offerts et par la variété des
points de vue recueillis. Les Entretiens de Marie furent pour moi-même une
source d’information passionnante et un document de référence vers lequel j’ai
pris l’habitude de renvoyer mes interlocuteurs ou certains amateurs éclairés.
Car son travail est aussi agréable et efficace dans sa forme : l’écriture
hypertexte est investie avec passion, goût et malice : la mise en ligne et les
traductions offertes en facilitent grandement l’accès. Voici en quelques mots
succincts ma perception du travail patient et généreux de Marie, qui fait
d’elle, à mes yeux, une des spécialistes les mieux avisés et les plus constants
d’un domaine qui, malgré les soubresauts et certaines désillusions, n’a pas
encore fini de nous dire ses derniers mots...» (avril 2005)

Jean-Paul, webmestre du site hypermédia cotres.net: «C'était la dernière
décennie de notre 2e millénaire. L'Histoire frappe à la porte, puis la fracasse:
l'Internet (il porte encore une majuscule) fait irruption. C'est l'ère, l'erre
et l'aire des pionniers de la Toile, des chemineaux de ce continent incertain
que des banquiers terrorisés tentent de coloniser avant leurs concurrents, que
des mohicans éblouis explorent dans le ravissement.  Marie en est. Elle arpente
le net (c'est encore possible pour un/e solitaire), va de l'un à l'autre,
interviewe, noue des liens, suscite les rencontres, les échanges. Fidèle à
l'esprit du temps, cela se fait dans la transparence, d'égal à égal, à la
terrasse ouverte des cafés pas toujours virtuels. D'année en année, les mises à
jour se font quasiment en direct, on peut suivre l'évolution (ultra-rapide) du
bouleversement qu'opère l'impérialisme du réseau des réseaux sur toutes sortes
d'activités humaines, tout particulièrement dans le royaume d'élection de Marie:
l'écriture, et tout ce qui s'y rattache, de la plume (d'acier) à la presse (de
plomb). Le Livre 010101 sera la somme de cette expérience: une mine d'infos et
d'adresses indispensables à quiconque cherchait quelques amers dans le vaste
océan du net.» (décembre 2005)

Marc Autret, journaliste et infographiste: «En ligne depuis avant-hier [20
juillet 2007, ndlr] sur le Net des études françaises, un historique vertigineux
des Mutations du livre à l'heure de l'internet (PDF, 215 p., 1,2 Mo), sous la
loupe infaillible de Marie Lebert. Après De l'imprimé à Internet (00h00, 1999),
Le Livre 010101 (NEF/Numilog, 1993-2003) et le Dictionnaire du NEF (2003-2007),
la journaliste la plus assidue de la sphère cyberbibliophile nous livre,
gratuitement, un nouvel état des lieux de la révolution numérique engagée au
milieu des années 90 dans le secteur du livre et de la culture. La chronologie
méticuleuse et sourcée de Marie Lebert retend le fil d'Ariane que l'on croyait
définitivement perdu avec le brouillage sémantique de ces dernières années. A
côté des prospectivistes de la dernière pluie et des chantres du CAC40
éditorial, il est bon de consulter des historiens vaccinés contre le messianisme
ambiant et capables de mettre en perspective cette laborieuse génétique où se
croisent le texte électronique et ses éditeurs, les bibliothèques numériques,
les webrairies, les encyclopédies en ligne, les hypermédias, les e-books
(software et hardware), avec en tâche de fond la grande croisade de la
numérisation du patrimoine mondial... Il manquait un(e) Homère à cette odyssée,
la voici!» (juillet 2007)

Olivier Gainon, fondateur et gérant des éditions CyLibris: «Signalons la
publication d'un nouveau livre de Marie Lebert, figure historique de l'édition
littéraire sur internet, Les mutations du livre à l'heure de l'internet. Ce
livre – librement téléchargeable en format PDF – est la bible indispensable pour
tous ceux qui s'intéressent (encore ou à nouveau) au livre électronique : forte
de son expérience et de son implication sur le sujet depuis plusieurs années,
Marie Lebert balaie tous les sujets et les replace dans une perspective
historique. Retraçant avec précision l'histoire déjà mouvementée du livre
électronique, elle ouvre également des pistes de réflexions, des axes de travail
et souligne les ambiguités actuelles des différents acteurs. Bref, un must, on
vous dit!» (juillet 2007)

Jean-Paul, webmestre du site hypermédia cotres.net: «Le texte de Mutations est
comme d'habitude chez Marie Lebert: clair, exhaustif, méthodique. C'est une
synthèse exemplaire du dernier demi-siècle (ou presque, déjà!) de la longue
histoire du livre, et de sa confrontation au numérique et à l'internet. (...)
Par exemple (...) l'apparition successive des copyleft, Creative Commons et
autres GPL permet de souligner que le statut de la littérature numérique reste
instable, et que le temps n'est pas encore venu où les usagers auront fait le
choix de ce qui répond le mieux aux besoins. Et c'est justement ce que je trouve
le plus passionnant dans les Mutations que j'ai lu comme un roman "à suivre",
contant les tribulations tectoniques d'une révolution, un feuilleton dont la
dernière livraison s'écrit sous nos yeux. On y voit des idées, projets,
entreprises apparaître, évoluer, grandir ou couler, ou tout bêtement se vendre
(juste à temps, dans le cas de 00h00). De belles légendes roses (Amazon, Yahoo!)
se transformer en polars balzaciens impitoyables, où les fantassins et petites
mains découvrent vite qu'ils ne sont pas dans la tourelle, mais sous les
chenilles du char de l'histoire... (...) Une Comédie Humaine, où je me suis
amusé à me retrouver en figurant microscopique. Et le moins séduisant n'est pas
le bouquet final, une explosion de 18 pages encyclopédiques bourrées d'adresses
internet pour dessiner plein de cartes imaginaires des courses folles qui nous
attendent derrière l'horizon. Bref, une fois de plus, merci Marie d'avoir empli
nos cales et ciselé cette boussole indispensable.» (octobre 2007)


17. SITES ET PAGES WEB


Etant donné le sujet, plutôt que la bibliographie d’usage, on préfère proposer
une liste des principaux sites et pages web (880 références) consultés.

@folio: http://atfolio.u-strasbg.fr/

0m1.com: écrits et théories: http://www.0m1.com/

A9.com: http://a9.com/

AACR2 (Anglo-American cataloguing rules, version 2): http://www.aacr2.org/

AAP (Association of American Publishers): http://www.publishers.org/

ABF (Association des bibliothécaires français): http://www.abf.asso.fr/

ABU (Association des bibliophiles universels): http://abu.cnam.fr/

Académie française: http://www.academie-francaise.fr/

ACM (Association for Computing Machinery): http://portal.acm.org/

Acrobat Reader: http://www.adobe.com/products/acrobat/

ADBS (Association des professionnels de l’information et de la documentation):
http://www.adbs.fr/

ADBS-info: http://listes.adbs.fr/sympa/info/adbs-info

AddALL: http://www.addall.com/

Adobe: http://www.adobe.com/

Adobe Acrobat: http://www.adobe.com/products/acrobat/

Adobe Content Server: http://www.adobe.com/products/contentserver/

Adobe eBooks Central: http://www.adobe.com/epaper/ebooks/

Adobe Flash: http://www.adobe.com/products/flash/

Adobe Labs: http://labs.adobe.com/

Adobe LiveCycle Policy Server: http://www.adobe.com/products/server/policy/

Adobe Photoshop: http://www.adobe.fr/products/photoshop/

Adobe PostScript: http://www.adobe.com/products/postscript/

Adobe Reader: http://www.adobe.com/products/reader/

AFA (Association des fournisseurs d’accès et de services internet):
http://www.afa-france.com/

AFNOR (Association française de normalisation): http://www.afnor.fr/

AFP (Agence France-Presse): http://www.afp.com/

AJR (American Journalism Review): http://ajr.org/

Alapage: http://www.alapage.com/

Alcatel-Lucent: http://www.alcatel-lucent.com/

Alexa: http://www.alexa.com/

Alice: http://www.alice.it/

Alis Technologies: http://www.alis.com/

AltaVista: http://www.altavista.com/

AltaVista: Babel Fish Translation: http://babel.altavista.com/

Amazon.com: http://www.amazon.com/

Amazon.fr: http://www.amazon.fr/

Ancion, Nicolas (site): http://ancion.hautetfort.com/

Andrachmes, Alex (site): http://homeusers.brutele.be/acmahaux/andrachmes/

ANSI (American National Standards Institute): http://www.ansi.org/

AOL (America OnLine): http://www.aol.com/

AOL Search: http://search.aol.com/

AP (Associated Press): http://www.ap.org/

APELSE (Association pour la promotion de l’écriture et de la lecture sur support
électronique): http://www.apelse.asso.fr/

Apple: http://www.apple.com/

Apple: Accessibility: http://www.apple.com/accessibility/

Apple: iPhone: http://www.apple.com/iphone/

Apple: iTunes: http://www.apple.com/itunes/

Apple: Mac OS X: http://www.apple.com/macosx/

Apple: QuickTime: http://www.apple.com/quicktime/

Apple: Safari: http://www.apple.com/macosx/features/safari/

Arbon, Jean-Pierre (site): http://www.arbon-lesite.com/

Ariel: http://www4.infotrieve.com/products_services/ariel.asp

ARL (Association of Research Libraries): http://www.arl.org/

ARPALS (Amicale du regroupement pédagogique Armillac Labretonie
Saint-Barthélémy): http://arpals.free.fr/

Arte: http://www.arte.tv/

Arteradio: http://www.arteradio.com/

ARTFL (American and French Research on the Treasury of the French Language):
http://humanities.uchicago.edu/orgs/ARTFL/

ARTFL: Encyclopédie de Diderot:
http://www.lib.uchicago.edu/efts/ARTFL/projects/encyc/

ARTFL: Encyclopédie de Diderot: Prototype of Volume 1:
http://humanities.uchicago.edu/ARTFL/projects/encyc/demo.page.html

ARTFL: Thresor de la langue francoyse:
http://www.lib.uchicago.edu/efts/ARTFL/projects/dicos/TLF-NICOT/

ASCAP (American Society of Composers, Authors and Publishers):
http://www.ascap.com/

ASCII (American standard code for information interchange) Table:
http://www.devlist.com/

ASIST (American Society for Information Science & Technology):
http://www.asis.org/

Association française pour la lecture: http://www.lecture.org/

Association of American Publishers (AAP): http://www.publishers.org/

AT&T: http://www.att.com/

Athena: http://un2sg4.unige.ch/athena/

Athena Literature Resources: http://un2sg4.unige.ch/athena/html/booksite.html

Athena: Mineralogy: http://un2sg4.unige.ch/athena/mineral/mineral.html

Athena: Swiss authors and texts:
http://un2sg4.unige.ch/athena/html/swis_txt.html

Athena: Textes français: http://un2sg4.unige.ch/athena/html/francaut.html

ATILF (Analyse et traitement informatique de la langue française):
http://www.atilf.fr/

ATILF: Dictionnaires: http://www.atilf.fr/dictionnaires.htm

ATILF: Frantext: http://www.atilf.fr/frantext.htm

ATILF: Trésor de la langue française informatisé (TLFi):
http://www.atilf.fr/tlfi.htm

Audible.com: http://www.audible.com/

AudioBooksForFree.com: http://www.audiobooksforfree.com/

AudioLivres: http://www.audiolivres.net/

AUF (Agence universitaire de la francophonie): http://www.auf.org/

Authors Guild (The): http://www.authorsguild.org/

Autret, Marc (site): http://marcautret.free.fr/

Babel Fish Translation: http://babelfish.altavista.com/

Bac-L: http://www.bac-l.com/

Balpe, Jean-Pierre / Rien n’est sans dire:
http://www.ciren.org/ciren/productions/mail-roman/

Barnes & Noble: http://www.barnesandnoble.com/

BBF (Bulletin des bibliothèques de France): http://bbf.enssib.fr/

BD Paradisio: http://www.bdparadisio.com/

BDZ (Bundesverband Deutscher Zeitungsverleger): http://www.bdzv.de/

Bell, Tom / Copyright: http://www.tomwbell.com/writings/(C)_Term.html

Benetech: http://www.benetech.org/

Berkeley Digital Library SunSITE: http://sunsite.berkeley.edu/

Berkeley Library: http://library.berkeley.edu/

Berners-Lee, Tim (site): http://www.w3.org/People/Berners-Lee/

Berners-Lee, Tim / Short History:
http://www.w3.org/People/Berners-Lee/ShortHistory

Bertelsmann: http://www.bertelsmann.de/

Bible de Gutenberg: http://www.bl.uk/treasures/gutenberg/homepage.html

BIBLINK: http://hosted.ukoln.ac.uk/biblink/

Biblio On Line: http://www.biblionline.com/

Biblio-fr: http://listes.cru.fr/sympa/info/biblio-fr

Bibliographie nationale française: http://bibliographienationale.bnf.fr/

BiblioMonde Opac Portfolio: http://www.biblinat.gouv.qc.ca:6611/

Biblioteka Narodowa (Pologne): http://www.bn.org.pl/

Bibliotheca Universalis: http://www.culture.fr/g7/index.html

Bibliothèque de l’Office des Nations unies à Genève: http://www.unog.ch/library/

Bibliothèque électronique de Lisieux: http://www.bmlisieux.com/

Bibliothèque électronique de Lisieux: Galeries:
http://www.bmlisieux.com/galeries/

Bibliothèque et Archives du Canada: http://www.collectionscanada.ca/

Bibliothèque et Archives nationales du Québec: http://www.banq.qc.ca/

Bibliothèque Hélène: http://www.bibliotheque-helene.org/

Bibliothèque municipale de Lyon: http://www.bm-lyon.fr/

Bibliothèque numérique Landowski:
http://www.mobipocket.com/ebookbase/library/landowski/

Bibliothèque numérique pour le Handicap (BnH): http://bnh.numilog.com/

BIBSYS: http://www.bibsys.no/

BIC (Book Industry Communication): http://www.bic.org.uk/

BIEF (Bureau international de l’édition française): http://bief.org/

Biodiversity Heritage Library (BHL): http://www.biodiversitylibrary.org/

BIPE: http://www.bipe.fr/

BlackBerry: http://www.blackberry.com/

Blackmask Online: http://www.blackmask.com/

Blackwell Book Services: http://www.blackwell.com/

Blog de Jérôme Olinon: http://olinon.canalblog.com/

BlogNot!: http://marcautret.free.fr/

BlogNot!: Fil de brèves: http://marcautret.free.fr/news/

Blurb: http://www.blurb.com/

BNF (Bibliothèque nationale de France): http://www.bnf.fr/

BNF: Catalogue: http://catalogue.bnf.fr/

BNF: Gallica: http://gallica.bnf.fr/

BNF: Signets: http://signets.bnf.fr/

BNQ (Bibliothèque nationale du Québec): http://www.bnquebec.ca/

Bogros, Olivier (site): http://www.miscellanees.com/

BOL.com: http://www.nl.bol.com/

Bookeen: http://www.bookeen.com/

BookFinder.com: http://www.bookfinder.com/

BookPage: http://www.bookpage.com/

BookSense.com: http://www.booksense.com/

Bookshare.org: http://www.bookshare.org/

Bookweb.org: http://www.bookweb.org/

Booz Allen Hamilton: http://www.bah.com/

Boutiny, Lucie de (site): http://www.synesthesie.com/boutiny/

BPI (Bibliothèque publique d’information): http://www.bpi.fr/

Braille Institute of America: http://www.brailleinstitute.org/

BrailleNet: http://www.braillenet.org/

Branchez-Vous!: http://branchez-vous.com/

British Library: http://portico.bl.uk/

British Library: http://www.bl.uk/

British Library: Catalogues: http://www.bl.uk/catalogues/

British Library: Gutenberg Bible:
http://www.bl.uk/treasures/gutenberg/homepage.html

British Library Integrated Catalogue: http://catalogue.bl.uk/

Budapest Open Access Initiative: http://www.soros.org/openaccess/

Buy.com: http://www.buy.com/

Cairn: http://www.cairn.info/

Calcre.com: http://www.calcre.com/

Capitan Alatriste: http://www.capitanalatriste.com/

CCFr (Catalogue collectif de France): http://www.ccfr.bnf.fr/

CENL (Conference of European National Librarians): http://www.cenl.org/

Cerf (éditions du): http://www.editionsducerf.fr/

CERN (Organisation européenne pour la recherche nucléaire):
http://public.web.cern.ch/

Chancellerie fédérale (Suisse): Dictionnaires électroniques:
http://www.admin.ch/ch/f/bk/sp/dicos/dicos.html

Charte des Nations Unies (en anglais): http://www.un.org/aboutun/charter/

Charte des Nations Unies (en français): http://www.un.org/french/aboutun/charte/

Choucas (éditions du): http://www.choucas.com/

Choucas: Fables pour l’an 2000: http://www.choucas.com/legend.html

Chroniques de Cybérie (Les): http://cyberie.qc.ca/chronik/

CIFDI (Centre international francophone de documentation et d’information):
http://cifdi.francophonie.org/

CIREN (Centre interdisciplinaire sur l’esthétique du numérique):
http://www.ciren.org/

Citizendium: http://www.citizendium.org/

Classical Archives: http://www.classicalarchives.com/

ClicNet: http://clicnet.swarthmore.edu/

Cloutier, Jean-Pierre (site): http://cyberie.qc.ca/jpc/

Club des poètes: http://www.franceweb.fr/poesie/

Cluster21: http://www.cluster21.com/

CNET News.com: http://news.com.com/

CNIL (Commission nationale de l’informatique et des libertés):
http://www.cnil.fr/

CNRS (Centre national de la recherche scientifique): http://www.cnrs.fr/

CNRS: UREC (Unité Réseaux du CNRS): Annuaire E/R:
http://www.urec.cnrs.fr/annuaire/

Coelho, Paulo (site): http://www.paulocoelho.com/

Com!: http://www.com-online.de/

Commissariat aux langues officielles, Canada: http://www.ocol-clo.gc.ca/

Commission européenne: http://ec.europa.eu/index_fr.htm

Computer Industry Almanach: http://www.c-i-a.com/

Confort de lecture: http://www.confortdelecture.com/

Connect (Europe): http://www.connect-europe.com/

Connect (USA): http://musicstore.connect.com/

Convention universelle sur le droit d’auteur:
http://www.unesco.org/culture/laws/copyright/html_fr/page1.shtml

Copyleft (en anglais): http://www.gnu.org/copyleft/copyleft.html

Copyleft (en français): http://www.gnu.org/copyleft/copyleft.fr.html

Corbis: http://pro.corbis.com/

Cotres furtifs: http://www.cotres.net/

Courrier international: http://www.courrierinternational.com/

Craigslist: http://www.craigslist.org/

Creative Commons: http://www.creativecommons.org/

CSS (cascading style sheets): http://www.w3.org/Style/CSS/

CTAN (Comprehensive TeX Archive Network): http://www.ctan.org

Culture.fr: http://www.culture.fr/

Cursus (EBSI): http://www.ebsi.umontreal.ca/cursus/

CyLibris (éditions): http://www.cylibris.com/

Digital Broadcast: http://www.worlddab.org/

DailyLit: http://www.dailylit.com/

Daily Yomiuri On-Line: http://www.yomiuri.co.jp/dy/

DAISY (digital accessible information system) Consortium: http://www.daisy.org/

DAISY: DTB (digital talking book): http://www.daisy.org/about_us/dtbooks.asp

Dall’Armellina, Luc (site): http://lucdall.free.fr/

Dauphiné libéré: http://www.ledauphine.com/

David Trott Crossroads Centre: http://www.utm.utoronto.ca/~w3fgi/crossroads/

Dawson Holdings: http://www.dawson.co.uk/

DCMI (Dublin Core Metadata Initiative): http://dublincore.org/

Decitre: http://www.decitre.fr/

Del.icio.us: http://del.icio.us/

Dernières nouvelles d’Alsace (Les): http://www.dna.fr/

Deutsche Bibliothek: http://www.ddb.de/

DGLF (Délégation générale à la langue française):
http://www.culture.fr/culture/dglf/

Dialog: http://www.dialog.com/

DialogWeb: http://www.dialogweb.com/

Diamedit: http://www.diamedit.net/

Dictionnaires électroniques: http://www.admin.ch/ch/f/bk/sp/dicos/dicos.html

DictSearch (Foreignword): http://www.foreignword.com/Tools/dictsrch.htm

Digimarc (DRMC): http://www.digimarc.com/

Digital Terrestrial TV & Radio: http://www.digital-terrestrial.com/

Dilicom: http://www.dilicom.net/

Distributed Proofreaders (DP): http://www.pgdp.net/

Distributed Proofreaders Europe (DP Europe): http://dp.rastko.net/

Distributed Proofreaders Foundation: http://www.pgdp.net/c/faq/dpf.php

DJV (Deutscher Journalisten Verband): http://www.djv.de/

DMCA (Digital Millenium Copyright Act):
http://www.copyright.gov/legislation/dmca.pdf

Doc Forum: http://www.docforum.tm.fr/

Documentation française (La): http://www.ladocumentationfrancaise.fr/

DOI (digital object identifier) System: http://www.doi.org/

DOI Foundation: http://www.doi.org/welcome.html

Dolby: http://www.dolby.com/

DRM (digital radio mondiale): http://www.drm.org/

DRM Consortium: http://www.drm.org/consortium/history.php

DSL (digital subscriber line) Forum: http://www.dslforum.org/

DTB (digital talking book): http://www.daisy.org/about_us/dtbooks.asp

Dublin Core: http://dublincore.org/

DVD (digital versatile disc) Forum: http://www.dvdforum.org/

EAMT (European Association for Machine Translation): http://www.eamt.org/

eBay: http://www.ebay.com/

eBook Community (The): http://groups.yahoo.com/group/ebook-community/

eBookExpress: http://www.ebookexpress.com/

eBookMan (Franklin): http://www.franklin.com/ebookman/

Ebooks libres et gratuits: http://www.ebooksgratuits.com/

Ebrary: http://www.ebrary.com/

EBSI (Ecole de bibliothéconomie et des sciences de l’information):
http://www.ebsi.umontreal.ca/

Echos (Les): http://www.lesechos.com/

Eclat (éditions de l’): http://www.lyber-eclat.net/

Economist (The): http://www.economist.com/

Ecrire & Editer Magazine: http://www.calcre.com/eee.mag/

E-critures: http://fr.groups.yahoo.com/group/e-critures/

EDILIB: http://www.chu-rouen.fr/documed/edi.html

Editel: http://www.editel.com/

EDItEUR: http://www.editeur.org/

Edition Actu: http://www.cylibris.com/cgi-bin/lettre.cgi

Editions: voir au nom de l’éditeur

EDventure: http://www.edventure.com/

EFF (Electronic Frontier Foundation): http://www.eff.org/

E Ink: http://www.eink.com/

El Watan: http://www.elwatan.com/

Electre: http://www.electre.com/

Electric Cafe: http://www.electriccafe.org/

Electronic Text Center (UVa Library): http://etext.lib.virginia.edu/

Electronic Text Center: French Texts and Language Resources:
http://etext.lib.virginia.edu/french.html

ELRA (European Language Resources Association): http://www.elra.info/

ELSNET (European Network of Excellence in Human Language Technologies):
http://www.elsnet.org/

Encarta (en anglais): http://encarta.msn.com/

Encarta (en français): http://fr.encarta.msn.com/

Encyclopaedia Britannica: http://www.britannica.com/

Encyclopaedia Universalis: http://www.universalis-edu.com/

Encyclopedia of Life: http://www.eol.org/

Encyclopédie de Diderot (ARTFL):
http://www.lib.uchicago.edu/efts/ARTFL/projects/encyc/

Encyclopédie Universalis: http://www.universalis.fr/

Endangered Language Repository: http://www.yourdictionary.com/elr/

ENS (Ecole normale supérieure): http://www.ens.fr/

ENSSIB (Ecole nationale supérieure des sciences de l’information et des
bibliothèques): http://www.enssib.fr/

EPHE (Ecole pratique des hautes études): http://www.ephe.sorbonne.fr/

Epson: http://www.epson.co.jp/e/

eRead: http://www.stareread.com/en/

eRead: http://www.eread.co.nz/

eReader: http://www.ereader.com/

ESJ (Ecole supérieure de journalisme de Lille): http://www.esj-lille.fr/

Etext Archives (The): http://www.etext.org/

Ethnologue: Languages of the World: http://www.ethnologue.com/web.asp

ETSI (European Telecommunications Standards Institute): http://www.etsi.org/

EUR-Lex: http://eur-lex.europa.eu/fr/index.htm

EuroDicAutom: http://europa.eu.int/eurodicautom/

Europa: http://europa.eu/index_fr.htm

European Library (The): http://www.theeuropeanlibrary.org/

European Minority Languages (SMO):
http://www.smo.uhi.ac.uk/saoghal/mion-chanain/en/

E-Zine-List (ancienne): http://www.meer.net/~johnl/e-zine-list/

E-Zine-List (nouvelle): http://www.e-zine-list.com/

Fables pour l’an 2000 (Raymond Godefroy): http://www.choucas.com/legend.html

Fedora: http://www.fedoraproject.org/

FENAJ (Federação Nacional dos Jornalistas): http://www.fenaj.org.br/

Figaro (Le): http://www.lefigaro.fr/

FILPAC (Fédération des industries du livre, du papier et de la communication)
CGT: http://www.filpac-cgt.fr/

FinaleMusic: http://www.finalemusic.com/

FING (Fondation internet nouvelle génération): http://www.fing.org/

Firefox (Mozilla): http://www.mozilla.com/firefox/

FIT (Fédération internationale des traducteurs): http://www.fit-ift.org/

Flickr: http://www.flickr.com/

Fnac.com: http://www.fnac.com/

FnacMusic: http://www.fnacmusic.com/

FNPF (Fédération nationale de la presse d’information spécialisée):
http://www.fnps.fr/

FOCUS: http://www.focus.de/

Foreignword: http://www.foreignword.com/

France Antiques: http://www.franceantiq.fr/

France Loisirs: http://www.franceloisirs.com/

France Télécom Group: http://www.rd.francetelecom.fr/

FRANCIL (Réseau francophone de l’ingénierie de la langue):
http://www.limsi.fr/Recherche/FRANCIL/frcl.html

Frankfurt Book Fair: http://www.frankfurt-book-fair.com/

Franklin: http://www.franklin.com/

Franklin: eBooks: http://www.franklin.com/estore/ebooks/

Frantext (ATILF): http://www.frantext.fr/

FreeBSD Project (BSD: Berkeley system distribution): http://www.freebsd.org/

Freedom Scientific: http://www.freedomscientific.com/

French Publishers’ Agency (The): http://www.frenchpubagency.com/

FSF (Free Software Foundation): http://www.fsf.org/

FSFE (Free Software Foundation Europe): http://www.fsfeurope.org/

FTPress (French Touch Press) Groupe: http://www.ftpress-groupe.com/

Furet du Nord (Le): http://www.furet.com/

Gallica: http://gallica.bnf.fr/

Gallimard: http://www.gallimard.fr/

Ganascia, Jean-Gabriel / Livre électronique:
http://www-poleia.lip6.fr/GIS.COGNITION/somliv.html

Gartner: http://www.gartner.com/

GDT (Grand dictionnaire terminologique): http://www.granddictionnaire.com/

Gemstar-TV Guide International: http://www.gemstartvguide.com/

GETA (Groupe d’étude pour la traduction automatique):
http://www-clips.imag.fr/geta/

GFDL (GNU free documentation license): http://www.gnu.org/copyleft/fdl.html

Global Reach: http://global-reach.biz/

Global Reach: Internet Statistics (by Language):
http://global-reach.biz/globstats/index.php3

GNU (GNU’s Not Unix): http://www.gnu.org/

GNU General Public License: http://www.gnu.org/copyleft/gpl.html

GNU Project: Copyleft: http://www.gnu.org/copyleft/copyleft.html

Godefroy, Raymond (site): http://www.choucas.com/legend.html

Google: http://www.google.com/

Google Book Search: http://books.google.com/

Google Directory: http://directory.google.com/

Google France: http://www.google.fr/

Google Guide: Definitions (Google glossary):
http://www.googleguide.com/glossary.html

Google Groups: http://groups.google.com/

Google Language Tools: http://www.google.com/language_tools

Google Livres: http://books.google.fr/

GPL (GNU general public license): http://www.gnu.org/copyleft/gpl.html

GutenMark: http://www.sandroid.org/GutenMark/

Gyricon: http://www2.parc.com/hsl/projects/gyricon/

Handicapzéro: http://www.handicapzero.org/

Hanlin eReader: http://www.jinke.com.cn/compagesql/english/embedpro/

Harper, Philip / Catalog: http://www.kingkong.demon.co.uk/ngcoba/ngcoba.htm

HarperCollins: http://www.harpercollins.com/

Harry Potter (J.K. Rowling): http://www.jkrowling.com/

Harry Potter (Scholastic): http://www.scholastic.com/harrypotter/

Hart, Michael (blog): http://hart.pglaf.org/

Havas: http://www.havas.fr/

HD DVD (high definition digital versatile disc):
http://www.thelookandsoundofperfect.com/

HighWire Press: http://highwire.stanford.edu/

HTML (hypertext markup language): http://www.w3.org/MarkUp/

HTTP (hypertext transfer protocol): http://www.w3.org/Protocols/

Humanité (L’): http://www.humanite.presse.fr/

HumanWare: http://www.humanware.com/

HVD (holographic versatile disc) Alliance: http://www.hvd-alliance.org/

HyperNietzsche: http://www.hypernietzsche.org/

i2S: http://www.i2s-vision.com/

i2S DigiBook: http://www.i2s-bookscanner.com/


IBM: http://www.ibm.com/

IBM Research: http://www.research.ibm.com/

IBM WebSphere Translation Server:
http://www-306.ibm.com/software/pervasive/ws_translation_server/

ICANN (Internet Corporation for Assigned Names and Numbers):
http://www.icann.org/

ICCL (International Committee on Computational Linguistics):
http://www.dcs.shef.ac.uk/research/ilash/iccl/

IDDN (InterDeposit digital number): http://www.iddn.org/

IDF (International DOI Foundation): http://www.doi.org/welcome.html

IDPF (International Digital Publication Forum): http://www.idpf.org/

IEEE (Institute of Electrical and Electronics Engineers): http://www.ieee.org/

IEEE: 802.11 (standard): http://ieee802.org/11/

IEEE: 802.16 (standard): http://ieee802.org/16/

IETF (Internet Engineering Task Force): http://www.ietf.org/

IFJ (International Federation of Journalists): http://www.ifj.org/

IFLA (International Federation of Library Associations): http://www.ifla.org/

IFLA: Electronic Collections: http://www.ifla.org/II/

IIPA (International Intellectual Property Alliance): http://www.iipa.com/

ILAB (International League of Antiquarian Booksellers):
http://www.ilab-lila.com/

iLiad: http://www.irextechnologies.com/products/iliad

ILO (International Labour Organization): http://www.ilo.org/

iLoveLanguages: http://www.ilovelanguages.com/

Imagina (INA): http://www.ina.fr/imagina/

IMDb (Internet Movie Database): http://www.imdb.com/

INA (Institut national de l’audiovisuel): http://www.ina.fr/

InfoDev (Information for Development Program): http://www.infodev.org/

Ingenta: http://www.ingentaconnect.com/

INIST (Institut national de l’information scientifique et technique):
http://www.inist.fr/

INRIA (Institut national de recherche en informatique): http://www.inria.fr/

INRIA Rhône-Alpes: http://www.inrialpes.fr/

INSERM (Institut national de la santé et de la recherche médicale):
http://www.inserm.fr/

Institut français de Londres: http://www.institut-francais.org.uk/

Institut Pasteur: http://www.pasteur.fr/externe

Institut Pasteur: Médiathèque: http://www2.pasteur.fr/infosci/biblio/

Intel: http://www.intel.com/

Inter-Active Terminology for Europe (IATE): http://iate.europa.eu/iatediff/

International ISBN Agency: http://www.isbn-international.org/

Internet 2: http://www.internet2.edu/

Internet Actu: http://www.internetactu.net/

Internet Archive: http://www.archive.org/

Internet Archive: Million Book Project:
http://www.archive.org/details/millionbooks/

Internet Archive: Text Archive: http://www.archive.org/details/texts/

Internet Archive: Universal Library:
http://www.archive.org/details/universallibrary/

Internet Bookshop UK (IBUK): http://www.ibuk.com/

Internet Dictionary Project: http://www.june29.com/IDP/

Internet Explorer: http://www.microsoft.com/windows/ie/

InTexte: http://www.intexte.com/

INTIF (Institut francophone des nouvelles technologies de l’information et de la
formation): http://intif.francophonie.org/

ION Systems: http://www.ionsystems.com/

ION Systems: eMonocle Reader: http://www.ionsystems.com/emonocle/

iPhone: http://www.apple.com/iphone/

IPL (Internet Public Library): http://www.ipl.org/

IPL: Magazines: http://www.ipl.org/div/serials/

IPL: Newspapers: http://www.ipl.org/div/news/

IPL: Online Texts: http://www.ipl.org/div/subject/browse/hum60.60.00/

IRex Technologies: http://www.irextechnologies.com/

ISBD(ER) (electronic resources): http://www.ifla.org/VII/s13/pubs/isbd.htm

ISBD(G) (international standard bibliographic description):
http://www.ifla.org/VII/s13/pubs/isbdg.htm

ISBN (international standard book number): http://www.isbn-international.org/

ISDN (Institut des sciences du document numérique):
http://isdn.enssib.fr/institut/institut.html

ISO (Organisation internationale de normalisation): http://www.iso.org/

ISOC (Internet Society): http://www.isoc.org/

ISOC / Brief Story: http://www.isoc.org/internet/history/brief.shtml

ISSN (international standard serial number): http://www.issn.org/

ISSN International Center: http://www.issn.org/

ITEM (Institut des textes et manuscrits modernes): http://www.item.ens.fr/

Itinéraires: http://www.itineraires.com/

ITU (International Telecommunication Union): http://www.itu.int/

iTunes: http://www.apple.com/itunes/

iUniverse: http://www.iuniverse.com/

Java Technology: http://java.sun.com/

JAWS (job access with speech):
http://www.freedomscientific.com/fs_products/JAWS_HQ.asp

JePublie.com: http://www.jepublie.com/

Jinke: http://www.jinke.com.cn/

Joly, Anne-Bénédicte (site): http://ab.joly.free.fr/

Joost: http://www.joost.com/

Journal officiel (Le): http://www.journal-officiel.gouv.fr/

JPEG (Joint Photographic Experts Group): http://www.jpeg.org/

Juriconnexion: http://www.juriconnexion.fr/

Kargo (éditions): http://www.editionskargo.com/

KaZaA: http://www.kazaa.com/

King, Stephen (site): http://www.stephenking.com/

Korpela, Jukka / Character Codes: http://www.cs.tut.fi/~jkorpela/chars.html

Lalibrairie.com: http://www.lalibrairie.com/

Langue du 19e siècle (Université de Toronto):
http://www.chass.utoronto.ca/epc/langueXIX/

LaTeX project: http://www.latex-project.org/

Laumonier, Alexandre / Google: http://www.editionskargo.com/google.htm

Leary, Timothy (site): http://www.leary.com/

Lebert, Marie / Dictionnaire du NEF: http://www.etudes-francaises.net/dico/

Lebert, Marie / Entretiens: http://www.etudes-francaises.net/entretiens/

Légifrance: http://www.legifrance.gouv.fr/

Lehmanns Online Bookshop: http://www.lob.de/

Lesk, Michael  / Copyright Renewal Records:
http://www.scils.rutgers.edu/~lesk/copyrenew.html

Lex Mercatoria: http://www.jus.uio.no/lm/

Lex Mercatoria: Intellectual Property:
http://www.jus.uio.no/lm/intellectual.property/

LexisNexis: http://global.lexisnexis.com/

LexisONE: http://www.lexisone.com/

LexoTor: http://www.chass.utoronto.ca/epc/langueXIX/lexotor/

LG.Philips LCD: http://www.lgphilips-lcd.com/

LGPL (lesser general public license): http://www.gnu.org/copyleft/lesser.html

Liber Liber: http://www.liberliber.it/

Liber Liber: Biblioteca: http://www.liberliber.it/biblioteca/

Libération: http://www.liberation.fr/

Librairie Ulysse: http://www.ulysse.fr/

Librarians’ Internet Index: http://lii.org/

Library Journal: http://www.libraryjournal.com/

Library of Congress: http://www.loc.gov/

Library of Congress: NLS (National Library Service for the Blind and Physically
Handicapped): http://www.loc.gov/nls/

Library of Congress Online Catalogs: http://catalog.loc.gov/

Libweb: Library WWW Servers: http://lists.webjunction.org/libweb/

Lighthouse International: http://www.lighthouse.org/

LILA (Ligue internationale de la librairie ancienne): http://www.ilab-lila.com/

LINGUIST List: http://www.linguistlist.org/

Linux: http://www.linux.org/

LISA (Localization Industry Standards Association): http://www.lisa.org/

LiteralSystems: http://www.literalsystems.org/

Literary Resources on the Net (Lynch): http://andromeda.rutgers.edu/~jlynch/Lit/

LITOR (Discussions francophones sur les études littéraires et l’ordinateur):
http://sympa.univ-paris3.fr/wws/info/litor

Live Search Books (Microsoft): http://books.live.com/

Living Internet: http://www.livinginternet.com/

Livre-rare-book: http://www.livre-rare-book.com/

LizardTech: http://www.lizardtech.com/

Logos: http://www.logos.it/

Logos Dictionary: http://www.logosdictionary.org/

Logos Linguistic Resources: http://www.logos.it/resources/index_en.html

Logos Multilingual Library: http://www.logoslibrary.eu/

Logos Universal Conjugator: http://www.logosconjugator.org/

Luc Pire: http://www.lucpire.be/

Lycos MultiMania: http://www.multimania.lycos.fr/

Mac OS X: http://www.apple.com/macosx/

Maison de la Francité: http://www.maisondelafrancite.be/

Malbreil, Xavier (site): http://www.0m1.com/

Manifeste du web indépendant: http://www.uzine.net/article60.html

Manybooks.net: http://manybooks.net/

Marabout: http://www.marabout.com/

MARC (Bibliothèque du Canada): http://www.collectionscanada.ca/6/19/

MARC (British Library): http://www.bl.uk/services/bibliographic/exchange.html

MARC (Library of Congress): http://www.loc.gov/marc/

McLuhan, Marshall (site): http://www.marshallmcluhan.com/

McLuhan Program in Culture and Technology: http://www.mcluhan.utoronto.ca/

MediaFinder: http://www.mediafinder.com/

Merriam-Webster Online: http://www.m-w.com/

Michigan eLibrary: http://mel.lib.mi.us/

Microsoft: http://www.microsoft.com/

Microsoft PressPass: http://www.microsoft.com/presspass/

Microsoft Reader: http://www.microsoft.com/reader/

MIDI Manufacturers Association: http://www.midi.org/

Million Book Project: http://www.archive.org/details/millionbooks

Miscellanées: http://www.miscellanees.com/

MIT (Massachusetts Institute of Technology): http://www.mit.edu/

MIT CSAIL (Computer Science and Artificial Intelligence Laboratory):
http://www.csail.mit.edu/

MIT/LCS Library 2000: http://ltt-www.lcs.mit.edu/ltt-www/

MIT Media Lab: http://www.media.mit.edu/

MIT OCW (OpenCourseWare): http://ocw.mit.edu/

MIT Press: http://mitpress.mit.edu/

MobileBooks: http://www.mobilebooks.org/

Mobipocket: http://www.mobipocket.com/

Mobipocket Reader: http://www.mobipocket.com/en/DownloadSoft/

Monde (Le): http://www.lemonde.fr/

Monde diplomatique (Le): http://www.monde-diplomatique.fr/

Monde en Tique (Le): http://www.lmet.fr/

Monde informatique (Le): http://www.lemondeinformatique.fr/

Moore Foundation: http://www.moore.org/

Mot@Mot: http://atfolio.u-strasbg.fr/logiciel/motamot.html

Mozilla: http://www.mozilla.com/

Mozilla: Firefox: http://www.mozilla.com/firefox/

Mozilla: Thunderbird: http://www.mozilla.com/thunderbird/

Mozilla Foundation: http://www.mozilla.org/

mp3licensing.com: http://www.mp3licensing.com/

mp3PRO: http://www.mp3prozone.com/

MPEG (Moving Picture Experts Group): http://www.chiariglione.org/mpeg/

MPEG Industry Forum: http://www.m4if.org/

MSN (Microsoft Network): http://www.msn.com/

MSN Encarta (en anglais): http://encarta.msn.com/

MSN Encarta (en français): http://fr.encarta.msn.com/

MSN Music: http://music.msn.com/

MSNBC (Microsoft Network Broadcasting Corporation): http://www.msnbc.msn.com/

Mutopia Project: http://www.mutopiaproject.org/

MySpace: http://www.myspace.com/

NAP (National Academies Press): http://www.nap.edu/

Napster: http://www.napster.com/

National Library of Finland: http://www.lib.helsinki.fi/english/

National Library of the Netherlands: http://www.kb.nl/index-en.html

Natural Language Group (USC/ISI):
http://www.isi.edu/natural-language/nlp-at-isi.html

NBP (National Braille Press): http://www.nbp.org/

NEF (Net des études françaises): http://www.etudes-francaises.net/

NEF: Dictionnaire du NEF: http://www.etudes-francaises.net/dico/

NEF: Dossiers: http://www.etudes-francaises.net/dossiers/

NEF: Entretiens: http://www.etudes-francaises.net/entretiens/

NEF: NEFbase: http://www.etudes-francaises.net/nefbase/

Nemoptic: http://www.nemoptic.com/

Netscape: http://www.netscape.com/

Netscape Browser: http://browser.netscape.com/

New York Times: http://www.nytimes.com/

News.com: http://www.news.com/

NewsLink: http://newslink.org/

Newspaper Guild: http://www.newsguild.org/

NFB (National Federation of the Blind): http://www.nfb.org/

Nielsen-NetRatings: http://www.nielsen-netratings.com/

Night Kitchen: http://www.nightkitchen.com/

NISO (National Information Standards Organization): http://www.niso.org/

NLS (National Library Service for the Blind and Physically Handicapped):
http://www.loc.gov/nls/

Nokia: http://www.nokia.com/

NON_roman: http://www.synesthesie.com/boutiny/

Nouvel Observateur: http://tempsreel.nouvelobs.com/

Nouvelles du bled: http://perso.club-internet.fr/kikuyu/

NouvoLivrActu: http://www.cluster21.com/blog/nouvolivractu

Novalis: http://www.novalis.fr/

NPA (Newspaper Publishers’ Association of New Zealand): http://www.npa.co.nz/

NSCA (National Center for Supercomputing Applications):
http://www.ncsa.uiuc.edu/

NSF (National Science Foundation): http://www.nsf.gov/

NTT DoCoMo: http://www.nttdocomo.com/

Nuance: http://www.nuance.com/

Nuance: OmniOage: http://www.nuance.com/omnipage/

Nuance: TextBridge: http://www.nuance.com/textbridge/

Numilog (librairie anglophone): http://www.numilog.net/

Numilog (librairie francophone): http://www.numilog.fr/

Numilog (société): http://www.numilog.com/

Numilog: Bibliothèque en ligne (démo): http://www.numilog.com/bibliotheque/demo/

NWU (National Writers Union): http://www.nwu.org/

OASIS (Organization for the Advancement of Structured Information Standards):
http://www.oasis-open.org/

OCA (Open Content Alliance): http://www.opencontentalliance.org/

OCDE (Organisation de coopération et de développement économiques):
http://www.oecd.org/

OCLC (Online Computer Library Center): http://www.oclc.org/

OCLC: WorldCat (catalogue): http://www.worldcat.org/

OCLC: WorldCat (infos): http://www.oclc.org/worldcat/

Odile Jacob (éditions): http://www.odilejacob.fr/

Odyssey Press: http://www.odysseypress.com/

OeBPS (open ebook publication structure): http://www.idpf.org/specs.htm

OED (Oxford English Dictionary): http://www.oed.com/

Office des Nations Unies à Genève: http://www.unog.ch/

Office des Nations Unies à Genève: Bibliothèque / Archives:
http://www.unog.ch/library/french/startfr.htm

OIF (Organisation internationale de la Francophonie):
http://www.francophonie.org/

OIT (Organisation internationale du Travail): http://www.ilo.org/public/french/

OmniPage (Nuance): http://www.nuance.com/omnipage/

OMPI (Organisation mondiale de la propriété intellectuelle):
http://www.wipo.int/index.html.fr

OMPI: Centre d’arbitrage et de médiation: http://www.wipo.int/amc/fr/

OneLook Dictionary Search: http://www.onelook.com/

Online Books Page (The): http://onlinebooks.library.upenn.edu/

Online Originals: http://www.onlineoriginals.com/

Open Content Alliance (OCA): http://www.opencontentalliance.org/

OpenCourseWare (MIT OCW): http://ocw.mit.edu/

OpenCourseWare Consortium: http://www.ocwconsortium.org/

Open Library (The): http://www.openlibrary.org/

OpenOffice.org: http://www.openoffice.org/

Open Source: http://www.opensource.org/

Opera: http://www.opera.com/

OQLF (Office québécois de la langue française): http://www.oqlf.gouv.qc.ca/

O’Reilly: http://www.oreilly.com/

O’Reilly France: http://www.oreilly.fr/

O’Reilly Open Books Project: http://www.oreilly.com/openbook/

O’Reilly: Safari Books Online: http://safari.oreilly.com/

Ouest France: http://www.ouest-france.fr/

oVosite: http://hypermedia.univ-paris8.fr/ovosite/

Oxford Reference Online: http://www.oxfordreference.com/

Oxford University Press (OUP): http://www.oup.com/

Oxford University Press (OUP) USA: http://www.oup-usa.org/

Ozone: http://www.ozone.net/

Ozone Paris: http://www.ozoneparis.net/

País (El): http://www.elpais.es/

Palm: http://www.palm.com/

Palm eBook Store: http://ebooks.palm.com/

Palm Reader: http://www.freewarepalm.com/docs/palmreader.shtml

PARC (Palo Alto Research Center): http://www.parc.com/

Paris-Match: http://www.parismatch.com/

Paulus Swaen: http://www.swaen.com/

PCMCIA (Personal Computer Memory Card International Association):
http://www.pcmcia.org/

Pearson Education: http://www.pearsoned.com/

Penguin Group: http://www.penguin.com/

Pérez-Reverte, Arturo (site): http://capitanalatriste.com/


PGLAF (Doctrine Publishing Corporation Literary Archive Foundation): http://www.pglaf.org/

Philips: http://www.philips.com/

PHP (hypertext preprocessor): http://www.php.net/

Planet PDF: http://www.planetpdf.com/

PLoS (Public Library of Science): http://www.plos.org/

PLoS Biology: http://www.plosbiology.org/

PLoS Clinical Trials: http://www.plosclinicaltrials.org/

PLoS Computational Biology: http://www.ploscompbiol.org/

PLoS Genetics: http://www.plosgenetics.org/

PLoS Medicine: www.plosmedicine.org/

PLoS Neglected Tropical Diseases: http://www.plosntds.org/

PLoS ONE: http://www.plosone.org/

PLoS Pathogens: http://www.plospathogens.org/

PNG (portable network graphics): http://www.libpng.org/pub/png/

PNG (portable network graphics) (W3C): http://www.w3.org/Graphics/PNG/

Pocket PC: http://www.microsoft.com/windowsmobile/pocketpc/

Poésie d’hier et d’aujourd’hui: http://membres.lycos.fr/mirra/

Poésie française: http://poesie.webnet.fr/

Pointblog.com: http://www.pointblog.com/

Poste (La): http://www.laposte.net/

Presse-Temps (éditions du): http://www.presse-temps.com/

Prewitt Organizing Fund: http://www.organizingfund.org/

PrimeView International (PVI): http://www.pvi.com.tw/index_en.php


Doctrine Publishing Corporation / File Recode Service:

Doctrine Publishing Corporation Europe: http://pge.rastko.net/

Doctrine Publishing Corporation Literary Archive Foundation (PGLAF): http://www.pglaf.org/

Doctrine Publishing Corporation News (PG News): http://www.pg-news.org/


Doctrine Publishing Corporation Preprints: http://preprints.readingroo.ms/

Project Runeberg: http://www.lysator.liu.se/runeberg/

Projekt Gutenberg-DE: http://gutenberg.spiegel.de/

Psion Teklogix: http://www.psionteklogix.com/

Public-Access Computer Systems Review (The):
http://info.lib.uh.edu/pr/pacsrev.html

Publishers Association: http://www.publishers.org.uk/

Publishers’ Catalogues: http://www.lights.com/publisher/

PubMed Central: http://www.pubmedcentral.nih.gov/

PUF (Presses universitaires de France): http://www.puf.com/

QuickTime (Apple): http://www.apple.com/quicktime/

Quid: http://www.quid.fr/

RAAMM (Regroupement des aveugles et amblyopes du Montréal métropolitain):
http://www.raamm.org/

Radar Networks: http://www.radarnetworks.com/

Radio Canada: http://radio-canada.ca/

RAMEAU (Répertoire d’autorités matières encyclopédique et alphabétique unifié):
http://rameau.bnf.fr/

Random House: http://www.randomhouse.com/

RDF (resource description framework): http://www.w3.org/RDF/

Real: RealPlayer: http://www.real.com/

Real: Rhapsody: http://www.real.com/rhapsody/

RealNetworks: http://www.realnetworks.com/

RedLightGreen: http://www.redlightgreen.org/

REFER: http://www.refer.org/

RENATER: http://www.renater.fr/

Républicain lorrain (Le): http://www.republicain-lorrain.fr/

RERO (Réseau des bibliothèques de Suisse occidentale): http://www.rero.ch/

Reuters: http://www.reuters.com/

RFB&D (Recording For the Blind & Dyslexic): http://www.rfbd.org/

Rhapsody: http://www.rhapsody.com/

RLG (Research Libraries Group): http://www.rlg.org/

Rowling, J.K. (Harry Potter): http://www.jkrowling.com/

RSF (Reporters sans frontières): http://www.rsf.fr/

Rubriques à Bac: http://rabac.com/

Safari (Apple): http://www.apple.com/macosx/features/safari/

Safari Books Online: http://www.safaribooksonline.com/

Salon du Livre de Paris: http://www.salondulivreparis.com/

San Francisco Public Library: http://sfpl.lib.ca.us/

Sanger, Larry (site): http://www.larrysanger.org/

Sanger, Larry / Room for Experts: http://www.citizendium.org/roomforexperts.html

Scholastic: http://www.scholastic.com/

Scholastic: Harry Potter: http://www.scholastic.com/harrypotter/

SDL International: http://www.sdl.com/

Serveur Hélène: http://www.serveur-helene.org/

SGDL (Société des gens de lettres): http://www.sgdl.org/

SGML (standard generalized markup language): http://www.w3.org/MarkUp/SGML/

SIDE (Société internationale de diffusion et d’édition):
http://www.side.fr/fr/indexfr.html

Signet (Le): http://w3.oqlf.gouv.qc.ca/banque/

SIL International: http://www.sil.org/

SimonSays (Simon & Schuster): http://www.simonsays.com/

SkyMall: http://www.skymall.com/

Skype: http://www.skype.com/

SLAM (Syndicat national de la librairie ancienne et moderne):
http://www.slam-livre.fr/

Sloan Foundation: http://www.sloan.org/

SNE (Syndicat national de l’édition): http://www.snedition.fr/

SNJ (Syndicat national des journalistes): http://www.snj.fr/

Softissimo: http://www.softissimo.com/

Soir (Le): http://www.lesoir.be/

Sony: http://www.sony.net/

Sony Ericsson: http://www.sonyericsson.com/

Sony Reader: http://www.sony.com/reader/

Spender, Dale / Creativity: http://www.acs.org.au/ifip96/dales.html

Spiegel (Der): http://www.spiegel.de/

SPIP (Système de publication pour l'internet): http://www.spip.net/

St. Martin’s Press: http://www.stmartins.com/

Stanford University: http://www.stanford.edu/

Stanford University / Copyright Renewal Database:
http://collections.stanford.edu/copyrightrenewals/

Stanford University Libraries: http://library.stanford.edu/

SUDOC (Système universitaire de documentation): http://www.sudoc.abes.fr/

SUD-PTT: http://www.sudptt44.org/

SVA (Silicon Valley Association, Suisse): http://www.siliconvalley.ch/

Symbian: http://www.symbian.com/

Symbian OS: http://www.symbian.com/symbianos/

Systran: http://www.systransoft.com/

TACTweb: http://tactweb.humanities.mcmaster.ca/

Technorati: http://www.technorati.com/

Technorealism: http://www.technorealism.org/

Télérama: http://www.telerama.fr/

Terminalf: http://www.terminalf.net/

Termite (Terminology of Telecommunications):
http://www.itu.int/terminology/index.html

TextBridge (Nuance): http://www.nuance.com/textbridge/

Théâtrales: http://www.theatrales.uqam.ca/index.html

Thunderbird (Mozilla): http://www.mozilla.com/thunderbird/

TIFF (tagged image file format):
http://partners.adobe.com/public/developer/tiff/

Time: http://www.time.com/

Times Online: http://www.timesonline.co.uk/

TLFi (Trésor de la langue française informatisé): http://www.atilf.fr/tlfi.htm

Tmx: http://www.tmx.de/

Tous les savoirs (Odile Jacob): http://www.tous-les-savoirs.com/

Trados: SDL Trados: http://www.sdl.com/

Translatio: http://translatio.ens.fr/

Translation, Theory, and Training: http://www.ttt.org/

Travlang’s Translating Dictionaries: http://dictionaries.travlang.com/

Tribune (La): http://www.latribune.fr/

Tribune de Genève: http://www.tdg.ch/

TUG (TeX Users Group): http://www.tug.org/

TV5: http://www.tv5.org/

Ubibooks: http://www.ubibooks.com/

UBL (Ultimate Band List): http://www.ubl.com/

Ubuntu: http://www.ubuntu.com/

UC (University of California) Berkeley: http://www.berkeley.edu/

UCLA (University of California, Los Angeles): http://www.ucla.edu/

UCLA Online Institute for Cyberspace Law and Policy:
http://www.gseis.ucla.edu/iclp/hp.html

UIT (Union internationale des télécommunications):
http://www.itu.int/home/index-fr.html

UIT: Termite (Terminology of Telecommunications):
http://www.itu.int/terminology/index.html

Ulysse: http://www.ulysse.fr/

UMTS (Universal Mobile Telecommunications Service) Forum:
http://www.umts-forum.org/

UNDL (universal networking digital language) Foundation: http://www.undl.org/

UNESCO (Organisation des Nations Unies pour l’éducation, la science et la
culture): http://portal.unesco.org/fr/

UNESCO Copyright: http://www.unesco.org/culture/copyright/

UNESCO Documents and Publications: http://unesdoc.unesco.org/ulis/

UNESCO Libraries Portal: http://www.unesco.org/webworld/portal_bib/

Unicode: http://www.unicode.org/

Unicode Consortium: http://www.unicode.org/consortium/

UNIMARC (universal machine readable cataloguing):
http://www.ifla.org/VI/3/p1996-1/concise.htm

Union européenne: http://europa.eu/index_fr.htm

Unisys: http://www.unisys.com/

United Nations System of Organizations: http://www.unsystem.org/

Université de Caen, Basse-Normandie: http://www.unicaen.fr/

Université d’Ottawa: http://www.uottawa.ca/

Université de Lausanne (UNIL): http://www.unil.ch/

Université de Toronto: http://www.utoronto.ca/

Université Paris 4 (Sorbonne): http://www.paris4.sorbonne.fr/

Université Paris 8: http://www.univ-paris8.fr/

Université Paris 8: Département hypermédias: http://hypermedia.univ-paris8.fr/

Université Pierre Mendès France (Grenoble): http://www.upmf-grenoble.fr/

Université Senghor d’Alexandrie: http://www.usenghor-francophonie.org/

University of Exeter: Library and Related Resources:
http://www.library.ex.ac.uk/internet/wwwlibs.html

University of Toronto: http://www.utoronto.ca/

University of Toronto: David Trott Crossroads Centre:
http://www.utm.utoronto.ca/~w3fgi/crossroads/

University of Toronto: Etudes françaises: http://www.chass.utoronto.ca/french/

UNIX System: http://www.unix.org/

UREC (Unité réseaux du CNRS): http://www.urec.cnrs.fr/

USAID (U.S. Agency for International Development): http://www.usaid.gov/

USB (universal serial bus): http://www.usb.org/

uZine: http://www.uzine.net/

uZine: Manifeste du web indépendant: http://www.uzine.net/article60.html

Valensi, Michel / Google: http://www.lyber-eclat.net/google.html

Valensi, Michel / Lyber: http://www.lyber-eclat.net/lyber/lybertxt.html

Valensi, Michel / Lyber Montréal: http://www.lyber-eclat.net/lyber/montreal.html

Virgin: http://www.virgin.com/

Virgin Digital: http://www.virgindigital.com/

VirginMega: http://www.virginmega.fr/

Viscom: http://www.viscom.ch/

Vivendi Universal: http://www.vivendi.com/

VPNC (Virtual Private Network Consortium): http://www.vpnc.org/

W3C (World Wide Web Consortium): http://www.w3.org/

W3C: CSS (cascading style sheets): http://www.w3.org/Style/CSS/

W3C: HTML (hypertext markup language): http://www.w3.org/MarkUp/

W3C: HTTP (hypertext transfer protocol): http://www.w3.org/Protocols/

W3C: RDF (resource description framework): http://www.w3.org/RDF/

W3C: SGML (standard generalized markup language): http://www.w3.org/MarkUp/SGML/

W3C: XML (extensible markup language): http://www.w3.org/XML/

W3C Internationalization Activity: http://www.w3.org/International/

Wall Street Journal (The): http://online.wsj.com/

Washington Post (The): http://www.washingtonpost.com/

Watan (El): http://www.elwatan.com/

Waterstone’s: http://www.waterstones.co.uk/

Wayback Machine: http://www.archive.org/web/web.php

WebCrawler: http://www.webcrawler.com/

Webdo: http://www.webdo.ch/

Webdopresse: http://www.webdopresse.ch/

Webnet: http://www.webnet.fr/

Webnet: Poésie française: http://poesie.webnet.fr/

Webster University (Genève): http://www.webster.ch/

WELL (The): http://www.well.com/

WELL (Web Enhanced Language Learning): http://www.well.ac.uk/

WhatIs.com: http://whatis.techtarget.com/

WHO (World Health Organization): http://www.who.int/

WiFi Alliance: http://www.wi-fi.org/

Wikibooks: http://www.wikibooks.org/

Wikimedia Commons: http://commons.wikimedia.org/

Wikimedia Foundation: http://www.wikimediafoundation.org/

Wikinews: http://www.wikinews.org/

Wikipedia: http://www.wikipedia.org/

Wikiquote: http://www.wikiquote.org/

Wikisource: http://www.wikisource.org/

Wikispecies: http://species.wikimedia.org/

Wikiversity: http://www.wikiversity.org/

Wiktionary: http://www.wiktionary.org/

WiMAX Forum: http://www.wimaxforum.org/

Windows (Microsoft): http://www.microsoft.com/windows/

Windows: Windows Media: http://www.microsoft.com/windows/windowsmedia/

Windows: Windows Vista: http://www.microsoft.com/windowsvista/

Windows-Media.net: http://www.windows-media.net/

Windows on Haiti: http://www.windowsonhaiti.com/

Wired: http://www.wired.com/

Wired Magazine: http://www.wired.com/wired/

Wiretap Electronic Text Archive: http://wiretap.area.com/

Wooldridge, Russon (site): http://www.chass.utoronto.ca/~wulfric/

Wordfast: http://www.wordfast.org/

World Bank: http://www.worldbank.org/

WorldCat (OCLC) (catalogue): http://www.worldcat.org/

WorldCat (OCLC) (infos): http://www.oclc.org/worldcat/

World eBook Fair:  http://www.worldebookfair.com/

World Public Library: http://www.worldpubliclibrary.org/

WorldTel: http://www.world-tel.com/

WWW Virtual Library (VL): http://vlib.org/

Xerox: http://www.xerox.com/

Xerox Research Centre Europe: http://www.xrce.xerox.com/

Xlibris: http://www2.xlibris.com/

XML (extensible markup language): http://www.w3.org/XML/

Yahoo!: http://www.yahoo.com/

Yahoo! Books: http://shopping.yahoo.com/books/

Yahoo! France: http://fr.yahoo.com/

Yahoo! Search: http://search.yahoo.com/

yourDictionary.com: http://www.yourdictionary.com/

yourDictionary.com: Endangered Language Repository:
http://www.yourdictionary.com/elr/

youTube: http://www.youtube.com/

Z39.50 Maintenance Agency: http://www.loc.gov/z3950/agency/

Zazieweb: http://www.zazieweb.fr/

Zazieweb: Annuaire: http://www.zazieweb.fr/site/annuaire.php

ZDNet: http://www.zdnet.com/

ZDNet France: http://www.zdnet.fr/

Zune: http://www.zune.net/


17. INDEX


@folio

00h00 (éditions)

ABU

Acrobat eBook Reader

Acrobat Reader

ADBS-info

Adobe

Adobe Content Server

Adobe Reader

AFM

Alapage

ALIS

AltaVista

Amazon.com

America Online

Ancion, Nicolas (texte)

Andrachmes, Alex (texte)

anglais (langue)

annuaire

Annuaire de l'UREC

Antoine, Guy (texte)

Arabo, Silvaine (texte)

Arbon, Jean-Pierre

ARPALS

ARTFL

ASCII

Association des bibliophiles universels

Athena

ATILF

Atlas (éditions)

AUF

auteur

auto-édition

Autre Terre (Une)

Autret, Marc (texte)

Aveline, Isabelle

Aveline, Isabelle (texte)

aveugle

Babel Fish Translation

baladeur numérique

Balpe, Jean-Pierre

Balpe, Jean-Pierre (texte)

Barnes & Noble

Barthe, Emmanuel (texte)

base textuelle

BBF

Beard, Robert (texte)

Beckham, Barry

Benetech

Benoît, Michel (texte)

Berners-Lee, Tim

Berselli, Beth

Bertelsmann

best-seller

Bezos, Jeff

Bible de Gutenberg

Biblio-fr

Biblio On Line

bibliothécaire

bibliothèque

Bibliothèque électronique de Lisieux

Bibliothèque européenne

Bibliothèque municipale de Lyon

bibliothèque nationale

Bibliothèque nationale de France

bibliothèque numérique

Bibliothèque numérique européenne

Bibliothèque numérique pour le Handicap

Bibliothèque publique de San Francisco

BIT

Bluetooth

BnF

BnH

Bogros, Olivier

Bogros, Olivier (texte)

BOL

Bookeen

Bookshare.org

Boudic, Bernard (texte)

Bourahima, Bakayoko (texte)

Bourson, Marie-Aude (texte)

Boutiny, Lucie de (texte)

braille

BrailleNet

Brandenbourger, Anne-Cécile (texte)

Brethes, Thierry

BRF

Britannica.com

British Library

Bulletin des bibliothèques de France

Bureau international du travail

Cailleaud, Patrice (texte)

catalogue collectif

Catalogue collectif de France

CCFr

CD

CD-Rom

CENL

Cerf, Vinton

Champollion

Chapitre.com

Chartier, Pascal (texte)

chômage

Chotin, Richard (texte)

Choucas (éditions du)

Chroniques de Cybérie

chronologie

Chronologie littéraire

Citizendium

clé

Cloutier, Jean-Pierre

Cloutier, Jean-Pierre (texte)

Club des poètes (Le)

CNRS

Coelho, Paulo

Commission européenne

CompuServe

convergence multimédia

Cook, Mike

copyleft

copyright

copyright (États-Unis)

cotres.net

Coubard, Jacques (texte)

Creative Commons

créole (langue)

cyberthécaire

Cybook

Cybook Pro

CyLibris (éditions)

CyLibris Infos

Cytale

DADVSI

DAISY

DAISY Consortium

Dall'Armellina, Luc (texte)

DCMA

Decitre

délocalisation

Dernières nouvelles d'Alsace

Desbuquois, Catherine (texte)

Devriendt, Émilie (texte)

Diamedit

dictionnaire

dictionnaire de langue

Dictionnaires électroniques

Didier, Bruno (texte)

digital rights management

digital talking book

Distributed Proofreaders

Distributed Proofreaders Europe

document (communication)

document (conservation)

document (gestion)

documentaire en ligne

Domain, Catherine (texte)

domaine public

DP

DP Europe

DRM

droit d'auteur

DTB

DVD

Dyson, Esther

EAMT

eBookMan

Éclat (éditions de l')

écriture

Editel

éditeur en ligne

éditeur en ligne (littéraire)

éditeur en ligne (non commercial)

éditeur en ligne (scientifique)

édition

Édition-actu

édition en ligne

éditions, voir au nom de l'éditeur

E Ink

électronique (document)

électronique (édition)

électronique (livre)

emploi

Encarta

Encyclopaedia Britannica

Encyclopaedia Universalis

Encyclopedia of Life

encyclopédie

Encyclopédie de Diderot

enluminure

ENSEA

Ethnologue (encyclopédie)

EUCD

Eurodicautom

Europe

European Minority Languages

E-Zine-List

Favennec, Pierre-Noël (texte)

Figaro (Le)

FILPAC

Fnac

Foire du livre de Francfort

format de lecture

Forsyth, Frederick

Fourestier, Gérard (texte)

France Loisirs

Franklin

Franklin Reader

Franks, Charles

Free Software Foundation

FSF

Furet du Nord (Le)

Gabriel

gaélique (langue)

Gagnon, Pierre François

Gagnon, Pierre François (texte)

Gainon, Olivier

Gainon, Olivier (texte)

Gallica

Ganascia, Jean-Gabriel

GDT

Gemstar

Gemstar eBook

general public license

Glassbook

Globalink

Global Reach

Gloupsy

Godefroy, Raymond (texte)

Goiran, Muriel (texte)

Google

Google Book Search

Google Livres

Google Print

GPL

Grand dictionnaire terminologique

Grangier, Marcel (texte)

Grenouille Bleue (La)

Gutenberg

Gutenberg (Projet), voir : Projet Gutenberg

gyricon

Gyricon Media

Hachette

Haladjian, Rafi

Handicapzéro

Hanlin eReader

Hart, Michael

Hart, Michael (texte)

Hélène (bibliothèque)

Hélène (serveur)

Hobler, Randy (texte)

Hovy, Eduard (texte)

Humanité (L')

hyperfiction

hypermédia

HyperNietzsche

hyper-roman

IBM

IDPF

iLiad

imprimé

INaLF

information

Institut français de Londres

International Digital Publishing Forum

internet

Internet Actu

Internet Archive

Internet Bookshop

Internet Public Library

IPL

iRex Technologies

ISO-Latin

ISOC

Itinéraires (librairie)

Jadelot, Christiane (texte)

Jean-Paul (texte)

JePublie.com

Jinke

Joly, Anne-Bénédicte (site)

Joly, Anne-Bénédicte (texte)

Juriconnexion

Kahle, Brewster

King, Stephen

King, Stephen (texte)

Labovitz, John

langue

langue anglaise

langue française

langue minoritaire

langue naturelle

Larroche, Hélène (texte)

Laumonier, Alexandre

LCD

Leary, Timothy

Le Crosnier, Hervé

Le Parco, Claire (texte)

Lernout & Hauspie

Le Saux, Annie (texte)

Lessig, Lawrence

LexoTor

Lévy, Pierre

LG.Philips LCD

Lhomme, Fabrice (texte)

Libération

liberté d'expression

librairie, voir au nom de la librairie

librairie d'ancien

librairie de voyage

librairie en ligne

Library 2000

Library of Congress

Librié

Librofonino

LIT

literature (format)

littérature numérique

Live Search Books

livre audio

livre électronique

livre imprimé

livre numérique

Livre-rare-book

LMB Actu

logiciel de lecture

logiciel de traduction

Logos

Loubière, Philippe (texte)

Luc Pire

lyber

mail-roman

Malbreil, Xavier (texte)

MARC

Marchiset, Alain (texte)

Marinetti, Maria Victoria (texte)

Massachussets Institute of Technology

MediaLab du MIT

Merriam-Webster

Micro Bulletin Actu (Le)

Microsoft

Microsoft DAS Server

Microsoft Reader

Million Book Project

Minier, Jacky (texte)

MIT

MIT Media Lab

MIT OpenCourseWare

Mobipocket

Mobipocket Reader

Monde (Le)

Monde diplomatique (Le)

multilinguisme

NAP

Nation (La)

National Academy Press

Nations Unies

NEF

Nemoptic

Net des études françaises

Newby, Greg

NLS

Nokia

Non (roman)

nouvelle économie

Nouvelles du bled

Novalis

numérique (document)

numérique (édition)

numérique (littérature)

numérique (livre)

numérisation

numérisation (mode texte)

numérisation (mode image)

Numilog

NuvoMedia

OCA

OCDE

Ockerbloom John Mark (texte)

OCLC

OCR

OCW Consortium

Ó Donnaíle, Caoimhín (texte)

OeB

OeBPS

Office québécois de la langue française

OMPI

OneLook

Online Books Page

Open Content Alliance

OpenCourseWare Consortium

Open eBook

Open eBook Forum

Open eBook Initiative

OQLF

O'Reilly, Tim

O'Reilly Media

Ouest-France

oVosite

Oxford English Dictionary

Palm Database

Palm Digital Media

Palm Pilot

Palm Reader

Palm Resource

Palo Alto Research Center

papier électronique

PARC

Patez, Alain

Patez, Alain (texte)

PDA

PDB

PDF

Peanutpress.com

Pérez-Reverte, Arturo

PerfectBound

Perroud, Pierre (texte)

Pewny, Nicolas

Pewny Nicolas (texte)

Philips

Pierre, Marie-Joseph (texte)

Planet PDF

Plastic Logic

PLoS

Pocket PC

poésie

Poésie française

portail

PRC

Presses universitaires de France

Prewitt Organizing Fund

professionnel du livre

Projet Gutenberg

Projet Gutenberg Europe

Projet Rastko

Psion

Psion Organiser

Psychologies (revue)

Public Library of Science

PUF

Pujol, Olivier (texte)

Quid

Rachef, Anissa (texte)

Raggett, Peter (texte)

Random House

Rebollar, Patrick (texte)

RedLightGreen

Renaut, Philippe (texte)

Reporters sans frontières

Research Library Group

Rey, Jean-Baptiste (texte)

RFB&D

RLG

RLG Union Catalog

RLIN

Rocket eBook

roman

roman interactif

Rosnay, Blaise (texte)

Rowling, Joanne K.

RSF

Rubriques à Bac

Salon du Livre de Paris

Sa Moreira, Bruno de

Sa Moreira, Bruno de (texte)

Sanger, Larry

Schweitzer, Pierre

Schweitzer, Pierre (texte)

Signet (Le)

Simon & Schuster

SLAM

Slettenhaar, Henri (texte)

smartphone

Softbook Reader

Softbook Press

Softissimo

Sony

Sony Reader

sous-traitance

Spender, Dale

Sterling, Bruce

SUD PTT

Suid, Murray (texte)

support de lecture

Symbian

syndicat

Systran

TACTweb

tablette de lecture

Telecom Italia

Text Archive

Ting, Nathalie

Toppan

traduction

traduction automatique

Translatio

Tribune de Genève (La)

Tucsnak, Zina (texte)

Ulysse (librairie)

UNDL Foundation

Unicode

UNIMARC

Universal Library

Université de Toronto

UNL Program

USB

Vadrot, François

Valensi, Michel

Vandendorpe, Christian (texte)

Vivendi

Vizplex

W3C

Wales, Jimmy

Wayback Machine

web

web 2.0

web 3.0

WebEncyclo

Xerox

WebSphere Translation Server

WiFi

WiMAX

Wikipedia

Windows on Haiti

Wooldridge, Russon

Wooldridge, Russon (texte)

WorldCat

Xerox

yourDictionary.com

Z39.50

Zazieweb

Zwirn, Denis

Zwirn, Denis (texte)

Copyright © 2007 Marie Lebert





*** End of this Doctrine Publishing Corporation Digital Book "Les mutations du livre" ***

Doctrine Publishing Corporation provides digitized public domain materials.
Public domain books belong to the public and we are merely their custodians.
This effort is time consuming and expensive, so in order to keep providing
this resource, we have taken steps to prevent abuse by commercial parties,
including placing technical restrictions on automated querying.

We also ask that you:

+ Make non-commercial use of the files We designed Doctrine Publishing
Corporation's ISYS search for use by individuals, and we request that you
use these files for personal, non-commercial purposes.

+ Refrain from automated querying Do not send automated queries of any sort
to Doctrine Publishing's system: If you are conducting research on machine
translation, optical character recognition or other areas where access to a
large amount of text is helpful, please contact us. We encourage the use of
public domain materials for these purposes and may be able to help.

+ Keep it legal -  Whatever your use, remember that you are responsible for
ensuring that what you are doing is legal. Do not assume that just because
we believe a book is in the public domain for users in the United States,
that the work is also in the public domain for users in other countries.
Whether a book is still in copyright varies from country to country, and we
can't offer guidance on whether any specific use of any specific book is
allowed. Please do not assume that a book's appearance in Doctrine Publishing
ISYS search  means it can be used in any manner anywhere in the world.
Copyright infringement liability can be quite severe.

About ISYS® Search Software
Established in 1988, ISYS Search Software is a global supplier of enterprise
search solutions for business and government.  The company's award-winning
software suite offers a broad range of search, navigation and discovery
solutions for desktop search, intranet search, SharePoint search and embedded
search applications.  ISYS has been deployed by thousands of organizations
operating in a variety of industries, including government, legal, law
enforcement, financial services, healthcare and recruitment.



Home