Home
  By Author [ A  B  C  D  E  F  G  H  I  J  K  L  M  N  O  P  Q  R  S  T  U  V  W  X  Y  Z |  Other Symbols ]
  By Title [ A  B  C  D  E  F  G  H  I  J  K  L  M  N  O  P  Q  R  S  T  U  V  W  X  Y  Z |  Other Symbols ]
  By Language
all Classics books content using ISYS

Download this book: [ ASCII | HTML | PDF ]

Look for this book on Amazon


We have new books nearly every day.
If you would like a news letter once a week or once a month
fill out this form and we will give you a summary of the books for that week or month by email.

Title: Le livre, de l'imprimé au numérique
Author: Lebert, Marie
Language: French
As this book started as an ASCII text book there are no pictures available.
Copyright Status: Not copyrighted in the United States. If you live elsewhere check the laws of your country before downloading this ebook. See comments about copyright issues at end of book.

*** Start of this Doctrine Publishing Corporation Digital Book "Le livre, de l'imprimé au numérique" ***

This book is indexed by ISYS Web Indexing system to allow the reader find any word or number within the document.



LE LIVRE, DE L'IMPRIMÉ AU NUMÉRIQUE


MARIE LEBERT


NEF, Université de Toronto, 2010


Copyright © 2010 Marie Lebert. Tous droits réservés.


----
Ce livre est dédié à toutes les personnes
ayant répondu à mes questions pendant dix ans,
en Europe, en Afrique, en Asie, en Australie
et dans les Amériques,
avec tous mes remerciements pour leur temps
et pour leur amitié.
----


Le livre imprimé a cinq siècles et demi. Le livre numérique a bientôt
quarante ans. On peut désormais lire un livre sur son ordinateur, sur
son assistant personnel (PDA), sur son téléphone mobile, sur son
smartphone ou sur une tablette de lecture. Ce livre fait le point de la
situation en se basant sur quelques milliers d'heures de navigation sur
le web pendant dix ans et sur une centaine d'entretiens conduits de par
l'iPad», en passant par 00h00, @folio, Adobe, Amazon, Apple, Bookeen,
Le Choucas, CyLibris, Europeana, Franklin, Gallica, Google, l'Internet
Archive, Microsoft, Mobipocket, Numilog, Palm, Psion, Sony, Ulysse,
Unicode, le W3C et bien d'autres.


Marie Lebert, chercheuse et journaliste, s'intéresse aux technologies
pour le livre et les langues. Elle est l'auteure de Booknologie: le
livre numérique (1971-2010), Une courte histoire de l'ebook (NEF, 2009)
et Le Livre 010101 (NEF, 2003). Ses livres sont publiés par le Net des
études françaises (NEF) ,
Université de Toronto, Canada, et sont librement disponibles dans le
, dans divers formats permettant leur lecture sur
tout appareil électronique (ordinateur, PDA, téléphone mobile,
smartphone et tablette de lecture).



TABLE


Introduction

  * Un pari depuis 1971
  * Du passé vers l'avenir

L'Online Books Page
  * Un répertoire d'oeuvres en accès libre
  * Le durcissement du copyright

La presse se met en ligne
  * L'E-zine-list
  * La presse imprimée

Amazon.com
  * Aux États-Unis
  * En Europe
  * Dans le monde
  * Et les petites librairies?

Les éditeurs sur le réseau
  * Deux éditeurs pilotes
  * Premiers éditeurs électroniques
  * Éditeurs traditionnels et technologies

La convergence multimédia
  * Une définition
  * Des commentaires

La mue des bibliothèques
  * Des bibliothèques numériques
  * Un exemple: Gallica
  * Du bibliothécaire au cyberthécaire
  * Des catalogues en réseau

Une information multilingue
  * De l'ASCII à l'Unicode
  * De l'anglais au plurilinguisme
  * Des dictionnaires de langues en ligne

Le copyright revisité
  * Droit d'auteur et internet
  * Copyleft et Creative Commons
  * Domaine public et copyright

Une vaste encyclopédie
  * Vers un savoir numérique
  * Quelques projets pilotes

Des best-sellers numériques
  * Des logiciels de lecture
  * Stephen King ouvre la voie
  * D'autres auteurs suivent
  * Numilog, librairie numérique

La cyber-littérature
  * Poésie
  * Fables
  * Romans policiers
  * Autres oeuvres de fiction
  * Romans numériques
  * Mails-romans
  * Sites hypermédias

Vers une bibliothèque planétaire
  * Google Books
  * L'Open Content Alliance
  * Autres initiatives

PDA, smartphones et tablettes
  * Le projet @folio
  * PDA (assistants personnels)
  * Smartphones
  * Tablettes de lecture

Conclusion

Chronologie

Remerciements



INTRODUCTION


Le livre a beaucoup changé depuis 1971.

Le livre imprimé a cinq siècles et demi. Le livre numérique a bientôt
quarante ans (le 4 juillet 2011). Il est né en tant que eText #1 du
Projet Gutenberg, un projet visionnaire fondé en juillet 1971 par
Michael Hart pour distribuer gratuitement les oeuvres littéraires par
voie électronique.

D'abord considéré comme complètement irréaliste, ce projet trouve un
second souffle et un rayonnement international avec l'apparition du web
en 1990, puis la création de Distributed Proofreaders en 2000 pour
partager la relecture des livres entre des milliers de volontaires.

Signe des temps, en novembre 2000, la British Library met en ligne la
version numérique de la Bible de Gutenberg, premier livre à avoir
jamais été imprimé. Datant de 1454 ou 1455, cette Bible aurait été
imprimée par Gutenberg en 180 exemplaires dans son atelier de Mayence,
en Allemagne. 48 exemplaires, dont certains incomplets, existeraient
toujours, dont trois (deux versions complètes et une partielle) à la
British Library.

En 2010, des milliers d’oeuvres du domaine public sont en accès libre
sur le web. Les libraires et les éditeurs ont pour la plupart un site
web. Certains naissent  directement sur le web, avec la totalité de
leurs transactions réalisées via l’internet. De plus en plus de livres
et revues ne sont disponibles qu’en version numérique, pour éviter les
coûts d’une publication imprimée. Des auteurs font naître leurs oeuvres
sur des sites d'écriture hypertexte ou hypermédia.

L’internet est devenu indispensable pour se documenter, pour
communiquer, pour avoir accès aux livres et pour élargir ses
connaissances. Nous n'avons plus besoin de courir désespérément après
l'information dont nous avons besoin. L'information dont nous avons
besoin est à notre portée, y compris pour ceux qui suivent leurs études
par correspondance, qui vivent en rase campagne, qui travaillent à
domicile ou qui sont cloués sur un lit.

Le web est devenu une gigantesque encyclopédie, une énorme
bibliothèque, une immense librairie et un médium des plus complets. De
«statique» dans les livres imprimés, l’information est devenue fluide,
avec possibilité d’actualisation constante.

On peut désormais lire un livre sur son ordinateur, sur son PDA
(assistant personnel), sur son téléphone mobile, sur son smartphone ou
sur une tablette de lecture.

Tel est le voyage virtuel que nous allons entreprendre dans ces pages.

Ce livre est issu des multiples liens tissés sur le Net des études
françaises (NEF), fondé en mai 2000 par Russon Wooldridge, professeur à
l’Université de Toronto (Canada). Sauf indication contraire, les
citations sont des extraits des Entretiens du NEF  et des entretiens qui ont suivi pour les
actualiser et les compléter.



LE PROJET GUTENBERG


[Résumé]
Le premier livre numérique date de juillet 1971. Il s'agit de l'eText
#1 du Projet Gutenberg, un projet visionnaire lancé par Michael Hart
pour créer des versions électroniques d'oeuvres littéraires et les
diffuser gratuitement dans le monde entier. Au 16e siècle, Gutenberg
avait permis à chacun d'avoir des livres imprimés pour un prix
relativement modique. Au 21e siècle, le Projet Gutenberg permettrait à
chacun d'avoir une bibliothèque numérique gratuite. Ce projet trouve un
second souffle et un rayonnement international avec l'apparition du web
en 1990, puis la création de Distributed Proofreaders en 2000 pour
partager la relecture des livres entre des milliers de volontaires. En
2010, le Projet Gutenberg compte 33.000 livres numériques, des dizaines
de milliers de téléchargements par jour, des sites web aux États-Unis,
en Australie, en Europe et au Canada, et 38 sites miroirs répartis sur
toute la planète.


= Un pari depuis 1971

# Gestation

Quels furent les tous débuts du projet? Alors étudiant à l’Université
de l'Illinois (États-Unis), Michael Hart se voit attribuer quelques
millions de dollars de «temps machine» dans le laboratoire informatique
(Materials Research Lab) de son université.

Le 4 juillet 1971, jour de la fête nationale, il saisit The United
States Declaration of Independence (La Déclaration de l’indépendance
des États-Unis, signée le 4 juillet 1776) sur le clavier de son
ordinateur. En caractères majuscules, puisque les caractères minuscules
n’existent pas encore. Le texte électronique représente 5 Ko (kilo-
octets). Mais l’envoi d’un fichier de 5 Ko à la centaine de personnes
que représente le réseau de l’époque aurait fait imploser celui-ci, la
bande passante étant infime. Michael diffuse donc un message indiquant
où le texte est stocké - sans lien hypertexte toutefois, puisque le web
ne voit le jour que vingt ans après - suite à quoi le fichier est
téléchargé par six personnes.

Dans la foulée, Michael décide de consacrer ce crédit-temps de quelques
millions de dollars à la recherche des oeuvres littéraires disponibles
en bibliothèque et à la numérisation de celles-ci. Il décide aussi de
stocker les textes électroniques de la manière la plus simple possible,
au format ASCII (American Standard Code for Information Interchange),
pour que ces textes puissent être lus sans problème quels que soient la
machine, la plateforme et le logiciel utilisés. Au lieu d’être un
ensemble de pages reliées, le livre devient un texte électronique que
l’on peut dérouler en continu, avec des lettres capitales pour les
termes en italique, en gras et soulignés de la version imprimée.

Peu après, Michael définit la mission du Projet Gutenberg: mettre à la
disposition de tous, par voie électronique, le plus grand nombre
possible d’oeuvres littéraires. «Nous considérons le texte électronique
comme un nouveau médium, sans véritable relation avec le papier»,
explique-t-il plus tard, en août 1998. «Le seul point commun est que
nous diffusons les mêmes oeuvres, mais je ne vois pas comment le papier
peut concurrencer le texte électronique une fois que les gens y sont
habitués, particulièrement dans les établissements d'enseignement.»

Après avoir saisi The United States Declaration of Independence en
1971, Michael poursuit ses efforts en 1972 en saisissant The United
States Bill of Rights (La Déclaration des droits américaine). Cette
Déclaration comprend les dix premiers amendements ajoutés en 1789 à la
Constitution des États-Unis (qui date elle-même de 1787), et
définissant les droits individuels des citoyens et les pouvoirs
respectifs du gouvernement fédéral et des États. En 1973, un volontaire
saisit The United States Constitution (La Constitution des États-Unis)
dans son entier.

D’année en année, la capacité de la disquette augmente régulièrement -
le disque dur n’existe pas encore - si bien qu'il est possible
d’envisager des fichiers de plus en plus volumineux. Des volontaires
entreprennent la numérisation de la Bible, composée elle-même de
plusieurs livres qui peuvent être traités séparément et occuper chacun
un fichier différent.

Michael Hart débute la saisie des oeuvres complètes de Shakespeare,
avec l'aide de volontaires, une pièce de théâtre après l’autre, avec un
fichier pour chaque pièce. Cette version n'est d’ailleurs jamais mise
en ligne, du fait d’une loi plus contraignante sur le copyright entrée
en vigueur dans l’intervalle, et qui vise non pas le texte de
Shakespeare, tombé depuis longtemps dans le domaine public, mais les
commentaires et notes de l'édition correspondante. D’autres éditions
annotées appartenant au domaine public sont mises en ligne quelques
années plus tard.

Parallèlement, l’internet, qui était encore embryonnaire en 1971,
débute véritablement en 1974, suite à la création du protocole TCP/IP
(Transmission Control Protocol / Internet Protocol) par Vinton Cerf et
Robert Kahn. En 1983, le réseau est en plein essor.

# De 10 à 1.000 ebooks

En août 1989, le Projet Gutenberg met en ligne son dixième texte, The
King James Bible, une bible publiée pour la première fois en 1611 et
dont la version la plus connue date de 1769. L'ensemble des fichiers de
l'Ancien Testament et du Nouveau Testament représente 5 Mo (méga-
octets).

En 1990, les internautes sont au nombre de 250.000, et le standard en
vigueur est la disquette de 360 Ko. En janvier 1991, Michael Hart
saisit Alice’s Adventures in Wonderland (Alice au pays des merveilles)
de Lewis Carroll (paru en 1865). En juillet de la même année, il saisit
Peter Pan de James M. Barrie (paru en 1904). Ces deux classiques de la
littérature enfantine tiennent chacun sur une disquette standard.

Arrive ensuite le web, opérationnel en 1991. Le premier navigateur,
Mosaic, apparaît en novembre 1993. Lorsque l’utilisation du web se
généralise, il devient plus facile de faire circuler les textes
électroniques et de recruter des volontaires.

Le Projet Gutenberg rode sa méthode de travail, avec la numérisation
d’un texte par mois en 1991, deux textes par mois en 1992, quatre
textes par mois en 1993 et huit textes par mois en 1994.

En janvier 1994, le Projet Gutenberg fête son centième livre avec la
mise en ligne de The Complete Works of William Shakespeare (Les oeuvres
complètes de William Shakespeare). Shakespeare écrivit l'essentiel de
son oeuvre entre 1590 et 1613.

La production continue ensuite d’augmenter, avec une moyenne de 16
textes par mois en 1995 et 32 textes par mois en 1996.

Comme on le voit, entre 1991 et 1996, la production double chaque
année. Tout en continuant de numériser des livres, Michael coordonne
désormais le travail de dizaines de volontaires.

À l'époque, le Projet Gutenberg s’articule en trois grands secteurs:
(a) Light Literature (littérature de divertissement), qui inclut par
exemple Alice’s Adventures in Wonderland, Peter Pan ou Aesop’s Fables
(Les Fables d’Ésope); (b) Heavy Literature (littérature «sérieuse»),
qui inclut par exemple La Bible, les oeuvres de Shakespeare ou Moby
Dick; (c) Reference Literature (littérature de référence), composée
d’encyclopédies et de dictionnaires, par exemple le Roget’s Thesaurus.
Cette présentation en trois secteurs est abandonnée par la suite pour
laisser place à un classement par rubriques plus détaillé.

Le Projet Gutenberg se veut universel, aussi bien pour les oeuvres
choisies que pour le public visé, le but étant de mettre la littérature
à la disposition de tous, en dépassant largement le public habituel des
étudiants et des enseignants. Le secteur consacré à la littérature de
divertissement est destiné à amener devant l’écran un public très
divers, par exemple des enfants et leurs grands-parents recherchant le
texte électronique de Peter Pan après avoir vu le film Hook, ou
recherchant la version électronique d’Alice au pays des merveilles
après avoir regardé l'adaptation filmée à la télévision, ou recherchant
l’origine d’une citation littéraire après avoir vu un épisode de Star
Trek. Pratiquement tous les épisodes de Star Trek citent des livres
ayant leur correspondant numérique dans le Projet Gutenberg.

L’objectif est donc que le public, qu’il soit familier ou non avec le
livre imprimé, puisse facilement retrouver des textes entendus dans des
conversations, des films, des musiques, ou alors lus dans d’autres
livres, journaux et magazines. Les fichiers électroniques prennent peu
de place grâce à l’utilisation du format ASCII. On peut facilement les
télécharger par le biais de la ligne téléphonique. La recherche
textuelle est tout aussi simple. Il suffit d’utiliser la fonction
«rechercher» présente dans n’importe quel logiciel.

En 1997, la production est toujours de 32 titres par mois. En juin
1997, le Projet Gutenberg met en ligne The Merry Adventures of Robin
Hood (Les aventures de Robin des Bois) de Howard Pyle (paru en 1883).
En août 1997, il met en ligne son millième texte électronique, La
Divina Commedia (La Divine Comédie) de Dante Alighieri (parue en 1321),
dans sa langue d’origine, en italien.

En août 1998, Michael Hart écrit: «Mon projet est de mettre 10.000
textes électroniques sur l’internet. [NDLR: Ce sera chose faite en
octobre 2003.] Si je pouvais avoir des subventions importantes,
j’aimerais aller jusqu’à un million et étendre aussi le nombre de nos
usagers potentiels de 1,x% à 10% de la population mondiale, ce qui
représenterait la diffusion de 1.000 fois un milliard de textes
électroniques, au lieu d’un milliard seulement.»

# De 1.000 à 10.000 ebooks

Entre 1998 et 2000, la moyenne est constante, avec 36 textes par mois.
En mai 1999, les collections comptent 2.000 livres. Le 2.000e titre est
Don Quijote (Don Quichotte) de Cervantès (paru en 1605), dans sa langue
d’origine, en espagnol.

Disponible en décembre 2000, le 3.000e titre est le troisième volume de
À l’ombre des jeunes filles en fleurs de Marcel Proust (paru en 1919),
dans sa langue d'origine, en français. La moyenne passe à 104 livres
par mois en 2001.

Mis en ligne en octobre 2001, le 4.000e titre est The French Immortals
Series (Collection de textes d'Immortels français), dans sa traduction
anglaise. Publié à Paris en 1905 par la Maison Mazarin, ce livre
rassemble plusieurs fictions d’écrivains couronnés par l’Académie
française, comme Émile Souvestre, Pierre Loti, Hector Malot, Charles de
Bernard, Alphonse Daudet, etc.

Disponible en avril 2002, le 5.000e titre est The Notebooks of Leonardo
da Vinci (Les Carnets de Léonard de Vinci), des carnets datant du début
du 16e siècle et qui se trouvent toujours dans le Top 100 des livres
téléchargés en 2010.

En 1988, Michael Hart avait choisi de numériser Alice’s Adventures in
Wonderland et Peter Pan parce que, dans l’un et l’autre cas, leur
version numérisée tenait sur une disquette de 360 Ko, le standard de
l’époque. Quinze ans plus tard, en 2002, on dispose de disquettes de
1,44 Mo et on peut aisément compresser les fichiers en les zippant. Un
fichier standard peut désormais comporter trois millions de caractères,
plus qu’il n’en faut pour un livre de taille moyenne, puisqu'un roman
de 300 pages numérisé au format ASCII représente un méga-octet. Un
livre volumineux tient sur deux fichiers ASCII, téléchargeables tels
quels ou en version zippée. Cinquante heures environ sont nécessaires
pour sélectionner un livre de taille moyenne, vérifier qu’il est bien
du domaine public, le scanner, le corriger, le formater et le mettre en
page.

Quelques numéros de livres sont réservés pour l’avenir, par exemple le
numéro 1984 (eText #1984) pour le roman éponyme de George Orwell,
publié en 1949, et qui est donc loin d’être tombé dans le domaine
public.

En 2002, les collections s’accroissent de 203 titres par mois. Au
printemps 2002, elles représentent le quart des oeuvres du domaine
public en accès libre sur le web, recensées de manière pratiquement
exhaustive par l’Internet Public Library (IPL), un beau résultat dû au
patient travail de milliers de volontaires actifs dans de nombreux
pays.

1.000 livres en août 1997, 2.000 livres en mai 1999, 3.000 livres en
décembre 2000, 4.000 livres en octobre 2001, 5.000 livres en avril
2002, 10.000 livres en octobre 2003. Le 10.000e livre est The Magna
Carta, qui fut le premier texte constitutionnel anglais, signé en 1215.

Entre avril 2002 et octobre 2003, les collections doublent, passant de
5.000 à 10.000 livres en dix-huit mois. La moyenne mensuelle est de 348
livres numérisés en 2003.

Dix mille livres. Un chiffre impressionnant quand on pense à ce que
cela représente de pages scannées, relues et corrigées. Cette
croissance rapide est due à l’activité de Distributed Proofreaders
(DP), un site conçu en 2000 par Charles Franks pour permettre la
correction partagée des livres entre de nombreux volontaires. Les
volontaires choisissent un livre en cours de traitement pour relire et
corriger une page donnée. Chacun travaille à son propre rythme. A titre
indicatif, il est conseillé de relire une page par jour. C’est peu de
temps sur une journée, et c’est beaucoup pour le projet.

En août 2003, un CD-ROM Best of Gutenberg est disponible avec une
sélection de 600 livres. En décembre 2003, date à laquelle le Projet
Gutenberg franchit la barre des 10.000 livres, la quasi-totalité des
livres (9.400 livres) est gravée sur un DVD. CD-ROM et DVD sont envoyés
gratuitement à qui en fait la demande. Libre ensuite à chacun de faire
autant de copies que possible et de les distribuer autour de soi.

# De 10.000 à 20.000 ebooks

En décembre 2003, les collections approchent les 11.000 livres.
Plusieurs formats sont désormais présents, par exemple les formats
HTML, XML et RTF, le format principal - et obligatoire – restant
l’ASCII. Le tout représente 46.000 fichiers, soit une capacité totale
de 110 Go (giga-octets).

Le 13 février 2004, date de la conférence de Michael Hart au siège de
l’UNESCO à Paris, les collections comprennent très exactement 11.340
livres dans 25 langues. En mai 2004, les 12.500 livres disponibles
représentent 100.000 fichiers dans vingt formats différents, soit une
capacité totale de 135 Go, destinée à doubler chaque année avec l’ajout
d'environ 300 livres par mois (338 livres en 2004).

Parallèlement, le Doctrine Publishing Corporation Consortia Center (PGCC), qui avait
été lancé en 1997 pour rassembler des collections de livres numériques
déjà existantes et provenant de sources extérieures, est officiellement
affilié au Projet Gutenberg en 2003.

Par ailleurs, le Projet Gutenberg Europe est lancé à l’instigation du
Projet Rastko, basé à Belgrade, en Serbie. Distributed Proofreaders
Europe débute ses activités en janvier 2004, avec cent livres
disponibles en avril 2005. Les livres sont en plusieurs langues pour
refléter la diversité linguistique prévalant en Europe, avec cent
langues prévues sur le long terme.

En janvier 2005, le Projet Gutenberg fête ses 15.000 livres, avec la
mise en ligne de The Life of Reason (La vie de raison) de George
Santayana (paru en 1906).

En juin 2005, le nombre de livres s’élève à 16.000. Si 25 langues
seulement étaient présentes en février 2004, 42 langues sont
représentées en juin 2005, dont le sanscrit et les langues mayas. En
décembre 2006, on compte 50 langues. A la date du 16 décembre 2006, les
langues comprenant plus de cinquante titres sont l’anglais (17.377
titres), le français (966 titres), l’allemand (412 titres), le finnois
(344 titres), le hollandais (244 titres), l’espagnol (140 titres),
l’italien (102 titres), le chinois (69 titres), le portugais (68
titres) et le tagalog (51 titres).

Lancé en août 2001, le Doctrine Publishing Corporation Australia fête ses 500 livres
en juillet 2005.

En décembre 2006, le Projet Gutenberg franchit la barre des 20.000
livres. Le 20.000e titre est un livre audio, Twenty Thousand Leagues
Under the Sea, version anglaise de Vingt mille lieues sous les mers de
Jules Verne (publié en 1869). La moyenne est de 345 nouveaux livres par
mois en 2006.

S'il a fallu 32 ans, de juillet 1971 à octobre 2003, pour numériser les
10.000 premiers livres, il n’aura fallu que trois ans et deux mois,
d’octobre 2003 à décembre 2006, pour numériser les 10.000 livres
suivants.

À la même date, le Doctrine Publishing Corporation Australia approche les 1.500
livres (c'est chose faite en avril 2007) et le Projet Gutenberg Europe
compte 400 livres.

La section Doctrine Publishing Corporation PrePrints est lancée en janvier 2006 pour
accueillir de nouveaux documents suffisamment intéressants pour être
mis en ligne, mais ne pouvant être intégrés aux collections existantes
sans traitement ultérieur par des volontaires, pour diverses raisons:
collections incomplètes, qualité insuffisante, conversion souhaitée
dans un autre format, etc. Cette section comprend 379 titres en
décembre 2006, et plus de 2.000 titres deux ans après.

# De 20.000 à 30.000 ebooks

Doctrine Publishing Corporation News, le blog officiel du Projet Gutenberg, débute en
novembre 2006 à l’instigation de Mike Cook. Ce blog complète les
lettres d’information (hebdomadaire et mensuelle) existant depuis
nombre d'années. Le blog offre par exemple les statistiques de
production hebdomadaires, mensuelles et annuelles depuis 2001.

La production hebdomadaire est de 24 livres en 2001, 47 livres en 2002,
79 livres en 2003, 78 livres en 2004, 58 livres en 2005, 80 livres en
2006, 78 livres en 2007 et 69 livres en 2009. (Le décompte pour 2008
inclut les PrePrints et n'est donc pas pris en compte ici.)

La production mensuelle est de 104 livres en 2001, 203 livres en 2002,
348 livres en 2003, 338 livres en 2004, 252 livres en 2005, 345 livres
en 2006, 338 livres en 2007 et 298 livres en 2009.

La production annuelle est de 1.244 livres en 2001, 2.432 livres en
2002, 4.176 livres en 2003, 4.058 livres en 2004, 3.019 livres en 2005,
4.141 livres en 2006, 4.049 livres en 2007 et 2.190 livres en 2009.

Le Projet Gutenberg Canada (PGC) voit le jour le 1er juillet 2007, le
jour de la fête nationale, à l'instigation de Michael Shepard et David
Jones. Il est suivi de Distributed Proofreaders Canada (DPC), avec une
production qui débute en décembre 2007. Les cent premiers livres sont
disponibles en mars 2008, avec des livres en anglais, en français et en
italien.

Le Projet Gutenberg franchit la barre des 25.000 livres en avril 2008.
Le 25.000e livre est English Book Collectors (Collectionneurs de livres
anglais) de William Younger Fletcher (publié en 1902). Le Projet
Gutenberg Europe atteint les 500 livres en octobre 2008.

Le Projet Gutenberg comptabilise 30.000 livres en octobre 2009. Le
30.000e livre est The Bird Book (Le livre des oiseaux), de Chester
Albert Reed (publié en 1915).

Principale source des livres du Projet Gutenberg, Distributed
Proofreaders (DP) fête ses dix ans en octobre 2010, avec plus de 18.000
livres numérisés, relus et corrigés par les soins de plusieurs milliers
de volontaires.


= Du passé vers l'avenir

Le pari fait par Michael Hart en 1971 est donc réussi. Mais les
résultats du Projet Gutenberg ne se mesurent pas seulement à des
chiffres. Les résultats se mesurent aussi à l’influence du projet, qui
est considérable. Premier site d’information sur l’internet et première
bibliothèque numérique, le Projet Gutenberg a inspiré bien d’autres
bibliothèques numériques au fil des ans, à commencer par le Projekt
Runeberg pour la littérature scandinave ou le Projekt Gutenberg-DE pour
la littérature allemande.

Le Projekt Runeberg est la première bibliothèque numérique suédoise de
livres du domaine public. Elle est créée en décembre 1992 par Lysator,
un club informatique d’étudiants, en collaboration avec la bibliothèque
de l'Université de Linköping (Suède), pour produire et organiser des
versions électroniques gratuites de la littérature nordique classique.
200 oeuvres sont disponibles en 1998, avec une liste de 6.000 auteurs
nordiques en tant qu'outil de développement des collections.

Projekt Gutenberg-DE est la première bibliothèque numérique allemande
de livres du domaine public. Plusieurs dizaines de textes peuvent être
lus en ligne en 1998, avec une page web pour les textes courts et
plusieurs pages – une par chapitre – pour les oeuvres plus longues. Une
liste alphabétique d'auteurs et de titres est également disponible,
ainsi qu'une courte biographie et bibliographie pour chaque auteur.

La structure administrative et financière du Projet Gutenberg se limite
au strict minimum, avec une devise qui tient en trois mots: «Less is
more.» Michael Hart insiste régulièrement sur la nécessité d’un cadre
aussi souple que possible laissant toute initiative aux volontaires, et
la porte grande ouverte aux idées nouvelles. Le but est d’assurer la
pérennité du projet indépendamment des crédits, des coupures de crédits
et des priorités culturelles, financières et politiques du moment. Pas
de pression possible donc par le pouvoir et par l’argent. Et respect à
l’égard des volontaires, qui sont assurés de voir leur travail utilisé
pendant de nombreuses années, si ce n’est pour plusieurs générations,
d’où l’intérêt d’un format numérique qui soit toujours valable dans
quelques siècles. Le suivi régulier du projet est assuré grâce à une
lettre d’information hebdomadaire et mensuelle, des forums de
discussion, des wikis et des blogs.

Les dons servent à financer des ordinateurs et des scanners, et à
envoyer des CD-ROM et DVD gratuits à tous ceux qui en font la demande.
Suite au CD-ROM Best of Gutenberg disponible en août 2003 avec une
sélection de 600 titres et à un premier DVD disponible en décembre 2003
avec 9.400 titres, un deuxième DVD est disponible en juillet 2006 avec
17.000 titres. A partir de 2005, CD-ROM et DVD sont disponibles sous
forme d'images ISO sur le site de BitTorrent, ces images pouvant être
téléchargées pour graver des CD-ROM et DVD sur place à titre personnel.
En 2007, le Projet Gutenberg envoie 15 millions de livres par voie
postale sous forme de CD-ROM et DVD.

Chose souvent passée sous silence, Michael Hart est le véritable
inventeur de l’ebook. Si on considère l’ebook dans son sens
étymologique, à savoir un livre numérisé pour diffusion sous forme de
fichier électronique, celui-ci aurait donc  quarante ans et serait né
avec le Projet Gutenberg en juillet 1971. Une paternité beaucoup plus
réconfortante que les divers lancements commerciaux dans un format
propriétaire ayant émaillé le début des années 2000. Il n’y a aucune
raison pour que la dénomination «ebook» ne désigne que l’ebook
commercial et soit réservée aux Amazon, Barnes & Noble, 00h00, Gemstar,
Google Books et autres. L’ebook non commercial est un ebook à part
entière - et non un parent pauvre - tout comme l’édition électronique
non commerciale est une forme d’édition à part entière, et tout aussi
valable que l’édition commerciale. En 2003, les etexts du Projet
Gutenberg deviennent des ebooks, pour coller à la terminologie
ambiante.

En juillet 1971, l’envoi d’un fichier de 5 Ko à cent personnes aurait
fait sauter l’embryon de réseau disponible à l’époque. En novembre
2002, le Projet Gutenberg peut mettre en ligne les 75 fichiers du Human
Genome Project - à savoir le séquençage du génome humain -, chaque
fichier se chiffrant en dizaines sinon en centaines de méga-octets.
Ceci peu de temps après la parution initiale du Human Genome Project en
février 2001, puisqu’il appartient d’emblée au domaine public.

En 2004, la capacité de stockage des disques durs est telle qu’il
serait possible de faire tenir l’intégralité de la Library of Congress
au format texte sur un support de stockage coûtant 140 dollars US. Et
quelques années seulement nous sépareraient d’une clé USB (Universal
Serial Bus) permettant de stocker l’intégralité du patrimoine écrit de
l’humanité.

La demande est énorme. En témoigne le nombre de téléchargements, qui se
comptent désormais en dizaines de milliers par jour.

A la date du 31 juillet 2005, on compte 37.532 fichiers téléchargés
dans la journée, 243.808 fichiers téléchargés dans la semaine et
1.154.765 fichiers téléchargés dans le mois.

A la date du 6 mai 2007, on compte 89.841 fichiers téléchargés dans la
journée, 697.818 fichiers téléchargés dans la semaine et 2.995.436
fichiers téléchargés dans le mois. Courant mai, ce nombre atteint les 3
millions.

À la date du 15 mars 2010, on compte 103.422 fichiers téléchargés dans
la journée, 751.037 fichiers téléchargés dans la semaine et 3.033.824
fichiers téléchargés dans le mois.

(basé à l’Université de Caroline du Nord, aux États-Unis), qui héberge
aussi le site du Projet Gutenberg. Le deuxième site de téléchargement
est l’Internet Archive, qui est le site de sauvegarde et qui met à la
disposition du Projet Gutenberg une capacité de stockage illimitée.

Un «Top 100» recense les cent titres et les cent auteurs les plus
téléchargés dans la journée, dans la semaine et dans le mois.

Le Projet Gutenberg dispose de 38 sites miroirs répartis dans de
nombreux pays, et il en cherche d’autres. La circulation des fichiers
se fait aussi en mode P2P (Peer-to-Peer), qui permet d’échanger des
fichiers directement d’un utilisateur à l’autre.

Les livres du Projet Gutenberg peuvent aider à combler la fracture
numérique. Ils sont aisément téléchargeables sur PDA. Un ordinateur ou
un PDA d’occasion ne coûte que quelques dollars ou quelques dizaines de
dollars, en fonction du modèle. Certains PDA fonctionnent à l’énergie
solaire, permettant la lecture dans les régions pauvres ou reculées.

Plus tard, il sera peut-être possible d'envisager une traduction
simultanée dans une centaine de langues, en utilisant un logiciel de
traduction automatique qui aurait alors un taux de fiabilité de l’ordre
de 99%, un pourcentage dont on est encore loin. Ce logiciel de
traduction automatique serait relayé par des traducteurs (non pas des
machines, mais des êtres humains), sur un modèle comparable à la
technologie OCR actuellement relayée par des correcteurs (non pas des
logiciels, mais des êtres humains) pour offrir un contenu de grande
qualité.

Quelque 40 ans après les débuts du Projet Gutenberg, Michael Hart se
définit toujours comme un fou de travail dédiant toute sa vie à son
projet, qu’il voit comme étant à l’origine d’une révolution néo-
industrielle. Il se définit aussi comme altruiste, pragmatique et
visionnaire. Après avoir été traité de toqué pendant de nombreuses
années, il force maintenant le respect.

Au fil des ans, la mission du Projet Gutenberg reste la même, à savoir
changer le monde par le biais de l’ebook gratuit indéfiniment
utilisable et reproductible, et favoriser ainsi la lecture et la
culture pour tous à moindres frais. Cette mission se résume en quelques
mots: «encourager la création et la distribution d’ebooks», par autant
de personnes que possible, et par tous les moyens de diffusion
possibles, tout en prenant les virages nécessaires pour intégrer de
nouvelles idées, de nouvelles méthodes et de nouveaux supports.



L'ONLINE BOOKS PAGE


[Résumé]
L'Online Books Page est créée en janvier 1993 par John Mark Ockerbloom
pour répertorier les textes électroniques anglophones du domaine public
en accès libre sur le web. À cette date, John Mark est doctorant à
l’Université Carnegie Mellon (Pennsylvanie, États-Unis). En 1999, il
rejoint l’Université de Pennsylvanie pour travailler à la R&D
(recherche et développement) de la bibliothèque numérique. À la même
époque, il y transfère l'Online Books Page tout en gardant la même
présentation, très sobre, et tout en poursuivant son travail
d’inventaire dans le même esprit. Ce répertoire recense plus de 20.000
titres en 2003 (dont 4.000 textes publiés par des femmes), 25.000
titres en 2006, 30.000 titres en 2007 (dont 7.000 textes du Projet
Gutenberg) et 35.000 titres en 2009.


= Un répertoire d'oeuvres en accès libre

Alors que certains numérisent les oeuvres littéraires du domaine
public, comme le Projet Gutenberg et des projets connexes, d'autres se
donnent pour tâche de répertorier celles qui sont en accès libre sur le
web, en offrant au lecteur un point d’accès commun. C’est le cas de
John Mark Ockerbloom, doctorant à l’Université Carnegie Mellon
(Pittsburgh, Pennsylvanie, États-Unis), qui crée l’Online Books Page
pour recenser les oeuvres anglophones.

Cinq ans plus tard, en septembre 1998, John Mark relate: «J’étais
webmestre ici pour la section informatique de la CMU (Carnegie Mellon
University), et j’ai débuté notre site local en 1993. Il comprenait des
pages avec des liens vers des ressources disponibles localement, et à
l’origine l’Online Books Page était l’une de ces pages, avec des liens
vers des livres mis en ligne par des collègues de notre département
(par exemple Robert Stockton, qui a fait des versions web de certains
textes du Projet Gutenberg). Ensuite les gens ont commencé à demander
des liens vers des livres disponibles sur d’autres sites. J’ai remarqué
que de nombreux sites (et pas seulement le Projet Gutenberg ou Wiretap)
proposaient des livres en ligne, et qu’il serait utile d’en avoir une
liste complète qui permette de télécharger ou de lire des livres où
qu’ils soient sur l’internet. C’est ainsi que mon index a débuté.

J’ai quitté mes fonctions de webmestre en 1996, mais j’ai gardé la
gestion de l’Online Books Page, parce qu’entre temps je m’étais
passionné pour l’énorme potentiel qu’a l’internet de rendre la
littérature accessible au plus grand nombre. Maintenant il y a tant de
livres mis en ligne que j’ai du mal à rester à jour. Je pense pourtant
poursuivre cette activité d’une manière ou d’une autre. Je suis très
intéressé par le développement de l’internet en tant que médium de
communication de masse dans les prochaines années. J’aimerais aussi
rester impliqué dans la mise à disposition gratuite de livres sur
l’internet, que ceci fasse partie intégrante de mon activité
professionnelle, ou que ceci soit une activité bénévole menée sur mon
temps libre.»

Fin 1998, John Mark Ockerbloom obtient son doctorat en informatique. En
1999, il rejoint l’Université de Pennsylvanie, où il travaille à la R&D
(recherche et développement) de la bibliothèque numérique. À la même
époque, il y transfère l’Online Books Page tout en gardant la même
présentation, très sobre, et tout en poursuivant son travail
d’inventaire dans le même esprit. Ce répertoire recense 12.000 livres
en ligne en 1999, 20.000 livres en 2003 (dont 4.000 textes publiés par
des femmes), 25.000 livres en 2006, 30.000 livres en 2007 (dont 7.000
textes du Projet Gutenberg) et 35.000 livres en 2009.


= Le durcissement du copyright

En 1999, le débat fait rage sur le durcissement de la loi sur le
copyright (qui date de 1976) suite à un amendement de cette loi daté du
27 octobre 1998. De nombreuses oeuvres censées tomber dans le domaine
public restent désormais sous copyright, au grand dam de Michael Hart,
fondateur du Projet Gutenberg, de John Mark Ockerbloom et de bien
d'autres. La législation de 1998 porte un coup très rude aux
bibliothèques numériques, en plein essor avec le développement du web.
Mais comment faire le poids vis-à-vis des majors de l’édition? Nombre
de titres doivent être retirés des collections.

Michael Hart raconte en juillet 1999: «J’ai été le principal opposant
aux extensions du copyright, mais Hollywood et les grands éditeurs ont
fait en sorte que le Congrès ne mentionne pas mon action en public. Les
débats actuels sont totalement irréalistes. Ils sont menés par
“l’aristocratie terrienne de l’âge de l’information” et servent
uniquement ses intérêts. Un âge de l’information? Et pour qui?»

Pour ne prendre qu'un exemple, le classique mondial Gone With the Wind
(Autant en emporte le vent) de Margaret Mitchell, publié en 1939,
aurait dû tomber dans le domaine public au bout de 56 ans, en 1995,
conformément à la législation de l'époque, libérant ainsi les droits
pour les adaptations en tous genres. Suite aux législations de 1976 et
1998, ce classique ne devrait désormais tomber dans le domaine public
qu'en 2035.

John Mark Ockerbloom explique en août 1999: «À mon avis, il est
important que les internautes comprennent que le copyright est un
contrat social conçu pour le bien public - incluant à la fois les
auteurs et les lecteurs. Ceci signifie que les auteurs doivent avoir le
droit d'utiliser de manière exclusive et pour un temps limité les
oeuvres qu'ils ont créées, comme ceci est spécifié dans la loi actuelle
sur le copyright. Mais ceci signifie également que leurs lecteurs ont
le droit de copier et de réutiliser ce travail autant qu'ils le veulent
à l'expiration de ce copyright.

Aux États-Unis, on voit maintenant diverses tentatives visant à retirer
ces droits aux lecteurs, en limitant les règles relatives à
l'utilisation de ces oeuvres, en prolongeant la durée du copyright (y
compris avec certaines propositions visant à le rendre permanent) et en
étendant la propriété intellectuelle à des travaux distincts des
oeuvres de création (comme on en trouve dans les propositions de
copyright pour les bases de données). Il existe même des propositions
visant à entièrement remplacer la loi sur le copyright par une loi
instituant un contrat beaucoup plus lourd. Je trouve beaucoup plus
difficile de soutenir la requête de Jack Valenti, directeur de la MPAA
[Motion Picture Association of America], qui demande d'arrêter de
copier les films sous copyright, quand je sais que, si ceci était
accepté, aucun film n'entrerait jamais dans le domaine public (...). Si
l'on voit les sociétés de médias tenter de bloquer tout ce qu'elles
peuvent, je ne trouve pas surprenant que certains usagers réagissent en
mettant en ligne tout ce qu'ils peuvent. Malheureusement, cette
attitude est à son tour contraire aux droits légitimes des auteurs.»

Comment résoudre cela pratiquement? «Ceux qui ont des enjeux dans ce
débat doivent faire face à la réalité, et reconnaître que les
producteurs d'oeuvres et leurs usagers ont tous deux des intérêts
légitimes dans l'utilisation de celles-ci. Si la propriété
intellectuelle était négociée au moyen d'un équilibre des principes
plutôt que par le jeu du pouvoir et de l'argent que nous voyons
souvent, il serait peut-être possible d'arriver à un compromis
raisonnable.»



LA PRESSE SE MET EN LIGNE


[Résumé]
Ce qui se passe pour la presse en ligne dans les années 1990 préfigure
ce qui se passera pour le livre en ligne dans les années 2000, d'où
l'intérêt de ce court chapitre. Au début des années 1990, les premières
éditions électroniques de journaux sont disponibles par le biais de
services commerciaux tels que America Online ou CompuServe. Avec
l'apparition du premier navigateur fin 1993 et la croissance rapide du
web qui s'ensuit, nombre de zines non commerciaux proposent une version
électronique ou bien naissent directement sous forme électronique. À
partir de 1995, les grands titres de la presse en ligne lancent leurs
propres sites, très différents selon les titres, et ces sites évoluent
ensuite rapidement.


= L'E-zine-list

Les premiers titres purement électroniques sont des oeuvres courtes,
répertoriées dans l’E-zine-list, une liste créée en été 1993 par John
Labovitz. Abrégé de fanzine ou magazine, un zine est généralement
l’oeuvre d’une personne ou d’un petit groupe. Quant au e-zine, abrégé
de zine électronique, il est uniquement diffusé par courriel ou sur un
site web. Le plus souvent, il ne contient pas de publicité, ne vise pas
un profit commercial et n’est pas dirigé vers une audience de masse.

Comment l’E-zine-list débute-t-elle? Dans l’historique présent sur le
site, John Labovitz relate qu’à l’origine son intention est de faire
connaître Crash, un zine imprimé dont il souhaite faire une version
électronique. À la recherche de répertoires, il ne trouve que le groupe
de discussion Alt.zines et des archives comme The Well et The Etext
Archives. Lui vient alors l’idée d’un répertoire organisé. Il commence
avec douze titres classés manuellement sur un traitement de texte. Puis
il écrit sa propre base de données.

En quatre ans, de 1993 à 1997, les quelques dizaines d'e-zines
deviennent plusieurs centaines, et la signification même d’e-zine
s’élargit pour recouvrir tout type de publication publiée par voie
électronique, même s’«il subsiste toujours un groupe original et
indépendant désormais minoritaire qui continue de publier suivant son
coeur ou de repousser les frontières de ce que nous appelons un e-zine»
(John Labovitz). En été 1998, l’E-zine-list comprend 3.000 titres.


= La presse imprimée

Au début des années 1990, les premières éditions électroniques de
journaux sont disponibles par le biais de services commerciaux tels que
America Online ou CompuServe. Suite à l'apparition du premier
navigateur fin 1993 et à la croissance rapide du web qui s'ensuit, les
organes de presse créent leurs propres sites.

Au Royaume-Uni, le Times et le Sunday Times font web commun sur un site
dénommé Times Online, avec possibilité de créer une édition
personnalisée.

Aux États-Unis, la version en ligne du Wall Street Journal est payante,
avec 100.000 abonnés en 1998. Celle du New York Times est disponible
sur abonnement gratuit. Le Washington Post propose l’actualité
quotidienne en ligne et de nombreux articles archivés, le tout avec
images, sons et vidéos. Pathfinder (rebaptisé ensuite Time) est le site
web du groupe Time-Warner, éditeur de Time Magazine, Sports
Illustrated, Fortune, People, Southern Living, Money, Sunset, etc. On
peut y lire les articles «maison» et les rechercher par date ou par
sujet. Lancé en 1992 en Californie, Wired, premier magazine imprimé
entièrement consacré à la culture cyber, est bien évidemment présent
sur le web.

Mis en ligne en février 1995, le site web du mensuel Le Monde
diplomatique est le premier site d’un périodique imprimé français.
Monté dans le cadre d’un projet expérimental avec l’Institut national
de l’audiovisuel (INA), ce site est inauguré lors du forum des images
Imagina. Il donne accès à l’ensemble des articles depuis janvier 1994,
par date, par sujet et par pays. L’intégralité du mensuel en cours est
consultable gratuitement pendant deux semaines suivant sa parution. Un
forum de discussion permet au journal de discuter avec ses lecteurs.

Fin 1995, le quotidien Libération met en ligne son site web, peu après
le lancement du Cahier Multimédia, un cahier imprimé hebdomadaire
inclus dans l’édition du jeudi. Le site propose la Une du quotidien, la
rubrique Multimédia (qui regroupe les articles du Cahier Multimédia et
les archives des cahiers précédents), le Cahier Livres complété par
Chapitre Un (le premier chapitre des nouveautés retenues par le
quotidien) et bien d’autres rubriques. La rubrique Multimédia est
ensuite rebaptisée Numériques.

Le site du quotidien Le Monde est lancé en 1996. On y trouve des
dossiers en ligne, la Une en version graphique à partir de 13 h,
l’intégralité du journal avant 17 h, l’actualité en liaison avec l’AFP
(Agence France-Presse), et des rubriques sur la Bourse, les livres, le
multimédia et le sport. En 1998, le journal complet en ligne coûte 5 FF
(0,76 euros) alors que l’édition papier coûte 7,50 FF (1,15 euros).
S’ils concernent le multimédia, les articles du supplément imprimé
hebdomadaire Télévision-Radio-Multimédia sont disponibles gratuitement
en ligne dans la rubrique Multimédia, rebaptisée ensuite Nouvelles
technologies.

L’Humanité est le premier quotidien français à proposer la version
intégrale du journal en accès libre. Classés par rubriques, les
articles sont disponibles entre 10 h et 11 h du matin, à l’exception de
L’Humanité du samedi, disponible en ligne le lundi suivant. Tous les
articles sont archivés sur le site.

La presse régionale est tout aussi présente sur le web, par exemple
Dernières nouvelles d’Alsace et Ouest-France.

Lancé en septembre 1995, le site des Dernières nouvelles d’Alsace
propose l’intégrale de l’édition du jour ainsi que des informations
pratiques: cours de la Bourse, calcul des impôts, etc., avec 5.500
visites quotidiennes en juin 1998. Il offre aussi une édition abrégée
en allemand.

Le site web du quotidien Ouest-France est mis en ligne en juillet 1996.
D’abord appelé France-Ouest, le site est ensuite renommé Ouest-France,
du nom du journal.

Quelles sont les retombées de l’internet pour les journalistes? Selon
Bernard Boudic, le responsable éditorial du site, interviewé en juin
1998, «elles sont encore minces. Nous commençons seulement à offrir un
accès internet à chacun (rédaction d’Ouest-France: 370 journalistes
répartis dans soixante rédactions, sur douze départements... pas
simple). Certains utilisent internet pour la messagerie électronique
(courrier interne ou externe, réception de textes de correspondants à
l’étranger, envoi de fichiers divers) et comme source d’informations.
Mais cette pratique demande encore à s’étendre et à se généraliser.
Bien sûr, nous réfléchissons aussi à tout ce qui touche à l’écriture
multimédia et à sa rétro-action sur l’écriture imprimée, aux
changements d’habitudes de nos lecteurs, etc. (...) Internet est à la
fois une menace et une chance. Menace sur l’imprimé, très certainement
(captation de la pub et des petites annonces, changement de réflexes
des lecteurs, perte du goût de l’imprimé, concurrence d’un média
gratuit, que chacun peut utiliser pour diffuser sa propre info, etc.).
Mais c’est aussi l’occasion de relever tous ces défis, de rajeunir la
presse imprimée.»

Tous sujets que l'on retrouve quelques années plus tard dans les débuts
du livre numérique: rapport accru de l'auteur avec ses lecteurs,
nécessité d'une formation technique, version payante et/ou version
gratuite, version numérique et/ou version imprimée, etc.



AMAZON.COM


[Résumé]
Amazon.com est lancé en juillet 1995 par Jeff Bezos à Seattle, sur la
côte ouest des États-Unis. La librairie en ligne débute avec dix
salariés et trois millions d’articles, et devient vite un géant du
commerce électronique. Cinq ans plus tard, en novembre 2000, Amazon
compte 7.500 salariés, 28 millions d’articles, 23 millions de clients
et quatre filiales au Royaume-Uni (filiale ouverte en octobre 1998), en
Allemagne (filiale ouverte à la même date), en France (filiale ouverte
en août 2000) et au Japon (filiale ouverte en novembre 2000). Une
cinquième filiale est ouverte au Canada (en juin 2002), suivie d’une
sixième filiale, Joyo, en Chine (en septembre 2004). Présent dans sept
pays et devenu une référence mondiale du commerce en ligne (avec eBay),
Amazon fête ses dix ans d’existence en juillet 2005, avec 9.000
salariés et 41 millions de clients.


= Aux États-Unis

# Les débuts

Un nouveau type de librairie naît sur le web au milieu des années 1990.
Ces librairies n’ont ni murs, ni vitrine, ni enseigne sur la rue, et
toutes leurs transactions se font via l'internet. C’est le cas
d’Amazon.com qui, sous la houlette de Jeff Bezos, ouvre ses portes
«virtuelles» en juillet 1995 avec un catalogue de trois millions de
livres et dix salariés basés à Seattle, dans l’État de Washington, sur
la côte ouest des États-Unis.

Quinze mois auparavant, au printemps 1994, Jeff Bezos fait une étude de
marché pour décider du meilleur «produit» à vendre sur l’internet. Dans
sa liste de vingt produits marchands, qui comprennent entre autres les
vêtements et les instruments de jardinage, les cinq premiers du
classement se trouvent être les livres, les CD, les vidéos, les
logiciels et le matériel informatique.

«J’ai utilisé tout un ensemble de critères pour évaluer le potentiel de
chaque produit», relate Jeff Bezos en 1997 dans le kit de presse
d’Amazon. «Le premier critère a été la taille des marchés existants.
J’ai vu que la vente des livres représentait un marché mondial de 82
milliards de dollars US. Le deuxième critère a été la question du prix.
Je voulais un produit bon marché. Mon raisonnement était le suivant:
puisque c’était le premier achat que les gens allaient faire en ligne,
il fallait que la somme à payer soit modique. Le troisième critère a
été la variété dans le choix: il y avait trois millions de titres pour
les livres alors qu’il n’y avait que 300.000 titres pour les CD, par
exemple.»

# L'expansion

Au printemps 1997, Amazon.com – que tout le monde appelle désormais
Amazon - décide de s'inspirer du système d'«associés» en ligne lancé
quelques mois auparavant par l'Internet Bookshop, grande librairie en
ligne britannique. Tout possesseur d'un site web peut vendre des livres
appartenant au catalogue d'Amazon et toucher un pourcentage de 15% sur
les ventes. L'«associé(e)» sélectionne les titres du catalogue qui
l'intéressent, en fonction de ses centres d'intérêt, et rédige ses
propres résumés. Amazon reçoit les commandes par son intermédiaire,
expédie les livres, rédige les factures et lui envoie un rapport
hebdomadaire d'activité avec le règlement correspondant. Au printemps
1998, le réseau d'Amazon compte plus de 30.000 sites affiliés.

À la même date, outre les livres, on trouve aussi des CD, des DVD, des
jeux informatiques, etc., avec un catalogue qui serait au moins dix
fois supérieur à celui des plus grandes chaînes de supermarchés. On
peut consulter le catalogue à l’écran, lire le résumé des livres
choisis ou même des extraits, puis passer sa commande en ligne. Très
attractif, le contenu éditorial du site change quotidiennement et se
veut un magazine littéraire en ligne, avec des conseils de lecture, des
articles émanant de journalistes connus (qui travaillaient auparavant
dans la presse imprimée), des entretiens avec des auteurs et des
commentaires de lecteurs.

L'évolution rapide d'Amazon en tant que pionnier d’un nouveau modèle
économique est suivie de près par des analystes de tous bords, tout
comme sa popularité auprès d'un public qui s'habitue aux achats en
ligne. En 1998, avec 1,5 million de clients dans 160 pays et une très
bonne image de marque, Amazon est régulièrement cité comme un symbole
de réussite dans le cybercommerce. Si la librairie en ligne est
toujours déficitaire, sa cotation boursière est excellente suite à une
introduction à la Bourse de New York en mai 1997.

Avant qu'Amazon n'assoie définitivement sa suprématie nationale, la
librairie en ligne se lance dans une guerre des prix avec son principal
concurrent aux États-Unis, Barnes & Noble.com, à la grande joie des
clients qui profitent de cette course aux rabais pour faire une
économie de 20 à 40% sur certains titres.

Contrairement à Amazon, librairie uniquement «virtuelle», Barnes &
Noble.com s'appuie sur sa chaîne de librairies traditionnelles Barnes &
Noble (B&N) qui, en 1997, comprend 480 librairies «en dur» réparties
dans tout le pays. Barnes & Noble crée sa librairie en ligne en mai
1997, en partenariat avec le géant des médias allemand Bertelsmann,
mais rachètera la part détenue par Bertelsmann (36,8%) en juillet 2003
pour 164 millions de dollars US.


= En Europe

La présence européenne d’Amazon débute en octobre 1998, avec les deux
premières filiales implantées simultanément en Allemagne et au Royaume-
Uni.

En août 2000, Amazon compte 1,8 million de clients au Royaume-Uni, 1,2
million de clients en Allemagne et quelques centaines de milliers de
clients en France. La librairie en ligne ouvre sa troisième filiale
européenne, Amazon France, avec livres, musique, DVD et vidéos
(auxquels viennent s'ajouter logiciels et jeux vidéos en juin 2001), et
livraison en 48 heures. À cette date, la vente de livres en ligne en
France ne représente que 0,5% du marché du livre, contre 5,4% aux
États-Unis.

Préparée dans le plus grand secret, l'ouverture d'Amazon France n'est
rendue publique que le 23 août 2000. Avec une centaine de salariés,
dont certains ont été envoyés en formation au siège du groupe à
Seattle, la filiale française s'installe à Guyancourt, en région
parisienne, pour l'administration, les services techniques et le
marketing. Son service de distribution est basé à Boigny-sur-Bionne,
dans la banlieue d'Orléans. Son service clients est basé à La Haye, aux
Pays-Bas, dans l'optique d'une expansion future d'Amazon en Europe.

Amazon France compte au moins quatre rivaux de taille dans l'hexagone:
Fnac.com, Alapage, Chapitre.com et BOL.fr.

Le service en ligne Fnac.com s'appuie sur le réseau des librairies
Fnac, réparti sur toute la France et dans quelques autres pays
européens, et qui appartient au groupe Pinault-Printemps-Redoute.

Alapage, librairie en ligne fondée en 1996 par Patrice Magnard, rejoint
le groupe France Télécom en septembre 1999 puis devient en juillet 2000
une filiale à part entière de Wanadoo, le fournisseur d’accès internet
de France Télécom.

Chapitre.com est une librairie en ligne indépendante créée en 1997 par
Juan Pirlot de Corbion.

BOL.fr est la succursale française de BOL.com (BOL signifiant:
Bertelsmann On Line), lancée en août 1999 par Bertelsmann, géant
allemand des médias, en partenariat avec la multinationale française
Vivendi.

Un mois après son lancement en août 2000, Amazon.fr est à la seconde
place des sites de biens culturels français. Selon les chiffres publiés
le 24 octobre 2000 par Media Metrix Europe, société d'étude d'audience
de l'internet, le site  reçoit 217.000 visites uniques en septembre
2000, juste devant Alapage (209.000 visites) mais loin derrière
Fnac.com (401.000 visites). Suivent Cdiscount.com (115.000 visites) et
BOL.fr (74.000 visites).

Contrairement à leurs homologues anglophones, les librairies en ligne
françaises ne peuvent se permettre les réductions substantielles
proposées par celles des États-Unis ou du Royaume-Uni, pays dans
lesquels le prix du livre est libre. Si la loi française sur le prix
unique du livre (dénommée loi Lang, du nom du ministre à l'origine de
cette loi) leur laisse peu de latitude, à savoir un rabais de 5%
seulement sur ce prix, les librairies en ligne sont toutefois
optimistes sur les perspectives d’un marché francophone international.
Dès 1997, un nombre significatif de commandes provient de l’étranger,
par exemple 10% des commandes pour le service en ligne de la Fnac.

Interrogé par l'AFP (Agence France-Presse) au sujet de la loi Lang,
Denis Terrien, président d'Amazon France (jusqu'en mai 2001), répond en
août 2000: «L'expérience que nous avons en Allemagne, où le prix du
livre est fixe, nous montre que le prix n'est pas l'élément essentiel
dans la décision d'achat. C'est tout le service qui est ajouté qui
compte. Chez Amazon, nous avons tout un tas de services en plus,
d'abord le choix - nous vendons tous les produits culturels français.
On a un moteur de recherche très performant. En matière de choix de
musique, on est ainsi le seul site qui peut faire une recherche par
titre de chanson. Outre le contenu éditorial, qui nous situe entre un
magasin et un magazine, nous avons un service client 24 heures/24 7
jours/7, ce qui est unique sur le marché français. Enfin une autre
spécificité d'Amazon, c'est le respect de nos engagements de livraison.
On s'est fixé pour objectif d'avoir plus de 90% de nos ventes en
stock.»

Admiré par beaucoup, le modèle économique d’Amazon a toutefois de
nombreux revers en matière de gestion du personnel, avec des contrats
de travail précaires, de bas salaires et des conditions de travail
laissant à désirer.

Malgré la discrétion d'Amazon à ce sujet, les problèmes commencent à
filtrer. En novembre 2000, le Prewitt Organizing Fund et le syndicat
SUD-PTT Loire Atlantique débutent une action de sensibilisation auprès
des salariés d'Amazon France pour de meilleures conditions de travail
et des salaires plus élevés. Ils rencontrent une cinquantaine de
salariés travaillant dans le centre de distribution de Boigny-sur-
Bionne. SUD-PTT dénonce dans un communiqué «des conditions de travail
dégradées, la flexibilité des horaires, le recours aux contrats
précaires dans les périodes de flux, des salaires au rabais, et des
garanties sociales minimales». Une action similaire est menée dans les
succursales d'Amazon en Allemagne et en Grande-Bretagne. Patrick Moran,
responsable du Prewitt Organizing Fund, entend constituer une alliance
des salariés de la nouvelle économie sous le nom d'Alliance of New
Economy Workers (Alliance des travailleurs de la nouvelle économie). De
son côté, Amazon riposte en diffusant des documents internes sur
l'inutilité de syndicats au sein de l'entreprise.

Fin janvier 2001, la société, qui emploie 1.800 personnes en Europe,
annonce une réduction de 15% des effectifs et la fermeture du service
clientèle de La Hague (Pays-Bas). Les 240 personnes qu'emploie ce
service sont transférées dans les centres de Slough (Royaume-Uni) et
Regensberg (Allemagne).


= Dans le monde

Le deuxième groupe de clients étrangers (après les clients européens)
est la clientèle japonaise. Lors d'un colloque international sur les
technologies de l'information à Tokyo en juillet 2000, Jeff Bezos
annonce son intention prochaine d'implanter Amazon au Japon. Il insiste
aussi sur le marché à fort potentiel représenté par ce pays, avec des
prix immobiliers élevés se répercutant sur ceux des biens et services,
si bien que le shopping en ligne est plus avantageux que le shopping
traditionnel. La densité de la population entraîne des livraisons à
domicile faciles et peu coûteuses.

Un centre d'appels est ouvert en août 2000 dans la ville de Sapporo,
sur l'île d'Hokkaido. La filiale japonaise débute ses activités trois
mois plus tard, en novembre 2000. Amazon Japon, quatrième filiale du
géant américain et première filiale non européenne, ouvre ses portes
avec un catalogue de 1,1 million de titres en japonais et 600.000
titres en anglais. Pour réduire les délais de livraison et proposer des
délais de 24 à 48 heures au lieu des six semaines nécessaires à
l'acheminement des livres depuis les États-Unis, un centre de
distribution de 15.800 m2 est créé dans la ville d'Ichikawa, située à
l'est de Tokyo.

En novembre 2000, entre la maison-mère et les quatre filiales, la
société compte 7.500 salariés, 28 millions d’articles et 23 millions de
clients.

À la même date, Amazon débute l'embauche de personnel francophone
connaissant le marché canadien, dans le but de lancer une antenne
canadienne française avec vente de livres, musique et films (VHS et
DVD). Amazon Canada, cinquième filiale de la société, verra le jour en
juin 2002, avec un site bilingue anglais-français.

Toujours en novembre 2000, Amazon ouvre sa librairie numérique, avec
1.000 titres disponibles au départ, et une augmentation rapide des
collections prévue les mois suivants.

Même pour le marketing d'une grande librairie en ligne, le papier n'est
pas mort, loin s'en faut. Pour la deuxième année consécutive, en
prévision des fêtes de l'année 2000, Amazon envoie un catalogue imprimé
à 10 millions de clients.

L'année 2001 marque un tournant dans les activités d'Amazon, qui doit
faire face aux secousses de la «nouvelle» économie affectant les
entreprises internet.

Suite à un quatrième trimestre déficitaire en 2000, un plan de
réduction de 15% des effectifs entraîne 1.300 licenciements aux États-
Unis et 270 licenciements en Europe fin janvier 2001.

Amazon opte aussi pour une plus grande diversification de ses produits
et décide de vendre non seulement des livres, des vidéos, des CD et des
logiciels, mais aussi des produits de santé, des jouets, des appareils
électroniques, des ustensiles de cuisine et des outils de jardinage. En
novembre 2001, la vente des livres, disques et vidéos ne représente
plus que 58% du chiffre d’affaires global, qui est de 4 milliards de
dollars US, avec 29 millions de clients.

La société devient bénéficiaire au troisième trimestre 2003, pour la
première fois depuis sa création.

En octobre de la même année, Amazon lance un service de recherche plein
texte (Search Inside the Book) après avoir scanné le texte intégral de
120.000 titres, un nombre promis à une croissance rapide. Amazon lance
aussi son propre moteur de recherche A9.com.

Une sixième filiale est ouverte en Chine sous le nom de Joyo en
septembre 2004.

En 2004, le bénéfice net d’Amazon est de 588 millions de dollars US,
dont 45% généré par ses six filiales, avec un chiffre d’affaires de 6,9
milliards de dollars.

Présent dans sept pays (États-Unis, Canada, Royaume-Uni, Allemagne,
France, Japon, Chine) et devenu une référence mondiale du commerce en
ligne, Amazon fête ses dix ans d’existence en juillet 2005, avec 9.000
salariés et 41 millions de clients attirés par des produits culturels,
high-tech et autres à des prix attractifs et une livraison en 48 heures
maximum dans les pays hébergeant une plateforme Amazon.

Amazon poursuit ensuite sa croissance, vend de plus en plus de livres
numériques après avoir racheté la société Mobipocket en avril 2005, et
lance sa tablette de lecture, le Kindle, en novembre 2007, avec un
catalogue de 80.000 ebooks. 538.000 tablettes sont vendues en 2008.
Deux autres modèles, le Kindle 2 et le Kindle DX (avec un écran plus
grand), sont lancés respectivement en février et mai 2009.

En janvier 2009, Amazon rachète la société Audible.com et sa collection
de livres, journaux et magazines audio, à savoir 80.000 titres
téléchargeables sur baladeur, téléphone mobile et smartphone. Le
catalogue d'Amazon comptabiliserait 450.000 ebooks en mars 2010.


= Et les petites librairies?

Qu'en est-il des petites librairies, générales et spécialisées? Ces
librairies se débrouillent au mieux avec des moyens limités, comme la
librairie Ulysse, sise au coeur de Paris, dans l’île Saint-Louis, tout
en se faisant peu d'illusions sur le raz-de-marée qui est en train de
les emporter.

Créée en 1971 par Catherine Domain, la librairie Ulysse est la première
librairie au monde uniquement consacrée au voyage. Ses 20.000 livres,
cartes et revues neufs et d’occasion recèlent des documents
introuvables ailleurs. À la fois libraire et grande voyageuse,
Catherine Domain est membre du Syndicat national de la librairie
ancienne et moderne (SLAM), du Club des explorateurs et du Club
international des grands voyageurs.

En 1999, elle décide de se lancer dans un voyage autrement plus ingrat,
virtuel cette fois-ci, à savoir la réalisation d’un site web en
autodidacte. «Mon site est embryonnaire et en construction», raconte-t-
elle en novembre 2000. «Il se veut à l’image de ma librairie, un lieu
de rencontre avant d’être un lieu commercial. Il sera toujours en
perpétuel devenir! Internet me prend la tête, me bouffe mon temps et ne
me rapporte presque rien, mais cela ne m’ennuie pas...»

Elle est toutefois pessimiste sur l’avenir des librairies comme la
sienne. «Internet tue les librairies spécialisées. En attendant d’être
dévorée, je l’utilise comme un moyen d’attirer les clients chez moi, et
aussi de trouver des livres pour ceux qui n’ont pas encore internet
chez eux! Mais j’ai peu d’espoir...»

Dix ans plus tard, Catherine voit l'internet d'un autre oeil. Elle
écrit en avril 2010: «Internet a pris de plus en plus de place dans ma
vie! Il me permet depuis le 1er avril d'être éditeur grâce à de
laborieuses formations Photoshop, InDesign et autres. (...) Quand j'ai
commencé à utiliser l'internet, je ne m'attendais vraiment pas à
devenir éditeur.»  Catherine publie bien entendu des livres de voyage.



LES ÉDITEURS SUR LE RÉSEAU


[Résumé]
À partir de 1996, l’édition électronique creuse son sillon à côté de
l’édition traditionnelle, du fait des avantages qu’elle procure: pas de
stock, coût de fonctionnement moins élevé, diffusion plus facile. Elle
amène aussi un souffle nouveau dans le monde de l’édition, et même une
certaine zizanie. On voit des éditeurs traditionnels vendre directement
leurs titres en ligne, des éditeurs électroniques commercialiser les
versions numérisées de livres publiés par des éditeurs traditionnels,
des libraires numériques vendre les versions numérisées de livres
publiés par des éditeurs partenaires, sans parler des auteurs qui
choisissent de s’auto-éditer sur le web ou de promouvoir eux-mêmes
leurs oeuvres publiées, ou encore de nouvelles plateformes d'édition
littéraire pour découvrir de nouveaux talents.


= Deux éditeurs pilotes

La publication en ligne d’un livre à titre gratuit nuit-elle aux ventes
de la version imprimée ou non? La National Academy Press (NAP) est la
première à prendre un tel risque, dès 1994, avec un pari gagné.

«A première vue, cela paraît illogique», écrit Beth Berselli,
journaliste au Washington Post, dans un article repris par le Courrier
international de novembre 1997. «Un éditeur de Washington, la National
Academy Press (NAP), qui a publié sur internet 700 titres de son
catalogue actuel, permettant ainsi à tout un chacun de lire
gratuitement ses livres, a vu ses ventes augmenter de 17% l’année
suivante. Qui a dit que personne n’achèterait la vache si on pouvait
avoir le lait gratuitement?»

Une politique atypique porte donc ses fruits. Éditeur universitaire, la
National Academy Press (qui devient ensuite la National Academies
Press) publie environ 200 livres par an, essentiellement des ouvrages
scientifiques et techniques et des ouvrages médicaux. En 1994,
l'éditeur choisit de mettre en accès libre sur le web le texte intégral
de plusieurs centaines de livres, afin que les lecteurs puissent les
«feuilleter» à l’écran, comme ils l’auraient fait dans une librairie,
avant de les acheter ensuite si utile.

La NAP est le premier éditeur à se lancer dans un tel pari, une
initiative saluée par les autres maisons d’édition, qui hésitent
cependant à se lancer elles aussi dans l’aventure, et ce pour trois
raisons: le coût excessif qu’entraîne la mise en ligne de milliers de
pages, les problèmes liés au droit d’auteur, et enfin une «concurrence»
entre versions numériques et imprimées, qu’ils estiment nuisible à la
vente de ces dernières.

Dans le cas de la NAP, ce sont les auteurs eux-mêmes qui, pour mieux
faire connaître leurs livres, demandent que ceux-ci soient mis en ligne
sur le site. Pour l’éditeur, le web est un nouvel outil de marketing
face aux 50.000 ouvrages publiés chaque année aux États-Unis. Une
réduction de 20% est accordée pour toute commande effectuée en ligne.
La présence de ces livres sur le web entraîne aussi une augmentation
des ventes par téléphone. En 1998, le site de la NAP propose le texte
intégral d’un millier de titres.

La solution choisie par la NAP est également adoptée dès 1995 par la
MIT Press (MIT: Massachusetts Institute of Technology), qui voit
rapidement ses ventes doubler pour les livres disponibles en version
intégrale sur le web.


= Premiers éditeurs électroniques

# Éditel

En avril 1995, Pierre François Gagnon, poète et essayiste québécois,
décide d’utiliser le numérique pour la réception des textes, leur
archivage et leur diffusion. Il crée Éditel, premier site d’auto-
édition collective de langue française.

En juillet 2000, il relate: «En fait, tout le monde et son père savent
ou devraient savoir que le premier site d’édition en ligne commercial
fut CyLibris [NDLR: créé en août 1996], précédé de loin lui-même, au
printemps de 1995, par nul autre qu’Éditel, le pionnier d’entre les
pionniers du domaine, bien que nous fûmes confinés à l’action
symbolique collective, faute d’avoir les moyens de déboucher jusqu’ici
sur une formule de commerce en ligne vraiment viable et abordable
(...). Nous sommes actuellement trois mousquetaires [NDLR: Pierre
François Gagnon, Jacques Massacrier et Mostafa Benhamza] à développer
le contenu original et inédit du webzine littéraire qui continuera de
servir de façade d’animation gratuite, offerte personnellement par les
auteurs maison à leur lectorat, à d’éventuelles activités d’édition en
ligne payantes, dès que possible au point de vue technico-financier.
Est-il encore réaliste de rêver à la démocratie économique?» Beaucoup
plus tard, Éditel devient un blog littéraire.

# CyLibris

Fondé à Paris en août 1996 par Olivier Gainon, CyLibris (de Cy, cyber
et Libris, livre) est le pionnier francophone de l’édition électronique
commerciale. CyLibris est en effet la première maison d’édition à
utiliser l’internet et le numérique pour publier de nouveaux auteurs
littéraires et quelques auteurs confirmés, dans divers genres:
littérature générale, policiers, science-fiction, théâtre et poésie.
Vendus uniquement sur le web, les livres sont imprimés à la commande et
envoyés directement au client, ce qui permet d’éviter le stock et les
intermédiaires. Des extraits sont disponibles en téléchargement libre.

Pendant son premier trimestre d’activité, CyLibris signe des contrats
avec treize auteurs. Fin 1999, le site compte 15.000 visites
individuelles et 3.500 livres vendus tous exemplaires confondus, avec
une année financièrement équilibrée. En 2001, certains titres sont
également vendus en version imprimée par un réseau de librairies
partenaires, notamment la Fnac, et en version numérique par Mobipocket
et Numilog, pour lecture sur ordinateur ou PDA. En 2003, le catalogue
de CyLibris comprend une cinquantaine de titres.

Olivier Gainon explique en décembre 2000: «CyLibris a été créé d’abord
comme une maison d’édition spécialisée sur un créneau particulier de
l’édition et mal couvert à notre sens par les autres éditeurs: la
publication de premières oeuvres, donc d’auteurs débutants. Nous nous
intéressons finalement à la littérature qui ne peut trouver sa place
dans le circuit traditionnel: non seulement les premières oeuvres, mais
les textes atypiques, inclassables ou en décalage avec la mouvance et
les modes littéraires dominantes. Ce qui est rassurant, c’est que nous
avons déjà eu quelques succès éditoriaux: le grand prix de la SGDL
[Société des gens de lettres] en 1999 pour La Toile de Jean-Pierre
Balpe, le prix de la litote pour Willer ou la trahison de Jérôme Olinon
en 2000, etc. Ce positionnement de "défricheur" est en soi original
dans le monde de l’édition, mais c’est surtout son mode de
fonctionnement qui fait de CyLibris un éditeur atypique.

Créé dès 1996 autour de l’internet, CyLibris a voulu contourner les
contraintes de l’édition traditionnelle grâce à deux innovations: la
vente directe par l’intermédiaire d’un site de commerce sur internet,
et le couplage de cette vente avec une impression numérique en "flux
tendu". Cela permettait de contourner les deux barrières
traditionnelles dans l’édition: les coûts d’impression (et de stockage)
et les contraintes de distribution. Notre système gérait donc des flux
physiques: commande reçue par internet, impression du livre commandé,
envoi par la poste. Je précise que nous sous-traitons l’impression à
des imprimeurs numériques, ce qui nous permet de vendre des livres de
qualité équivalente à celle de l’offset, et à un prix comparable. Notre
système n’est ni plus cher, ni de moindre qualité, il obéit à une
économie différente qui, à notre sens, devrait se généraliser à terme.»

En quoi consiste l’activité d’un éditeur électronique? «Je décrirais
mon activité comme double», explique Olivier Gainon. «D’une part celle
d’un éditeur traditionnel dans la sélection des manuscrits et leur re-
travail (je m’occupe directement de la collection science-fiction),
mais également le choix des maquettes, les relations avec les
prestataires, etc. D’autre part, une activité internet très forte qui
vise à optimiser le site de CyLibris et mettre en oeuvre une stratégie
de partenariat permettant à CyLibris d’obtenir la visibilité qui lui
fait parfois défaut. Enfin, je représente CyLibris au sein du SNE
[NDLR: Syndicat national de l’édition, dont CyLibris fait partie depuis
le printemps 2000]. CyLibris est aujourd’hui une petite structure. Elle
a trouvé sa place dans l’édition, mais est encore d’une économie
fragile sur internet. Notre objectif est de la rendre pérenne et
rentable et nous nous y employons.»

Le site web se veut aussi un carrefour de la petite édition. Il procure
des informations pratiques aux auteurs en herbe: comment envoyer un
manuscrit à un éditeur, ce que doit comporter un contrat d’édition,
comment protéger ses manuscrits, comment tenter sa chance dans des
revues ou concours littéraires, etc.

Par ailleurs, l’équipe de CyLibris lance en mai 1999 CyLibris Infos,
une lettre d’information électronique gratuite dont l’objectif n’est
pas tant de promouvoir les livres de l’éditeur que de présenter
l’actualité de l’édition francophone. Volontairement décalée et souvent
humoristique sinon décapante, la lettre, d’abord mensuelle, paraît deux
fois par mois à compter de février 2000, avec 565 abonnés en octobre
2000. Elle change de nom en février 2001 pour devenir Édition-actu, qui
compte 1.500 abonnés en 2003 avant de laisser place au blog de
CyLibris. CyLibris (à ne pas confondre avec CyberLibris, une autre
société) cesse ses activités éditoriales en 2007.

# 00h00

Lui aussi pionnier de l’édition électronique commerciale, 00h00 (qui se
prononce «zéro heure») fait son apparition en mai 1998, un peu moins de
deux ans après CyLibris. Mais le champ d’investigation de 00h00 est
quelque peu différent, en tant que premier éditeur en ligne. Son
activité est en effet de vendre des livres numériques via l'internet,
et non des livres imprimés comme CyLibris. En 2000, les versions
numériques (au format PDF) représentent 85% des ventes, les 15%
restants étant des versions imprimées à la demande du client, un
service que l'éditeur procure en complément.

00h00 est fondé par Jean-Pierre Arbon et Bruno de Sa Moreira,
respectivement ancien directeur général de Flammarion et ancien
directeur de Flammarion Multimédia. Bruno de Sa Moreira explique en
juillet 1998: «Aujourd’hui mon activité professionnelle est 100% basée
sur internet. Le changement ne s’est pas fait radicalement, lui, mais
progressivement (audiovisuel puis multimédia puis internet). (…) La
gestation du projet a duré un an: brainstorming, faisabilité, création
de la société et montage financier, développement technique du site et
informatique éditoriale, mise au point et production des textes et
préparation du catalogue à l’ouverture. (...) Nous faisons un pari,
mais l’internet me semble un média capable d’une très large
popularisation, sans doute grâce à des terminaux plus faciles d’accès
que le seul micro-ordinateur.»

«La création de 00h00 marque la véritable naissance de l’édition en
ligne», lit-on sur le site web en 1999. «C’est en effet la première
fois au monde que la publication sur internet de textes au format
numérique est envisagée dans le contexte d’un site commercial, et
qu’une entreprise propose aux acteurs traditionnels de l’édition
(auteurs et éditeurs) d’ouvrir avec elle sur le réseau une nouvelle
fenêtre d’exploitation des droits. Les textes offerts par 00h00 sont
soit des inédits, soit des textes du domaine public, soit des textes
sous copyright dont les droits en ligne ont fait l’objet d’un accord
avec leurs ayants droit. (…) Avec l’édition en ligne émerge
probablement une première vision de l’édition au 21e siècle. C’est
cette idée d’origine, de nouveau départ qui s’exprime dans le nom de
marque, 00h00. (…)

Internet est un lieu sans passé, où ce que l’on fait ne s’évalue pas
par rapport à une tradition. Il y faut inventer de nouvelles manières
de faire les choses. (...) Le succès de l’édition en ligne ne dépendra
pas seulement des choix éditoriaux: il dépendra aussi de la capacité à
structurer des approches neuves, fondées sur les lecteurs autant que
sur les textes, sur les lectures autant que sur l’écriture, et à rendre
immédiatement perceptible qu’une aventure nouvelle a commencé.»

Les collections sont très diverses: inédits, théâtre classique
français, contes et récits fantastiques, contes et récits
philosophiques, souvenirs et mémoires, philosophie classique, réalisme
et naturalisme, cyberculture, romans d’enfance, romans d’amour,
nouvelles et romans d’aventure. Le recherche est possible par auteur,
par titre et par genre. Pour chaque livre, on a un descriptif court, un
descriptif détaillé, la table des matières et une courte présentation
de l’auteur. S’y ajoutent ensuite les commentaires des lecteurs. Pas de
stock, pas de contrainte physique de distribution, mais un lien direct
avec le lecteur et entre les lecteurs. Sur le site, les
internautes/lecteurs peuvent créer leur espace personnel pour y rédiger
leurs commentaires, participer à des forums ou recommander des liens
vers d’autres sites. Ils peuvent s’abonner à la lettre d’information de
00h00 pour être tenus au courant des nouveautés. L'éditeur produit
aussi des clips littéraires pour présenter certains des ouvrages
publiés.

En 2000, le catalogue comprend 600 titres, qui comprennent une centaine
d’oeuvres originales et des rééditions électroniques de livres publiés
par d’autres éditeurs. Les oeuvres originales sont réparties en
plusieurs collections: nouvelles écritures interactives et
hypertextuelles, premiers romans, documents d’actualité, études sur les
NTIC (nouvelles technologies de l’information et de la communication),
co-éditions avec des éditeurs traditionnels ou de grandes institutions.
Le paiement est effectué en ligne grâce à un système sécurisé mis en
place par la Banque populaire. Ceux que le paiement en ligne rebute
peuvent régler leur commande par carte bancaire (envoi par fax) ou par
chèque (envoi par courrier postal).

En septembre 2000, 00h00 est racheté par Gemstar-TV Guide
International, société américaine spécialisée dans les produits et
services numériques pour les médias. Quelques mois auparavant, en
janvier 2000, Gemstar rachète les deux sociétés californiennes ayant
lancé les premières tablettes de lecture, NuvoMedia, créatrice du
Rocket eBook, et SoftBook Press, créatrice du SoftBook Reader. Selon un
communiqué de Henry Yuen, président de Gemstar, «les compétences
éditoriales dont dispose 00h00 et ses capacités d’innovation et de
créativité sont les atouts nécessaires pour faire de Gemstar un acteur
majeur du nouvel âge de l’édition numérique qui s’ouvre en Europe.» La
communauté francophone ne voit pas ce rachat d’un très bon oeil, la
mondialisation de l’édition semblant justement peu compatible avec
l’innovation et la créativité. Moins de trois ans plus tard, en juin
2003, 00h00 cesse définitivement ses activités, tout comme la branche
eBook de Gemstar et les tablettes lancées depuis.

Il reste le souvenir d’une belle aventure. En octobre 2006, Jean-Pierre
Arbon, devenu chanteur, raconte sur son site: «J’avais fondé, avec
Bruno de Sa Moreira, une maison d’édition d’un genre nouveau, la
première au monde à tenter à grande échelle l’aventure de l’édition en
ligne. Tout était à faire, à inventer. L’édition numérique était terra
incognita: on explorait, on défrichait.»


= Éditeurs traditionnels et technologies

# L'exemple du Choucas, éditeur indépendant

Fondé en 1992 par Nicolas et Suzanne Pewny, alors libraires en Haute-
Savoie, Le Choucas est une petite maison d’édition spécialisée dans les
romans policiers, la littérature, la photographie et les livres d’art.

En juin 1998, Nicolas Pewny raconte: «Le site des éditions du Choucas a
été créé fin novembre 1996. Lorsque je me suis rendu compte des
possibilités qu’internet pouvait nous offrir, je me suis juré que nous
aurions un site le plus vite possible. Un petit problème: nous n’avions
pas de budget pour le faire réaliser. Alors, au prix d’un grand nombre
de nuits sans sommeil, j’ai créé ce site moi-même et l’ai fait
référencer (ce n’est pas le plus mince travail). Le site a alors évolué
en même temps que mes connaissances (encore relativement modestes) en
la matière et s’est agrandi, et a commencé à être un peu connu même
hors France et Europe.

Le changement qu’internet a apporté dans notre vie professionnelle est
considérable. Nous sommes une petite maison d’édition installée en
province. Internet nous a fait connaître rapidement sur une échelle que
je ne soupçonnais pas. Même les médias "classiques" nous ont ouvert un
peu leur portes grâce à notre site. Les manuscrits affluent par le
courrier électronique. Ainsi nous avons édité deux auteurs québécois
[NDLR: Fernand Héroux et Liz Morency, auteurs de Affaire de coeurs,
paru en septembre 1997]. Beaucoup de livres se réalisent (corrections,
illustrations, envoi des documents à l’imprimeur) par ce moyen. Dès le
début du site nous avons reçu des demandes de pays où nous ne sommes
pas (encore) représentés: États-Unis, Japon, Amérique latine, Mexique,
malgré notre volonté de ne pas devenir un site "commercial" mais
d’information et à "connotation culturelle". (Nous n’avons pas de
système de paiement sécurisé, nous avons juste référencé sur une page
les libraires qui vendent en ligne.)»

Comment Nicolas voit-il l'avenir? «J’aurais tendance à répondre par
deux questions: Pouvez vous me dire comment va évoluer internet?
Comment vont évoluer les utilisateurs? Nous voudrions bien rester aussi
peu "commercial" que possible et augmenter l’interactivité et le
contact avec les visiteurs du site. Y réussirons-nous? Nous avons déjà
reçu des propositions qui vont dans un sens opposé. Nous les avons
mises "en veille". Mais si l’évolution va dans ce sens, pourrons-nous
résister, ou trouver une "voie moyenne"? Honnêtement, je n’en sais
rien.»

Le Choucas cesse malheureusement ses activités en mars 2001, une
disparition de plus à déplorer chez les petits éditeurs indépendants.
«Comme je le prévoyais, notre distributeur a déposé son bilan», raconte
Nicolas en juin 2001. «Et malheureusement les éditions du Choucas
(ainsi que d’autres éditeurs) ont cessé leur activité éditoriale. Je
maintiens gracieusement le site web pour témoignage de mon savoir-faire
d’éditeur on- et off-line. (...) Je ne regrette pas ces dix années de
lutte, de satisfactions et de malheurs passés aux éditions du Choucas.
J’ai connu des auteurs intéressants dont certains sont devenus des
amis... Maintenant je fais des publications et des sites internet pour
d’autres. En ce moment pour une ONG [organisation non gouvernementale]
internationale caritative; je suis ravi de participer (modestement) à
leur activité à but non lucratif. Enfin on ne parle plus de profit ou
de manque à gagner, c’est reposant.»

Fort de son expérience dans le domaine de la librairie, de l'édition,
de l'internet et du numérique, Nicolas Pewny est maintenant consultant
en édition électronique et met ses compétences au service d'autres
organismes.

# Technologies numériques et éditeurs

Les technologies numériques conduisent les éditeurs scientifiques et
techniques à repenser leur travail et, pour certains, à s’orienter vers
une diffusion en ligne, les tirages imprimés restant toujours possibles
à titre ponctuel. Certaines universités diffusent désormais des manuels
«sur mesure» composés d’un choix de chapitres et d’articles
sélectionnés dans une base de données, auxquels s’ajoutent les
commentaires des professeurs. Pour un séminaire, un très petit tirage
peut être fait à la demande, à partir de documents transmis par voie
électronique à un imprimeur. Quant aux revues spécialisées, certaines
optent pour une publication en ligne complétée par un partenariat avec
une société spécialisée se chargeant des impressions à la demande.

Enseignante-chercheuse à l’École pratique des hautes études (EPHE,
Paris-Sorbonne), Marie-Joseph Pierre écrit en février 2003: «Il me
paraît évident que la publication des articles et ouvrages au moins
scientifiques se fera de plus en plus sous forme numérique, ce qui
permettra aux chercheurs d’avoir accès à d’énormes banques de données,
constamment et immédiatement évolutives, permettant en outre le contact
direct et le dialogue entre les auteurs. Nos organismes de tutelle,
comme le CNRS [Centre national de la recherche scientifique] par
exemple, ont déjà commencé à contraindre les chercheurs à publier sous
ce mode, et incitent fortement les laboratoires à diffuser ainsi leurs
recherches pour qu’elles soient rapidement disponibles. Nos rapports
d’activité à deux et à quatre ans – ces énormes dossiers peineux
résumant nos labeurs – devraient prochainement se faire sous cette
forme. Le papier ne disparaîtra pas pour autant, et je crois même que
la consommation ne diminuera pas... Car lorsqu'on veut travailler sur
un texte, le livre est beaucoup plus maniable. Je m’aperçois dans mon
domaine que les revues qui ont commencé récemment sous forme numérique
commencent à être aussi imprimées et diffusées sur papier dignement
relié. Le passage de l’un à l’autre peut permettre des révisions et du
recul, et cela me paraît très intéressant.»

Infographiste, Marc Autret a derrière lui dix ans de journalisme multi-
tâches et d’hyperformation dans le domaine de l’édition, du multimédia
et du droit d’auteur. Il explique en décembre 2006: «C’est un "socle"
irremplaçable pour mes activités d’aujourd’hui, qui en sont le
prolongement technique. Je suis un "artisan" de l’information et je
travaille essentiellement avec des éditeurs. Ils sont tellement en
retard, tellement étrangers à la révolution numérique, que j’ai du pain
sur la planche pour pas mal d’années. Aujourd’hui je me concentre sur
le conseil, l’infographie, la typographie, le pré-presse et le
webdesign, mais je sens que la part du logiciel va grandir. Des
secteurs comme l’animation 3D, l’automatisation des tâches de
production, l’intégration multi-supports, la base de données et toutes
les technologies issues de XML [eXtensible Markup Language] vont
s’ouvrir naturellement. Les éditeurs ont besoin de ces outils, soit
pour mieux produire, soit pour mieux communiquer. C’est là que je vois
l’évolution, ou plutôt l’intensification, de mon travail.»

Comment Marc voit-il l'avenir de l'ebook? «Sans vouloir faire dans la
divination, je suis convaincu que l’e-book (ou "ebook": impossible de
trancher!) a un grand avenir dans tous les secteurs de la non-fiction.
Je parle ici de livre numérique en termes de "logiciel", pas en terme
de support physique dédié (les conjectures étant plus incertaines sur
ce dernier point). Les éditeurs de guides, d’encyclopédies et
d’ouvrages informatifs en général considèrent encore l’e-book comme une
déclinaison très secondaire du livre imprimé, sans doute parce que le
modèle commercial et la sécurité de cette exploitation ne leur semblent
pas tout à fait stabilisés aujourd’hui. Mais c’est une question de
temps. Les e-books non commerciaux émergent déjà un peu partout et
opèrent d’une certaine façon un défrichage des possibles. Il y a au
moins deux axes qui émergent: (a) une interface de lecture/consultation
de plus en plus attractive et fonctionnelle (navigation, recherche,
restructuration à la volée, annotations de l’utilisateur, quizz
interactif...); (b) une intégration multimédia (vidéo, son, infographie
animée, base de données, etc.) désormais fortement couplée au web.
Aucun livre physique n’offre de telles fonctionnalités. J’imagine donc
l’e-book de demain comme une sorte de wiki cristallisé, empaqueté dans
un format. Quelle sera alors sa valeur propre? Celle d’un livre:
l’unité et la qualité du travail éditorial!»

Concepteur du projet @folio, un projet de tablette de lecture nomade,
Pierre Schweitzer explique en décembre 2006: «La lecture numérique
dépasse de loin, de très loin même, la seule question du "livre" ou de
la presse. Le livre et le journal restent et resteront encore, pour
longtemps, des supports de lecture techniquement indépassables pour les
contenus de valeur ou pour ceux dépassant un seuil critique de
diffusion. Bien que leur modèle économique puisse encore évoluer (comme
pour les "gratuits" la presse grand public), je ne vois pas de
bouleversement radical à l’échelle d’une seule génération. Au-delà de
cette génération, l’avenir nous le dira. On verra bien. Pour autant,
d’autres types de contenus se développent sur les réseaux. Internet
défie l’imprimé sur ce terrain-là: celui de la diffusion en réseau
(dématérialisée = coût marginal nul) des oeuvres et des savoirs. Là où
l’imprimé ne parvient pas à équilibrer ses coûts. Là où de nouveaux
acteurs peuvent venir prendre leur place.

Or, dans ce domaine nouveau, les équilibres économiques et les logiques
d’adoption sont radicalement différents de ceux que l’on connaît dans
l’empire du papier - voir par exemple l’évolution des systèmes de
validation pour les archives ouvertes dans la publication scientifique
ou les modèles économiques émergents de la presse en ligne. Il est donc
vain, dangereux même, de vouloir transformer au forceps l’écologie du
papier - on la ruinerait à vouloir le faire! À la marge, certains
contenus très spécifiques, certaines niches éditoriales, pourraient
être transformées - l’encyclopédie ou la publication scientifique le
sont déjà: de la même façon, les guides pratiques, les livres
d’actualité quasi-jetables et quelques autres segments qui envahissent
les tables des librairies pourraient l’être, pour le plus grand bonheur
des libraires. Mais il n’y a là rien de massif ou brutal selon moi: nos
habitudes de lecture ne seront pas bouleversées du jour au lendemain,
elles font partie de nos habitudes culturelles, elles évoluent
lentement, au fur et à mesure de leur adoption (= acceptation) par les
générations nouvelles.»



LA CONVERGENCE MULTIMÉDIA


[Résumé]
La convergence multimédia entraîne l’unification progressive des
secteurs liés à l’information (imprimerie, édition, presse, conception
graphique, enregistrements sonores, films, etc.) suite à l’utilisation
des techniques de numérisation, avec un processus matériel de
production qui s’en trouve considérablement accéléré. Si certains
secteurs créent de nouveaux emplois, par exemple ceux liés à la
production audio-visuelle, d’autres secteurs sont soumis à des
restructurations drastiques. La convergence multimédia a de nombreux
revers, par exemple des contrats précaires pour les salariés, l’absence
de syndicats pour les télétravailleurs ou le droit d’auteur mis à mal
pour les auteurs, tous sujets débattus lors du Colloque sur la
convergence multimédia organisé en janvier 1997 à Genève (Suisse) par
l'Organisation internationale du travail (OIT).


= Une définition

On peut définir la convergence multimédia comme la convergence de
l’informatique, du téléphone, de la radio et de la télévision dans une
industrie de la communication et de la distribution utilisant les mêmes
inforoutes (appelées aussi autoroutes de l'information).

Plus précisément, de quoi s'agit-il? La numérisation permet de créer,
d’enregistrer, de combiner, de stocker, de rechercher et de transmettre
des textes, des sons et des images par des moyens simples et rapides.
Des procédés similaires permettent le traitement de l’écriture, de la
musique et du cinéma alors que, par le passé, ce traitement était
assuré par des procédés différents sur des supports différents (papier
pour l’écriture, bande magnétique pour la musique, celluloïd pour le
cinéma). De plus, des secteurs distincts comme l’édition (qui produit
des livres) et l’industrie musicale (qui produit des disques)
travaillent ensuite de concert pour produire des CD-ROM.

Ceci n'est pas le premier bouleversement affectant la chaîne de
l’édition. Dans les années 1970, l’imprimerie traditionnelle est
d’abord ébranlée par les machines de photocomposition. Le coût de
l’impression continue ensuite de baisser avec les photocopieurs, les
photocopieurs couleur, les procédés d’impression assistée par
ordinateur et le matériel d’impression numérique. Dans les années 1990,
l’impression est souvent assurée à bas prix par des ateliers de PAO
(publication assistée par ordinateur). Tout contenu est désormais
systématiquement numérisé pour permettre son transfert par voie
électronique.

La numérisation accélère le processus matériel de production. Dans la
presse, alors qu’auparavant le personnel de production devait
dactylographier les textes du personnel de rédaction, les journalistes
envoient désormais directement leurs textes pour mise en page. Dans
l’édition, le rédacteur, le concepteur artistique et l'infographiste
travaillent souvent simultanément au même ouvrage.

On assiste progressivement à la convergence de tous les secteurs liés à
l’information: imprimerie, édition, presse, conception graphique,
enregistrements sonores, films, radiodiffusion, etc.

Si, dans certains secteurs, ce phénomène entraîne de nouveaux emplois,
par exemple ceux liés à la production de films ou de produits audio-
visuels, d'autres secteurs sont soumis à d'inquiétantes
restructurations. Ces problèmes sont suffisamment préoccupants pour
être débattus lors du Colloque sur la convergence multimédia organisé
en janvier 1997 par l'Organisation internationale du travail (OIT) à
Genève.


= Des commentaires

Plusieurs interventions faites au cours de ce colloque soulèvent des
problèmes de fond, dont certains sont toujours d'actualité en 2010.

Bernie Lunzer, secrétaire-trésorier de la Newspaper Guild (États-Unis),
insiste sur les batailles juridiques faisant rage autour des problèmes
de propriété intellectuelle. Ces batailles visent notamment l'attitude
des directeurs de publication, qui amènent les écrivains indépendants à
signer des contrats particulièrement choquants cédant tous leurs droits
au directeur de publication, avec une contrepartie financière ridicule.

Heinz-Uwe Rübenach, de l'Association allemande de directeurs de
journaux (Bundesverband Deutscher Zeitungsverleger), insiste lui aussi
sur la nécessité pour les entreprises de presse de gérer et de
contrôler l'utilisation sur le web des articles de leurs journalistes,
et d'obtenir une contrepartie financière leur permettant de continuer à
investir dans les nouvelles technologies.

Un problème tout aussi préoccupant est celui de la pression constante
exercée sur les journalistes des salles de rédaction, dont le travail
doit être disponible à longueur de journée et non plus seulement en fin
de journée. Ces tensions à répétition sont encore aggravées par un
travail à l'écran pendant huit à dix heures d'affilée. Le rythme de
travail et l'utilisation intensive de l'ordinateur entraînent des
problèmes de sécurité au travail. Après quelques années de ce régime,
des journalistes «craquent» à l'âge de 35 ou 40 ans.

Selon Carlos Alberto de Almeida, président de la Fédération nationale
des journalistes au Brésil (FENAJ: Federação Nacional dos Jornalistas),
les nouvelles technologies étaient censées rationaliser le travail et
réduire sa durée afin de favoriser l'enrichissement intellectuel et les
loisirs. En pratique, les professionnels des médias sont obligés
d'effectuer un nombre d'heures de travail en constante augmentation. La
journée légale de cinq heures est en fait une journée de dix à douze
heures. Les heures supplémentaires ne sont pas payées, comme ne sont
pas payées non plus celles effectuées le week-end par les journalistes
censés être en période de repos.

La numérisation des documents et l'automatisation des méthodes de
travail accélèrent le processus de production mais elles entraînent
aussi une diminution de l'intervention humaine et donc un accroissement
du chômage. Alors qu'auparavant le personnel de production devait
retaper les textes du personnel de rédaction, la mise en page
automatique permet de combiner les deux tâches de rédaction et de
composition.

Etienne Reichel, directeur suppléant de Viscom (Visual Communication),
association suisse pour la communication visuelle, démontre que le
transfert de données via l'internet et la suppression de certaines
phases de production réduisent le nombre d'emplois. Le travail de vingt
typographes est maintenant assuré par six travailleurs qualifiés, alors
que les entreprises de communication visuelle étaient auparavant
génératrices d'emplois. Par contre, l'informatique permet à certains
professionnels de s'installer à leur compte, comme c'est le cas pour
30% des salariés ayant perdu leur emploi suite à la restructuration de
leur entreprise.

Professeur associé en sciences sociales à l’Université d’Utrecht (Pays-
Bas), Peter Leisink précise lui aussi que la rédaction des textes et la
correction des épreuves se font désormais à domicile, le plus souvent
par des travailleurs ayant pris le statut d’indépendants à la suite de
licenciements et de délocalisations ou fusions d’entreprises. «Or cette
forme d’emploi tient plus du travail précaire que du travail
indépendant», explique-t-il, «car ces personnes n’ont que peu
d’autonomie et sont généralement tributaires d’une seule maison
d’édition.»

A part quelques cas particuliers mis en avant par les organisations
d’employeurs, la convergence multimédia entraîne des suppressions
massives d’emplois.

Selon Michel Muller, secrétaire général de la FILPAC (Fédération des
industries du livre, du papier et de la communication) en France, les
industries graphiques françaises ont perdu 20.000 emplois en dix ans.
Entre 1987 et 1996, les effectifs sont passés de de 110.000 à 90.000
salariés. Les entreprises mettent en place des plans sociaux coûteux
pour favoriser le reclassement des personnes licenciées, en créant des
emplois souvent artificiels, alors qu’il aurait été préférable de
financer des études fiables sur la manière d’équilibrer créations et
suppressions d’emplois lorsqu'il était encore temps.

Partout dans le monde, de nombreux postes à faible qualification
technique sont remplacés par des postes exigeant des qualifications
techniques élevées. Les personnes peu qualifiées sont licenciées.
D’autres suivent une formation professionnelle complémentaire, parfois
auto-financée et prise sur leur temps libre, et cette formation
professionnelle ne garantit pas pour autant le réemploi.

Directeur de AT&T, géant des télécommunications aux États-Unis, Walter
Durling insiste sur le fait que les nouvelles technologies ne
changeront pas fondamentalement la situation des salariés au sein de
l'entreprise. L’invention du film n’a pas tué le théâtre et celle de la
télévision n’a pas fait disparaître le cinéma. Les entreprises
devraient créer des emplois liés aux nouvelles technologies et les
proposer à ceux qui sont obligés de quitter d’autres postes devenus
obsolètes.

Des arguments bien théoriques alors que le problème est plutôt celui du
pourcentage. Combien de créations de postes pour combien de
licenciements?

De leur côté, les syndicats préconisent la création d’emplois par
l’investissement, l’innovation, la formation aux nouvelles
technologies, la reconversion des travailleurs dont les emplois sont
supprimés, des conventions collectives équitables, la défense du droit
d’auteur, une meilleure protection des travailleurs dans le secteur
artistique, et enfin la défense des télétravailleurs en tant que
travailleurs à part entière.



LA MUE DES BIBLIOTHÈQUES


[Résumé]
«Qu’il me suffise, pour le moment, de redire la sentence classique: "La
bibliothèque est une sphère dont le centre véritable est un hexagone
quelconque, et dont la circonférence est inaccessible".» Cette citation
de Jorge Luis Borges – issue de La bibliothèque de Babel (1941) -
pourrait tout aussi bien définir la bibliothèque numérique. La
numérisation du patrimoine mondial est en cours, d'abord pour le texte,
et ensuite pour l’image et le son, avec la mise en ligne de centaines
puis de milliers d’oeuvres du domaine public, de publications
littéraires et scientifiques, d’articles, d’images, de bandes sonores
et de films, gratuits ou payants selon les documents. De plus,
certaines bibliothèques utilisent le web pour faire connaître les
joyaux de leurs collections, pendant que d'autres créent des
«cyberespaces» pour leurs usagers, avec des bibliothécaires devenus
cyberthécaires pour les piloter dans leurs recherches et les orienter
sur la toile.


= Des bibliothèques numériques

# De l'imprimé au numérique

La première bibliothèque traditionnelle présente sur le web est la
bibliothèque municipale d’Helsinki (Finlande), qui inaugure son site en
février 1994.  Objectif poursuivi par des générations de
bibliothécaires, la diffusion du livre devient enfin possible à vaste
échelle.

Fondateur de la bibliothèque numérique Athena, Pierre Perroud insiste
en février 1997 sur la complémentarité du texte électronique et du
livre imprimé, dans un article de la revue Informatique-Informations
(Genève). Selon lui, «les textes électroniques représentent un
encouragement à la lecture et une participation conviviale à la
diffusion de la culture», notamment pour l’étude de ces textes et la
recherche textuelle. Ces textes électroniques «sont un bon complément
du livre imprimé - celui-ci restant irremplaçable lorsqu’il s’agit de
lire».  Mais le livre imprimé reste «un compagnon mystérieusement sacré
vers lequel convergent de profonds symboles: on le serre dans la main,
on le porte contre soi, on le regarde avec admiration; sa petitesse
nous rassure autant que son contenu nous impressionne; sa fragilité
renferme une densité qui nous fascine; comme l’homme il craint l’eau et
le feu, mais il a le pouvoir de mettre la pensée de celui-là à l’abri
du Temps.»

Si certaines bibliothèques numériques naissent directement sur le web,
la plupart émanent de bibliothèques traditionnelles. En 1996, la
bibliothèque municipale de Lisieux (Normandie, France) lance la
Bibliothèque électronique de Lisieux, qui offre les versions numériques
d'oeuvres littéraires courtes choisies dans les collections
municipales. En 1997, la Bibliothèque nationale de France (BnF) crée
Gallica qui, dans un premier temps, propose des images et textes du 19e
siècle francophone, à savoir une sélection de 3.000 livres complétée
par un échantillon de la future iconothèque numérique. En 1998, la
Bibliothèque municipale de Lyon met les enluminures de 200 manuscrits
et incunables à la disposition de tous sur son site web. Trois exemples
parmi tant d’autres.

# La numérisation des livres

Qui dit bibliothèque numérique dit numérisation, au moins les premiers
temps, puisque les livres numériques émanent de livres imprimés. Pour
pouvoir être consulté à l’écran, un livre peut être numérisé soit en
mode texte soit en mode image.

La numérisation en mode texte consiste d'abord à patiemment saisir le
livre sur un clavier, page après page, solution souvent adoptée lors de
la constitution des premières bibliothèques numériques, ou alors quand
les documents originaux manquent de clarté, pour les livres anciens par
exemple. Les années passant, la numérisation en mode texte consiste
surtout à scanner le livre en mode image, puis à le convertir en texte
grâce à un logiciel OCR (Optical Character Recognition), avec relecture
éventuelle à l’écran pour corriger le texte obtenu puisqu'un bon
logiciel OCR serait fiable à 99%.

La version informatique du livre ne conserve pas la présentation
originale du livre ou de la page. Le livre devient texte, à savoir un
ensemble de caractères apparaissant en continu à l’écran. A cause du
temps passé au traitement de chaque livre, ce mode de numérisation est
assez long, et donc nettement plus coûteux que la numérisation en mode
image. Dans de nombreux cas, il est toutefois très préférable,
puisqu’il permet l’indexation, la recherche textuelle, l’analyse
textuelle, une étude comparative entre plusieurs textes ou plusieurs
versions du même texte, etc. C’est la méthode utilisée par exemple par
le Projet Gutenberg, fondé dès 1971 et qui propose aujourd'hui la plus
grande bibliothèque numérique au format texte, avec des livres relus et
corrigés deux fois pour être fiables à 99,9% par rapport à la version
imprimée.

La numérisation en mode image consiste à scanner le livre, et
correspond donc à la photographie du livre page après page. La
présentation originale étant conservée, on peut «feuilleter» le livre à
l’écran. La version informatique est en quelque sorte le fac-similé
numérique de la version imprimée. C’est la méthode employée pour les
numérisations à grande échelle, par exemple pour le programme de
numérisation de la Bibliothèque nationale de France (BnF) et la
constitution de sa bibliothèque numérique Gallica. La numérisation en
mode texte est utilisée en complément pour les tables des matières, les
sommaires et les corpus de documents iconographiques, afin de faciliter
la recherche textuelle.

Pourquoi ne pas tout numériser en mode texte? La BnF répond en 2000 sur
le site de Gallica: «Le mode image conserve l’aspect initial de
l’original y compris ses éléments non textuels. Si le mode texte
autorise des recherches riches et précises dans un document et permet
une réduction significative du volume des fichiers manipulés, sa
réalisation, soit par saisie soit par OCR, implique des coûts de
traitement environ dix fois supérieurs à la simple numérisation. Ces
techniques, parfaitement envisageables pour des volumes limités, ne
pouvaient ici être économiquement justifiables au vu des 50.000
documents (représentant presque 15 millions de pages) mis en ligne.»
Dans les années qui suivent, Gallica convertit toutefois nombre de ses
livres du mode image au mode texte pour permettre les recherches
textuelles.

Concepteur de Mot@mot, logiciel de remise en page de fac-similés
numériques, Pierre Schweitzer insiste sur l’utilité des deux modes de
numérisation. «Le mode image permet d’avancer vite et à très faible
coût», explique-t-il en janvier 2001. «C’est important car la tâche de
numérisation du domaine public est immense. Il faut tenir compte aussi
des différentes éditions: la numérisation du patrimoine a pour but de
faciliter l’accès aux oeuvres, il serait paradoxal qu’elle aboutisse à
se focaliser sur une édition et à abandonner l’accès aux autres. Chacun
des deux modes de numérisation s’applique de préférence à un type de
document, ancien et fragile ou plus récent, libre de droit ou non (pour
l’auteur ou pour l’édition), abondamment illustré ou pas. Les deux
modes ont aussi des statuts assez différents: en mode texte ça peut
être une nouvelle édition d’une oeuvre, en mode image c’est une sorte
d’"édition d’édition", grâce à un de ses exemplaires (qui fonctionne
alors comme une fonte d’imprimerie pour du papier). En pratique, le
choix dépend bien sûr de la nature du fonds à numériser, des moyens et
des buts à atteindre. Difficile de se passer d’une des deux façons de
faire.»


= Un exemple: Gallica

# Un laboratoire en ligne

Gallica – bibliothèque numérique de la BnF (Bibliothèque nationale de
France) - est inauguré en octobre 1997 avec des textes et des images du
19e siècle francophone, «siècle de l’édition et de la presse moderne,
siècle du roman mais aussi des grandes synthèses historiques et
philosophiques, siècle scientifique et technique».

À l’époque, le serveur stocke 2.500 livres numérisés en mode image
complétés par les 250 livres numérisés en mode texte de la base
Frantext de l’INaLF (Institut national de la langue française, qui
deviendra plus tard le laboratoire ATILF – Analyse et traitement
informatique de la langue française).

Classés par discipline, ces livres sont complétés par une chronologie
du 19e siècle et des synthèses sur les grands courants en histoire,
sciences politiques, droit, économie, littérature, philosophie,
sciences et histoire des sciences.

Le site propose aussi un échantillon de la future iconothèque
numérique, à savoir le fonds du photographe Eugène Atget, une sélection
de documents sur l’écrivain Pierre Loti, une collection d’images de
l’École nationale des ponts et chaussées - ces images ayant trait aux
grands travaux de la révolution industrielle en France -, et enfin un
choix de livres illustrés de la bibliothèque du Musée de l’Homme.

Fin 1997, Gallica se considère moins comme une banque de données
numérisées que comme un «laboratoire dont l’objet est d’évaluer les
conditions d’accès et de consultation à distance des documents
numériques». Le but est d’expérimenter la navigation dans ces
collections, en permettant le libre parcours du chercheur ou du lecteur
curieux.

Début 1998, Gallica annonce 100.000 volumes et 300.000 images pour la
fin 1999, avec un accroissement rapide des collections ensuite. Sur les
100.000 volumes prévus, qui représenteraient 30 millions de pages
numérisées, plus du tiers concernerait le 19e siècle. Quant aux 300.000
images fixes, la moitié viendrait des départements spécialisés de la
BnF (Estampes et photographie, Manuscrits, Arts du spectacle, Monnaies
et médailles, etc.), et l'autre moitié de collections d’établissements
publics (musées et bibliothèques, Documentation française, École
nationale des ponts et chaussées, Institut Pasteur, Observatoire de
Paris, etc.) ou privés (agences de presse dont Magnum, l’Agence France-
Presse, Sygma, Rapho, etc.).

En mai 1998, la BnF revoit ses espérances à la baisse et modifie
quelque peu ses orientations premières. Jérôme Strazzulla, journaliste
au quotidien Le Figaro, explique dans un article du 3 juin 1998 que la
BnF est «passée d’une espérance universaliste, encyclopédique, à la
nécessité de choix éditoriaux pointus».

Dans le même article, le président de la BnF, Jean-Pierre Angremy,
rapporte la décision du comité éditorial de Gallica: «Nous avons décidé
d’abandonner l’idée d’un vaste corpus encyclopédique de cent mille
livres, auquel on pourrait sans cesse reprocher des trous. Nous nous
orientons aujourd’hui vers des corpus thématiques, aussi complets que
possibles, mais plus restreints. (...) Nous cherchons à répondre, en
priorité, aux demandes des chercheurs et des lecteurs.»

Le premier corpus aura trait aux voyages en France, à savoir des
textes, estampes et photographies du 16e siècle à 1920, avec mise en
ligne prévue en 2000. Les corpus envisagés ensuite concerneront Paris,
les voyages en Afrique des origines à 1920, les utopies et enfin les
mémoires des Académies des sciences de province.

# Une consultation plus aisée

Professeur à l’École pratique des hautes études (EPHE, Paris-Sorbonne)
et adepte depuis toujours de la lecture sur PDA (puis sur smartphone),
Marie-Joseph Pierre raconte en novembre 2002: «Cela m’a pas mal servi
pour mon travail, ou pour mes activités associatives. Je fais par
exemple partie d’une petite société poétique locale, et nous faisons
prochainement un récital poétique. J’ai voulu rechercher des textes de
Victor Hugo, que j’ai maintenant pu lire et même charger à partir du
site de la Bibliothèque nationale de France: c’est vraiment extra.»

En 2003, Gallica rassemble 70.000 ouvrages et 80.000 images allant du
Moyen-Âge au début du 20e siècle, tous documents libres de droits.
Mais, de l’avis de nombreux usagers, les fichiers des livres sont très
lourds puisqu'ils sont numérisés en mode image, et l’accès en est très
long.

Chose tout aussi problématique, la numérisation en mode image
n’autorise pas la recherche textuelle alors que Gallica se trouve être
la plus grande bibliothèque numérique francophone en nombre de titres
disponibles en ligne. La recherche textuelle est toutefois possible
dans les tables des matières, les sommaires et les légendes des corpus
iconographiques, qui sont numérisés en mode texte. Mais seule une
petite collection de livres (1.117 livres en février 2004) est
intégralement numérisée en mode texte, celle de la base Frantext,
intégrée à Gallica.

Tous problèmes auxquels la BnF remédie au fil des mois, avec une
navigation plus aisée et la conversion progressive des livres du mode
image au mode texte grâce à un logiciel OCR, avec possibilité donc de
recherche textuelle.

En février 2005, Gallica compte 76.000 ouvrages. À la même date, la BnF
annonce la mise en ligne prochaine (entre 2006 et 2009) de la presse
française parue entre 1826 et 1944, à savoir 22 titres représentant 3,5
millions de pages.

Début 2006, les premiers journaux disponibles en ligne sont les
quotidiens Le Figaro (fondé en 1826), La Croix (fondée en 1883),
L'Humanité (fondée en 1904) et Le Temps (fondé en 1861 et disparu en
1942).

En décembre 2006, les collections comprennent 90.000 ouvrages numérisés
(fascicules de presse compris), 80.000 images et des dizaines d'heures
de ressources sonores.

# Une diffusion mondiale

En novembre 2007, la BnF annonce la numérisation de 300.000 ouvrages
supplémentaires d'ici 2010, à savoir 45 millions de pages qui seront
accessibles sur son nouveau site, simultanément en mode image et en
mode texte.

Le site compte 3 millions de visites en 2008 et 4 millions de visites
en 2009. On en prévoit le double pour 2010.

En mars 2010, Gallica franchit la barre du million de documents –
livres, manuscrits, cartes, images, périodiques (presse et revues),
fichiers sonores (paroles et musiques) et partitions musicales - dont
la plupart sont accessibles gratuitement sur un site dont l'interface
n'a cessé de s'améliorer au fil des ans.

Si les documents sont en langue française dans leur très grande
majorité, on trouve aussi des documents en anglais, en italien, en
allemand, en latin ou en grec selon les disciplines.

En octobre 2010, Gallica offre 1,2 million de documents, une interface
quadrilingue (français, anglais, espagnol, portugais), la possibilité
de créer un espace personnel, une vignette exportable pour consulter
des images sur son site ou son blog et un lecteur exportable pour y
consulter les livres.

Bruno Racine, président de la BnF, et Steve Balmer, PDG de Microsoft,
signent le 7 avril 2010 un accord pour l'indexation des collections de
Gallica dans Bing, le moteur de recherche de Microsoft, ce qui
permettra une utilisation planétaire des collections et une meilleure
représentation de la langue française et de ses richesses sur une toile
multilingue.


= Du bibliothécaire au cyberthécaire

# En 1999

Piloter les usagers sur l’internet, filtrer et organiser l’information
à leur intention, créer et gérer un site web, rechercher des documents
dans des bases de données spécialisées, telles sont désormais les
tâches de nombreux bibliothécaires. C'est le cas de Peter Raggett à
l'OCDE (Organisation de coopération et de développement économiques) ou
de Bruno Didier à l'Institut Pasteur.

Peter Raggett est sous-directeur (puis directeur) de la Bibliothèque
centrale de l’OCDE, renommée ensuite Centre de documentation et
d'information (CDI).

Située à Paris, l’OCDE regroupe trente pays membres. Au noyau
d’origine, constitué des pays d’Europe de l’Ouest et d’Amérique du
Nord, viennent s’ajouter le Japon, l’Australie, la Nouvelle-Zélande, la
Finlande, le Mexique, la République tchèque, la Hongrie, la Pologne et
la Corée.

Réservée aux fonctionnaires de l’organisation, la bibliothèque permet
la consultation de 60.000 monographies et 2.500 périodiques imprimés.
En ligne depuis 1996, les pages intranet deviennent une source
d’information majeure pour le personnel.

«Je dois filtrer l’information pour les usagers de la bibliothèque, ce
qui signifie que je dois bien connaître les sites et les liens qu’ils
proposent», explique Peter Raggett en août 1999. «J’ai sélectionné
plusieurs centaines de sites pour en favoriser l’accès à partir de
l’intranet de l’OCDE. Cette sélection fait partie du bureau de
référence virtuel proposé par la bibliothèque à l’ensemble du
personnel. Outre de nombreux liens, ce bureau de référence contient des
pages recensant les articles, monographies et sites web correspondant
aux différents projets de recherche en cours à l’OCDE, l’accès en
réseau aux CD-ROM et une liste mensuelle des nouveaux titres.»

Comment Peter voit-il l’avenir de la profession? «L’internet offre aux
chercheurs un stock d’informations considérable. Le problème pour eux
est de trouver ce qu’ils cherchent. Jamais auparavant on n’avait senti
une telle surcharge d’informations, comme on la sent maintenant quand
on tente de trouver un renseignement sur un sujet précis en utilisant
les moteurs de recherche disponibles sur l’internet. A mon avis, les
bibliothécaires auront un rôle important à jouer pour améliorer la
recherche et l’organisation de l’information sur le réseau. Je prévois
aussi une forte expansion de l’internet pour l’enseignement et la
recherche. Les bibliothèques seront amenées à créer des bibliothèques
numériques permettant à un étudiant de suivre un cours proposé par une
institution à l’autre bout du monde. La tâche du bibliothécaire sera de
filtrer les informations pour le public. Personnellement, je me vois de
plus en plus devenir un bibliothécaire virtuel. Je n’aurai pas
l’occasion de rencontrer les usagers, ils me contacteront plutôt par
courriel, par téléphone ou par fax, j’effectuerai la recherche et je
leur enverrai les résultats par voie électronique.»

En 1999, Bruno Didier est bibliothécaire à l’Institut Pasteur (Paris),
une fondation privée dont le but est la prévention et le traitement des
maladies infectieuses par la recherche, l’enseignement et des actions
de santé publique.

Séduit par les perspectives qu’offre le réseau pour la recherche
documentaire, Bruno Didier crée le site web de la bibliothèque en 1996
et devient son webmestre.

«Le site web de la bibliothèque a pour vocation principale de servir la
communauté pasteurienne», relate-t-il en août 1999. «Il est le support
d’applications devenues indispensables à la fonction documentaire dans
un organisme de cette taille: bases de données bibliographiques,
catalogue, commande de documents et bien entendu accès à des
périodiques en ligne. C’est également une vitrine pour nos différents
services, en interne mais aussi dans toute la France et à l’étranger.
Il tient notamment une place importante dans la coopération
documentaire avec les instituts du réseau Pasteur à travers le monde.
Enfin j’essaie d’en faire une passerelle adaptée à nos besoins pour la
découverte et l’utilisation d’internet. (...) Je développe et maintiens
les pages du serveur, ce qui s’accompagne d’une activité de veille
régulière. Par ailleurs je suis responsable de la formation des
usagers, ce qui se ressent dans mes pages. Le web est un excellent
support pour la formation, et la plupart des réflexions actuelles sur
la formation des usagers intègrent cet outil.»

Son activité professionnelle a changé de manière radicale, tout comme
celle de ses collègues. «C’est à la fois dans nos rapports avec
l’information et avec les usagers que les changements ont eu lieu»,
explique-t-il. «Nous devenons de plus en plus des médiateurs, et peut-
être un peu moins des conservateurs. Mon activité actuelle est typique
de cette nouvelle situation: d’une part dégager des chemins d’accès
rapides à l’information et mettre en place des moyens de communication
efficaces, d’autre part former les utilisateurs à ces nouveaux outils.
Je crois que l’avenir de notre métier passe par la coopération et
l’exploitation des ressources communes. C’est un vieux projet
certainement, mais finalement c’est la première fois qu’on dispose
enfin des moyens de le mettre en place.»

# En 2000

En 2000, Bakayoko Bourahima est responsable de la bibliothèque de
l'École nationale supérieure de statistique et d’économie appliquée
(ENSEA) à Abidjan (Côte d'Ivoire). L'ENSEA assure la formation de
statisticiens pour les pays africains d’expression française. Son site
web est mis en ligne en avril 1999 dans le cadre du réseau REFER, un
réseau créé par l’Agence universitaire de la Francophonie (AUF) pour
desservir la communauté scientifique et technique en Afrique, en Asie
et en Europe orientale (24 pays participants en 2002).

Bakayoko Bourahima s’occupe de la gestion de l’information et de la
diffusion des travaux publiés par l’ENSEA. Quel est l'apport de
l’internet dans son travail? «Le service de la bibliothèque travaille à
deux projets d’intégration du web pour améliorer ses prestations»,
relate-t-il en juillet 2000. «J’espère bientôt pouvoir mettre à la
disposition de mes usagers un accès internet pour l’interrogation de
bases de données. Par ailleurs, j’ai en projet de réaliser et de mettre
sur l’intranet et sur le web un certain nombre de services
documentaires (base de données thématique, informations
bibliographiques, service de références bibliographiques, bulletin
analytique des meilleurs travaux d’étudiants...). Il s’agit donc pour
la bibliothèque, si j’obtiens les financements nécessaires pour ces
projets, d’utiliser pleinement l’internet pour donner à notre École un
plus grand rayonnement et de renforcer sa plateforme de communication
avec tous les partenaires possibles. En intégrant cet outil au plan de
développement de la bibliothèque, j’espère améliorer la qualité et
élargir la gamme de l’information scientifique et technique mise à la
disposition des étudiants, des enseignants et des chercheurs, tout en
étendant considérablement l’offre des services de la bibliothèque.»

En 2000, Emmanuel Barthe est documentaliste juridique et responsable
informatique de Coutrelis & Associés, un cabinet d’avocats parisien.
«Les principaux domaines de travail du cabinet sont le droit
communautaire, le droit de l’alimentation, le droit de la concurrence
et le droit douanier», écrit-il en octobre 2000. «Je fais de la saisie
indexation, et je conçois et gère les bases de données internes. Pour
des recherches documentaires difficiles, je les fais moi-même ou bien
je conseille le juriste. Je suis aussi responsable informatique et
télécoms du cabinet: conseils pour les achats, assistance et formation
des utilisateurs. De plus, j’assure la veille, la sélection et le
catalogage de sites web juridiques: titre, auteur et bref descriptif.
Je suis également formateur internet juridique aussi bien à l’intérieur
de mon entreprise qu’à l’extérieur lors de stages de formation.»

# En 2001

En 2001, Anissa Rachef est bibliothécaire et professeur à l’Institut
français de Londres. Présents dans de nombreux pays, les instituts
français sont des organismes officiels proposant des cours de français
et des manifestations culturelles. A Londres, 5.000 étudiants environ
s'inscrivent aux cours chaque année. Inaugurée en mai 1996, la
médiathèque utilise l’internet dès sa création.

«L’objectif de la médiathèque est double», explique Anissa Rachef en
avril 2001. «Servir un public s’intéressant à la culture et la langue
françaises et "recruter" un public allophone en mettant à disposition
des produits d’appel tels que vidéos documentaires, livres audio, CD-
ROM. La mise en place récente d’un espace multimédia sert aussi à
fidéliser les usagers. L’installation d’un service d’information rapide
a pour fonction de répondre dans un temps minimum à toutes sortes de
questions posées via le courrier électronique, ou par fax. Ce service
exploite les nouvelles technologies pour des recherches très
spécialisées. Nous élaborons également des dossiers de presse destinés
aux étudiants et professeurs préparant des examens de niveau
secondaire. Je m’occupe essentiellement de catalogage, d’indexation et
de cotation. (…)

J’utilise internet pour des besoins de base. Recherches
bibliographiques, commande de livres, courrier professionnel, prêt
inter-bibliothèques. C’est grâce à internet que la consultation de
catalogues collectifs, tels SUDOC [Système universitaire de
documentation] et OCLC [Online Computer Library Center], a été
possible. C’est ainsi que j’ai pu mettre en place un service de
fourniture de documents extérieurs à la médiathèque. Des ouvrages
peuvent désormais être acheminés vers la médiathèque pour des usagers
ou bien à destination des bibliothèques anglaises.»


= Des catalogues en réseau

# L'UNIMARC, format bibliographique commun

L’avenir des catalogues informatiques en réseau tient à l’harmonisation
du format MARC (Machine Readable Cataloguing) par le biais de l’UNIMARC
(Universal Machine Readable Cataloguing).

Créé en 1977 par l’IFLA (International Federation of Library
Associations – Fédération internationale des associations de
bibliothèques), le format UNIMARC est un format universel permettant le
stockage et l’échange de notices bibliographiques au moyen d’une
codification des différentes parties de la notice (auteur, titre,
éditeur, etc.) pour traitement informatique.

Ce format favorise les échanges de données entre la vingtaine de
formats MARC existants, qui correspondent chacun à une pratique
nationale de catalogage (INTERMARC en France, UKMARC au Royaume-Uni,
USMARC aux États-Unis, CAN/MARC au Canada, etc.). Les notices dans le
format MARC d’origine sont d’abord converties au format UNIMARC avant
d’être converties à nouveau dans le format MARC de destination. UNIMARC
peut aussi être utilisé comme standard pour le développement de
nouveaux formats MARC.

Dans le monde anglophone, la British Library (qui utilise UKMARC), la
Library of Congress (qui utilise USMARC) et la Bibliothèque nationale
du Canada (qui utilise CAN/MARC) décident d’harmoniser leurs formats
MARC nationaux. Un programme de trois ans, mené entre décembre 1995 et
décembre 1998, permet de mettre au point un format MARC commun aux
trois bibliothèques.

Parallèlement, en 1996, dans le cadre de son Programme des
bibliothèques, la Commission européenne promeut l’utilisation du format
UNIMARC comme format commun d’échange entre tous les formats MARC
utilisés dans les pays de l'Union européenne. Le groupe de travail
correspondant étudie aussi les problèmes posés par les différentes
polices de caractères, et la manière d’harmoniser le format
bibliographique et le format du document lui-même pour les documents
disponibles en ligne.

# WorldCat, catalogue collectif mondial

L’internet facilite la gestion de catalogues collectifs. Le but premier
de ces catalogues est d’éviter de cataloguer à nouveau un document déjà
traité par une bibliothèque partenaire. Si le catalogueur trouve la
notice du livre qu’il est censé cataloguer, il la copie pour l’inclure
dans le catalogue de sa propre bibliothèque. S’il ne trouve pas la
notice, il la crée, et cette notice est aussitôt disponible pour les
catalogueurs officiant dans d'autres bibliothèques.

Outre de nombreux catalogues collectifs régionaux et nationaux, deux
catalogues collectifs mondiaux sont proposés par OCLC (Online Computer
Library Center) et RLG (Research Libraries Group) dès les années 1980.
Vingt ans plus tard, ces deux organismes gèrent de gigantesques bases
bibliographiques alimentées par leurs adhérents, permettant ainsi aux
bibliothèques d’unir leurs forces par-delà les frontières.

Fondé en 1967 dans l’Ohio, un État des États-Unis, OCLC gère d'abord
l’OCLC Online Union Catalog, débuté en 1971 pour desservir les
bibliothèques universitaires de l’Ohio. Ce catalogue collectif s’étend
ensuite à tout le pays, puis au monde entier.

Désormais appelé WorldCat, et disponible sur abonnement payant, il
comprend 38 millions de notices en 370 langues en 1998, avec
translittération pour les caractères non romains des langues JACKPHY, à
savoir le japonais, l'arabe, le chinois, le coréen (Korean en anglais),
le persan, l'hébreu et le yiddish. L’accroissement annuel est de 2
millions de notices. WorldCat utilise huit formats bibliographiques
correspondant aux catégories suivantes: livres, périodiques, documents
visuels, cartes et plans, documents mixtes, enregistrements sonores,
partitions et enfin documents informatiques.

En 2005, 61 millions de notices bibliographiques produites par 9.000
bibliothèques et centres de documentation sont disponibles dans 400
langues. En 2006, 73 millions de notices provenant de 10.000 organismes
dans 112 pays permettent de localiser un milliard de documents. Une
notice type contient la description du document ainsi que des
informations sur son contenu (table des matières, résumé, couverture,
illustrations, courte biographie de l’auteur).

Devenue la plus grande base mondiale de données bibliographiques,
WorldCat migre progressivement sur le web, d’abord en rendant la
consultation des notices possible par le biais de plusieurs moteurs de
recherche (Yahoo!, Google et bien d’autres), puis en lançant en août
2006 une version web (bêta) de WorldCat en accès libre, qui propose non
seulement les notices des documents mais aussi l'accès direct (gratuit
ou payant) aux documents électroniques des bibliothèques membres:
livres du domaine public, articles, photos, livres audio, musique et
vidéos.

Le deuxième catalogue collectif mondial est géré par RLG (Research
Library Group, qui devient ensuite Research Libraries Group). Fondé en
1980 en Californie, avec une antenne à New York, RLG se donne pour but
d’améliorer l’accès à l’information dans le domaine de l’enseignement
et de la recherche. RLG débute son propre catalogue sous le nom de RLIN
(Research Libraries Information Network). Contrairement à WorldCat qui
n'accepte qu'une notice par document, RLIN accepte plusieurs notices
pour un même document.

En 1998, RLIN comprend 82 millions de notices dans 365 langues, avec
des notices translittérées pour les documents publiés dans les langues
JACKPHY et en cyrillique. Des centaines de dépôts d’archives,
bibliothèques de musées, bibliothèques universitaires, bibliothèques
publiques, bibliothèques de droit, bibliothèques techniques,
bibliothèques d’entreprise et bibliothèques d’art utilisent RLIN pour
le catalogage, le prêt inter-bibliothèques et le descriptif de leurs
archives et manuscrits. Une des spécialités de RLIN est l’histoire de
l’art. Alimentée par 65 bibliothèques spécialisées, une section
spécifique comprend 100.000 notices de catalogues d’expositions et
168.500 notices de documents iconographiques (photographies,
diapositives, dessins, estampes et affiches). Cette section inclut
aussi les 110.000 notices de la base bibliographique Scipio, consacrée
aux catalogues de ventes d'objets d'art.

En 2003, RLIN change de nom pour devenir le RLG Union Catalog, qui
comprend désormais 126 millions de notices bibliographiques
correspondant à 42 millions de documents (livres, cartes, manuscrits,
films, bandes sonores, etc.). Au printemps 2004, une version web du
catalogue est disponible en accès libre sous le nom de RedLightGreen,
suite à une phase pilote lancée à l’automne 2003. La mise en ligne de
RedLightGreen inaugure une ère nouvelle. C’est en effet la première
fois qu’un catalogue collectif mondial est en accès libre, trois ans
avant WorldCat. Destiné en premier lieu aux étudiants du premier cycle
universitaire, RedLightGreen propose 130 millions de notices, avec des
informations spécifiques aux bibliothèques d’un campus donné (cote,
lien vers la version en ligne si celle-ci existe, etc.).

Après trois ans d’activité, en novembre 2006, le site RedLightGreen
cesse ses activités, et les usagers sont invités à utiliser WorldCat,
dont la version web (bêta) est en accès libre depuis août 2006. À la
même date, le RLG est intégré à OCLC, qui gère désormais le seul
catalogue collectif mondial. En mars 2010, WorldCat permet de localiser
1,5 milliard de documents et d'avoir directement accès à certains
d'entre eux.



UNE INFORMATION MULTILINGUE


[Résumé]
De pratiquement anglophone à ses débuts, le web, devenu multilingue,
permet une large diffusion des textes électroniques sans contrainte de
frontières. Mais la barrière de la langue est loin d’avoir disparu.
Comme l'écrit si bien en août 1999 Maria Victoria Marinetti, professeur
d’espagnol en entreprise et traductrice, «il est très important de
pouvoir communiquer en différentes langues. Je dirais même que c’est
obligatoire, car l’information donnée sur l'internet est à destination
du monde entier, alors pourquoi ne l’aurions-nous pas dans notre propre
langue ou dans la langue que nous souhaitons utiliser? Information
mondiale, mais pas de vaste choix dans les langues, ce serait
contradictoire, pas vrai?»


= De l'ASCII à l'Unicode

Communiquer dans plusieurs langues implique d’avoir des systèmes de
codage adaptés à nos alphabets ou idéogrammes respectifs.

Le premier système d'encodage informatique est l’ASCII (American
Standard Code for Information Interchange). Publié en 1968 aux États-
Unis par l’ANSI (American National Standards Institute), avec
actualisation en 1977 et 1986, l'ASCII est un code standard de 128
caractères traduits en langage binaire sur sept bits (A est traduit par
«1000001», B est traduit par «1000010», etc.). Les 128 caractères
comprennent 33 caractères de contrôle (qui ne représentent donc pas de
symbole écrit) et 95 caractères imprimables: les 26 lettres sans accent
en majuscules (A-Z) et minuscules (a-z), les chiffres, les signes de
ponctuation et quelques symboles, le tout correspondant aux touches du
clavier anglophone.

L'ASCII permet uniquement la lecture de l’anglais et du latin. Il ne
permet pas de prendre en compte les lettres accentuées présentes dans
bon nombre de langues européennes, et à plus forte raison les langues
non alphabétiques (chinois, japonais, coréen, etc.). Ceci ne pose pas
de problème majeur les premières années, tant que l’échange de fichiers
électroniques se limite essentiellement à l’Amérique du Nord. Mais le
multilinguisme devient bientôt une nécessité vitale. Des variantes de
l’ASCII (norme ISO-8859 ou ISO-Latin) sur huit bits prennent en compte
les caractères accentués de quelques langues européennes. Par exemple,
la variante pour le français est définie par la norme ISO-8859-1 (ISO-
Latin-1).

Cependant le passage de l’ASCII original à ses différentes extensions
devient vite un véritable casse-tête, y compris au sein de l’Union
européenne, les problèmes étant entre autres la multiplication des
variantes, la corruption des données dans les échanges informatiques ou
encore l’incompatibilité des systèmes, les pages ne pouvant être
affichées que dans une seule langue à la fois.

Avec le développement du web, l’échange des données s’internationalise
de plus en plus. On ne peut plus se limiter à l’utilisation de
l’anglais, du latin et de quelques langues européennes «traduites» par
un système d’encodage datant de 1968.

Publié pour la première fois en janvier 1991, l’Unicode est un système
d'encodage «universel» sur 16 bits spécifiant un nombre unique pour
chaque caractère. Ce nombre est lisible quels que soient la plateforme,
le logiciel et la langue utilisés. L’Unicode peut traiter 65.000
caractères uniques et prendre en compte tous les systèmes d’écriture de
la planète. À la grande satisfaction des linguistes, il remplace
progressivement l’ASCII, avec des variantes UTF-8, UTF-16 et UTF-32
(UTF: Unicode Transformation Format) en fonction du nombre de bits
utilisés. Il devient une composante des spécifications du W3C (World
Wide Web Consortium), l'organisme international chargé du développement
du web.

L’utilisation de l’Unicode se généralise à partir de 1998, par exemple
pour les fichiers texte sous plateforme Windows (Windows NT, Windows
2000, Windows XP et versions suivantes), qui étaient jusque-là en
ASCII.

Mais l’Unicode ne peut résoudre tous les problèmes, comme le souligne
en juin 2000 Luc Dall’Armellina, co-auteur et webmestre d’oVosite, un
espace d’écriture hypermédia: «Les systèmes d’exploitation se dotent
peu à peu des kits de langues et bientôt peut-être de polices de
caractères Unicode à même de représenter toutes les langues du monde;
reste que chaque application, du traitement de texte au navigateur web,
emboîte ce pas. Les difficultés sont immenses: notre clavier avec ses ±
250 touches avoue ses manques dès lors qu’il faille saisir des Katakana
ou Hiragana japonais, pire encore avec la langue chinoise. La grande
variété des systèmes d’écriture de par le monde et le nombre de leurs
signes font barrage. Mais les écueils culturels ne sont pas moins
importants, liés aux codes et modalités de représentation propres à
chaque culture ou ethnie.»

Que préconise Olivier Gainon, fondateur de CyLibris et pionnier de
l’édition électronique littéraire? «Première étape: le respect des
particularismes au niveau technique», explique-t-il en décembre 2000.
«Il faut que le réseau respecte les lettres accentuées, les lettres
spécifiques, etc. Je crois très important que les futurs protocoles
permettent une transmission parfaite de ces aspects - ce qui n’est pas
forcément simple (dans les futures évolutions de l’HTML ou des
protocoles IP, etc.). Donc il faut que chacun puisse se sentir à l’aise
avec l’internet et que ce ne soit pas simplement réservé à des (plus ou
moins) anglophones. Il est anormal aujourd’hui que la transmission
d’accents puisse poser problème dans les courriers électroniques. La
première démarche me semble donc une démarche technique. Si on arrive à
faire cela, le reste en découle: la représentation des langues se fera
en fonction du nombre de connectés, et il faudra envisager à terme des
moteurs de recherche multilingues.»


= De l'anglais au plurilinguisme

Après avoir été anglophone à pratiquement 100%, l’internet est encore
anglophone à plus de 80% en 1998, un pourcentage qui s’explique par
trois facteurs: (a) la création d’un grand nombre de sites web émanant
des États-Unis, du Canada et du Royaume-Uni; (b) une proportion
d'usagers particulièrement forte en Amérique du Nord par rapport au
reste du monde; (c) l’usage de l'anglais en tant que principale langue
d’échange internationale.

L’anglais reste en effet prépondérant et ceci n’est pas près de
disparaître. Comme indiqué en janvier 1999 par Marcel Grangier,
responsable de la section française des services linguistiques centraux
de l’Administration fédérale suisse, «cette suprématie n’est pas un mal
en soi, dans la mesure où elle résulte de réalités essentiellement
statistiques (plus de PC par habitant, plus de locuteurs de cette
langue, etc.). La riposte n’est pas de "lutter contre l’anglais" et
encore moins de s’en tenir à des jérémiades, mais de multiplier les
sites en d’autres langues. Notons qu’en qualité de service de
traduction, nous préconisons également le multilinguisme des sites eux-
mêmes. La multiplication des langues présentes sur internet est
inévitable, et ne peut que bénéficier aux échanges multiculturels.»

Yoshi Mikami est informaticien à Fujisawa, au Japon. En décembre 1995,
il lance le site «The Languages of the World by Computers and the
Internet» (Les langues du monde par les ordinateurs et l'internet),
communément appelé Logos Home Page ou Kotoba Home Page. Son site donne
un bref historique de chaque langue, ses caractéristiques, son système
d'écriture, son jeu de caractères et enfin la configuration du clavier
dans la langue donnée. Yoshi Mikami est également co-auteur (avec Kenji
Sekine et Nobutoshi Kohara) de Pour un web multilingue, publié en août
1997 en japonais par les éditions O'Reilly avant d'être traduit en
anglais, en allemand et en français en 1998.

Yoshi explique en décembre 1998: «Ma langue maternelle est le japonais.
Comme j'ai suivi mes études de troisième cycle aux États-Unis et que
j'ai travaillé dans l'informatique, je suis devenu bilingue
japonais/anglais américain. J'ai toujours été intéressé par différentes
langues et cultures, aussi j'ai appris le russe, le français et le
chinois dans la foulée. A la fin de 1995, j'ai créé sur le web le site
"The Languages of the World by Computers and the Internet" et j'ai
tenté de donner - en anglais et en japonais - un bref historique de
toutes ces langues, ainsi que les caractéristiques propres à chaque
langue et à sa phonétique. Suite à l'expérience acquise, j'ai invité
mes deux associés à écrire un livre sur la conception, la création et
la présentation de pages web multilingues, livre qui fut publié en août
1997 [en japonais] sous le titre Pour un web multilingue, le premier
livre au monde sur un tel sujet.»

Comment Yoshi voit-il l'évolution vers un web multilingue? «Il y a des
milliers d'années de cela, en Égypte, en Chine et ailleurs, les gens
étaient plus sensibles au fait de communiquer leurs lois et leurs
réflexions non seulement dans une langue mais dans plusieurs. Dans
notre monde moderne, chaque État a adopté plus ou moins une seule
langue de communication. A mon avis, l'internet verra l'utilisation
plus grande de langues différentes et de pages multilingues (et pas
seulement une gravitation autour de l'anglais américain) et un usage
plus créatif de la traduction informatique multilingue. 99% des sites
web créés au Japon sont en japonais!»

Consultant en marketing internet chez Globalink, une société de
logiciels et services de traduction, Randy Hobler écrit en septembre
1998: «Comme l’internet n’a pas de frontières nationales, les
internautes s’organisent selon d’autres critères propres au médium. En
termes de multilinguisme, vous avez des communautés virtuelles, par
exemple ce que j’appelle les "nations des langues", tous ces
internautes qu’on peut regrouper selon leur langue maternelle quel que
soit leur lieu géographique. Ainsi la nation de la langue espagnole
inclut non seulement les internautes d’Espagne et d’Amérique latine,
mais aussi tous les Hispanophones vivant aux États-Unis, ou encore ceux
qui parlent espagnol au Maroc.»

Bruno Didier, webmestre de la bibliothèque de l’Institut Pasteur, écrit
en août 1999: «Internet n’est une propriété ni nationale, ni
linguistique. C’est un vecteur de culture, et le premier support de la
culture, c’est la langue. Plus il y a de langues représentées dans leur
diversité, plus il y aura de cultures sur internet. Je ne pense pas
qu’il faille justement céder à la tentation systématique de traduire
ses pages dans une langue plus ou moins universelle. Les échanges
culturels passent par la volonté de se mettre à la portée de celui vers
qui on souhaite aller. Et cet effort passe par l’appréhension de sa
langue. Bien entendu c’est très utopique comme propos. Concrètement,
lorsque je fais de la veille, je peste dès que je rencontre des sites
norvégiens ou brésiliens sans un minimum d’anglais.»

Au cours de l'été 2000, les usagers non anglophones dépassent la barre
des 50%. Ce pourcentage continue ensuite d'augmenter, comme le montrent
les statistiques de la société Global Reach, mises à jour à intervalles
réguliers. Le nombre d’usagers non anglophones est de 52,5% en été
2001, 57% en décembre 2001, 59,8% en avril 2002, 64,4% en septembre
2003 (dont 34,9% d’Européens non anglophones et 29,4% d’Asiatiques) et
64,2% en mars 2004 (dont 37,9% d’Européens non anglophones et 33%
d’Asiatiques).


= Des dictionnaires de langues en ligne

# Le Grand dictionnaire terminologique

Le Grand dictionnaire terminologique (GDT) est une initiative majeure
de l'Office québécois de la langue française (OQLF). C'est en effet la
première fois qu'un organisme propose une base terminologique de cette
taille en accès libre sur le web. Mis en ligne en septembre 2000, le
GDT est précédé deux ans plus tôt par Le Signet, une base
terminologique pour les technologies de l'information, dont les 10.000
fiches bilingues français-anglais sont également intégrées au GDT.

Le GDT est un dictionnaire bilingue français-anglais de 3 millions de
termes appartenant au vocabulaire industriel, scientifique et
commercial. Sa mise en ligne est le résultat d'un partenariat entre
l'OQLF, auteur du dictionnaire, et Semantix, société spécialisée dans
les solutions logicielles linguistiques. Événement célébré par de
nombreux linguistes, cette mise en ligne est un succès. Dès le premier
mois, le GDT est consulté par 1,3 million de personnes, avec des
pointes de 60.000 requêtes quotidiennes. La gestion de la base est
ensuite assurée par Convera Canada. En février 2003, les requêtes sont
au nombre de 3,5 millions par mois. Une nouvelle version du GDT est
mise en ligne en mars 2003. Sa gestion est désormais assurée par l'OQLF
lui-même, et non plus par une société prestataire.

# Eurodicautom et IATE

Géré par les services de traduction de la Commission européenne,
Eurodicautom est une base terminologique multilingue de termes
économiques, scientifiques, techniques et juridiques qui permet de
combiner entre elles les onze langues officielles de l’Union européenne
(allemand, anglais, danois, espagnol, finnois, français, grec,
hollandais, italien, portugais, suédois), ainsi que le latin, avec une
moyenne de 120.000 consultations par jour en 2003.

Fin 2003, Eurodicautom annonce son intégration dans une base
terminologique plus vaste regroupant les bases terminologiques de
plusieurs institutions de l’Union européenne, notamment celle du
Parlement européen et celle du Conseil de l'Union européenne. Cette
nouvelle base traiterait non plus douze langues mais une vingtaine, du
fait de l'élargissement prévu de l’Union européenne l'année suivante
vers l'Europe de l'Est.

Un projet de base terminologique commune est évoqué dès 1999 afin de
renforcer la coopération inter-institutionnelle. Les partenaires de ce
projet sont le Parlement européen, le Conseil de l'Union européenne, la
Commission européenne, la Cour de justice, la Cour des comptes
européenne, le Comité économique et social européen, le Comité des
régions, la Banque européenne d'investissement, la Banque centrale
européenne et enfin le Centre de traduction des organes de l'Union
européenne.

La nouvelle base terminologique voit le jour au printemps 2004 sous le
nom de IATE (InterActive Terminology for Europe), d'abord pour un usage
interne dans les institutions de l'Union européenne avant de migrer sur
le web en juin 2007 en tant que service public, avec 1,4 million
d’entrées dans les 23 langues officielles de l'Union européenne, plus
le latin.  L'Union européenne est en effet passée de 15 à 25 pays
membres en mai 2004, pour atteindre 27 pays membres en janvier 2007,
d'où la nécessité de 23 langues officielles au lieu des 11 langues
officielles présentes dans Eurodicautom.

Le site web de IATE est administré par le Centre de traduction des
organes de l'Union européenne à Luxembourg (capitale du pays du même
nom), pour le compte des partenaires du projet. Comme expliqué dans la
brochure mutilingue de IATE, «les termes sont introduits dans la base
de données par les terminologues et les traducteurs de l'Union
européenne sur la base des informations fournies par les traducteurs,
les administrateurs, les juristes-linguistes, les experts et d'autres
sources fiables.» En 2009, IATE comprend 8,4 millions de termes, dont
540.000 abréviations et 130.000 expressions.

# WordReference.com

Le site WordReference.com est lancé en 1999 par Michael Kellogg pour
proposer des dictionnaires bilingues gratuits en ligne. En mars 2010,
Michael relate sur son site: «L'internet a été un incroyable outil ces
dernières années pour rassembler des gens du monde entier. L'un des
principaux obstacles à cela reste bien entendu la langue. Le contenu de
l'internet est pour une grande part en anglais et de très nombreux
usagers lisent ces pages alors que l'anglais est leur deuxième langue
et non leur langue maternelle. De par mes propres expériences avec la
langue espagnole, je sais que de nombreux lecteurs comprennent une
grande partie de ce qu'ils lisent, mais pas la totalité.

J'ai débuté ce site en 1999 pour procurer des dictionnaires bilingues
gratuits en ligne et d'autres outils pour tous sur l'internet. Depuis,
le site s'est progressivement développé pour devenir l'un des sites de
dictionnaires en ligne les plus utilisés, et le principal dictionnaire
en ligne pour les paires de langues anglais-espagnol, anglais-français,
anglais-italien, espagnol-français et espagnol-portugais. Ce site est
toujours classé sans interruption parmi les 500 sites les plus visités
du web. Aujourd'hui, je suis heureux de continuer à améliorer ces
dictionnaires, les autres outils linguistiques du site et les forums de
langues. J'ai vraiment plaisir à créer de nouvelles fonctionnalités
pour rendre ce site de plus en plus utile.»

Les dictionnaires les plus populaires sont le dictionnaire espagnol
(espagnol-anglais et anglais-espagnol), le dictionnaire français et le
dictionnaire italien. On trouve aussi un dictionnaire allemand, un
dictionnaire russe et un dictionnaire monolingue anglais. Des tableaux
de conjugaison sont disponibles pour l'espagnol, le français et
l'italien.

Pour l'anglais, on trouve également des dictionnaires de l'anglais vers
les langues suivantes: arabe, chinois, coréen, grec, japonais,
polonais, portugais, roumain, tchèque et turc, et vice versa.

Pour l'espagnol, en plus des deux dictionnaires d'Espasa Calpe et
d'Oxford complétés par le supplément propre à WordReference.com, on
peut consulter un dictionnaire monolingue espagnol, un dictionnaire
espagnol de synonymes, un dictionnaire espagnol-français et un
dictionnaire espagnol-portugais.

Pour le français et l'italien, outre les dictionnaires d'Oxford,
WordReference.com propose deux dictionnaires qui lui sont propres, à
savoir un dictionnaire français-anglais de 250.000 termes et un
dictionnaire italien-anglais de 200.000 termes.

WordReference.com offre également des forums linguistiques très actifs
et de qualité. Si les gens ont une question sur un usage linguistique
donné, ils peuvent faire une recherche dans les centaines de milliers
de questions précédentes, avant de poser leur propre question dans l'un
des forums si nécessaire, pour être aidés par des gens des quatre coins
du monde.

WordReference Mini est une version miniature du site qui permet son
intégration dans d'autres sites, par exemple des sites d'apprentissage
de langues.

Une version pour appareil mobile est disponible pour plusieurs
dictionnaires: anglais-espagnol, espagnol-anglais, anglais-français,
français-anglais, anglais-italien, italien-anglais, avec d'autres
paires de langues à venir.



LE COPYRIGHT REVISITÉ


[Résumé]
Lancée en 2001 à l'initiative de Lawrence «Larry» Lessig, professeur de
droit à la Stanford Law School, en Californie, la licence Creative
Commons a pour but de favoriser la diffusion d'oeuvres numériques tout
en protégeant le droit d'auteur. L'organisme du même nom propose des
licences-type, qui sont des contrats flexibles de droit d'auteur
compatibles avec une diffusion sur l'internet. Simplement rédigées, ces
autorisations non exclusives permettent aux titulaires des droits
d'autoriser le public à utiliser leurs créations tout en ayant la
possibilité de restreindre les exploitations commerciales et les
oeuvres dérivées. Finalisée en février 2007, la version 3.0 de la
Creative Commons instaure une licence internationale et la
compatibilité avec d'autres licences similaires, dont le copyleft et la
GPL (General Public License).


= Droit d'auteur et internet

Si le débat relatif au droit d’auteur sur l’internet est vif à la fin
des années 1990, Philippe Loubière, traducteur littéraire et
dramatique, ramène ce débat aux vrais problèmes. «Ce débat me semble
assez proche sur le fond de ce qu’il est dans les autres domaines où le
droit d’auteur s’exerce, ou devrait s’exercer», écrit-il en mars 2001.
«Le producteur est en position de force par rapport à l’auteur dans
pratiquement tous les cas de figure. Les pirates, voire la simple
diffusion libre, ne menacent vraiment directement que les producteurs.
Les auteurs ne sont menacés que par ricochet. Il est possible que l’on
puisse légiférer sur la question, au moins en France où les
corporations se revendiquant de l’exception culturelle sont actives et
résistent encore un peu aux Américains, mais le mal est plus profond.
En effet, en France comme ailleurs, les auteurs étaient toujours les
derniers et les plus mal payés avant l’apparition d’internet, on
constate qu’ils continuent d’être les derniers et les plus mal payés
depuis. Il me semble nécessaire que l’on règle d’abord la question du
respect des droits d’auteur en amont d’internet.»

Pour nombre d'auteurs, le web est avant tout un espace public basé sur
l'échange. Alain Bron, consultant en systèmes d'information et auteur
de romans, écrit en novembre 1999: «Je considère aujourd'hui le web
comme un domaine public. Cela veut dire que la notion de droit d'auteur
sur ce média disparaît de facto: tout le monde peut reproduire tout le
monde. La création s'expose donc à la copie immédiate si les copyrights
ne sont pas déposés dans les formes usuelles et si les oeuvres sont
exposées sans procédures de revenus.»

Jacques Gauchey, journaliste et spécialiste des technologies de
l'information, exprime un avis différent. «Le droit d'auteur dans son
contexte traditionnel n'existe plus», écrit-il en juillet 1999. «Les
auteurs ont besoin de s'adapter à un nouveau paradigme, celui de la
liberté totale du flot de l'information. Le contenu original est comme
une empreinte digitale: il est incopiable. Il survivra et prospérera
donc.»

Selon Xavier Malbreil, auteur multimédia interviewé en mars 2001, «il y
a deux choses. Le web ne doit pas être un espace de non-droit, et c'est
un principe qui doit s'appliquer à tout, et notamment au droit
d'auteur. Toute utilisation commerciale d'une oeuvre doit ouvrir droit
à rétribution. Mais également, le web est un lieu de partage. Échanger
entre amis des passages d'un texte qui vous a plu, comme on peut
recopier des passages d'un livre particulièrement apprécié, pour le
faire aimer, cela ne peut faire que du bien aux oeuvres, et aux
auteurs. La littérature souffre surtout de ne pas être diffusée. Tout
ce qui peut concourir à la faire sortir de son ghetto sera positif.»


= Copyleft et Creative Commons

Des créateurs souhaitent respecter la vocation première du web, réseau
de diffusion à l’échelon mondial. De ce fait, les adeptes de contrats
flexibles  -  copyleft, GPL (General Public License) et Creative
Commons - sont de plus en plus nombreux.

L'idée du copyleft est lancée dès 1984 par Richard Stallman, ingénieur
en informatique et défenseur inlassable du mouvement Open Source au
sein de la Free Software Foundation (FSF). Conçu à l’origine pour les
logiciels, le copyleft est formalisé par la GPL (General Public
License) et étendu par la suite à toute oeuvre de création. Il contient
la déclaration normale du copyright affirmant le droit d'auteur, mais
son originalité est de donner au lecteur le droit de librement
redistribuer le document et de le modifier. Le lecteur s’engage
toutefois à ne revendiquer ni le travail original, ni les changements
effectués par d’autres personnes. De plus, tous les travaux dérivés de
l’oeuvre originale sont eux-mêmes soumis au copyleft.

Lancée en 2001 à l'initiative de Lawrence «Larry» Lessig, professeur de
droit à la Stanford Law School, en Californie, la licence Creative
Commons a elle aussi pour but de favoriser la diffusion d'oeuvres
numériques tout en protégeant le droit d'auteur. L'organisme du même
nom propose des licences-type, qui sont des contrats flexibles de droit
d'auteur compatibles avec une diffusion sur l'internet. Simplement
rédigées, ces autorisations non exclusives permettent aux titulaires
des droits d'autoriser le public à utiliser leurs créations tout en
ayant la possibilité de restreindre les exploitations commerciales et
les oeuvres dérivées. L'auteur peut par exemple choisir d'autoriser ou
non la reproduction et la rediffusion de ses oeuvres. Ces contrats
peuvent être utilisés pour tout type de création: texte, film, photo,
musique, site web, etc. Finalisée en février 2007, la version 3.0 de la
Creative Commons instaure une licence internationale et la
compatibilité avec d'autres licences similaires, dont le copyleft et la
GPL.

Qui utilise la licence Creative Commons? O’Reilly Media par exemple.
Fondé par Tim O’Reilly en 1978, O’Reilly Media est un éditeur réputé de
manuels informatiques et de livres sur les technologies de pointe.
L'éditeur dispose d'abord d’une formule de «copyright ouvert» pour les
auteurs qui le souhaitent ou pour des projets collectifs. A partir de
2003, il privilégie le Creative Commons Founders’ Copyright permettant
d’offrir des contrats flexibles de droit d’auteur à ceux qui veulent
également diffuser leurs oeuvres sur le web.

La Public Library of Science (PLoS) utilise elle aussi la licence
Creative Commons. Les articles de ses périodiques en ligne - qui sont
des périodiques scientifiques et médicaux de haut niveau disponibles
gratuitement - peuvent être librement diffusés et réutilisés ailleurs,
y compris pour des traductions, la seule contrainte étant la mention
des auteurs et de la source.

Une licence Creative Commons est utilisée pour un million d'oeuvres en
2003, 4,7 millions d'oeuvres en 2004, 20 millions d'oeuvres en 2005, 50
millions d'oeuvres en 2006, 90 millions d'oeuvres en 2007, 130 millions
d'oeuvres en 2008 et 350 millions d'oeuvres en avril 2010.


= Domaine public et copyright

Chose inquiétante à l’heure d’une société dite de l’information, le
domaine public se réduit comme peau de chagrin. À une époque qui n'est
pas si lointaine, 50% des oeuvres appartenaient au domaine public, et
pouvaient donc être librement utilisées par tous. D'ici 2100, 99% des
oeuvres seraient régies par le droit d’auteur, avec un maigre 1% laissé
au domaine public. Un problème épineux pour tous ceux qui gèrent des
bibliothèques numériques, et qui affecte aussi bien le Projet Gutenberg
que Google Books.

Si le Projet Gutenberg s’est donné pour mission de diffuser
gratuitement par voie électronique le plus grand nombre possible
d’oeuvres littéraires, sa tâche n’est guère facilitée par les coups de
boutoir portés au domaine public. Michael Hart, son fondateur, se
penche sur la question depuis plus de trente ans, avec l’aide d’un
groupe d’avocats spécialisés dans le droit d’auteur.

Dans la section Copyright HowTo, le Projet Gutenberg détaille les
calculs à faire pour déterminer si un titre publié aux États-Unis
appartient ou non au domaine public. Les oeuvres publiées avant 1923
sont soumises au droit d’auteur pendant 75 ans à partir de leur date de
publication (elles sont donc maintenant dans le domaine public). Les
oeuvres publiées entre 1923 et 1977 sont soumises au droit d’auteur
pendant 95 ans à partir de leur date de publication (rien ne tombera
dans le domaine public avant 2019). Une oeuvre publiée en 1998 et les
années suivantes est soumise au droit d’auteur pendant 70 ans à partir
de la date du décès de l’auteur s’il s’agit d’un auteur personnel (rien
dans le domaine public avant 2049), ou alors pendant 95 ans à partir de
la date de publication - ou 120 ans à partir de la date de création -
s’il s’agit d’un auteur collectif (rien dans le domaine public avant
2074). Tout ceci dans les grandes lignes, d’autres règles venant
s’ajouter à ces règles de base.

Nettement plus contraignant que l'amendement précédent, qui datait de
1976, un nouvel amendement au copyright est entériné par le Congrès le
27 octobre 1998 pour contrer le formidable véhicule de diffusion qu'est
l'internet. Au fil des siècles, chaque avancée technique est
accompagnée d'un durcissement du copyright, qui semble être la réponse
des éditeurs à un accès plus facile au savoir, et la peur afférente de
perdre des royalties.

«Le copyright a été augmenté de 20 ans», explique Michael Hart en
juillet 1999. «Auparavant on devait attendre 75 ans, on est maintenant
passé à 95 ans. Bien avant, le copyright durait 28 ans (plus une
extension de 28 ans si on la demandait avant l’expiration du délai) et,
avant cela, le copyright durait 14 ans (plus une extension de 14 ans si
on la demandait avant l’expiration du délai). Comme on le voit, on
assiste à une dégradation régulière et constante du domaine public.»

Les instances politiques ne cessent de parler d’Âge de l’Information
alors que, en parallèle, elles durcissent la réglementation relative à
la mise à disposition de cette information. La contradiction est
flagrante. Le copyright est passé d'une durée de 30 ans en moyenne en
1909 à une durée de 95 ans en moyenne en 1998. En 89 ans, de 1909 à
1998, le copyright a subi une extension de 65 ans qui affecte les trois
quarts de la production du 20e siècle. Seul un livre publié avant 1923
peut être considéré avec certitude comme du domaine public.

Les dates évoquées par Michael sont les suivantes, comme expliqué en
détail dans son blog:

(a) 1790 est la date de la main-mise de la Guilde des imprimeurs (les
éditeurs de l’époque en Angleterre) sur les auteurs, ce qui entraîne la
naissance du copyright. Le 1790 Copyright Act institue un copyright de
14 ans après la date de publication de l’oeuvre, plus une extension de
28 ans si celle-ci est demandée avant l’expiration du délai. Les
oeuvres pouvant être légalement imprimées passent subitement de 6.000 à
600, et neuf titres sur dix disparaissent des librairies. Quelque 335
ans après les débuts de l'imprimerie, censée ouvrir les portes du
savoir à tous, le monde du livre est désormais contrôlé par les
éditeurs et non plus par les auteurs. Cette nouvelle législation est
également effective en France et aux États-Unis.

(b) 1831 est la date d'un premier renforcement du copyright pour
contrer la réédition de vastes collections du domaine public sur les
nouvelles presses à vapeur. Le 1831 Copyright Act institue un copyright
de 28 ans après la date de publication de l’oeuvre, plus une extension
de 14 ans si celle-ci est demandée avant l’expiration du délai, à
savoir un total de 42 ans.

(c) 1909 est la date d'un deuxième renforcement du copyright pour
contrer une réédition des collections du domaine public sur les
nouvelles presses électriques. Le 1909 Copyright Act double la période
de l’extension, qui passe à 28 ans, le tout représentant un total de 56
ans.

(d) 1976 est la date d’un nouveau durcissement du copyright suite à
l’apparition de la photocopieuse lancée par Xerox. Le 1976 Copyright
Act institue un copyright de 50 ans après le décès de l’auteur. De ce
fait, tout copyright en cours avant le 19 septembre 1962 n’expire pas
avant le 31 décembre 1976.

(e) 1998 est la date d’un durcissement supplémentaire du copyright
suite au développement rapide des technologies numériques et aux
centaines de milliers d'oeuvres désormais disponibles sur CD-ROM et DVD
et sur le web, gratuitement ou à un prix très bas. Le 1998 Copyright
Act allonge la durée du copyright qui est désormais de 70 ans après le
décès de l’auteur, pour protéger l'empire Disney (raison pour laquelle
on parle souvent de Mickey Mouse Copyright Act) et nombre de
multinationales culturelles.

Un durcissement similaire touche les pays de l'Union européenne. La
règle générale est désormais un copyright de 70 ans après le décès de
l’auteur, alors qu’il était auparavant de 50 ans, suite aux pressions
exercées par les éditeurs de contenu sous le prétexte d’«harmoniser»
les lois nationales régissant le droit d'auteur pour répondre à la
mondialisation du marché.

A ceci s'ajoute la législation sur le copyright des éditions numériques
en application des traités internationaux de l'OMPI (Organisation
mondiale de la propriété intellectuelle). Ces traités sont signés en
1996 dans l'optique de contrôler la gestion des droits numériques. Le
Digital Millenium Copyright Act (DMCA) est entériné en octobre 1998 aux
États-Unis.

La directive EUCD (European Union Copyright Directive) est entérinée en
mai 2001 par la Communauté européenne. Cette directive s'intitule très
précisément «Directive 2001/29/EC du Parlement européen et du Conseil
sur l'harmonisation de certains aspects du droit d'auteur et des droits
voisins dans la société de l'information». Elle fait suite à la
directive de février 1993 (Directive 93/98/EEC) qui visait à harmoniser
les législations des différents pays en matière de protection du droit
d'auteur. La directive EUCD entre peu à peu en vigueur dans tous les
pays de l'Union européenne, avec mise en place de législations
nationales, le but officiel étant de renforcer le respect du droit
d'auteur sur l'internet et de contrer ainsi le piratage. En France, par
exemple, la loi DADVSI (Droit d'auteur et droits voisins dans la
société de l'information) est promulguée en août 2006, et n'est pas
sans susciter de nombreux remous.



UNE VASTE ENCYCLOPÉDIE


[Résumé]
En 2002, le MIT (Massachusetts Institute of Technology) décide de
publier le contenu de ses cours en ligne, avec accès libre et gratuit,
en privilégiant la diffusion libre du savoir. Le MIT OpenCourseWare
(MIT OCW) offre en accès libre le matériel d’enseignement de nombreux
cours, à savoir des textes de conférences, des travaux pratiques, des
exercices et corrigés, des bibliographies, des documents audio et
vidéo, etc. Parallèlement, la Public Library of Science (PLoS) met sur
pied des revues scientifiques et médicales en ligne de haut niveau
diffusées gratuitement. Pour les encyclopédies, Wikipédia ouvre la voie
en 2001, en lançant une encyclopédie écrite collectivement, avec
possibilité de corriger et de compléter les articles, et dont le
contenu est librement réutilisable. Suivent d'autres encyclopédies
collaboratives en accès libre comme Citizendium et l'Encyclopedia of
Life.


= Vers un savoir numérique

Vinton Cerf est souvent appelé le père de l'internet parce qu'il est
l'auteur en 1974 (avec Robert Kahn) des protocoles nécessaires au bon
fonctionnement du réseau. Sur le site de l'Internet Society (ISOC),
qu'il fonde en 1992 pour promouvoir le développement de l’internet, il
explique: «Le réseau fait deux choses (...): comme les livres, il
permet d’accumuler de la connaissance. Mais, surtout, il la présente
sous une forme qui la met en relation avec d’autres informations. Alors
que, dans un livre, l’information est maintenue isolée.»

De plus, l’information contenue dans les livres reste la même, au moins
pendant une période donnée, alors que l'internet privilégie les
informations récentes et régulièrement actualisées.

Lors d'une conférence organisée en septembre 1996 par l'IFIP
(International Federation of Information Processing), Dale Spender,
professeur et chercheuse, tente de cerner les changements fondamentaux
apportés par l'internet dans l'acquisition du savoir et les méthodes
d'enseignement. Voici son argumentation résumée en deux paragraphes.

Pendant plus de cinq siècles, l'enseignement est principalement basé
sur l'information donnée par les livres. Or les habitudes liées à
l'imprimé ne peuvent être transférées au monde numérique.
L'enseignement en ligne offre des possibilités tellement nouvelles
qu'il n'est guère possible d'effectuer les distinctions traditionnelles
entre enseignant et enseigné. Le passage de la culture imprimée à la
culture numérique exige d'entièrement repenser le processus
d'enseignement, puisque nous avons maintenant l'opportunité sans
précédent de pouvoir influer sur le genre d'enseignement que nous
souhaitons.

Dans la culture imprimée, l'information contenue dans les livres
restait la même pendant un certain temps, ce qui nous a encouragé à
penser que l'information était stable. La nature même de l'imprimé est
liée à la notion de vérité, stable elle aussi. Cette stabilité et
l'ordre qu'elle engendre ont été un des fondements de l'âge industriel
et de la révolution scientifique. Les notions de vérité, de loi,
d'objectivité et de preuve ont été les éléments de référence de nos
croyances et de nos cultures. Mais la révolution numérique change tout
ceci. Soudain l'information en ligne supplante l'information imprimée
pour devenir la plus fiable et la plus utile, et l'usager est prêt à la
payer en conséquence. C'est cette transformation radicale dans la
nature de l'information qui doit être au coeur du débat relatif aux
méthodes d'enseignement.

En témoigne l'expérience de Patrick Rebollar, professeur de littérature
française au Japon, qui raconte en juillet 1998: «Mon travail de
recherche est différent, mon travail d’enseignant est différent, mon
image en tant qu’enseignant-chercheur de langue et de littérature est
totalement liée à l’ordinateur, ce qui a ses bons et ses mauvais côtés
(surtout vers le haut de la hiérarchie universitaire, plutôt constituée
de gens âgés et technologiquement récalcitrants). J’ai cessé de
m’intéresser à certains collègues proches géographiquement mais qui
n’ont rien de commun avec mes idées, pour entrer en contact avec des
personnes inconnues et réparties dans différents pays (et que je
rencontre parfois, à Paris ou à Tokyo, selon les vacances ou les
colloques des uns ou des autres). La différence est d’abord un gain de
temps, pour tout, puis un changement de méthode de documentation, puis
de méthode d’enseignement privilégiant l’acquisition des méthodes de
recherche par mes étudiants, au détriment des contenus (mais cela
dépend des cours). Progressivement, le paradigme réticulaire l’emporte
sur le paradigme hiérarchique.»

Russon Wooldridge, professeur au département des études françaises de
l'Université de Toronto (Canada), relate en février 2001: «Mes
activités de recherche, autrefois menées dans une tour d'ivoire, se
font maintenant presque uniquement par des collaborations locales ou à
distance. (...) Tout mon enseignement exploite au maximum les
ressources d'internet (le web et le courriel): les deux lieux communs
d'un cours sont la salle de classe et le site du cours, sur lequel je
mets tous les matériaux des cours. Je mets toutes les données de mes
recherches des vingt dernières années sur le web (réédition de livres,
articles, textes intégraux de dictionnaires anciens en bases de données
interactives, de traités du 16e siècle, etc.). Je publie des actes de
colloques, j'édite un journal, je collabore avec des collègues
français, mettant en ligne à Toronto ce qu'ils ne peuvent pas publier
en ligne chez eux. En mai 2000 j'ai organisé à Toronto un colloque
international sur "Les études françaises valorisées par les nouvelles
technologies". (...)

Je me rends compte que sans internet mes activités seraient bien
moindres, ou du moins très différentes de ce qu'elles sont
actuellement. Donc je ne vois pas l'avenir sans. Mais il est crucial
que ceux qui croient à la libre diffusion des connaissances veillent à
ce que le savoir ne soit pas bouffé, pour être vendu, par les intérêts
commerciaux. Ce qui se passe dans l'édition du livre en France, où on
n'offre guère plus en librairie que des manuels scolaires ou pour
concours (c'est ce qui s'est passé en linguistique, par exemple), doit
être évité sur le web. Ce n'est pas vers les amazon.com qu'on se tourne
pour trouver la science désintéressée. Sur mon site, je refuse toute
sponsorisation.»


= Quelques projets pilotes

# L'Encyclopédie de Diderot en ligne

Le projet ARTFL (American and French Research on the Treasury of the
French Language) est un projet commun du Centre national de la
recherche scientifique (CNRS, France) et de l'Université de Chicago
(Illinois, États-Unis). Ce projet a pour but de constituer une base de
données de 2.000 textes ayant trait à la littérature, à la philosophie,
aux arts ou aux sciences et s'échelonnant du 13e au 20e siècle.

L'ARTFL travaille notamment à la version en ligne exhaustive de la
première édition (1751-1772) de l'Encyclopédie ou Dictionnaire raisonné
des sciences, des métiers et des arts de Diderot et d'Alembert. 72.000
articles rédigés par plus de 140 collaborateurs - dont Voltaire,
Rousseau, d'Alembert, Marmontel, d'Holbach, Turgot, etc. - ont fait de
cette encyclopédie un monumental ouvrage de référence pour les arts et
les sciences. Destinée à rassembler puis divulguer les connaissances de
l'époque, l'Encyclopédie porte la marque des courants intellectuels et
sociaux du 18e siècle, et c'est grâce à elle qu'ont été propagées les
idées du Siècle des Lumières. Elle comprend 17 volumes de texte – qui
représentent 18.000 pages et 20.736.912 mots - et 11 volumes de
planches.

La base de données correspondant au premier volume est accessible en
ligne à titre expérimental en 1998. La recherche peut être effectuée
par mot, portion de texte, auteur ou catégorie, ou par la combinaison
de ces critères entre eux. On dispose de renvois d'un article à
l'autre, au moyen de liens permettant d'aller d'une planche au texte ou
du texte au fac-similé des pages originales. L'automatisation complète
des procédures de saisie entraîne des erreurs typographiques et des
erreurs d'identification qui sont corrigées au fil des mois. La
recherche d'images est également possible dans un deuxième temps.

L'ARTFL travaille aussi à un projet de base de données pour le
Dictionnaire de l'Académie française, dont les différentes éditions se
sont échelonnées entre 1694 et 1935. Ce projet inclut la saisie et
l'édition du texte, ainsi que la création d'un moteur de recherche
spécifique. La première édition (1694) et la cinquième édition (1798)
du dictionnaire sont les premières à être disponibles pour une
recherche par mot, puis pour une recherche par portion de texte. Les
différentes éditions sont ensuite combinées dans une base de données
unique, qui permet de juger de l'évolution d'un terme en consultant
aussi bien une édition particulière que l'ensemble des éditions.

Les autres projets de l'ARTFL sont la mise en ligne des ouvrages
suivants: le Dictionnaire historique et critique de Philippe Bayle
(édition de 1740), le Roget's Thesaurus de 1911, le Webster's Revised
Unabridged Dictionary de 1913, le Thresor de la langue française de
Jean Nicot (1606), un projet biblique multilingue comprenant entre
autres La Bible française de Louis Segond (1910), etc.

# Des ouvrages de référence en ligne

Les premières grandes encyclopédies en ligne émanent d'encyclopédies
imprimées.  Elles apparaissent sur la toile en décembre 1999 avec
WebEncyclo, l’Encyclopaedia Universalis et Britannica.com. Quant aux
premiers grands dictionnaires imprimés en ligne, ce sont le
Dictionnaire universel francophone en ligne d'Hachette, les
dictionnaires anglais de Merriam-Webster et l'Oxford English
Dictionary.

WebEncyclo (aujourd'hui disparu), publié par les éditions Atlas, est la
première grande encyclopédie francophone en accès libre, avec mise en
ligne en décembre 1999. La recherche est possible par mots-clés,
thèmes, médias (à savoir les cartes, liens internet, photos et
illustrations) et idées. Un appel à contribution incite les
spécialistes d’un sujet donné à envoyer des articles, qui sont
regroupés dans la section «WebEncyclo contributif». Après avoir été
libre, l’accès est ensuite soumis à une inscription préalable gratuite.

La version web de l’Encyclopaedia Universalis est mise en ligne à la
même date, soit un ensemble de 28.000 articles signés de 4.000 auteurs.
Si la consultation est payante sur la base d’un abonnement annuel, de
nombreux articles sont en accès libre.

Le site Britannica.com est la première grande encyclopédie anglophone
en accès libre, avec mise en ligne en décembre 1999. Le site web
propose l’équivalent numérique des 32 volumes de la 15e édition de
l’Encyclopaedia Britannica, parallèlement à la version imprimée et à la
version CD-ROM, toutes deux payantes. Le site offre une sélection
d’articles issus de 70 magazines, un guide des meilleurs sites, un
choix de livres, etc., le tout étant accessible à partir d’un moteur de
recherche unique.

En septembre 2000, le site fait partie des cent sites les plus visités
au monde. En juillet 2001, la consultation devient payante sur la base
d’un abonnement annuel ou mensuel. Fin 2008, Britannica.com annonce
l'ouverture prochaine de son site à des contributeurs extérieurs, avec
inscription obligatoire pour écrire et modifier des articles.

En ce qui concerne les dictionnaires en ligne, le premier dictionnaire
de langue française en accès libre est le Dictionnaire universel
francophone en ligne (aujourd'hui disparu), qui répertorie 45.000 mots
et 116.000 définitions tout en présentant «sur un pied d’égalité, le
français dit "standard" et les mots et expressions en français tel
qu’on le parle sur les cinq continents». Issu de la collaboration entre
Hachette et l’AUPELF-UREF (devenu depuis l’AUF: Agence universitaire de
la Francophonie), il correspond à la partie «noms communs» du
dictionnaire imprimé disponible chez Hachette. L’équivalent pour la
langue anglaise est le site Merriam-Webster OnLine, qui donne librement
accès au Collegiate Dictionary et au Collegiate Thesaurus.

En mars 2000, les 20 volumes de l’Oxford English Dictionary (OED) sont
mis en ligne par l’Oxford University Press (OUP). La consultation du
site est payante. Le dictionnaire bénéficie d’une mise à jour
trimestrielle d’environ 1.000 entrées nouvelles ou révisées. Deux ans
après cette première expérience, en mars 2002, l’Oxford University
Press met en ligne l’Oxford Reference Online (ORO), une vaste
encyclopédie conçue directement pour le web et consultable elle aussi
sur abonnement payant. Avec 60.000 pages et un million d’entrées, elle
représente l’équivalent d’une centaine d’ouvrages de référence.

# Wikipédia

Issu du terme hawaïen «wiki» (qui signifie: vite, rapide), un wiki est
un site web permettant à plusieurs utilisateurs de collaborer en ligne
sur un même projet. À tout moment, ces utilisateurs peuvent contribuer
à la rédaction du contenu, modifier ce contenu et l'enrichir en
permanence. Le wiki est utilisé par exemple pour créer et gérer des
dictionnaires, des encyclopédies ou encore des sites d'information sur
un sujet donné. Le programme présent derrière l'interface d'un wiki est
plus ou moins élaboré. Un programme simple gère du texte et des
hyperliens. Un programme élaboré permet d'inclure des images, des
graphiques, des tableaux, etc. L’encyclopédie wiki la plus connue est
Wikipédia.

Créée en janvier 2001 à l’initiative de Jimmy Wales et de Larry Sanger
(Larry quitte ensuite l'équipe), Wikipédia est une encyclopédie
gratuite écrite collectivement et dont le contenu est librement
réutilisable. Elle est immédiatement très populaire. Sans publicité et
financée par des dons, cette encyclopédie coopérative est rédigée par
des milliers de volontaires - appelés Wikipédiens, et qui s'inscrivent
en prenant un pseudonyme - avec possibilité de corriger et compléter
les articles, aussi bien les leurs que ceux d'autres contributeurs. Les
articles restent la propriété de leurs auteurs, et leur libre
utilisation est régie par la licence GFDL (GNU Free Documentation
License) et la licence Creative Commons.

En décembre 2004, Wikipédia compte 1,3 million d'articles rédigés par
13.000 contributeurs dans une centaine de langues. En décembre 2006,
l'encyclopédie est l'un de dix sites les plus visités du web, avec 6
millions d'articles.

En mai 2007, Wikipédia compte 7 millions d'articles dans 192 langues,
dont 1,8 million en anglais, 589.000 en allemand, 500.000 en français,
260.000 en portugais et 236.000 en espagnol. En 2008, Wikipédia est
l'un des cinq sites les plus visités du web.

En septembre 2010, Wikipédia compte 14 millions d'articles en 272
langues, dont 3,4 millions en anglais, 1,1 million en allemand et 1
million en français, qui est donc la troisième langue de
l'encyclopédie.

Fondée en juin 2003, la Wikimedia Foundation gère non seulement
Wikipédia mais aussi Wiktionary, un dictionnaire et thésaurus
multilingue lancé en décembre 2002, puis Wikibooks (livres et manuels
en cours de rédaction) lancé en juin 2003, auxquels s'ajoutent ensuite
Wikiquote (répertoire de citations), Wikisource (textes du domaine
public), Wikimedia Commons (sources multimédia), Wikispecies
(répertoire d'espèces animales et végétales), Wikinews (site
d'actualités) et enfin Wikiversity (matériel d'enseignement), lancé en
août 2006.

# Les cours du MIT

Professeur à l’Université d’Ottawa (Canada), Christian Vandendorpe
salue en mai 2001 «la décision du MIT [Massachusetts Institute of
Technology] de placer tout le contenu de ses cours sur le web d’ici dix
ans, en le mettant gratuitement à la disposition de tous. Entre les
tendances à la privatisation du savoir et celles du partage et de
l’ouverture à tous, je crois en fin de compte que c’est cette dernière
qui va l’emporter.»

Le MIT décide en effet de publier le contenu de ses cours en ligne dans
un OpenCourseWare, une initiative menée avec le soutien financier de la
Hewlett Foundation et de la Mellon Foundation. Un OpenCourseWare peut
être défini comme la publication électronique en accès libre du
matériel d’enseignement d'un ensemble de cours.

Mise en ligne en septembre 2002, la version pilote du MIT
OpenCourseWare (MIT OCW) offre en accès libre le matériel
d’enseignement de 32 cours représentatifs des cinq facultés du MIT. Ce
matériel d’enseignement comprend des textes de conférences, des travaux
pratiques, des exercices et corrigés, des bibliographies, des documents
audio et vidéo, etc. Le lancement officiel du site a lieu un an plus
tard, en septembre 2003, avec accès à quelques centaines de cours. En
mars 2004, 500 cours sont disponibles dans 33 disciplines. En mai 2006,
1.400 cours sont disponibles dans 34 disciplines. La totalité des 1.800
cours dispensés par le MIT est en ligne en novembre 2007, avec
actualisation régulière ensuite. Certains cours sont traduits en
espagnol, en portugais et en chinois avec l’aide d’autres organismes.

Le MIT espère que cette expérience de publication électronique – la
première du genre - va permettre de définir un standard et une méthode
de publication, et inciter d’autres universités à créer un
OpenCourseWare pour la mise à disposition gratuite de leurs propres
cours. A cet effet, le MIT lance l’OpenCourseWare Consortium (OCW
Consortium) en décembre 2005, avec accès libre et gratuit au matériel
d’enseignement de cent universités dans le monde un an plus tard.

# La Public Library of Science

A l’heure de l’internet, il paraît assez scandaleux que le résultat de
travaux de recherche – travaux originaux et demandant de longues années
d’efforts – soit détourné par des éditeurs spécialisés s’appropriant ce
travail et le monnayant à prix fort. L’activité des chercheurs est
souvent financée par les deniers publics, et de manière substantielle
en Amérique du Nord. Il semblerait donc normal que la communauté
scientifique et le grand public puissent bénéficier librement du
résultat de ces recherches.

Dans le domaine scientifique et médical par exemple, 1.000 nouveaux
articles sont publiés chaque jour, en ne comptant que les articles
révisés par les pairs. Se basant sur ce constat, la Public Library of
Science (PLoS) est fondée en octobre 2000 à San Francisco à
l’initiative de Harold Varmus, Patrick Brown et Michael Eisen,
chercheurs dans les universités de Stanford et Berkeley (Californie).
Le but est de contrer les pratiques de l’édition spécialisée en
regroupant tous les articles scientifiques et médicaux au sein
d’archives en ligne en accès libre. Au lieu d’une information
disséminée dans des millions de rapports et des milliers de périodiques
en ligne ayant chacun des conditions d’accès différentes, un point
d’accès unique permettrait de lire le contenu intégral de ces articles,
avec moteur de recherche multi-critères et système d’hyperliens entre
les articles.

Pour ce faire, PLoS fait circuler une lettre ouverte demandant que les
articles publiés par les éditeurs spécialisés soient distribués
librement dans un service d’archives en ligne, et incitant les
signataires de cette lettre à promouvoir les éditeurs prêts à soutenir
ce projet. La réponse de la communauté scientifique internationale est
remarquable. Au cours des deux années suivantes, la lettre ouverte est
signée par 30.000 chercheurs dans 180 pays. Bien que la réponse des
éditeurs soit nettement moins enthousiaste, plusieurs éditeurs donnent
leur accord pour une distribution immédiate des articles publiés par
leurs soins, ou alors une distribution dans un délai de six mois. Mais
dans la pratique, même les éditeurs ayant donné leur accord formulent
nombre d’objections au nouveau modèle proposé, si bien que le projet
d’archives en ligne ne voit finalement pas le jour.

Un autre objectif de la Public Library of Science est de devenir elle-
même éditeur. PLoS fonde donc une maison d’édition scientifique non
commerciale qui reçoit en décembre 2002 une subvention de 9 millions de
dollars US de la part de la Moore Foundation. Une équipe éditoriale de
haut niveau est constituée en janvier 2003 pour lancer des périodiques
de qualité selon un nouveau modèle d’édition en ligne basé sur la
diffusion libre du savoir.

Le premier numéro de PLoS Biology est disponible en octobre 2003, avec
une version en ligne gratuite et une version imprimée au prix coûtant
(couvrant uniquement les frais de fabrication et de distribution). PLoS
Medicine est lancé en octobre 2004. Trois nouveaux titres voient le
jour en 2005: PLoS Genetics, PLoS Computational Biology et PLoS
Pathogens. PLoS Clinical Trials voit le jour en 2006. PLoS Neglected
Tropical Diseases est lancé à l’automne 2007 en tant que première
publication scientifique consacrée aux maladies tropicales négligées,
ces maladies affectant les populations pauvres dans les villes comme
dans les campagnes.

Tous les articles de ces périodiques sont librement accessibles en
ligne, sur le site de PLoS et dans PubMed Central, le service
d’archives en ligne public et gratuit de la National Library of
Medicine (États-Unis), avec moteur de recherche multicritères. Les
versions imprimées sont abandonnées en 2006 pour laisser place à un
service d’impression à la demande géré par la société Odyssey Press.
Ces articles peuvent être librement diffusés et réutilisés ailleurs, y
compris pour des traductions, selon les termes de la licence Creative
Commons, la seule contrainte étant la mention des auteurs et de la
source. PLoS lance aussi PLoS ONE, un forum en ligne permettant la
publication d’articles sur tout sujet scientifique et médical.

Le succès est total. Trois ans après les débuts de la Public Library of
Science en tant qu’éditeur, PLoS Biology et PLos Medicine ont la même
réputation d’excellence que les grandes revues Nature, Science ou The
New England Journal of Medicine. PLoS reçoit le soutien financier de
plusieurs fondations tout en mettant sur pied un modèle économique
viable, avec des revenus émanant des frais de publication payés par les
auteurs, et émanant aussi de la publicité, des sponsors et des
activités destinées aux membres de PLoS. PLoS souhaite en outre que ce
modèle économique d’un genre nouveau inspire d’autres éditeurs pour
créer des revues du même type ou pour mettre des revues existantes en
accès libre.

# Citizendium

Une nouvelle étape s’ouvre avec les débuts de Citizendium - acronyme de
«The Citizens’ Compendium» -, une grande encyclopédie collaborative en
ligne conçue en novembre 2006 par Larry Sanger, un des co-fondateurs de
Wikipédia, et lancée en mars 2007 (en version bêta).

Citizendium est une encyclopédie coopérative et gratuite, tout comme
Wikipédia, mais sans ses travers, à savoir le vandalisme, le manque de
rigueur et l'utilisation d'un pseudonyme pour y participer. Les auteurs
signent leurs articles de leur vrai nom, et ces articles sont relus et
corrigés par des experts («editors») âgés d'au moins 25 ans et
titulaires d'une licence universitaire. De plus, des «constables» sont
chargés de la bonne marche du projet et du respect du règlement.
Citizendium comptabilise 1.100 articles, 820 auteurs et 180 experts en
mars 2007, 9.800 articles en janvier 2009 et 15.000 articles en
septembre 2010.

Dans Why Make Room for Experts in Web 2.0? (Pourquoi faire une place
aux experts dans le web 2.0?), une communication datée d’octobre 2006
et régulièrement actualisée depuis sur le site de l'encyclopédie, Larry
Sanger voit dans Citizendium l’émergence d’un nouveau modèle de
collaboration massive de dizaines de milliers d’intellectuels et
scientifiques, non seulement pour les encyclopédies, mais aussi pour
les manuels d’enseignement, les ouvrages de référence, le multimédia et
les applications en 3D. Cette collaboration est basée sur le partage
des connaissances, dans la lignée du web 2.0, un concept lancé en 2004
pour caractériser les notions de communauté et de partage et qui se
manifeste d’abord par une floraison de blogs, wikis et sites sociaux.
D’après Larry, il importe aussi de créer des structures permettant des
collaborations scientifiques, et Citizendium pourrait servir de
prototype dans ce domaine.

# L'Encyclopedia of Life

Cet appel semble se concrétiser dès mai 2007 avec les premiers pas de
l’Encyclopedia of Life. Cette vaste encyclopédie collaborative en ligne
a pour but de rassembler les connaissances existantes sur toutes les
espèces animales et végétales connues (1,8 million), y compris les
espèces en voie d’extinction, avec l’ajout de nouvelles espèces au fur
et à mesure de leur identification, ce qui représenterait entre 8 et 10
millions d'espèces en tout.

Cette encyclopédie multimédia permettra de rassembler textes, photos,
cartes, bandes sonores et vidéos, avec une page web par espèce, en
offrant un portail unique à des millions de documents épars, en ligne
et hors ligne. Outil d’apprentissage et d’enseignement pour une
meilleure connaissance de notre planète, l'encyclopédie sera à
destination de tous: scientifiques, enseignants, étudiants, scolaires,
médias, décideurs et grand public.

Ce projet collaboratif est mené par plusieurs grandes institutions:
Field Museum of Natural History, Harvard University, Marine Biological
Laboratory, Missouri Botanical Garden, Smithsonian Institution et
Biodiversity Heritage Library.

Le directeur honoraire du projet est Edward Wilson, professeur émérite
à l’Université de Harvard, qui, dans un essai daté de 2002, fut le
premier à émettre le voeu d’une telle encyclopédie. Cinq ans plus tard,
en 2007, c'est désormais chose possible grâce aux avancées
technologiques récentes: outils logiciels permettant l’agrégation de
contenu, mash-up (à savoir le fait de rassembler un contenu donné à
partir de nombreuses sources différentes), wikis de grande taille et
gestion de contenu à vaste échelle.

La Biodiversity Heritage Library est un consortium des dix plus grandes
bibliothèques des sciences de la vie (qui seront rejointes plus tard
par d'autres bibliothèques). Le consortium entreprend la numérisation
de 2 millions de documents, avec des dates de publication s’étalant sur
deux cents ans, pour intégration progressive dans l'Encyclopedia of
Life. En mai 2007, on compte 1,25 million de pages traitées dans les
centres de numérisation de Londres, Boston et Washington, D.C., tous
documents progressivement intégrés dans l’Internet Archive.

Le financement initial de l'Encyclopedia of Life est assuré par la
MacArthur Foundation avec 10 millions de dollars US et la Sloan
Foundation avec 2,5 millions de dollars. Un financement total de 100
millions de dollars serait nécessaire sur dix ans, avant que
l'encyclopédie ne puisse s'autofinancer. La réalisation des pages web
débute courant 2007. L’encyclopédie fait ses réels débuts sur le web à
la mi-2008. Elle devrait être pleinement opérationnelle en 2012 et
complète - c'est-à-dire à jour – en 2017. La version initiale sera
d’abord en anglais avant d’être traduite en plusieurs langues par de
futurs organismes partenaires.

L'encyclopédie sera aussi un «macroscope» permettant de déceler les
grandes tendances à partir d’un stock d’informations considérable, à la
différence du microscope permettant l’étude de détail. Elle permettra
également à chacun de contribuer au contenu sous une forme
s’apparentant au wiki, ce contenu étant ensuite validé ou non par des
scientifiques.

Pour clore ce chapitre, voici une belle définition du web donnée par
Robert Beard, professeur de langues et créateur de sites de
dictionnaires, qui écrit en septembre 1998: «Le web sera une
encyclopédie du monde faite par le monde pour le monde. Il n'y aura
plus d'informations ni de connaissances utiles qui ne soient pas
disponibles, si bien que l'obstacle principal à la compréhension
internationale et interpersonnelle et au développement personnel et
institutionnel sera levé. Il faudrait une imagination plus débordante
que la mienne pour prédire l'effet de ce développement sur l'humanité.»



DES BEST-SELLERS NUMÉRIQUES


[Résumé]
En 2003, des centaines de best-sellers sont vendus en version numérique
sur Amazon.com, Barnes & Noble.com, Yahoo! eBook Store ou sur des sites
d’éditeurs (Random House, PerfectBound, etc.). Le catalogue de Palm
Digital Media approche les 10.000 titres, lisibles sur PDA (assistant
personnel), avec 15 à 20 nouveaux titres par jour et 1.000 nouveaux
clients par semaine. Numilog distribue 3.500 titres numériques (livres
et périodiques) en français et en anglais. Mobipocket distribue 6.000
titres numériques dans plusieurs langues, soit sur son site soit dans
des librairies partenaires. Les formats les plus utilisés sont le
format PDF (pour l'Acrobat Reader puis l'Adobe Reader), le format LIT
(pour le Microsoft Reader), le format PRC (pour le Mobipocket Reader)
et le format OeB (pour de nombreux logiciels de lecture).


= Des logiciels de lecture

# L'Adobe Reader

Le format PDF (Portable Document Format) est lancé en juin 1993 par la
société Adobe, en même temps que l'Acrobat Reader (gratuit), premier
logiciel de lecture du marché, téléchargeable gratuitement pour lecture
des fichiers au format PDF. Le but de ce format est de figer les
documents numériques dans une présentation donnée, pour conserver la
présentation originale du document source, quelle que soit la
plateforme utilisée pour le créer et pour le lire. Le format PDF
devient au fil des ans un standard international de diffusion des
documents. Tout document peut être converti au format PDF à l’aide du
logiciel Adobe Acrobat (payant).

Dix ans plus tard, 10% des documents disponibles sur l'internet sont au
format PDF. Des millions de fichiers PDF sont présents sur le web pour
lecture ou téléchargement, ou bien transitent par courriel. L’Acrobat
Reader est progressivement disponible dans plusieurs langues et pour
diverses plateformes (Windows, Mac, Linux).

Adobe annonce en août 2000 l’acquisition de la société Glassbook,
spécialisée dans les logiciels de distribution de livres numériques à
l'intention des éditeurs, libraires, diffuseurs et bibliothèques. Adobe
passe aussi un partenariat avec Amazon.com et Barnes  & Noble.com afin
de proposer des titres lisibles sur l’Acrobat Reader et le Glassbook
Reader.

En janvier 2001, Adobe lance deux nouveaux logiciels.

Le premier logiciel, gratuit, est l’Acrobat eBook Reader. Il permet de
lire les fichiers PDF de livres numériques sous droits, avec gestion
des droits par l’Adobe Content Server. Il permet aussi d’ajouter des
notes et des signets, de choisir l’orientation de lecture des livres
(paysage ou portrait), ou encore de visualiser leur couverture dans une
bibliothèque personnelle. Il utilise la technique d’affichage CoolType
et comporte un dictionnaire intégré.

Le deuxième logiciel, payant, est l’Adobe Content Server, destiné aux
éditeurs et distributeurs. Il s’agit d’un logiciel serveur de contenu
assurant le conditionnement, la protection, la distribution et la vente
sécurisée de livres numériques au format PDF. Ce système de gestion des
droits numériques (DRM: Digital Rights Management) permet de contrôler
l’accès aux livres numériques sous droits, et donc de gérer les droits
d’un livre selon les consignes données par le gestionnaire des droits,
par exemple en autorisant ou non l’impression ou le prêt. L’Adobe
Content Server sera remplacé par l’Adobe LiveCycle Policy Server en
novembre 2004.

En avril 2001, Adobe conclut un partenariat avec Amazon, qui met en
vente 2.000 livres numériques lisibles sur l’Acrobat eBook Reader:
titres de grands éditeurs, guides de voyages, livres pour enfants, etc.

L'Acrobat Reader s'enrichit d'une version PDA, pour le Palm Pilot en
mai 2001 puis pour le Pocket PC en décembre 2001.

En dix ans, entre 1993 et 2003, l’Acrobat Reader aurait été téléchargé
500 millions de fois. En 2003, ce logiciel est désormais disponible
dans de nombreuses langues et pour toute  plateforme (Windows, Mac,
Linux, Palm OS, Pocket PC, Symbian OS, etc.). 10% des documents
présents sur l'internet seraient au format PDF, et le format PDF est
aussi le format de livre numérique le plus répandu.

En mai 2003, l’Acrobat Reader (version 5) fusionne avec l’Acrobat eBook
Reader (version 2) pour devenir l’Adobe Reader (débutant à la version
6), qui permet de lire aussi bien les fichiers PDF standard que les
fichiers PDF sécurisés comme ceux des livres numériques sous droits.

Fin 2003, Adobe ouvre sa librairie en ligne, Digital Media Store, avec
les titres au format PDF de grands éditeurs - HarperCollins Publishers,
Random House, Simon & Schuster, etc. - ainsi que les versions
électroniques de journaux et magazines comme le New York Times, Popular
Science, etc. Adobe lance aussi Adobe eBooks Central, un service
permettant de lire, publier, vendre et prêter des livres numériques, et
l’Adobe eBook Library, qui se veut un prototype de bibliothèque de
livres numériques.

Les versions récentes d’Adobe Acrobat permettent de créer des PDF
compatibles avec le  format OeB (Open eBook) puis le format ePub (qui
succède au format OeB), devenus eux aussi des standards du livre
numérique.

# L'Open eBook

Les années 1998 et 1999 sont marquées par la prolifération des formats,
chacun lançant son propre format de livre numérique dans le cadre d’un
marché naissant promis à une expansion rapide.

Aux formats classiques - formats TXT (texte), DOC (Microsoft Word),
HTML (HyperText Markup Language), XML (eXtensible Markup Language) et
PDF (Portable Document Format) - s’ajoutent des formats propriétaires
créés par plusieurs sociétés pour lecture sur leurs propres logiciels,
qui sont entre autres le Glassbook Reader, le Peanut Reader, le Rocket
eBook Reader (pour lecture sur le Rocket eBook), le Franklin Reader
(pour lecture sur l'eBookMan), le logiciel de lecture Cytale (pour
lecture sur le Cybook), le Gemstar eBook Reader (pour lecture sur le
Gemstar eBook) et le Palm Reader (pour lecture sur le Palm Pilot). Ces
logiciels correspondent souvent à un appareil donné et ne peuvent donc
pas être utilisés sur d'autres appareils, tous comme les formats qui
vont avec.

Inquiets pour l’avenir du livre numérique qui, à peine né, propose
presque autant de formats que de titres, certains insistent sur
l’intérêt -  sinon la nécessité - d’un format unique. A l’instigation
du NIST (National Institute of Standards & Technology) aux États-Unis,
l’Open eBook Initiative voit le jour en juin 1998 et constitue un
groupe de travail de 25 personnes sous le nom d'Open eBook Authoring
Group. Ce groupe élabore l’OeB (Open eBook), un format de livre
numérique basé sur le langage XML et destiné à normaliser le contenu,
la structure et la présentation des livres numériques.

Le format OeB est défini par l’OeBPS (Open eBook Publication
Structure), dont la version 1.0 est disponible en septembre 1999.
Téléchargeable gratuitement, l’OeBPS dispose d'une version ouverte et
gratuite appartenant au domaine public. La version originale est
destinée aux professionnels de la publication puisqu'elle doit être
associée à une technologie normalisée de gestion des droits numériques,
et donc à un système de DRM (Digital Rights Management) permettant de
contrôler l’accès des livres numériques sous droits.

Fondé en janvier 2000 pour prendre la suite de l’Open eBook Initiative,
l’OeBF (Open eBook Forum) est un consortium industriel international
regroupant constructeurs, concepteurs de logiciels, éditeurs, libraires
et spécialistes du numérique (avec 85 participants en 2002) dans
l'optique de développer le format OeB et l’OeBPS. Le format OeB devient
un standard qui sert lui-même de base à de nombreux formats, par
exemple le format LIT (pour le Microsoft Reader) ou le format PRC (pour
le Mobipocket Reader).

En avril 2005, l’Open eBook Forum devient l’International Digital
Publishing Forum (IDPF), et le format OeB laisse la place au format
ePub.

# Le Microsoft Reader

Lancé en avril 2000, le Microsoft Reader est un logiciel permettant la
lecture de livres numériques au format LIT (abrégé du terme anglais
«literature»), lui-même basé sur le format OeB. Le Microsoft Reader
équipe d'abord le Pocket PC, l’assistant personnel lancé à la même date
par Microsoft. Quatre mois plus tard, en août 2000, le Microsoft Reader
est utilisable sur toute plateforme Windows, et donc aussi bien sur
ordinateur que sur assistant personnel. Ses caractéristiques sont un
affichage utilisant la technologie ClearType, le choix de la taille des
caractères, la mémorisation des mots-clés pour des recherches
ultérieures, et l’accès d’un clic au Merriam-Webster Dictionary.

Ce logiciel étant téléchargeable gratuitement, Microsoft facture les
éditeurs et distributeurs pour l’utilisation de sa technologie de
gestion des droits numériques (DRM), et touche une commission sur la
vente de chaque titre. La gestion des droits numériques s’effectue au
moyen du Microsoft DAS Server (DAS: Digital Asset Server). Microsoft
passe aussi des partenariats avec les grandes librairies en ligne –
Barnes & Noble.com en janvier 2000 puis Amazon.com en août 2000 – pour
la vente de livres numériques lisibles sur le Microsoft Reader. Barnes
& Noble.com ouvre son secteur eBooks en août 2000, suivi par Amazon.com
en novembre 2000.

En novembre 2002, le Microsoft Reader est disponible pour tablette PC,
dès la commercialisation de cette nouvelle machine par 14 fabricants.

# Le Mobipocket Reader

Face à Adobe avec son format PDF (pour l'Acrobat Reader) et Microsoft
avec son format LIT (pour le Microsoft Reader), un nouvel acteur
s’impose rapidement sur le marché, sur un créneau bien spécifique,
celui des appareils mobiles. Fondé à Paris en mars 2000 par Thierry
Brethes et Nathalie Ting, Mobipocket se spécialise d’emblée dans la
distribution sécurisée de livres pour assistant personnel. La société
est financée en partie par Viventures, branche de la multinationale
française Vivendi.

Mobipocket conçoit d'abord le Mobipocket Reader, logiciel de lecture
permettant la lecture de fichiers au format PRC. Gratuit et disponible
en plusieurs langues (français, anglais, allemand, espagnol et
italien), ce logiciel est «universel», c’est-à-dire utilisable sur tout
assistant personnel. En octobre 2001, le Mobipocket Reader reçoit
l’eBook Technology Award de la Foire internationale du livre à
Francfort. À la même date, Franklin passe un partenariat avec
Mobipocket pour l’installation du Mobipocket Reader sur l’eBookMan,
l’assistant personnel multimédia de Franklin, au lieu du partenariat
prévu à l’origine entre Franklin et Microsoft pour l’installation du
Microsoft Reader.

Si le Mobipocket Reader est gratuit, d’autres logiciels Mobipocket sont
payants. Le Mobipocket Web Companion est un logiciel d’extraction
automatique de contenu pour les sites de presse partenaires de la
société. Le Mobipocket Publisher permet aux particuliers (version
privée gratuite ou version standard payante) et aux éditeurs (version
professionnelle payante) de créer des livres numériques sécurisés
utilisant la technologie Mobipocket DRM, afin de contrôler l’accès aux
livres numériques sous droits. Dans un souci d’ouverture aux autres
formats, le Mobipocket Publisher permet aussi de créer des livres
numériques au format LIT pour le Microsoft Reader.

Déjà utilisable sur n’importe quel PDA, le Mobipocket Reader peut être
utilisé sur tout ordinateur et pour toute plateforme en avril 2002,
avec le lancement de nouvelles versions pour ordinateur personnel.

Au printemps 2003, le Mobipocket Reader équipe tous les appareils
mobiles du marché, à savoir les gammes Palm Pilot, Pocket PC, eBookMan
et Psion, auxquels s'ajoutent les smartphones de Nokia et de Sony
Ericsson. À la même date, le nombre de livres lisibles sur le
Mobipocket Reader se chiffre à 6.000 titres dans plusieurs langues
(français, anglais, allemand, espagnol), distribués soit sur le site de
Mobipocket soit dans des librairies partenaires.

Mobipocket est racheté par Amazon.com en avril 2005. Ce rachat permet à
Amazon de beaucoup étoffer son catalogue de livres numériques, en
prévision du lancement de sa tablette de lecture Kindle en novembre
2007. Le site de Mobipocket propose 70.000 ebooks en 2008.


= Stephen King ouvre la voie

En 2000, le livre numérique commence à se généraliser mais la partie
est loin d’être gagnée. Maître du suspense de renommée mondiale,
Stephen King est le premier auteur de best-sellers à se lancer dans
l’aventure numérique, malgré les risques commerciaux encourus, en
tentant de publier un roman épistolaire sur le web indépendamment de
son éditeur.

En mars 2000, Stephen King commence d’abord par distribuer uniquement
sur l’internet sa nouvelle Riding the Bullet, assez volumineuse
puisqu’elle comprend 66 pages. Du fait de la notoriété de l’auteur et
de la couverture médiatique de ce scoop, la «sortie» de cette nouvelle
sur le web est un succès immédiat, avec 400.000 exemplaires téléchargés
lors des premières vingt-quatre heures dans les librairies en ligne qui
la vendent (au prix de 2,5 dollars US).

En juillet 2000, fort de cette expérience prometteuse, Stephen King
décide de se passer des services de Simon & Schuster, son éditeur
habituel. Il crée un site web spécifique pour débuter l’auto-
publication en épisodes de The Plant, un roman épistolaire inédit qui
raconte l’histoire d’une plante carnivore s’emparant d’une maison
d’édition et lui promettant le succès commercial en échange de
sacrifices humains. Le premier chapitre est téléchargeable dans
plusieurs formats - PDF, OeB, HTML, TXT - pour la modeste somme de 1
dollar, avec paiement différé ou paiement immédiat sur le site
d’Amazon.

Dans une lettre aux lecteurs publiée sur son site à la même date,
l’auteur raconte que la création du site, le design et la publicité lui
ont coûté la somme de 124.150 dollars, sans compter sa prestation en
tant qu’écrivain ni la rémunération de son assistante. Il précise aussi
que la publication des chapitres suivants est liée au paiement du
premier chapitre par au moins 75% des internautes.

«Mes amis, vous avez l’occasion de devenir le pire cauchemar des
éditeurs», déclare-t-il dans sa lettre. «Comme vous le voyez, c’est
simple. Pas de cryptage assommant! Vous voulez imprimer l’histoire et
en faire profiter un(e) ami(e)? Allez-y. Une seule condition: tout
repose sur la confiance, tout simplement. C’est la seule solution. Je
compte sur deux facteurs. Le premier est l’honnêteté. Prenez ce que bon
vous semble et payez pour cela, dit le proverbe. Le second est que vous
aimerez suffisamment l’histoire pour vouloir en lire davantage. Si vous
le souhaitez vraiment, vous devez payer. Rappelez-vous: payez, et
l’histoire continue; volez, et l’histoire s’arrête.»

Une semaine après la mise en ligne du premier chapitre, on compte
152.132 téléchargements, avec paiement par 76% des lecteurs. Certains
paient davantage que le dollar demandé, allant parfois jusqu’à 10 ou 20
dollars pour compenser le manque à gagner de ceux qui ne paieraient
pas, et éviter ainsi que la série ne s’arrête.

La barre des 75% est dépassée de peu, au grand soulagement des fans, si
bien que le deuxième chapitre suit un mois après.

En août 2000, dans une nouvelle lettre aux lecteurs, Stephen King
annonce un nombre de téléchargements légèrement inférieur à celui du
premier chapitre. Il en attribue la cause à une publicité moindre et à
des problèmes de téléchargement. Si le nombre de téléchargements n’a
que légèrement décru, le nombre de paiements est en nette diminution,
les internautes ne réglant leur dû qu’une seule fois pour plusieurs
téléchargements.

L’auteur s’engage toutefois à publier le troisième chapitre comme
prévu, fin septembre, et à prendre une décision ensuite sur la
poursuite ou non de l’expérience, en fonction du nombre de paiements.
Ses prévisions sont de onze ou douze chapitres en tout, avec un nombre
total de 1,7 million de téléchargements. Le ou les derniers chapitres
seraient gratuits.

Plus volumineux (environ 10.000 signes au lieu de 5.000), les chapitres
4 et 5 passent à 2 dollars. Mais le nombre de téléchargements et de
paiements ne cesse de décliner, avec 40.000 téléchargements seulement
pour le cinquième chapitre - alors que le premier chapitre avait été
téléchargé 120.000 fois -, et paiement pour 46% des téléchargements
seulement.

Fin novembre, Stephen King annonce l’interruption de la publication
pendant une période indéterminée, après la parution du sixième
chapitre, téléchargeable gratuitement à la mi-décembre. «The Plant va
retourner en hibernation afin que je puisse continuer à travailler»,
précise-t-il sur son site. «Mes agents insistent sur la nécessité
d’observer une pause afin que la traduction et la publication à
l’étranger puissent rattraper la publication en anglais.» Mais cette
décision semble d’abord liée à l’échec commercial de l’expérience.

Cet arrêt suscite de vives critiques. On oublie de reconnaître à
l’auteur au moins un mérite, celui d’avoir été le premier à se lancer
dans l’aventure, avec les risques qu’elle comporte. Entre juillet et
décembre 2000, pendant les six mois qu’elle aura duré, nombreux sont
ceux qui suivent les tribulations de The Plant, à commencer par les
éditeurs, quelque peu inquiets face à un médium qui pourrait un jour
concurrencer le circuit traditionnel.

Quand Stephen King décide d’arrêter l’expérience, plusieurs
journalistes et critiques littéraires affirment qu’il se ridiculise aux
yeux du monde entier. N’est-ce pas quelque peu exagéré? L’auteur avait
d’emblée annoncé la couleur puisqu’il avait lié la poursuite de la
publication à un pourcentage de paiements satisfaisant.

Qu’est-il advenu ensuite des expériences numériques de Stephen King?
L’auteur reste très présent dans ce domaine, mais cette fois par le
biais de son éditeur, preuve que les éditeurs restent toujours utiles.

En mars 2001, son roman Dreamcatcher est le premier roman à être lancé
simultanément en version imprimée par Simon & Schuster et en version
numérique par Palm Digital Media, pour lecture sur les assistants
personnels Palm Pilot et Pocket PC.

En mars 2002, son recueil de nouvelles Everything’s Eventual est lui
aussi publié simultanément en deux versions: en version imprimée par
Scribner, subdivision de Simon & Schuster, et en version numérique par
Palm Digital Media, qui en propose un extrait en téléchargement libre.


= D'autres auteurs suivent

En novembre 2000, deux romanciers européens, l’anglais Frederick
Forsyth et l’espagnol Arturo Pérez-Reverte, décident eux aussi de
tenter l’aventure numérique. Mais, forts de l’expérience d’auto-
publication de Stephen King peut-être, ni l’un ni l’autre n’ont
l’intention de se passer d’éditeur.

Frederick Forsyth, le maître britannique du thriller, aborde la
publication numérique avec l’appui d'Online Originals, un éditeur
électronique londonien. En novembre 2000, Online Originals publie The
Veteran, histoire d’un crime violent commis à Londres et premier volet
de Quintet, une série de cinq nouvelles électroniques (annoncées dans
l’ordre suivant: The Veteran, The Miracle, The Citizen, The Art of the
Matter, Draco).

Disponible en trois formats (PDF, Microsoft Reader et Glassbook
Reader), la nouvelle est vendue au prix de 3,99 pounds (6,60 euros) sur
le site de l’éditeur et dans plusieurs librairies en ligne au Royaume-
Uni (Alphabetstreet, BOL.com, WHSmith)  et aux États-Unis (Barnes &
Noble, Contentville, Glassbook).

«La publication en ligne sera essentielle à l’avenir, déclare Frederick
Forsyth sur le site d’Online Originals. Elle crée un lien simple et
surtout rapide et direct entre le producteur original (l’auteur) et le
consommateur final (le lecteur), avec très peu d’intermédiaires. Il est
passionnant de participer à cette expérience. Je ne suis absolument pas
un spécialiste des nouvelles technologies. Je n’ai jamais vu de livre
électronique. Mais je n’ai jamais vu non plus de moteur de Formule 1,
ce qui ne m’empêche pas de constater combien ces voitures de course
sont rapides.»

La première expérience numérique d’Arturo Pérez-Reverte est un peu
différente. La série best-seller du romancier espagnol relate les
aventures du Capitan Alatriste au 17e siècle. Le nouveau titre à
paraître fin 2000 s’intitule El Oro del Rey (L'or du roi).

En novembre 2000, en collaboration avec son éditeur Alfaguara, l’auteur
décide de diffuser El Oro del Rey en version numérique sur un site
spécifique du portail Inicia, en exclusivité pendant un mois, avant sa
sortie en librairie. Le roman est disponible au format PDF pour 2,90
euros, un prix très inférieur aux 15,10 euros annoncés pour le livre
imprimé.

Résultat de l’expérience, le nombre de téléchargements est très
satisfaisant, mais pas celui des paiements. Un mois après la mise en
ligne du roman, on compte 332.000 téléchargements, avec paiement par
12.000 lecteurs seulement.

À la même date, Marilo Ruiz de Elvira, directrice de contenus du
portail Inicia, explique dans un communiqué: «Pour tout acheteur du
livre numérique, il y avait une clé pour le télécharger en 48 heures
sur le site internet et, surtout au début, beaucoup d’internautes se
sont échangés ce code d’accès dans les forums de chats [dialogues en
direct] et ont téléchargé leur exemplaire sans payer. On a voulu tester
et cela faisait partie du jeu. Arturo Pérez-Reverte voulait surtout
qu’on le lise.»

En 2006, les cinq premiers tomes de cette saga littéraire devenue un
succès planétaire sont vendus à 4 millions d’exemplaires. Ils donnent
également naissance au film Alatriste, une superproduction espagnole de
20 millions d’euros.

Trois ans après ces premières tentatives, si les expériences purement
numériques sont provisoirement abandonnées, les livres numériques ont
une place significative à côté de leurs correspondants imprimés.

En 2003, des centaines de best-sellers sont vendus en version numérique
sur Amazon.com, Barnes & Noble.com, Yahoo! eBook Store ou sur des sites
d’éditeurs (Random House, PerfectBound, etc.), pour lecture sur
ordinateur ou sur assistant personnel. Mobipocket distribue 6.000
titres numériques dans plusieurs langues, soit sur son site soit dans
des librairies partenaires. Le catalogue de Palm Digital Media approche
les 10.000 titres, lisibles sur les gammes de PDA Palm et Pocket PC,
avec 15 à 20 nouveaux titres par jour et 1.000 nouveaux clients par
semaine.

Une expérience un peu différente est celle du romancier brésilien Paulo
Coelho, devenu mondialement célèbre après la parution de L’Alchimiste.
Début 2003, ses livres, traduits en 56 langues, ont été vendus en 53
millions d’exemplaires dans 155 pays, dont 6,5 millions d’exemplaires
dans les pays francophones.

En mars 2003, Paulo Coelho décide de distribuer plusieurs romans
gratuitement en version PDF, dans diverses langues, avec l’accord de
ses éditeurs respectifs, dont Anne Carrière, son éditrice en France.
Trois romans sont disponibles en français: Manuel du guerrier de la
lumière, La cinquième montagne et Veronika décide de mourir.

Pourquoi une telle décision? «Comme le français est présent, à plus ou
moins grande échelle, dans le monde entier, je recevais sans cesse des
courriers électroniques d’universités et de personnes habitant loin de
la France, qui ne trouvaient pas mes oeuvres», déclare le romancier par
le biais de son éditrice. À la question classique relative au préjudice
éventuel sur les ventes futures, il répond: «Seule une minorité de gens
a accès à l’internet, et le livre au format ebook ne remplacera jamais
le livre papier.» Une remarque très juste en 2003, mais qui n'est peut-
être plus de mise en 2010.


= Numilog, librairie numérique

Numilog ouvre ses portes «virtuelles» en octobre 2000 pour devenir en
quelques années la plus grande librairie numérique francophone du
réseau.

En février 2001, Denis Zwirn, président de Numilog, relate: «Dès 1995,
j’avais imaginé et dessiné des modèles de lecteurs électroniques
permettant d’emporter sa bibliothèque avec soi et pesant comme un livre
de poche. Début 1999, j’ai repris ce projet avec un ami spécialiste de
la création de sites internet, en réalisant la formidable synergie
possible entre des appareils de lecture électronique mobiles et le
développement d’internet, qui permet d’acheminer les livres
dématérialisés en quelques minutes dans tous les coins du monde.»

Denis explique aussi: «Nous avons créé une base de livres accessible
par un moteur de recherche. Chaque livre fait l’objet d’une fiche avec
un résumé et un extrait. En quelques clics, il peut être acheté en
ligne par carte bancaire, puis reçu par email ou téléchargement.» Les
livres sont à l’origine répartis en trois grandes catégories - savoir,
guides pratiques et littérature. Le site de Numilog offre ensuite «des
fonctionnalités nouvelles, comme l’intégration d’une "authentique vente
au chapitre" (les chapitres vendus isolément sont traités comme des
éléments inclus dans la fiche-livre, et non comme d’autres livres) et
la gestion très ergonomique des formats de lecture multiples».

Fondée en avril 2000, six mois avant l'ouverture de la librairie
numérique, la société Numilog a en fait une triple activité: librairie
en ligne, studio de fabrication et diffuseur.

«Numilog est d’abord une librairie en ligne de livres numériques»,
relate Denis en 2001. «Notre site internet est dédié à la vente en
ligne de ces livres, qui sont envoyés par courrier électronique ou
téléchargés après paiement par carte bancaire. Il permet aussi de
vendre des livres par chapitres. Numilog est également un studio de
fabrication de livres numériques: aujourd’hui, les livres numériques
n’existent pas chez les éditeurs, il faut donc d’abord les fabriquer
avant de pouvoir les vendre, dans le cadre de contrats négociés avec
les éditeurs détenteurs des droits. Ce qui signifie les convertir à des
formats convenant aux différents "readers" du marché. (...)

Enfin Numilog devient aussi progressivement un diffuseur. Car, sur
internet, il est important d’être présent en de très nombreux points du
réseau pour faire connaître son offre. Pour les livres en particulier,
il faut les proposer aux différents sites thématiques ou de
communautés, dont les centres d’intérêt correspondent à leur sujet
(sites de fans d’histoire, de management, de science-fiction...).
Numilog facilitera ainsi la mise en oeuvre de multiples "boutiques de
livres numériques" thématiques.»

Les livres sont disponibles en plusieurs formats: format PDF pour
lecture sur l’Acrobat Reader (devenu l’Adobe Reader en mai 2003),
format LIT pour lecture sur le Microsoft Reader et format PRC pour
lecture sur le Mobipocket Reader.

En septembre 2003, le catalogue comprend 3.500 titres (livres et
périodiques) en français et en anglais, grâce à un partenariat avec une
quarantaine d’éditeurs, le but à long terme étant de «permettre à un
public d’internautes de plus en plus large d’avoir progressivement
accès à des bases de livres numériques aussi importantes que celles des
livres papier, mais avec plus de modularité, de richesse d’utilisation
et à moindre prix».

Au fil des ans, Numilog devient la principale librairie francophone de
livres numériques, suite à des accords avec de nombreux éditeurs:
Gallimard, Albin Michel, Eyrolles, Hermès Science, Pearson Education
France, etc. Numilog propose aussi des livres audio-numériques lisibles
sur synthèse vocale. Une librairie anglophone est lancée suite à des
accords de diffusion conclus avec plusieurs éditeurs anglo-saxons:
Springer-Kluwer, Oxford University Press, Taylor & Francis, Kogan Page,
etc. Les différents formats proposés permettent la lecture des livres
sur tout appareil électronique: ordinateur, assistant personnel,
téléphone portable, smartphone, tablette de lecture.

La société est également prestataire de services pour les technologies
DRM. En 2004, Numilog met sur pied un système de bibliothèque en ligne
pour le prêt de livres numériques. Ce système est surtout destiné aux
bibliothèques, aux administrations et aux entreprises. En décembre
2006, le catalogue de Numilog comprend 35.000 livres grâce à un
partenariat avec 60 éditeurs francophones et anglophones.

Selon Denis Zwirn, interviewé à nouveau en août 2007, «2008 pourrait
sans doute marquer un premier point d'inflexion dans la courbe de
croissance du marché des livres numériques. Plusieurs facteurs sont
réunis pour cela:

(1) le développement de vastes catalogues en ligne utilisant pleinement
les fonctionnalités de la recherche plein texte dans les livres
numérisés, comme ceux de la future Bibliothèque numérique européenne,
de VollTextSuche Online, de Google et d'Amazon. Une fois le contenu
trouvé dans un des ouvrages ainsi "sondé" par ce type de recherche
révolutionnaire pour le grand public, il est naturel de vouloir accéder
à la totalité de l'ouvrage... dans sa version numérique.

(2) Des progrès techniques cruciaux tels que la proposition commerciale
d'appareils de lecture à base d'encre électronique améliorant
radicalement l'expérience de lecture finale pour l'usager en la
rapprochant de celle du papier. Par exemple l'iLiad d'Irex ou le Sony
Reader, mais bien d'autres appareils s'annoncent. Le progrès concerne
toutefois tout autant le développement des nouveaux smartphones
multifonctions comme les BlackBerry ou l'iPhone, ou la proposition de
logiciels de lecture à l'interface fortement améliorée et pensée pour
les ebooks sur PC, comme Adobe Digital Edition.

(3) Enfin, le changement important d'attitude de la part des
professionnels du secteur, éditeurs, et probablement bientôt aussi
libraires. Les éditeurs anglo-saxons universitaires ont massivement
tracé une route que tous les autres sont en train de suivre, en tout
cas aux États-Unis, en Europe du Nord et en France: proposer une
version numérique de tous les ouvrages. Même pour les plus réticents
encore il y a quelques années, ce n'est plus une question de
"pourquoi?", c'est simplement devenu une question de "comment?". Les
libraires ne vont pas tarder à considérer que vendre un livre numérique
fait partie de leur métier normal.»

Selon Denis, «le livre numérique n'est plus une question de colloque,
de définition conceptuelle ou de divination par certains "experts":
c'est un produit commercial et un outil au service de la lecture. Il
n'est pas besoin d'attendre je ne sais quel nouveau mode de lecture
hypermoderne et hypertextuel enrichi de multimédia orchestrant
savamment sa spécificité par rapport au papier, il suffit de proposer
des textes lisibles facilement sur les supports de lecture électronique
variés qu'utilisent les gens, l'encre électronique pouvant
progressivement envahir tous ces supports. Et de les proposer de
manière industrielle. Ce n'est pas et ne sera jamais un produit de
niche (les dictionnaires, les guides de voyage, les livres pour les non
voyants...): c'est en train de devenir un produit de masse, riche de
formes multiples comme l'est le livre traditionnel.»

En janvier 2009, Numilog, devenu filiale du groupe Hachette Livre (en
mai 2008), est désormais un distributeur-diffuseur numérique
représentant 100 éditeurs francophones et anglophones, avec un
catalogue de 50.000 livres numériques distribués auprès des
particuliers et des bibliothèques. Numilog propose également aux
librairies un service de vente de livres numériques sur leur propre
site.



LA CYBER-LITTÉRATURE


[Résumé]
Nombre d’auteurs s’accordent à reconnaître les bienfaits de l'internet,
que ce soit pour la recherche d’information, la diffusion de leurs
oeuvres, les échanges avec les lecteurs ou la collaboration avec
d’autres créateurs. Des auteurs férus de nouvelles technologies font
aussi un véritable travail de défricheur en explorant les possibilités
offertes par l’hyperlien. Les technologies numériques donnent naissance
à plusieurs genres: roman multimédia, roman hypertexte, roman
hypermédia, site d’écriture hypermédia, mail-roman, etc. La cyber-
littérature bouscule désormais la littérature traditionnelle en lui
apportant un souffle nouveau, tout en s’intégrant à d’autres formes
artistiques puisque le support numérique favorise la fusion de l’écrit
avec l’image et le son.


= Poésie

Poète et plasticienne, Silvaine Arabo vit en France, dans la région
Poitou-Charentes. En mai 1997, elle crée l'un des premiers sites
francophones consacrés à la poésie, Poésie d’hier et d’aujourd’hui, sur
lequel elle propose de nombreux poèmes, y compris les siens.

En juin 1998, elle raconte: «Je suis poète, peintre et professeur de
lettres (13 recueils de poèmes publiés, ainsi que deux recueils
d’aphorismes et un essai sur le thème “poésie et transcendance”; quant
à la peinture, j’ai exposé mes toiles à Paris - deux fois - et en
province). (...) Pour ce qui est d’internet, je suis autodidacte (je
n’ai reçu aucune formation informatique quelle qu’elle soit). J’ai eu
l’idée de construire un site littéraire centré sur la poésie: internet
me semble un moyen privilégié pour faire circuler des idées, pour
communiquer ses passions aussi. Je me suis donc mise au travail, très
empiriquement, et ai finalement abouti à ce site sur lequel j’essaye de
mettre en valeur des poètes contemporains de talent, sans oublier la
nécessaire prise de recul (rubrique "Réflexions sur la poésie") sur
l’objet considéré. (...)

Par ailleurs, internet m’a mis en contact avec d’autres poètes, dont
certains fort intéressants. Cela rompt le cercle de la solitude et
permet d’échanger des idées. On se lance des défis aussi. Internet peut
donc pousser à la créativité et relancer les motivations des poètes
puisqu’ils savent qu’ils seront lus et pourront même, dans le meilleur
des cas, correspondre avec leurs lecteurs et avoir les points de vue de
ceux-ci sur leurs textes. Je ne vois personnellement que des aspects
positifs à la promotion de la poésie par internet, tant pour le lecteur
que pour le créateur.»

Très vite, Poésie d’hier et d’aujourd’hui prend la forme d’une cyber-
revue. Quatre ans plus tard, en mars 2001, Silvaine Arabo crée une
deuxième revue, Saraswati: revue de poésie, d’art et de réflexion,
cette fois sous forme imprimée. Les deux revues «se complètent et sont
vraiment à placer en regard l’une de l’autre».


= Fables

Fondé en 1992 par Nicolas et Suzanne Pewny, alors libraires en Haute-
Savoie, Le Choucas est une petite maison d’édition spécialisée dans les
romans policiers, la littérature, la photographie et les livres d’art.

Bien qu’étant d’abord un éditeur à vocation commerciale, Nicolas Pewny
tient aussi à avoir des activités non commerciales pour faire connaître
des auteurs peu diffusés, par exemple Raymond Godefroy, écrivain-paysan
normand, qui désespérait de trouver un éditeur pour son recueil de
fables, Fables pour l’an 2000. Quelques jours avant l'an 2000, Nicolas
Pewny publie le recueil en ligne sur le site du Choucas, dans une belle
version numérique.

«Internet représente pour moi un formidable outil de communication qui
nous affranchit des intermédiaires, des barrages doctrinaires et des
intérêts des médias en place», écrit Raymond Godefroy en décembre 1999.
«Soumis aux mêmes lois cosmiques, les hommes, pouvant mieux se
connaître, acquerront peu à peu cette conscience du collectif,
d’appartenir à un même monde fragile pour y vivre en harmonie sans le
détruire. Internet est absolument comme la langue d’Ésope, la meilleure
et la pire des choses, selon l’usage qu’on en fait, et j’espère qu’il
me permettra de m’affranchir en partie de l’édition et de la
distribution traditionnelle qui, refermée sur elle-même, souffre d’une
crise d’intolérance pour entrer à reculons dans le prochain
millénaire.»

Très certainement autobiographique, la fable Le poète et l’éditeur (à
savoir la sixième fable de la troisième partie du recueil) relate on ne
peut mieux les affres du poète à la recherche d’un éditeur. Raymond
Godefroy restant très attaché au papier, il auto-publie la version
imprimée de ses fables en juin 2001, avec un titre légèrement
différent, Fables pour les années 2000, puisque le cap du 21e siècle
est désormais franchi.


= Romans policiers

Michel Benoît habite Montréal, au Québec. Auteur de nouvelles
policières, de récits noirs et d’histoires fantastiques, il utilise
l’internet pour élargir ses horizons et pour «abolir le temps et la
distance».

Il relate en juin 2000: «L’internet s’est imposé à moi comme outil de
recherche et de communication, essentiellement. Non, pas
essentiellement. Ouverture sur le monde aussi. Si l’on pense
“recherche”, on pense “information”. Voyez-vous, si l’on pense
“écriture”, “réflexion”, on pense “connaissance”, “recherche”. Donc on
va sur la toile pour tout, pour une idée, une image, une explication.
Un discours prononcé il y a vingt ans, une peinture exposée dans un
musée à l’autre bout du monde. On peut donner une idée à quelqu’un
qu’on n’a jamais vu, et en recevoir de même. La toile, c’est le monde
au clic de la souris. On pourrait penser que c’est un beau cliché.
Peut-être bien, à moins de prendre conscience de toutes les
implications de la chose. L’instantanéité, l’information tout de suite,
maintenant. Plus besoin de fouiller, de se taper des heures de
recherche. On est en train de faire, de produire. On a besoin d’une
information. On va la chercher, immédiatement. De plus, on a accès aux
plus grandes bibliothèques, aux plus importants journaux, aux musées
les plus prestigieux. (...)

Mon avenir professionnel en inter-relation avec le net, je le vois
exploser. Plus rapide, plus complet, plus productif. Je me vois faire
en une semaine ce qui m’aurait pris des mois. Plus beau, plus
esthétique. Je me vois réussir des travaux plus raffinés, d’une facture
plus professionnelle, même et surtout dans des domaines connexes à mon
travail, comme la typographie, où je n’ai aucune compétence. La
présentation, le transport de textes, par exemple. Le travail simultané
de plusieurs personnes qui seront sur des continents différents.
Arriver à un consensus en quelques heures sur un projet, alors qu’avant
le net, il aurait fallu plusieurs semaines, parlons de mois entre les
Francophones. Plus le net ira se complexifiant, plus l’utilisation du
net deviendra profitable, nécessaire, essentielle.»

Autre expérience, celle d'Alain Bron, consultant en systèmes
d'information et écrivain. L'internet est un des «personnages» de son
deuxième roman, Sanguine sur toile, disponible en version imprimée aux
éditions du Choucas en 1999, puis en version numérique (format PDF) aux
éditions 00h00 en 2000.

Quel est le thème de ce roman? «La "toile", c'est celle du peintre,
c'est aussi l'autre nom d'internet: le web - la toile d'araignée -»,
raconte l'auteur en novembre 1999. «"Sanguine" évoque le dessin et la
mort brutale. Mais l'amour des couleurs justifierait-il le meurtre?
Sanguine sur toile évoque l'histoire singulière d'un internaute pris
dans la tourmente de son propre ordinateur, manipulé à distance par un
très mystérieux correspondant qui n'a que vengeance en tête. J'ai voulu
emporter le lecteur dans les univers de la peinture et de l'entreprise,
univers qui s'entrelacent, s'échappent, puis se rejoignent dans la
fulgurance des logiciels.

Le lecteur est ainsi invité à prendre l'enquête à son propre compte
pour tenter de démêler les fils tressés par la seule passion. Pour
percer le mystère, il devra répondre à de multiples questions. Le monde
au bout des doigts, l'internaute n'est-il pas pour autant l'être le
plus seul au monde? Compétitivité oblige, jusqu'où l'entreprise
d'aujourd'hui peut-elle aller dans la violence? La peinture tend-elle à
reproduire le monde ou bien à en créer un autre? Enfin, j'ai voulu
montrer que les images ne sont pas si sages. On peut s'en servir pour
agir, voire pour tuer. (...)

Dans le roman, internet est un personnage en soi. Plutôt que de le
décrire dans sa complexité technique, le réseau est montré comme un
être tantôt menaçant, tantôt prévenant, maniant parfois l'humour.
N'oublions pas que l'écran d'ordinateur joue son double rôle: il montre
et il cache. C'est cette ambivalence qui fait l'intrigue du début à la
fin. Dans ce jeu, le grand gagnant est bien sûr celui ou celle qui sait
s'affranchir de l'emprise de l'outil pour mettre l'humanisme et
l'intelligence au-dessus de tout.»


= Autres oeuvres de fiction

Murray Suid vit à Palo Alto, dans la Silicon Valley, en Californie. Il
est l’auteur de livres pédagogiques, de livres pour enfants, d’oeuvres
multimédia et de scénarios.

Dès septembre 1998, il préconise une solution choisie depuis par de
nombreux auteurs. «Un livre peut avoir un prolongement sur le web – et
donc vivre en partie dans le cyberespace, explique-t-il. L’auteur peut
ainsi aisément l’actualiser et le corriger, alors qu’auparavant il
devait attendre longtemps, jusqu’à l’édition suivante, quand il y en
avait une. (...) Je ne sais pas si je publierai des livres sur le web,
au lieu de les publier en version imprimée. J’utiliserai peut-être ce
nouveau support si les livres deviennent multimédias. Pour le moment,
je participe au développement de matériel pédagogique multimédia. C’est
un nouveau type de matériel qui me plaît beaucoup et qui permet
l’interactivité entre des textes, des films, des bandes sonores et des
graphiques qui sont tous reliés les uns aux autres.»

Un an plus tard, en août 1999, il ajoute: «En plus des livres complétés
par un site web, je suis en train d’adopter la même formule pour mes
oeuvres multimédias – qui sont sur CD-ROM – afin de les actualiser et
d’enrichir leur contenu.»

Quelques mois plus tard, l’intégralité de ses oeuvres multimédias est
sur le réseau. Le matériel pédagogique auquel il contribue est conçu
non plus pour diffusion sur CD-ROM, mais pour diffusion sur le web.
D’entreprise multimédia, la société de logiciels éducatifs qui emploie
Murray s'est reconvertie en entreprise internet.

Autre expérience, celle d'Anne-Bénédicte Joly, romancière et essayiste,
qui habite en région parisienne. En avril 2000, elle décide d’auto-
publier ses oeuvres en utilisant l’internet pour les faire connaître.
«Mon site a plusieurs objectifs», relate-t-elle en juin 2000.
«Présenter mes livres (essais, nouvelles et romans auto-édités) à
travers des fiches signalétiques (dont le format est identique à celui
que l’on trouve dans la base de données Électre) et des extraits
choisis, présenter mon parcours (de professeur de lettres et
d’écrivain), permettre de commander mes ouvrages, offrir la possibilité
de laisser des impressions sur un livre d’or, guider le lecteur à
travers des liens vers des sites littéraires. (...) Créer un site
internet me permet d’élargir le cercle de mes lecteurs en incitant les
internautes à découvrir mes écrits. Internet est également un moyen
pour élargir la diffusion de mes ouvrages. Enfin, par une politique de
liens, j’espère susciter des contacts de plus en plus nombreux.»


= Romans numériques

Lucie de Boutiny est l’auteur de NON, roman multimédia débuté en août
1997 et publié en feuilleton par Synesthésie, une revue en ligne d’art
contemporain.

«NON est un roman comique qui fait la satire de la vie quotidienne d’un
couple de jeunes cadres supposés dynamiques», raconte-t-elle en juin
2000. «Bien qu’appartenant à l’élite high-tech d’une industrie
florissante, Monsieur et Madame sont les jouets de la dite révolution
numérique. (...) NON prolonge les expériences du roman post-moderne
(récits tout en digression, polysémie avec jeux sur les registres -
naturaliste, mélo, comique... - et les niveaux de langues, etc.). Cette
hyper-stylisation permet à la narration des développements inattendus
et offre au lecteur l’attrait d’une navigation dans des récits
multiples et multimédias, car l’écrit à l’écran s’apparente à un jeu et
non seulement se lit mais aussi se regarde.»

Les romans précédents de Lucie de Boutiny sont publiés sous forme
imprimée. Un roman numérique requiert-il une démarche différente?
«D’une manière générale, mon humble expérience d’apprentie auteur m’a
révélé qu’il n’y a pas de différence entre écrire de la fiction pour le
papier ou le pixel: cela demande une concentration maximale, un
isolement à la limite désespéré, une patience obsessionnelle dans le
travail millimétrique avec la phrase, et bien entendu, en plus de la
volonté de faire, il faut avoir quelque chose à dire! Mais avec le
multimédia, le texte est ensuite mis en scène comme s’il n’était qu’un
scénario. Et si, à la base, il n’y a pas un vrai travail sur le langage
des mots, tout le graphisme et les astuces interactives qu’on peut y
mettre fera gadget. Par ailleurs, le support modifie l’appréhension du
texte, et même, il faut le souligner, change l’oeuvre originale.»

Autre roman numérique, Apparitions inquiétantes est né sous la plume
d’Anne-Cécile Brandenbourger. Il s’agit d’«une longue histoire à lire
dans tous les sens, un labyrinthe de crimes, de mauvaises pensées et de
plaisirs ambigus».

Pendant deux ans, cette histoire se construit sous forme de feuilleton
sur le site d’Anacoluthe, en collaboration avec Olivier Lefèvre. En
février 2000, l’histoire est publiée en version numérique (au format
PDF) aux éditions 00h00, en tant que premier titre de la Collection
2003, consacrée aux écritures numériques, avec version imprimée à la
demande.

00h00 présente l'ouvrage comme «un cyber-polar fait de récits
hypertextuels imbriqués en gigogne. Entre personnages de feuilleton
américain et intrigue policière, le lecteur est - hypertextuellement -
mené par le bout du nez dans cette saga aux allures borgésiennes. (...)
C’est une histoire de meurtre et une enquête policière; des textes
écrits court et montés serrés; une balade dans l’imaginaire des séries
télé; une déstructuration (organisée) du récit dans une transposition
littéraire du zapping; et par conséquent, des sensations de lecture
radicalement neuves.»

Suite au succès du livre, les éditions Florent Massot publient en août
2000 une deuxième version imprimée (la première étant celle de 00h00,
imprimée uniquement à la demande), avec une couverture en 3D, un
nouveau titre - La malédiction du parasol - et une maquette d’Olivier
Lefèvre restituant le rythme de la version originale.

Anne-Cécile Brandenbourger relate en juin 2000: «Les possibilités
offertes par l’hypertexte m’ont permis de développer et de donner libre
cours à des tendances que j’avais déjà auparavant. J’ai toujours adoré
écrire et lire des textes éclatés et inclassables (comme par exemple La
vie mode d’emploi de Perec ou Si par une nuit d’hiver un voyageur de
Calvino) et l’hypermédia m’a donné l’occasion de me plonger dans ces
formes narratives en toute liberté. Car, pour créer des histoires non
linéaires et des réseaux de textes qui s’imbriquent les uns dans les
autres, l’hypertexte est évidemment plus approprié que le papier. Je
crois qu’au fil des jours, mon travail hypertextuel a rendu mon
écriture de plus en plus intuitive. Plus "intérieure" aussi peut-être,
plus proche des associations d’idées et des mouvements désordonnés qui
caractérisent la pensée lorsqu’elle se laisse aller à la rêverie. Cela
s’explique par la nature de la navigation hypertextuelle, le fait que
presque chaque mot qu’on écrit peut être un lien, une porte qui s’ouvre
sur une histoire.»

Lucie de Boutiny raconte à la même date: «Mes "conseillers
littéraires", des amis qui n’ont pas ressenti le vent de liberté qui
souffle sur le web, aimeraient que j’y reste, engluée dans la pâte à
papier. Appliquant le principe de demi-désobéissance, je fais des
allers-retours papier-pixel. L’avenir nous dira si j’ai perdu mon temps
ou si un nouveau genre littéraire hypermédia va naître. (...) Si les
écrivains français classiques en sont encore à se demander s’ils ne
préfèrent pas le petit carnet Clairefontaine, le Bic ou le Mont-Blanc
fétiche, et un usage modéré du traitement de texte, plutôt que
l’ordinateur connecté, c’est que l’HTX [HyperText Literature] nécessite
un travail d’accouchement visuel qui n’est pas la vocation originaire
de l’écrivain papier. En plus des préoccupations du langage (syntaxe,
registre, ton, style, histoire...), le techno-écrivain - collons-lui ce
label pour le différencier - doit aussi maîtriser la syntaxe
informatique et participer à l’invention de codes graphiques car lire
sur un écran est aussi regarder.»


= Mail-romans

Le premier mail-roman francophone est lancé en 2001 par Jean-Pierre
Balpe, chercheur, écrivain et directeur du département hypermédia de
l’Université Paris 8. Pendant très exactement cent jours, entre le 11
avril et le 19 juillet 2001, il diffuse quotidiennement par courriel un
chapitre de Rien n’est sans dire auprès de cinq cents personnes – sa
famille, ses amis, ses collègues, etc. - en y intégrant les réponses et
les réactions des lecteurs.

Racontée par un narrateur, l’histoire est celle de Stanislas et Zita,
qui vivent une passion tragique déchirée par une sombre histoire
politique. «Cette idée d’un mail-roman m’est venue tout naturellement»,
relate l’auteur en février 2002. «D’une part en me demandant depuis
quelque temps déjà ce qu’internet peut apporter sur le plan de la forme
à la littérature (...) et d’autre part en lisant de la littérature
"épistolaire" du 18e siècle, ces fameux "romans par lettres". Il suffit
alors de transposer: que peut être le "roman par lettres" aujourd’hui?»

Jean-Pierre Balpe tire plusieurs conclusions de cette expérience:
«D’abord c’est un "genre": depuis, plusieurs personnes m’ont dit lancer
aussi un mail-roman. Ensuite j’ai aperçu quantité de possibilités que
je n’ai pas exploitées et que je me réserve pour un éventuel travail
ultérieur. La contrainte du temps est ainsi très intéressante à
exploiter: le temps de l’écriture bien sûr, mais aussi celui de la
lecture: ce n’est pas rien de mettre quelqu’un devant la nécessité de
lire, chaque jour, une page de roman. Ce "pacte" a quelque chose de
diabolique. Et enfin le renforcement de ma conviction que les
technologies numériques sont une chance extraordinaire du
renouvellement du littéraire.»


= Sites hypermédias

Principe de base du web, le lien hypertexte permet de relier entre eux
des documents textuels et des images. Quant au lien hypermédia, il
permet l’accès à des graphiques, des images animées, des bandes sonores
et des vidéos. Des écrivains férus de nouvelles technologies ne tardent
pas à en explorer les possibilités, dans des sites d’écriture
hypermédia et des oeuvres d’hyperfiction.

Mis en ligne en juin 1997, oVosite est un espace d’écriture conçu par
un collectif de six auteurs issus du département hypermédia de
l’Université Paris 8: Chantal Beaslay, Laure Carlon, Luc Dall’Armellina
(qui est aussi le webmestre d'oVosite), Philippe Meuriot, Anika
Mignotte et Claude Rouah. «oVosite est un site web conçu et réalisé
(...) autour d’un symbole primordial et spirituel, celui de l’oeuf»,
explique Luc Dall’Armellina en juin 2000. «Le site s’est constitué
selon un principe de cellules autonomes qui visent à exposer et
intégrer des sources hétérogènes (littérature, photo, peinture, vidéo,
synthèse) au sein d’une interface unifiante.»

Les possibilités offertes par l’hyperlien ont-elles changé son mode
d’écriture? Sa réponse est à la fois négative et positive.

Négative d’abord: «Non - parce qu’écrire est de toute façon une affaire
très intime, un mode de relation qu’on entretient avec son monde, ses
proches et son lointain, ses mythes et fantasmes, son quotidien et
enfin, appendus à l’espace du langage, celui de sa langue d’origine.
Pour toutes ces raisons, je ne pense pas que l’hypertexte change
fondamentalement sa manière d’écrire, qu’on procède par touches, par
impressions, associations, quel que soit le support d’inscription, je
crois que l’essentiel se passe un peu à notre insu.»

Positive ensuite: «Oui - parce que l’hypertexte permet sans doute de
commencer l’acte d’écriture plus tôt: devançant l’activité de lecture
(associations, bifurcations, sauts de paragraphes) jusque dans l’acte
d’écrire. L’écriture (ceci est significatif avec des logiciels comme
StorySpace) devient peut-être plus modulaire. On ne vise plus tant la
longue horizontalité du récit, mais la mise en espace de ses fragments,
autonomes. Et le travail devient celui d’un tissage des unités entre
elles. L’autre aspect lié à la modularité est la possibilité
d’écritures croisées, à plusieurs auteurs. Peut-être s’agit-il
d’ailleurs d’une méta-écriture, qui met en relation les unités de sens
(paragraphes ou phrases) entre elles.»

Luc ajoute aussi: «La couverture du réseau autour de la surface du
globe resserre les liens entre les individus distants et inconnus. Ce
qui n’est pas simple puisque nous sommes placés devant des situations
nouvelles: ni vraiment spectateurs, ni vraiment auteurs, ni vraiment
lecteurs, ni vraiment interacteurs. Ces situations créent des nouvelles
postures de rencontre, des postures de "spectacture" ou de "lectacture"
(Jean-Louis Weissberg). Les notions de lieu, d’espace, de temps,
d’actualité sont requestionnées à travers ce médium qui n’offre plus
guère de distance à l’événement mais se situe comme aucun autre dans le
présent en train de se faire. L’écart peut être mince entre l’envoi et
la réponse, parfois immédiat (cas de la génération de textes).

Mais ce qui frappe et se trouve repérable ne doit pas masquer les
aspects encore mal définis tels que les changements radicaux qui
s’opèrent sur le plan symbolique, représentationnel, imaginaire et plus
simplement sur notre mode de relation aux autres. "Plus de proximité"
ne crée pas plus d’engagement dans la relation, de même "plus de liens"
ne créent pas plus de liaisons, ou encore "plus de tuyaux" ne créent
pas plus de partage. Je rêve d’un internet où nous pourrions écrire à
plusieurs sur le même dispositif, une sorte de lieu d’atelier
d’écritures permanent et qui autoriserait l’écriture personnelle (c’est
en voie d’exister), son partage avec d’autres auteurs, leur mise en
relation dans un tissage d’hypertextes et un espace commun de notes et
de commentaires sur le travail qui se crée.»

L’avenir de la cyber-littérature est tracé par sa technologie même,
comme l'explique en août 1999 Jean-Paul, webmestre du site hypermédia
cotres.net: «Il est maintenant impossible à un(e) auteur(e) seul(e) de
manier à la fois les mots, leur apparence mouvante et leur sonorité.
Maîtriser aussi bien Director, Photoshop et Cubase, pour ne citer que
les plus connus, c’était possible il y a dix ans, avec les versions 1.
Ça ne l’est plus. Dès demain (matin), il faudra savoir déléguer les
compétences, trouver des partenaires financiers aux reins autrement
plus solides que Gallimard, voir du côté d’Hachette-Matra, Warner,
Pentagone, Hollywood. Au mieux, le statut de... l’écrivaste? Du
multimédiaste? sera celui du vidéaste, du metteur en scène, du
directeur de produit: c’est lui qui écope des palmes d’or à Cannes,
mais il n’aurait jamais pu les décrocher seul. Soeur jumelle (et non
pas clone) du cinématographe, la cyber-littérature (= la vidéo + le
lien) sera une industrie, avec quelques artisans isolés dans la
périphérie off-off (aux droits d’auteur négatifs, donc).»

Quelques mois plus tard, en juin 2000, Jean-Paul s'interroge sur
l'apport de l'internet dans son écriture: «La navigation par hyperliens
se fait en rayon (j’ai un centre d’intérêt et je clique méthodiquement
sur tous les liens qui s’y rapportent) ou en louvoiements (de clic en
clic, à mesure qu’ils apparaissent, au risque de perdre de vue mon
sujet). Bien sûr, les deux sont possibles avec l’imprimé. Mais la
différence saute aux yeux: feuilleter n’est pas cliquer. L’internet n’a
donc pas changé ma vie, mais mon rapport à l’écriture. On n’écrit pas
de la même manière pour un site que pour un scénario, une pièce de
théâtre, etc. (...)

Depuis, j’écris (compose, mets en page, en scène) directement à
l’écran. L’état "imprimé" de mon travail n’est pas le stade final, le
but; mais une forme parmi d’autres, qui privilégie la linéarité et
l’image, et qui exclut le son et les images animées. (…)

C’est finalement dans la publication en ligne (l’entoilage?) que j’ai
trouvé la mobilité, la fluidité que je cherchais. Le maître mot y est
"chantier en cours", sans palissades. Accouchement permanent, à vue,
comme le monde sous nos yeux. Provisoire, comme la vie qui tâtonne, se
cherche, se déprend, se reprend. Avec évidemment le risque souligné par
les gutenbergs, les orphelins de la civilisation du livre: plus rien
n’est sûr. Il n’y a plus de source fiable, elles sont trop nombreuses,
et il devient difficile de distinguer un clerc d’un gourou. Mais c’est
un problème qui concerne le contrôle de l’information. Pas la
transmission des émotions.»

Jean-Paul fait à nouveau le point sur son activité d’entoileur quelques
années plus tard, en janvier 2007: «J’ai gagné du temps. J’utilise
moins de logiciels, dont j’intègre le résultat dans Flash. Ce dernier
m’assure de contrôler à 90% le résultat à l’affichage sur les écrans de
réception (au contraire de ceux qui préfèrent présenter des oeuvres
ouvertes, où l’intervention tantôt du hasard tantôt de l’internaute est
recherchée). Je peux maintenant me concentrer sur le coeur de la chose:
l’architecture et le développement du récit. (...) Les deux points
forts des trois ou quatre ans à venir sont: (1) la généralisation du
très haut débit (c’est-à-dire en fait du débit normal), qui va
m’affranchir des limitations purement techniques, notamment des soucis
de poids et d’affichage des fichiers (mort définitive, enfin, des
histogrammes de chargement); (2) le développement de la 3 D. C’est le
récit en hypermédia (= le multimédia + le clic) qui m’intéresse. Les
pièges que pose un récit en 2 D sont déjà passionnants. Avec la 3 D, il
va falloir chevaucher le tigre pour éviter la simple prouesse technique
et laisser la priorité au récit.»



VERS UNE BIBLIOTHÈQUE PLANÉTAIRE


[Résumé]
En 2005, le livre devient un objet convoité par les géants de
l’internet que sont Google, Yahoo! et Microsoft, d’une part par souci
méritoire de mettre le patrimoine mondial à la disposition de tous,
d’autre part à cause de l’enjeu représenté par les recettes
publicitaires générées par les liens commerciaux accolés aux résultats
des recherches. Lancée en octobre 2005 à l’instigation de l’Internet
Archive, l’Open Content Alliance (OCA) souhaite pour sa part créer une
bibliothèque planétaire publique qui soit respectueuse du droit
d'auteur et dont les collections puissent être accessibles sur
n'importe quel moteur de recherche.


= Google Books

# Google Print

Google décide de mettre son expertise au service du livre et lance la
version bêta de Google Print en mai 2005. Ce lancement est précédé de
deux étapes.

En octobre 2004, Google lance la première partie de son programme
Google Print, établi en partenariat avec les éditeurs pour pouvoir
consulter à l’écran des extraits de livres, puis commander les livres
auprès d’une librairie en ligne.

En décembre 2004, Google lance la deuxième partie de son programme
Google Print, cette fois à destination des bibliothèques. Il s’agit
d’un projet de bibliothèque consistant à numériser les livres
appartenant à plusieurs grandes bibliothèques partenaires, à commencer
par la bibliothèque de l’Université du Michigan (dans sa totalité, à
savoir 7 millions d’ouvrages), les bibliothèques des Universités de
Harvard, de Stanford et d’Oxford, et celle de la ville de New York. Le
coût estimé au départ se situe entre 150 et 200 millions de dollars US,
avec la numérisation de 10 millions de livres sur six ans et un
chantier d'une durée totale de dix ans.

En août 2005, soit trois mois après son lancement, Google Print est
suspendu pour une durée indéterminée suite à un conflit grandissant
avec les associations d'auteurs et d'éditeurs de livres sous droits,
celles-ci reprochant à Google de numériser les livres sans l'accord
préalable des ayants droit.

# Google Livres

Le programme reprend en août 2006 sous le nom de Google Books (Google
Livres). Google Books permet de rechercher les livres par date, titre
ou éditeur. La numérisation des fonds de grandes bibliothèques se
poursuit, tout comme le développement de partenariats avec les éditeurs
qui le souhaitent.

Les livres libres de droit sont consultables à l’écran en texte
intégral, leur contenu est copiable et l’impression est possible page à
page. Ils sont également téléchargeables sous forme de fichiers PDF et
imprimables dans leur entier. Les liens publicitaires associés aux
pages de livres sont situés en haut et à droite de l’écran.

Le conflit avec les associations d'auteurs et d'éditeurs se poursuit
lui aussi, puisque Google continue de numériser des livres sous droits
sans l’autorisation préalable des ayants droit, en invoquant le droit
de citation pour présenter des extraits sur le web. L’Authors Guild et
l’Association of American Publishers (AAP) invoquent pour leur part le
non respect de la législation relative au copyright pour attaquer
Google en justice.

Fin 2006, d'après le buzz médiatique, Google scannerait 3.000 livres
par jour - ce qui représenterait un million de livres par an -, le coût
estimé serait de 30 dollars par livre et Google Books comprendrait déjà
3 millions de livres. Tous chiffres à prendre avec précaution, la
société ne communiquant pas de statistiques à ce sujet.

À l’exception de la New York Public Library, les collections en cours
de numérisation appartiennent toutes à des bibliothèques universitaires
américaines (Harvard, Stanford, Michigan, Oxford, Californie, Virginie,
Wisconsin-Madison), auxquelles s'ajoutent la bibliothèque de
l'Universidad Complutense de Madrid (Espagne) puis, début 2007, les
bibliothèques des Universités de Princeton et du Texas (Austin), ainsi
que la Biblioteca de Catalunya (Catalogne, Espagne) et la Bayerische
Staatbibliothek (Bavière, Allemagne). En mai 2007, Google annonce la
participation de la première bibliothèque francophone, la Bibliothèque
cantonale et universitaire (BCU) de Lausanne (Suisse), pour la
numérisation de 100.000 titres en français, en allemand et en italien
publiés entre le 17e et le 19e siècle. Suit ensuite un partenariat avec
la Bibliothèque municipale de Lyon (France), signé en juillet 2008 pour
numériser 500.000 livres.

En octobre 2008, après trois ans de conflit, Google tente de mettre fin
aux poursuites émanant des associations d'auteurs et d'éditeurs. La
société propose un accord qui serait basé sur un partage des revenus
générés par Google Books ainsi qu'un large accès aux ouvrages épuisés,
tout comme le paiement de 125 millions de dollars US à l'Authors Guild
et à l'Association of American Publishers (AAP) pour clôturer
définitivement ce conflit.

Suite à cet accord, Google pourrait proposer de plus larges extraits de
livres, jusqu'à 20% d'un même ouvrage, avec un lien commercial pour
acheter une copie - numérique ou non - de l'oeuvre. Les ayants droit
auraient la possibilité de participer ou non au projet Google Books, et
donc de retirer leurs livres des collections. Par ailleurs, les
bibliothèques universitaires et publiques des États-Unis pourraient
accéder à un portail gratuit géré par Google et donnant accès aux
textes de millions de livres épuisés. Un abonnement permettrait aux
universités et aux écoles de consulter les collections des
bibliothèques les plus renommées.

En novembre 2008, Google Books comprend 7 millions d'ouvrages
numérisés, en partenariat avec 24 bibliothèques et 2.000 éditeurs
partenaires. Les 24 bibliothèques partenaires se situent principalement
aux États-Unis (16), mais aussi en Allemagne (1), en Belgique (1), en
Espagne (2), en France (1), au Japon (1), au Royaume-Uni (1) et en
Suisse (1).

En février 2009, Google Books lance un portail spécifique pour
téléphone mobile et smartphone, par exemple sur l'iPhone 3G d'Apple ou
sur le G1 de T-Mobile. Le catalogue comprend 1,5 million de livres du
domaine public, auxquels s'ajoutent 500.000 autres titres
téléchargeables hors des États-Unis, du fait d'une législation du
copyright moins restrictive dans certains pays.


= L'Open Content Alliance

En réaction au projet Google Books, l’Internet Archive pense qu'une
bibliothèque à vocation mondiale ne doit pas être liée à des enjeux
commerciaux. Courant 2005, elle lance l’Open Content Alliance (OCA),
dans l'optique de fédérer un grand nombre de partenaires pour créer une
bibliothèque planétaire publique respectueuse du copyright et sur un
modèle ouvert.

Qu’est-ce exactement que l’Internet Archive? Fondée en avril 1996 par
Brewster Kahle à San Francisco (Californie), l’Internet Archive a pour
but de constituer, stocker, préserver et gérer une «bibliothèque» de
l’internet, en archivant la totalité du web tous les deux mois, afin
d’offrir un outil de travail aux universitaires, chercheurs et
historiens, et de préserver un historique de l’internet pour les
générations futures.

En octobre 2001, l’Internet Archive met ses archives en accès libre sur
le web grâce à la Wayback Machine, qui permet à tout un chacun de
consulter l’historique d’un site web, à savoir le contenu et la
présentation d’un site web à différentes dates, théoriquement tous les
deux mois à partir de 1996.

L’Internet Archive débute aussi la constitution de collections
numériques telles que le Million Book Project (10.520 livres en avril
2005), des archives de films de la période 1903-1973, des archives de
concerts live récents, des archives de logiciels, etc. Toutes ces
collections sont en consultation libre sur le web.

En janvier 2005, l’Internet Archive s’associe à Yahoo! pour mettre sur
pied l’Open Content Alliance (OCA), une initiative visant à créer un
répertoire libre et multilingue de livres numérisés et de documents
multimédia pour consultation sur n’importe quel moteur de recherche.

L’OCA est officiellement lancée en octobre 2005 et débute véritablement
durant l'été 2006. Le but de l’initiative est de s’inspirer de Google
Books tout en évitant ses travers, à savoir la numérisation des livres
sous droits sans l’accord préalable des éditeurs, tout comme la
consultation et le téléchargement impossibles sur un autre moteur de
recherche.

L’OCA regroupe de nombreux partenaires: des bibliothèques et des
universités bien sûr, mais aussi des organisations gouvernementales,
des associations à but non lucratif, des organismes culturels et des
sociétés informatiques (Adobe, Hewlett Packard, Microsoft, Yahoo!,
Xerox, etc.).

Les premiers partenaires pour la numérisation des livres sont les
bibliothèques des Universités de Californie et de Toronto, l’European
Archive, les Archives nationales du Royaume-Uni, O’Reilly Media et les
Prelinger Archives. Seuls les livres appartenant au domaine public sont
numérisés, pour éviter les problèmes de copyright auxquels se heurte
Google, et les collections numérisées sont progressivement intégrées à
la section Text Archive de l’Internet Archive.

En décembre 2006, l’OCA franchit la barre des 100.000 livres numérisés,
avec un rythme de 12.000 nouveaux livres par mois.

À la même date, l’Internet Archive reçoit une subvention d'un million
de dollars US de la part de la Sloan Foundation pour numériser les
collections du Metropolitan Museum of Art (l’ensemble des livres et
plusieurs milliers d’images) ainsi que certaines collections de la
Boston Public Library (les 3.800 livres de la bibliothèque personnelle
de John Adams, deuxième président des États-Unis), du Getty Research
Institute (une collection de livres d'art), de la John Hopkins
University (une collection de documents liés au mouvement anti-
esclavagiste) et de l’Université de Californie à Berkeley (une
collection de documents relatifs à la ruée vers l’or).

En mai 2007, l’OCA franchit la barre des 200.000 livres numérisés. La
barre du million de livres numérisés est atteinte en décembre 2008, et
celle des deux millions de livres numérisés en mars 2010.


= Autres initiatives

# Microsoft Live Search Books

Si Microsoft est l'un des partenaires de l'Open Content Alliance, la
société se lance aussi dans l’aventure à titre personnel. En décembre
2006 est mise en ligne aux États-Unis la version bêta de Live Search
Books, qui permet une recherche par mots-clés dans les livres du
domaine public. Ces livres sont numérisés par Microsoft suite à des
accords passés avec de grandes bibliothèques, les premières étant la
British Library et les bibliothèques des Universités de Californie et
de Toronto, suivies en janvier 2007 par celles de la New York Public
Library et de l’Université Cornell. Microsoft compte également ajouter
des livres sous droits, mais uniquement avec l’accord préalable des
éditeurs.

Tout comme Google Books, Live Search Books permet de consulter des
extraits comportant les mots-clés, qui sont eux-même surlignés. Mais
les collections sont moins riches, le moteur de recherche est plus
rudimentaire, et il n'est pas possible de télécharger les livres au
format PDF dans leur entier.

En mai 2007, Microsoft annonce des accords avec plusieurs grands
éditeurs, dont Cambridge University Press et McGraw Hill.

Microsoft met finalement un terme à ce projet en mai 2008, pour
concentrer ses efforts sur d'autres activités. Les 750.000 livres déjà
numérisés sont versés dans les collections de l'Open Content Alliance.

# Europeana

En Europe, certains s’inquiètent de l'«hégémonie américaine» que
représente Google Books.

Il existe déjà sur le web une Bibliothèque européenne, qui est en fait
un portail commun aux 43 bibliothèques nationales, lancé en janvier
2004 par la CENL (Conference of European National Librarians) et
hébergé sur le site de la Bibliothèque nationale des Pays-Bas.

En septembre 2005, la Commission européenne lance une vaste
consultation sur un projet de bibliothèque numérique européenne, avec
réponse requise en janvier 2006 et lancement officiel du projet en mars
2006.

«Le plan de la Commission européenne visant à promouvoir l’accès
numérique au patrimoine de l’Europe prend forme rapidement, lit-on dans
le communiqué de presse. Dans les cinq prochaines années, au moins six
millions de livres, documents et autres oeuvres culturelles seront mis
à la disposition de toute personne disposant d’une connexion à
l’internet, par l’intermédiaire de la "bibliothèque numérique
européenne". Afin de stimuler les initiatives de numérisation
européennes, la Commission va co-financer la création d’un réseau
paneuropéen de centres de numérisation. La Commission abordera
également, dans une série de documents stratégiques, la question du
cadre approprié à adopter pour assurer la protection des droits de
propriété intellectuelle dans le cadre des bibliothèques numériques.»

Europeana et ses deux millions de documents sont disponibles en
novembre 2008, avec un serveur qui déclare rapidement forfait suite à
la très forte demande des premières heures, puis une période
expérimentale avec consultation partielle des collections. Europeana
propose 6 millions de documents en mars 2010, puis 10 millions de
documents en septembre 2010 avec une nouvelle interface.



PDA, SMARTPHONES ET TABLETTES


[Résumé]
Nous lisons d'abord sur notre ordinateur - portable ou non - avant de
lire sur des agendas électroniques (Psion et eBookMan) puis sur des PDA
(Palm Pilot, Pocket PC et bien d'autres). Suivent ensuite les premiers
smartphones de Nokia et Sony Ericsson. Parallèlement apparaissent des
tablettes de lecture dédiées. Les premières sont le Rocket eBook, le
SoftBook Reader et le Gemstar eBook, qui ne durent pas. Après une
période morose, des tablettes plus légères gagnent en puissance et en
qualité d'écran, par exemple le Cybook (nouvelle version) et le Sony
Reader, auxquels s'ajoute le Kindle d'Amazon en novembre 2007, puis
l'iPad d'Apple en avril 2010. Le papier électronique serait pour
«bientôt».


= Le projet @folio

Les livres numériques sont d’abord lisibles uniquement sur l’écran de
notre ordinateur, que celui-ci soit un ordinateur de bureau ou un
ordinateur portable sinon ultra-portable. Outre le stockage d’un
millier de livres sinon plus – en fonction de la taille du disque dur -
, l'ordinateur permet l’utilisation d’outils bureautiques standard,
l’accès au web, l’écoute de fichiers musicaux et le visionnement de
vidéos ou de films. Certains usagers sont également tentés par le
webpad, un ordinateur-écran sans disque dur disposant d’une connexion
sans fil à l’internet, apparu en 2001, ou alors la tablette PC, une
tablette informatique pourvue d’un écran tactile, apparue fin 2002.

Conçu dès octobre 1996 par Pierre Schweitzer, architecte designer à
Strasbourg (Alsace, France), le projet @folio (qui se prononce «a-
folio») se définit comme un baladeur de textes ou encore comme un
support de lecture nomade permettant de lire des textes glanés sur
l’internet. De petite taille, il cherche à mimer, sous forme
électronique, le dispositif technique du livre, afin d’offrir une
mémoire de fac-similés reliés en hypertexte pour faciliter le
feuilletage.

Pierre explique en janvier 2001: «@folio est un baladeur de textes,
simple, léger, autonome, que le lecteur remplit selon ses désirs à
partir du web, pour aller lire n’importe où. Il peut aussi y imprimer
des documents personnels ou professionnels provenant d’un CD-ROM. Les
textes sont mémorisés en faisant: "imprimer", mais c’est beaucoup plus
rapide qu’une imprimante, ça ne consomme ni encre ni papier. Les liens
hypertextes sont maintenus au niveau d’une reliure tactile. (...)

Le projet est né à l’atelier Design de l’École d’architecture de
Strasbourg où j’étais étudiant. Il est développé à l’École nationale
supérieure des arts et industries de Strasbourg avec le soutien de
l’ANVAR-Alsace. Aujourd’hui, je participe avec d’autres à sa
formalisation, les prototypes, design, logiciels, industrialisation,
environnement technique et culturel, etc., pour transformer ce concept
en un objet grand public pertinent.»

Pierre est aussi l'auteur du logiciel Mot@mot. «La plus grande partie
du patrimoine écrit existant est fixé dans des livres, sur du papier»,
explique-t-il à la même date. «Pour rendre ces oeuvres accessibles sur
la toile, la numérisation en mode image est un moyen très efficace. Le
projet Gallica en est la preuve. Mais il reste le problème de
l'adaptation des fac-similés d'origine à nos écrans de lecture
aujourd'hui: réduits brutalement à la taille d'un écran, les fac-
similés deviennent illisibles. Sauf à manipuler les barres d'ascenseur,
ce qui nécessite un ordinateur et ne permet pas une lecture
confortable. La solution proposée par Mot@mot consiste à découper le
livre, mot à mot, du début à la fin (enfin, les pages scannées du
livre...). Ces mots restent donc des images, il n'y a pas de
reconnaissance de caractères, donc pas d'erreur possible. On obtient
une chaîne d'images-mots liquide, qu'on peut remettre en page aussi
facilement qu'une chaîne de caractères. Il devient alors possible de
l'adapter à un écran de taille modeste, sans rien perdre de la
lisibilité du texte. La typographie d'origine est conservée, les
illustrations aussi.» Pour développer le projet @folio et le logiciel
Mot@mot, Pierre fait valider un brevet international en avril 2001,
puis crée la start-up française iCodex en juillet 2002.

Cinq ans plus tard, en août 2007, Pierre Schweitzer poursuit patiemment
sa croisade pour promouvoir son projet. «Il ne s’agit pas de
transformer le support papier des livres existants, c’est absurde,
écrit-il. Il s’agit plutôt d’offrir un support de lecture efficace aux
textes qui n’en ont pas, ceux qui sont accessibles sur le web. Avec
@folio, je reste persuadé qu’un support de lecture transportable qui
serait à la fois simple et léger, annotable et effaçable, à bas coût,
respectueux de la page et de nos traditions typographiques, pourrait
apporter un supplément de confort appréciable à tous les usagers du
texte numérique. Une ardoise dont on pourrait feuilleter l’hypertexte à
main nue, en lieu et place de l’imprimante...»

En quoi la technologie utilisée est-elle différente de celle des autres
tablettes? «La technologie d'@folio est inspirée du fax et du classeur
à onglets. La mémoire flash est imprimée comme Gutenberg imprimait ses
livres. Ce mode fac-similé ne nécessite aucun format propriétaire, il
est directement lisible à l'oeil nu. Le fac-similé est un mode de
représentation de l'information robuste, pérenne, adaptable à tout type
de contenu (de la musique imprimée aux formules de mathématique ou de
chimie) sans aucune adaptation nécessaire. C'est un mode de
représentation totalement ouvert et accessible à tous: il supporte
l'écriture manuscrite, la calligraphie, les écritures non
alphabétiques, et le dessin à main levée, toutes choses qui sont très
difficiles à faire à l'aide d'un seul outil sur un ordinateur ou un
"ebook" classique. Cette conception technique nouvelle et très
simplifiée permet de recueillir une grande variété de contenus et
surtout, elle permet un prix de vente très raisonnable (100 euros pour
le modèle de base) dans différentes combinaisons de formats (tailles
d'écran) et de mémoire (nombre de pages) adaptées aux différentes
pratiques de lecture.»

Outre cette technologie novatrice, quel serait l'avantage de la lecture
sur @folio? «La simplicité d'usage, l'autonomie, le poids, le prix.
Quoi d'autre? La finesse n'est pas négligeable pour pouvoir être glissé
presque n'importe où. Et l'accès immédiat aux documents - pas de temps
d'attente comme quand on "allume" son ordinateur portable: @folio ne
s'allume jamais et ne s'éteint pas, la dernière page lue reste affichée
et une simple pression sur le bord de l'écran permet de remonter
instantanément au sommaire du document ou aux onglets de classement.»

À la même date, en août 2007, la grande revue en ligne anglophone
TeleRead fait l'éloge du projet @folio en intitulant l'article Pierre
Schweitzer's Dream (Le rêve de Pierre Schweitzer). Plusieurs
spécialistes anglophones, et non des moindres (David Rothman, Mike
Cook, Ellen Hage), rendent hommage à la persévérance de Pierre en
espérant voir son projet commercialisé un jour.


= PDA (assistants personnels)

# La gamme Psion

Lancé dès 1984 par la société britannique Psion, le Psion Organiser est
le premier modèle d'agenda électronique. Au fil des ans, la gamme des
appareils s’étend et la société se développe à l’international.

En 2000, les divers modèles (Série 7, Série 5mx, Revo, Revo Plus) sont
concurrencés par le Palm Pilot et le Pocket PC. Les ventes baissent et
la société décide de diversifier ses activités. Suite au rachat de
Teklogix par Psion, Psion Teklogix est créé en septembre 2000 pour
développer des solutions mobiles sans fil à destination des
entreprises. Psion Software est créé en 2001 pour développer les
logiciels de la nouvelle génération d’appareils mobiles utilisant la
plateforme Symbian OS, par exemple ceux du smartphone Nokia 9210,
modèle précurseur commercialisé la même année.

Enseignante-chercheuse à l’École pratique des hautes études (EPHE,
Paris-Sorbonne), Marie-Joseph Pierre utilise un Psion depuis plusieurs
années pour lire et étudier dans le train lors de ses fréquents
déplacements entre Argentan (Normandie), sa ville de résidence, et
Paris. Elle achète son premier Psion en 1997, un Série 3, remplacé
ensuite par un Série 5, remplacé lui-même par un Psion 5mx en juin
2001.

En février 2002, elle raconte: «J’ai chargé tout un tas de trucs
littéraires – dont mes propres travaux et dont la Bible entière – sur
mon Psion 5mx (16 + 16 Mo), que je consulte surtout dans le train ou
pour mes cours, quand je ne peux pas emporter toute une bibliothèque.
J’ai mis les éléments de programme qui permettent de lire page par page
comme sur un véritable ebook. Ce qui est pratique, c’est de pouvoir
charger une énorme masse documentaire sur un support minuscule. Mais ce
n’est pas le même usage qu’un livre, surtout un livre de poche qu’on
peut feuilleter, tordre, sentir..., et qui s’ouvre automatiquement à la
page qu’on a aimée. C’est beaucoup moins agréable à utiliser, d’autant
que sur PDA, la page est petite: on n’a pas de vue d’ensemble. Mais
avec une qualité appréciable: on peut travailler sur le texte
enregistré, en rechercher le vocabulaire, réutiliser des citations,
faire tout ce que permet le traitement informatique du document, et
cela m’a pas mal servi pour mon travail, ou pour mes activités
associatives. Je fais par exemple partie d’une petite société poétique
locale, et nous faisons prochainement un récital poétique. J’ai voulu
rechercher des textes de Victor Hugo, que j’ai maintenant pu lire et
même charger à partir du site de la Bibliothèque nationale de France:
c’est vraiment extra.»

# L'eBookMan de Franklin

Basée dans le New Jersey (États-Unis), la société Franklin
commercialise dès 1986 le premier dictionnaire consultable sur une
machine de poche. Quinze ans plus tard, Franklin distribue 200 ouvrages
de référence sur des machines de poche: dictionnaires unilingues et
bilingues, encyclopédies, Bibles, manuels d’enseignement, ouvrages
médicaux et livres de loisirs.

En octobre 2000, Franklin lance l’eBookMan, un assistant personnel
multimédia qui - entre autres fonctionnalités (agenda, dictaphone,
etc.) - permet la lecture de livres numériques sur le Franklin Reader,
le logiciel de lecture «maison». À la même date, l’eBookMan reçoit
l’eBook Technology Award de la Foire internationale du livre de
Francfort.

Trois modèles (EBM-900, EBM-901 et EBM-911) sont disponibles début
2001. Leurs prix respectifs sont de 130, 180 et 230 dollars US. Le prix
est fonction de la taille de la mémoire vive (8 ou 16 Mo) et de la
qualité de l’écran à cristaux liquides (écran LCD), rétro-éclairé ou
non selon les modèles. Nettement plus grand que celui de ses
concurrents, l’écran n’existe toutefois qu’en noir et blanc,
contrairement à la gamme Pocket PC ou à certains modèles Palm avec
écran couleur. L’eBookMan permet aussi l’écoute de livres audio-
numériques et de fichiers musicaux au format MP3.

En octobre 2001, Franklin décide de ne pas intégrer le Microsoft Reader
à l’eBookMan, mais de lui préférer le Mobipocket Reader, logiciel de
lecture jugé plus performant, et primé à la même date par l’eBook
Technology Award de la Foire de Francfort. Parallèlement, le Franklin
Reader est progressivement disponible pour les gammes d'appareils
mobiles Psion, Palm, Pocket PC et Nokia. Franklin développe aussi une
librairie numérique sur son site en passant des partenariats avec
plusieurs sociétés, notamment avec Audible.com pour avoir accès à sa
collection de 4.500 livres audio-numériques.

# La gamme Palm Pilot

Lorsque le livre numérique commence à se généraliser en 2000, tous les
fabricants de PDA décident d’intégrer un logiciel de lecture dans leur
machine, en plus des fonctionnalités standard (agenda, dictaphone,
lecteur de MP3, etc.). En parallèle, ils négocient les droits de
diffusion numérique de centaines de titres, soit directement soit par
le biais de librairies numériques. Si certains professionnels du livre
s’inquiètent de la petitesse de l’écran, les adeptes de la lecture sur
PDA assurent que la taille de l’écran n’est pas un problème. Les grands
favoris du marché sont les gammes Palm Pilot et Pocket PC.

La société Palm lance en mars 1996 le Palm Pilot, premier PDA du
marché, et vend 23 millions de machines entre 1996 et 2002. Le système
d’exploitation du Palm Pilot est le Palm OS et son logiciel de lecture
le Palm Reader. En mars 2001, la gamme Palm Pilot propose plusieurs
modèles permettant de lire des livres aussi bien sur le Palm Reader que
sur le Mobipocket Reader, le logiciel de lecture de Mobipocket.

# La gamme Pocket PC

Microsoft lance en avril 2000 son propre PDA, le Pocket PC, et son
propre logiciel de lecture, le Microsoft Reader. Le système
d’exploitation utilisé est Windows CE, remplacé en octobre 2001 par
Pocket PC 2002, qui permet entre autres de lire des livres numériques
sous droits. Ces livres sont protégés par un système de gestion des
droits numériques, le Microsoft DAS Server (DAS: Digital Asset Server).
En 2002, la gamme Pocket PC permet la lecture sur trois logiciels: le
Microsoft Reader bien sûr, le Mobipocket Reader et le Palm Reader.

# D'autres modèles

Le marché des PDA poursuit sa croissance. D’après un numéro du Seybold
Report daté d'avril 2001, on dénombre 17 millions de PDA dans le monde
pour seulement 100.000 tablettes de lecture. 13,2 millions de PDA sont
vendus en 2001, et 12,1 millions en 2002. En 2002, la gamme Palm Pilot
est toujours le leader du marché (avec 36,8% des machines vendues),
suivi par la gamme Pocket PC de Microsoft et les modèles de Hewlett-
Packard, Sony, Handspring, Toshiba et Casio. Les systèmes
d'exploitation utilisés sont essentiellement le Palm OS (pour 55% des
machines) et le Pocket PC (pour 25,7% des machines).

En 2004, on note une plus grande diversité des modèles et une baisse
des prix chez tous les fabricants. Les trois principaux fabricants sont
Palm, Sony et Hewlett-Packard. Suivent Handspring, Toshiba, Casio et
d'autres. Mais le PDA est de plus en plus concurrencé par le
smartphone, qui est un téléphone portable doublé d'un PDA, et les
ventes commencent à baisser. En février 2005, Sony décide de se retirer
complètement du marché des PDA.


= Smartphones

Le premier smartphone est le Nokia 9210, modèle précurseur lancé en
2001 par la société finlandaise Nokia, grand fabricant mondial de
téléphones portables. Apparaissent ensuite le Nokia Series 60, le Sony
Ericsson P800, puis les modèles de Motorola et de Siemens. Ces
différents modèles permettent de lire des livres numériques sur le
Mobipocket Reader.

Appelé aussi téléphone multimédia, téléphone multifonctions ou encore
téléphone intelligent, le smartphone dispose d’un écran couleur, du son
polyphonique et de la fonction appareil photo, qui viennent s'ajouter
aux fonctions habituelles de l’assistant personnel: agenda, dictaphone,
lecteur de livres numériques, lecteur de musique, etc.

Les smartphones représentent 3,7% des ventes de téléphones portables en
2004 et 9% des ventes en 2006, à savoir 90 millions de smartphones pour
un milliard de téléphones portables.

Si les livres numériques ont une longue vie devant eux, les appareils
de lecture risquent de muer régulièrement. Selon Denis Zwirn, président
de la librairie numérique Numilog, interviewé en février 2003,
«l’équipement des individus et des entreprises en matériel pouvant être
utilisé pour la lecture numérique dans une situation de mobilité va
continuer de progresser très fortement dans les dix prochaines années
sous la forme de machines de plus en plus performantes (en terme
d’affichage, de mémoire, de fonctionnalités, de légèreté...) et de
moins en moins chères. Cela prend dès aujourd’hui la forme de PDA
(Pocket PC et Palm Pilot), de tablettes PC et de smartphones, ou de
smart displays (écrans tactiles sans fil). Trois tendances devraient
être observées: la convergence des usages (téléphone/PDA), la
diversification des types et tailles d’appareils (de la montre-PDA-
téléphone à la tablette PC waterproof), la démocratisation de l’accès
aux machines mobiles (des PDA pour enfants à 15 euros). Si les éditeurs
et les libraires numériques savent en saisir l’opportunité, cette
évolution représente un environnement technologique et culturel au sein
duquel les livres numériques, sous des formes variées, peuvent devenir
un mode naturel d’accès à la lecture pour toute une génération.»

À la même date, on se demande si les tablettes dédiées pourront
vraiment réussir à s’imposer face aux smartphones multifonctions.  On
se demande aussi s'il existe une clientèle spécifique pour les deux
types de machines, la lecture sur téléphone portable et smartphone
étant destinée au grand public, et la lecture sur tablette étant
réservée aux gros consommateurs de documents que sont les lycéens, les
étudiants, les professeurs, les chercheurs ou les juristes. Le débat
n'est pas prêt d'être clos en 2010, même si on ne parle plus de publics
différents pour l'une et l'autre machine.


= Tablettes de lecture

# Premiers pas

Dès 1999, on voit apparaître des tablettes dédiées de la taille d'un
(gros) livre, souvent appelées ebooks, livres électroniques, tablettes
de lecture ou même liseuses. Ces premiers appareils suscitent un
engouement certain, même si peu de gens vont jusqu'à les acheter, vu
leur prix prohibitif (plusieurs centaines de dollars) et un choix de
livres restreint, le catalogue de livres numériques étant encore
ridicule par rapport à la production imprimée.

Les premières tablettes de lecture sont conçues et développées dans la
Silicon Valley, en Californie. Elles disposent d'un écran à cristaux
liquides (écran LCD) rétro-éclairé ou non, noir et blanc ou en couleur.
Elles fonctionnent sur batterie et disposent d’un modem intégré et d’un
port USB, pour connexion à l’internet et téléchargement des livres à
partir de librairies numériques.

Le modèle le plus connu, le Rocket eBook, est développé en 1998 et
commercialisé en 1999 par la société NuvoMedia, financée par la chaîne
de librairies Barnes & Noble et le géant des médias Bertelsmann. Un
deuxième modèle, le SoftBook Reader, est développé par la société
SoftBook Press, financée par les deux grandes maisons d’édition Random
House et Simon & Schuster. Plusieurs autres modèles ont une durée de
vie assez courte, par exemple l’EveryBook, appareil à double écran créé
par la société du même nom, ou encore le Millennium eBook, créé par la
société Librius.com. A cette époque, qui n’est pas si lointaine, toutes
ces tablettes électroniques pèsent entre 700 grammes et 2 kilos et
peuvent stocker une dizaine de livres.

# Le Gemstar eBook

Présenté en octobre 2000 à New York et commercialisé le mois suivant
aux États-Unis, le Gemstar eBook se décline en deux modèles, qui sont
les successeurs du Rocket eBook (conçu par NuvoMedia) et du SoftBook
Reader (conçu par SoftBook Press), suite au rachat de NuvoMedia et de
SoftBook Press en janvier 2000 par Gemstar-TV Guide International,
grande société spécialisée dans les produits et services numériques
pour les médias.

Ces deux modèles – le REB 1100 (écran noir et blanc, successeur du
Rocket eBook) et le REB 1200 (écran couleur, successeur du SoftBook
Reader) - sont construits et vendus sous le label RCA, appartenant à
Thomson Multimedia. Le système d’exploitation, le navigateur et le
logiciel de lecture sont spécifiques à l'appareil, tout comme le format
de lecture, basé sur le format OeB (Open eBook). Les deux modèles sont
vendus respectivement 300 et 699 dollars US par la chaîne de magasins
SkyMall.

Les ventes sont très inférieures aux pronostics. En avril 2002, un
article du New York Times annonce l’arrêt de la fabrication de ces
appareils par RCA. En automne 2002, leurs successeurs - le GEB 1150 et
le GEB 2150 - sont produits sous le label Gemstar et vendus par SkyMall
à un prix beaucoup plus compétitif, avec ou sans abonnement annuel ou
bisannuel à la librairie numérique Gemstar eBook. Le GEB 1150 coûte 199
dollars sans abonnement, et 99 dollars avec abonnement annuel (facturé
20 dollars par mois). Le GEB 2150 coûte 349 dollars sans abonnement, et
199 dollars avec abonnement bisannuel (également facturé 20 dollars par
mois).

Mais les ventes restent peu concluantes – faute d'un marché mûr pour ce
genre d'appareil - et Gemstar décide de mettre fin à ses activités
eBook. La société cesse la vente de ses tablettes de lecture en juin
2003 et la vente de ses livres numériques le mois suivant.

# Le Cybook

Première tablette de lecture européenne, le Cybook (21 x 16 cm, 1 kilo)
est conçu et développé par la société française Cytale, et
commercialisé en janvier 2001. Sa mémoire - 32 Mo de mémoire SDRAM et
16 Mo de mémoire flash - permet de stocker 15.000 pages de texte, soit
30 livres de 500 pages.

«J’ai croisé il y a deux ans le chemin balbutiant d’un projet
extraordinaire, le livre électronique», écrit en décembre 2000 Olivier
Pujol, PDG de Cytale. «Depuis ce jour, je suis devenu le promoteur
impénitent de ce nouveau mode d’accès à l’écrit, à la lecture, et au
bonheur de lire. La lecture numérique se développe enfin, grâce à cet
objet merveilleux: bibliothèque, librairie nomade, livre "adaptable",
et aussi moyen d’accès à tous les sites littéraires (ou non), et à
toutes les nouvelles formes de la littérature, car c’est également une
fenêtre sur le web.»

Mais les ventes sont très inférieures aux pronostics – le marché
n'étant pas mûr pour ce genre d'appareil - et forcent la société à se
déclarer en cessation de paiement. Cytale est mis en liquidation
judiciaire en juillet 2002 et cesse ses activités à la même date.

La commercialisation du Cybook est reprise quelques mois plus tard par
la société Bookeen, créée en 2003 à l’initiative de Michael Dahan et
Laurent Picard, deux ingénieurs de Cytale. En juillet 2007, Bookeen
dévoile une nouvelle version de sa tablette, baptisée Cybook Gen3, avec
un écran utilisant pour la première fois la technologie E Ink.

# Les modèles de Sony

En avril 2004, Sony lance au Japon le Librié 1000-EP, produit en
partenariat avec les sociétés Philips et E Ink. Cette tablette est la
première à utiliser la technologie d’affichage développée par la
société E Ink et dénommée encre électronique.

L’appareil pèse 300 grammes (avec piles et protection d’écran) pour une
taille de 12,6 x 19 x 1,3 centimètres. Sa mémoire est de 10 Mo – avec
possibilité d’extension - et sa capacité de stockage de 500 livres. Son
écran de 6 pouces a une définition de 170 DPI et une résolution de 800
x 600 pixels. Un port USB permet le téléchargement des livres à partir
de son ordinateur. L’appareil comprend aussi un clavier, une fonction
d'enregistrement et une synthèse vocale. Il fonctionne avec quatre
piles alcalines, qui permettraient la consultation de 10.000 pages. Son
prix est de 375 dollars US.

Le Librié cède ensuite la place au Sony Reader, lancé en septembre 2006
aux États-Unis au prix de 350 dollars, avec six modèles sortis depuis
avec succès.

# Le Kindle

Amazon.com lance en novembre 2007 sa propre tablette de lecture, le
Kindle, avec un format livresque (19 x 13 x 1,8 cm), un poids de 289
grammes, un écran noir et blanc (6 pouces, 800 x 600 pixels), un
clavier, une mémoire de 256 Mo (extensible par carte SD), un port USB
et une connexion sans fil (WiFi). Vendu 400 dollars US (273 euros), le
Kindle peut contenir jusqu'à 200 livres parmi les 80.000 livres
numériques disponibles sur le site d'Amazon. 538.000 tablettes sont
vendues en 2008.

En février 2009, Amazon lance une nouvelle version du Kindle, le Kindle
2, au prix de 359 dollars (prix qui baisse sensiblement dans les mois
qui suivent), avec un catalogue de 230.000 titres. En mai de la même
année, Amazon lance le Kindle DX avec un écran plus grand, notamment
pour la lecture de journaux et magazines, pour un prix de 489 dollars.

# L'iPad

En avril 2010, la société Apple lance l'iPad, sa tablette numérique
multifonctions, au prix de 499 dollars US, avec un iBookstore de 60.000
livres numériques qui devrait s'étoffer rapidement. Après l'iPod (lancé
en octobre 2001) puis l'iPhone (lancé en juin 2007), deux objets cultes
auprès de toute une génération, Apple devient lui aussi un acteur de
poids pour le livre numérique.

La compétition risque d’être rude sur un marché très prometteur. Reste
à voir quels modèles seront retenus par l'usager parce que solides,
légers, économiques et procurant un véritable «confort de lecture»,
sans oublier l'aspect esthétique et les possibilités de lecture en 3 D.
Petit ou grand écran? Smartphone ou tablette?

Selon Jean-Paul, webmestre du site hypermédia cotres.net, interviewé en
janvier 2007, «on progresse. Les PDA et autres baladeurs multimédia ont
formé le public à manipuler des écrans tactiles de dimension
individuelle (par opposition aux bornes publiques de circulation et
autres tirettes-à-sous). L’hypermédia est maintenant une évidence. Il
ne reste plus qu’à laisser se bousculer les ingénieurs et les
marketteurs pour voir sortir un objet rentable, léger, attirant, peu
fragile, occupant au mieux l’espace qui sépare les deux mains d’un
terrien assis dans le bus ou sur sa lunette WC: la surface d’une
feuille A4 en format italien, soit ± 800 x 600 pixels. Bien sûr, ce que
montrera cette surface ne sera pas en 2 D mais en 3 D. Comme les GPS
prochaine génération, ou les écrans de visée sur le cockpit d’un A-
Win.»

On nous parle maintenant de papier électronique pour «bientôt», avec
les sociétés E Ink et Plastic Logic en tête de file pour nous proposer
des supports de lecture souples et ultra-fins.



CONCLUSION


[Résumé]
En 2010, offrir un livre numérique devient «tendance», et le lire sur
son smartphone ou sa tablette l'est encore plus. Preuve que le monde du
livre a bien changé depuis la panique ayant saisi les éditeurs et les
libraires à la fin des années 1990. Dix ans plus tard, trois termes
paraissent essentiels: stockage, organisation et diffusion. Dans un
proche avenir, on devrait disposer de l’ensemble du patrimoine mondial
stocké sous forme numérique, d’une organisation effective de
l’information et d'un réseau internet omniprésent. Confidentiel en
2000, puis parent pauvre des fichiers musicaux et vidéo, le livre
numérique est désormais en bonne place à côté de la musique et des
films.

***

Tim Berners-Lee est l'inventeur du web en 1990. A la question de Pierre
Ruetschi, journaliste au quotidien La Tribune de Genève: «Sept ans plus
tard, êtes-vous satisfait de la façon dont le web a évolué?», il répond
en décembre 1997 que, s’il est heureux de la richesse et de la variété
de l’information disponible, le web n’a pas encore la puissance prévue
dans sa conception d’origine. Il aimerait «que le web soit plus
interactif, que les gens puissent créer de l’information ensemble», et
pas seulement consommer celle qui leur est proposée. Le web doit
devenir «un média de collaboration, un monde de connaissance que nous
partageons».

Son souhait commence à se concrétiser quelque sept années plus tard, en
2004, avec ce qu'on appelle le web 2.0. La paternité de l'expression
«web 2.0» revient d’ailleurs à un éditeur, Tim O’Reilly, fondateur des
éditions O'Reilly Media, qui utilise cette expression pour la première
fois en 2004 comme titre d'une série de conférences qu'il est en train
d'organiser. Désormais, le web ne vise plus seulement à utiliser
l’information, mais il incite aussi les usagers à échanger et
collaborer en ligne, sur des blogs, des wikis, des sites sociaux ou des
encyclopédies coopératives comme Wikipédia et Citizendium.

Un enjeu tout aussi important est l'accessibilité de l'internet pour
tous. Mis en ligne en septembre 2000 par l’association du même nom, le
site Handicapzéro devient en février 2003 un portail généraliste
offrant un accès adapté à l’information pour les Francophones ayant un
problème visuel, à savoir plus de 10% de la population. Le portail
offre des informations dans nombre de domaines: actualités, programmes
de télévision, météo, santé, emploi, consommation, loisirs, sports,
téléphonie, etc. Les personnes aveugles peuvent accéder au site au
moyen d’une plage braille ou d’une synthèse vocale. Les personnes
malvoyantes peuvent paramétrer sur la page d’accueil la taille et la
police des caractères ainsi que la couleur du fond d’écran pour une
navigation confortable. Les personnes voyantes peuvent correspondre en
braille avec des aveugles par le biais du site.

En octobre 2006, le portail adopte une nouvelle présentation en
enrichissant encore son contenu, en adoptant une navigation plus
intuitive pour la page d’accueil, en proposant des raccourcis de
clavier, en offrant un service amélioré pour l’affichage «confort de
lecture», etc. Plus de 2 millions de visiteurs utilisent les services
du portail en 2006. Handicapzéro entend ainsi démontrer «que, sous
réserve du respect de certaines règles élémentaires, l’internet peut
devenir enfin un espace de liberté pour tous».

Un autre enjeu est l'infrastructure de l'internet. La connexion au
réseau est désormais plus facile, avec la DSL, le câble ou la fibre
optique, tout comme les technologies WiFi pour un secteur géographique
limité et WiMAX pour un secteur géographique étendu. Jean-Paul,
webmestre du site hypermédia cotres.net, résume la situation en janvier
2007: «J’ai l’impression que nous vivons une période "flottante", entre
les temps héroïques, où il s’agissait d’avancer en attendant que la
technologie nous rattrape, et le futur, où le très haut débit va
libérer les forces qui commencent à bouger, pour l’instant dans les
seuls jeux.»

L’internet du futur pourrait être un réseau pervasif permettant de se
connecter en tout lieu et à tout moment sur tout type d’appareil à
travers un réseau unique et omniprésent. Le concept de réseau pervasif
est développé par Rafi Haladjian, fondateur de la société Ozone. Comme
expliqué sur le site web de la société en 2007, «la nouvelle vague
touchera notre monde physique, notre environnement réel, notre vie
quotidienne dans tous les instants. Nous n’accéderons plus au réseau,
nous l’habiterons. Les composantes futures de ce réseau (parties
filiaires, parties non filiaires, opérateurs) seront transparentes à
l’utilisateur final. Il sera toujours ouvert, assurant une permanence
de la connexion en tout lieu. Il sera également agnostique en terme
d’application(s), puisque fondé sur les protocoles mêmes de
l’internet.»

Pierre Schweitzer, inventeur du projet @folio, une tablette de lecture
nomade, écrit en décembre 2006: «La chance qu’on a tous est de vivre
là, ici et maintenant cette transformation fantastique. Quand je suis
né en 1963, les ordinateurs avaient comme mémoire quelques pages de
caractères à peine. Aujourd’hui, mon baladeur de musique pourrait
contenir des milliards de pages, une vraie bibliothèque de quartier.
Demain, par l’effet conjugué de la loi de Moore et de l’omniprésence
des réseaux, l’accès instantané aux oeuvres et aux savoirs sera de
mise. Le support de stockage lui-même n’aura plus beaucoup d’intérêt.
Seules importeront les commodités fonctionnelles d’usage et la poétique
de ces objets.»

Fondateur du Projet Gutenberg en 1971, Michael Hart précise souvent
dans ses écrits que, si Gutenberg a permis à chacun d'avoir ses propres
livres - jusque-là réservés à une élite -, le Projet Gutenberg permet à
chacun d'avoir une bibliothèque complète - jusque-là réservée à la
collectivité -, sur un support qu'on peut glisser dans sa poche, le
support optimal actuel étant la clé USB. Le Projet Gutenberg compte
plus de 33.000 livres numériques en octobre 2010, soit la taille d'une
bibliothèque publique de quartier, mais cette fois disponible sur le
web et indéfiniment reproductible.

Le web est aussi une formidable aventure. Selon les termes mêmes de Tim
Berners-Lee, son inventeur, «le rêve derrière le web est un espace
d’information commun dans lequel nous communiquons en partageant
l’information. Son universalité est essentielle, à savoir le fait qu’un
lien hypertexte puisse pointer sur quoi que ce soit, quelque chose de
personnel, de local ou de global, aussi bien une ébauche qu’une
réalisation très sophistiquée. Deuxième partie de ce rêve, le web
deviendrait d'une utilisation tellement courante qu'il serait un miroir
réaliste (sinon la principale incarnation) de la manière dont nous
travaillons, jouons et nouons des relations sociales. Une fois que ces
interactions seraient en ligne, nous pourrions utiliser nos ordinateurs
pour nous aider à les analyser, donner un sens à ce que nous faisons,
et voir comment chacun trouve sa place et comment nous pouvons mieux
travailler ensemble.» (extrait de son essai The World Wide Web: A very
short personal history (Le World Wide Web: une très courte histoire
personnelle), daté d'avril 1998)

Quinze ans après la création du web, le magazine Wired constate dans
son numéro d'août 2005 que «moins de la moitié du web est commercial,
le reste fonctionne avec la passion». Quant à l'internet, d'après le
quotidien Le Monde du 19 août 2005, «ses trois pouvoirs – l'ubiquité,
la variété et l'interactivité - rendent son potentiel d'usages quasi
infini».

Le futur sera-t-il le cyberespace décrit en 1994 par Timothy Leary,
philosophe, dans son livre Chaos et cyberculture? «Toute l’information
du monde est à l’intérieur [NDLR: de gigantesques bases de données]. Et
grâce au cyberespace, tout le monde peut y avoir accès. Tous les
signaux humains contenus jusque-là dans les livres ont été numérisés.
Ils sont enregistrés et disponibles dans ces banques de données, sans
compter tous les tableaux, tous les films, toutes les émissions de
télé, tout, absolument tout.»

Nous n'en sommes pas encore là. Mais, en 2010, sur les 30 millions de
livres du domaine public présents dans les bibliothèques (sans compter
les différentes éditions),  10 millions de livres seraient déjà
librement disponibles sur l'internet.

Libraire, éditeur puis consultant en édition électronique, Nicolas
Pewny voit «le livre numérique du futur comme un "ouvrage total"
réunissant textes, sons, images, vidéo, interactivité: une nouvelle
manière de concevoir et d’écrire et de lire, peut-être sur un livre
unique, sans cesse renouvelable, qui contiendrait tout ce qu’on a lu,
unique et multiple compagnon».

Si nous avons maintenant Gallica, le Projet Gutenberg, l'Internet
Archive et Google Books pour lire des livres, Wikipédia pour nous
documenter et Facebook et Twitter pour communiquer, un point
particulièrement intéressant semble être la possibilité – encore à
l'étude – de la traduction simultanée du même livre dans de nombreuses
langues, même si la traduction automatique reste encore à améliorer.

Rien ne remplacera une traduction par un traducteur littéraire
professionnel, bien sûr, mais ce serait un premier pas pour ceux qui
souhaiteraient découvrir de nouvelles oeuvres sans en connaître la
langue, avant de recruter ensuite un traducteur littéraire
professionnel pour proposer une traduction de qualité. C'est aussi
l'assurance d'un vaste débat sur les avantages et les limites de la
traduction automatique, un débat entamé dans les années 1990 et qui
n'est pas prêt d'être clos.

Sans nul doute, nous continuerons à vivre des années passionnantes, qui
ne seront pas seulement marquées par l'iPad et ses successeurs ou
encore le (véritable) papier électronique enfin sorti des éprouvettes
des chercheurs, mais qui verront aussi une imbrication plus grande des
technologies du livre avec celles des langues, un sujet auquel
l'auteure pense désormais se consacrer.

Mais, qu'il soit un volume imprimé ou un fichier numérique, le livre
est d’abord un ensemble de mots émanant d’une personne voulant
communiquer ses pensées, ses sentiments ou son savoir à large échelle.
Souvent appelé le père de l'internet parce que co-inventeur en 1974 des
protocoles du réseau, Vinton Cerf aime à rappeler que l'internet relie
moins des ordinateurs que des personnes et des idées. Ce fut le cas
pour ce livre. Merci à tous - professionnels du livre et apparentés -
pour leur participation, pour leur temps et pour leur amitié.



CHRONOLOGIE


[Chaque ligne débute par l'année ou bien l'année/mois. Par exemple,
1971/07 signifie juillet 1971.]

1968: Le code ASCII est le premier système d'encodage informatique.
1971/07: Le Projet Gutenberg est la première bibliothèque numérique.
1974: L'internet fait ses débuts.
1977: L'UNIMARC est créé en tant que format bibliographique commun.
1983: L'internet prend son envol.
1984: Le copyleft est institué pour les logiciels puis pour toute
oeuvre de création.
1984: Psion lance l'agenda électronique Psion Organiser.
1986: Franklin lance le premier dictionnaire consultable sur une
machine de poche.
1990: Le web fait ses débuts.
1991/01: L'Unicode est un système d'encodage pour toutes les langues.
1993/01: L'Online Books Page est le premier répertoire de livres en
accès libre.
1993/06: Adobe lance le format PDF et l'Acrobat Reader.
1993/07: L'E-zine-list recense les zines électroniques.
1993/11: Mosaic est le premier logiciel de navigation sur le web.
1994/02: Le premier site de bibliothèque est mis en ligne.
1994: La NAP met des livres en accès libre sur son site pour augmenter
leurs ventes imprimées.
1995/07: Amazon.com est la première grande librairie en ligne.
1995: La grande presse se met en ligne.
1996/03: Le Palm Pilot est le premier assistant personnel (PDA).
1996/04: L'Internet Archive est créée pour archiver le web.
1996/07: CyLibris est le pionnier francophone de l’édition
électronique.
1996/10: Le projet @folio travaille à un baladeur de textes «ouvert».
1996: On se penche sur de nouvelles méthodes d'enseignement.
1997: L'édition électronique commence à se généraliser.
1997/01: La convergence multimédia est le sujet d'un colloque.
1997/04: E Ink développe une technologie d’encre électronique.
1997/10: La Bibliothèque nationale de France lance Gallica, sa
bibliothèque numérique.
1997/12: AltaVista lance son logiciel de traduction automatique Babel
Fish.
1998/05: Les éditions 00h00 vendent des livres numériques.
1999: Des bibliothécaires deviennent cyberthécaires.
1999: Certains auteurs se mettent au numérique.
1999: WordReference.com propose des dictionnaires bilingues gratuits.
1999: Le Rocket eBook est la première tablette de lecture.
1999/09: Le format Open eBook (OeB) est un standard de livre numérique.
1999/12: WebEncyclo est la première grande encyclopédie francophone en
ligne.
1999/12: Britannica.com est la première grande encyclopédie anglophone
en ligne.
2000/01: Le Million Book Project veut proposer un million de livres sur
le web.
2000/03: Mobipocket se consacre aux livres numériques pour assistant
personnel.
2000/04: Microsoft lance son assistant personnel Pocket PC.
2000/07: La moitié des usagers de l'internet est non anglophone.
2000/07: Stephen King auto-publie un roman en ligne.
2000/08: Microsoft lance le Pocket PC (PDA) et le Microsoft Reader.
2000/09: Le Grand dictionnaire terminologique (GDT) est bilingue
français-anglais.
2000/09: La librairie Numilog se consacre aux livres numériques.
2000/09: Le portail Handicapzéro démontre que l'internet est pour tous.
2000/10: Distributed Proofreaders numérise les livres du domaine
public.
2000/10: La Public Library of Science envisage des revues scientifiques
en ligne gratuites.
2000/10: Franklin lance l'eBookMan, un assistant personnel multimédia.
2000/10: Gemstar lance ses tablettes de lecture Gemstar eBook.
2000/11: La version numérisée de la Bible de Gutenberg est disponible.
2001/01: Wikipédia est la première grande encyclopédie collaborative
gratuite.
2001/01: Le Cybook est la première tablette de lecture européenne.
2001: La licence Creative Commons adapte le droit d'auteur au web.
2001: Le Nokia 9210 est le premier smartphone.
2003/09: Le matériel pédagogique des cours du MIT est à la disposition
de tous.
2004/01: Le Projet Gutenberg Europe est multilingue.
2004/10: Google lance Google Print pour le rebaptiser ensuite Google
Books.
2005/04: Amazon.com rachète la société Mobipocket.
2005/10: L'Open Content Alliance lance une bibliothèque numérique
planétaire et publique.
2006/08: Le catalogue collectif mondial WorldCat lance une version
gratuite sur le web.
2006/10: Microsoft lance Live Search Books mais l'abandonne ensuite.
2006/10: Sony lance sa tablette de lecture Sony Reader.
2007/03: Citizendium est une encyclopédie en ligne collaborative
«fiable».
2007/03: IATE est la base terminologique multilingue européenne.
2007/05: L'Encyclopedia of Life compte répertorier toutes les espèces
végétales et animales.
2007/11: Amazon.com lance sa tablette de lecture Kindle.
2008/05: Numilog devient une filiale d'Hachette Livre.
2008/10: Google Books propose un accord aux associations d'auteurs et
d'éditeurs.
2008/11: Europeana est la bibliothèque numérique européenne.
2010/04: Apple lance l'iPad, sa propre tablette.



REMERCIEMENTS


Ce livre doit beaucoup à toutes les personnes ayant accepté de répondre
à mes questions au fil des ans. Certains entretiens sont disponibles en
ligne sur le Net des études françaises (NEF) , Université de Toronto, Canada. D'autres
entretiens ont été directement inclus dans ce livre ou alors ils ont
inspiré des idées développées dans ces pages.

Merci à Nicolas Ancion, Alex Andrachmes, Guy Antoine, Silvaine Arabo,
Arlette Attali, Marc Autret, Isabelle Aveline, Jean-Pierre Balpe,
Emmanuel Barthe, Robert Beard, Michael Behrens, Michel Benoît, Guy
Bertrand, Olivier Bogros, Christian Boitet, Bernard Boudic, Bakayoko
Bourahima, Marie-Aude Bourson, Lucie de Boutiny, Anne-Cécile
Brandenbourger, Alain Bron, Patrice Cailleaud, Tyler Chambers, Pascal
Chartier, Richard Chotin, Alain Clavet, Jean-Pierre Cloutier, Jacques
Coubard, Luc Dall’Armellina, Kushal Dave, Cynthia Delisle, Émilie
Devriendt, Bruno Didier, Catherine Domain, Helen Dry, Bill Dunlap,
Pierre-Noël Favennec, Gérard Fourestier, Pierre François Gagnon,
Olivier Gainon, Jacques Gauchey, Raymond Godefroy, Muriel Goiran,
Marcel Grangier, Barbara Grimes, Michael Hart, Roberto Hernández
Montoya, Randy Hobler, Eduard Hovy, Christiane Jadelot, Gérard Jean-
François, Jean-Paul, Anne-Bénédicte Joly, Brian King, Geoffrey
Kingscott, Steven Krauwer, Gaëlle Lacaze, Michel Landaret, Hélène
Larroche, Pierre Le Loarer, Claire Le Parco, Annie Le Saux, Fabrice
Lhomme, Philippe Loubière, Pierre Magnenat, Xavier Malbreil, Alain
Marchiset, Maria Victoria Marinetti, Michael Martin, Tim McKenna,
Emmanuel Ménard, Yoshi Mikami, Jacky Minier, Jean-Philippe Mouton, John
Mark Ockerbloom, Caoimhín Ó Donnaíle, Jacques Pataillot, Alain Patez,
Nicolas Pewny, Marie-Joseph Pierre, Hervé Ponsot, Olivier Pujol, Anissa
Rachef, Peter Raggett, Patrick Rebollar, Philippe Renaut, Jean-Baptiste
Rey, Philippe Rivière, Blaise Rosnay, Bruno de Sa Moreira, Pierre
Schweitzer, Henk Slettenhaar, Murray Suid, June Thompson, Zina Tucsnak,
François Vadrot, Christian Vandendorpe, Robert Ware, Russon Wooldridge
et Denis Zwirn.


Copyright © 2010 Marie Lebert. Tous droits réservés.





*** End of this Doctrine Publishing Corporation Digital Book "Le livre, de l'imprimé au numérique" ***

Doctrine Publishing Corporation provides digitized public domain materials.
Public domain books belong to the public and we are merely their custodians.
This effort is time consuming and expensive, so in order to keep providing
this resource, we have taken steps to prevent abuse by commercial parties,
including placing technical restrictions on automated querying.

We also ask that you:

+ Make non-commercial use of the files We designed Doctrine Publishing
Corporation's ISYS search for use by individuals, and we request that you
use these files for personal, non-commercial purposes.

+ Refrain from automated querying Do not send automated queries of any sort
to Doctrine Publishing's system: If you are conducting research on machine
translation, optical character recognition or other areas where access to a
large amount of text is helpful, please contact us. We encourage the use of
public domain materials for these purposes and may be able to help.

+ Keep it legal -  Whatever your use, remember that you are responsible for
ensuring that what you are doing is legal. Do not assume that just because
we believe a book is in the public domain for users in the United States,
that the work is also in the public domain for users in other countries.
Whether a book is still in copyright varies from country to country, and we
can't offer guidance on whether any specific use of any specific book is
allowed. Please do not assume that a book's appearance in Doctrine Publishing
ISYS search  means it can be used in any manner anywhere in the world.
Copyright infringement liability can be quite severe.

About ISYS® Search Software
Established in 1988, ISYS Search Software is a global supplier of enterprise
search solutions for business and government.  The company's award-winning
software suite offers a broad range of search, navigation and discovery
solutions for desktop search, intranet search, SharePoint search and embedded
search applications.  ISYS has been deployed by thousands of organizations
operating in a variety of industries, including government, legal, law
enforcement, financial services, healthcare and recruitment.



Home