Home
  By Author [ A  B  C  D  E  F  G  H  I  J  K  L  M  N  O  P  Q  R  S  T  U  V  W  X  Y  Z |  Other Symbols ]
  By Title [ A  B  C  D  E  F  G  H  I  J  K  L  M  N  O  P  Q  R  S  T  U  V  W  X  Y  Z |  Other Symbols ]
  By Language
all Classics books content using ISYS

Download this book: [ ASCII | HTML | PDF ]

Look for this book on Amazon


We have new books nearly every day.
If you would like a news letter once a week or once a month
fill out this form and we will give you a summary of the books for that week or month by email.

Title: Una corta historia del eBook
Author: Lebert, Marie
Language: Spanish
As this book started as an ASCII text book there are no pictures available.


*** Start of this LibraryBlog Digital Book "Una corta historia del eBook" ***


UNA CORTA HISTORIA DEL EBOOK


MARIE LEBERT


Traducido por ANNA ÁLVAREZ y revisado por Marie Lebert


NEF, Universidad de Toronto, 2009


Copyright © 2009 Marie Lebert. Todos derechos reservados.


  ---
  Este libro está dedicado a todas las personas
  que han contestado mis preguntas
  durante los últimos diez años,
  en Europa, en América (por todo el continente),
  en África y en Asia.
  Gracias por el tiempo que me han dedicado,
  y por su amistad.
  ---

Una corta historia del ebook – llamado también libro digital – de 1971
Books, el Internet Archive y muchos más. Este ebook está basado en unos
miles de horas de navegación en la web y en una centena de entrevistas
llevadas por el mundo entero. Como última síntesis de una investigación
que ha durado diez años, este libro también está disponible en francés
y en inglés. Las tres versiones están disponibles online en los
Archivos del NEF (Dossiers du NEF) .

Marie Lebert, investigadora y periodista, se interesa por las
tecnologías en el mundo del libro, de los demás medios de comunicación
y de los idiomas. Ha escrito "Technologies et livre pour tous" (Las
tecnologías y el libro para todos, 2008, en francés y en inglés), "Les
mutations du livre" (Las mutaciones del libro, 2007, en francés) y "Le
Livre 010101" (El Libro 010101, 2003, en francés). Sus libros son
publicados por el NEF (Net des études françaises), Universidad de
Toronto, y se pueden consultar libremente en el NEF .

Muchas gracias a Anna Álvarez, traductora, por la traducción de este
libro del francés al español.



INDICE


  ====  Introducción
  1990: La web impulsa el desarrollo del internet.
  1993: La Online Books Page inventaria los ebooks gratuitos.
  1994: Cada vez más textos están disponibles en la web.
  1995: Amazon.com es la primera gran librería online.
  1996: Algunos editores se lanzan al internet.
  1997: La convergencia multimedia es objeto de un coloquio.
  1998: Las bibliotecas se instalan en la web.
  1999: Les bibliotecarios se convierten en cibertecarios.
  2000: La información se hace multilingüe.
  2001: Copyright, copyleft y Creative Commons.
  2002: La web se convierte en una vasta enciclopedia.
  2003: Las novedades están disponibles en versión digital.
  2004: Los autores están creativos en la web.
  2005: Google se interesa por el ebook.
  2006: Vamos hacia una biblioteca digital planetaria.
  2007: Podemos leer en varios aparatos electrónicos.
  2008: Los ebooks están omnipresentes.
  ====  Cronología
  ====  Agradecimientos



INTRODUCCION


El libro ha cambiado mucho desde 1971.

El libro impreso tiene cinco siglos y medio de edad. El libro digital
por Michael Hart con el fin de distribuir gratuitamente las obras del
dominio público por vía electrónica. Pero habrá que esperar hasta el
advenimiento de la web y del primer navegador para que el Proyecto

Señal de los tiempos que corren, en noviembre del año 2000, la British
Library pone en línea la versión digital de la Biblia de Gutenberg, el
primer libro impreso. Aquella Biblia – datada de 1454 o 1455 –, fue
impresa por Gutenberg en 180 ejemplares en su taller de Maguncia, en
Alemania. 48 ejemplares existirían aún, aunque algunos incompletos.
Tres de esos ejemplares – dos completos y uno parcial – están en la
British Library.

Miles de obras del dominio público están en libre acceso en la web. La
mayoría de los libreros y editores tienen su propia página web. Algunos
de ellos nacen directamente en línea, y realizan la totalidad de sus
transacciones a través de la red. Se van multiplicando los libros y las
revistas que sólo están disponibles en versión digital, evitando así
los gastos que implica una publicación impresa. Hoy en día uno puede
leer un libro en su ordenador, su asistente personal (PDA), su
teléfono, su smartphone o cualquier aparato de lectura especializado.

El internet ha llegado a ser imprescindible para documentarse,
comunicar, acceder a documentos y extender los conocimientos. La web se
ha convertido en una gigantesca enciclopedia, una enorme biblioteca,
una inmensa librería y un medio de comunicación completo. Gracias al
internet, la información ha pasado de un estado estático en los libros
impresos a una gran fluidez, y ofrece la posibilidad de una
actualización constante.

Ya no necesitamos correr desesperadamente tras la información que nos
hace falta. La información que nos hace falta ya está a nuestro
alcance, incluso para aquellos que estudian por correspondencia, que
viven en pleno campo, que trabajan a domicilio o que están confinados a
la cama.

He aquí el viaje "virtual" que vamos a emprender:

  1971: El Proyecto Gutenberg es la primera biblioteca digital.
  1990: La web impulsa el desarrollo del internet.
  1993: La Online Books Page inventaria los ebooks gratuitos.
  1994: Cada vez más textos están disponibles en la web.
  1995: Amazon.com es la primera gran librería online.
  1996: Algunos editores se lanzan al internet.
  1997: La convergencia multimedia es objeto de un coloquio.
  1998: Las bibliotecas aparecen en la web.
  1999: Les bibliotecarios se convierten en cibertecarios.
  2000: La información se hace multilingüe.
  2001: Copyright, copyleft y Creative Commons.
  2002: La web se convierte en una vasta enciclopedia.
  2003: Las novedades están disponibles en versión digital.
  2004: Los autores están creativos en la web.
  2005: Google se interesa por el ebook.
  2006: Vamos hacia una biblioteca digital planetaria.
  2007: Podemos leer en varios aparatos electrónicos.
  2008: Los ebooks están omnipresentes.

Las citas que aparecen en este libro son fragmentos de las Entrevistas
del NEF , salvo que se
indique lo contrario.



1971: EL PROYECTO GUTENBERG ES LA PRIMERA BIBLIOTECA DIGITAL


= [Resumen]

Fundado por Michael Hart en julio de 1971 cuando estudiaba en la
Universidad de Illinois (Estados Unidos), el Proyecto Gutenberg se
propone difundir gratuitamente por vía electrónica el mayor número
posible de obras literarias. Michael escribió: "Consideramos el texto
electrónico como un nuevo medio de comunicación, sin verdadera relación
con el papel. La única semejanza es que distribuimos las mismas obras,
pero en cuanto la gente se haya acostumbrado, no veo cómo el papel aún
podría competir con el texto electrónico, sobre todo en las escuelas."
Al generalizarse el uso de la web en los años 90, el Proyecto Gutenberg
cobra nueva vida y alcanza una difusión internacional. A lo largo de
los años, miles de voluntarios fueron digitalizando con paciencia
cientos de obras en modo texto. Primero las colecciones eran
esencialmente anglófonas, pero con el tiempo se fueron haciendo
multilingües, con sitios web ubicados en varios países (Estados Unidos,
Canadá, Europa y Australia) sin contar los que quedan por crear.


= Una apuesta lanzada hace 38 años

# Gestación

¿Cuáles son las raíces del proyecto? Cuando Michael Hart estudiaba en
la Universidad de Illinois, en los Estados Unidos, el laboratorio
informático (Materials Research Lab) de su universidad le asignó 100
millones de dólares de tiempo de ordenador. El 4 de julio de 1971, día
de la fiesta nacional, Michael digitó en el teclado de su ordenador
"The United States Declaration of Independence" (Declaración de
independencia de los Estados Unidos, firmada el 4 de julio de 1776), en
mayúsculas, pues las letras minúsculas aún no existían. El texto
electrónico representaba 5 K (kilobytes).

Pero el envío de un archivo de 5 Ko a las cien personas que formaban la
red de la época hubiera acabado con el sistema, provocando la implosión
de la red. Por aquel tiempo el ancho de banda aún era ínfimo. Michael
difundió un mensaje que explicaba dónde se almacenaba el texto (que no
contenía aún ningún hipervínculo, pues habría que esperar unos 20 años
más para la web). Poco después, seis personas descargaron este archivo.

Sobre la marcha, Michael decidió dedicar ese crédito de tiempo de unos
millones de dólares a la búsqueda de obras del dominio público que
estuvieran disponibles en bibliotecas, y a la digitalización de éstas.
Optó por almacenar los textos electrónicos bajo la forma más sencilla
posible, en formato ASCII, para que esos textos pudieran ser leídos sin
problema con cualquier ordenador, plataforma y programa. El conjunto de
páginas encuadernadas, forma tradicional del libro, se convierte en un
texto electrónico que se puede desplegar de par en par, con letras
capitales para los términos escritos en cursiva o en negrita y los
términos subrayados en la versión impresa.

Poco después, Michael definió así la misión del Proyecto Gutenberg:
poner a disposición de todos, por vía electrónica, el mayor número
posible de obras del dominio público: "Nosotros consideramos el texto
electrónico como un nuevo medio de comunicación, sin verdadera relación
con el papel", explicó más tarde, en agosto de 1998. "La única
semejanza es que ambos difundimos las mismas obras, pero en cuanto la
gente se haya acostumbrado, no veo cómo el papel aún podría competir
con el texto electrónico, sobre todo en las escuelas."

Tras haber digitado "The United States Declaration of Independence" en
1971, Michael prosiguió con sus esfuerzos en 1972 digitando "The United
States Bill of Rights"  (Declaración de derechos de los Estados
Unidos). Esa declaración incluye las diez primeras enmiendas añadidas
en 1789 a la Constitución de los Estados Unidos (ratificada en 1787), y
define los derechos individuales de los ciudadanos y los poderes
respectivos del gobierno federal y de los Estados. En 1973, un
voluntario digitó "The United States Constitution" (Constitución de los
Estados Unidos) en su totalidad.

# Perseverencia

Año tras año, la capacidad del disquete aumenta con regularidad – el
disco duro no existe aún – de modo que los archivos pueden ocupar cada
vez más espacio. Algunos voluntarios se animan a digitalizar la Biblia,
compuesta de varios libros, cada cual puede tratarse por separado y
ocupar un archivo diferente.

Michael también empieza a digitar la obra completa de Shakespeare, con
la ayuda de voluntarios, una obra de teatro tras otra, cada una en un
archivo. De hecho aquella edición nunca se ha podido poner en línea,
debido a que entre tanto, había entrado en vigor una ley de copyright
más rigurosa, ya no destinada a proteger el texto de Shakespeare,
pasado desde hace tiempo al dominio público, sino los comentarios y
notas de aquella edición. Otras ediciones anotadas que sí habían pasado
al dominio público se pusieron en línea algunos años más tarde.

Por las mismas fechas, el internet, aún embrionario en 1971, despega
verdaderamente en 1974, tras la creación del protocolo TCP/IP
(transmission control protocol/internet protocol). En 1983, le red está
en plena expansión.

# De 10 a 1.000 ebooks

En agosto de 1989, el Proyecto Gutenberg pone en línea su décimo texto,
"The King James Bible", publicada por primera vez en 1611 y cuya
versión más conocida es la de 1769. El conjunto de los archivos del
Antiguo Testamento y del Nuevo Testamento representa 5 M (megabytes).

En 1990, ya hay 250.000 internautas, y el modelo estándar vigente es el
disquete de 360 Ko. En enero de 1991, Michael digita "Alice’s
Adventures in Wonderland" (Alicia en el país de las maravillas) de
Lewis Carroll (publicado en 1865). En julio del mismo año, digita
"Peter Pan" de James M. Barrie (publicado en 1904). Cada uno de estos
dos clásicos de la literatura infantil cabe en un disquete estándar.

Luego llega la web, operativa a partir de 1991. El primer navegador,
Mosaic, aparece en noviembre de 1993. Al generalizarse el acceso a la
red, resulta más fácil hacer circular los textos electrónicos y
reclutar voluntarios. El Proyecto Gutenberg perfecciona su método de
trabajo, y logra digitalizar un texto al mes en 1991, dos textos al mes
en 1992, cuatro textos al mes en 1993 y ocho textos al mes en 1994. En
enero de 1994, el Proyecto Gutenberg celebra su centésimo libro con la
puesta en línea de "The Complete Works of William Shakespeare" (La obra
completa de William Shakespeare). Shakespeare escribió la mayor parte
de su obra entre 1590 y 1613. A continuación la producción sigue
aumentando, con una media de 8 textos al mes en 1994, 16 textos al mes
en 1995 y 32 textos al mes en 1996.

Como lo podemos observar, entre 1991 y 1996, las producciones se han
duplicado cada año. Mientras sigue con la digitalización de los libros,
Michael coordina también a partir de entonces el trabajo de decenas de
voluntarios. A partir de finales de 1993, el Proyecto Gutenberg se
articula en torno a tres grandes sectores: (a) "Light Literature"
(literatura de entretenimiento), que incluye por ejemplo "Alice’s
Adventures in Wonderland" (Las aventuras de Alicia en el país de las
maravillas), "Peter Pan" o "Aesop’s Fables" (Las Fábulas de Esopo);
(b) "Heavy Literature" (literatura "seria"), que incluye por ejemplo La
Biblia, las obras de Shakespeare o "Moby Dick"; (c) "Reference
Literature" (literatura de referencia), que reúne enciclopedias y
diccionarios, por ejemplo el "Roget’s Thesaurus". Más adelante, esta
presentación en tres sectores es sustituida por una clasificación
detallada con más secciones.

El Proyecto Gutenberg pretende ser universal, tanto a nivel de las
obras que selecciona como del público al que se dirige, ya que la meta
es poner la literatura a disposición de todos, sin limitarse al público
habitual de estudiantes y docentes.

El sector dedicado a la literatura de entretenimiento se propone atraer
frente a la pantalla a un público muy diverso, por ejemplo a niños y a
sus abuelos en busca del texto electrónico de "Peter Pan" después de
haber visto la película Hook, de la versión electrónica de "Alicia en
el país de las maravillas" tras haber visto una adaptación televisiva,
o del origen de una cita literaria tras visionar un episodio de Star
Trek. En casi todos los episodios de Star Trek se citan libros
disponibles en versión digital en el Proyecto Gutenberg.

El objetivo, entonces, es que el público, esté o no esté acostumbrado
al contacto con el libro impreso, pueda encontrar con facilidad los
textos escuchados en conversaciones, películas, músicas, o leídos en
otros libros, periódicos y revistas. Gracias al uso del formato ASCII,
los archivos electrónicos no ocupan mucho espacio. Se pueden descargar
fácilmente a través de la línea telefónica. La búsqueda textual es
igual de sencilla. Basta con utilizar la función "buscar" presente en
cualquier programa.

En 1997, la producción sigue siendo de 32 títulos al mes. En junio de
1997, el Proyecto Gutenberg pone en línea "The Merry Adventures of
Robin Hood" (Las alegres aventuras de Robin Hood) de Howard Pyle
(publicado en 1883). En agosto de 1997, pone en línea su milésimo texto
electrónico, "La Divina Commedia" (La Divina Comedia) de Dante
Alighieri (publicada en 1321), en su idioma original, el italiano.

Michael Hart escribió en agosto de 1998: "Mi proyecto es cargar 10.000
textos electrónicos en el internet. Si pudiera conseguir subvenciones
más importantes, me gustaría llegar hasta un millón y ampliar también
el número de nuestros usuarios potenciales pasando de un 1,x% a un 10%
de la población mundial, lo que representaría la distribución de 1.000
veces un billón de textos electrónicos en lugar de un solo billón."

# De 1.000 a 10.000 ebooks

Entre 1998 y 2000, la media sigue constante, con 36 textos al mes. En
mayo de 1999, las colecciones cuentan con 2.000 libros. El 2000º texto
es "Don Quijote" (publicado en 1605), en castellano.

Disponible en diciembre del año 2000, el 3.000° título es el tercer
volumen de "A l'ombre des jeunes filles en fleur (A la sombra de las
muchachas en flor) de Marcel Proust (publicado en 1919), en su idioma
original, en francés. La media pasa a 104 libros al mes en 2001.

Puesto en línea en octubre de 2001, el 4.000° texto es "The French
Immortals Series" (Obras de los Inmortales franceses), en versión
inglesa. Publicado en 1905 por la Maison Mazarin (París), este libro
reúne varias ficciones de escritores laureados por la Academia de la
lengua francesa (Académie française), como Emile Souvestre, Pierre
Loti, Hector Malot, Charles de Bernard, Alphonse Daudet y otros.

Disponible en abril de 2002, el 5.000° texto es "The Notebooks of
Leonardo da Vinci" (Los cuadernos de Leonardo da Vinci), que datan de
inicios de siglo XVI. En 2008, este texto aún se encuentra en el Top
100 de los libros descargados con más frecuencia.

En 1988, Michael Hart decidió digitalizar "Alice’s Adventures in
Wonderland" (Las aventuras de Alicia en el país de las maravillas) o
"Peter Pan" porque su versión digital cupo en un disquete de 360 Ko, o
sea el estándar de la época. Quince años más tarde, en 2002, ya
disponemos de disquetes de 1,44 M (megabytes) y resulta muy sencillo
comprimir archivos en archivos ZIP. Un archivo estándar puede contener
tres millones de caracteres, o sea más de los necesarios para un libro
de tamaño mediano, ya que una novela de 300 páginas digitalizada en
formato ASCII representa 1 M (megabyte). Un libro voluminoso cabe en
dos archivos ASCII, descargables en versión normal o en versión
comprimida. Se necesitan unas cincuenta horas para seleccionar un libro
de tamaño mediano, comprobar que ha pasado al dominio público,
escanearlo, corregirlo, formatearlo y compaginarlo.

Algunos números de libros se reservan para más tarde, por ejemplo el
número 1984 (eBook #1984) para la novela epónima de George Orwell,
publicada en 1949, que aún está lejos de pasar al dominio público.

En 2002, las colecciones se amplían de 203 títulos al mes. Al llegar la
primavera de 2002, ya cubren un cuarto de las obras del dominio público
de libre acceso en la web, inventariadas de forma casi exhaustiva por
la Internet Public Library (IPL). Un buen resultado, fruto del trabajo
paciente de miles de voluntarios activos en numerosos países.

1.000 libros en agosto de 1997, 2.000 libros en mayo de 1999, 3.000
libros en diciembre de 2000, 4.000 libros en octubre de 2001, 5.000
libros en abril de 2002, 10.000 libros en octubre de 2003. El 10.000°
libro es "The Magna Carta", que fue el primer texto constitucional
inglés, firmado en 1215.

Entre abril de 2002 y octubre de 2003, las colecciones se duplican,
pasando de 5.000 a 10.000 libros en dieciocho meses. En 2003, se
digitalizan de promedio unos 348 libros al mes.

Diez mil libros: una cifra impresionante si uno piensa en lo que
aquello representa en términos de páginas escaneadas, releídas y
corregidas. Este crecimiento rápido se debe a la actividad de
Distributed Proofreaders (DP), un sitio web concebido en 2000 por
Charles Franks para repartir la corrección de las obras entre varias
personas. Los voluntarios eligen uno de los libros cuya digitalización
ya ha empezado para releer y corregir determinada página. Cada cual
trabaja a su ritmo. A título indicativo, en el sitio web se aconseja
repasar una página al día. Representa poco tiempo en un día, pero mucho
para el proyecto.

En agosto de 2003, se pone a disposición un CD "Best of Gutenberg" con
una selección de 600 libros. En diciembre de 2003, fecha en la que el
Proyecto Gutenberg alcanza la cifra de 10.000 libros, se graba en un
DVD la casi totalidad de los libros (9.400 libros). Se envían
gratuitamente el CD y el DVD a cualquier persona que lo pida. Luego
cada uno queda libre de realizar todas las copias que pueda y de
distribuirlas a su alrededor.

# De 10.000 à 20.000 ebooks

En diciembre de 2003, las colecciones rondan los 11.000 libros. Varios
formatos están representados (HTML, XML, RTF, etc.) pero el formato
principal - y obligatorio - sigue siendo el ASCII. Hay 46.000 archivos
en conjunto, lo que equivale a una capacidad total de 110 G
(gigabytes). El 13 de febrero de 2004, fecha en la que Michael Hart da
una conferencia en la sede de la UNESCO en París, las colecciones
abarcan exactamente 11.340 libros en 25 idiomas diferentes. En mayo de
2004, los 12.500 libros disponibles representan 100.000 archivos en
veinte formatos diferentes, lo que equivale a una capacidad total de
135 G (gigabytes), y ésta debería duplicarse cada año con la agregación
de más de 300 libros al mes (338 libros en 2004).

Al mismo tiempo, el LibraryBlog Consortia Center (PGCC), lanzado
en 1997 para reunir colecciones de libros digitales en un punto de
acceso único, es afiliado oficialmente al Proyecto Gutenberg en 2003.

En otro ámbito, se inicia un proyecto europeo a iniciativa del Proyecto
Rastko, basado en Belgrado (Serbia). Distributed Proofreaders Europa
nace en diciembre de 2003, y el Proyecto Gutenberg Europa en enero de
2004, con cien libros disponibles para abril de 2005. Aparecen libros
en varios idiomas con el fin de reflejar la diversidad lingüística que
prevalece en Europa, y a largo plazo la intención es proponer
documentos en cien idiomas.

En enero de 2005, el Proyecto Gutenberg celebra sus 15.000 libros, al
poner en línea "The Life of Reason" de George Santayana (publicado en
1906).

En junio de 2005, se alcanzan los 16.000 libros. Si bien en febrero de
2004 sólo había textos en 25 idiomas, en julio de 2005 están
representados 42 idiomas, entre los cuales el sanscrito y las lenguas
maya. En diciembre de 2006 figuran 50 idiomas. El 16 de diciembre de
2006, varios idiomas cuentan con colecciones de más de 50 títulos: el
inglés (17.377 libros), el francés (966 títulos), el alemán (412
títulos), el finlandés (344 títulos), el holandés (244 títulos), el
español (140 títulos), el italiano (102 títulos), el chino (69
títulos), el portugués (68 títulos) y el tagalog (51 títulos).

Lanzado en agosto de 2001, el Proyecto Gutenberg of Australia celebra
sus 500 libros en julio de 2005. En la misma fecha, el Proyecto
Gutenberg Canadá aún está en gestación, así como un Proyecto Gutenberg
en Portugal y uno en las Filipinas.

En diciembre de 2006, el Proyecto Gutenberg alcanza los 20.000 libros.
El 20.000° libro es un libro audio, "Twenty Thousand Leagues Under the
Sea" (Veinte mil leguas de viaje submarino), la versión inglesa de la
novela de Julio Verne (publicada en 1869). En 2006, se digitalizan de
promedio unos 345 libros nuevos al mes. Aunque se hayan necesitado 32
años para digitalizar los 10.000 primeros libros – de julio de 1971 a
octubre de 2003 – bastará con sólo tres años y dos meses, de octubre de
2003 a diciembre de 2006, para digitalizar los 10.000 libros
siguientes.

Por la misma fecha, el Proyecto Gutenberg of Australia ronda los 1.500
libros (se alcanzará esta cifra en abril de 2007) y el Proyecto
Gutenberg Europa cuenta con 400 libros.

En enero de 2006 se crea la sección LibraryBlog PrePrints para
acoger nuevos documentos que por su interés merecerían estar en línea,
pero que no pueden ser incorporados a las colecciones existentes sin su
procesamiento previo por voluntarios: colecciones incompletas, calidad
insuficiente, necesidad de conversión a otro formato, etc. Esta sección
comprende 379 títulos en diciembre de 2006, y más de 2.000 títulos dos
años más tarde.

# Decenas de miles de ebooks

Se estrena el sitio web LibraryBlog News a principios de
noviembre de 2006 a instigación de Mike Cook. Este sitio es
complementario al de la carta de información semanal y mensual que ya
llevaba muchos años de existencia. El sitio presenta por ejemplo las
estadísticas de producción semanales, mensuales y anuales desde 2001.
La producción semanal se eleva a 24 libros en 2001, 47 libros en 2002,
79 libros en 2003, 78 libros en 2004, 58 libros en 2005, 80 libros en
2006 y 78 libros en 2007. La producción mensual es de 104 libros en
2001, 203 libros en 2002, 348 libros en 2003, 338 libros en 2004, 252
libros en 2005, 345 libros en 2006 y 338 libros en 2007. La producción
anual es de 1.244 libros en 2001, 2.432 libros en 2002, 4.176 libros en
2003, 4.058 libros en 2004, 3.019 libros en 2005, 4.141 libros en 2006
y 4.049 libros en 2007.

El Proyecto Gutenberg Canadá (PGC) ve la luz el 1° de julio de 2007,
día de la fiesta nacional, a instigación de Michael Shepard y David
Jones. Poco después nace Distributed Proofreaders Canadá (DPC) cuya
producción empieza en 2007. Los cien primeros libros están disponibles
en marzo de 2008, con libros en inglés, en francés y en italiano.

Distributed Proofreaders (DP), lanzado en octubre de 2000, cuenta con
52.000 voluntarios en enero de 2008, con un total de 11.934 libros
procesados en siete años y tres meses. Distributed Proofreaders Europa
(DP Europe), lanzado en diciembre 2003, contabiliza 1.500 voluntarios.
Distributed Proofreaders Canadá (DPC), lanzado en diciembre de 2007,
contabiliza 250 voluntarios.

El Proyecto Gutenberg alcanza los 25.000 libros en abril de 2008. El
25.000° libro es "English Book Collectors" de William Younger Fletcher
(publicado en 1902).

El Proyecto Gutenberg Europa alcanza los 500 libros en octubre de 2008.

El Proyecto Gutenberg contabiliza 32.500 ebooks el 1° de marzo de 2009
– si se toma en cuenta el conjunto de sus sitios web –, de los cuales
28.147 ebooks para el Proyecto Gutenberg USA, 1.750 ebooks para el
Proyecto Gutenberg Australia, 600 ebooks para el Proyecto Gutenberg
Europa y 250 ebooks para el Proyecto Gutenberg Canadá, a los que
conviene añadir los 2.020 ebooks de la sección PrePrints. En la misma
fecha el LibraryBlog Consortia Center (PGCC), que reúne varias
colecciones de libros digitalizados, cuenta con 75.000 ebooks.

Para el Proyecto Gutenberg original (28.147 ebooks), los diez idiomas
más representados en marzo de 2009 son los siguientes: inglés (23,761
ebooks el 6 de marzo 2009), francés (1.387 ebooks), alemán (570
ebooks), finlandés (491 ebooks), chino (399 ebooks), holandés (408
ebooks), portugués (307 ebooks), español (226 ebooks) e italiano (180
ebooks).

= Desde el pasado hacia el futuro

Michael Hart ha ganado entonces la apuesta hecha en 1971, con una
progresión impresionante si uno piensa en el número de páginas que han
sido releídas y corregidas en total. Sin embargo los resultados del
Proyecto Gutenberg no se miden sólo en cifras. Los resultados se miden
también por la influencia que ha tenido el proyecto, pues ésta ha sido
enorme. El Proyecto Gutenberg – primera página web de información en el
internet y primera biblioteca digital –, inspiró entre tanto a muchas
otras bibliotecas digitales, por ejemplo el Projekt Runeberg para la
literatura escandinava o el Projekt Gutenberg-DE para la literatura
alemana, para no citar sino a dos de ellos.

La estructura administrativa y financiera del Proyecto Gutenberg se
limita al mínimo estricto. Michael Hart insiste frecuentemente sobre la
necesidad de preservar un marco lo más flexible posible que deje campo
libre a los voluntarios, y la puerta abierta para las nuevas ideas. El
objetivo es garantizar la perennidad del proyecto, sin depender ni de
créditos y cortes de créditos, ni de las prioridades culturales,
financieras y políticas del momento. De este modo no puede ejercerse
ninguna forma de presión por el poder o el dinero. Además esto
significa respeto para con los voluntarios, quienes pueden estar
seguros de que verán su trabajo utilizado durante muchos años, o
incluso durante muchas generaciones, de ahí el interés que presenta un
formato digital que aún sea válido dentro de algunos siglos. En cuanto
a la supervisión regular del proyecto, se garantiza gracias a una carta
de información semanal y mensual, foros de discusión, wikis y blogs.

Las donaciones sirven para financiar ordenadores y escáneres, y para
enviar CD y DVD gratuitos a aquéllos que los solicitan. Después del CD
"Best of Gutenberg" disponible en agosto de 2003 con una selección de
600 títulos y de un primer DVD disponible en diciembre de 2003 con
9.400 títulos, un segundo DVD se pone a disposición en julio de 2006
con 17.000 títulos. A partir de 2005, CD y DVD ambos están disponibles
en el sitio web de BitTorrent bajo la forma de imágenes ISO. Estas se
pueden descargar con el fin de grabar luego CD y DVD a título personal.
En 2007, el Proyecto Gutenberg envía 15 millones de libros por correo
postal bajo la forma de CD y DVD.

Aunque demasiadas veces se silencie, cabe recordar que el verdadero
inventor del ebook es Michael Hart. Si tomamos la palabra "ebook" en su
sentido etimológico – a saber un libro digital para difusión bajo la
forma de un archivo electrónico – resulta que éste casi tendría
cuarenta años y habría nacido con el Proyecto Gutenberg en julio de
1971. Ésta es una paternidad mucho más reconfortante que los diversos
lanzamientos comerciales en formato propietario que salpicaron el
principio de los años 2000. No hay ningún motivo para que la
denominación "ebook" designe sólo el ebook comercial y sea exclusiva de
entidades como Amazon, Barnes & Noble, Gemstar y demás. El ebook no
comercial es un ebook de pleno derecho, y no un pariente pobre, así
como la edición electrónica no comercial es una forma de edición de
pleno derecho, y tan válida como la edición comercial.

En julio de 1971, el envío de un archivo de 5 K (kilobytes) a cien
personas hubiera acabado con el embrión de red disponible en aquella
época. En noviembre de 2002, el Proyecto Gutenberg es capaz de poner en
línea los 75 archivos del "Human Genome Project" (Proyecto Genoma
Humano, es saber la secuenciación del genoma humano), a pesar de que
cada archivo se compone de decenas, o incluso de cientos de megabytes.
Y esto ocurre poco tiempo después de su publicación inicial en febrero
de 2001, debido a que desde el principio ya pertenecía al dominio
público. En 2004, la capacidad de almacenamiento de los discos duros ya
es tal que sería posible almacenar la integralidad de la Library of
Congress en formato texto en un soporte de un valor de 140 dólares US.
Y por lo visto dentro de unos pocos años aparecerá una llave USB
(universal serial bus) capaz de almacenar la integralidad del
patrimonio escrito de la humanidad.

¿Y qué pasa con los documentos que no pertenecen al mundo escrito? En
septiembre de 2003, el Proyecto Gutenberg se lanza en un proyecto de
difusión de libros audio. En diciembre de 2006, están disponibles unos
367 libros leídos por una síntesis de voz (en la sección "Audio Books,
computer-generated") y 132 libros leídos por el ser humano (en la
sección "Audio Books, human-read"). La cantidad de libros leídos por un
ser humano debería ir creciendo, pero los libros leídos por una
síntesis de voz ya no serán almacenados en una sección específica, sino
generados a petición del usuario a partir de archivos electrónicos
preexistentes en las colecciones generales. En el futuro, los lectores
ciegos o deficientes visuales podrán utilizar una función de control de
voz para pedir uno de esos libros digitales.

La colección "Sheet Music Subproject", lanzada también en septiembre de
2003, está dedicada a las partituras musicales digitalizadas (en la
sección "Music, Sheet"). Viene completada por una sección de
grabaciones musicales (Music, recorded). También hay secciones
reservadas para las imágenes fijas (Pictures, still) y animadas
(Pictures, moving). Esas nuevas colecciones deberían desarrollarse
durante los años que vienen.

Sin embargo, la prioridad sigue siendo la digitalización de libros. Y
la demanda es enorme, a prueba de ello el número de descargas, que
ahora se cifran en decenas de miles diarias. A fecha del 31 de julio de
2005, se cuenta con 37.532 archivos descargados al día, 243.808
archivos a la semana y 1.154.765 archivos al mes. A fecha del 6 de mayo
2007, se han descargado 89.841 archivos al día, 697.818 a la semana y
2.995.436 al mes. Y esto sólo concierne el sitio web de descargas
Estados Unidos), que alberga también el sitio web del Proyecto
Gutenberg. El segundo sitio web de descargas es el del Internet
Archive, que también sirve de copia de seguridad y le proporciona al
Proyecto Gutenberg une capacidad de almacenamiento ilimitada.

Un Top 100 inventaria los cien títulos y los cien autores que más han
sido descargados durante el día, la semana y el mes.

El Proyecto Gutenberg dispone de 40 sitios web espejo repartidos entre
múltiples países, y aún necesita encontrar otros. Los archivos también
circulan en modo P2P (peer-to-peer), lo que permite a cualquier
utilizador intercambiar directamente archivos con otro utilizador.

Los libros del Proyecto Gutenberg pueden ayudar a colmar la fractura
digital. Es muy sencillo descargarlos en una PDA (asistente personal).
Un ordenador o una PDA de segunda mano no cuestan más de unos dólares o
decenas de dólares, en función del modelo. Algunas PDA funcionan con
energía solar, lo que permite un acceso a la lectura en las regiones
pobres y remotas.

Más adelante, quizás se pueda contemplar la idea de una traducción
simultánea a unos cien idiomas, utilizando un programa de traducción
automática con un margen de fiabilidad del orden de 99%, aunque de
momento aún falte mucho par alcanzar este porcentaje. Los textos
generados por el software de traducción automática pasarían luego en
manos de traductores (no máquinas, sino seres humanos) para hacerles
algunos retoques, siguiendo un modelo parecido al de la tecnología OCR,
que no puede prescindir de los correctores (no de los software, sino de
los seres humanos) para ofrecer un contenido de calidad óptima.

38 años después de la creación del Proyecto Gutenberg, Michael Hart se
define aún como un adicto al trabajo que sigue dedicándose enteramente
a su proyecto, proyecto que en su opinión está al origen de una
revolución neo-industrial. Se define también a sí mismo como un
altruista, pragmático y visionario. Tras haber sido tildado de chiflado
durante años, ahora suscita el respeto.

Con el pasar de los años, la misión del Proyecto Gutenberg nunca ha
dejado de ser la misma, a saber la de cambiar el mundo mediante el
ebook gratuito, de uso infinito y repetible. El objetivo también sigue
siendo el mismo, es decir la lectura y la cultura para todos a coste
reducido. En cuanto a la misión, se resume en pocas palabras: "fomentar
la creación y la distribución de los ebooks", por cuantas personas sea
posible, y por todos los medios posibles. Y aceptando también los
virajes necesarios para integrar nuevas ideas, nuevos métodos y nuevos
soportes.



1990: LA WEB IMPULSA EL DESARROLLO DEL INTERNET


= [Resumen]

A Vinton Cerf se le suele llamar "el padre del internet" porque fue él
quien creó en 1974 (con Bob Kahn) el protocolo TCP/IP (transmission
control protocol/internet protocol) para los intercambios de datos. El
internet se desarrolla a partir de 1983. Tim Berners-Lee, en aquella
época investigador en el CERN (Organización europea para la
investigación nuclear, Ginebra, Switzerland) concibió la web en 1989-
90. En 1989, Tim pone en la red documentos que utilizan el hipertexto.
En 1990, elabora el primer servidor HTTP (hypertext transfert protocol)
y el primer navegador web. En 1991, la web ya está operativa y
transforma radicalmente el uso del internet. La web despega en
noviembre de 1993 gracias a Mosaic, el primer navegador destinado al
público en general. Quince años después de la creación de la web, la
revista Wired (California) observa en su número de agosto de 2005 que
"sólo menos de la mitad de la web es comercial, y que el resto funciona
con la pasión". En cuanto al internet, unos treinta años después de su
lanzamiento, el diario Le Monde (Francia) oserva en su edición del 19
de agosto de 2005 que "gracias a sus tres poderes – ubiquidad, variedad
e interactividad – su potencial de uso es casi infinito".


= El internet y la web

Cuando aparece en 1974, el internet es primero un fenómeno experimental
que sólo levanta entusiasmo para los fanáticos del mundo tech. A partir
de 1983, el internet es una red informática global que conecta a
universidades, centros de investigación, gobiernos y empresas. Luego
tras la aparición de la web en 1990 y del primer navegador en 1993,
empieza a invadir nuestro cotidiano. Los caracteres cabalísticos de las
direcciones web florecen en los libros, los periódicos, los carteles y
las publicidades.

El internet se define como un conjunto de redes comerciales, redes
públicas, redes privadas, redes de docentes, redes de servicios, etc.,
que operan a escala planetaria para ofrecer inmensos recursos en el
campo de la información y de la comunicación. La prensa se exalta por
este nuevo medio de comunicación. Hay quien asegura que pronto el
internet llegará a todos los hogares. Se habla de una fusión entre
ordenador y televisión: aparecen pantallas intercambiables o
integradas, y se puede acceder por la misma vía al internet y a la
televisión por cable.

La mayúscula original de Internet desaparece. Internet se convierte en
el internet, con una "i" minúscula. De nombre propio pasa a ser un
nombre común, al igual que el ordenador, el teléfono, el fax y el
videotex. Pasa lo mismo con la World Wide Web, que se convierte
simplemente en la web.

Se aprueba una definición oficial del internet en los Estados Unidos en
octubre de 1995 por medio de una resolución del Consejo federal de las
redes (FNC: Federal Networking Council), en acuerdo con las diversas
"comunidades" del internet y los organismos defensores de la propiedad
intelectual. El internet se define como un sistema de información
global que obedece a las tres características siguientes: (a)
direcciones únicas basadas en el protocolo IP (internet protocol) o en
sus extensiones, (b) comunicaciones que utilicen el TCP/IP
(transmission control protocol/internet protocol), sus extensiones o
protocolos compatibles, (c) la puesta a disposición de servicios
públicos o privados a partir de esas infraestructuras.

Gracias a la web es cómo el internet se vuelve muy popular y logra
semejante progresión. Director del Grupo de actividades internet (IAB:
Internet Activities Board), Christian Huitema explica que la World Wide
Web "descansa sobre tres ideas principales: la navegación hipertextual,
el apoyo del multimedia, y la integración de los servicios
preexistentes".

Más comúnmente llamada web, Web, WWW o W3, la World Wide Web es creada
por Tim Berners-Lee en 1989-1990 en el CERN (Laboratorio europeo para
la investigación molecular) en Ginebra (Suiza). Esto revoluciona la
consulta del internet. Gracias a la web empieza a ser posible publicar
documentos mediante el sistema de hipertexto, es decir un conjunto de
hipervínculos que permiten pasar de un documento textual o visual a
otro, mediante un simple clic de ratón. La información se vuelve
verdaderamente interactiva, y por lo tanto resulta de repente mucho más
atractiva.

Un sitio web suele componerse de un conjunto de páginas relacionadas
entre sí por hipervínculos que suelen venir subrayados o en un color
distinto al del texto. Con un solo clic, el utilizador puede acceder a
otra parte del documento, o bien a otro documento del mismo sitio web,
o incluso a otro sitio web. Luego esa interactividad se desarrolla aún
más con la aparición de los vínculos hipermedia que permiten enlazar
textos e imágenes con gráficos, vídeos o bandas sonoras.

Como lo vemos, la web aparece mucho más tarde que el internet. Y aunque
las dos palabras impropiamente se suelan considerar como sinónimos, la
web no es más que una de las facetas del internet, el cual abarca otros
servicios: correo electrónico, gopher, telnet (terminal network
protocol), FTP (file transfer protocol), IRC (internet relay chat),
foros de discusión, mensajería instantánea, videoconferencia, telefonía
en IP (internet protocol), etc.

La web dispone de la infraestructura internet, primero en los Estados
Unidos y en Canadá antes de propagarse en el mundo entero. Para
contestar la pregunta planteada en diciembre de 1997 por Pierre
Ruetschi, periodista del diario "Tribune de Genève" (Suiza): "¿Por qué
ha acumulado Europa tanto retraso en comparación con los Estados Unidos
en cuanto a su presencia y desarrollo en el internet?", Tim Berners-Lee
explica que el adelanto de los Estados Unidos se debe a las enormes
inversiones realizadas por el gobierno. Insiste también en el avance
tecnológico de Europa en varios ámbitos: videotex, tarjetas chip,
teléfonos celulares, etc.

Solemos quejarnos de la hegemonía estadounidense mientras que en
realidad se trata sobre todo de un adelanto técnico. A pesar de los
esfuerzos de los "dinosaurios" políticos y comerciales, de momento
resultaría imposible para cualquier país o para cualquier comunidad
"hacerse" con la web, o al menos controlarla totalmente.

Mosaic, el primer software de navegación, fue desarrollado por el
Centro nacional de aplicaciones de supercomputación (NCSA: National
Center for Supercomputing Applications) en la Universidad de Illinois y
empezó a distribuirse gratuitamente a partir de noviembre de 1993,
contribuyendo así al desarrollo rápido de la web. A principios de 1994,
parte del equipo de Mosaic emigra hacia la Netscape Communications
Corporation para comercializar un nuevo software bajo el nombre de
Nescape Navigator. En 1995, para competir con el Netscape Navigator,
Microsoft crea el Internet Explorer. Luego aparecen otros navegadores,
como Opera o Safari.

Dos estudiantes de la Universidad de Stanford (California), Jerry Lang
y David Filo, lanzan en enero de 1994 un directorio web, Yahoo!, que se
propone inventariar los sitios web y clasificarlos por temas. El
directorio logra un éxito clamoroso, por proponer una clasificación más
precisa que otros buscadores como AltaVista que sólo proponen listas
completamente automatizadas. Yahoo! se divide en 63 grandes categorías
(en 1998), y se puede consultar en inglés, alemán, coreano, francés,
japonés, noruego y sueco. Yahoo! trabaja en colaboración con AltaVista.
Cuando una búsqueda no produce resultados en Yahoo! es redirigida
automáticamente hacia Alta Vista, y viceversa.

A partir de diciembre de 1997, AltaVista propone AltaVista Translation,
un servicio de traducción automatizada del inglés a los idiomas
siguientes: alemán, español, francés, italiano y portugués, y
viceversa. Aunque este servicio tiene sus límites – la traducción no
puede exceder tres páginas y la traducción del texto es bastante
aproximada – de inmediato conoce un gran éxito. Además, abre una vía
para otros servicios del mismo tipo y contribuye a la creación de una
web multilingüe.


= Algunos conceptos

El internet no es sólo un invento técnico. En la página de la Internet
Society, un organismo profesional internacional fundado en 1992 para
coordinar y promover el desarrollo del internet, el documento "The
Brief History of Internet" (La breve historia del internet) propone una
triple definición del internet. El internet es: (a) un instrumento de
difusión internacional, (b) un mecanismo de difusión de la información,
(c) un medio de colaboración y de interacción entre los individuos y
los ordenadores, independientemente de su situación geográfica.

Este documento indica que el internet revoluciona de arriba a abajo el
mundo de la comunicación, mucho más que cualquier otro invento:
telégrafo, teléfono radio u ordenador. Es uno de los ejemplos más
exitosos de interacción entre una inversión sostenida en investigación,
y el fomento de una infraestructura de la información, ambos objeto de
una verdadera cooperación entre los gobiernos, las universidades y las
empresas.

En la página del World Wide Web Consortium (W3C) – consorcio
internacional fundado en octubre de 1994 para definir los protocolos
comunes requeridos por la web – Bruce Sterling describe el desarrollo
espectacular del internet en el documento "Short History of the
Internet" (Una corta historia del internet). El internet se desarrolla
más deprisa que los teléfonos celulares o los faxes. En 1996 su
crecimiento es de un 20% al mes. Se ha duplicado desde 1988 el número
de ordenadores que disponen de una conexión usando el protocolo TCP/IP.
El internet se difunde primero en el ejército y en los institutos de
investigación, antes de propagarse en las escuelas, las universidades y
las bibliotecas, y el sector comercial también acaba tomándolo por
asalto.

Bruce Sterling se interesa también por los motivos que incitan a la
gente a conectarse a el internet. En su opinión, uno de los motivos
esenciales es la libertad. El internet es un ejemplo de "anarquía real,
moderna y funcional". No hay ni censores oficiales (en 1998), ni jefes,
ni junta de dirección ni accionistas. Todas las personas pueden hablar
de igual a igual, siempre y cuando se conformen a los protocolos
TCP/IP, que no son sociales ni políticos, sino estrictamente técnicos.

Por último, Bruce Sterling indica que el internet también es un buen
negocio comercial. A diferencia de la telefonía tradicional (en 1998),
el internet no acarrea gastos de larga distancia. Asimismo, a
diferencia de lo que pasa con las redes informáticas comerciales, no
hay costes de acceso. En realidad, el internet, que ni siquiera existe
oficialmente como entidad, no tiene facturación propia. Cada grupo que
tenga acceso al internet queda responsable de sus propios ordenadores y
conexiones.

Preocupados, los medios de comunicación tradicionales se preguntan si
el internet se convertirá en un competidor para la televisión y la
lectura. En Quebec, donde un 30,7% de la población dispone de una
conexión internet en marzo de 1998, una encuesta llevada a cabo por el
instituto Som para la revista online "Branchez-vous!" (¡Conéctense!)
indica que un 28,8% de los quebequenses conectados ven menos la
televisión que antes. En cambio, sólo un 12,1% de ellos leen menos, lo
que según el diario online Multimédium, resulta "bastante alentador
para el Ministerio de cultura y comunicación cuya doble tarea consiste
en favorecer la expansión de las autovías de la información... ¡y el de
la lectura!"

En Francia, durante una entrevista con la periodista Annick Rivoire
publicada en el diario Libération del 16 de enero de 1998, el filósofo
Pierre Lévy explica que el internet permitirá acabar con los
monopolios: "El internet permite sacar a los pequeños del aislamiento,
y darles más oportunidades. Cuando nos indignamos frente al monopolio
de Microsoft, se nos olvida decir que el internet marca el fin del
monopolio de la prensa, de la radio y de la televisión y de todos los
intermediadores." La red también favorece lo que Pierre Lévy llama la
"inteligencia colectiva": "La red nos permite poner en común nuestra
memoria, nuestras competencias, nuestra imaginación, nuestros proyectos
e ideas, y esforzarnos para que todas las diferencias, las
singularidades se dinamicen las unas a las otras, se complementen,
entren en sinergia."

El filósofo Timothy Leary recalca en 1994 en su libro "Chaos & Cyber
Culture" (Caos y cibercultura): "El individuo nunca tenido semejante
poder a su alcance. Sin embargo, en esta edad de la información, hace
falta descifrar las señales. Popularizar significa 'hacer accesible al
pueblo'. Hoy el papel del filósofo es el de personalizar, popularizar y
humanizar los conceptos informáticos, para que nadie se sienta
excluido."

Sin embargo debemos mantener la cabeza fría. Para oponerse a la vez a
aquéllos que ponen las tecnologías en un pedestal y a los que
sistemáticamente las conciben con hostilidad, se lanza en la web un
movimiento llamado Technorealism (Realismo tecnológico) en marzo de
1998. Las ideas difundidas en el documento "Technorealism Overview" son
retomadas en Quebec en el documento "Manifeste pour un technoréalisme"
(Manifiesto para un tecnorealismo). Este manifiesto se apoya en los
ocho principios siguientes: (1) las tecnologías no son neutras, (2) el
internet es un medio de comunicación revolucionario, pero no una
utopía, (3) el gobierno desempeña un papel importante en el
ciberespacio, (4) la difusión de la información no garantiza su
autenticidad, (5) conectar a las escuelas no garantizará una educación
de mejor calidad, (6) la información debe estar protegida (en relación
con el derecho de autor), (7) la red pertenece al dominio público,
liego el público es quien debería gozar de sus beneficios, (8) la buena
comprensión de las tecnologías debería formar parte de los fundamentos
de la ciudadanía.

Según este manifiesto, "cuanto más popular se hace el ciberespacio, más
se parece a la sociedad real en toda su complejidad. Las ventajas y el
aspecto habilitador de la vida online corren pareja con algunas
dimensiones maliciosas, perversas. (...) Contra lo que afirman algunos,
el ciberespacio no es un lugar distinto regido por reglas distintas a
las que rigen nuestra sociedad civil. Los gobiernos deben respetar las
reglas y las costumbres nacidas con el ciberespacio, sin que por ello
se le prohíba al público intervenir si algún ciudadano empieza a
desvariar o si una empresa comete fraude. En calidad de representante
del pueblo y guardián de los valores democráticos, el Estado tiene el
derecho y la responsabilidad de contribuir a la integración del
ciberespacio dentro de la sociedad civil. (...) Por muy potentes que
sean nuestros ordenadores, nunca deberían sustituirse a la lucidez, el
raciocinio y el juicio."

A pesar de todo, la web es una extraordinaria aventura. Para citar las
palabras exactas de Tim Berners-Lee, su creador, "el sueño que se
esconde detrás de la web es el siguiente: crear un espacio de
información común en donde comuniquemos compartiendo la información. Es
esencial que este espacio sea universal y que los hipervínculos puedan
enlazar con cualquier tipo de datos: pueden ser personales, locales o
mundiales. Tampoco importa que se trate sólo de esbozos o, al
contrario, de documentos sofisticados. El sueño también tiene una
segunda parte: el acceso a la web se generalizaría hasta tal punto que
acabaría convirtiéndose en un espejo realista (o de hecho en la
encarnación más directa) de la manera en que trabajamos, jugamos y
hacemos vida social. Esto significa que tras contemplar online la
descripción de nuestras relaciones sociales, podríamos utilizar los
ordenadores para analizarlas, dar sentido a lo que hacemos,
preguntarnos en qué tipo de espacio encuentra cada uno un lugar que le
corresponde, y cómo podemos trabajar mejor juntos." (fragmento del
documento "The World Wide Web: A very short personal history" (El World
Wide Web: una muy corta historia personal), 1998, disponible en el
sitio web del W3C)



1993: LA ONLINE BOOKS PAGE INVENTARIA LOS EBOOKS GRATUITOS


= [Resumen]

La Online Books Page fue creada en enero de 1993 por John Mark
Ockerbloom para inventariar los textos electrónicos de dominio público
en lengua inglesa de libre acceso en la web. Por esas fechas, John Mark
estaba realizando un doctorado en la Universidad Carnegie Mellon
(Estados Unidos). En 1999, empieza a trabajar en la Universidad de
Pensilvania en el Departamento de investigación y desarrollo (research
& development) de la biblioteca digital. En la misma época, también
transfiere allí la Online Books Page, conservando la misma
presentación, muy sobria, y prosigue con su trabajo de inventario en la
misma línea. En 2003, el repertorio celebra sus diez años de existencia
con más de 20.000 textos electrónicos inventariados, de los cuales
4.000 publicados por mujeres. En diciembre de 2006, cuenta con unos
25.000 títulos. A finales de 2007, contiene 30.000 títulos, de los
cuales 7.000 títulos del Proyecto Gutenberg.


= [Texto]

Mientras algunos digitalizan las obras de dominio público, como el
Proyecto Gutenberg y otros proyectos análogos, otros se proponen
inventariar las obras de libre acceso en la web, para ofrecer al lector
un punto de acceso común. Así pues John Mark Ockerbloom, estudiante de
doctorado en la Universidad Carnegie Mellon (Estados Unidos), crea la
Online Books Page, una página web destinada a inventariar las obras de
lengua inglesa.

Cinco años más tarde, en septiembre de 1998, John Mark relata: "Yo era
uno de los webmasters del Departamento de informática del CMU (Carnegie
Mellon University), y empecé con nuestro sitio web local en 1993. Éste
comprendía páginas con enlaces hacia recursos disponibles localmente,
entre los que figuraba al principio la Online Books Page con enlaces
hacia libros puestos en línea por personas de nuestro departamento (por
ejemplo Robert Stockton, quien realizó versiones web de algunos textos
del Proyecto Gutenberg). Después los usuarios empezaron a pedir enlaces
hacia libros disponibles en otros sitios web. Me di cuenta de que
muchos sitios web (y no solamente el Proyecto Gutenberg o Wiretap)
proponían libros en línea, y que podría ser útil tener una lista
completa que permitiera descargar o leer libros dondequiera que se
encontraran en la red. Fue así como empezó mi catálogo.

Dejé mi actividad de webmaster en 1996, pero mantuve la Online Books
Page porque entretanto me apasioné por el enorme potencial que
representaba el internet para poner la literatura al alcance de mucha
gente. Ahora se han puesto en línea tantos libros que resulta difícil
para mí mantenerme al día (de hecho, tengo mucho retraso). Pero pienso
seguir con esta actividad de una manera u otra. Me intereso mucho por
el desarrollo del internet como medio de comunicación de masa durante
los próximos años. También me gustaría seguir comprometido de un modo u
otro en la difusión gratuita de libros para todos en el internet, ya
sea que esta tarea forme parte integrante de mi actividad profesional,
o que me dedique a una actividad voluntaria similar durante mi tiempo
libre."

A finales de 1998, John Mark Ockerbloom obtiene su doctorado en
informática. En 1999, empieza a trabajar en la Universidad de
Pensilvania, en la el Departamento de investigación y desarrollo
(research & development) de la biblioteca digital. En la misma época,
también transfiere allí la Online Books Page, conservando sin embargo
la misma presentación, muy sobria, y prosigue con su trabajo de
inventario en la misma línea. El repertorio inventaría 12.000 textos en
línea en 1999, 20.000 textos en 2003 (de los cuales 4.000 publicados
por mujeres), 25.000 textos en 2006 et 30.000 textos en 2007, de los
cuales 7.000 títulos del Proyecto Gutenberg.

En 1999, estalla una controversia acerca de un fortalecimiento de la
ley de copyright de 1976, mediante una enmienda fechada del 27 de
octubre de 1998. A consecuencia muchas obras que estaban a punto de
pasar al dominio público permanecen bajo copyright, en perjuicio de
Michael Hart (fundador del Proyecto Gutenberg), de John Mark Ockerbloom
y de muchos otros.

John Mark explicó en agosto de 1999: "Me parece importante que los
internautas entiendan que el copyright es un contrato social concebido
para el bien público – y esto incluye tanto a los autores como a los
lectores. Esto significa que los autores deberían tener el derecho de
utilizar de manera exclusiva y por un tiempo limitado las obras
creadas, así como se especifica en la ley actual sobre el copyright.
Pero esto significa también que cuando expire el copyright, sus
lectores deberían tener el derecho de copiar y reutilizar este trabajo
tantas veces como lo deseen.

Últimamente en los Estados Unidos han intentado repetidamente
retirarles a los lectores estos derechos, limitando las reglas
relativas a la utilización de dichas obras, prolongando la duración del
copyright (algunas propuestas prevén incluso un plan de copyright
perpetuo) y extendiendo la propiedad intelectual a trabajos que no son
obras de creación (véase por ejemplo las propuestas de copyright para
las bases de datos). Incluso hay propuestas que pretenden sustituir por
completo la ley de copyright por una ley que establecería un contrato
mucho más fuerte. Me parece mucho más difícil compartir la opinión de
Jack Valenti, director de la Asociación cinematográfica de Estados
Unidos (MPAA: Motion Picture Association of America), cuando éste pide
que se dejen de copiar las películas bajo copyright, cuando sé
perfectamente que si esto se aceptara, ninguna película pasaría al
dominio público (...). Al ver cómo las empresas de medios de
comunicación tratan de bloquear todo lo que pueden, no me sorprende que
algunos usuarios reaccionen poniendo en línea todo lo que pueden.
Desgraciadamente esta actitud también perjudica los derechos legítimos
de los autores."

¿Cómo resolver este dilema a nivel práctico?

"Los que tienen intereses en juego en este debate tienen que hacer
frente a la realidad, y reconocer que los productores de las obras y
sus usuarios tienen ambos intereses legítimos en la utilización de
éstas. Si la propiedad intelectual se negociara por medio de un
equilibrio de principios en lugar de ser gobernada por el juego del
poder y del dinero que se suele observar a menudo, quizás sería posible
llegar a un compromiso razonable."



1994: CADA VEZ MAS TEXTOS ESTAN DISPONIBLES EN LA WEB


= [Resumen]

A principios de los años 90, aparecen en línea las primeras versiones
electrónicas de periódicos a través de servicios comerciales como
America Online o CompuServe. Con la aparición del primer navegador a
finales de 1993 y gracias al desarrollo rápido de la web que esto
permite, numerosos "zines" (boletines) no comerciales empiezan a
brotar, directamente en forma electrónica, y los órganos comerciales de
prensa crean sus propias páginas web. También hay editores que deciden
poner títulos de sus catálogos en la red, con acceso libre y gratuito,
con la esperanza de ver aumentar así las ventas de las versiones
impresas. La National Academy Press (NAP) es la primera editorial en
tomar el riesgo, tan pronto como en 1994, y acaba ganando la apuesta.
Sigue sus pasos la MIT Press (MIT: Massachusetts Institute of
Technology) en 1995.


= E-zines

Los primeros títulos puramente electrónicos son obras cortas,
inventariadas en la E-zine-list, una lista creada durante el verano de
1993 por John Labovitz. "Zine" es la abreviatura de "fanzine" o
"magazine", y por lo general es obra de una persona o de un grupo
pequeño. En cuanto al "e-zine" – contracción de "zine electrónico" –
sólo se difunde por correo electrónico o en un sitio web. No suele
contener publicidad, no tiene fines de lucro ni se dirige a una
audiencia de masas.

¿Cómo nace la E-zine-list? En el historial del sitio web, John Labovitz
relata que al principio, su objetivo es dar a conocer Crash, un zine en
versión impresa del cual desea crear una versión electrónica. Se pone a
buscar directorios, pero sólo encuentra el grupo de discusión
Alt.zines, y archivos como The Well y The Etext Archives. Entonces se
le ocurre crear un directorio organizado. Empieza con doce títulos
clasificados manualmente con un programa de tratamiento de textos.
Luego redacta su propia base de datos. En cuatro años, entre 1993 y
1997, ya no se trata de decenas sino de centenas de e-zines, y el mismo
significado de la palabra e-zine se hace más amplio, para referirse a
partir de entonces a cualquier tipo de publicación que haya sido
editada por vía electrónica, aunque "exista aún un grupo original e
independiente, minoritario, que sigue publicando lo que le dicta el
corazón, más allá de los límites de lo que solemos llamar un e-zine".
En el verano de 1998, la E-zine-list comprende 3.000 títulos.


= La prensa online

El desarrollo de la prensa en línea (en los años 90) es interesante
porque prefigura el del libro en línea (en los años 2000).

A principios de los años 90, se pueden consultar las primeras ediciones
electrónicas de periódicos a través de servicios comerciales como
America Online o CompuServe. Tras la aparición del primer navegador a
finales de 1993 y gracias al crecimiento rápido de la web que resulta
de ello, los órganos de prensa empiezan a crear sus propios sitios web.

En el Reino Unido, el Times y el Sunday Times deciden crear un sitio
web común llamado Times Online, que ofrece incluso la posibilidad de
generar una edición personalizada.

En los Estados Unidos, la versión online del Wall Street Journal no es
gratuita pero logra atraer a 100.000 suscriptores en 1998. En cambio la
suscripción es gratuita para leer el New York Times en línea. En cuanto
al Washington Post, propone las noticias del día en línea y numerosos
artículos archivados, con imágenes, sonido y vídeos. Pathfinder
(rebautizado más adelante Time) es el sitio web del grupo Time-Warner,
que edita las revistas Time Magazine, Sports Illustrated, Fortune,
People, Southern Living, Money, Sunset, etc. En este sitio web se
pueden leer artículos "caseros", realizando una búsqueda por fecha o
por tema. Y por supuesto también está presente en la web la revista
Wired, primera revista impresa enteramente dedicada a la cibercultura,
lanzada en California en 1992.

A partir de febrero de 1995, se inaugura el primer sitio web de un
periódico impreso francés, el del mensual Le Monde diplomatique. Este
sitio se estrenó con ocasión del foro de imágenes Imagina, y fue
elaborado en el marco de un proyecto experimental con el Instituto
nacional de audiovisual (INA: Institut national de l’audiovisuel).
Facilita acceso al conjunto de los artículos desde enero de 1994,
clasificados por fecha, por tema y por país. La integralidad del último
número publicado se puede consultar gratuitamente durante dos semanas
después de su fecha de publicación. Un foro de discusión permite al
periódico mantener un diálogo con sus lectores.

A finales de 1995, el diario francés Libération también crea su propio
sitio web, poco después del lanzamiento del "Cahier Multimédia", un
cuaderno semanal impreso incluido en la edición del jueves. El sitio
presenta la portada del diario, la sección Multimedia (que reúne los
artículos del "Cahier Multimédia" y los informes de los cuadernos
anteriores), el "Cahier Livres" (Libros) junto con el primer capítulo
de las novedades seleccionadas por el diario, y muchas más secciones.
La sección Multimedia es rebautizada más adelante Numériques
(Digitales).

El sitio web del diario francés Le Monde se estrena en 1996. Presenta
informes en línea, la portada en versión gráfica a partir de las 13.00,
la integralidad del periódico antes de las 17.00, la actualidad en
colaboración con la AFP (Agence France-Presse), y secciones relativas a
la Bolsa, los libros, el mundo multimedia y el deporte. En 1998, el
periódico online completo cuesta 5 FF (0,76 euros) mientras que la
edición impresa cuesta 7,50 FF (1,15 euros). Los artículos del
suplemento semanal impreso "Télévision-Radio-Multimédia" que tratan del
multimedia están disponibles gratuitamente en línea en la sección
Multimedia, rebautizada después "Nouvelles Technologies" (Nuevas
Tecnologías).

L’Humanité es el primer diario francés en ofrecer libre acceso a la
versión integral del periódico en la web. Clasificados por secciones,
los artículos están disponibles sobre las 10.00 o las 11.00 de la
mañana, excepto el número del sábado, disponible en línea sólo a partir
del lunes siguiente. Todos los artículos se archivan en el mismo sitio
web.

La prensa regional también está bien representada en la web, por
ejemplo Dernières nouvelles d’Alsace (en el este de Francia) y Ouest-
France (en el oeste de Francia).

Lanzado en septiembre de 1995, el sitio web de Dernières nouvelles
d’Alsace propone la edición del día en versión integral, así como
información práctica: cotizaciones en Bolsa, cálculo de los impuestos,
etc., con 5.500 visitas diarias en junio de 1998. Ofrece también una
edición abreviada en alemán.

El diario Ouest-France aparece en línea en julio de 1996. Primero el
sitio web se llamaba France-Ouest, pero fue renombrado más adelante
Ouest-France, o sea como el mismo diario.

¿Qué clase de repercusiones tiene el internet para los periodistas?
Según Bernard Boudic, responsable editorial del sitio web de Ouest-
France, "todavía son leves (en junio de 1998). Hace poco que podemos
ofrecerles a todos acceso al internet (en la redacción del Ouest-France
hay 370 periodistas repartidos entre 60 oficinas de redacción, 12
provincias... no resulta tan sencillo). Algunos utilizan el internet
para la mensajería electrónica (correo interno o externo, recepción de
textos de los corresponsales desde el extranjero, envío de diversos
archivos) y como fuente de información. Pero esta práctica aún necesita
extenderse y generalizarse. Por supuesto, reflexionamos también sobre
la escritura multimedia y su retroacción sobre la escritura impresa,
discutimos de los cambios en las costumbres de nuestros lectores, etc.
(...)

El internet es a la vez una amenaza y una suerte. Una amenaza que pesa
sobre el documento impreso, no cabe duda: el internet capta la
publicidad y los anuncios por palabras, influye en los reflejos de los
lectores, provoca un progresivo desinterés del público por las
versiones impresas. También es peligroso por la competencia que
representa un medio de comunicación gratis, y a disposición de
cualquier persona deseosa de difundir información propia... Pero
también es una oportunidad para aceptar retos, y rejuvenecer la prensa
impresa."

Estos temas vuelven a surgir unos años más tarde cuando nace el libro
digital: relación más tenue entre autor y lectores, necesidad de una
formación técnica, versión de pago y/o versión gratuita, versión
digital y/o versión impresa, etc.


= Libros gratuitos / de pago

La cuestión es saber si la publicación gratuita de un libro perjudica o
no las ventas de la versión impresa. La National Academy Press (NAP) es
la primera editorial en tomar semejante riesgo en los Estados Unidos,
ya en 1994, y acaba ganando la apuesta.

"A primera vista, aquello no parece lógico", escribe Beth Berselli, una
periodista del Washington Post, en un artículo de noviembre de 1997.
"Un editor de Washington, la National Academy Press (NAP) vio sus
ventas aumentar en un 17% en un año tras haber publicado en el internet
700 títulos de su catálogo actual, permitiendo así a cualquier persona
leer gratuitamente sus libros. ¿Quién dijo que ya nadie compraría la
vaca si la leche se distribuía gratuitamente?"

Luego una política como ésta, atípica, parece dar sus frutos. La
National Academy Press (que a continuación se convertiría en la
National Academies Press) es un editor universitario que publica unos
200 libros al año, esencialmente libros científicos y técnicos, y
manuales de medicina. En 1994, decide poner en acceso libre en la web
el texto integral de cientos de libros, para que los lectores los
puedan "hojear" en pantalla antes de decidir comprarlos o no, así como
lo harían en una librería. La NAP es el primer editor que apuesta por
este proyecto, una iniciativa aclamada por las demás editoriales,
aunque sin embargo seguían dudando en lanzarse también a la aventura,
por tres motivos: los gastos excesivos generados por la puesta en línea
de miles de páginas, los problemas de derechos de autor, y una
"competencia" que juzgan perjudicial para la venta de estos libros.

En el caso de la NAP, fueron los mismos autores quienes pidieron que
sus libros aparecieran en el sitio web, para dar a conocer su obra.
Para la NAP, la web representa un nuevo instrumento de marketing para
hacer frente a las 50.000 obras publicadas cada año en los Estados
Unidos. Se concede un descuento de 20% sobre cualquier pedido realizado
en línea. La presencia de estos libros en la web provoca también un
aumento de las ventas telefónicas. En 1998, el sitio web de la NAP
ofrece unos mil títulos en versión integral. La solución por la que
optó la NAP también fue adoptada a partir de 1995 por la MIT Press. Fue
un éxito: en poco tiempo se duplicaron las ventas de los títulos
disponibles en versión integral en la web.



1995: AMAZON.COM ES LA PRIMERA GRAN LIBRERIA ONLINE


= [Resumen]

En julio de 1995, Jeff Bezos funda en Seattle (Estados Unidos) la
librería online Amazon.com, futuro gigante del comercio electrónico, a
la que el público acabaría llamando simplemente "Amazon". Amazon
empieza con diez empleados y con tres millones de artículos a la venta.
Cinco años más tarde, en noviembre de 2000, la sociedad cuenta con
7.500 empleados, 28 millones de artículos, 23 millones de clientes y
cuatro filiales: en el Reino Unido (inaugurada en octubre de 1998), en
Alemania (inaugurada en la misma fecha), en Francia (en agosto de 2000)
y en Japón (en noviembre de 2000). La quinta filial abre sus puertas en
Canadá (en junio de 2002), y a continuación la sexta, Joyo, en China
(en septiembre de 2004). Al llegar el 3er trimestre de 2003, la
sociedad obtiene beneficios por primera vez en su historia. Presente en
siete países y habiéndose convertido ya en una referencia mundial para
el comercio online (junto con eBay), Amazon celebra sus diez años de
existencia en julio de 2005, con 9.000 empleados y 41 millones de
clientes.


= En los Estados Unidos

# Primeros pasos

A mediados de los años 90 nacen nuevas librerías directamente en la
web. Carecen de paredes, de escaparates, e incluso de rótulo en la
calle. Realizan todas sus transacciones a través del internet. Es el
caso de Amazon.com, que abre sus puertas "virtuales" en julio de 1995
bajo la batuta de Jeff Bezos, con un catálogo de tres millones de
libros y diez empleados basados en Seattle, en la costa oeste de los
Estados Unidos.

Quince meses antes, en la primavera de 1994, Jeff Bezos realiza un
estudio de mercado para determinar cuál es el mejor "producto" para
poner a la venta en el internet. Su lista incluye veinte productos
mercantiles, entre los cuales figuran la ropa y las herramientas de
jardinería. Los cinco primeros del listado resultan ser los libros, los
CD, los videos, los softwares y el material informático.

"He utilizado una serie de criterios para evaluar el potencial de cada
producto", relata Jeff Bezos en 1997 en el kit de prensa de Amazon. "El
primer criterio fue el tamaño de los mercados existentes. Me he
percatado de que la venta de libros representaba un mercado global de
82 millardos de dólares US. El segundo criterio fue el tema del precio.
Yo quería un producto barato. Mi razonamiento era el siguiente: ya que
ésta sería la primera compra que la gente iba a realizar en línea, el
precio había de ser módico. El tercer criterio fue la variedad de
artículos que se podría proponer a los clientes: había tres millones de
títulos para los libros mientras que sólo había 300.000 títulos para
los CD, por ejemplo."

# Expansión

Durante la primavera de 1997, Amazon decide inspirarse del sistema de
"asociados" en línea lanzado unos meses antes por la gran librería
online británica Internet Bookshop. Cualquier persona que posea un
sitio web puede vender libros que pertenecen al catálogo de Amazon
cobrando un porcentaje de 15% sobre las ventas. El "asociado"
selecciona los títulos del catálogo que le interesan en función de sus
centros de interés, y redacta sus propios resúmenes. Amazon recibe los
pedidos por su intermedio, envía los libros, redacta las facturas, y le
envía un informe semanal de actividad junto con el pago
correspondiente. En la primavera de 1998, la red de Amazon cuenta con
más de 30.000 sitios web asociados.

Por la misma fecha, además de libros, es posible encontrar en Amazon
CD, DVD, juegos informáticos, etc., con un catálogo que parece por lo
menos diez veces más amplio que el de las grandes cadenas de
supermercados. Se puede consultar el catálogo en la pantalla, leer los
resúmenes de los libros escogidos o incluso fragmentos de éstos, y
luego hacer un pedido en línea. El contenido editorial del sitio es muy
atractivo, cambia a diario y pretende ser una revista literaria en
línea, con consejos de lectura, artículos de fondo redactados por
periodistas famosos (quienes anteriormente han trabajado para la prensa
impresa), entrevistas con autores y comentarios de lectores.

Analistas siguen de cerca la evolución rápida de Amazon – innovadora de
un nuevo modelo económico – y su popularidad con un público que poco a
poco se va acostumbrando a la compra en línea. En 1998, con 1,5 millón
de clientes en 160 países y una muy buena imagen pública, Amazon
empieza a ser citada como un símbolo de éxito en el mundo del
cibercomercio. Aunque la empresa siga siendo deficitaria, la cotización
en bolsa de Amazon se dispara cuando sale a la Bolsa de Nueva York en
mayo de 1997.

Antes de consolidar definitivamente su supremacía nacional, Amazon.com
se lanza en una guerra de precios contra Barnes & Noble.com, su
principal rival en los Estados Unidos, para mayor alegría de los
clientes que aprovechan esta carrera de rebajas para ahorrar entre 20 y
40% del precio de algunos libros. A diferencia de Amazon,
exclusivamente "virtual ", la librería online Barnes & Noble.com,
lanzada en mayo de 1997, se apoya en la gran cadena de librerías
"tradicionales" Barnes & Noble (B&N), con 480 librerías diseminadas en
48 de los 50 Estados del país. Barnes & Noble.com está lanzado en
cooperación con Bertelsmann, gigante alemana de los media, pero acaba
comprando la porción detenida por Bertelsmann (36,8%) en julio de 2003,
por 164 millones de dólares US.


= En Europa

Amazon aparece en Europa en octubre de 1998, con la implantación
simultánea de sus dos primeras filiales en Alemania y en el Reino
Unido.

En agosto de 2000, Amazon tiene 1,8 millón de clientes en el Reino
Unido, 1,2 millón de clientes en Alemania y unos cientos de miles de
clientes en Francia. En la misma fecha Amazon abre su tercera filial
europea, Amazon France, que propone libros, música, DVD y videos (y a
partir de junio de 2001, software y videojuegos), y un plazo de entrega
inferior a 48 horas. En 2000 la venta de libros en línea en Francia no
representa más de 0,5% del mercado del libro, contra 5,4% en los
Estados Unidos.

El lanzamiento de Amazon France se prepara en el mayor secreto y sólo
se hace público el 23 de agosto del año 2000. Con unos cien empleados –
de los cuales algunos han viajado a Seattle (Estados Unidos) para
recibir formación en la sede del grupo – la filial francesa instala sus
servicios de administración, servicios técnicos y de marketing en
Guyancourt (cerca de París). Su servicio de distribución se ubica en
Boigny-sur-Bionne (cerca de Orléans, al sur de París) y su servicio de
atención al cliente en La Haya (Países Bajos), en previsión de una
futura expansión de Amazon en Europa.

Amazon France tiene por lo menos cuatro rivales notables en Francia:
Fnac.com, Alapage, Chapitre.com y BOL.fr. Fnac.com se apoya en una red
de librerías Fnac que pertenecen al grupo Pinault-Printemps-Redoute.
Están diseminadas por todo el territorio francés y también presentes en
algunos otros países europeos. Alapage, librería online fundada en 1996
por Patrice Magnard, se junta con el grupo France Télécom en septiembre
de 1999, y en julio de 2000 se convierte en una filial de Wanadoo, el
proveedor de acceso a internet de France Télécom. Chapitre.com es une
librería online independiente creada en 1997 por Juan Pirlot de
Corbion. BOL.fr es la sucursal francesa de BOL.com (BOL: Bertelsmann On
Line), lanzada en agosto de 1999 por la multinational alemana
Bertelsmann en cooperación con la multinacional francesa Vivendi.

Un mes después del lanzamiento de su sitio web Amazon.fr en agosto de
2000, Amazon France ocupa el segundo lugar en ranking de sitios web de
bienes culturales franceses. Según las cifras publicadas el 24 de
octubre de 2000 por Media Metrix Europe, una sociedad de encuestas de
audiencia de uso del internet, Amazon.fr recibió 217.000 visitas únicas
en septiembre de 2000, clasificándose justo delante de Alapage.com
(209.000 visitas únicas), pero muy lejos detrás de Fnac.com (401.000
visitas únicas). Después vienen Cdiscount.com (115.000 visitas) y
BOL.fr (74.000 visitas).

A diferencia de sus homólogos angloamericanos en los Estados Unidos y
el Reino Unido, las librerías online francesas no pueden permitirse
descuentos sustanciales, porque el precio del libro no es libre. La ley
francesa sobre el precio único del libro - llamada ley Lang -, según la
cual los descuentos no pueden exceder el 5% del precio del libro, no
les deja más que un margen de maniobra estrecho. Pero las librerías
online están optimistas en cuanto a las perspectivas del mercado
francófono internacional. A partir de 1997, se observa que parte de los
pedidos proviene del extranjero, por ejemplo 10% para Fnac.com desde
1997.

Para contestar las preguntas de la AFP (Agence France-Presse) sobre la
ley Lang durante una entrevista, Denis Terrien, presidente de Amazon
France (hasta mayo de 2001), declara en agosto de 2000: "Nuestra
experiencia en Alemania, donde el precio del libro es fijo, nos enseña
que el precio no es lo más importante a la hora de realizar compra. Lo
que importa es el valor del servicio que se añade. En Amazon proponemos
una multitud de servicios adicionales. Primero hay mucho para escoger
pues vendemos todos los productos culturales franceses. Tenemos un
buscador muy eficaz. En cuanto al catálogo musical, somos los únicos en
proponer una búsqueda por título de canción en nuestro sitio web.
Además del la especificidad de nuestro contenido editorial, que nos
ubica entre tienda y revista, nuestro servicio de asistencia al cliente
está abierto 24h/24 7días/7, y esto es algo único en el mercado
francés. Por último, otra especificidad de Amazon es que respetamos
nuestros compromisos de entrega. Uno de nuestros objetivos es tener más
del 90% de nuestros productos en existencias."

Para mucha gente, el modelo económico de Amazon es de admirar. No
obstante tiene inconvenientes en términos de gestión del personal, con
contratos de trabajo precarios, salarios bajos y condiciones de trabajo
que dejan mucho que desear.

A pesar de la discreción de Amazon France sobre las condiciones de
trabajo del personal, los problemas empiezan a divulgarse. En noviembre
de 2000, el Prewitt Organizing Fund y el sindicato SUD-PTT Loire
Atlantique lanzan una acción de sensibilización de los empleados de
Amazon France para que éstos obtengan mejores condiciones de trabajo y
sueldos más altos. Se reúnen con unos cincuenta empleados que trabajan
en el centro de distribución de Boigny-sur-Bionne. SUD-PTT denuncia en
un comunicado "unas condiciones de trabajo degradadas, la flexibilidad
de horario, y el recurso a contratos precarios en temporadas de alta
demanda, salarios bajísimos, y garantías sociales ínfimas". Se lleva a
cabo una acción similar en Alemania y en Gran Bretaña. Patrick Moran,
responsable del Prewitt Organizing Fund, proyecta constituir una
alianza de empleados de la nueva economía, bajo el nombre de Alliance
of New Economy Workers. Amazon se limita a reiterar en documentos
internos la inutilidad de formar sindicatos en el seno de la empresa.

A finales de enero de 2001, Amazon, que emplea a 1.800 personas en
Europa, anuncia una reducción del 15% en el personal y la cierre del
servicio de atención al cliente en La Haya (Países Bajos). Los 240
empleados de este servicio son transferidos a los dos otros servicios
europeos de atención al cliente, en Slough (Reino Unido) y en
Regensberg (Alemania).

= Por el mundo

Durante un coloquio internacional sobre las tecnologías de la
información en julio de 2000 en Tokyo, Jeff Bezos anuncia su intención
de implantar Amazon en Japón, ya que la clientela japonesa es el
segundo grupo de clientes extranjeros, después de los europeos. Insiste
también en que este país representa un mercado de fuerte potencial, con
precios inmobiliarios altos que se repercutan sobre los precios de los
bienes y servicios, hasta tal punto que la compra online sale más
barata que la compra tradicional. Además la alta densidad de población
facilita la multiplicación de entregas a domicilio, que salen muy
baratas.

Se inaugura un centro de llamadas en agosto de 2000 en la ciudad de
Sapporo, en la isla de Hokkaido. La filial japonesa inicia sus
actividades tres meses más tarde, en noviembre de 2000.

Amazon Japón abre sus puertas como cuarta filial del gigante
estadounidense y primera filial fuera de Europa, con un catálogo de 1,1
millón de títulos en japonés y 600.000 títulos en inglés. Para reducir
los plazos de entrega y proponer plazos de 24 a 48 horas en lugar de
seis semanas – es decir el tiempo necesario para enviar los libros
desde los Estados Unidos – se crea un centro de distribución de 15.800
m2 en Ichikawa, al este de Tokyo.

En noviembre de 2000, la sociedad cuenta en total con 7.500 empleados,
28 millones de artículos y 23 millones de clientes, contando la casa
madre (Estados Unidos) y sus cuatro filiales (Reino Unido, Alemania,
Francia, Japón).

En la misma fecha, Amazon anuncia su intención de penetrar en el
mercado francófono en Canadá, y de lanzar una sección canadiense
francesa con venta de libros, música y películas (VHS y DVD). La
sociedad empieza a contratar personal francófono conocedor del mercado
canadiense. Así pues Amazon Canadá, la quinta filial de la sociedad, ve
la luz en junio de 2002, con un sitio web bilingüe inglés-francés.

También en noviembre de 2000, Amazon estrena su librería digital, con
1.000 ebooks (libros digitales) disponibles al principio, y prevé un
rápido aumento de las existencias durante los meses siguientes.

Pero el papel no ha muerto, ni mucho menos: incluso es útil para el
marketing de una gran librería online. En previsión de las fiestas del
año 2000, Amazon envía un catálogo impreso a 10 millones de clientes,
como ya lo había hecho el año anterior.

El año 2001 marca un giro en las actividades de Amazon, porque tiene
que enfrentarse con los sobresaltos provocados por la "nueva" economía
y afectando a todas las empresas de internet. A causa del déficit del
cuarto trimestre de 2000, Amazon decide reducir sus efectivos en un
15%, lo que se concretiza con el despido de 1.300 personas en los
Estados Unidos y de 270 personas en Europa a finales de enero de 2001.
Amazon opta por una mayor diversificación de sus productos y decide
vender ya no sólo libros, videos, CD y software, sino también productos
de salud, juegos, aparatos electrónicos,  utensilios de cocina y
herramientas de jardinería. En noviembre de 2001, la venta de libros,
discos y videos ya no representa más del 58% del volumen de negocios
global, el cual se eleva a 4 millardos de dólares US, con 29 millones
de clientes.

Amazon empieza a obtener beneficios por primera vez en su historia al
llegar el tercer trimestre de 2003.

En octubre de 2003, Amazon lanza un servicio de búsqueda en texto
completo (Busca dentro del libro - Search Inside the Book), tras
escanear el texto integral de 120.000 títulos, una cifra que no tardará
en crecer rápidamente. Amazon lanza también su propio buscador, el
A9.com.

Abre una sexta filial en China - bautizada Joyo - en septiembre de
2004.

En 2004, el beneficio neto de Amazon – un 45% del cual proviene de sus
seis filiales – se eleva a 588 millones de dólares US, y su volumen de
negocios a 6,9 millardos de dólares.

Cuando Amazon celebra sus diez años de existencia en julio de 2005,
está presente en siete países (Estados Unidos, Canadá, Reino Unido,
Alemania, Francia, Japón, China) y se ha convertido en una referencia
mundial del comercio online, con 9.000 empleados y 41 millones de
clientes atraídos por el bajo precio de sus productos culturales, high-
tech y demás y por el plazo de entrega que no excede las 48 horas en
los países donde existe una plataforma Amazon.

Amazon también vende cada vez más ebooks (libros digitales). En
noviembre de 2007 lanza el Kindle, su propio lector de ebooks, con un
catálogo de 80.000 ebooks. Se venden 538.000 lectores en 2008. Amazon
lanza una nueva versión del Kindle, el Kindle 2, en febrero de 2009,
con un catálogo de 230.000 ebooks.


= ¿Y las pequeñas librerías?

¿Qué pasará con las pequeñas librerías, tanto generales como
especializadas? Intentan sobrevivir como pueden, con recursos
limitados, como la librería Ulysse, ubicada en la isla Saint-Louis, en
el corazón de París, pero sin hacerse demasiadas ilusiones acerca del
huracán que se las está llevando por delante.

Creada en 1971 por Catherine Domain, es la librería más antigua del
mundo dedicada exclusivamente al viaje, con 20.000 libros, cartas y
revistas nuevos y antiguos. Catherine es miembro del Sindicato nacional
francés de las librerías antiguas y modernas (SLAM: Syndicat national
de la librairie ancienne et moderne), del Club de los exploradores
(Club des explorateurs) y del Club internacional de los grandes
viajeros (Club international des grands voyageurs).

Catherine ha viajado mucho, a muchos países – unos 140 –, incluso a
veces en condiciones difíciles. En 1999, se lanzó en un viaje virtual
mucho más difícil, creando su propio sitio web, aunque no sabía nada de
ordenadores. Catherine explica en noviembre de 2000: "Mi sitio web está
en estado embrionario y en construcción. Quiero que se parezca a mi
librería, que sea un lugar de encuentro antes de ser un lugar
comercial. El internet me pone los pelos de punta, me quita mucho
tiempo y no me trae ningún beneficio, pero esto no me molesta..."

Catherine es pesimista respecto al futuro de las pequeñas librerías
como la suya. "El internet mata las librerías especializadas. Esperando
a que me devore, yo uso el internet como medio para atraer a los
clientes hasta mi casa, ¡y también con intención de encontrar libros
para aquéllos que aún no tienen el internet en casa! Pero la verdad es
que no tengo mucha esperanza..."



1996: ALGUNOS EDITORES SE LANZAN AL INTERNET


= [Resumen]

A partir de 1996, la edición electrónica se labra un camino junto a la
edición tradicional, gracias a las ventajas que ofrece: permite evitar
existencias y reducir el coste de funcionamiento, y la difusión resulta
más fácil. Algunos editores tradicionales empiezan a vender sus títulos
en línea, mientras algunos editores electrónicos van comercializando
las versiones digitalizadas de libros. Libreros digitales deciden
vender versiones digitalizadas de libros publicados por editores
asociados, sin hablar de los autores que optan por autoeditar sus
escritos en la web o promover por cuenta propia las obras que ya han
publicado, ni de las nuevas plataformas de edición literaria que se
encargan de revelar nuevos talentos. Cabe preguntarse si, a largo
plazo, la edición digital podrá dar una nueva juventud a la estructura
editorial.


= Editores electrónicos

# Editel

En abril de 1995, Pierre François Gagnon, poeta y ensayista
quebequense, decide recurrir a la tecnología digital para la recepción
de textos, su almacenamiento y su difusión. Crea entonces Editel, el
primer sitio web de autoedición colectiva en lengua francesa.

En julio de 2000, cuenta lo siguiente: "En realidad, todo el mundo sabe
– o debería saber – que el primer sitio web de edición en línea
comercial fue CyLibris (creado en agosto de 1996), y que ésto fue
precedido tiempo atrás, en la primavera de 1995, por nadie menos que
Editel, el pionero por excelencia en este ámbito, aunque hasta ahora
hayamos tenido que limitarnos a una acción simbólica colectiva, por
falta de medios para que el proyecto resultara en un modelo de comercio
en línea verdaderamente viable y accesible (...). Actualmente nuestro
equipo se compone de tres mosqueteros (Pierre François Gagnon, Jacques
Massacrier y Mostafa Benhamza); intentamos desarrollar el contenido
original e inédito del webzine literario – un regalo de los autores
caseros a su lectorado – que seguirá sirviendo de fachada de animación
gratuita para potenciales actividades de edición en línea de pago, en
cuanto dispongamos de los medios técnicos y financieros necesarios.
¿Será posible seguir soñando con la democracia económica?" Editel cesa
su actividad editorial en 2005.

# CyLibris

Fundada por Olivier Gainon en agosto de 1996, la editorial CyLibris (de
"Cy", cyber y "Libris", libro), basada en París, es la pionera francesa
en materia de edición electrónica comercial. De hecho CyLibris es la
primera editorial en utilizar el internet y el sistema digital para
publicar a nuevos autores literarios y a algunos autores confirmados,
que practican géneros diversos: literatura general, novela policíaca,
ciencia ficción, teatro y poesía. Los libros se venden únicamente en la
web, se imprimen a petición del usuario y se envían directamente al
cliente, evitando así existencias e intermediarios. Algunos fragmentos
se pueden descargar libremente.

Durante su primer trimestre de actividad, CyLibris firma contratos con
trece autores. En el año 2000, CyLibris suma un promedio de 15.000
visitas mensuales a su sitio web, ha vendido 3.500 libros en total –
impresos y digitales – y el balance financiario del año 1999 resulta
equilibrado. En 2001, algunos títulos también se venden en versión
impresa gracias a una red de librerías asociadas, como la Fnac, y en
versión digital por intermedio de Mobipocket y Numilog, para ser leídos
en un ordenador o en una PDA. En 2003, el catálogo de CyLibris
comprende unos cincuenta títulos.

Olivier Gainon explica en diciembre de 2000: "CyLibris ha sido creada
primero con la idea de especializarse en un sector preciso que en
nuestra opinión los otros editores no han sabido cubrir bien: la
publicación de primeras obras, o sea obras de autores principiantes. Al
fin y al cabo, lo que nos interesa es aquella literatura que no puede
encontrar su lugar dentro del circuito tradicional: no sólo las
primeras obras, sino también los textos atípicos, inclasificables o en
desfase con los gustos y las modas literarias dominantes. Lo que nos
tranquiliza, es que ya hemos logrado algunos éxitos editoriales: el
gran premio de la Sociedad de literatos (SGDL: Société des gens de
lettres) en 1999 para el libro 'La Toile' (La Tela) de Jean-Pierre
Balpe, el Premio de lítotes (Prix de la litote) para 'Willer ou la
trahison' (Willer o la traición) de Jérôme Olinon en 2000, etc. Este
tarea de 'desbrozador' es original de por sí en el mundo editorial,
pero lo que hace que CyLibris se pueda considerar un editor atípico, es
sobre todo su modo de funcionamiento.

Creada a partir de 1996 en torno al internet, CyLibris quiso evitar las
obligaciones impuestas por la edición tradicional gracias a dos
innovaciones: la venta directa a través de un sitio web comercial en el
internet y, unida a ésta, la impresión digital de 'flujo tenso'. Esta
solución permitía esquivar las dos barreras características del mundo
editorial: los costes de impresión (y de almacenamiento), y las
exigencias de la distribución. Nuestro sistema gestionaba entonces
flujos físicos: recepción del pedido por internet, impresión del libro
encargado, envío por correo. Debo precisar que la impresión la
subcontratamos a impresores digitales, por lo cual la calidad de
nuestros libros es equiparable a la que ofrece el offset, y el precio
también. Nuestro sistema no es ni más caro, ni de una calidad inferior;
obedece a una economía diferente que a largo plazo, en nuestra opinión,
probablemente acabará generalizándose."

¿En qué consiste entonces la actividad de un editor electrónico? "Yo
diría que mi actividad es doble, explica Olivier. Por una parte hago lo
mismo que un editor tradicional a la hora de seleccionar manuscritos y
luego retocarlos (yo me ocupo directamente de la colección de ciencia
ficción), pero también se trata de elegir las maquetas, gestionar las
relaciones con los prestadores de servicios, etc. Por otro lado, gran
parte de nuestra actividad se concentra en el internet: lo que buscamos
es optimizar el sitio web de CyLibris y poner en marcha una estrategia
de cooperaciones que pueda permitir a CyLibris alcanzar la visibilidad
de la que a veces carece. Por último, represento a CyLibris en el
Sindicato nacional de la edición (SNE: Syndicat national de l'édition,
del que CyLibris forma parte desde la primavera de 2000). Hoy CyLibris
es una estructura pequeña. Ha encontrado su lugar en el mundo
editorial, pero su economía en el internet aún es frágil. Queremos que
la sociedad sea perenne y rentable, y nos eforzamos por alcanzar este
objetivo."

El sitio web también pretende servir de encrucijada para los pequeños
editores. Facilita información práctica a los autores en ciernes: cómo
enviar un manuscrito a un editor, qué se debe incluir en un contrato
editorial, cómo proteger sus manuscritos, cómo probar suerte en las
revistas o certámenes literarios, etc.

En mayo de 1999, el equipo de CyLibris lanza CyLibris Infos, una carta
de información electrónica gratuita cuyo objetivo no es en prioridad
promover los libros del editor sino presentar la actualidad de la
edición francófona. La carta es redactada a propósito en un estilo
disonante, a menudo humorístico, y hasta corrosivo. Se publica primero
mensualmente, y luego dos veces al mes a partir de febrero de 2000.
Cuenta con 565 suscriptores en octubre de 2000. La carta cambia de
nombre en febrero de 2001 para convertirse en Edition-actu, que cuenta
con 1.500 suscriptores en 2003, pero luego es sustituida por el blog de
CyLibris. CyLibris cesa su actividad editorial en 2007.

# Ediciones 00h00

Las ediciones 00h00 (que se pronuncia "zéro heure") también son
pioneras en materia de edición electrónica comercial. Aparecen en mayo
de 1998, poco menos de dos años después de CyLibris. Pero el campo de
investigación de 00h00 es un poco diferente. Se trata del primer editor
en línea. Su actividad consiste en vender libros digitales vía el
internet – y no libros impresos como lo hacía CyLibris. En 2000, las
versiones digitales (en formato PDF) representan un 85% de las ventas,
y el 15% son versiones impresas a petición del cliente, un servicio que
el editor facilita en su totalidad.

00h00 fue fundada por Jean-Pierre Arbon y Bruno de Sa Moreira,
respectivamente el antiguo director general de Flammarion y al antiguo
director de Flammarion Multimédia. "Hoy mi actividad profesional está
basada al 100% en el internet, explica Bruno de Sa Moreira en julio de
1998. El cambio no ha ocurrido radicalmente, sino que ha sido
progresivo (audiovisual primero, luego multimedia, y finalmente
internet). (...) La gestación del proyecto duró un año: brainstorming,
factibilidad, creación de la sociedad e instalación financiera,
desarrollo técnico del sitio web e informática editorial, elaboración y
producción de los textos y preparación del catálogo para la
inauguración. (...) Al optar por el internet tomamos riesgos, pero me
parece que este medio de comunicación puede popularizarse con
facilidad, porque los terminales de internet suelen ser más fáciles de
usar que los de un microordenador."

En 1999 se podía leer en el sitio web de 00h00: "La creación de 00h00
marca el verdadero punto de partida de la edición en línea. De hecho es
la primera vez en el mundo que se contempla la publicación de textos en
formato digital en un sitio web comercial, y que una empresa propone a
los actores tradicionales del mundo editorial (autores y editores) unir
fuerzas con ella para abrir en la red una nueva ventana de explotación
de los derechos. Los textos propuestos por 00h00 son inéditos, o bien
textos que han pasado ya al dominio público, o que están bajo copyright
y cuyos derechos en línea han sido negociados con sus derechohabientes.
(...) Con la edición en línea probablemente se vislumbra lo que será la
edición del siglo XXI. Esta idea de origen, de nueva partida es la que
se expresa en el nombre de marca 00h00. (...) El internet es un lugar
sin pasado, donde lo que uno hace no se evalúa en relación con una
tradición. En este espacio hay que inventar nuevas maneras de hacer las
cosas. (...) El éxito de la edición en línea no dependerá sólo de las
elecciones de los editores: dependerá también de la capacidad de éstos
para proponer enfoques nuevos, que se apoyen tanto en los lectores como
en los textos, en las lecturas tanto como en la escritura, y para que
cualquier persona pueda percibir de inmediato que una aventura nueva ha
comenzado."

Las colecciones son diversas: textos inéditos, teatro clásico francés,
cuentos y relatos fantásticos, cuentos y relatos filosóficos, recuerdos
y memorias, filosofía clásica, realismo y naturalismo, cibercultura,
novelas infantiles, novelas de amor, cuentos y novelas de aventuras. La
búsqueda se puede realizar por autor, por título y por género. Para
cada libro, hay una descripción corta, y otra pormenorizada, una tabla
de materias y una breve presentación del autor. Luego se van añadiendo
los comentarios de los lectores. De este modo no hay existencias, ni
obligaciones materiales para la distribución, pero sí existe un vínculo
directo con el lector y entre los lectores. En el sitio web, los
internautas/lectores que lo desean pueden crear su espacio personal
para redactar ahí sus comentarios, participar en foros o recomendar
enlaces hacia otros sitios web. Pueden suscribirse a la carta de
información de 00h00 para mantenerse informados de las novedades. El
editor produce también videoclips literarios para presentar las obras
publicadas.

En 2000, el catálogo comprende 600 títulos, entre los cuales figuran
unas cien obras originales y algunas reediciones electrónicas de obras
publicadas por otros editores. Las obras originales se reparten en
varias colecciones: nuevas escrituras interactivas e hipertextuales,
primeras novelas, documentos de actualidad, estudios sobre las NTIC
(nuevas tecnologías de información y comunicación), coediciones en
colaboración con editores tradicionales o grandes instituciones. El
pago se realiza en línea gracias a un sistema segurizado. Los que
desconfían del pago online también pueden pagar con tarjeta (envío por
fax) o con un cheque (envío por correo postal).

En septiembre de 2000, la sociedad Gemstar-TV Guide International
(Estados Unidos), especialista de productos y servicios digitales
dirigidos a los media, procede a la recompra de 00h00. Algunos meses
antes, en enero de 2000, Gemstar compró las dos sociedades
californianas que habían lanzado los primeros lectores de ebooks, a
saber NuvoMedia, creadora del Rocket eBook, y SoftBook Press, creadora
del SoftBook Reader.

Según un comunicado de Henry Yuen, presidente de Gemstar, "la habilidad
editorial de la que dispone 00h00 y la capacidad de innovación y de
creatividad que ha demostrado son lo que necesita Gemstar para
convertirse en un actor principal de la nueva edad de la edición
digital en la que ha entrado Europa."

La comunidad francófona no ve con muy buenos ojos esta recompra, ya que
precisamente la globalización del sector editorial parece poco
compatible con la innovación y la creatividad.

Apenas tres años más tarde, en junio de 2003, 00h00 abandona
definitivamente su actividad, y Gemstar abandona definitivamente su
sección eBook y sus lectores electrónicos.

Sobrevive sin embargo el recuerdo de esta hermosa aventura. En octubre
de 2006, Jean-Pierre Arbon, quien entre tanto se ha hecho cantante,
cuenta en su propio sitio web: "Yo había fundado, junto con Bruno de Sa
Moreira, una editorial de un género nuevo, la primera del mundo en
lanzarse a la aventura de la edición online a gran escala. Todo quedaba
por hacer, por inventar. La edición digital era terra incognita: había
que explorar, que desbrozar."


= Editores tradicionales

# Un ejemplo: Le Choucas

La editorial Le Choucas, especializada en novelas policíacas,
literatura, libros de fotos y de arte, fue fundada en 1992 por Nicolas
y Suzanne Pewny. Por aquellos tiempos ellos eran libreros en Saboya (en
el sureste de Francia).

En junio de 1998, Nicolas Pewny cuenta: "El sitio web de la editorial
Le Choucas se creó a finales de noviembre de 1996.  Al enterarme de las
posibilidades que ofrecía el internet, me prometí que lo antes posible
dispondríamos de un sitio web. Pero el problema era el siguiente: no
teníamos presupuesto suficiente para delegar su construcción a un
profesional. Entonces, a costa de numerosas noches de desvelo, acabé
creando yo mismo el sitio web y lo mandé referenciar (no fue ésta la
parte más sencilla). Luego el sitio web se desarrolló a medida que iba
profundizando mis conocimientos en este campo (que por cierto siguen
siendo bastante modestos), y poco a poco empecé a ser conocido, incluso
fuera de Francia y de Europa.

El cambio que introdujo el internet en nuestra vida profesional fue
considerable. Somos una pequeña editorial instalada lejos de la
capital. En muy poco tiempo, gracias al internet, hemos llegado a ser
conocidos en un perímetro que yo no me hubiera imaginado nunca. Incluso
los medios de comunicación 'clásicos' nos abrieron un poco sus puertas
gracias a nuestro sitio web. Los manuscritos afluían por correo
electrónico. De esta manera hemos editado a dos autores quebequenses
(Fernand Héroux y Liz Morency, autores de 'Affaire de coeurs' (Asunto
de corazones), publicado en septiembre de 1997).  Muchos libros se
crean (correcciones, ilustraciones, envío de documentos al impresor)
por esta vía. Desde el principio hemos recibido solicitudes desde
países en los que (aún) no estamos representados: Estados Unidos,
Japón, Latinoamérica, México, a pesar de nuestro deseo de no
convertirnos en un sitio web 'comercial' sino de información y a
'connotación cultural'. (No disponemos de ningún sistema de pago
segurizado, sólo hemos hecho una lista de los libreros que venden
libros online)."

¿En cuanto al futuro? "Me dan ganas de contestar con dos preguntas,
contesta Nicolas. ¿Puede usted decirme cómo evolucionará el
internet? ¿Cómo evolucionarán las costumbres de los usuarios? Nos
gustaría que la editorial siguiera siendo lo menos 'comercial' posible
y aumentar la interactividad y el contacto con los visitantes de
nuestro sitio web. ¿Lo lograremos? Ya hemos recibido propuestas que más
bien apuntan en dirección contraria. De momento las hemos puesto 'en
standby'. Pero si las cosas toman este rumbo, ¿acaso podremos resistir,
o encontrar un 'término medio'? Francamente no tengo ni idea."

Por desgracia, Le Choucas cesa sus actividades en marzo de 2001, una
desaparición más que deplorar entre los pequeños editores
independientes. Valiéndose de su experiencia de librero, de editor, y
de su conocimiento del internet y del mundo digital, Nicolas Pewny se
ha hecho consultor en edición electrónica y ha puesto sus habilidades
al servicio de otros organismos.

# Editores y tecnologías

Las tecnologías digitales también llevan a los editores científicos y
técnicos a reestructurar por completo su trabajo y, para algunos, a
orientarse hacia una difusión en línea. Sin embargo, sigue siendo
posible obtener ocasionalmente tiradas impresas. Algunas universidades
difunden manuales "a medida" que se componen de una selección de
capítulos y de artículos sacados de una base de datos, complementados
por los comentarios de los profesores. Para un seminario, se puede
imprimir a petición una tirada limitada a partir de documentos
transmitidos por vía electrónica a un impresor. En cuanto a las
revistas online, suelen pasar un acuerdo con una sociedad especializada
para las impresiones a petición de usuario.

Profesora e investigadora en la Escuela práctica de altos estudios
(EPHE: École pratique des hautes études) de la Sorbona de París, Marie-
Joseph Pierre escribe en febrero de 2003: "Me parece evidente que los
artículos y las obras, por lo menos los trabajos científicos, se
publicarán cada vez más en formato digital, facilitando para los
investigadores el acceso a enormes bases de datos, en constante e
inmediata evolución, y favoreciendo además el contacto directo y el
diálogo entre los autores. Nuestros organismos tutelares, como el
Centro nacional de la investigación científica (CNRS: Centre national
de la recherche scientifique) por ejemplo, ya empiezan a obligar a los
investigadores a publicar en formato digital, e instan a los
laboratorios a que difundan sus trabajos de investigación por ese
medio, para que estén rápidamente disponibles. Nuestros informes de
segundo y cuarto año de actividad – aquellos enormes y trabajosos
archivos que constituyen un resumen de nuestras labores – no deberían
tardar en publicarse en este formato. Esto no significa que el papel
desparecerá, y tampoco pienso que se utilice menos porque, para
trabajar sobre un texto, resulta mucho más manejable un libro. Me doy
cuenta de que en mi sector, las revistas recién estrenadas en formato
digital también empiezan a difundirse en versión impresa, encuadernada
en condiciones. Pasar del uno al otro es una oportunidad para aportar
revisiones y tener más perspectiva, y esto me parece muy interesante."

Periodista y diseñador gráfico, Marc Autret goza de diez años de
experiencia como periodista multitarea, y de una formación extensiva en
el ámbito editorial, multimedia y de los derechos de autor. Explica en
diciembre de 2006: "Eso constituye una base irremplazable para mis
actividades actuales, que resultan ser una prolongación técnica de mis
antiguas actividades. Soy un 'artesano' de la información y trabajo
esencialmente con editores. Llevan tanto retraso, son tan ajenos a la
revolución digital, que tengo trabajo para rato, quizás incluso para
varios años. Hoy me concentro en la asesoría, la infografía, la
tipografía, la pre-prensa y el diseño web, pero presiento que la parte
dedicada al software irá creciendo. Los sectores como la animación en
3D, la automatización de las tareas de producción, la integración
multisoporte, el sistema de base de datos y todas las tecnologías
procedentes de XML van a abrirse naturalmente. Los editores necesitan
esos instrumentos, sea para producir mejor, sea para comunicar mejor.
En esos aspectos puedo percibir la evolución, o mejor dicho la
intensificación de mi trabajo."



1997: LA CONVERGENCIA MULTIMEDIA ES OBJETO DE UN COLOQUIO


= [Resumen]

La convergencia multimedia se puede definir cómo la convergencia de los
sectores de la informática, de la telefonía y de la radiotelevisión
hacia una industria que utiliza el internet para la distribución de la
información. Si bien este fenómeno genera la creación de nuevos empleos
en algunos sectores, por ejemplo los que están vinculados con la
producción audiovisual, otros sectores están sujetos a
reestructuraciones drásticas. La convergencia multimedia tiene muchos
reveses, por ejemplo la proliferación de contratos precarios para los
empleados, la inexistencia de sindicatos para los teletrabajadores o el
maltrato de los derechos de autor en detrimento de los autores. Éste
fue el tema del Simposio sobre convergencia multimedia organizado en
enero de 1997 por la Organización internacional del trabajo (OIT).


= Definición

En los últimos treinta años (en 1997), la cadena de la edición ha
conocido varios cambios radicales. Al principio, en los 70, las
máquinas de fotocomposición hicieron vacilar el mundo de la impresión
tradicional. Luego el coste de la impresión siguió bajando gracias a
las fotocopiadoras, las fotocopiadoras en color, las técnicas de
impresión asistida por ordenador y el material de impresión digital. En
los años 90, los talleres de PAO (publicación asistida por ordenador)
proponen impresión a bajo precio. A partir de entonces, se digitaliza
sistemáticamente cualquier contenido con el fin de que se pueda
transferir por vía electrónica.

La digitalización permite generar, guardar, combinar, almacenar, buscar
y transmitir textos, sonidos e imágenes por medios sencillos y rápidos.
Existen procedimientos similares que permiten el procesamiento de la
escritura, de la música y de las películas, mientras que antes se
necesitaban soportes variados (papel para la escritura, cinta magnética
para la música, celuloide para el cine). Además, sectores distintos
como la edición (que produce libros) y la industria musical (que
produce discos) trabajan conjuntamente para producir CD-ROM.

La digitalización acelera el procedimiento material de producción. En
la prensa, los periodistas envían directamente sus textos para la
maquetación, mientras que antes el personal de producción tenía que
dactilografiar los textos del personal de redacción. En el mundo
editorial, el redactor, el diseñador artístico y el diseñador gráfico
suelen trabajar simultáneamente sobre la misma obra.

Progresivamente asistimos a la convergencia de todos los sectores
vinculados con la información: impresión, edición, prensa, concepción
gráfica, grabaciones sonoras, películas, radiodifusión, etc.

La convergencia multimedia se puede definir como la convergencia de los
sectores de la informática, de la telefonía y de la radiotelevisión
hacia una industria de la comunicación y de la distribución que utiliza
las autovías de la información.

Aunque en algunos sectores este fenómeno pueda generar nuevos empleos –
por ejemplo en el campo de la producción de películas o de productos
audiovisuales – otros sectores padecen inquietantes reestructuraciones.
Estos problemas son bastante preocupantes como para haber sido objeto
de un Simposio sobre convergencia multimedia organizado en enero de
1997 en Ginebra (Suiza) por la Organización internacional del trabajo
(OIT).


= Intervenciones

Durante este simposio hubo varias intervenciones de particular interés,
de las cuales algunas siguen siendo de actualidad diez años más tarde.

Bernie Lunzer, membro de la Newspaper Guild (Estados Unidos), recalca
las batallas jurídicas que se han desenfrenado en torno a los problemas
de propiedad intelectual. Estas batallas conciernen especialmente la
actitud de los directores de publicaciones, que convencen a los
escritores independientes de que firmen contratos chocantes, por los
cuales se comprometen a ceder la totalidad de sus derechos al director
de la publicación, a cambio de una contraparte financiera ridícula.

Heinz-Uwe Rübenach, membro de la Asociación alemana de directores de
periódicos (Bundesverband Deutscher Zeitungsverleger), insiste también
en la necesidad para las empresas de prensa de administrar y controlar
la utilización en la web de los artículos de sus periodistas, y en la
de pedir una contrapartida financiera que permita seguir invirtiendo en
las nuevas tecnologías.

Otro problema tan preocupante como el anterior es el de la presión
constante ejercida sobre los periodistas de las salas de redacción,
cuyo trabajo debe estar a disposición a medida que avanza el día, en
lugar de ser utilizado sólo al final de la jornada. A estas tensiones
repetidas se añade el estrés de estar trabajando frente a la pantalla
durante ocho a diez horas seguidas. El ritmo de trabajo y el uso
intensivo del ordenador acarrean problemas preocupantes en términos de
seguridad en el trabajo. Después de seguir algunos años con este ritmo,
algunos periodistas se desmoronan con sólo treinta y cinco o cuarenta
años de edad.

Según Carlos Alberto de Almeida, membro de la Federación nacional de
periodistas en Brasil (FENAJ: Federação nacional dos jornalistas), las
nuevas tecnologías deberían hacer posible una racionalización del
trabajo y permitir reducir su duración para favorecer el
enriquecimiento intelectual y el ocio. En la práctica, los
profesionales de los medios de comunicación se ven obligados a trabajar
cada vez más horas. La jornada legal de cinco horas en realidad es una
jornada de diez a doce horas. Las horas extra no se pagan, ni tampoco
las horas trabajadas por un periodista los fines de semana durante su
tiempo de descanso.

Aunque la digitalización de los documentos y la automatización de los
métodos de trabajo aceleran el proceso de producción, también provocan
una disminución de la intervención humana y por lo tanto incrementan el
desempleo. Antes el personal de producción debía volver a
dactilografiar los textos del personal de redacción, mientras que ahora
el diseño automático permite combinar ambas tareas, la redacción y la
composición.

Etienne Reichel, membro de Viscom (Visual Communication), la asociación
suiza para la comunicación visual, demuestra que la transferencia de
datos vía el internet y la supresión de varias fases de producción
reducen el número de empleos. Ahora basta con seis trabajadores
cualificados para cubrir el trabajo de veinte tipógrafos, de lo cual se
puede deducir que anteriormente las empresas de comunicación visual
solían generar empleos. En cambio, la informática permite a algunos
profesionales establecerse por cuenta propia, como es el caso para un
30% de los empleados que han perdido su trabajo debido a la
reestructuración de su empresa.

Profesor asociado de ciencias sociales en la Universidad de Utrecht
(Países Bajos), Peter Leisink precisa que la redacción de los textos y
la corrección de pruebas suelen realizarse a domicilio, lo más a menudo
por trabajadores que se han hecho empresarios individuales tras haber
sido despedidos, o tras la deslocalización o la fusión de su empresa.
"Ahora bien esta forma de empleo se parece más a un trabajo precario
que a una trabajo autónomo, pues las personas que la adoptan sólo gozan
de una autonomía reducida y en general dependen de una sola editorial."

A parte de algunos casos aislados que las organizaciones de empleadores
suelen poner de realce, la convergencia multimedia provoca supresiones
de empleos masivas. Según Michel Muller, secretario general de la
Federación de las industrias del libro, del papel y de la comunicación
en Francia (FILPAC: Fédération des industries du livre, du papier et de
la communication), las industrias gráficas francesas han perdido 20.000
empleos en diez años. Entre 1987 y 1996, los efectivos pasan de 110.000
a 90.000 empleados. Las empresas elaboran planes sociales costosos para
favorecer la recolocación de los empleados despedidos, creando empleos
que suelen ser artificiales, mientras que hubiera sido preferible
costear estudios fiables sobre el modo de equilibrar creaciones y
supresiones de empleos antes de que fuera demasiado tarde.

En el mundo entero, muchos puestos de baja cualificación técnica son
sustituidos por puestos que requieren personal muy cualificado. Los
trabajadores poco cualificados son despedidos. Algunos de ellos reciben
una formación profesional complementaria, teniendo a veces que
autofinanciarla y que cursarla en su tiempo libre, aunque al final de
la formación profesional ni siquiera puedan estar seguros de que los
vuelvan a contratar.

Walter Durling, director del gigante de las telecomunicaciones AT&T
(Estados Unidos), insiste en el hecho de que las nuevas tecnologías no
cambiarán fundamentalmente la situación de los empleados. La invención
de las películas no mató al teatro, y la invención de la televisión
tampoco acabó con el cine. Las empresas deberían crear empleos
vinculados con las nuevas tecnologías y proponérselos a aquellos
trabajadores que se ven obligados a abandonar sus puestos porque éstos
se han vuelto obsoletos. Éstos son argumentos muy teóricos mientras que
el problema es más bien una cuestión de proporción. ¿Cuántos puestos se
han creado, y a cuántos trabajadores se ha despedido?

Por su parte, los sindicatos preconizan la creación de empleos mediante
la inversión, la innovación, la formación a las nuevas tecnologías, la
reconversión de los trabajadores cuyos empleos han sido suprimidos, una
negociación colectiva justa, la defensa de los derechos de autor, una
mejor protección de los trabajadores del sector artístico, y por último
la defensa de los teletrabajadores hasta que sean considerados como
trabajadores de pleno derecho.



1998: LAS BIBLIOTECAS SE INSTALAN EN LA WEB


= [Resumen]

A partir de 1998, muchas bibliotecas "tradicionales" crean su propio
sitio web, que se convierte en "escaparate virtual" y les permite
proponer su catálogo, información práctica y una selección de otros
sitios web para evitar a sus lectores la molestia de perderse en la
red. Estas bibliotecas proponen también bibliotecas digitales para dar
a conocer sus colecciones a un público amplio: colecciones de textos,
colecciones de imágenes (fijas o animadas) y colecciones sonoras. Las
bibliotecas digitales se desarrollan rápidamente y proporcionan acceso
facil a documentos que hasta entonces eran difíciles o casi imposibles
de consultar, por pertenecer a fondos antiguos, a fondos regionales o a
fondos especializados.


= Bibliotecas tradicionales

La primera biblioteca "tradicional" presente en el internet es la
Biblioteca municipal de Helsinki (Finlandia) que inaugura su sitio web
en febrero de 1994. Varias bibliotecas elaboran "ciberespacios" para
sus lectores. Otras dan a conocer las joyas de sus colecciones por
medio de la web. Algunas bibliotecas nacionales unen fuerzas para crear
un portal común.

Frente a una web enciclopédica y a la proliferación de las bibliotecas
digitales, ¿tendrán las bibliotecas tradicionales los días contados?
¿Será la biblioteca digital una verdadera amenaza para la existencia de
la biblioteca tradicional? Éstas son las preguntas que se plantean en
1998. En esta fecha, varias grandes bibliotecas explican en su sitio
web que a pesar de que el sector digital esté en plena expansión, la
comunicación física de los documentos sigue siendo esencial. A
continuación estos comentarios desaparecen. A principios de los años
2000, casi todas las bibliotecas tradicionales disponen de colecciones
digitales, sea para uso interno, sea en libre acceso en la web. Se
digitalizan los documentos para evitar tener que manipularlos después,
y de este modo cualquier usuario puede acceder fácilmente a ellos.

La razón de ser de las bibliotecas nacionales es preservar un
patrimonio acumulado a lo largo de los siglos: manuscritos, incunables,
libros impresos, diarios, periódicos, grabados, carteles, partituras
musicales, imágenes, fotos, películas, etc. Esto no va a cambiar
pronto, a pesar de que la tecnología digital ocupe un lugar cada vez
más importante en el mundo del libro y de los demás soportes. Aunque
esta omnipresencia de los soportes digitales favorezca la comunicación,
sigue siendo necesario encontrar un lugar donde almacenar los
documentos físicos originales, empezando por las Biblias de Gutenberg.

Las bibliotecas nacionales archivan también los documentos electrónicos
y los sitios web. En la Biblioteca nacional de Francia (BnF) por
ejemplo, han decidido recoger y archivar los sitios web cuyo nombre de
dominio termine con ".fr", y también los sitios dedicados a las
campañas electorales, primero para las elecciones presidenciales de
2002, luego para las legislativas de 2004, y finalmente para las
presidenciales y las legislativas de 2007, recogiendo y archivando los
sitios institucionales, los sitios y blogs oficiales de los candidatos,
los sitios de los medios de comunicación, los sitios de asociaciones y
de sindicatos, etc.

Las bibliotecas públicas tampoco parecen estar en peligro de
desaparecer. A pesar de la curiosidad suscitada por el libro digital,
los lectores aseguran con frecuencia en diversos sondeos que no están
dispuestos a leer a Zola o a Proust en pantalla. Una cuestión de
generación, quizás. Tal vez los niños que hayan aprendido a leer
directamente en la pantalla no tengan ningún problema a la hora de leer
libros online en soportes electrónicos de todo tipo.

Si bien las bibliotecas nacionales y las bibliotecas públicas siguen
siendo útiles, la situación de las bibliotecas especializadas es
diferente. En muchos campos del saber, en los que prevalece la
información más reciente, se plantean actualmente preguntas sobre la
necesidad de colocar documentos impresos en unos estantes, cuando es
mucho más práctico reunir, almacenar, archivar, organizar, catalogar y
difundir documentos electrónicos, e imprimirlos sólo a petición de los
usuarios.

Pierre Perroud, fundador de la biblioteca digital Athena, insiste en la
complementariedad del texto electrónico y del libro impreso. En su
opinión, "los textos electrónicos representan una incitación a la
lectura y una participación atrayente a la difusión de la cultura",
especialmente respecto al estudio y a la búsqueda textual. Estos textos
"son un buen complemento del libro impreso – aunque este último sea
irremplazable si se trata de leerlo". Aunque esté convencido de la
utilidad del texto electrónico, sigue pensando que el libro impreso aún
es "un compañero misteriosamente sagrado hacia el cual convergen
símbolos profundos: uno puede apretarlo en su mano, estrecharlo contra
su pecho, mirarlo con admiración; su pequeñez nos tranquiliza tanto
como nos impresiona su contenido; su fragilidad esconde una densidad
que nos tiene fascinados; como el hombre, teme el agua y el fuego, pero
es capaz de mantener al pensamiento humano a salvo del Tiempo."
(fragmento de la revista Informatique-Informations, Ginebra, febrero de
1997)


= Bibliotecas digitales

La difusión del libro, un objetivo perseguido por varias generaciones
de bibliotecarios, por fin se hace posible a gran escala, ya que hoy en
día éste puede ser convertido en archivo electrónico y transitar vía el
internet para alcanzar a un público que no siempre tiene acceso a una
biblioteca tradicional.

Si bien algunas bibliotecas digitales nacen directamente en la web, la
mayoría emana de bibliotecas tradicionales. En 1996, la Biblioteca
municipal de Lisieux (Normandía, Francia) lanza la Biblioteca
electrónica de Lisieux, que ofrece las versiones digitales de obras
literarias cortas elegidas entre las colecciones municipales. En 1997,
la Biblioteca nacional de Francia (BnF) crea el sitio web Gallica, que
propone, en una primera fase, imágenes y textos del siglo XIX en lengua
francesa, con una selección de 3.000 libros y una muestra de la futura
iconoteca digital. En 1998, la Biblioteca municipal de Lyon pone las
iluminaciones y miniaturas de 200 manuscritos e incunables a
disposición de todos en su sitio web. Y estos no son más que tres
ejemplos entre otros tantos.

Las bibliotecas digitales permiten a un amplio público tener acceso a
documentos difíciles de consultar en fondos antiguos, locales,
regionales o especializados, poco accesibles por diversos motivos: afán
de conservar documentos raros y frágiles, horarios, formularios
múltiples para rellenar, plazos de comunicación largos, penuria de
personal.

Gracias a la biblioteca digital, la biblioteca tradicional por fin
puede reconciliar dos objetivos que hasta ahora no eran compatibles, a
saber la conservación de los documentos y la comunicación de los
mismos. De esta manera nadie saca el documento del estante más que en
una sola ocasión: para escanearlo, y además el público por fin puede
acceder a su contenido. Si el lector desea aún consultar el documento
original, quedará libre de hacerlo, pero sabrá de antemano si el
contenido le interesa o no, gracias al "hojeo" previo en pantalla.

Según la British Library, pionera en este campo, la biblioteca digital
puede definirse como una entidad que emana del uso de las tecnologías
digitales para adquirir, almacenar, preservar y difundir documentos. O
bien se publican estos documentos directamente bajo forma digital, o
bien se digitalizan a partir de un documento impreso, audiovisual o
generado a partir de otro soporte. Se considera que una colección
digital constituye una biblioteca digital cuando cumpla con los cuatro
criterios siguientes: 1) puede ser creada y/o producida en distintos
lugares, pero se accede a ella en calidad de entidad única; 2) debe
estar organizada e indexada de tal manera que el acceso al servidor
resulte lo más fácil posible; 3) se debe almacenar y administrar de
manera que pueda perdurar bastante tiempo tras su creación; 4) debe
encontrar un equilibrio entre el respeto de los derechos de autor y las
exigencias universitarias.

Hospedada por la Universidad Carnegie Mellon (Estados Unidos), la
Universal Library realza las tres ventajas de la biblioteca digital:
1) ocupa menos espacio que una biblioteca tradicional y su contenido
puede ser copiado o guardado electrónicamente; 2) cualquier persona
puede acceder inmediatamente a su contenido en el internet; 3) el hecho
de que cualquier búsqueda de contenido esté automatizada permite a la
vez reducir significativamente los costes de funcionamiento e
incrementar la accesibilidad de los documentos.

A título histórico, el sitio web Library 2000 presenta un compendio de
las investigaciones realizadas entre octubre de 1995 y octubre de 1997
por el MIT/LCS (Massachusetts Institute of Technology / Laboratory of
Computer Science). Library 2000 es un proyecto pragmático, que se
propone estudiar durante dos años los problemas planteados por el
almacenamiento en línea de una inmensa cantidad de documentos.
Desarrolla un prototipo que podría ser económicamente viable en el año
2000. Gracias a este prototipo se ponen en línea varias bibliotecas
digitales de grandes dimensiones a partir de noviembre de 1997.

Para las imágenes, los problemas con el ancho de banda van
desapareciendo. Primero las bibliotecas optaron a menudo por imágenes
de página entera, muy agradables visualmente, pero que tardaban
demasiado en aparecer en pantalla. Deciden entonces presentar imágenes
en formato reducido, con posibilidad de hacer clic en ellas para
obtener un formato más grande. Esta presentación es la que se ha
establecido luego como norma, incluso después de que se generalizara el
internet de banda ancha. Ahora el paso de un formato pequeño a un
formato grande resulta muy rápido – o incluso inmediato –, a gran
satisfacción de los iconógrafos, de los fotógrafos y demás consumidores
de imágenes.


= Digitalización: modo texto o modo gráfico

No sé puede hablar de biblioteca digital sin hablar de digitalización.
Para que un libro pueda ser consultado en pantalla, primero hace falta
digitalizarlo, en modo texto o en modo imagen.

La digitalización en modo texto implica la necesidad de dactilografiar
el texto. Consiste en digitar el libro con paciencia en el teclado,
página a página. Ésta era la solución que se solía adoptar al
constituirse las primeras bibliotecas digitales, o bien cuando los
documentos originales carecían de claridad, por ejemplo en el caso de
los libros antiguos. Han pasado varios años, y para digitalizar en modo
texto ya casi basta con escanear el libro en modo imagen, y luego en
convertirlo en texto gracias a un software OCR (optical character
recognition). Se supone que un buen software OCR tiene una fiabilidad
de un 90%, luego basta con una relectura en pantalla para corregir el
texto.

En este caso, la versión informática del libro no conserva el diseño
original de este libro, ni tampoco el de la página. El libro se
convierte en texto, es decir en un conjunto de caracteres que aparecen
de continuo en la pantalla. A causa de la cantidad de tiempo que se
necesita para procesar cada libro, este modo de digitalización resulta
bastante largo, y por lo tanto es más costoso que la digitalización en
modo imagen. A pesar de todo, es muy preferible el modo texto, ya que
permite la indexación, la búsqueda y el análisis textual, así como
estudios comparativos entre varios textos o varias versiones del mismo
texto. Éste es el método utilizado por ejemplo por el Proyecto
Gutenberg, fundado en 1971, y también por la Biblioteca electrónica de
Lisieux (Normandía, Francia), creada en 1996.

Digitalizar en modo imagen equivale a fotografiar el libro página a
página. La versión informática no es sino un facsímil digital de la
versión impresa. Como se conserva la presentación original, luego es
posible "hojear" el texto en pantalla, página a página. Éste es el
método empleado para digitalizaciones a gran escala, por ejemplo para
la biblioteca digital Gallica de la Biblioteca nacional de Francia
(BnF). Sin embargo, para la tabla de contenidos, los sumarios y los
corpus de documentos iconográficos se utiliza la digitalización en modo
texto, a fin de facilitar la búsqueda textual.

¿Por qué no se digitaliza todo en modo texto? La BnF contesta esta
pregunta en 2000 en el sitio web de Gallica: "El modo imagen permite
conservar el aspecto inicial del documento original, e incluso los
elementos no textuales. En cuanto al modo texto, permite efectuar
búsquedas más amplias y precisas en un documento, y reducir
substancialmente el volumen de los archivos tratados, pero supone un
coste de procesamiento más o menos diez veces superior al de una simple
digitalización en modo imagen, bien se trate de teclear el texto o de
utilizar un software OCR. Se pueden utilizar estas técnicas si el
volumen es limitado, pero no podría justificarse a nivel económico
tratándose de los 50.000 documentos (o sea casi 15 millones de páginas)
que se han puesto en línea."

Pierre Schweitzer, el diseñador del software Mot@mot – que sirve para
reorganizar el diseño de los facsímiles digitales – insiste sobre la
utilidad de ambos modos de digitalización. "El modo imagen permite
digitalizar deprisa y con costes muy reducidos, explica en enero de
2001. Esto es importante porque la tarea de digitalización del domino
público es inmensa. Hay que tomar en cuenta también las diferentes
ediciones: si se digitaliza el patrimonio, es para facilitar el acceso
a las obras. Por lo tanto sería paradójico focalizarse en una sola
edición, dejando de lado el acceso a las otras ediciones. Cada uno de
los dos modos de digitalización conviene a un tipo de documentos,
antiguo/frágil o reciente, libre o no de derechos (para el autor o para
la edición), parca o abundantemente ilustrado. Los dos métodos también
tienen estatutos bastante distintos: en modo texto puede tratarse de la
nueva edición de una obra, mientras que en modo imagen se trata más
bien de una 'edición de otra edición'. En la práctica, la elección
depende del tipo de fondo que se quiere digitalizar, del presupuesto
disponible y de los objetivos que hay que alcanzar. Sería difícil
prescindir de una de las dos técnicas."

# Gallica

Gallica, la biblioteca digital de la Biblioteca nacional de Francia
(BnF: Bibliothèque nationale de France), se inauguró en octubre de 1997
con la digitalización de imágenes y textos del siglo XIX francófono,
"el siglo de la edición y de la prensa moderna, el siglo de la novela y
también el de las grandes síntesis históricas y filosóficas, un siglo
científico y técnico".

Al principio del proyecto, el servidor almacenaba por una parte
2.500 libros digitalizados en modo imagen, y por otra los 250 libros en
modo texto de la base Frantext del Instituto nacional de la lengua
francesa (INaLF: Institut national de la langue française).
Clasificados por disciplina, estos libros se acompañan de una
cronología del siglo XIX y de algunas síntesis sobre las grandes
corrientes en historia, ciencias políticas, derecho, economía,
literatura, filosofía, ciencias e historia de las ciencias.

El sitio web propone también una muestra de la futura iconoteca
digital, es decir el fondo del fotógrafo Eugène Atget, una selección de
documentos sobre el escritor Pierre Loti, una colección de imágenes de
la Escuela nacional de ingeniería civil (Ecole nationale des Ponts et
Chaussées) que representan las grandes obras vinculadas con la
revolución industrial en Francia, y por último una selección de libros
ilustrados sacados de la Biblioteca del Museo del Hombre (Musée de
l’Homme) de París, un museo de antropología.

A finales de 1997, Gallica se considera más un "laboratorio que se
propone evaluar las condiciones de acceso y de consulta a distancia de
los documentos digitales" que un simple banco de datos digitalizados.
El objetivo es experimentar la navegación en estas colecciones,
permitiendo a cualquier usuario saciar su curiosidad libremente, o
realizar búsquedas textuales especializadas.

A inicios de 1998, Gallica anuncia 100.000 volúmenes y 300.000 imágenes
para finales de 1999, y una amplificación rápida de las colecciones a
continuación. De los 100.000 volúmenes previstos – o sea un total de 30
millones de páginas digitalizadas – más de un tercio concierne el siglo
XIX. En cuanto a las 300.000 imágenes fijas, la mitad pertenece a
departamentos especializados de la BnF (Estampas y fotografía,
Manuscritos, Artes del espectáculo, Monedas y medallas, etc.).
La otra mitad proviene de las colecciones de establecimientos públicos
- varios museos y bibliotecas, la Documentation française (una
editorial pública), la Escuela nacional de ingeniería civil (Ecole
nationale des Ponts et Chaussées), el Instituto Pasteur, el
Observatorio de París, etc. - y de establecimientos privados - agencias
de prensa entre las cuales Magnum, Agence France-Presse, Sygma, Rapho,
etc.

En mayo de 1998, la BnF revisa a la baja sus expectativas para Gallica
y modifica un poco sus primeras orientaciones. Jérôme Strazzulla,
periodista del diario Le Figaro, explica en la edición del 3 de junio
de 1998 que la BnF "ha pasado de un proyecto universalista y
enciclopédico, a la necesidad de elegir orientaciones precisas". En el
mismo artículo, el presidente de la BnF, Jean-Pierre Angremy, comunica
la decisión del comité editorial de Gallica: "Hemos decidido abandonar
la idea de un vasto corpus enciclopédico de cien mil libros, al que
siempre se le podría reprochar algunas omisiones. Ahora nos orientamos
hacia corpus temáticos, lo más completos posible, pero más
restringidos. (...) Lo que buscamos es satisfacer en prioridad las
solicitudes de los investigadores y lectores."

El primer corpus, cuya puesta en línea está prevista para el año 2000,
tendrá que ver con el tema de los viajes por Francia. Reunirá textos,
estampas y fotografías del siglo XVI hasta 1920. A continuación, los
corpus se organizarán en torno a los temas siguientes: París, los
viajes a África desde los orígenes hasta 1920, las utopías, y las
memorias de las Academias de ciencias de ciudades francesas.

En 2003, Gallica reúne 70.000 obras y 80.000 imágenes que cubren desde
la Edad Media hasta el principio del siglo XX, incluyendo sólo
documentos libres de derechos. Sin embargo, muchos usuarios opinan que
los archivos son muy pesados ya que los libros se han digitalizado en
modo imagen, y resulta muy largo acceder a su contenido. Otro problema
importante es que la digitalización en modo imagen no permite realizar
búsquedas textuales, a pesar de que Gallica sea la biblioteca digital
francófona más amplia de la red en cuanto a la cantidad de títulos
disponibles en línea. Sólo una pequeña colección de libros (1.117
libros en febrero de 2004) se ha digitalizado en modo texto, los de la
base Frantext.

En febrero de 2005, Gallica cuenta con 76.000 obras. En la misma fecha,
la BnF anuncia que pronto se pondrá en línea (entre 2006 y 2009) la
prensa francesa publicada entre 1826 y 1944, o sea 22 títulos, con un
total de 3,5 millones de páginas. A principios de 2006, los primeros
periódicos disponibles en línea son los diarios Le Figaro (fundado en
1826), La Croix (fundada en 1883), L'Humanité (fundada en 1904) y Le
Temps (fundado en 1861 y desaparecido en 1942).

En diciembre de 2006, las colecciones abarcan 90.000 obras
digitalizadas (incluso fascículos de prensa), 80.000 imágenes y decenas
de horas de recursos sonoros. Gallica empieza la conversión en modo
texto de los libros - que primero habían sido digitalizados en modo
imagen - con el fin de facilitar el acceso a su contenido así como su
indexación en los buscadores.

En noviembre de 2007, Gallica anuncia que se han de digitalizar 300.000
obras adicionales de aquí a 2010. Éstas estarán accesibles en su nuevo
sitio web Gallica2, en modo imagen y en modo texto a la vez, lo que en
total representa 45 millones de páginas.



1999: LOS BIBLIOTECARIOS SE CONVIERTEN EN CIBERTECARIOS


= [Resumen]

Según Peter Raggett, director del Centro de documentación e información
de la OCDE (Organización para la cooperación y el desarrollo
económico), entrevistado en agosto de 1999, "para los investigadores,
el internet representa una reserva considerable para almacenar
información. El problema con el que se enfrentan es el de encontrar lo
que están buscando. Nunca antes había habido semejante sobrecarga de
datos como ahora se percibe cuando uno trata de encontrar una
información precisa sobre determinado asunto utilizando los buscadores
disponibles en el internet. A mi parecer, los bibliotecarios
desempeñarán un papel importante en la mejora de la investigación y
organización de la información en la red. (...) La tarea del
bibliotecario consistirá en filtrar la información para el público.
Personalmente, cada vez me imagino más como un bibliotecario virtual.
Ya no tendré oportunidad de conocer a los usuarios en persona: bastará
con que contacten conmigo por correo electrónico, por teléfono o por
fax, luego realizaré la búsqueda y les enviaré los resultados por vía
electrónica."


= Los bibliotecarios y el internet

La actividad profesional del bibliotecario-documentalista ha sido
afectada de lleno por la informática y luego por el internet.

En los años 80, la informática permite a los bibliotecarios sustituir
los catálogos de fichas de cartulina por catálogos consultables en
pantalla, adoptando clasificaciones alfabéticas o sistemáticas
automatizadas. La informatización del préstamo y de los pedidos de
libros hace desaparecer los innumerables papelitos y fichas que hasta
entonces eran necesarios para las operaciones manuales. La informática
en red permite también la gestión de catálogos colectivos que reúnen en
la misma base de datos los catálogos de las bibliotecas de una misma
región, de un mismo país o de una misma especialidad, facilitando los
servicios de préstamo interbibliotecario y la agrupación de los pedidos
encargados a los proveedores. Luego las bibliotecas estrenan un
servidor de videotex para que los lectores puedan consultar el catálogo
a domicilio. Poco a poco estos catálogos se van transfiriendo al
internet, con lo cual la consulta resulta más flexible y más atractiva
que en el videotex. Además del catálogo online, los sitios web de las
bibliotecas proponen un conjunto de documentos digitalizados y una
selección de hiperenlaces hacia otros sitios, evitándoles así a los
usuarios perderse en la red.

Según Olivier Bogros, director de la Biblioteca municipal de Lisieux
(Normandía, Francia), entrevistado en junio de 1998, el internet es "un
instrumento de intercambio excepcional entre profesionales (todo lo que
transita vía correos electrónicos, listas de difusión y foros) (...).
Para las bibliotecas, también es una oportunidad para dirigirse a un
público más amplio, y en el caso de Lisieux, al conjunto de los
francófonos. Pero no se trata sólo de poner en línea el catálogo. Lo
esencial es constituir verdaderas bibliotecas virtuales."

En 1993, Hervé Le Crosnier, profesor en la Universidad de Caen
(Normandía), crea la lista de difusión Biblio-fr. Ésta se dirige a los
"bibliotecarios y documentalistas francófonos y a cualquier persona que
se interese por la difusión electrónica de la información documental".
La lista pretende reflejar el punto de vista de los documentalistas
francófonos sobre las cuestiones planteadas por el desarrollo del
internet, por ejemplo "la difusión del saber, la organización de las
colecciones de documentos electrónicos, el mantenimiento y el archivo
de los escritos electrónicos". Biblio-fr cuenta con 3.329 suscriptores
el 20 de diciembre de 1998 y con 15.136 suscriptores el 20 de abril de
2007. Otra lista de difusión es ADBS-info, administrada por la
Asociación francesa de los profesionales de la información y de la
documentación (ADBS: Association des professionnels de l’information et
de la documentation), con 7.699 suscriptores el 20 de abril de 2007.

Se crean portales web destinados a las bibliotecas, como por ejemplo
Biblio On Line. Jean-Baptiste Rey, su redactor y webmaster, relata en
junio de 1998: "La primera versión del sitio web fue lanzada en junio
de 1996. Se puso en línea una nueva versión (o sea la actual) a partir
de septiembre de 1997. Con este sitio el objetivo es ayudar a las
bibliotecas a integrar internet dentro de su funcionamiento y de los
servicios que ofrecen al público. El servicio se puede descomponer en
dos partes: (a) una parte 'profesional' en la que los bibliotecarios
pueden encontrar información profesional y enlaces hacia los
organismos, las instituciones, y los proyectos y realizaciones
vinculados con su actividad; (b) una parte que comprende un directorio,
un modo de empleo del internet, ciudades y regiones, etc... y que
permite al público de las bibliotecas utilizar el servicio Biblio On
Line como punto de entrada al internet."

El sitio web de la Escuela nacional superior de ciencias de la
información y de las bibliotecas (ENSSIB: École nationale supérieure
des sciences de l’information et des bibliothèques) alberga la versión
electrónica del "Bulletin des bibliothèques de France" (BBF: Boletín de
las bibliotecas francesas), una revista  profesional bimensual en la
cual "profesionales y especialistas de la información debaten sobre
todas las cuestiones relativas a la política y al desarrollo de las
bibliotecas o centros de documentación: evolución por sector, grandes
proyectos, informatización, tecnologías de la información, escritos
electrónicos, redes, cooperación, formación, gestión, patrimonio,
usuarios y públicos, libro y lectura..."

Annie Le Saux, redactora de la revista, relata en julio de 1998: "Fue
en 1996 cuando el BBF comenzó a publicarse en el internet (empezando
con los números de 1995). (...) Utilizamos mucho los correos
electrónicos para entablar contacto con nuestros autores y recibir sus
artículos. De esta manera los plazos son mucho más cortos. También
recurrimos a la web para explorar algunos sitios mencionados durante
simposios, comprobar las direcciones, recuperar información
bibliográfica en los catálogos de las bibliotecas."


= Algunas experiencias

# En 1999

Con esta abundancia de documentos que ofrece ahora el internet, ¿que
será de los bibliotecarios-documentalistas? ¿Se convertirán en
cibertecarios, o simplemente irán desapareciendo por el hecho de que
los usuarios ya no los necesitan? A finales de los años 90, la
profesión no parece estar en peligro, al contrario. Guiar a los
usuarios en el internet, filtrar y organizar la información para ellos,
crear y administrar un sitio web, buscar documentos en bases de datos
especializadas, éstas son las tareas que a partir de entonces incumben
a muchos bibliotecarios. Es el caso de Peter Raggett en la OCDE y de
Bruno Didier en el Instituto Pasteur.

La OCDE (Organización para la cooperación y el desarrollo económico) es
una organización internacional "que tiene por objeto promover las
políticas que se proponen lograr la más fuerte expansión posible de la
economía sustentable y del empleo, y aumentar el nivel de vida en los
países miembros manteniendo la estabilidad financiera y contribuyendo
así al desarrollo de la economía mundial; contribuir a una sana
expansión económica tanto en los países miembros como en los no
miembros, con miras al desarrollo económico; contribuir a la expansión
del comercio mundial sobre una base multilateral y no discriminatoria
de conformidad con las obligaciones internacionales." (fragmento del
sitio web de 1998)

El Centro de documentación e información (CDI) está reservado a los
funcionarios de la OCDE. Su objetivo es procurarles la información que
necesitan para sus investigaciones. Las colecciones del CDI abarcan en
1998 unas 60.000 monografías y 2.500 periódicos. El CDI proporciona
también información electrónica bajo la forma de CD-ROM, bases de datos
y acceso al internet.

Peter Raggett es bibliotecario profesional desde hace veinte años.
Trabajó primero en bibliotecas gubernamentales del Reino Unido, antes
de trabajar como subdirector (y luego director) del Centro de
documentación e información de la OCDE desde 1994. Utiliza el internet
desde 1996. Creó las páginas del intranet del CDI, que son unas de las
fuentes de información del personal de la OCDE.

Peter explica en agosto de 1999: "Tengo que filtrar la información para
nosotros usuarios, por lo tanto tengo que conocer bien los sitios web y
los enlaces que proponen. He seleccionado varias centenas de sitios web
a los que se puede acceder más fácilmente a partir del intranet de la
OCDE, y esta selección forma parte de la 'oficina de referencia
virtual' que propone la biblioteca al personal de la organización.
Además de enlaces, esta 'oficina virtual' contiene páginas con las
referencias de los artículos, monografías y sitios web que corresponden
a varios proyectos de investigación en curso de realización en la OCDE,
y propone un acceso en red a los CD-ROM, y una lista mensual de nuevos
títulos."

¿Cómo ve el futuro de su profesión? "El internet ofrece una reserva de
información considerable para los investigadores, pero para ellos el
problema es encontrar lo que buscan. Nunca antes se había sentido
semejante sobrecarga de información como la sentimos ahora cuando
tratamos de encontrar alguna información sobre un tema preciso
utilizando los buscadores disponibles en el internet. Pienso que los
bibliotecarios desempeñarán un papel importante en la misión de mejorar
la búsqueda y la organización de la información en el internet.

Se puede prever también una gran expansión del internet en el campo de
la enseñanza y de la investigación. Se incitará a las bibliotecas a
crear bibliotecas virtuales que permitan a un estudiante seguir un
curso impartido por cualquier institución al otro lado del mundo. La
tarea del bibliotecario consistirá en filtrar la información para los
usuarios. Personalmente, cada vez me imagino más como un bibliotecario
virtual. Ya no tendré oportunidad de conocer a los usuarios en persona:
bastará con que contacten conmigo por correo electrónico, por teléfono
o por fax, luego realizaré la búsqueda y les enviaré los resultados por
vía electrónica."

Los Institutos Pasteur son observatorios para el estudio de
enfermedades infecciosas y parasitarias. Están encargados de resolver
problemas prácticos de salud pública. Siguen programas de investigación
cuya originalidad radica en su complementariedad: investigaciones
clínicas, encuestas epidémicas e investigación fundamental. Entre los
temas prioritarios de estos institutos se encuentran el paludismo, la
tuberculosis, el sida, la fiebre amarilla, el dengue y la
poliomielitis.

Bruno Didier, bibliotecario, crea el sitio web de la biblioteca del
Instituto Pasteur de París en 1996, y se convierte en su webmaster,
atraído por las perspectivas que ofrece la red en materia de búsqueda
documental.

Bruno escribe en agosto de 1999: "La vocación principal del sitio web
de nuestra biblioteca es ayudar a la comunidad Pasteur. Es el soporte
de aplicaciones indispensable para la función documental en un
organismo de esta dimensión: bases de datos bibliográficos, catálogo,
pedido de documentos y por supuesto acceso a periódicos en línea
(actualmente más de 100). Sirve también de 'aparador' para nuestros
diferentes servicios, no sólo a nivel interno sino también en toda
Francia y en el extranjero. Ocupa un lugar importante en el sistema de
cooperación documental con los institutos de la red Pasteur en el mundo
entero. Por último, intento convertir este sitio en una pasarela
adaptada a nuestras necesidades para iniciar y utilizar el internet. El
sitio existe en su forma actual desde 1996 y su auditorio aumenta con
regularidad. Desarrollo y administro las páginas del sitio web, además
de mantener una actividad de vigilancia regular. Por otra parte soy
responsable de la instrucción de los usuarios, como se puede observar
en mis páginas. La red es un excelente soporte para la enseñanza, y
casi todas las formaciones de usuarios utilizan ahora este
instrumento."

Su actividad profesional ha cambiado de forma radical, así como la de
muchos bibliotecarios. "Los cambios afectaron a la vez nuestra relación
con la información y con los usuarios. Cada vez servimos más de
mediadores, y quizás somos un poco menos conservadores. Mi actividad
actual es típica de esta nueva situación: por una parte despejar
caminos de acceso rápidos para la información e instalar medios de
comunicación eficaces, y por otra enseñar a los usuarios cómo usar
estos instrumentos nuevos. Creo que el futuro de nuestro trabajo
depende de la cooperación y la explotación de recursos comunes. Es sin
duda un viejo proyecto, pero en fin es la primera vez que disponemos de
los medios para ponerlo en práctica."

# En 2000

En el año 2000, Bakayoko Bourahima es el responsable de la biblioteca
de la Escuela nacional superior de estadística y de economía aplicada
(ENSEA: École nationale supérieure de statistique et d’économie
appliquée) de Abiyán (Costa de Marfil), un establecimiento cuya misión
es impartir formación a los estadísticos en los países africanos de
expresión francesa. El sitio web de la ENSEA, elaborado por la Agencia
universitaria de la Francofonía (AUF: Agence universitaire de la
Francophonie), se pone en línea en abril de 1999 en el marco de la red
REFER. La red REFER es una red francófona que se dirige a la comunidad
científica y técnica en África, en Asia y en Europa del Este, con 24
países participantes en 2002.

Bakayoko Bourahima se encarga de la gestión de la información y de la
difusión de los trabajos publicados por la ENSEA. Relata en julio de
2000: "Recientemente los miembros de mi sección han organizado sesiones
de trabajo con el equipo informático para discutir sobre la implicación
de la biblioteca en la animación del sitio web. El servicio de
biblioteca trabaja también sobre dos proyectos de integración de la web
para mejorar sus prestaciones. (...) Espero que pronto pueda poner a
disposición de mis usuarios un acceso internet para que puedan
consultar las bases de datos. Por otro lado, tengo el proyecto de
elaborar algunos servicios documentales para cargarlos luego en el
intranet y en la web (bases de datos temáticas, información
bibliográfica, servicio de referencias bibliográficas, boletín
analítico de los mejores trabajos de estudiantes). Si logro obtener los
financiamientos necesarios para este proyecto, se tratará entonces para
nuestra biblioteca de fomentar el uso del internet para dotar nuestra
Escuela de mayor proyección, reforzar su plataforma de comunicación con
cuantos asociados sea posible. Al integrar este instrumento en el plan
de desarrollo de la biblioteca, tengo la esperanza de mejorar la
calidad y ampliar la gama de información científica y técnica puesta a
disposición de los estudiantes, de los docentes e investigadores, y a
la vez de extender considerablemente la oferta de servicios de la
biblioteca."

En 2000, Emmanuel Barthe es documentalista jurídico y responsable
informático de Coutrelis & Associés, un bufete de abogados en París.
"Las principales áreas de trabajo de nuestro bufete son el derecho
comunitario, el derecho de alimentación, el derecho de la competencia,
el derecho aduanero, escribe en octubre de 2000. Me hago cargo de
tareas de indexación, y también concibo y administro las bases de datos
internas. Cuando se trata de búsquedas documentales difíciles, las
llevo a cabo yo mismo o lo consulto con un jurista. También soy
responsable de la informática y de las telecomunicaciones en el bufete:
consejos sobre las nuevas adquisiciones, asistencia y formación de los
usuarios. Además me encargo de vigilar los sitios web jurídicos, y de
su selección y catalogación: título, autor y breve descripción. En la
empresa soy responsable además de la formación internet aplicada a la
información jurídica, y también organizo cursillos de formación fuera
de la empresa."

Además, Emmanuel Barthe es el moderador de Juriconnexion, una lista de
discusión creada por la asociación del mismo nombre. "El objetivo de la
asociación Juriconnexion es promover la electrónica jurídica, es decir
la documentación jurídica difundida en un soporte electrónico y la
difusión de los datos jurídicos públicos. Organiza encuentros entre los
usuarios y los editores jurídicos (y de bases de datos), así como una
jornada anual sobre un tema determinado. La relación de Juriconnexion
con las autoridades públicas es doble, pues desempeña a la vez un papel
de mediador y de lobbying. La asociación, entre otras, es favorable a
la difusión gratuita en el internet de los datos jurídicos producidos
por el 'Journal officiel' (Diario oficial francés) y los tribunales. La
mayoría de los miembros de la asociación son bibliotecarios-
documentalistas jurídicos, y los demás son representantes de los
editores y de los juristas.»

# En 2001

En 2001, Anissa Rachef es bibliotecaria y profesora en el Instituto
francés de Londres. Presentes en numerosos países, los institutos
franceses son organismos oficiales que proponen clases y
manifestaciones culturales. Cada año en Londres, unos 5.000 estudiantes
se matriculan en estas clases. Desde su inauguración en mayo de 1996,
la mediateca siempre ha utilizado el internet.

"El objetivo de la mediateca es doble, explica Anissa Rachef en abril
de 2001. Por una parte, servir a un público que se interesa por la
cultura y por la lengua francesa, y por otra 'reclutar' a un público
alófono poniendo a disposición productos atractivos, por ejemplo videos
documentales, audiolibros y CD-ROM. Recientemente se ha creado un
espacio multimedia con el fin de fidelizar a los usuarios. Se ha
instalado también un servicio de información rápida para poder
contestar en breve a las preguntas diversas enviadas por correo
electrónico o por fax. Este servicio se apoya en las nuevas tecnologías
para realizar búsquedas altamente especializadas. Elaboramos también
archivos de prensa destinados a los estudiantes y profesores que están
preparando exámenes de nivel secundario. Me ocupo esencialmente de la
catalogación, indexación y codificación de los libros. (...) Utilizo el
internet para tareas básicas. Búsquedas bibliográficas, encargo de
libros, correo profesional, préstamo interbibliotecario. Gracias al
internet, ahora es posible consultar catálogos colectivos, como el
catálogo del Sistema universitario de documentación francés (SUDOC:
Système universitaire de documentation) y el catálogo de OCLC (Online
Computer Library Center). Así pues he podido poner en obra un servicio
que facilita acceso a documentos exteriores a la mediateca. Ésta ofrece
ahora a sus usuarios la posibilidad de consultar obras de fuera y a su
vez propone obras a las bibliotecas inglesas."



2000: LA INFORMACION SE HACE MULTILINGUE


= [Resumen]

Cuando nació la web, casi era exclusivamente anglófona. Empezó a ser
verdaderamente multilingüe en 2000, pero aún queda mucho por hacer.
¿Qué preconiza Olivier Gainon, creador de la editorial CyLibris?
"Primera etapa: el respeto de los particularismos a nivel técnico,
explica en diciembre de 2000. Es preciso que la red respete los
caracteres acentuados, las letras específicas, etc. Me parece muy
importante que los futuros protocolos permitan transmitir perfectamente
esos aspectos – lo cual podría resultar bastante complicado (en las
evoluciones futuras del lenguaje HTML, o de los protocolos IP, etc.).
Por lo tanto, es necesario que cada uno pueda sentirse a gusto con el
internet y no sólo los individuos que dominen (más o menos) el inglés.
No parece normal que hoy en día la transmisión de los acentos plantee
problemas en los correos electrónicos. Por eso me parece que el primer
trámite es de orden técnico. Si se consigue esto, lo demás se derivará
de ello: la representación de los idiomas se hará en función del número
de personas conectadas, y al fin y al cabo habrá que contemplar la idea
de usar buscadores multilingües."


= Primeros pasos

Con o sin razón, solemos quejarnos de la hegemonía del inglés en el
internet. Al principio era imprescindible, ya que la red se desarrolló
primero en América del Norte antes de extenderse al mundo entero. En
1997, ya se observa que muchos idiomas están representados. Su
presencia depende del dinamismo de cada comunidad lingüística. En
diciembre de 1997, Tim Berners-Lee, inventor de la web, declara a
Pierre Ruetschi, periodista del diario Tribune de Genève (Suiza): "¿Por
qué los francófonos no ponen más información en la web? ¿Acaso piensan
que nadie quiere consultarla en línea, que la cultura francesa no tiene
nada que ofrecer? Es una locura: por supuesto que la oferta es
inmensa." Este reto se lleva a cabo en los años siguientes.

Randy Hobler, consultor en marketing internet de productos y servicios
de traducción, escribe en septiembre de 1998: "Como el internet no
tiene fronteras nacionales, los internautas se organizan según otros
criterios, propios de este medio de comunicación. En términos de
plurilingüismo, existen comunidades virtuales, por ejemplo lo que suelo
llamar las 'naciones de los idiomas', todos los internautas que
comparten la misma lengua materna, cualquiera que sea su entorno
geográfico. Así pues la nación de habla hispana no abarca sólo a los
internautas de España y de Latinoamérica, sino también a todos los
hispanohablantes que viven en los Estados Unidos, o en Marruecos."

En 1998 y 1999, la necesidad de crear una web multilingüe preocupa a
mucha gente. A inicios de los años 2000, la web, por fin multilingüe,
permite una amplia difusión de los textos electrónicos sin
restricciones de fronteras, pero aún queda mucho por hacer para que
desaparezca la barrera del idioma. La prioridad parece ser la creación
de pasarelas entre las comunidades lingüísticas para favorecer la
circulación de los escritos en otros idiomas, mejorando por ejemplo los
instrumentos de traducción.

En el verano de 2000, los usuarios no anglófonos superan el 50%. Este
porcentaje sigue aumentando, como lo demuestran las estadísticas de la
sociedad Global Reach, actualizadas a intervalos regulares. El número
de usuarios no anglófonos alcanza el 52,5% en el verano de 2001, el 57%
en diciembre de 2001, el 59,8% en abril de 2002, el 64,4% en septiembre
de 2003 (del cual un 34,9% de europeos no anglófonos y un 29,4% de
asiáticos) y el 64,2% en marzo de 2004 (del cual un 37,9% de europeos
no anglófonos y un 33% de asiáticos).

Bruno Didier, webmaster de la biblioteca del Instituto Pasteur en
París, escribe en agosto de 1999: "El internet no es una propiedad ni
nacional ni lingüística. Es un vector de cultura, y el primer soporte
de la cultura es la lengua. Cuantas más lenguas estén representadas en
toda su diversidad, más culturas estarán representadas en el internet.
No pienso que tengamos que ceder a la tentación sistemática de traducir
las páginas a una lengua más o menos universal. Los intercambios
culturales suponen una voluntad de ponerse al alcance de la persona a
quien queremos encontrar. Y este esfuerzo pasa por la comprensión de su
lengua. Por supuesto mis palabras son muy utópicas. Porque
concretamente, mi actividad de vigilancia en la red me incita más bien
a echar pestes contra algunos sitios noruegos o brasileños que no dan
ninguna información en inglés, por más mínima que sea."

A partir de diciembre de 1997, el buscador AltaVista lanza Babel Fish
Translation, un software de traducción automática del inglés a otros
cinco idiomas (alemán, español, francés, italiano, portugués), y vice
versa. Asociado con un diccionario multilingüe de 2,5 millones de
términos, este servicio gratuito es la obra de Systran, una sociedad
pionera en el procesamiento automático de los idiomas. El texto que hay
que traducir debe componerse de una a tres páginas. La página original
y la traducción aparecen ambas en la pantalla simultáneamente. Como la
traducción es completamente automatizada, por supuesto el resultado es
aproximativo. Aunque este instrumento tenga sus limitaciones, tiene el
mérito de existir y prefigura los programas que serán desarrollados
durante los años siguientes por varias sociedades, entre otras Systran,
Alis Technologies, Globalink o Lernout & Hauspie.


= Del ASCII al Unicode

Comunicar en varios idiomas supone tener a disposición sistemas de
codificación de caracteres adaptados a nuestros alfabetos o ideogramas
respectivos.

El primer sistema de codificación informática es el ASCII (American
standard code for information interchange – Código estadounidense
estándar para el intercambio de información). Publicado en 1968 por el
por el Instituto estadounidense nacional de normas (ANSI: American
National Standards Institute), y actualizado en 1977 y 1986, el ASCII
es un código de 128 caracteres traducidos en lenguaje binario en siete
bits (A se traduce por "1000001", B se traduce por "1000010", etc.).
Los 128 caracteres incluyen 33 caracteres de control (que no
representan símbolos escritos) y 95 caracteres imprimibles: las 26
letras sin acento en mayúsculas (A-Z) y en minúsculas (a-z), las
cifras, los signos de puntuación y algunos símbolos, que corresponden
en su conjunto a las teclas del teclado inglés o estadounidense.

El ASCII no permite más que la lectura del inglés y del latín. No
permite tomar en cuenta las letras acentuadas presentes en gran parte
de las lenguas europeas y aún menos los idiomas no alfabéticos (chino,
japonés, coreano, etc.). Esto no planteaba ningún problema de
importancia en los primeros años, cuando el intercambio de archivos
electrónicos se limitaba esencialmente a Norteamérica. Pero el
plurilingüismo pronto se convierte en una necesidad vital. Variantes
del ASCII (norma ISO-8859 o ISO-Latin) toman en cuenta los caracteres
acentuados de algunos idiomas europeos. La norma ISO 8859-1 (Latin-1)
define por ejemplo la variante adaptada al francés. Pero el paso del
ASCII original a las diversas extensiones no tarda en convertirse en un
verdadero rompecabezas, incluso en la Unión europea, donde se plantean
problemas como la multiplicación de las variantes, la corrupción de los
datos durante los intercambios informáticos o la incompatibilidad de
los sistemas, ya que las páginas web sólo pueden visualizarse en un
idioma a la vez.

Con el desarrollo de la web, se internacionaliza cada vez más el
intercambio de datos. Uno ya no puede conformarse con utilizar el
inglés y algunos idiomas europeos, traducidos a través de un sistema de
codificación de caracteres que data de 1968.

Publicado por primera vez en enero de 1991, el Unicode es un sistema de
codificación de caracteres "universal" en 16 bits que asigna un número
único a cada carácter. Este número es legible desde cualquier
plataforma, con cualquier programa o idioma. El Unicode puede reconocer
65.000 caracteres únicos y tomar en cuenta todos los sistemas de
escritura del planeta. Para gran satisfacción de los lingüistas,
progresivamente el Unicode va sustituyendo el ASCII.  Existen diversas
variantes del Unicode, por ejemplo UTF-8, UTF-16 y UTF-32 (UTF: Unicode
transformation format). Se convierte en uno de los componentes de las
especificaciones del W3C (World Wide Web Consortium), el organismo
internacional encargado del desarrollo de la web.

La utilización del Unicode se generaliza a partir de 1998, por ejemplo
para los archivos de texto bajo plataforma Windows (Windows NT, Windows
2000, Windows XP y siguientes versiones), que hasta entonces estaban en
ASCII.

Pero el Unicode no puede solucionar todos los problemas, como lo
subraya en junio 2000 Luc Dall’Armellina, coautor y webmaster de
oVosite, un espacio de escritura hipermedia: "Los sistemas operativos
se van dotando de kits Unicode capaces de representar todos los idiomas
del mundo. Ojalá sigan el mismo rumbo todas las aplicaciones, desde el
procesamiento de texto hasta el navegador web. Las dificultades son
inmensas: nuestro teclado, con sus ± 250 teclas, deja ver sus
insuficiencias siempre que es necesario digitar Katakana o Hiragana
japoneses, y aún peor con el chino. La gran variedad de los sistemas de
escritura por el mundo y el número de caracteres que abarcan
constituyen un freno potente. Sin embargo los obstáculos culturales no
son menos importantes, pues están vinculados con los códigos y
modalidades de representación propios de cada cultura o etnia."

¿Qué preconiza Olivier Gainon, creador de la editorial CyLibris y
pionero de la edición literaria online? "Primera etapa: el respeto de
los particularismos a nivel técnico, explica en diciembre de 2000. Es
preciso que la red respete las letras acentuadas, las letras
específicas, etc. Me parece muy importante que lo futuros protocolos
permitan una transmisión perfecta de estos aspectos – y eso puede que
no resulte sencillo (en las evoluciones futuras del HTML, o de los
protocolos IP, etc.). Por lo tanto, es necesario que cada uno pueda
sentirse a gusto con el internet y que esto no se limite a los
individuos que dominen (más o menos) el inglés. No parece normal que
hoy en día la transmisión de los acentos plantee problemas en los
correos electrónicos. Por eso me parece que el primer trámite es de
orden técnico. Si se consigue esto, lo demás se derivará de ello: la
representación de los idiomas se hará en función del número de personas
conectadas, y al fin y al cabo habrá que contemplar la idea de usar
buscadores multilingües."

Yoshi Mikami es informático en Fujisawa (Japón). En diciembre de 1995,
lanza la página web "The Languages of the World by Computers and the
Internet", conocida comúnmente como Logos Home Page o Kotoba Home Page.
Su página presenta un breve historial de cada idioma con sus
características, su sistema de escritura, su juego de caracteres y por
último la configuración del teclado en dicho idioma. Yoshi Mikami
también es el coautor (junto con Kenji Sekine y Nobutoshi Kohara) de
"The Multilingual Web Guide" (Guía por una web multilingüe), publicado
en japonés por las ediciones O'Reilly en agosto de 1997, y traducido en
inglés, en alemán y en francés en 1998.

Yoshi explica en diciembre de 1998: "Mi lengua materna es el japonés.
Al haber realizado mis estudios de tercer ciclo en los Estados Unidos y
trabajado en informática, he llegado a ser bilingüe japonés-inglés
americano. Siempre me he interesado por otras lenguas y culturas, lo
que me llevó a aprender ruso, francés y chino sobre la marcha. A
finales de 1995, he creado en la web el sitio 'The Languages of the
World by Computers and the Internet' y he intentado proponer – en
inglés y en japonés – un breve historial de todos estos idiomas, así
como las características propias de cada lengua y de su fonética.
Avalado por la experiencia adquirida, instigué a mis dos asociados a
que escribieran un libro sobre la concepción, la creación y la
presentación de sitios web multilingües, un libro que se publicó en
agosto de 1997 bajo el título: 'The Multilingual Web Guide', el primer
libro del mundo escrito sobre semejante tema."

¿Y cómo se imagina la evolución de la web multilingüe? "Miles de años
atrás, en Egipto, en China y en otros lugares, la gente era más
sensible a la necesidad de comunicar sus leyes y reflexiones en varios
idiomas y no en uno solo. En nuestra sociedad moderna, cada Estado ha
adoptado más o menos una sola lengua de comunicación. A mi parecer, el
internet permitirá un uso más amplio de varios idiomas y de páginas
multilingües (y no sólo una gravitación alrededor del inglés americano)
y un uso más creativo de la traducción informática multilingüe. ¡99% de
los sitios web creados en Japón están redactados en japonés!"


= Del inglés al plurilingüismo

Aunque el inglés ya no posea un monopolio al 100% en la web, más del
80% de las páginas web siguen siendo anglófonas en 1998, un porcentaje
que se explica por tres factores: (a) la creación de muchos sitios web
procedentes de los Estados Unidos, de Canadá y del Reino Unido; (b) una
proporción de usuarios particularmente alta en América del Norte con
respecto al resto del mundo; (c) el uso del inglés como principal
idioma de intercambio internacional.

De hecho el inglés sigue siendo preponderante y las cosas no están por
cambiar. Como lo indicaba en enero de 1999 Marcel Grangier, responsable
de la sección francesa de los servicios lingüísticos centrales de la
Administración federal suiza, "esta supremacía no es nefasta en sí, en
la medida en que resulta de realidades esencialmente estadísticas (más
PC por vecino, más locutores de este idioma, etc.). La respuesta
adecuada no es 'luchar contra el inglés' y tampoco basta con
lamentarse, sino que hace falta multiplicar los sitios web en otros
idiomas. Cabe añadir que en calidad de servicio de traducción, también
preconizamos el plurilingüismo en los sitios web mismos. La
multiplicación de los idiomas presentes en internet es inevitable, y
sólo puede hacerse en beneficio de los intercambios multiculturales."

Profesor en tecnologías de la comunicación en la Webster University de
Ginebra (Suiza), Henk Slettenhaar insiste también en la necesidad de
que existan sitios web bilingües, en su idioma original y en inglés.
"Las comunidades locales presentes en la web deberían utilizar antes de
todo su propio idioma para difundir información, escribe en diciembre
de 1998. Si desean presentar esta información ante la comunidad
mundial, ésta deberá estar disponible también en inglés. Pienso que los
sitios web bilingües son verdaderamente necesarios. (...) Pero estoy
encantado de que ahora existan tantos documentos disponibles en su
lengua original. Prefiero – y con mucho – leer el original con cierta
dificultad antes que una traducción mediocre."

Henk añade en agosto de 1999: "A mi parecer, existen dos tipos de
búsquedas en la web. En el primer caso, se trata de una búsqueda global
en el campo de los negocios y de la información. Para llevarla a cabo,
el idioma es primero el inglés, con versiones locales si es necesario.
El segundo tipo de búsqueda concierne información local de toda clase
en los lugares más remotos. Si la información se dirige a una etnia o a
un grupo lingüístico, debe aparecer primero en el idioma de dicha etnia
o de dicho grupo, con quizás un resumen en inglés."

Por su parte Philippe Loubière, traductor literario y dramático en
francés y rumano, denuncia la preponderancia del inglés que se ha
literalmente apoderado de la red. "Todo lo que puede contribuir a la
diversidad lingüística, tanto en la web como en otros ámbitos, es
indispensable para la supervivencia de la libertad de pensamiento,
explica en marzo de 2001. No exagero en absoluto: el hombre moderno se
juega en ello la supervivencia. Ahora bien, yo soy muy pesimista
respecto a esta evolución. Los Anglosajones suelen escribir a todo el
mundo en inglés sin ningún escrúpulo. La inmensa mayoría de los
Franceses comprueba con una indiferencia total cómo el inglés
macarrónico de los comerciales y de los publicistas va sustituyendo
poco a poco su propio idioma, y el resto del mundo ha dado por
perfectamente admitida la hegemonía lingüística de los Anglosajones
porque no tienen más perspectivas sino servir a esos ricos y poderosos
dueños. La única solución consistiría en recurrir a legislaciones
internacionales lo suficientemente restrictivas como para obligar a los
gobiernos nacionales a respetar y a hacer respetar la lengua nacional
en sus propios países (el francés en Francia, el rumano en Rumania,
etc.), y eso en todos los campos, y no sólo en internet. Pero no hay
que hacerse ilusiones..."

Richard Chotin, profesor en la Escuela superior de negocios (ESA: École
supérieure des affaires) de Lille (Francia), recuerda con razón que la
supremacía del inglés sustituyó a la del francés. "El problema es
político e ideológico, explica en septiembre de 2000. Es el problema
del 'imperialismo' de la lengua inglesa que emana del imperialismo
norteamericano. De hecho basta con recordar el 'imperialismo' de la
lengua francesa a lo largo de los siglos 18 y 19 para comprender por
que se les da tan mal a los estudiantes franceses aprender idiomas: al
no tener que esforzarse para hacerse entender, uno no se esmera: son
los demás los que tienen que hacer esfuerzos."

Guy Antoine, creador de Windows on Haiti, un sitio web de referencia
sobre la cultura haitiana, cree en la necesidad del inglés como lengua
común. Escribe en noviembre de 1999: "Por razones prácticas, el inglés
seguirá dominando la red. No pienso que sea una cosa mala, a pesar de
los sentimientos regionales que se oponen a eso, porque necesitamos una
lengua común que permita favorecer la comunicación a nivel
internacional. Dicho esto, no comparto la idea pesimista según la cual
las otras lenguas solamente tendrían que someterse a la lengua
dominante. Al contrario. Primero porque el internet puede reunir
información útil para las lenguas minoritarias, que de otra manera
correrían el riesgo de desaparecer sin dejar rastro. Además, en mi
opinión, el internet incita a la gente a aprender las lenguas asociadas
a las culturas que les interesan. Estas personas se dan cuenta
rápidamente que la lengua de un pueblo constituye un elemento
fundamental de su cultura.

Por este hecho, no tengo mucha confianza en los instrumentos de
traducción automática que, aunque traduzcan las palabras y expresiones,
no pueden traducir el alma de un pueblo. ¿Qué son los haitianos, por
ejemplo, sin el 'Kreyòl' (el criollo, para los no iniciados), una
lengua que se desarrolló y que permitió unir entre ellas a varias
tribus africanas desplazadas a Haití durante el periodo de la
esclavitud? Esta lengua representa de la manera más palpable la unión
de nuestro pueblo. Sin embargo es sobre todo una lengua hablada y no
escrita. En mi opinión la situación irá cambiando gracias a la red, más
que con cualquier otro medio tradicional de difusión de una lengua.

En el sitio web Windows on Haiti, la lengua principal es el inglés,
pero también hay un foro de discusión animado en 'Kreyól'. Existen
también documentos sobre Haití en francés y en criollo antiguo
colonial, y estoy dispuesto a publicar otros documentos en español y en
otras lenguas. No propongo traducciones, pero el plurilingüismo es
palpable en mi sitio, y me parece que esto no tardará en convertirse
cada vez más en una norma en la red."

Bakayoko Bourahima, bibliotecario en la Escuela nacional superior de
estadística y de economía aplicada (ENSEA: Ecole nationale supérieure
de statistique et d’économie appliquée) de Abiyán (Costa de Marfil),
escribe en julio de 2000: "Para nosotros, Africanos francófonos, la
imposición del inglés en el internet representa para las masas una
doble desventaja para acceder a los recursos de la red. Primero por
culpa del problema de alfabetización que aún dista mucho de estar
resuelto y que el internet enfatizará mucho más; luego se plantea el
problema del dominio de una segunda lengua extranjera y de su
adecuación al entorno cultural. En suma, si no se hace multilingüe, el
internet nos impondrá una segunda colonización lingüística con todas
las limitaciones que esto supone. Y esto no deja de ser un gran
problema porque a nuestros sistemas educativos ya les cuesta mucho
trabajo optimizar sus prestaciones debido al uso del francés como
lengua de instrucción básica, según dicen algunos peritos. Por lo tanto
cada vez se evoca más la posibilidad de recurrir a las lenguas
vernáculas para la instrucción básica, para 'desenclavar' el colegio en
África e implicarlo lo mejor posible en la valorización de los recursos
humanos. ¿Cómo proceder? En mi opinión no cabe la posibilidad para
nosotros de hacer prevalecer cualquier clase de excepción cultural en
la red, pues esto sería una reacción absolutamente gregaria. Entonces
es preciso que los diferentes bloques lingüísticos se impliquen mucho
para promover su propio acceso a la red, sin olvidar sus
especificidades internas."

Tarde o temprano, ¿acabará correspondiendo la proporción de idiomas en
la red con su repartición en el planeta? Nada parece menos cierto a la
hora de la fractura digital entre ricos y pobres, entre zonas rurales y
zonas urbanas, entre regiones favorecidas y regiones desfavorecidas,
entre el hemisferio norte y el hemisferio sur, entre países
desarrollados y países en desarrollo.

Según Zina Tucsnak, ingeniera de estudios en el laboratorio de Análisis
y procesamiento informático de la lengua francesa (ATILF: Analyse et
traitement informatique de la langue française), entrevistada en
octubre de 2000, "la mejor opción sería la aplicación de una ley por la
cual se atribuyera una 'cuota' a cada idioma. Pero ¿no será acaso una
utopía pedir la aplicación de una ley como ésta en una sociedad de
consumo como la nuestra?"

En la misma fecha, Emmanuel Barthe, documentalista jurídico, expresa
una opinión contraria: "Señales recientes dejan pensar que basta con
dejar las lenguas tal y como están actualmente en la web.
Efectivamente, los idiomas – a parte del inglés – se desarrollan
gracias a la multiplicación de sitios web nacionales que se dirigen
específicamente a públicos nacionales, a fin de atraerlos hacia el
internet. Basta con observar cuánto se han multiplicado las lenguas
disponibles en las interfaces de los buscadores generalistas."


= Idiomas minoritarios

Además, el "imperialismo" denunciado más arriba no se limita a la
lengua inglesa. Francia tampoco deja de ejercer presión para imponer la
supremacía de la lengua francesa sobre otros idiomas, como lo atestigua
Guy Antoine, creador del sitio web Windows on Haiti. Éste relata en
junio de 2001: "La promoción del 'kreyòl' (criollo haitiano) se ha
convertido para mí en una causa personal, ya que este idioma es el
principal vínculo que une a todos los Haitianos, a pesar de la actitud
desdeñosa de una pequeña élite haitiana – que goza de una influencia
desproporcionada – para con la adopción de normas de escritura del
'kreyòl' y el apoyo a la publicación de libros y de información oficial
en este idioma. A modo de ejemplo, hace poco tuvo lugar en la capital
de Haití una Feria del libro que duró dos semanas, y se bautizó con el
nombre de 'Livres en folie' (Libromanía). De los 500 libros de autores
haitianos presentados en la feria del libro, sólo había unos veinte en
'kreyòl', debido a la insistente campaña llevada a cabo por Francia
para celebrar la Francofonía en sus antiguas colonias. En Haití esta
situación no desencadena problemas graves, pero perjudica a los
hablantes del 'kreyòl'.

Para contrarrestar la actitud de esa minoría haitiana, yo he creado en
mi sitio web Windows on Haiti dos foros de discusión exclusivamente en
'kreyòl'. El primer foro reúne discusiones generales sobre toda clase
de temas, pero en realidad estas discusiones conciernen principalmente
los problemas sociopolíticos que agitan Haití. El segundo foro se
reserva únicamente para los debates sobre las normas de escritura del
'kreyòl'. Estos debates son bastante animados, y participan en ellos
unos cuantos expertos de la lengua. Lo excepcional en esos foros es que
no revisten ningún carácter académico. No he encontrado en ningún otro
lugar de la red un intercambio tan espontáneo y tan libre entre los
expertos y el público llano para debatir en un idioma determinado sobre
los atributos y normas de este mismo idioma."

En septiembre de 2000, Guy Antoine se une al equipo de dirección de
Mason Integrated Technologies, cuyo objetivo es crear instrumentos que
permitan la accesibilidad de los documentos publicados en idiomas
cualificados de minoritarios. "Dada la experiencia del equipo en este
asunto, nos interesamos en prioridad por el criollo haitiano (kreyòl),
o sea el único idioma nacional de Haití, y una de las dos lenguas
oficiales –la segunda es el francés. El 'kreyòl' no se le puede
considerar como un idioma minoritario en el Caribe ya que lo hablan
entre ocho y diez millones de personas."

He aquí otra experiencia, la de Caoimhín Ó Donnaíle, profesor de
informática en el Instituto Sabhal Mór Ostaig, ubicado en la isla de
Skye (Escocia). Caoimhín imparte sus clases en gaélico escocés. También
es el webmaster del sitio web del instituto, un sitio bilingüe inglés-
gaélico que resulta ser la principal fuente de información en el mundo
sobre el gaélico escocés. En este sitio, mantiene al día la página
"European Minority Languages" (Idiomas europeos minoritarios), una
lista bilingüe de los idiomas europeos minoritarios, con una
clasificación de los idiomas por orden alfabético y por familia
lingüística. Caoimhín cuenta en mayo de 2001: "Nuestros estudiantes
utilizan un corrector ortográfico en gaélico y una base terminológica
online en gaélico. (...) Ahora es posible escuchar la radio en gaélico
(escocés e irlandés) en el internet, en cualquier lugar del mundo, de
continuo. Uno de los logros más importantes fue la traducción al
gaélico del navegador Opera. Es la primera vez que un software tan
voluminoso está disponible en gaélico."

En febrero de 2000, Robert Beard cofunda yourDictionary.com para servir
de portal de referencia para todos los idiomas sin excepción, con una
sección específica "Endangered Language Repository" (Repositorio de
idiomas amenazadas) dedicada a las lenguas en peligro de extinción.
"Las lenguas en peligro son esencialmente aquéllas que no tienen
tradición escrita, explica en enero de 2000. Sólo un tercio de los
6.000 idiomas que existen en el mundo tienen a la vez tradición escrita
y hablada. No por eso pienso que la web contribuya a la pérdida de la
identidad de los idiomas. Al contrario, me da la impresión de que a
largo plazo la red irá reforzando esta identidad. Por ejemplo, cada vez
hay más Indios americanos que contactan a lingüistas para pedirles que
escriban la gramática de su idioma y les ayude a elaborar diccionarios.
Para ellos la web representa un instrumento de expresión cultural
accesible y a la vez muy valioso."

Caoimhín Ó Donnaíle indica por su parte en mayo de 2001: "Respecto al
porvenir de los idiomas en peligro, el internet tiende a acelerar las
cosas en ambas direcciones. Si la gente no se preocupa por preservar
los idiomas, el internet y la globalización que lo acompaña acelerarán
considerablemente su desaparición. Pero si la gente se preocupa
verdaderamente por preservarlos, el internet constituirá una ayuda
irremplazable."


= Traducciones

Siendo el internet una fuente de información con vocación mundial,
parece indispensable favorecer las actividades de traducción. Autor de
"Chroniques de Cybérie" (Crónicas de Cyberia), una crónica semanal
online sobre el internet, Jean-Pierre Cloutier deplora en agosto de
1999 "que se hagan tan pocas traducciones de textos y ensayos
importantes publicados en la red, tanto del inglés hacia otras lenguas
como a la inversa (...) La novedad del internet en las regiones donde
ahora acaba de implantarse suscita ahí reflexiones que serían útiles de
leer para nosotros. ¿Cuándo será posible disponer de una traducción de
lo que escriben los pensadores de la comunicación hispanohablantes, o
de otro idioma?"

Por las mismas fechas, María Victoria Marinetti, profesora de español
en empresas y traductora, escribe: "Es muy importante poder comunicar a
través del internet en diferentes lenguas, es más bien obligatorio. Ya
que la información la tenemos a nivel mundial, ¿por qué no podríamos
tenerla en el idioma que hablamos o que deseamos? ¿Acaso no es
contradictorio?"

Quizás la solución consista en utilizar a gran escala programas de
traducción automática, si hemos de creer las promesas de mejora
anunciadas de aquí a unos años. De momento la calidad de la traducción
automática no se puede equiparar con la del trabajo de los
profesionales de la traducción. Es preferible recurrir a éstos cuando
uno dispone del tiempo y del dinero suficientes. ¿Pero quién tendrá
bastante dinero como para mandar traducir cientos, si no miles de
páginas web y, por si fuera poco, a varios idiomas? Luego los softwares
de traducción resultan prácticos cuando se trata de obtener un
resultado inmediato y a coste reducido - o incluso gratuitamente -
aunque éste diste mucho de estar perfecto. Desde 1998, algunos
softwares están en acceso libre en la web – como por ejemplo los de
Systran, de Alis technologies o de Google – y permiten traducir en unos
segundos una página web o un texto corto, con varias combinaciones
lingüísticas posibles.

El objetivo de un software de traducción es analizar el texto en la
lengua de salida (texto origen) y generar automáticamente el texto
correspondiente en la lengua de llegada (texto meta), aplicando reglas
precisas para la transferencia de la estructura gramatical. Como lo
explica la Asociación europea de traducción automática (EAMT: European
Association for Machine Translation) en su sitio web, "existen hoy en
día unos cuantos sistemas que producen resultados cuya calidad – aunque
no sea perfecta – es suficiente para ser útil en ciertas aplicaciones
específicas, en general en el campo de la documentación técnica. Además
los softwares de traducción, destinados esencialmente a ayudar al
traductor humano a generar traducciones, gozan de una creciente
popularidad entre los organismos de traducción profesionales."

La tarea es inmensa, como lo subraya en febrero 2001 Pierre-Noël
Favennec, experto en la dirección científica de France Télécom R&D: "La
investigación sobre la traducción automática debería permitir una
traducción automática a los idiomas deseados, pero ofreciendo
aplicaciones para cada lengua y no sólo las lenguas dominantes (ej.:
difusión de documentos en japonés, si el emisor es de lengua japonesa,
y lectura en bretón, si el receptor es de lengua bretona). Así pues
queda mucho por hacer en el campo de la traducción automática y escrita
de todas las lenguas."



2001: COPYRIGHT, COPYLEFT Y CREATIVE COMMONS


= [Resumen]

Lanzada en 2001 por iniciativa de Lawrence Lessig, profesor de derecho
en la Stanford Law School (California), la licencia Creative Commons se
propone favorecer la difusión de obras digitales protegiendo los
derechos de autor. El organismo del mismo nombre propone licencias
típicas, es decir contratos flexibles de derechos de autor compatibles
con una difusión en el internet. De redacción sencilla, esas
autorizaciones no exclusivas permiten a los titulares de derechos
autorizar al público a utilizar sus creaciones y conservar al mismo
tiempo la posibilidad de limitar las explotaciones comerciales y obras
derivadas. El autor puede por ejemplo decidir autorizar o no la
reproducción y la redifusión de sus obras. Estos contratos pueden ser
utilizados para todo tipo de creación: texto, película, foto, música,
sitio web, etc.


= Derecho de autor e internet

Ya existía un debate encarnizado en torno a los derechos de autor en el
internet a finales de los años 90, pero Philippe Loubière, traductor
literario y dramático, pone de realce los problemas centrales del
debate. Escribe en marzo de 2001: "Me parece que en el fondo este
debate es bastante parecido al debate propio de todos los demás campos
en los que se ejerce – o debería ejercerse – el derecho de autor. Casi
en cualquier caso el productor está en una posición de fuerza con
respecto al autor. Las versiones pirateadas, e incluso la simple
difusión libre, en realidad no representan un peligro directo más que
para los productores. Si los autores también sienten el peso de la
amenaza, sólo es de rebote. Quizás sea posible legislar sobre ese tema,
al menos en Francia donde las corporaciones que se reivindican de la
excepción cultural son activas y siguen resistiendo un poco a los
Estadounidenses, pero el daño es más profundo. Efectivamente, tanto en
Francia como en otros países, los autores siempre han sido los últimos
en ser pagados y los peores pagados. Desde la aparición del internet,
lo único que se puede observar es que siguen siendo los últimos en ser
pagados y los peores pagados. Me parece necesario encontrar primero una
solución para que se respeten los derechos de autor en general, y no
sólo en el internet. Por ejemplo en el marco general del mundo
editorial o de las artes escénicas franceses, las sociedades de autores
– Sociedad de autores y compositores dramáticos (SACD: Société des
auteurs et compositeurs dramatiques), Sociedad de literatos (SGDL:
Société des gens de lettres), Sociedad de autores, compositores y
editores de música (SACEM: Société des auteurs, compositeurs et
éditeurs de musique), etc. – son impotentes ante cualquier situación
que salga de la rutina o del estrellato, y tampoco saben qué hacer
cuando los productores abusan de su posición de fuerza, o meramente no
pagan a los autores, cosa que ocurre muy a menudo."

Para mucha gente, la web es antes de todo un espacio público basado en
el intercambio. Alain Bron, consultor en sistemas de información y
escritor, escribe en noviembre de 1999: "Hoy considero el internet como
un dominio público. Eso significa que la noción de derecho de autor
desaparece de facto: cualquier persona puede reproducir lo que
pertenece a otra. La creación se expone por lo tanto a ser copiada de
inmediato si el copyright no se presenta bajo una forma reconocible y
si se exponen las obras ante el público sin formalidades de ingreso."

Jacques Gauchey, periodista y especialista de las tecnologías de la
información, expresa una opinión distinta. "El derecho de autor en su
contexto tradicional ya no existe, escribe en julio de 1999. Los
autores necesitan adaptarse a un nuevo paradigma, el de la libertad
total del flujo de información. El contenido original es como una
huella digital: no se puede copiar. Sobrevivirá, luego prosperará."

Según Xavier Malbreil, autor multimedia entrevistado en marzo de 2001,
"hay dos cosas distintas. La web no debe ser una zona de no derecho, y
éste es un principio que debe aplicarse a todo, y especialmente al
derecho de autor. Cualquier utilización comercial de una obra debe dar
lugar a una retribución. Pero la web también es un lugar donde
compartir. Intercambiar con los amigos fragmentos de un texto que a uno
le han gustado, de la misma manera que uno podría copiar fragmentos de
un libro que le ha gustado particularmente, para compartir el gusto de
su lectura, eso no puede en absoluto perjudicar las obras ni  los
autores, todo lo contrario. La literatura sufre sobre todo de que no
logra alcanzar una difusión suficiente. Todo lo que pueda contribuir a
sacarla del ghetto en el que está metida será positivo."


= Copyleft y Creative Commons

Muchos autores y otros creadores desean respetar la vocación primera de
la web, concebida como una red de difusión de escala mundial. Por lo
tanto, cada vez hay más adeptos de los contratos flexibles – copyleft,
GPL (general public license) y Creative Commons.

La idea del copyleft fue lanzada en 1984 por Richard Stallman,
ingeniero informático y defensor incansable del movimiento Open Source
dentro de la Free Software Foundation (FSF: Fundación por el software
libre). Concebido al principio para los softwares, el copyleft fue
formalizado luego por la GPL (general public license) y extendido a
continuación a cualquier tipo de obra de creación. Contiene la
declaración de copyright normal en la que se afirma el derecho de
autor. Su originalidad radica en que le proporciona al lector el
derecho de redistribuir libremente el documento y de modificarlo. El
lector se compromete no obstante a no reivindicar ni la obra original,
ni los cambios efectuados por otras personas. Además, todas las
realizaciones derivadas de la obra original están sujetas también al
copyleft.

Lanzada en 2001 a iniciativa de Lawrence Lessig, profesor de derecho en
la Stanford Law School (California), la licencia Creative Commons
(Bienes comunes creativos) también tiene como meta favorecer la
difusión de obras digitales protegiendo a la vez el derecho de autor.
El organismo del mismo nombre propone licencias típicas, que se
presentan como contratos flexibles de derecho de autor compatibles con
una difusión en el internet. Redactadas con un lenguaje sencillo, estas
autorizaciones no exclusivas permiten a los titulares de los derechos
autorizar al público a utilizar sus creaciones conservando la
posibilidad de limitar las explotaciones comerciales y obras derivadas.
El autor puede por ejemplo decidir autorizar o no la reproducción y
reemisión de sus obras. Estos contratos pueden ser utilizados para
cualquier tipo de creación: texto, película, foto, música, sitio web,
etc.

Finalizada en febrero de 2007, la versión 3.0 de la Creative Commons
instaura una licencia internacional y una compatibilidad con otras
licencias similares, entre las cuales el copyleft y la GPL.

Un millón de obras utilizan una licencia Creative Commons en 2003, 4,7
millones de obras en 2004, 20 millones de obras en 2005, 50 millones de
obras en 2006, 90 millones de obras en 2007 y 130 millones de obras en
2008.

En complemento, se funda Science Commons en 2005 para definir las
estrategias y los instrumentos necesarios a la difusión en la web de la
investigación científica, y se funda también ccLearn en 2007 con la
misma meta, pero aplicada a la enseñanza.


= Dominio público y copyright

Ahora que estamos en una "sociedad de la información", parece
preocupante que el dominio público se esté encogiéndose como piel de
zapa. No hace tanto tiempo, el 50% de las obras pertenecía al dominio
público, y por lo tanto podían ser utilizadas libremente por todos. De
aquí a 2100, 99% de las obras estarían sujetas a derechos de autor, con
un escaso 1% preservado para el dominio público. Se trata de un
problema espinoso para todos aquéllos que administran bibliotecas
digitales, y afecta tanto al Proyecto Gutenberg como a Google Books.

Si bien el Proyecto Gutenberg se ha propuesto difundir gratuitamente
por vía electrónica el mayor número posible de obras del dominio
público, su tarea no es facilitada por los repetidos ataques contra el
dominio público. Michael Hart, su fundador, lleva unos treinta años
examinando esta cuestión, con la ayuda de un grupo de abogados
especialistas del derecho de autor.

En la sección "Copyright HowTo", el sitio web del Proyecto Gutenberg
detalla los cálculos que hay que hacer para determinar si un título
publicado en los Estados Unidos pertenece o no al dominio público. Las
obras publicadas antes de 1923 están sujetas a derechos de autor
durante 75 años a partir de su fecha de publicación (luego ya han
pasado hoy al dominio público). Las obras publicadas entre 1923 y 1977
están sujetas a derechos de autor durante 95 años a partir de su fecha
de publicación (o sea que ninguna pasará al dominio público hasta
2019). Una obra publicada en 1998 y en los años siguientes está sujeta
a derechos de autor durante 70 años a partir de la fecha de
fallecimiento del autor si se trata de un autor único (en este caso
ninguna obra pasará al dominio público antes de 2049), o bien durante
95 años a partir de la fecha de publicación – o 120 años a partir de la
fecha de creación – si se trata de un autor colectivo (nada antes de
2074). Así se presentan las cosas, a grandes rasgos. A estas reglas
básicas se añaden otras, tomando en cuenta que la ley de copyright ha
sido enmendada varias veces desde 1971, fecha en que se fundó el
Proyecto Gutenberg.

Mucho más restrictiva que la anterior, una nueva enmienda al copyright
fue ratificada por el Congreso el 27 de octubre de 1998 para
contrarrestar la formidable potencia del internet como vehículo de
difusión. Andando los siglos, cada avance técnico se ha acompañado de
un endurecimiento del copyright. Al parecer suele ser ésta la respuesta
de los editores frente al miedo que les inspira el acceso cada vez más
fácil al saber, porque temen que esta nueva situación les haga perder
parte de sus royalties.

Michael Hart explica en julio de 1999: "La duración del copyright ha
sido extendida de 20 años. Antes había que esperar 75 años, y ahora hay
que esperar 95 años. Mucho antes todavía, el copyright duraba 28 años
(más una extensión de 28 años sí uno la pedía antes de la expiración
del plazo), y este último modelo ya había substituido a su vez un
copyright de 14 años (más una extensión de 14 años si uno la pedía
antes de la expiración del plazo). Bien se ve entonces que asistimos a
un deterioro regular y constante del dominio público."

Las fechas evocadas por Michael son las siguientes, como lo explica en
detalle en su blog:

(a) 1790 es la fecha en la que la Corporación de impresores (es decir
los editores de la época en Inglaterra) empezó a ejercer su influencia
sobre los autores, lo que suscitó el nacimiento del copyright. El 1790
Copyright Act instituye un copyright de 14 años después de la fecha de
publicación de la obra, más una extensión de 28 años siempre y cuando
se pida antes de la expiración del plazo. Las obras que pueden
imprimirse legalmente pasan de repente de 6.000 a 600, y nueve de cada
diez títulos desaparecen de las librerías. Unos 335 años después del
nacimiento de la imprenta, cuya misión - se suponía - era abrir las
puertas del saber a todos, el mundo del libro deja de estar bajo el
control de los autores para caer en manos de los editores. Esta nueva
legislación también se lleva a efecto en los Estados Unidos y en
Francia.

(b) En 1831 es cuando tiene lugar el primer fortalecimiento del
copyright para compensar la reedición de vastas colecciones del dominio
público en las nuevas prensas de vapor. El 1831 Copyright Act instituye
un copyright de 28 años tras la fecha de publicación de la obra, más
una extensión de 14 años siempre y cuando se pida antes de la
expiración del plazo, a saber un total de 42 años.

(c) En 1909 es cuando tiene lugar un segundo fortalecimiento del
copyright para compensar la reedición de las colecciones del dominio
público en las nuevas prensas eléctricas. El 1909 Copyright Act duplica
el periodo de copyright, que se extiende a 28 años, o sea en total un
plazo de 56 años.

(d) En 1976 es cuando interviene un nuevo fortalecimiento del copyright
tras la aparición de la fotocopiadora lanzada por Xerox. El 1976
Copyright Act instituye un copyright de 50 años tras el fallecimiento
del autor. Por tanto, cualquier copyright vigente antes del 19 de
septiembre de 1962 no iba a expirar antes del 31 de diciembre de 1976.

(e) En 1998 es cuando tiene lugar otro fortalecimiento del copyright
debido al desarrollo rápido de las tecnologías digitales y a los
cientos de miles de obras disponibles a partir de entonces en CD o DVD
y en la web, gratuitamente o a precios muy bajos. El 1998 Copyright Act
extiende la duración del copyright a 70 años después del fallecimiento
del autor, para proteger el imperio de Disney (por eso se suele hablar
del Mickey Mouse Copyright Act) y el de varias multinacionales
culturales.

Por tomar sólo un ejemplo, el clásico mundial "Lo que el viento se
llevó" (Gone With the Wind) de Margaret Mitchell, publicado en 1939,
debería haber pasado al dominio publico al cabo de 56 años, en 1995, de
conformidad con la legislación de la época, liberando de este modo los
derechos para adaptaciones de todo tipo. Debido a las modificaciones
legales de 1976 y 1998, este clásico no habrá de pasar al dominio
público antes del año 2035.

La legislación de 1998 fue un golpe muy duro para las bibliotecas
digitales, en pleno crecimiento gracias al desarrollo de la web, y
escandalizó a sus administradores, empezando por Michael Hart y John
Mark Ockerbloom, creador de la Online Books Page. ¿Pero cómo dar la
talla frente a eminencias del mundo editorial? Desgraciadamente hubo
que sacar de las colecciones parte de los libros.

Michael escribió en julio de 1999: "Yo fui el principal enemigo de las
extensiones de copyright (ley del 27 de octubre de 1998), pero
Hollywood y los principales editores actuaron de tal modo que el
Congreso ni siquiera mencionó mi acción en público. Los debates
actuales son totalmente irrealistas. Van encabezados por 'la
aristocracia terrateniente de la edad de la información' y sirven
únicamente sus propios intereses. ¿Una edad de la información? ¿Y para
quién entonces?"

No cabe duda. Las instancias políticas no dejan de hablar de la edad de
la información mientras que, al mismo tiempo, son ellas las que
fortalecen la legislación relativa a la puesta a disposición de dicha
información. La contradicción es obvia. El copyright ha pasado de una
duración de 30 años de promedio en 1909 a una duración de 95 años de
promedio en 1998, explica Michael en su blog. En 89 años, entre 1909 y
1998, el copyright ha padecido una extensión de 65 años que se aplica a
tres cuartos de la producción del siglo 20. Sólo un libro publicado
antes de 1923 puede ser considerado a ciencia cierta como parte del
dominio público.

Un endurecimiento similar afecta a los países de la Unión europea.
Ahora y en adelante, la regla general es un copyright de 70 años tras
la muerte del autor, en vez de 50 años – como solía ser antes – debido
a las presiones ejercidas por los editores de contenido con el pretexto
de "armonizar" las leyes nacionales relativas al copyright para oponer
una respuesta a la globalización del mercado.

A esto se añade la legislación sobre el copyright de las ediciones
digitales en aplicación de los tratados internacionales de la
Organización mundial de la propiedad intelectual (OMPI). Estos tratados
se firmaron en 1996 con el objetivo de controlar la gestión de los
derechos digitales.

El Digital Millenium Copyright Act (DMCA) fue ratificado en octubre de
1998 en los Estados Unidos.

La directiva de la Unión europea sobre derecho de autor (EUCD: European
Union Copyright Directive) fue ratificada en mayo de 2001 por la
Comunidad europea. Su título exacto es "Directiva 2001/29/EC del
Parlamento europeo y el Consejo sobre la armonización de ciertos
aspectos del derecho de autor y derechos relacionados en la sociedad de
la información". Se inscribe en la continuación de la directiva de
febrero de 1993 (Directiva 93/98/EEC) cuyo objeto era armonizar las
legislaciones de los diferentes países en materia de protección del
derecho de autor. La directiva EUCD va entrando poco a poco en vigor en
todos los países de la Unión europea, con la elaboración de una
legislación nacional, el objetivo oficial siendo el de reforzar el
respeto de los derechos de autor en el internet para limitar así el
pirateo. En Francia por ejemplo, la ley DADVSI (Derecho de autor y
derechos vecinos en la sociedad de la información - Droit d'auteur et
droits voisins dans la société de l'information) fue promulgada en
agosto de 2006, y no dejó de levantar polvareda.



2002: LA WEB SE CONVIERTE EN UNA VASTA ENCICLOPEDIA


= [Resumen]

En 2002, el MIT (Massachusetts Institute of Technology) decide publicar
en línea el contenido de sus clases, con acceso libre y gratuito,
privilegiando así la difusión libre del saber. La versión piloto del
MIT OpenCourseWare se puso en línea en septiembre de 2002 ofreciendo
libre acceso al material de estudio de 32 cursos representativos de las
cinco escuelas del MIT. El material de estudio se compone de textos de
conferencias, trabajos prácticos, ejercicios con las soluciones
correspondientes, bibliografías, documentos audio y videos, etc. Al
mismo tiempo, la Public Library of Science implementa revistas
científicas de alto nivel en línea. En lo que a las enciclopedias se
refiere, Wikipedia abre el paso en 2001, lanzando una enciclopedia
escrita colectivamente y cuyo contenido puede ser reutilizado
libremente. Wikipedia es redactada por miles de voluntarios, con
posibilidad para cada contribuidor de corregir y completar los
artículos, tanto los suyos propios como los de otros contribuidores.
Luego siguen otras enciclopedias como Citizendium y la Encyclopedia of
Life.


= Hacia un saber digital

Vinton Cerf explica en el sitio de la Internet Society (ISOC), fundada
a iniciativa suya en 1992 para promover el desarrollo del internet: "La
red permite dos cosas (...): como los libros, permite acumular
conocimientos. Pero sobre todo presenta este conocimiento bajo una
forma que lo relaciona con otra información. Mientras que en un libro
la información queda aislada."

Además la información contenida en los libros sigue siendo la misma
siempre, al menos durante determinado periodo de tiempo, mientras que
el internet privilegia la información más reciente y constantemente
actualizada.

Con ocasión de una conferencia organizada por la Federación
internacional del tratamiento de la información (IFIP: International
Federation of Information Processing) en septiembre de 1996, Dale
Spender, profesora y investigatora, intenta destacar los cambios
fundamentales aportados por el internet en la adquisición del saber y
los métodos de enseñanza. He aquí un resumen de su argumentación en dos
párrafos.

Durante los quinientos últimos años, la enseñanza se basaba
principalmente en la información contenida en los libros. Ahora bien
las costumbres vinculadas con el documento impreso no se pueden
transferir al mundo digital. La enseñanza online ofrece posibilidades
tan novedosas que ya casi no es posible efectuar las distinciones
tradicionales entre docente y alumno. El paso de la cultura impresa a
la cultura digital exige reconsiderar enteramente el proceso de
enseñanza, ya que ahora tenemos la oportunidad sin precedente de poder
influir sobre el tipo de enseñanza que deseamos.

Con la cultura impresa, la información contenida en los libros seguía
siendo la misma durante bastante tiempo, lo que nos ha incitado a
pensar que la información era estable. La misma naturaleza de lo
impreso está vinculada con la noción de verdad, que también es estable.
Esta estabilidad y el orden que engendra ha sido uno de los fundamentos
de la edad industrial y de la revolución científica. Las nociones de
verdad, de leyes, de objetividad y de pruebas han sido los elementos de
referencia de nuestras creencias y de nuestras culturas. Pero la
revolución digital lo cambia todo. De repente la información en línea
suplanta la información impresa para convertirse en la más fiable y la
más útil, y el usuario está dispuesto a pagarla en consecuencia. Es
esta transformación radical en la naturaleza de la información la que
debe estar en el centro del debate sobre los métodos de enseñanza.

Así lo demuestra la experiencia de Russon Wooldridge, profesor en el
departamento de estudios franceses de la Universidad de Toronto
(Canadá), quien relata en febrero de 2001: “Todo mi método de enseñanza
aprovecha a lo máximo los recursos del internet (la web y el correo
electrónico): los dos lugares comunes son el aula de clase y el sitio
web del curso, en el cual coloco todo el material didáctico. Pongo a
disposición en la web todos los datos de mi labor de investigación de
los últimos veinte años (reedición de libros, artículos, texto integral
de diccionarios antiguos en bases de datos interactivas, de tratados
del siglo 16, etc.). Publico actas de coloquios, edito un periódico,
colaboro con colegas franceses, poniendo en línea en Toronto lo que
ellos no pueden publicar en línea en su país. En mayo de 2000 organicé
en Toronto un coloquio internacional sobre 'Los estudios franceses
valorizados por las nuevas tecnologías' (Les études françaises
valorisées par les nouvelles technologies). (...)

Me doy cuenta de que sin el internet mis actividades serían mucho más
limitadas, o al menos serían muy diferentes de lo que son en la
actualidad. Luego no me imagino el futuro sin el internet. Pero es
esencial que aquéllos que creen en la libre difusión del conocimiento
cuiden de que el saber no se deje dominar por los intereses
comerciales, que buscan sobre todo venderlo. Lo que está ocurriendo en
Francia en el mundo de la edición de libros, donde las librerías ya
casi no ofrecen más que manuales escolares o libros para preparar
oposiciones (como ocurrió por ejemplo con la lingüística), debe
evitarse en la web. Si uno anda buscando el saber desinteresado, no
acudirá a sitios web como amazon.com. En mi sitio web, me niego a
aceptar cualquier tipo de sponsor."


= Algunos proyectos pilotos

# Clases del MIT

Profesor en la Universidad de Ottawa (Canadá), Christian Vandendorpe
acoge con entusiasmo en mayo de 2001 "la decisión del MIT
(Massachusetts Institute of Technology) de cargar todo el contenido de
sus cursos en la web en un plazo de diez años, poniéndolo a disposición
de todos de forma gratuita. Entre las tendencias a la privatización del
saber y las que preconizan el saber compartido y abierto a todos, creo
que a fin de cuentas esta última opción es la que llegará a triunfar."
En efecto el MIT decide publicar el contenido de sus clases en línea,
con acceso libre y gratuito, una iniciativa que se llevó a cabo con el
apoyo financiero de la Hewlett Foundation y de la Mellon Foundation.

La versión piloto del MIT OpenCourseWare (MIT OCW) fue puesta en línea
en septiembre de 2002. Ofrece acceso libre al material de estudio de 32
cursos representativos de cinco escuelas del MIT. El material de
estudio se compone de textos de conferencias, trabajos prácticos,
ejercicios con las soluciones correspondientes, bibliografías,
documentos audio y videos, etc. El lanzamiento oficial del sitio web se
concretiza un año más tarde, en septiembre de 2003, proponiendo acceso
a unos cien cursos. En marzo de 2004, están disponibles 500 cursos
relativos a 33 asignaturas diferentes. En mayo de 2006, están
disponible 1.400 cursos para 34 asignaturas. Finalmente, en noviembre
de 2007 es posible consultar en línea la totalidad de los 1.800 cursos
impartidos por el MIT y actualizados con frecuencia. Algunas clases se
han traducido al español, al portugués y al chino con ayuda de otros
organismos.

La esperanza del MIT es que esta experiencia de publicación electrónica
– la primera de este género – permita definir un estándar y un método
de publicación, e incite a otras universidades a crear un
OpenCourseWare para proporcionar libre acceso a sus propias clases. Un
OpenCourseWare puede definirse como la publicación electrónica en libre
acceso del material didáctico de un conjunto de clases. A tal efecto,
el MIT lanza el OpenCourseWare Consortium (OCW Consortium) en diciembre
de 2005, que proporciona acceso libre y gratuito al material didáctico
de cien universidades en el mundo, un año más tarde.

# Public Library of Science

En la era del internet, parece bastante vergonzoso que algunos editores
especializados se apoderen del fruto de trabajos de investigación –
trabajos originales y que requieren largos años de esfuerzo – para
enriquecerse vendiéndolo a precio de oro. La actividad de los
investigadores suele ser costeada con dinero público, y esto de manera
substancial en Norteamérica. Por lo tanto parecería normal que la
comunidad científica y el público llano pudieran beneficiar libremente
del resultado de estas investigaciones.

En el campo científico y médico por ejemplo, se publican cada día 1.000
nuevos artículos, y esta cifra toma en cuenta únicamente la revisión
por pares. Basándose en esta constatación, la Public Library of Science
(o sea Biblioteca pública de ciencia) se funda en octubre de 2000 en
San Francisco (California) a iniciativa de Harold Varmus, Patrick Brown
y Michael Eisen, un grupo de investigadores de las universidades de
Stanford y de Berkeley (California). La meta es oponerse a las
prácticas de la edición especializada juntando todos los artículos
científicos y médicos dentro de archivos en línea de libre acceso. En
vez de una información diseminada entre millones de informes y miles de
periódicos en línea con condiciones de acceso diferentes, un punto de
acceso único permitiría leer el contenido integral de esos artículos,
con un buscador multicriterio y un sistema de hipervínculos entre los
artículos.

Para tal efecto, la Public Library of Science hace circular una carta
abierta pidiendo que los artículos publicados por los editores
especializados sean distribuidos libremente vía un servicio de archivos
en línea, incitando a los firmantes de la carta a que promuevan a los
editores dispuestos a apoyar el proyecto. La respuesta de la comunidad
científica internacional es admirable. Durante los dos años que siguen,
unos 30.000 investigadores procedentes de 180 países diferentes firman
la carta abierta. En cuanto a los editores, aunque con mucho menos
entusiasmo, varios dan su aprobación para una distribución inmediata de
los artículos que publican, o bien para una distribución de éstos en un
plazo de seis meses. Sin embargo, en la práctica, incluso los editores
que han aprobado el proyecto formulan cantidad de objeciones para con
el nuevo modelo propuesto, de tal modo que el proyecto de archivos en
línea finalmente no ve la luz.

Otro objetivo de la Public Library of Science (PLoS) es convertirse en
editor. La PLoS funda entonces una editorial científica no comercial
que recibe en diciembre de 2002 una subvención de 9 millones de dólares
US por parte de la Moore Foundation. En enero de 2003 se constituye un
equipo editorial de alto nivel para difundir nuevos periódicos
siguiendo un modelo de edición en línea basado en la libre difusión del
saber. El primer número de PLoS Biology se edita en octubre de 2003,
con una versión en línea gratuita y una versión impresa a coste y
costas (o sea a un precio que cubre únicamente los gastos de
fabricación y de distribución pero no trae ningún beneficio). Se lanza
la PLoS Medicine en octubre de 2004. Tres nuevos títulos ven la luz en
2005: PLoS Genetics, PLoS Computational Biology y PLoS Pathogens. PLoS
Clinical Trials ve la luz en 2006. Se lanza PLoS Neglected Tropical
Diseases en el otoño de 2007 como la primera publicación científica
dedicada a las enfermedades tropicales desatendidas. Esas enfermedades
afectan a las poblaciones pobres, tanto en las zonas rurales como en
las zonas urbanas.

Todos los artículos de estos periódicos tienen libre acceso en línea,
en el sitio web de la PLoS y en PubMed Central, el servicio de archivo
en línea público y gratuito de la Biblioteca nacional de medecina
(National Library of Medicine) provisto de un buscador multicriterio.
Se abandonan las versiones impresas en 2006 para dejar paso a un
servicio de impresión a petición del usuario propuesto por la sociedad
Odyssey Press. Esos artículos pueden difundirse libremente y ser
reutilizados en otro contexto, incluso para traducciones, según los
términos de la licencia Creative Commons, es decir siempre y cuando se
mencionen los nombres de los autores y la fuente. PLoS lanza también
PLoS ONE, un foro en línea que permite la publicación de artículos
sobre cualquier tema científico o médico.

El éxito es total. Tres años después del estreno de PLoS como editor,
PLoS Biology y PLoS Medicine han alcanzado una reputación de excelencia
comparable a la de las grandes revistas Nature, Science o The New
England Journal of Medicine. PLoS recibe apoyo financiero de varias
fundaciones y a la vez implementa un modelo económico viable, con
ingresos que proceden de los costes de publicación pagados por los
autores, y también de la publicidad, de sponsors y de actividades
destinadas a los miembros de PLoS. Además PLoS desea que ese modelo
económico novedoso inspire a otros editores para crear revistas
parecidas o poner revistas ya existentes en libre acceso.

# Wikipedia

La palabra "wiki" proviene del hawaiano y significa "rápido". Un wiki
es un sitio web que permite a varios usuarios colaborar en línea sobre
un mismo proyecto. Esos usuarios pueden contribuir a la redacción del
contenido, modificarlo y enriquecerlo en cualquier momento. Se usa el
wiki por ejemplo para crear y gestionar diccionarios, enciclopedias o
también sitios web de información sobre un tema determinado. El
programa utilizado para estructurar la interfaz de un wiki puede ser
más o menos elaborado. Si es un programa sencillo permite administrar
texto e hipervínculos, mientras que un programa complejo permite
incluir imágenes, gráficos, tablas, etc. La enciclopedia wiki más
conocida es Wikipedia.

Wikipedia se creó en enero de 2001 a iniciativa de Jimmy Wales y de
Larry Sanger. Se trata de una enciclopedia gratuita colectiva y cuyo
contenido puede reutilizarse libremente. De inmediato adquiere una gran
popularidad. Esta enciclopedia cooperativa no alberga publicidad y es
financiada gracias a donaciones. La redactan miles de voluntarios –
llamados wikipedistas, y que se registran bajo un seudónimo – con
posibilidad de corregir y de completar los artículos, tanto los propios
como los de otros contribuidores. Los artículos siguen siendo propiedad
de sus autores, y su libre utilización está regida por la licencia GFDL
(GNU free documentation license).

En diciembre de 2004, Wikipedia cuenta con 1,3 millón de artículos
redactados por 13.000 contribuidores en 100 idiomas. En diciembre de
2006, cuenta con 6 millones de artículos en 250 idiomas, y llega a ser
uno de los diez sitios más visitados de la web. En mayo de 2007, la
versión francófona celebra sus 500.000 artículos. En la misma fecha,
Wikipedia cuenta con 7 millones de artículos en 192 idiomas, de los
cuales 1,8 millón en inglés, 589.000 en alemán, 260.000 en portugués y
236.000 en español.

Fundada en junio de 2003, la Wikimedia Foundation no administra sólo
Wikipedia sino también Wiktionary, un diccionario y tesoro multilingüe
lanzado en diciembre de 2002, y luego Wikibooks (libros y manuales en
proceso de redacción) lanzado en junio de 2003, a los que se añaden más
adelante Wikiquote (un repertorio de citas), Wikisource (textos del
dominio público), Wikimedia Commons (fuentes multimedia), Wikispecies
(un repertorio de especies animales y vegetales), Wikinews (sitio web
de noticias) y finalmente Wikiversity (material didáctico), lanzado en
agosto de 2006. A finales de 2007 se lanza el buscador Wiki Search, que
utiliza la red de contribuidores de Wikipedia para clasificar los
sitios web en función de su calidad.

# Citizendium

Se abre una nueva etapa al nacer Citizendium, acrónimo de "Citizens’
Compendium", o sea Compendio de los ciudadanos. Citizendium es una
enciclopedia colaborativa online concebida en noviembre de 2006 y
lanzada en marzo de 2007 (versión beta) por Larry Sanger, cofundador de
Wikipedia, pero que luego dimitió del equipo de Wikipedia debido a un
problema con la calidad del contenido.

Citizendium se fundamenta en un modelo similar al de Wikipedia
(colaborativo y gratis) pero evitando sus fallos (vandalismo y falta de
rigor). Los autores firman los artículos con su nombre verdadero y los
artículos son editados por expertos (llamados “editors” en inglés)
titulares de una licenciatura universitaria y con 25 años de edad como
mínimo. Además, hay "constables", es decir agentes encargados de velar
por la buena marcha del proyecto y de comprobar que se respetan las
reglas. El día del lanzamiento (25 de marzo de 2007), Citizendium
incluye 1.100 artículos, 820 autores y 180 expertos. En enero de 2009,
están disponibles 9.800 artículos.

En "Why Make Room for Experts in Web 2.0?", una ponencia fechada de
octubre de 2006, Larry Sanger percibe en Citizendium la emergencia de
un nuevo modelo de colaboración masiva entre decenas de miles de
intelectuales y científicos, no sólo para elaborar enciclopedias sino
también manuales didácticos, obras de referencia, documentos multimedia
y aplicaciones en 3D. Esta colaboración está basada en la idea de
compartir conocimientos, en la línea de la web 2.0, un concepto lanzado
en 2004 para caracterizar las nociones de comunidad y de reparto, y que
se manifestó primero por un brote de wikis, de blogs y de sitios web
sociales. Según Larry Sanger, también importa crear estructuras que
permitan el desarrollo de colaboraciones científicas, y Citizendium
podría servir de prototipo en ese aspecto.

# Encyclopedia of Life

Esta incitación ya parece haber cuajado con el lanzamiento en mayo de
2007 del proyecto de la Encyclopedia of Life. Una vasta enciclopedia
colaborativa online reunirá los conocimientos relativos a todas las
especies animales y vegetales conocidas (1,8 millón), incluso las
especies en vía de extinción, y a medida que se van identificando
especies nuevas se añaden a la lista (por lo visto existirían entre 8 y
10 millones de especies). Se tratará de una enciclopedia multimedia que
permitiere reunir textos, fotos, cartas, bandas sonoras y vídeos, con
una página dedicada a cada especie, y también poner a disposición un
portal único para millones de documentos esparcidos online y off-line.

Esta enciclopedia será un instrumento de aprendizaje y de enseñanza
cuyo objeto es facilitar un mejor conocimiento de nuestro planeta. Se
dirigirá a todos: científicos, docentes, estudiantes, escolares, medios
de comunicación, altos responsables y público llano.

Este proyecto colaborativo se lleva a cabo gracias a varias
instituciones importantes (Field Museum of Natural History, Harvard
University, Marine Biological Laboratory, Missouri Botanical Garden,
Smithsonian Institution, Biodiversity Heritage Library). El director
honorario es Edward Wilson, profesor emérito en la Universidad de
Harvard, quien, en un ensayo fechado de 2002, fue el primero en
formular el deseo de ver aparecer una enciclopedia como ésta. Cinco
años después, en 2007, el deseo se ha hecho realidad gracias a los
avances tecnológicos de estos últimos años, particularmente los
softwares que permiten la agregación de contenido, el mash-up (es decir
el hecho de reunir un contenido determinado a partir de fuentes
múltiples), los wikis voluminosos y la gestión de contenido a gran
escala.

En calidad de consorcio de las diez más grandes bibliotecas de ciencias
de la vida (otras también sobrevivirán), la Biodiversity Heritage
Library ya ha empezado con la digitalización de 2 millones de
documentos, cuyas fechas de publicación se extienden sobre unos
200 años. En mayo de 2007, fecha del lanzamiento oficial del proyecto,
1,25 millón de páginas ya han sido procesadas en los centros de
digitalización de Londres, Boston y Washington DC, y están disponibles
en el sitio web del Internet Archive.

La MacArthur Foundation y la Sloan Foundation proporcionan el
financiamiento inicial con 10 millones y 2,4 millones de dólares US.
100 millones de dólares son necesarios para un financiamiento en diez
años, antes de que la enciclopedia pueda autofinanciarse.

La creación de páginas web empieza en el transcurso del año 2007. La
enciclopedia nace a mediados de 2008. Será operativa en un plazo de
tres a cinco años, y debería estar completa – o sea actualizada –
dentro de diez años.

En la línea del "Human Genome Project" (Proyecto genoma humano, es
saber la secuenciación del genoma humano), publicado por primera vez en
febrero de 2001 y que de entrada ya formaba parte del dominio público,
la Encyclopedia of Life permitirá no sólo reunir todos los
conocimientos disponibles hoy en día sobre las especies animales y
vegetales, sino que será también un "macroscopio" que permitirá
descubrir las grandes tendencias a partir de un reserva considerable de
información, a diferencia del microscopio que permite un estudio del
detalle. Además de su flexibilidad y de su diversidad, permitirá a cada
uno aportar contenido bajo una forma parecida al wiki, y luego dicho
contenido será sometido a la aprobación de los científicos que podrán o
no validarlo. La versión inicial se redactará primero en inglés antes
de ser traducida a varios idiomas por futuros organismos asociados.



2003: LAS NOVEDADES ESTAN DISPONIBLES EN VERSION DIGITAL


= [Resumen]

En 2003, los libros digitales (ebooks) llegan a ocupar un lugar
significativo junto a sus homólogos impresos, con libros en formato PDF
(legible con el Adobe Reader), LIT (legible con el Microsoft Reader),
PRC (legible con el Mobipocket Reader), OeB (open ebook, legible con
muchos softwares), entre otros. Se venden cientos de best-sellers en
versión digital en Amazon.com, Barnes & Noble.com, Yahoo! eBook Store o
en los sitios web de editores (Random House, PerfectBound, etc.), para
la lectura en un ordenador o en una PDA. Numilog distribuye 3.500
títulos digitales (libros y periódicos) en francés y en inglés.
Mobipocket distribuye 6.000 ebooks en varios idiomas, en su propio
sitio web o bien en las librerías asociadas. El catálogo de Palm
Digital Media casi alcanza los 10.000 ebooks, legibles en PDA Palm y
Pocket PC, con 20 nuevos títulos a diario y 1.000 clientes nuevos por
semana.


= Adobe Reader

¿Llegarán algún día las librerías online a vender libros en versión
digital? Esto se preguntaba la gente en 1993. Diez años más tarde, ya
se ha dado el paso. El pionero en este campo fue la sociedad Adobe
(Estados Unidos).

El formato PDF (portable document format) fue lanzado en junio de 1993
por Adobe, al mismo tiempo que el Acrobat Reader, el primer software de
lectura del mercado, descargable gratuitamente para leer archivos en
formato PDF. El formato PDF permite guardar los documentos digitales
conservando un diseño determinado, con los tipos de letra, los colores
y las imágenes del documento original, sin que importe la plataforma
utilizada para crearlo y leerlo. Cualquier documento puede ser
convertido al formato PDF con ayuda del software Adobe Acrobat (de
pago).

El formato PDF se convierte con los años en un estándar internacional
de difusión de los documentos. En 2000, millones de documentos PDF
están presentes en la web para la lectura o la descarga, y transitan
también por correo electrónico. El Acrobat Reader para ordenador está
disponible en varios idiomas y para varias plataformas (Windows, Mac,
Unix, Linux).

Adobe anuncia en agosto de 2000 la adquisición de Glassbook, una
sociedad especializada en software de distribución de libros digitales
destinados a los editores, libreros, distribuidores y bibliotecas.
Adobe firma también un acuerdo con Amazon.com y Barnes & Noble.com,
para que propongan títulos legibles en el Acrobat Reader y el Glassbook
Reader.

En enero de 2001, Adobe lanza dos nuevos softwares.

El primero, el Acrobat eBook Reader, es gratuito. Permite leer archivos
PDF de libros digitales sometidos a derechos de autor. Los derechos se
gestionan mediante el Adobe Content Server. También permite añadir
notas y marcadores, escoger la disposición de lectura de los libros
(páginas individuales o modo libro – o sea páginas opuestas), y también
visualizar las cubiertas en una biblioteca personal. El programa
utiliza la técnica de visualización CoolType y contiene un diccionario
integrado.

El segundo software, de pago, es el Adobe Content Server, destinado
esta vez a los editores y distribuidores. Este software es un servidor
de contenido que garantiza el acondicionamiento, la protección, la
distribución y la venta segurizada de libros digitales en formato PDF.
Este sistema de gestión de los derechos digitales (DRM: digital rights
management) permite controlar el acceso a los libros digitales
sometidos a derechos de autor, y por lo tanto gestionar los derechos de
un libro según las consignas dadas por el gestor de los derechos,
autorizando o no, por ejemplo, la impresión o el préstamo. El Adobe
Content Server será sustituido por el Adobe LiveCycle Policy Server en
noviembre de 2004.

En abril de 2001, Adobe se asocia con Amazon.com, que pone a la venta
2.000 libros digitales legibles con el Acrobat eBook Reader: títulos de
grandes editores, guías de viaje, libros para niños, etc.

Un Acrobat Reader puede utilizarse para PDA, en el Palm Pilot (en mayo
de 2001) y luego en el Pocket PC (en diciembre de 2001).

En diez años, entre 1993 y 2003, se estima que el 10% de los documentos
presentes en la web está en formato PDF y que el Acrobat Reader ha sido
descargado 500 millones de veces. En 2003, este software está
disponible para todas las plataformas (Windows, Mac, Linux, Unix, Palm
OS, Pocket PC, Symbian OS, etc.). El formato PDF también es el formato
de libro digital más difundido.

En mayo de 2003, el Acrobat Reader (5ª versión) fusiona con el Acrobat
eBook Reader (2ª versión) para convertirse en el Adobe Reader (que
empieza con la versión 6). Éste permite leer tanto los archivos PDF
estándar como los archivos PDF segurizados.

A finales de 2003, Adobe estrena su propia librería online, Digital
Media Store, con los títulos en formato PDF de grandes editores
(HarperCollins Publishers, Random House, Simon & Schuster, etc.) así
como las versiones electrónicas de algunos diarios y revistas (New York
Times, Popular Science, etc.).

Adobe lanza también Adobe eBooks Central, un servicio que permite leer,
publicar, vender y prestar libros digitales, y el Adobe eBook Library,
un prototipo de biblioteca de libros digitales.

Las versiones recientes de Adobe Acrobat permiten crear PDF compatibles
con los formatos OeB (open ebook) y ePub (que sucedió a OeB), que se
han convertido también en estándares de libro digital.


= Open eBook y ePub

Los años 1998 y 1999 son marcados por la proliferación de los formatos,
pues cada uno empezó a lanzar su propio formato de libro digital en el
marco de un mercado incipiente prometido a una expansión rápida.

A los formatos clásicos – formatos TXT (texto), DOC (Word), HTML
(hypertext markup language), XML (extensible markup language) y PDF
(portable document format) – se añaden formatos propietarios creados
por varias sociedades para ser leídos en sus propios softwares y
aparatos: Glassbook Reader, Peanut Reader, Rocket eBook Reader (para el
Rocket eBook), Franklin Reader (para el eBookMan), programa de lectura
Cytale (para el Cybook), Gemstar eBook Reader (para el Gemstar eBook) ,
Palm Reader (para el Palm Pilot), etc.

Algunas personas empiezan a preocuparse por el porvenir del libro
digital – recién nacido, éste ya ofrece casi tantos formatos como
títulos – insistiendo en el interés, si no en la necesidad de un
formato único.

A instigación del Instituto nacional de estándares y tecnología (NIST:
National Institute of Standards & Technology) en los Estados Unidos, el
Open eBook Initiative ve la luz en junio de 1998 y constituye un grupo
de trabajo de 25 personas, el Open eBook Authoring Group. Este grupo
elabora el OeB (open ebook), un formato de libro digital basado en el
lenguaje XML (extensible markup language) y destinado a normalizar el
contenido, la estructura y la presentación de los libros digitales.

El formato OeB es definido por el OeBPS (open ebook publication
structure), cuya versión 1.0 está disponible a partir de septiembre de
1999. De descarga gratuita, el OeBPS dispone de una versión de dominio
público, abierta y gratuita. La versión original se dirige más bien a
los profesionales de la publicación ya que debe estar asociada con una
tecnología normalizada de gestión de los derechos digitales (DRM:
digital rights management) que permita controlar el acceso a los libros
digitales sometidos a derechos de autor.

Fundado en enero de 2000, el OeBF (Open eBook Forum) sustituye la Open
eBook Initiative. Se trata de un consorcio industrial internacional que
reúne a constructores, diseñadores de software, editores, libreros y
especialistas digitales (85 miembros en 2002) con el propósito de
desarrollar el formato OeB (open ebook) y el OeBPS (open ebook
publication structure). El formato OeB se convierte en un estándar y
sirve de base para otros formatos, por ejemplo el formato LIT (para el
Microsoft Reader) o el formato PRC (para el Mobipocket Reader).

En abril de 2005, el Open eBook Forum se convierte en el Foro
internacional de la edición digital (IDPF: International Digital
Publishing Forum) y el formato OeB deja paso al formato ePub.


= Microsoft Reader

Lanzado en abril de 2000, el Microsoft Reader es un software que
permite la lectura de libros digitales en formato LIT, basado en el
formato OeB (open ebook). LIT es la abreviatura de la palabra inglesa
"literature".

En un primer momento, el Microsoft Reader sólo es compatible con el
Pocket PC, el asistente personal (PDA) lanzado en la misma fecha por
Microsoft. Cuatro meses más tarde, en agosto de 2000, el Microsoft
Reader se puede utilizar en cualquier plataforma Windows, o sea tanto
en un ordenador como en una PDA. Se caracteriza por su sistema de
visualización basado en la tecnología ClearType, la elección del tamaño
de las letras, la memorización de las palabras claves para búsquedas
ulteriores, y el acceso al Merriam-Webster Dictionary con un simple
clic.

Como este software se puede descargar gratuitamente, Microsoft factura
a los editores y distribuidores por la utilización de su tecnología de
gestión de los derechos digitales (DRM: digital rights management), y
cobra una comisión sobre la venta de cada título. La gestión de los
derechos digitales se efectúa mediante el Microsoft DAS Server (DAS:
digital asset server).

Microsoft también establece acuerdos con las grandes librerías online –
Barnes& Noble.com en enero de 2000 y Amazon.com en agosto de 2000 –
para la venta de libros digitales legibles en el Microsoft Reader.
Barnes & Noble.com abre su sección de eBooks en agosto de 2000, seguido
por Amazon.com en noviembre de 2000.

El Microsoft Reader para Tablet PC está disponible en noviembre de
2002, cuando 14 fabricantes empiezan a comercializar esta nueva
máquina.


= Mobipocket Reader

Frente a Adobe (con el formato PDF, legible en el Acrobat Reader) y
Microsoft (con el formato LIT, legible en el Microsoft Reader), se
impone rápidamente un nuevo actor, en un nicho de mercado bien
específico: el de las PDA. Fundada en París por Thierry Brethes y
Nathalie Ting en marzo de 2000, la sociedad Mobipocket se especializa
de entrada en la lectura y la distribución segurizada de libros para
PDA. La sociedad es financiada en parte por Viventures, una
ramificación de la multinacional francesa Vivendi.

Mobipocket concibe el software de lectura Mobipocket Reader, que
permite leer archivos en formato PRC (Palm resource). Gratuito y
disponible en varios idiomas (francés, inglés, alemán, español,
italiano), este software es "universal", es decir que se puede usar en
cualquier PDA.

En octubre de 2001, el Mobipocket Reader recibe el eBook Technology
Award (Precio de tecnología para ebooks) de la Feria internacional del
libro de Fráncfort (Alemania). En la misma fecha, Franklin firma un
acuerdo con Mobipocket: éste prevé la instalación del Mobipocket Reader
en el eBookMan, la PDA multimedia de Franklin, en vez de la
colaboración prevista originariamente entre Franklin y Microsoft para
la instalación del Microsoft Reader.

El Mobipocket Reader es gratuito. Dos otros softwares de Mobipocket
están de pago. El Mobipocket Web Companion es un software de extracción
automática de contenido utilizable en sitios de prensa asociados. El
Mobipocket Publisher permite a los particulares (versión privada
gratuita o versión estándar de pago) y a los editores (versión
profesional de pago) generar libros digitales segurizados que utilizan
la tecnología Mobipocket DRM, con el fin de controlar el acceso a los
libros digitales sometidos a derechos de autor. Para permanecer abierto
a otros formatos, el Mobipocket Publisher permite generar libros
digitales no sólo en formato PRC, legible con el Mobipocket Reader,
sino también en formato LIT, legible con el Microsoft Reader.

El Mobipocket Reader ya se podía utilizar en cualquier PDA. En abril de
2002 es compatible con cualquier ordenador y plataforma gracias al
lanzamiento de nuevas versiones para ordenador personal.

En la primavera de 2003, el Mobipocket Reader equipa las PDA Palm
Pilot, Pocket PC, eBookMan y Psion, sin olvidar los smartphones de
Nokia y Sony Ericsson. En la misma fecha, el número de libros legibles
en el Mobipocket Reader se cifra en 6.000 títulos en varios idiomas
(francés, inglés, alemán, español), distribuidos en el sitio web de
Mobipocket, o en las librerías asociadas.

Amazon.com compra Mobipocket en abril de 2005, lo que permite a Amazon
ampliar mucho su catálogo de ebooks, en previsión del lanzamiento de su
propia tableta de lectura, el Kindle, en noviembre de 2007.


= Numilog

Numilog abre sus puertas "virtuales" en octubre de 2000 para
convertirse pocos años más tarde en la librería digital francófona más
amplia de la red.

En febrero de 2001, Denis Zwirn, presidente de Numilog, relata: "Ya
desde 1995, había ideado y diseñado modelos de lectores electrónicos
que permitieran al lector llevar consigo toda su biblioteca y que
pesaban lo mismo que un libro de bolsillo. A principios de 1999, he
retomado ese proyecto con un amigo especialista en la creación de
sitios web, porque me di cuenta de que era posible llevar a cabo la
increíble sinergia entre los lectores electrónicos portátiles y el
desarrollo del internet, pues con la red se hacía posible encaminar
libros desmaterializados hacia cualquier rincón del mundo en unos pocos
minutos."

En el sito web de Numilog "hemos creado una base de libros accesibles a
través de un buscador. Cada libro está asociado con una ficha que
contiene un resumen y un fragmento. Basta con unos clics para comprar
el libro en línea con tarjeta de crédito, y recibirlo luego un enlace
por correo electrónico para descargarlo."

Más adelante el sitio web ofrece nuevas funcionalidades, por ejemplo
una "auténtica venta por capítulo (los capítulos vendidos
individualmente son tratados como elementos que forman parte de la
ficha de cada libro, y no como libros a parte) y una gestión muy
ergonómica de los múltiples formatos de lectura".

La actividad de la sociedad, fundada en abril de 2000 - seis meses
antes del estreno de la librería -, en realidad es una actividad
triple: librería online, estudio de fabricación y difusor.

"Numilog es antes de todo una librería online de libros digitales,
explica Denis en 2001. Nuestro sitio web está dedicado a la venta
online de esos libros: después de haberlos pagado en línea, el cliente
los recibe por correo electrónico, o bien los puede descargar del sitio
web. También es posible comprar libros por capítulos. Además Numilog es
un estudio de fabricación de libros digitales: hoy en día, los libros
digitales no existen dentro de las editoriales, por lo tanto, antes de
poder venderlos hay que generarlos, en el marco de contratos negociados
con los editores poseedores de los derechos. Esto significa que hay que
convertirlos a formatos compatibles con los diferentes 'readers'
(softwares de lectura) del mercado. (...) Por último, Numilog también
se va convirtiendo en difusor. Es importante que estemos presentes en
varios puntos en la red para dar a conocer nuestra oferta.
Especialmente con los libros, conviene presentárselos a diferentes
sitios web temáticos o comunitarios, cuyos centros de interés
corresponden a los temas de los que tratan (sitios web de fans de
historia, de management, de ciencia ficción...). De esta manera Numilog
facilitará la elaboración de múltiples 'tiendas de libros digitales'
temáticas."

Los libros de Numilog se reparten en tres grandes categorías – saberes,
guías prácticas y literatura – y están disponibles en varios formatos:
formato PDF para la lectura en el Acrobat Reader, formato LIT para la
lectura en el Microsoft Reader y formato PRC para la lectura en el
Mobipocket Reader.

En septiembre de 2003, el catálogo incluye 3.500 títulos digitales
(libros y periódicos) en francés y en inglés, gracias a una
colaboración con unos cuarenta editores. El objetivo a largo plazo es
"permitir a un público de internautas cada vez más amplio tener acceso
progresivamente a bases de libros digitales tan importantes como las de
los libros impresos, pero con más modularidad, riqueza de utilización y
menor coste".

Con el pasar de los años, Numilog se convierte en la principal librería
francófona de ebooks, tras la firma de acuerdos con numerosos editores:
Gallimard, Albin Michel, Eyrolles, Hermès Science, Pearson Education
France, etc. Numilog propone también audiolibros digitales legibles con
una síntesis de voz. Por otra parte, se estrena una librería anglófona
tras la firma de acuerdos de difusión con varios editores de habla
inglesa: Springer-Kluwer, Oxford University Press, Taylor & Francis,
Kogan Page, etc. Los diferentes formatos propuestos permiten la lectura
de los ebooks en cualquier aparato electrónico: ordenador, PDA,
teléfono móvil, smartphone, etc.

La sociedad también es prestadora de servicios para las tecnologías DRM
(digital rights management), es decir los sistemas de gestión de los
derechos digitales que permiten controlar el acceso a los ebooks
sometidos a derechos de autor. Se trata por ejemplo de decidir si se
autoriza o no la impresión o el préstamo, según las directivas dadas
por el gestor de los derechos.

En 2004, Numilog implementa un sistema de biblioteca en línea adaptado
al préstamo de ebooks. Este sistema se dirige sobre todo a las
bibliotecas, administraciones y empresas.

En enero de 2006, Numilog se asocia con la ciudad de Boulogne-
Billancourt (cerca de París) para lanzar una versión experimental de la
Biblioteca digital para la discapacidad (BnH: Bibliothèque numérique
pour le handicap).

En diciembre de 2006, el catálogo de Numilog incluye 35.000 ebooks
gracias a una cooperación con 60 editores.

En enero de 2009, tras haberse convertido en una filial de Hachette
Livre (en mayo de 2008), Numilog llega a representar - en calidad de
distribuidor digital - a unos 100 editores francófonos y anglófonos,
con un catálogo de 50.000 libros digitales, distribuidos a los
particulares y a las bibliotecas. Además Numilog propone a las
librerías un modelo de sitio web personalizado adaptado a la venta de
los libros digitales.



2004: LOS AUTORES ESTAN CREATIVOS EN LA WEB


= [Resumen]

En 2004, muchos autores están de acuerdo para reconocer los beneficios
del internet, tanto en cuanto a la búsqueda de información, a la
difusión de sus propias obras, como a los intercambios con los lectores
y la colaboración con otros creadores. Algunos escritores apasionados
por las nuevas tecnologías actúan como exploradores, poniendo de
manifiesto las posibilidades que abre el hipervínculo. Las tecnologías
digitales dan origen a varios géneros: novela multimedia, narrativa
hipertextual, novela hipermedia, sitio web de escritura hipermedia,
email-novela, etc. Una verdadera literatura digital – llamada también
literatura electrónica o ciberliteratura – ha empezado ya a sacudir la
literatura tradicional aportándole un aliento nuevo, e integrándose a
la vez a otras formas artísticas ya que el soporte digital favorece la
fusión del escrito con la imagen y el sonido.


= Poesía

Poeta y artista plástica, Silvaine Arabo vive en la región Poitou-
Charentes (en la costa oeste de Francia). En mayo de 1997, crea uno de
los primeros sitios web francófonos dedicados a la poesía, "Poésie
d’hier et d’aujourd’hui" (Poesía de ayer y hoy), en la que propone
numerosos poemas, incluso los suyos.

En junio de 1998, cuenta: "Soy poeta, pintora y profesora de letras (he
publicado 13 poemarios, así como dos libros de aforismos y un ensayo
sobre el tema 'poesía y trascendencia'; en cuanto a la pintura, he
expuesto mis cuadros en París – dos veces – y también fuera de la
capital). (...) En lo que al internet se refiere, soy autodidacta (no
he seguido ningún tipo de formación informática). Se me ocurrió
construir un sitio web literario centrado en la poesía: el internet me
parece un medio privilegiado para hacer circular ideas, y también para
comunicar sus pasiones. Entonces me he puesto a trabajar, muy
empíricamente, y al final he obtenido este sitio en la que intento
valorar a poetas contemporáneos talentosos, sin olvidar la necesidad de
tomar perspectiva (sección 'Reflexiones sobre la poesía') respecto al
objeto de estudio. (...) Por otra parte, el internet me ha puesto en
contacto con otros poetas, y debo decir que algunos son muy
interesantes. Esto me permite romper el círculo de la soledad e
intercambiar ideas. Así una también se pone a prueba. Luego esta
experiencia puede servir para fomentar la creatividad y reanimar las
motivaciones de los poetas porque éstos comprenden que gracias al
internet llegarán a ser leídos e incluso, en el mejor de los casos,
podrán corresponder con sus lectores y pedir su opinión sobre los
textos. Personalmente no veo más que aspectos positivos en la promoción
de la poesía por el internet, tanto para el lector como para el
creador."

Muy pronto, su sitio "Poésie d’hier et d’aujourd’hui" cobra forma de
una ciberrevista. Cuatro años más tarde, en marzo de 2001, Silvaine
Arabo crea una segunda revista, "Saraswati: revue de poésie, d’art et
de réflexion" (Saraswati: una revista de poesía, de arte y de
reflexión), esta vez en forma impresa. Las dos revistas "se
complementan y de verdad conviene consideradas como una pareja
indisociable".


= Fábulas

Fundada en 1992 por Nicolas y Suzanne Pewny, cuando eran libreros en
Alta Saboya (en el sureste de Francia), Le Choucas es una pequeña
editorial especializada en novelas policíacas, literatura, libros de
fotos y libros de arte. Aunque es antes de todo un editor comercial,
Nicolas Pewny también insiste en mantener actividades no comerciales
para dar a conocer autores poco difundidos, por ejemplo Raymond
Godefroy, escritor-campesino normando, que desesperaba de que algún
editor aceptara publicar su libro de fábulas, "Fables pour l’an 2000"
(Fábulas para el año 2000). Pocos días antes de 2000, Nicolas Pewny
logra un hermoso diseño para esas fábulas y publica el libro en línea
en el sitio web de Le Choucas.

Raymond Godefroy escribe en diciembre de 1999: "El internet representa
para mi un formidable instrumento de comunicación que nos libra de
intermediarios, de barreras doctrinarias y de los intereses de los
medios de comunicación vigentes. Gracias al interet los hombres,
sometidos a leyes cósmicas comunes, aprenderán a conocerse mejor los
unos a los otros, e irán adquiriendo así esta consciencia de lo
colectivo, y la de pertenecer a un mismo mundo frágil en el que querrán
vivir en armonía sin destruirlo. La red es exactamente como la lengua
de Esopo: es a la vez la mejor y la peor cosa, según el uso que de ella
se haga. En mi caso, espero que me permita librarme en parte de la
edición y distribución tradicional, porque aunque estemos en vísperas
del nuevo milenio, éstas están absolutamente cerradas a cualquier
cambio y padecen una crisis de intolerancia."

La sexta fábula de la tercera parte de "Fables pour l’an 2000", llamada
"Le poète et l’éditeur" (El poeta y el editor), es sin duda de índole
autobiográfico y relata con exactitud las angustias por las que pasa el
poeta en busca de un editor. Como Raymond sigue atraído por el papel,
autoedita una versión impresa de sus fábulas en junio de 2001, bajo un
título levemente diferente, "Fables pour les années 2000" (Fábulas para
los años 2000), ya que por entonces ya se ha alcanzado el hito de 2000.


= Novelas policíacas

Michel Benoît vive en Montreal (Quebec). Autor de cuentos y relatos
policíacos, y de historias fantásticas, utiliza el internet para
ampliar sus perspectivas y para abolir tiempo y distancia. Escribe en
junio de 2000: "El internet se me ha impuesto como instrumento de
búsqueda y de comunicación, esencialmente. No, esencialmente no.
Apertura sobre el mundo también. Si uno piensa 'búsqueda', piensa
también 'información'. Mire, si uno piensa 'escritura', 'reflexión',
piensa también 'conocimiento', 'búsqueda'. Por lo tanto uno acude a la
red por cualquier motivo, por una idea, una imagen, una explicación, un
discurso pronunciado veinte años atrás, un cuadro de pintura expuesto
en un museo al otro lado del mundo. Cualquier persona puede inspirarle
una idea a alguien sin haberlo visto nunca, y recibir a su vez las
ideas de otros. La red pone el mundo entero al alcance del ratón. Uno
podría pensar que se trata de un perfecto cliché. Puede ser, excepto si
uno se consciencia de todo lo que eso implica: la instantaneidad, la
información inmediata en el acto, sin más necesidad de hurgar en
papeles, de pasarse horas investigando. Uno está haciendo, produciendo
algo. Necesita alguna información. Ya anda a buscarla, en el acto.
Además, ahora tenemos acceso a las bibliotecas más grandes, a los
periódicos más importantes, a los museos más prestigiosos. (...)

Gracias a la interrelación con la red me puedo imaginar un próspero
futuro profesional - más rápido, más completo, más productivo. Me veo
haciendo en una semana lo mismo que antes habría tardado meses en
terminar - más lindo, más estético. Me veo llevando a cabo con éxito
trabajos más refinados, de factura más profesional, incluso y sobre
todo en campos conexos, como la tipografía, un terreno en el que no
tengo ningún conocimiento: la presentación, el traslado de textos, por
ejemplo, con el trabajo simultáneo de varias personas aunque estén
viviendo en continentes diferentes. Llegar en unas horas a un consenso
sobre un proyecto, mientras que antes del internet, se habrían
necesitado varias semanas – o incluso meses para los francófonos.
Cuanto más complejo se vaya haciendo el internet, más provechosa,
necesaria y esencial se hará la utilización de la red."

Alain Bron es consultor en sistemas de información y escritor. El
internet es uno de los "personajes" de su segunda novela "Sanguine sur
toile" (NDLT, el título es un juego de palabras, véase más abajo),
publicada en versión impresa por la editorial Le Choucas en 1999 y en
versión digital (formato PDF) por la editorial 00h00 en 2000.

Alain escribe en noviembre de 1999: "La palabra 'toile' se refiere al
lienzo del pintor, y también significa 'telaraña'. Es la palabra que se
usa para referirse a la red (la telaraña electrónica). La palabra
'sanguine' se refiere a la sanguina (técnica de dibujo con lápiz rojo)
y también significa 'sanguínea' (de sangre), o sea una muerte brutal.
¿Pero será posible justificar un asesinato por el amor a los colores?
'Sanguine sur toile' evoca la historia singular de un internauta
atrapado en la tormenta de su propio ordenador, manipulado a distancia
por un misterioso interlocutor cuya única obsesión es vengarse.

Quise introducir al lector en los universos de la pintura y de la
empresa, dos universos que se entrelazan, se escapan, y después se
juntan en el fulgor de los programas. Le toca al lector investigar por
su propia cuenta para intentar desenredar los hilos que la sola pasión
ha ido tejiendo. Para penetrar este misterio, tendrá que contestar
múltiples preguntas. A pesar de que tenga el mundo en la punta de los
dedos, ¿no será el internauta la persona más sola del mundo? Y para
combatir la competencia actual, ¿hasta dónde puede llegar la empresa en
la violencia? ¿Tiende la pintura a reproducir un mundo o bien a crear
otro? En fin, quise mostrar que las imágenes no son tan inocentes. Se
pueden utilizar para actuar, e incluso para matar. (...) En la novela,
el internet es un personaje en sí. En lugar de describirla en su
complejidad técnica, el autor presenta la red como un ser unas veces
amenazador, otras veces atento, y capaz de manejar el humor. No
olvidemos que la pantalla del ordenador desempeña un papel doble:
mostrar y ocultar. Ésta es la ambivalencia en la cual descansa la
intriga, desde el principio hasta el final. En este juego, el gran
ganador es aquél o aquella que logra liberarse de la influencia del
instrumento para poner el humanismo y la inteligencia por encima de
todo."


= Obras de ficción

Murray Suid vive en Palo Alto, en la Silicon Valley (California). Es el
autor de libros didácticos, de libros para niños, de obras multimedia y
de guiones. A partir de septiembre de 1998, preconiza una solución por
la cual han optado desde entonces numerosos autores: "Los libros pueden
tener una prolongación en la web – y entonces existir parcialmente en
el ciberespacio. De este modo el autor puede actualizarlos y
corregirlos fácilmente, mientras que antes tenía que esperar mucho
tiempo, hasta la siguiente edición, suponiendo que la hubiera. (...) No
sé si llegaré a publicar libros en la web, en lugar de publicarlos en
versión impresa. Tal vez utilice este nuevo soporte si se perfecciona
el uso del multimedia en los libros digitales. Por ahora, participo en
el desarrollo de material didáctico multimedia. Es un nuevo tipo de
material que me gusta mucho y que permite crear interactividad entre
varios textos, películas, bandas sonoras y gráficos que todos están
vinculados los unos con los otros."

Un año más tarde, en agosto de 1999, añade: "Para mis obras multimedia
– disponibles en CD-ROM – he decidido adoptar la misma fórmula con el
fin de poder actualizarlas y enriquecer su contenido." Algunos meses
más tarde, la integralidad de sus obras multimedia está en la red. El
material didáctico al que contribuye ya no se concibe para una difusión
en CD-ROM, sino para ser difundido directamente en la web. La sociedad
de software educativo que lo emplea ha dejado de ser una empresa
multimedia para convertirse en una empresa de internet.

Novelista y ensayista, Anne-Bénédicte Joly vive en Antony (cerca de
París). En abril de 2000, decide autopublicar su obra utilizando el
internet para darla a conocer. "Mi sitio web tiene varios objetivos,
relata en junio de 2000. Presentar mis libros (ensayos, cuentos y
novelas autoeditados) a través de descriptivos - en el mismo formato
que en la base de datos Electre (una base de datos para los libreros
franceses) - y fragmentos escogidos, presentar mi recorrido de
profesora de letras y de escritora, ofrecerle al internauta la
posibilidad de encargar mis obras y de dejar sus impresiones en un
Libro de oro, guiar al lector a través de enlaces hacia sitios web
literarias. (...) Crear un sitio web me permite ampliar el círculo de
mis lectores incitando a los internautas a descubrir mis escritos. El
internet es también un medio para extender la difusión de mis obras.
Por último, mediante una política de enlaces, espero suscitar cada vez
más contactos."


= Novelas digitales

Lucie de Boutiny es la autora de "NON", una novela multimedia iniciada
en agosto de 1997 y publicada por entregas por Synesthésie, una revista
online de arte contemporáneo. Cuenta en junio de 2000: "Mi novela 'NON'
es una novela cómica, una sátira de la vida cotidiana de una pareja de
jóvenes ejecutivos muy dinámicos. Aunque pertenecen a la élite high
tech de una industria floreciente, 'Monsieur' y 'Madame' son los
juguetes de la llamada revolución digital. (...) 'NON' prolonga las
experiencias de la novela posmoderna (digresiones como base del relato,
polisemia y juegos en torno a los registros del lenguaje – naturalista,
melodramático, cómico... – y los niveles del lenguaje, etc.). Esta
estilización extrema permite que la narración tome rumbos inesperados y
resulte atractiva para el lector que navega entre relatos múltiples y
multimedia, ya que de esta manera el texto escrito en la pantalla se
asemeja a un juego y no sólo se lee sino que también se mira."

Las novelas anteriores de Lucie de Boutiny se han publicado en forma
impresa. ¿Son diferentes los trámites con una novela digital? "De modo
general, mi humilde experiencia de autora principiante me ha demostrado
que no hay diferencia entre escribir ficción para el papel o para el
píxel: las dos cosas exigen concentración máxima, aislamiento casi
desesperado, paciencia obsesiva para la minuciosa tarea de composición
de las frases, y por supuesto, además de la voluntad de hacerlo, ¡hay
que tener algo que contar! La diferencia es que con el multimedia, hay
una segunda etapa que consiste en poner el texto en escena como si éste
no fuera más que un guión. Y si no ha habido previamente un verdadero
trabajo en torno al lenguaje y a las palabras, todo el grafismo y los
trucos interactivos que se puedan añadir parecerán pacotilla. Otra
diferencia es que el soporte modifica la percepción del texto e
incluso, y cabe subrayarlo, cambia de manera sustancial la obra
original."

"Apparitions inquiétantes" (Apariciones inquietantes) es otra novela
digital que nació bajo la pluma de Anne-Cécile Brandenbourger. Se trata
de "una larga historia que se puede leer en cualquier sentido, un
laberinto de crímenes, de malos pensamientos y de placeres ambiguos".
Durante dos años, esta historia se construye bajo la forma de un
folletín en en sitio web Anacoluthe, en colaboración con Olivier
Lefèvre. En febrero de 2000, la historia es publicada en versión
digital (en formato PDF) por las ediciones 00h00, en calidad de primer
título de la Colección 2003, dedicada a escrituras digitales, con
versiones impresas disponibles a petición el cliente.

00h00 presenta la obra como "una cibernovela policíaca compuesta de
relatos hipertextuales insertados los unos en los otros. En esta saga
de corte borgiano la autora maneja – hipertextualmente – al lector a su
antojo, entre personajes sacados de un serial norteamericano y una
intriga policial. (...) Se trata de una historia de asesinato y de una
pesquisa; de textos cortos pero de densa factura; un paseo por el
imaginario de las series de tele; una desestructuración (organizada)
del relato con esta transposición literaria del zapping; y por
consiguiente, sensaciones de lectura radicalmente nuevas."

Tras el éxito del libro, las ediciones Florent Massot publican en
agosto de 2000 una segunda versión impresa (la primera la publicó
00h00, imprimiendo los ejemplares únicamente a petición del cliente),
con una cubierta en 3D, un nuevo título – "La malédiction du parasol"
(La maldición de la sombrilla) – y una maqueta de Olivier Lefèvre que
intenta restituir el ritmo de la versión original.

Anne-Cécile relata en junio de 2000: "Las posibilidades que abre el
hipertexto me han permitido desarrollar y dar rienda suelta a
tendencias que yo ya tenía desde antes. Siempre me ha encantado
escribir y leer textos desmembrados e inclasificables - como por
ejemplo "La vie mode d’emploi" (La vida, instrucciones de uso) de
Georges Perec o "Si par une nuit d’hiver un voyageur" (Si una noche de
invierno un viajero) de Italo Calvino -, y el hipermedia me ha dado
ocasión para enfrascarme en estas formas narrativas en total libertad.
Porque para crear historias no lineares y redes de textos que encajan
unos en otros, el hipertexto es obviamente más apropiado que el papel.
Creo que con el tiempo, gracias a mi trabajo hipertextual mi escritura
se ha vuelto cada vez más intuitiva. Quizás también más 'interior', más
cercana a las asociaciones de ideas y a los movimientos desordenados
que caracterizan el pensamiento cuando éste se deja llevar por la
ensoñación. Esto se explica por la esencia misma de la navegación
hipertextual, por el hecho de que casi cada palabra que se escribe
pueda convertirse en un enlace, una puerta que se abre sobre una
historia."

En la misma fecha, Lucie de Boutiny cuenta: "Mis 'asesores literarios',
amigos que no han sentido el viento de libertad que está soplando en la
web, quisieran que ahí me quedara, atrapada en la masa de papel. He
decidido desobedecer sólo a medias, por lo tanto voy y vengo entre
papel y píxel. El porvenir nos dirá si he malgastado mi tiempo o si un
nuevo género literario hipermedia está a punto de nacer. (...) Si los
escritores franceses clásicos aún prefieren escribir en un cuadernillo
Clairefontaine, con su bolígrafo Bic o Mont-Blanc fetiche, y optan por
un uso moderado del tratamiento de texto, en vez de trabajar con un
ordenador conectado, es porque la HTX (hypertext literature) necesita
un trabajo de creación visual que no corresponde a la vocación
originaria del escritor tradicional. Además de las preocupaciones
inherentes al lenguaje (sintaxis, registro, tono, estilo, historia...),
el tecnoescritor – pongámosle esta etiqueta para diferenciarlo –
también debe dominar la sintaxis informática y participar en la
invención de códigos gráficos porque leer en una pantalla también
implica mirarla."


= Email-novelas

La primera email-novela en francés es lanzada en 2001 por Jean-Pierre
Balpe, investigador, escritor y director del departamento hipermedia de
la Universidad de París 8. Durante exactamente cien días, desde el 11
de abril hasta el 19 de julio de 2001, envía a diario por correo
electrónico un capítulo de "Rien n’est sans dire" (NDLT, un juego de
palabras sobre un modismo, algo como: "Decir sí que tiene") a unas
quinientas personas – su familia, sus amigos, sus colegas, etc. –
integrando las respuestas y las reacciones de los lectores.

Contada por un narrador, la historia es la de Stanislas y Zita, que
viven una pasión trágica destrozada por una sombría historia política.
"La idea de una email-novela se me ocurrió de manera muy natural,
cuenta el autor en febrero de 2002. Por una parte porque ya llevaba
algún tiempo preguntándome lo que podría aportar el internet a la
literatura en cuanto a la forma (...) y por otra parte por haber leído
literatura 'epistolar' del siglo 18, aquellas famosas 'novelas por
cartas'. Basta entonces con una transposición: ¿cuál podrá ser hoy el
equivalente de la 'novela por cartas'?"

Jean-Pierre Balpe saca varias conclusiones de esta experiencia:
"Primero se trata de un 'género': entre tanto, varias personas me han
contado que estaban lanzando también una email-novela. Luego descubrí
numerosas posibilidades que no he llegado a explotar pero me las
reservo para un posible trabajo ulterior. Las restricciones del tiempo,
por ejemplo, son muy interesantes de explorar: el tiempo de la
escritura por supuesto, pero también el de la lectura: es un reto poner
a una persona ante la necesidad de leer, cada día, una página de
novela. Hay algo diabólico en este 'pacto'. Y por último esta
experiencia ha reforzado mi convicción de que las tecnologías digitales
representan une oportunidad extraordinaria para renovar el mundo de las
letras."


= Sitios web hipermedia

Principio de base de la web, el vínculo hipertexto permite enlazar
documentos textuales e imágenes. En cuanto al vínculo hipermedia,
permite acceder a gráficos, imágenes animadas, bandas sonoras y videos.
Algunos escritores apasionados por las tecnologías digitales no tardan
en explorar las posibilidades que abre el hipertexto, en sitios web de
escritura hipermedia o en obras de hiperficción.

Puesto en línea en junio de 1997, el espacio de escritura oVosite fue
concebido por un colectivo de seis autores procedentes del departamento
hipermedia de la Universidad de París 8: Chantal Beaslay, Laure Carlon,
Luc Dall’Armellina (también el webmaster), Philippe Meuriot, Anika
Mignotte y Claude Rouah. "oVosite es un sitio web concebido y realizado
(...) en torno a un símbolo primordial y espiritual, el del huevo,
explica Luc Dall’Armellina en junio de 2000. El sitio web se ha ido
construyendo siguiendo un principio de células autónomas cuyo objetivo
es exponer e integrar fuentes heterogéneas (literatura, foto, pintura,
video, imágenes de síntesis) dentro de una interfaz unificadora."

¿Han cambiado su modo de escritura las posibilidades abiertas por el
hipervínculo? Su respuesta es a la vez negativa y positiva.

Primero negativa: "No – porque de todos modos la escritura es una
cuestión muy íntima, un modo de relación que uno mantiene con su propio
mundo, con sus seres más próximos y con el allá lejano que se
construye, con sus mitos y sus fantasmas, con su cotidiano y por fin,
dentro del espacio del lenguaje, con el espacio de su lengua materna.
Todas estas razones me incitan a pensar que el hipertexto no afectará
fundamentalmente la manera de escribir de uno, bien proceda por toques,
por impresiones, o asociaciones, y sea el que sea el soporte, creo que
lo esencial se produce casi sin que el escritor se dé cuenta."

Y luego positiva: "Sí – porque es posible que con el hipertexto el acto
de creación pueda empezar antes: éste se adelantaría a la actividad de
lectura (asociaciones, bifurcaciones, saltos de párrafos) e incluso al
mismo acto de escritura. La escritura – esto es significativo con un
software como StorySpace – se hace quizás más modular. La meta ya no es
tanto focalizarse en la larga horizontalidad del relato, sino en la
organización espacial de sus fragmentos, autónomos. Y el trabajo se
convierte en un arte de entretejer las unidades entre sí. El otro
aspecto vinculado con la modularidad es la posibilidad de presentar
escrituras cruzadas, es decir con múltiples autores. De hecho quizás se
trate de una metaescritura, que relaciona entre sí las unidades de
significado (párrafos o frases)."

Luc añade también: "El hecho de que el internet cubra el mundo entero
aprieta los lazos entre individuos distantes y que no se conocen en
absoluto. Por lo tanto tenemos que enfrentar situaciones nuevas y eso
no resulta nada sencillo: no somos exactamente espectadores, ni
autores, ni lectores, ni interactores. Estas situaciones crean nuevas
posturas de intercomunicación, posturas de 'espectactura' o de
'lectactura' (Jean-Louis Weissberg). El internet nos obliga a poner en
tela de juicio las nociones de lugar, de espacio, de tiempo, de
actualidad porque este nuevo medio ya casi no proporciona ninguna
perspectiva respecto al acontecimiento sino que se sitúa más que
cualquier otro medio dentro del presente en plena construcción. La
distancia entre el envío y la respuesta puede ser ínfima, e incluso a
veces hasta inmediata (como es el caso con la generación de textos).

Éstos son los aspectos que más se notan y los que más llaman la
atención, pero no son los únicos. No hay que olvidar otros aspectos,
aún mal definidos, tales como los cambios radicales que se operan a
nivel simbólico, representacional, imaginario y más sencillamente en
nuestra manera de relacionarnos con los demás. 'Más proximidad' no es
sinónimo de mayor compromiso en la relación, lo mismo que 'más
vínculos' no implica más relaciones. Tampoco se puede decir que
compartamos más desde que hay 'más canales'. Yo sueño con un internet
que permita a varias personas escribir a la vez en el mismo
dispositivo, una especie de taller de escritura permanente, en donde
cada uno podría producir sus escritos personales (este proyecto está a
punto de ver la luz), para luego compartirlos con otros autores, y
ponerlos en relación dentro de un entretejido de hipertextos y de un
espacio común de notas y comentarios sobre el trabajo que se está
creando."

El futuro de la ciberliteratura lo va trazando su propia tecnología,
como lo explica en agosto de 1999 Jean-Paul, webmaster de cotres.net,
un sitio web hipermedia: "Ahora resulta imposible para un(a) autor(a)
solo/sola manejar a la vez las palabras, su apariencia movediza y su
melodía. Dominar los software Director, Photoshop y Cubase, para citar
sólo los más conocidos, era posible hace diez años, con las versiones
1. Pero ya no. A partir de mañana (y temprano), habrá que saber delegar
sus competencias, encontrar asociados financieros mucho más pudientes
que Gallimard, optar por acudir a Hachette-Matra, Warner, Pentagone,
Hollywood. Como mucho, el estatuto de... escribasta? de multimediasta?
será el de un videasta, de un escenógrafo, de un director de producto:
él es quien se lleva las palmas de oro en Cannes, pero nunca hubiera
podido llevárselas solo. Hermana gemela (y no clono) del
cinematográfico, la ciberliteratura (= el video + el enlace) será una
industria, con algunos artesanos aislados en la periferia off-off (o
sea con derechos de autor negativos)."

Algunos meses más tarde, en junio de 2000, Jean-Paul relata lo que
aporta el internet a su escritura: "La navegación vía hiperenlaces
puede tener una estructura radial (tengo un centro de interés y pincho
metódicamente en todos los enlaces relativos a éste), o bien hacerse
con rodeos (de clic en clic, a medida que van apareciendo enlaces
nuevos, pero con el riesgo de perder mi tema de vista). Por supuesto,
ambos métodos también son posibles con el documento impreso. Pero la
diferencia salta a la vista: hojear no es lo mismo que pinchar. No es
que el internet hay cambiado mi vida, sino mi relación a la escritura.
Uno no escribe de la misma manera para un sitio web que para la
pantalla, para un guión, una obra de teatro, etc. (...)

Desde entonces, escribo (composición, diseño, puesta en escena)
directamente en la pantalla. La etapa 'impresa' de mi trabajo no es la
etapa final, el objetivo; sino una forma entre otras, que privilegia la
linealidad y la imagen, y que excluye el sonido y las imágenes
animadas. (...) La publicación en línea me ha permitido por fin
encontrar la movilidad, la fluidez que estaba buscando. En este ámbito
la palabra clave es 'obra en progreso', abierta. Creación permanente, a
estima, como el mundo ante nuestros ojos. Provisional, como la vida que
se está buscando a tientas, que va y viene. Pero por supuesto con el
riesgo que subrayan los gutenbergs, los huérfanos de la civilización
del libro: ya nada es cierto. Ya no hay fuente fiable, hay demasiadas,
y se va haciendo difícil distinguir un sabio de un gurú. Pero el
problema concierne el control de la información, no la transmisión de
las emociones."

Algunos años mas tarde, en enero de 2007, Jean-Paul vuelve a hacer el
balance sobre su actividad: "He ahorrado tiempo. Utilizo menos
softwares, y cuando los uso, integro directamente en Flash el
resultado. Este programa me asegura un control al 90% del resultado
expuesto en las pantallas de recepción (al contrario de aquéllos que
prefieren presentar obras abiertas, en las que se busca deliberadamente
la intervención del azar o del internauta). Ahora puedo concentrarme en
el corazón del problema: la arquitectura y el desarrollo del relato.
(...)

Los dos puntos positivos en los próximos tres o cuatro años serán:
(1) la generalización de la banda muy ancha (es decir en realidad la
generalización de la anchura de banda normal), que me librará de
limitaciones puramente técnicas, en particular problemas con el peso y
la visualización de los archivos (por fin acabaremos con los
historiales de descargas); (2) el desarrollo de la 3 D. Lo que me
interesa es el relato hipermedia (= el multimedia + el clic). Las
trampas en las que uno puede caer con un relato en 2 D ya pueden ser
apasionantes. Con la 3 D, habrá que coger el toro por los cuernos para
impedir que el proyecto se limita a una simple proeza técnica, y dejar
prioridad al relato."



2005: GOOGLE SE INTERESA POR EL EBOOK


= [Resumen]

En octubre de 2004, Google lanza la primera parte de su programa Google
Print, establecido en colaboración con los editores para consultar en
pantalla fragmentos de libros, y luego encargar los libros a una
librería online. En diciembre de 2004, Google lanza la segunda parte de
su programa Google Print, dirigido esta vez a las bibliotecas, con el
objetivo de digitalizar 15 millones de libros, empezando por los de las
bibliotecas de varias universidades asociadas (Harvard, Stanford,
Michigan, Oxford) y de la ciudad de Nueva York. La versión beta de
Google Print se pone en línea en mayo de 2005. En agosto de 2005, el
programa se suspende debido a un conflicto con los editores de libros
sometidos a derechos de autor. La actividad reanuda en agosto de 2006
bajo el nombre de Google Books. Se prosigue con la digitalización de
los fondos de grandes bibliotecas, y también con el desarrollo de
cooperaciones con los editores que lo desean. En octubre de 2008,
Google pone fin al conflicto con las asociaciones de autores y de
editores anunciando un acuerdo con ellos que tomaría efecto en 2009.


= Google Print

En 2005, mientras el Proyecto Gutenberg sigue poniendo en línea paso a
paso gratuitamente obras del dominio público – una tarea inmensa
empezada varios años atrás – el libro se convierte en un objeto
codiciado por los gigantes del internet, a saber Google, Yahoo! y
Microsoft, por una parte con el objetivo meritorio de poner el
patrimonio mundial a disposición de todos, y por otra parte porque hay
mucho en juego detrás de las recetas publicitarias generadas por los
enlaces comerciales asociados a los resultados de búsquedas.

Google decide poner su experiencia al servicio del libro, y lanza una
versión beta de Google Print en mayo de 2005. Dos etapas preceden este
lanzamiento.

En octubre de 2004, Google lanza la primera parte de su programa Google
Print, establecido en colaboración con los editores para poder
consultar en la pantalla fragmentos de libros, y luego encargarlos a
una librería online.

En diciembre de 2004, Google lanza la segunda parte de su programa
Google Print, esta vez destinado a las bibliotecas. Se trata de un
proyecto de biblioteca digital de 15 millones de libros que consiste en
digitalizar varias grandes bibliotecas asociadas, empezando por la
biblioteca de la Universidad del Michigan (en su totalidad, es decir 7
millones de libros), las bibliotecas de las universidades de Harvard,
de Stanford y de Oxford, y la de la ciudad de Nueva York. El coste
estimado en un principio se sitúa entre 150 y 200 millones de dólares
US, con la digitalización de 10 millones de libros en seis años, y un
plazo de diez años en total para el proyecto.

En agosto de 2005, o sea tres meses después de su lanzamiento, Google
Print se suspende por un tiempo indefinido debido a un conflicto
creciente con las asociaciones de autores y de editores de libros
sometidos a derechos de autor. Estas asociaciones reprochan a Google el
haber digitalizado libros bajo copyright sin pedir de antemano la
aprobación de los derechohabientes.


= Google Books

El programa reanuda su actividad en agosto de 2006 bajo el nuevo nombre
de Google Books (Google Libros). Google Books permite buscar los libros
por fecha, título o editor. Se prosigue con la digitalización de los
fondos de grandes bibliotecas, centrada esta vez en los libros libres
de derechos de autor. También se prosigue con el desarrollo de
colaboraciones con los editores que lo desean.

Los libros libres de derechos de autor pueden ser consultados en
pantalla en versión integral, su contenido se puede copiar y es posible
imprimirlos página por página. También es posible descargarlos bajo
forma de archivos PDF e imprimirlos en su totalidad. Los enlaces
publicitarios asociados con las páginas de los libros se encuentran en
la parte superior derecha de la pantalla.

El conflicto con las asociaciones de autores y de editores se prolonga,
ya que Google sigue digitalizando libros sometidos a derechos de autor
sin autorización previa de los derechohabientes, invocando el derecho
de cita para presentar fragmentos en la web. Por su parte, el Authors
Guild (Asociación de autores estadounidenses) y la Association of
American Publishers (Asociación de editores estadounidenses) invocan el
no respeto de la legislación relativa al copyright para llevar a Google
ante la justicia. Este folletín judicial dura muchos meses.

El revuelo mediático a finales de 2006 indica que Google escanearía
3.000 libros al día, o sea un millón de libros al año. El coste
estimado sería de 30 dólares por libro – pero otras fuentes mencionan
un coste dos veces más alto. Google Books abarcaría 3 millones de
libros. Todas esas cifras se deben considerar con cuidado, ya que la
sociedad no comunica ningunas estadísticas sobre el tema.

A excepción de la New York Public Library, las colecciones en proceso
de digitalización pertenecen todas a bibliotecas universitarias
(Harvard, Stanford, Michigan, Oxford, California, Virginia, Wisconsin-
Madison, Complutense de Madrid). A éstas se añaden a principios de 2007
las bibliotecas de las universidades de Princeton y del Texas (Austin),
así como la Biblioteca de Catalunya en España y la Biblioteca estatal
de Baviera (Bayerische Staatbibliothek) en Alemania. En mayo de 2007,
Google anuncia la participación de la primera biblioteca francófona, la
Biblioteca cantonal y universitaria (BCU: Bibliothèque cantonale et
universitaire) de Lausanne (Suiza), para la digitalización de 100.000
títulos en francés, alemán e italiano publicados entre los siglos 17 y
19. Luego sigue una cooperación con la Biblioteca municipal de Lyon
(Francia) firmada en julio de 2008 para la digitalización de 500.000
libros.

En octubre de 2008, tras tres año de conflicto, Google pone fin a las
acciones legales emprendidas en contra suya por las asociaciones de
autores y editores, anunciando la firma de un acuerdo que tomaría
efecto en el transcurso del año 2009. Se trata de un acuerdo basado en
una repartición de los beneficios generados por su servicio, en un
amplio acceso a las obras agotadas, y en el pago de 125 millones de
dólares US al Authors Guild y a la Association of American Publishers
para clausurar el conflicto.

Después de este acuerdo, Google debería proponer fragmentos más largos
de los libros, hasta un 20% de una misma obra, con un enlace comercial
que permita comprar una copia de la obra, en versión digital o impresa.
Los derechohabientes quedarán libres de participar o no en el proyecto
Google Books, y de retirar sus libros de las colecciones. Por otro
lado, las bibliotecas universitarias y públicas estadounidenses podrán
acceder a un portal gratuito administrado por Google, y que facilitará
acceso al texto de millones de libros agotados. Una suscripción
permitirá también a las universidades y escuelas estadounidenses
consultar las colecciones de las bibliotecas más afamadas.

En noviembre de 2008, Google Books reúne 7 millones de obras
digitalizadas, en colaboración con 24 bibliotecas y 2.000 editores
asociados. Las 24 bibliotecas asociadas se ubican principalmente en los
Estados Unidos (16), pero también en Alemania (1), Bélgica (1), España
(2), Francia (1), Japón (1), el Reino Unido (1) y Suiza (1).

En febrero de 2009, Google Books lanza un portal específico para la
lectura en teléfono móvil y smartphone, por ejemplo en el iPhone 3G de
Apple o en el G1 de T-Mobile (éste último usa Android, la plataforma de
Google). El catálogo comprende 1,5 millón de libros del dominio
público, a los que se añaden 500.000 títulos descargables fuera de
Estados Unidos, debido a una legislación del copyright menos
restrictiva en algunos países.



2006: VAMOS HACIA UNA BIBLIOTECA DIGITAL PLANETARIA


= [Resumen]

Lanzada en octubre de 2005 a iniciativa del Internet Archive, y
operativa en 2006, la Open Content Alliance (OCA) es un proyecto
público y cooperativo de biblioteca digital mundial. El objetivo es
crear un vasto repertorio libre y multilingüe de libros digitalizados y
de documentos multimedia para consulta y descarga en cualquier
buscador. La OCA reúne a numerosos colaboradores: bibliotecas,
universidades, organizaciones gubernamentales, asociaciones sin ánimos
de lucro, organismos culturales, sociedades informáticas (Adobe,
Hewlett Packard, Microsoft, Yahoo!, Xerox, etc.). Los primeros
participantes son las bibliotecas de las universidades de California y
de Toronto, el European Archive, los Archivos nacionales del Reino
Unido, O'Reilly Media y Prelinger Archives. La OCA quiere inspirarse de
la iniciativa de Google, pero sin repetir sus errores, evitando
digitalizar libros sometidos a derechos de autor sin la aprobación
previa de los editores, y cuidando de que sea posible consultar y
descargar los libros en otro buscador.


= El Internet Archive

El Internet Archive piensa que una biblioteca de vocación mundial no
debe estar sometida a factores comerciales. Se asocia con Yahoo! para
elaborar la Open Content Alliance (Alianza para un contenido abierto) y
federar a numerosos colaboradores con intención de formar una
biblioteca planetaria pública que respete el copyright y esté basada en
un modelo abierto.

¿Qué es exactamente el Internet Archive? Fundado en abril de 1996 por
Brewster Kahle en San Francisco (California), el Internet Archive se
propone antes de todo constituir, almacenar, preservar y administrar
una "biblioteca" del internet, archivando la totalidad de la web cada
dos meses, con el fin de proporcionar un instrumento de trabajo a los
estudiosos, investigadores e historiadores, y de preservar un historial
del internet para las generaciones futuras.

En octubre de 2001, el Internet Archive pone sus archivos en acceso
libre en la web gracias a la Wayback Machine, que permite consultar el
historial de un sitio web, es decir su contenido y su presentación en
varias fechas, en teoría cada dos meses a partir de 1996.

El Internet Archive empieza también a constituir colecciones digitales
como el Million Book Project (10.520 libros en abril de 2005), archivos
de películas del periodo 1903-1973, archivos de conciertos live
recientes, archivos de software, etc. Todas las colecciones se pueden
consultar en acceso libre en la web.


= La Open Content Alliance

En enero de 2005, el Internet Archive se asocia con Yahoo! para
elaborar la Open Content Alliance (Alianza para un contenido abierto),
una iniciativa cuyo objeto es crear un repertorio libre y multilingüe
de libros digitales y de documentos multimedia que se puedan consultar
en cualquier buscador. La Open Content Alliance (OCA), oficialmente
lanzada en octubre de 2005, empieza verdaderamente en 2006. La OCA
quiere inspirarse de Google Books sin repetir sus errores, a saber la
digitalización de libros sometidos a derechos de autor sin la
aprobación previa de los editores, y la imposibilidad de consultar y
descargar los libros en otro buscador.

La OCA reúne a numerosos colaboradores: bibliotecas y universidades,
por supuesto, pero también organizaciones gubernamentales, asociaciones
sin ánimo de lucro, organismos culturales y sociedades informáticas
(Adobe, Hewlett Packard, Microsoft, Yahoo!, Xerox, etc.). Las primeras
en colaborar son las bibliotecas de las universidades de California y
de Toronto, el European Archive, los Archivos nacionales del Reino
Unido, O’Reilly Media y Prelinger Archives. Para evitar los problemas
de copyright con los que se tropieza Google, sólo se digitalizan los
libros que pertenecen al dominio público. Las colecciones digitales
alimentan la sección Text Archive del Internet Archive.

En diciembre de 2006, la OCA alcanza la cifra de 100.000 libros
digitalizados, con un ritmo de 12.000 nuevos libros al mes. En la misma
fecha, el Internet Archive recibe una subvención de un millón de
dólares US por parte de la Sloan Foundation para digitalizar las
colecciones del Metropolitan Museum of Art (la totalidad de los libros
y miles de imágenes) así como algunas colecciones de la Boston Public
Library (los 3.800 libros de la biblioteca personal de John Adams,
segundo presidente de los Estados Unidos), del Getty Research Institute
(una serie de libros de arte), de la Universidad John Hopkins (una
serie de documentos vinculados con el movimiento antiesclavista) y de
la Universidad de California en Berkeley (una serie de documentos
relativos a la fiebre del oro).

En mayo de 2007, la OCA alcanza los 200.000 libros digitalizados. Se
llega a un millón de libros digitalizados en diciembre de 2008.

Microsoft es uno de los colaboradores de la OCA, pero esto no le impide
lanzarse también a la aventura a título personal. En diciembre de 2006
se pone en línea en los Estados Unidos la versión beta de Live Search
Books, que permite una búsqueda por palabras claves en los libros del
dominio público. Microsoft digitaliza estos libros tras la firma de
acuerdos con grandes bibliotecas. Las primeras son la British Library y
las bibliotecas de las universidades de California y de Toronto,
seguidas en enero de 2007 por las de la New York Public Library y de la
Universidad Cornell. Microsoft tiene intención de añadir libros
sometidos a derechos de autor, pero únicamente con la aprobación previa
de los editores.

Al igual que Google Books, Live Search Books permite consultar
fragmentos que comportan palabras claves, que vienen resaltadas en el
texto. Pero las colecciones no son tan ricas como las de Google Books,
el buscador es mucho más rudimentario, y no es posible descargar los
libros en formato PDF en su totalidad. En mayo de 2007, Microsoft
anuncia la firma de acuerdos con varios grandes editores
estadounidenses, entre los cuales Cambridge University Press y McGraw
Hill. Microsoft acaba poniendo fin a este proyecto en mayo de 2008,
para volver a centrarse en otras actividades. Los 750.000 libros que ya
se han digitalizado integran las colecciones de la Open Content
Alliance.


= Europeana

En Europa, algunos están preocupados a causa de la "hegemonía
estadounidense" que representa Google Books. Ya existe en la web una
Biblioteca europea. En realidad se trata de un portal común a las 43
bibliotecas nacionales de Europa, lanzado en enero de 2004 por la
Conferencia de bibliotecarios nacionales europeos (CENL: Conference of
European National Librarians), un portal albergado por la Biblioteca
nacional de los Países Bajos.

En septiembre de 2005, la Comisión europea lanza una vasta consulta
sobre un proyecto de biblioteca digital europea, exigiendo una
respuesta para enero de 2006. A continuación el proyecto es lanzado
oficialmente en marzo de 2006. En el comunicado de prensa se puede leer
lo siguiente: "El plan de la Comisión europea destinado a promover el
acceso digital al patrimonio de Europa cobra forma rápidamente. En los
próximos cinco años, por lo menos seis millones de libros, documentos y
otras obras culturales serán puestos a disposición de todos los que
dispongan de una conexión al internet, a través de la 'biblioteca
digital europea'. Para estimular las iniciativas de digitalización
europeas, la Comisión cofinanciará la creación de una red paneuropea de
centros de digitalización. La Comisión abordará también, en una serie
de documentos estratégicos, la cuestión del marco más apropiado que se
habrá de adoptar para garantizar la protección de los derechos de
propiedad intelectual en el marco de las bibliotecas digitales."

En noviembre de 2008, Europeana está a punto de ser lanzada con dos
millones de documentos, pero el servidor deja de contestar debido a la
muy fuerte demanda de las primeras horas. Tras la "consolidación" del
servidor, empieza un periodo experimental que permite una consulta
parcial de las colecciones.



2007: PODEMOS LEER EN VARIOS APARATOS ELECTRONICOS


= [Resumen]

Amazon.com lanza el Kindle en noviembre de 2007. Pero la lectura
portátil nace diez años atrás. Primero se podía leer en un ordenador –
portátil o no – y después en las agendas electrónicas que son el Psion
y los aparatos de Franklin. La sociedad Palm lanza en marzo de 1996 el
Palm Pilot, primera PDA del mercado. Microsoft lanza la PDA Pocket PC
en abril de 2000. Luego siguen los primeros smartphones de Nokia y de
Sony Ericsson. Empiezan también a difundirse tabletas de lectura
especializadas. Las primeras son el Rocket eBook, el SoftBook Reader y
el Gemstar eBook, pero no duran mucho. Tras un periodo de inercia, se
mejora la potencia y la calidad de pantalla de algunas tabletas más
ligeras, por ejemplo el Cybook (nueva versión) o el Sony Reader, al que
se añade el Kindle en noviembre de 2007. La pantalla de cristal líquido
deja paso a una pantalla que usa la tecnología E Ink. Se habla entonces
de un soporte flexible y ultrafino, llamado "papel electrónico", que
debería ser lanzado en 2010 a iniciativa de E Ink, de Plastic Logic y
de otras sociedades.


= Tabletas de lectura

# Primeros pasos

Al principio los libros digitales eran legibles únicamente en una
pantalla de ordenador – de sobremesa, portátil o ultraportátil. Además
del almacenamiento de unos mil libros o incluso más – dependiendo del
tamaño del disco duro – el ordenador permite utilizar instrumentos de
ofimática estándar, conectarse a la web, escuchar archivos musicales y
ver videos o películas. A algunos usuarios también les atrae el webpad,
aparecido en 2001, un ordenador pantalla sin disco duro con una
conexión inalámbrica al internet, o el Tablet PC, una tableta
informática con pantalla táctil lanzada a finales de 2002.

En 1999, para mayor movilidad, aparecen lectores especializados del
tamaño de un libro (grueso), que suelen ser llamados ebooks, libros
electrónicos, libros-e, ciberlibros, tabletas de lectura o lectores.
Los primeros lectores electrónicos suscitan cierto entusiasmo, aunque
pocas personas lleguen a comprarlos, debido a su precio prohibitivo y a
que no hay mucho para escoger en el catálogo de libros digitales. Aún
dista mucho de poder equipararse con el de los libros impresos.

Las primeras tabletas de lectura se conciben y se perfeccionan en la
Silicon Valley (California). Incluyen una pantalla de cristal líquido
(o pantalla LCD: liquid crystal display), retroiluminada o no, en
blanco y negro o en color. Funcionan con batería y disponen de un módem
integrado y de un puerto USB (universal serial bus) que permite
conectarse al internet y descargar libros a partir de librerías
digitales.

El modelo más conocido en 1999, el Rocket eBook, es creado por la
sociedad NuvoMedia, financiada por la cadena de librerías Barnes &
Noble y el gigante de los media Bertelsmann. Otro modelo, el SoftBook
Reader, es desarrollado por la sociedad SoftBook Press, financiada por
las dos grandes editoriales Random House y Simon & Schuster. Se
estrenan otros modelos pero duran poco, por ejemplo el EveryBook, un
lector de doble pantalla creado por la sociedad del mismo nombre, o el
Millennium eBook, creado por la sociedad Librius.com. En aquella – no
tan remota – época, todas esas tabletas electrónicas pesaban entre 700
gramos y 2 kilos y en ellas cabían unos diez libros.

# Gemstar eBook

Lanzados en octubre de 2000 en Nueva York, los dos primeros modelos de
Gemstar eBook son los sucesores del Rocket eBook (concebido por
NuvoMedia) y del SoftBook Reader (concebido por SoftBook Press), debido
a la recompra de NuvoMedia y SoftBook Press por la gran sociedad
Gemstar-TV Guide International en enero de 2000. Comercializados en
noviembre de 2000 en los Estados Unidos, estos dos modelos – el REB
1100 (pantalla en blanco y negro, sucesor del Rocket eBook) y el REB
1200 (pantalla en color, sucesor del SoftBook Reader) – son construidos
y vendidos bajo la marca RCA, que pertenece a Thomson Multimedia. El
sistema operativo, el navegador y el software de lectura son
específicos del producto, así como el formato de lectura, basado en el
formato OeB (open ebook).

Las ventas son muy inferiores a los pronósticos. En abril de 2002, un
artículo del New York Times anuncia la suspensión de la fabricación de
estos aparatos por RCA. En el otoño de 2002, sus sucesores, el GEB 1150
y el GEB 2150, son producidos bajo la marca Gemstar y vendidos por
SkyMall a un precio más barato (199 y 349 dólares US), con o sin
suscripción anual o bianual a la librería digital de Gemstar eBook.
Pero las ventas siguen siendo poco concluyentes y Gemstar decide poner
fin a sus actividades eBook. La sociedad abandona la venta de tabletas
de lectura en junio de 2003, y al mes siguiente también abandona la
venta de libros digitales.

# Cybook

Primera tableta de lectura europea, el Cybook (21 x 16 cm, 1 kilo) es
concebido y desarrollado por la sociedad francesa Cytale, y
comercializado a partir de enero de 2001. Su memoria – 32 M (megabytes)
de memoria SDRAM (synchronous dynamic random access memory) y 16 M de
memoria flash – permite almacenar 15.000 páginas de texto, o sea 30
libros de 500 páginas.

Olivier Pujol, director general de Cytale, escribe en diciembre de
2000: "Hace dos años mi camino se cruzó con el de un extraordinario
proyecto, aún en ciernes: el libro electrónico. Desde aquel día, me he
convertido en el promotor impenitente de este nuevo modo de acceso al
documento escrito, a la lectura, y a la felicidad de leer. La lectura
digital por fin se está desarrollando, gracias a este maravilloso
objeto: biblioteca, librería nómada, libro 'adaptable', y también medio
de acceso a todos los sitios literarios (o no), y a todas las nuevas
formas de literatura, pues también es una ventana abierta sobre la
web."

Pero las ventas son muy inferiores a los pronósticos y por lo tanto la
sociedad se ve obligada a declararse en suspensión de pagos. Cytale es
declarada en liquidación judicial en julio de 2002 y en la misma fecha
abandona sus actividades. Unos meses más tarde, la sociedad Bookeen,
creada en 2003 a iniciativa de Michael Dahan y Laurent Picard, ambos
ingenieros en Cytale, retoma la comercialización del Cybook. En julio
de 2007, Bookeen presenta la nueva versión de su tableta, bautizada
Cybook Gen3, con una pantalla que utiliza la tecnología E Ink.

# Sony Reader

En abril de 2004, Sony lanza en Japón su primer lector, el Librié 1000-
EP, producido en colaboración con las sociedades Philips y E Ink. Esta
tableta es la primera en utilizar la tecnología de visualización
desarrollada por la sociedad E Ink y comúnmente llamada tinta
electrónica. El aparato sólo pesa 300 gramos (con pilas y protección de
pantalla), y mide 12,6 x 19 x 1,3 centímetros. Su memoria es de 10 Mo –
con posibilidad de extensión – y su capacidad de almacenamiento es de
500 libros. La pantalla mide 6 pulgadas, su definición es de 170 DPI
(dots per inch) y tiene una resolución de 800 x 600 pixeles. Un puerto
USB permite descargar libros desde un ordenador. El aparato se compone
también de un teclado, de una función de grabación y de una síntesis de
voz. Funciona con cuatro pilas alcalinas, que en teoría permiten
consultar unas 10.000 páginas. Cuesta 375 dólares US. Luego el Librié
deja paso al Sony Reader, lanzado en octubre de 2006 en los Estados
Unidos, y vendido por 350 dólares US.

# Kindle

La librería online Amazon.com lanza en noviembre de 2007 su propia
tableta de lectura, el Kindle, que tiene forma de libro (19 x 13 x 1,8
cm, 289 gramos), con una pantalla en blanco y negro (6 pulgadas, 800 x
600 pixeles), un teclado, una memoria de 256 Mo (extensible con tarjeta
SD), una conexión wifi (sin cable) y un puerto USB. Vendido por 400
dólares US (273 euros), puede contener hasta 200 libros escogidos entre
los 80.000 disponibles en el catálogo de Amazon. Se venden 538.000
Kindle en 2008. En enero de 2009, Amazon compra la sociedad Audible y
su colección de libros, periódicos y revistas audio (80.000 títulos)
descargables en un walkman, un móvil o un smartphone. En febrero de
2009, Amazon lanza una nueva versión del Kindle, el Kindle 2, con un
catálogo de 230.000 títulos.


= PDA

# Psion

El Psion Organiser es la agenda electrónica más antigua. La sociedad
británica Psion lanza el primer modelo a partir de 1984. A lo largo de
los años, la gama de aparatos se extiende y la sociedad alcanza un
nivel internacional. En 2000, los diferentes modelos (Serie 7, Serie
5mx, Revo, Revo Plus) padecen la competencia del Palm Pilot y del
Pocket PC. Tras una disminución de las ventas, la sociedad decide
diversificar sus actividades. Recompra Teklogix y funda Psion Teklogix
en septiembre de 2000, con el fin de desarrollar soluciones móviles
inalámbricas destinadas a las empresas. En 2001 se funda Psion Software
cuya misión es desarrollar softwares para la nueva generación de
aparatos portátiles que utilizan la plataforma Symbian OS, por ejemplo
para el smartphone Nokia 9210, un modelo precursor comercializado el
mismo año.

Profesora e investigadora en la Escuela práctica de altos estudios
(EPHE: École pratique des hautes études) de la Sorbona de París, Marie-
Joseph Pierre utiliza un Psion desde hace varios años para leer y
estudiar en el tren durante los frecuentes trayectos entre Argentan
(Normandía), su ciudad de residencia, y París. Compra su primer Psion
en 1997, un Serie 3, sustituido más adelante por un Serie 5, y luego
por un Psion 5mx en junio de 2001. Marie-Jo cuenta en febrero de 2002:
"He cargado en mi Psion 5mx (16 + 16 M) un montón de documentos
literarios – entre los cuales mis propios trabajos y la Biblia en su
totalidad. Lo consulto sobre todo en el tren o para mis clases, cuando
no puedo llevarme una biblioteca entera. He seleccionado los ajustes
del programa que permiten una lectura página por página como en un
verdadero ebook. Es cómodo poder cargar una enorme masa documental en
un soporte minúsculo. Pero el uso no es el mismo que el de un libro,
sobre todo un libro de bolsillo porque uno lo puede hojear, torcer,
sentir..., y abrirlo directamente en la página que le ha gustado. Es
mucho menos agradable utilizar una PDA, tanto más cuanto que la página
es pequeña: resulta imposible tener una visión de conjunto. Pero tiene
una cualidad apreciable: uno puede retocar el texto que tiene guardado
en la PDA, buscar palabras precisas en el texto, reutilizar citas, y
hacer todo lo que permite el tratamiento informático del documento, y
esto sí que me ha sido útil en mi trabajo, o para mis actividades
asociativas. He aquí un ejemplo: formo parte de una pequeña sociedad
poética local, y en los próximos días organizaremos un recital de
poesía. Con la PDA he podido buscar textos de Victor Hugo, leerlos e
incluso cargarlos a partir del sitio web de la Biblioteca nacional de
Francia: esto sí que es estupendo."

# eBookMan (Franklin)

Basada en New Jersey (Estados Unidos), la sociedad Franklin
comercializa a partir de 1986 el primer diccionario consultable en una
máquina de bolsillo. Quince años más tarde, Franklin distribuye 200
obras de referencia en máquinas de bolsillo: diccionarios monolingües y
bilingües, enciclopedias, biblias, manuales didácticos, obras de
medicina y libros de ocio.

En octubre de 2000, Franklin lanza el eBookMan, una PDA multimedia que
- entre otras funcionalidades (agenda, dictáfono, etc.) - permite la
lectura de libros digitales en el software de lectura Franklin Reader.
En la misma fecha, el eBookMan recibe el eBook Technology Award (Precio
de tecnología para ebooks) de la Feria internacional del libro de
Fráncfort (Alemania). Tres modelos (EBM-900, EBM-901 y EBM-911) están
disponibles a principios de 2001. Cuestan respectivamente 130, 180 y
230 dólares US. El precio es función del tamaño de la memoria RAM (8 o
16 M) y de la calidad de la pantalla de cristal líquido (o pantalla
LCD: liquid cristal display), retroiluminada o no en función de los
modelos. La pantalla es mucho más grande que la de sus competidores,
pero en cambio no existe más que en blanco y negro, mientras que la
gama Pocket PC y algunos modelos Palm tienen una pantalla en color. El
eBookMan permite también escuchar libros audio y archivos musicales en
formato MP3.

En octubre de 2001, Franklin renuncia a integrar el Microsoft Reader en
el eBookMan, y opta por el Mobipocket Reader, un software de lectura
que considera más avanzado. En la misma fecha, el Mobipocket Reader
recibe el eBook Technology Award (Precio de tecnología para ebooks) de
la Feria internacional del libro de Fráncfort (Alemania). En cuanto al
Franklin Reader se va adaptando poco a poco a las gamas de aparatos
portátiles Psion, Palm, Pocket PC y Nokia. Franklin desarrolla también
una librería digital en su sitio web, tras la firma de acuerdos con
varios editores, por ejemplo con Audible para obtener el acceso a su
colección de 4.500 audiolibros digitales.

# Palm Pilot y Pocket PC

En el año 2000, todos los fabricantes de PDA deciden integrar un
software de lectura en su máquina, además de las funcionalidades
estándar (agenda, dictáfono, lector de MP3, etc.). Negocian al mismo
tiempo los derechos de difusión digital de centenas de títulos,
directamente o bien a través de librerías digitales. Aunque el tamaño
reducido de la pantalla preocupe a los profesionales del libro, los
defensores de la lectura en PDA aseguran que el tamaño de la pantalla
no es un problema. Los favoritos del mercado son las gamas Palm Pilot y
Pocket PC.

La sociedad Palm lanza el primer Palm Pilot en marzo de 1996 y vende 23
millones de Palm Pilot entre 1996 y 2002. Su sistema operativo es el
Palm OS y el software de lectura asociado es el Palm Reader. En marzo
de 2001, la gama Palm Pilot permite también la lectura de libros
digitales con el software Mobipocket Reader.

Lanzada por Microsoft a partir de abril de 2000, la PDA Pocket PC
utiliza el sistema operativo Windows CE, que integra el nuevo software
de lectura Microsoft Reader. En octubre de 2001, Windows CE es
sustituido por Pocket PC 2002, que permite, entre otras, leer libros
digitales sometidos a derechos de autor. Estos libros están protegidos
por un sistema de gestión de los derechos digitales, el Microsoft DAS
Server (DAS: digital asset server). En 2002, la gama Pocket PC permite
la lectura en tres softwares: el Microsoft Reader, por supuesto, el
Mobipocket Reader y el Palm Reader.

El mercado de las PDA sigue creciendo. Según el sitio web de Seybold
Reports, se cuenta con 17 millones de PDA por el mundo en abril de 2001
- mientras que sólo hay 100.000 tabletas de lectura. Se venden
13,2 millones de PDA en 2001, y 12,1 millones en 2002.

En 2002, la gama Palm Pilot sigue siendo el líder del mercado, con
36,8% de las máquinas vendidas, seguido por la gama Pocket PC de
Microsoft y los modelos de Hewlett-Packard, Sony, Handspring, Toshiba y
Casio. Los sistemas operativos utilizados son esencialmente el Palm OS
(para 55% de las máquinas) y el Pocket PC (para 25,7% de las máquinas).

En 2004, se observan una mayor diversidad de modelos y una disminución
de precios para los fabricantes. Palm, Sony y Hewlett-Packard son los
tres principales fabricantes. Luego vienen Handspring, Toshiba, Casio y
otros. Pero la PDA padece cada vez más la competencia del smartphone,
un teléfono móvil-PDA, y las ventas empiezan a disminuir. En febrero de
2005, Sony decide retirarse del mercado de las PDA.

# Smartphones

El primer smartphone es el Nokia 9210, modelo precursor lanzado en 2001
por la sociedad finlandesa Nokia, gran fabricante mundial de teléfonos
móviles. Luego aparecen el Nokia Series 60, el Sony Ericsson P800, y
más adelante los modelos de Motorola y de Siemens. Estos diferentes
modelos permiten leer libros digitales con el Mobipocket Reader.
Llamado también teléfono multimedia, teléfono multifunción o teléfono
inteligente, el smartphone dispone de una pantalla en color y del
sonido polifónico. También tiene cámara digital, además de las
funciones de la asistente personal (agenda, dictáfono, lector de libros
digitales, lector de música, etc.). Los smartphones representan el 3,7%
de las ventas de teléfonos móviles en 2004 y el 9% de las ventas en
2006, a saber 90 millones de unidades de un total de unos mil millones.

Si bien los libros digitales tienen para rato, es muy probable que los
aparatos de lectura conozcan cambios con frecuencia. Denis Zwirn,
presidente de Numilog, la gran librería online francófona, explica en
febrero de 2003: "En los diez próximos años, el material de lectura
digital utilizado por los individuos y por las empresas se irá
adaptando cada vez más a situaciones de movilidad, impulsando la
creación de máquinas cada vez más avanzadas (en términos de
visualización, de memoria, de funcionalidades, de peso...) y cada vez
más baratas. Hoy día esto ya se está concretado con las PDA (Pocket PC
y Palm Pilot), las Tablet PC y los smartphones, o los smart displays
(pantalla táctil inalámbrica). En mi opinión se observarán tres
tendencias: la convergencia de los usos (teléfono/PDA), la
diversificación de los tipos y tamaños de aparatos (desde el reloj-PDA-
teléfono hasta el Tablet PC waterproof), la democratización del acceso
a las máquinas portátiles (PDA para niños por 15 euros). Si los
editores y libreros digitales logran aprovechar la oportunidad, esta
evolución representa un entorno tecnológico y cultural dentro del cual
los libros digitales, bajo formas variadas, podrían convertirse en un
modo natural de acceso a la lectura para toda una generación."

Cabe preguntarse si las tabletas especializadas como el Cybook, el Sony
Reader o el Kindle verdaderamente pueden competir con los smartphones
multifunciones. Cabe preguntarse también si existe una clientela
específica para cada una de las dos máquinas, ya que la lectura en un
teléfono celular y en un smartphone se dirige más bien al público
llano, mientras que la lectura en tabletas se dirige exclusivamente a
las personas que consumen gran cantidad de documentos, a saber los
alumnos de secundaria, estudiantes, docentes, investigadores o
juristas. Y el debate seguirá abierto por mucho tiempo.

Puede ser que la competencia resulte dura dentro de este mercado muy
prometedor. Ya veremos a qué modelos darán preferencia los usuarios por
su solidez y su peso reducido, por ser económicos y por ofrecer una
verdadera "comodidad de lectura", sin olvidar la dimensión estética y
las posibilidades de lectura en tres dimensiones. Según Jean-Paul,
webmaster del sitio web hipermedia cotres.net, entrevistado en enero de
2007, "ha habido adelanto. Gracias a las PDA y otros aparatos
portátiles multimedia, el público se ha ido acostumbrando a manipular
pantallas táctiles de dimensión individual (más que cualquier aparato
de pago público). El hipermedia se ha convertido hoy día en una
evidencia. Ahora les toca a los ingenieros y a los especialistas del
marketing ingeniárselas para elaborar un objeto rentable, ligero,
atractivo, no demasiado frágil, que ocupe lo mejor posible el espacio
que separa las dos manos del terrícola sentado en el autobús o en el
WC: la superficie de una hoja A4 en formato italiano, o sea ± 800 x 600
pixeles. Por supuesto, el contenido no estará en 2 dimensiones sino en
3, como los GPS de próxima generación, o las miras telescópicas en la
carlinga de un A-Win."

El "papel electrónico" debería llegar para 2010, con las sociedades E
Ink y Plastic Logic en primera línea para proponernos soportes de
lectura flexibles y ultrafinos.



2008: LOS EBOOKS SON OMNIPRESENTES


= [Resumen]

En 2008, ofrecer un ebook (libro digital) como regalo empieza a ponerse
de moda, y aún más el hecho de leerlo en un smartphone, prueba de que
las cosas han cambiado desde la época en que el pánico se había
apoderado de los editores y libreros a finales de los años 90. Tres
palabras parecen esenciales: almacenamiento, organización y difusión.
En un futuro próximo, el patrimonio mundial debería estar almacenado
bajo forma digital, con una organización efectiva de la información y
una red internet adaptada. De limitada difusión en el año 2000, y luego
pariente pobre de los archivos musicales y videos, ahora el ebook ocupa
un lugar respetable junto a la música y a las películas. Nicolas Pewny,
editor y luego consultor en edición electrónica, ve "el libro digital
del futuro como una 'obra total' que reuniría textos, sonidos,
imágenes, vídeos, interactividad: una nueva manera de concebir,
escribir y leer, quizás en un libro único, siempre renovable, que
contendría todo lo que uno ha leído, un compañero único y múltiple a la
vez".


= [Texto]

Michael Hart, fundador del Proyecto Gutenberg en 1971, precisa a menudo
en sus escritos que así como en su tiempo Gutenberg había permitido a
cualquier persona poseer sus propios libros – hasta entonces exclusivos
de una élite –, el Proyecto Gutenberg permite a todos disponer de una
biblioteca completa – que hasta ahora estaba reservada a la
colectividad – en un soporte de bolsillo como una llave USB (universal
serial bus). El Proyecto Gutenberg cuenta con 30.000 libros en
noviembre de 2008, o sea el tamaño de una biblioteca pública de barrio.

¿Se parecerá el futuro al ciberespacio que describe el filósofo Timothy
Leary en 1994 en su libro "Chaos & Cyber Culture" (Caos y
cibercultura)? "Toda la información del mundo está en el interior (de
gigantescas bases de datos). Y gracias al ciberespacio, todo el mundo
puede tener acceso a ella. Todas las señales humanas contenidas hasta
ahora en los libros han sido digitalizadas. Han sido guardadas y están
disponibles en estos bancos de datos, sin contar todos los cuadros,
todas las películas, todos los programas de tele, todo, absolutamente
todo." En 2008, este objetivo aún no se ha alcanzado. Sin embargo, de
los 30 millones de libros del dominio público disponibles en las
bibliotecas (sin contar las diferentes ediciones), 5 millones estarían
libremente disponibles en la web.

Tim Berners-Lee inventa la web en 1990. Cuando Pierre Ruetschi,
periodista del diario Tribune de Genève (Suiza), le pregunta: "Han
pasado siete años. ¿Está usted satisfecho de la manera en que ha
evolucionado la web?", Tim Berners-Lee contesta en diciembre de 1997
que, si bien se alegra de que la información disponible sea tan rica y
tan variada, la web aún no ha alcanzado la potencia prevista en el
momento de su concepción original. Le gustaría "que la web fuera más
interactiva, que la gente pudiera juntar esfuerzos para crear
información", en vez de limitarse a consumir la que se le ofrece. La
web debe convertirse en un verdadero "media colaborativo, un mundo de
conocimientos compartidos".

Esto empeza a concretarse siete años más tarde, con lo que se suele
llamar la "web 2.0", un concepto acuñado en 2004 por el editor Tim
O’Reilly, quien había escogido este título para una serie de
conferencias. La meta de la web 2.0 ya no es sólo utilizar la
información, sino también incitar a los usuarios a intercambiar y a
colaborar en línea, en blogs, wikis o enciclopedias cooperativas como
Wikipedia y Citizendium.

La accesibilidad del internet para todos es un desafío de igual
importancia. El sitio web Handicapzéro (o sea Discapacidad Cero),
puesto en línea en septiembre de 2000 por la asociación del mismo
nombre, se convierte en febrero de 2003 en un portal generalista que
ofrece un acceso adaptado a la información para los usuarios
francófonos afectados por un problema visual, es decir más del 10% de
la población. El sitio ofrece información sobre diversos asuntos -
noticias, programas de televisión, boletín meteorológico, etc. - y
sobre servicios para la salud, el empleo, el consumo, el ocio, el
deporte, la telefonía, etc. Las personas ciegas pueden acceder al sitio
web a través de un dispositivo braille o de una síntesis de voz. Las
personas con visión reducida pueden parametrizar en la página de
entrada el tamaño y la letra de carácter así como el color del fondo de
pantalla para una navegación más cómoda. Las personas que no padecen
deficiencia visual pueden corresponder en braille con personas ciegas
vía el sitio web.

En octubre de 2006, el sitio web adopta una nueva presentación
enriqueciendo aún más su contenido, adoptando una navegación más
intuitiva en la página de entrada, proponiendo combinaciones de teclas,
mejorando la "comodidad de lectura", etc. Más de 2 millones de
visitantes utilizan sus servicios durante el año 2006. Handicapzéro se
propone demostrar así "que con sólo respetar algunas reglas
elementales, el internet puede acabar convirtiéndose en un espacio de
libertad para todos".

Otro desafío concierne la infraestructura del internet. La conexión a
la red resulta más fácil gracias a la DSL (digital subscriber line), al
cable óptico (o fibra óptica), a las tecnologías wifi (wireless
fidelity) para un sector geográfico limitado y WiMAX (worldwide
interoperability for microwave access) para un sector geográfico
amplio. Jean-Paul, webmaster del sitio web hipermedia cotres.net,
resume la situación en enero de 2007: "Tengo la impresión de que
estamos viviendo un periodo 'flotante', situado entre los tiempos
heroicos, en los que se trataba de avanzar esperando a que la
tecnología nos alcanzara, y el futuro, en el que la anchura de banda
muy alta liberará fuerzas que aún no se han desencadenado."

La próxima generación del internet sería una red "pervasiva" que
permitiría conectarse en cualquier lugar y en cualquier momento a
través de cualquier tipo de aparato vía una red única y omnipresente.
Rafi Haladjian, fundador de la sociedad Ozone, desarrolla este concepto
de red pervasiva en 2007 en su sitio web: "La nueva ola afectará
nuestro mundo físico, nuestro entorno real, nuestra vida cotidiana en
cualquier momento. Ya no accederemos a la red, sino que viviremos en
ella. Las futuras componentes de esta red (cables, operadores, etc.)
serán completamente transparentes para el utilizador final. La red
estará siempre abierta, posibilitando así una conexión permanente en
cualquier lugar. También será agnóstica en términos de aplicaciones, ya
que estará fundada en los mismos protocolos del internet."

Pierre Schweitzer, inventor del proyecto @folio, una tableta de lectura
nómada, escribe en diciembre de 2006: "La suerte que compartimos todos
es la de estar viviendo desde dentro, aquí y ahora, esta transformación
fantástica. Cuando yo nací en 1963, en la memoria de los ordenadores
cabían apenas algunas páginas de caracteres. Hoy día, en mi lector
portátil caben miles de millones de páginas, una verdadera biblioteca
de barrio. Mañana, por el efecto combinado de la ley de Moore y de la
omnipresencia de las redes, el acceso instantáneo a las obras y a los
saberes será cosa corriente. El soporte de almacenamiento en sí ya ni
siquiera presentará mucho interés. Sólo importarán las comodidades
funcionales de uso y la poética de esos objetos."

Pierre añade: "La lectura digital llega más allá, mucho más allá de la
mera cuestión del 'libro' o de la prensa. El libro y el periódico
siguen siendo y seguirán siendo por mucho tiempo soportes de lectura
técnicamente insuperables para los contenidos de valor o para los
contenidos que traspasen un umbral crítico de difusión. Aunque su
modelo económico pueda seguir evolucionando (como pasa con la prensa
gratuita, destinada al público en general), no creo que haya ningún
trastorno radical a nivel de una sola generación. Más allá de esta
generación, sólo el futuro nos lo dirá. Ya veremos. Sin embargo se
desarrollan otros tipos de contenidos en la red. El internet lanza un
reto al documento impreso en el terreno de la difusión en la web
(difusión desmaterializada = coste marginal nulo) de las obras y de los
saberes, un terreno en el que lo impreso no logra equilibrar sus
costes, el espacio al que pueden acudir nuevos actores para quitarles
el sitio.

Ahora bien, en este nuevo ámbito, los equilibrios económicos y las
lógicas de adopción son radicalmente diferentes a los que imperan en el
mundo impreso – véase por ejemplo la evolución de los sistemas de
validación para los archivos abiertos en la publicación científica, o
los modelos económicos emergentes de la prensa en línea. Por lo tanto
es vano - e incluso peligroso - querer transformar con fórceps la
ecología del papel. ¡Pues semejante forcejeo acabaría aniquilándola! En
margen, algunos contenidos muy específicos, algunos nichos editoriales,
podrían ser transformados. Por ejemplo la enciclopedia o la publicación
científica ya han conocido cambios: del mismo modo, las guías
prácticas, los libros de actualidad – de uso casi único – y algunas
otras secciones que invaden las mesas de las librerías podrían
modificarse, para mayor alegría de los libreros. Pero en mi opinión no
se trata de un cambio masivo ni brutal: nuestras costumbres de lectura
no cambiarán de un día para otro. Al contrario, forman parte de
nuestras costumbres culturales y van evolucionando lentamente, a medida
que las adoptan (o sea, que las aceptan) las nuevas generaciones."

Marc Autret, periodista y diseñador gráfico, escribe en la misma fecha:
"Estoy convencido de que el ebook (o 'e-book') tiene mucho futuro en
todos los sectores no ficcionales. Me refiero al libro digital como
software, y no al soporte físico (porque las conjeturas acerca de éste
son más inciertas). Los editores de guías, de enciclopedias y de obras
informativas por lo general siguen considerando el ebook como una
declinación muy secundaria del libro impreso, sin duda porque de
momento el modelo comercial y la seguridad de esta explotación aún no
les parecen totalmente estabilizados. Pero todo es cuestión de tiempo.
Los ebooks no comerciales ya están emergiendo en varios lugares y en
cierto modo operan un desciframiento de los posibles. Emergen al menos
dos ejes distintos: (1) una interfaz de lectura/consulta cada vez más
atractiva y funcional (navegación, búsqueda, reestructuración
inmediata, anotaciones del usuario, quizz interactivo, etc.); (2) una
integración multimedia (video, sonido, infografía animada, base de
datos, etc.) hoy día fuertemente asociada a la web. Ningún libro físico
ofrece semejantes funcionalidades. Entonces me imagino el ebook de
mañana como una suerte de wiki cristalizado, empaquetado en un formato.
¿Cuál será entonce su valor propio? ¡La de un libro: la unidad y la
calidad del trabajo editorial!"

Para Denis Zwirn, presidente de Numilog, la gran librería online
francófona, el 2008 es una fecha clave en la curva de crecimiento del
mercado de los libros digitales, con la combinación de tres factores:

"(1) El desarrollo de amplios catálogos online que suelen proponer
funcionalidades de búsqueda en el texto completo, como el de la futura
Biblioteca digital europea, el de VollTextSuche Online, los de Google y
de Amazon. Tras haber 'sondeado' el contenido de la obra, es natural
que el usuario quiera acceder a la totalidad de la obra... en versión
digital.

(2) Avances técnicos esenciales tales como la tinta electrónica, que
permitiría mejorar radicalmente la experiencia de lectura final para el
usuario, por el parecido con la lectura en papel. Me refiero a lectores
como el iLiad de Irex o el Sony Reader, aunque también se perfilan
otros muchos. Este avance también tiene repercusiones sobre el
desarrollo de los nuevos smartphones multifunciones (BlackBerry,
iPhone) y sobre los softwares de lectura cuya interfaz – aunque haya
sido mejorada – se había concebido primero para leer los ebooks en un
PC, como Adobe Digital Edition.

(3) Por último, un cambio de actitud fundamental por parte de los
profesionales del sector, de los editores, y pronto probablemente
también de los libreros. Los editores anglosajones universitarios han
abierto un ancho camino que todos los demás están siguiendo, al menos
en los Estados Unidos, en Europa del Norte y en Francia: proponer una
versión digital de todas las obras. Incluso para los que unos años
atrás eran los más reticentes, la cuestión ya no es '¿por qué?', sino
'¿cómo?'. Los libreros no tardarán en considerar que la venta digital
forma parte integrante de su oficio.

El libro digital ya no es un tema de simposio, de definición conceptual
o de adivinación por algunos 'expertos': ahora se ha convertido en un
producto comercial y en un instrumento al servicio de la lectura. Ya no
hace falta esperar no sé qué nuevo modo de lectura hipermoderno e
hipertextual enriquecido de funcionalidades multimedia que orquesten
sabiamente su especificidad con respecto al papel. Ahora ha empezado
otra etapa: lo que conviene hacer es proponer textos que se puedan leer
con facilidad en los múltiples soportes de lectura electrónica que
utiliza la gente, porque quizás la tinta electrónica no tarde tanto en
invadirlos todos. Y también convendría proponer esos textos de modo
industrial. El ebook no es, ni llegará a ser nunca, un producto de
nicho (como los diccionarios, las guías de viaje, los deficientes
visuales...), sino que se está convirtiendo en un producto de masas,
capaz de tomar formas tan múltiples como el libro tradicional."



CRONOLOGIA


[Cada línea empieza por el año o bien por el año/mes. Por ejemplo,
1971/07 significa julio de 1971.]

  1968: El código ASCII es el primer sistema de codificación
informático.
  1971/07: El Proyecto Gutenberg es la primera biblioteca digital.
  1974: El internet da sus primeros pasos.
  1977: Se crea el UNIMARC como formato bibliográfico usual.
  1983: Despega el internet.
  1984: Se instituye el copyleft para los softwares.
  1990: Se estrena la web.
  1991/01: El Unicode es un sistema de codificación para todos los
idiomas.
  1993/01: La Online Books Page es el primer repertorio de ebooks
gratuitos.
  1993/06: Adobe lanza el formato PDF y el Acrobat Reader.
  1993/11: Mosaic es el primer software de navegación en la web.
  1994: El primer sitio web de biblioteca se pone en línea.
  1994: Los editores utilizan la web como instrumento de marketing.
  1995/07: Amazon.com es la primera gran librería online.
  1995: La prensa se pone en línea.
  1996/03: El Palm Pilot es la primera PDA.
  1996/04: Se crea el Internet Archive para archivar la web.
  1996/07: CyLibris es el pionero francófono de la edición electrónica.
  1996/10: @folio es un proyecto de lector portátil de textos
"abierto".
  1996: Algunos profesores se interesan por nuevos métodos de
enseñanza.
  1997/01: La convergencia multimedia es objeto de un coloquio.
  1997/04: E Ink desarrolla una tecnología de tinta electrónica.
  1997/10: Gallica es la sección digital de la Biblioteca nacional de
Francia.
  1997: La edición electrónica empieza a generalizarse.
  1997: Se pone en línea el Logos Dictionary, de acceso gratuito.
  1998/05: Las ediciones 00h00 se dedican a vender libros digitales.
  1999/09: El formato OeB es un estándar de libro digital.
  1999/12: WebEncyclo es la primera enciclopedia francófona en acceso
libre.
  1999/12: Britannica.com es la primera enciclopedia anglófona en
acceso libre.
  1999: Los bibliotecarios digitales prosperan.
  1999: Algunos autores acuden al soporte digital.
  2000/01: El Million Book Project quiere proponer un millón de libros
en la web.
  2000/02: yourDictionary.com es un portal para los idiomas.
  2000/03: Mobipocket se dedica a los libros digitales para PDA.
  2000/07: La mitad de los usuarios del internet no es anglófona.
  2000/07: Stephen King autopublica una novela en línea.
  2000/08: Microsoft lanza el formato LIT y el Microsoft Reader.
  2000/09: La librería Numilog se dedica a vender libros digitales.
  2000/09: El portal Handicapzéro demuestra que el internet es
accesible para todos.
  2000/10: Distributed Proofreaders digitaliza los libros del dominio
público.
  2000/10: La Public Library of Science lanzará revistas online
gratuitas.
  2000/11: La versión digitalizada de la Biblia de Gutenberg se pone en
línea.
  2001/01: Wikipedia es la primera gran enciclopedia colaborativa
gratuita.
  2001: Creative Commons renueva el derecho de autor adaptándolo a la
web.
  2003/09: Las clases del MIT OpenCourseWare están a disposición de
todos.
  2004/01: El Proyecto Gutenberg Europe será multilingüe.
  2004/10: Google lanza Google Print para rebautizarlo Google Books.
  2005/04: Amazon.com recompra la sociedad Mobipocket.
  2005/10: La Open Content Alliance lanza una biblioteca digital
universal.
  2006/08: El catálogo colectivo WorldCat se vuelve gratuito en la web.
  2006/10: Microsoft lanza Live Search Books pero lo abandona
enseguida.
  2006/10: Sony lanza su tableta de lectura Sony Reader.
  2007/03: Citizendium lanza una enciclopedia en línea colaborativa
"fiable".
  2007/03: Inter-Active Terminology for Europe es una base
terminológica europea.
  2007/05: La Encyclopedia of Life hace un inventario de todas las
especies vegetales y animales.
  2007/11: Amazon.com lanza su tableta de lectura Kindle.
  2008/05: Hachette Livre recompra la sociedad Numilog.
  2008/10: Google Books propone un acuerdo a las asociaciones de
autores y editores.
  2008/11: Europeana es la biblioteca digital europea.
  2009/02: Amazon.com lanza el Kindle 2.



AGRADECIMIENTOS


Este libro debe mucho a todas las personas que han aceptado contestar
mis preguntas, incluso durante varios años para algunas de ellas. La
mayoría de las entrevistas ha sido publicada por el NEF (Net des études
françaises), Universidad de Toronto. Están disponibles en línea
, con textos de Nicolas
Ancion, Alex Andrachmes, Guy Antoine, Silvaine Arabo, Arlette Attali,
Marc Autret, Isabelle Aveline, Jean-Pierre Balpe, Emmanuel Barthe,
Robert Beard, Michael Behrens, Michel Benoît, Guy Bertrand, Olivier
Bogros, Christian Boitet, Bernard Boudic, Bakayoko Bourahima, Marie-
Aude Bourson, Lucie de Boutiny, Anne-Cécile Brandenbourger, Alain Bron,
Patrice Cailleaud, Tyler Chambers, Pascal Chartier, Richard Chotin,
Alain Clavet, Jean-Pierre Cloutier, Jacques Coubard, Luc
Dall’Armellina, Kushal Dave, Cynthia Delisle, Emilie Devriendt, Bruno
Didier, Catherine Domain, Helen Dry, Bill Dunlap, Pierre-Noël Favennec,
Gérard Fourestier, Pierre François Gagnon, Olivier Gainon, Jacques
Gauchey, Raymond Godefroy, Muriel Goiran, Marcel Grangier, Barbara
Grimes, Michael Hart, Roberto Hernández Montoya, Randy Hobler, Eduard
Hovy, Christiane Jadelot, Gérard Jean-François, Jean-Paul, Anne-
Bénédicte Joly, Brian King, Geoffrey Kingscott, Steven Krauwer, Gaëlle
Lacaze, Michel Landaret, Hélène Larroche, Pierre Le Loarer, Claire Le
Parco, Annie Le Saux, Fabrice Lhomme, Philippe Loubière, Pierre
Magnenat, Xavier Malbreil, Alain Marchiset, Maria Victoria Marinetti,
Michael Martin, Tim McKenna, Emmanuel Ménard, Yoshi Mikami, Jacky
Minier, Jean-Philippe Mouton, John Mark Ockerbloom, Caoimhín Ó
Donnaíle, Jacques Pataillot, Alain Patez, Nicolas Pewny, Marie-Joseph
Pierre, Hervé Ponsot, Olivier Pujol, Anissa Rachef, Peter Raggett,
Patrick Rebollar, Philippe Renaut, Jean-Baptiste Rey, Philippe Rivière,
Blaise Rosnay, Bruno de Sa Moreira, Pierre Schweitzer, Henk
Slettenhaar, Murray Suid, June Thompson, Zina Tucsnak, François Vadrot,
Christian Vandendorpe, Robert Ware, Russon Wooldridge y Denis Zwirn.

Muchas gracias a Anna Álvarez, traductora, por la traducción de este
libro del francés al español.


Copyright © 2009 Marie Lebert. Todos derechos reservados.





*** End of this LibraryBlog Digital Book "Una corta historia del eBook" ***

Copyright 2023 LibraryBlog. All rights reserved.



Home