Primeramente deberíamos establecer qué entendemos por las diferentes versiones de webs. Todo se inició, como bien es sabido, con la web a secas (que podemos llamar, retrospectivamente, web 1.0) El lenguaje de programación en base a marcas HTML permitía visualizar informaciones de un modo formateado. Por así, decirlo, la web 1.0 garantizaba la lectura de datos, textos e imágenes en máquinas alejadas mediante un protocolo de ordenación de las mismas entendible por los navegadores. En la web 1.0, el usuario medio puede leer pero no le es sencillo escribir. Para hacerlo, debe formatear la información usando HTML y debe disponer de un servidor en donde alojar los datos. Por supuesto, a lo largo de los años, el lenguaje de programación progresó y las páginas web dejaron de ser estáticas mediante la programación dinámica que permitía visualizar informaciones diferentes en función de las acciones del lector. También se dieron pasos hacia la posibilidad de escribir con los formularios y la instrucción “submit”.
La web 2.0 dio un paso adelante permitiendo escribir informaciones de manera sencilla al usuario medio. Conceptualmente, no supuso una gran revolución como muchas veces se ha pretendido. El término fue acuñado por Tim O’Reilly y se trató mucho más de una estrategia de marketing que tecnológica (coincido con Nova Spivack en que realmente siempre es la misma web). Básicamente, se trataba de ordenar los contenidos de las páginas sobre una base de datos modificable de manera amigable y fácil por el usuario. Así, se le liberaba de tener que conocer la programación HTML (o cualquiera otra). Evidentemente, y aunque este hecho se olvida a menudo, no se le ha liberado de tener que disponer de un servidor que aloje las páginas. Lo único que ha variado es que existen empresas u organizaciones que ponen a disposición de usuarios anónimos amplias zonas de memoria y, muchas veces, gratuitamente. Desde este punto de vista, la web 2.0 se basa sobre todo en la gratuidad y disponibilidad de servidores sin los cuales, su desarrollo hubiese sido imposible (hecho que también genera inconvenientes como puede verse aquí).
La combinación de los nuevos conceptos de programación y gestión de páginas (CSS, XHTML, XML, SOAP, REST, JAVA, AJAX, P2P, RSS, widgets, etc) y la masiva gratuidad de hardware en los servidores supuso – esta vez sí- una pequeña revolución en el uso de la web. Usuarios que de otro modo nunca hubiesen tenido la maña o los medios para “subir” contenidos a la red, ahora podían hacerlo fácilmente. Esto generó las redes sociales, los blogs, las bases de datos de fotografías, etc. , etc. Y, aportó, conceptos como la Wikipedia y la creación colaborativa.
Desde el punto de vista de la literatura, el impacto ha sido importante en cuanto a digitalizarla aún más allá. Porque, ahora, no sólo es posible disponer vía Internet de numerosos fondos digitalizados sino que, además, muchos escritores – noveles o encumbrados- pueden volcar su obra en la red y ponerla a disposición de cualquiera que desee leerla sin necesitar de editores. Incluso, pueden crear obras entre varios autores de manera casi simultánea aún cuando se encuentren en zonas alejadas del planeta. La calidad de toda esta ingente producción es cosa de otro cantar. Asimismo, la persistencia de los potenciales escritores es, muchas veces, inexistente y tras una aproximación casi anecdótica para crear un blog y “postear” algunas entradas, la mayoría son abandonados. Algo no diferente de lo que ocurre y ha ocurrido siempre en la literatura convencional donde muchos lo intentan, pocos perseveran y muy pocos triunfan. También los medios tradicionales (editoriales, periódicos, etc) han usado ampliamente la web 2.0 para promocionar sus contenidos literarios, digitalizados.
Otra aplicación potencial muy interesante era/es el mash-ups (unión de varias aplicaciones aunándolas en una nueva con contenidos diferentes) pero, en la práctica, esta posibilidad se ha concentrado en la cartografía uniendo los mapas de Google Earth (u otros) a programas de localización de tiendas, restaurantes, rutas, etc.
Tanto con la web 1.0 como con la web 2.0, los avances en literatura digital (no en la digitalizada) no han sido importantes, al menos debido a ellas. Ciertamente, un creador de literatura digital tiene ahora más facilidad en “subir” una obra a la red pero, en cualquier caso, no tanta como se cree porque, por ejemplo, los servidores gratuitos y muchos de pago vetan ficheros de muchas categorías – particularmente los ejecutables o los que tienen contenidos activos- por razones de seguridad.
La web 2.0 en sí misma no aporta creatividad literaria digital. Desde este punto de vista, la aportación de FLASH es mucho más importante. Las posibilidades javascript ya estaban presentes en la web 1.0, de modo que tampoco suponen un cambio decisivo. La interactividad con el usuario que aporta la web 2.0 no ha sido importante en el desarrollo de la literatura digital ya que, como es bastante evidente, las opciones suelen ser bastante escasas (por eso, los blogs tienden a parecerse mucho en su formato lo cual, en cierto modo, es bueno para que los usuarios naveguen entre ellos sin ninguna dificultad. Lo mismo ocurre con twitter o fotolog. Vista una página, vistas todas, desde el punto de vista del formato).
En mi opinión, la opción de los mash-ups es aún muy interesante para la literatura digital. Cabría pensar en una obra que aunara contenido propio con textos de los clásicos combinados dinámicamente de forma novedosa y creativa. Pero no es una potencialidad explotada, probablemente por su complejidad de programación (una obra simplísima – y fallida- en esta dirección es Goggi
¿Qué es la web 3.0 y qué puede aportar a la literatura digital?
Las webs 1.0 y 2.0, con su mayor o menor facilidad para volcar contenido en la red y su mayor o menor interactividad, no dejan de ser bases de datos “ciegas”. Cada página es una especie de catálogo que el usuario puede leer y escribir pero que no contiene información acerca de cómo ser usada. Por así decirlo, cada página “no sabe de qué trata ella misma y el ordenador no sabe qué muestra o deja de mostrar”. Las páginas tienen significado para las personas que las leen pero no para los ordenadores que las procesan.
Cuando realizamos una consulta sobre un tema concreto, se nos presentan miles, millones a veces, de potenciales lugares sin orden ni concierto (o, peor aún, con el orden y concierto que da el dinero pagado por las empresas para que las páginas aparezcan en mejores lugares). El algoritmo Page Rank de Google es un intento, aún incipiente, de lograr un mayor acierto en la búsqueda de información ¿Cómo podemos dotar a las máquinas de una cierta inteligencia para que realmente nos muestren aquello que nos interesa? Esta idea, aunque puesta de moda ahora, es tan vieja como la red.
Ese es el objetivo de la web 3.0 (término propuesto por Jeffrey Zeldman más como arma publicitaria que de concepto). Se trataría de añadir a cada página una serie de contenidos semánticos (metadatos) de manera que un programa de inteligencia artificial pudiera evaluar si esa página, y no otra, es la que realmente nos interesa cuando hacemos una consulta. Es decir, añadirle un contenido semántico que pueda ser tratado por máquinas.
Imaginemos, por ejemplo, que queremos encontrar información referida a las novelas de García Márquez que sean de su primera época y que se puedan adquirir por menos de diez euros en alguna librería de nuestra ciudad. Una búsqueda de este tipo, en la actualidad, puede llevar horas y necesitar saltar por cientos de websites. Pero, sí cada página contuviese información adicional oculta que la centrara en un interés concreto, podría aparecernos el contenido requerido inmediatamente.
Lograr esto es complejo. Para empezar requiere sistematizar de manera rigurosa el conocimiento, lo que ya de por sí es tarea de titanes (si no, ya tendríamos ordenadores pensantes). Para un humano entender que “hace calor” es inmediato pero ¿cómo hacemos que un ordenador “entienda” ese concepto? ¿cómo lo codificamos? Además, requiere encontrar una vía de simular el pensamiento metafórico del ser humano que llama de diversas maneras a un sólo concepto, algo que aún no se conseguido técnicamente. ¿cómo “sabe” un ordenador que “hace calor”, “¡vaya calor!”, “ hace un día sofocante” es más o menos lo mismo? ¿cómo codificamos esas infinitas formas de decir? En definitiva, se trata de dotar a la máquina de cierta capacidad de razonar. Un campo de investigación, dicho sea de paso, apasionante que no sólo se da en el ámbito de la red sino, sobre todo, en el de la ingeniería y en el campo militar.
El primer paso será crear la “data web”, una base de datos universal que entienda todos los formatos ahora existentes en los miles de millones de páginas almacenadas en Internet. El estándar RDF parece que puede ser útil en este desarrollo como base de datos de metadatos pero es muy complejo matemáticamente y no se popularizará con facilidad. Hay ya, en estos momentos, aplicaciones que acumulan las relaciones que se establecen en las redes sociales, es decir usan el conocimiento que los seres humanos utilizan al usar la red. En este campo tenemos KnowItAll , Metaweb, PowerSet o RadarNetworks, por ejemplo. El lenguaje RDF/OWL es un paso reciente para codificar conocimiento ontológico. También existen ya formatos locales especializados para almacenar información determinada como los propuestos por Tecnorati para formatear la información de contacto de una persona (microformato hCard), una cita (microformato hCalendar), una opinión (microformato hReview) o una relación en una red social (microformato XFN). Bastantes proyectos están financiados por organismos militares.
Pero, en general ahora mismo, no sólo nos falta aún teoría lógica sino un hardware capaz de computar tal cantidad de información a la velocidad suficiente pues de nada serviría hacer una consulta cuya respuesta perfecta llegara tres años después.
Una cuestión que queda en el aire es si esa enorme capacidad de raciocinio de las nuevas máquinas estará gratuitamente en manos del público en general.
¿Qué aportaría la web 3.0 – cuando se logre- a la literatura?
A la digitalizada está claro que mucho. A la filología también. La facilidad para encontrar textos, para analizar un corpus o para buscar referencias será extrema y esta simplicidad acelerará los estudios literarios por el simple hecho de que se podrá hacer más y mejor en mucho menos tiempo. Podrán establecerse conexiones semánticas entre web lejanas, encontrar nuevas asociaciones y hacer estudios comparativos extremadamente profundos.
¿Y a la literatura digital en sí misma? Es un campo desconocido, una tierra que explorar. Si aún no hemos sido capaces de utilizar de manera creativa y claramente diferenciada –en literatura digital- la web 1.0 y la web 2.0, es difícil imaginar qué se puede conseguir con la web 3.0
Algunas ideas:
- Un uso extensivo de los mash-ups que mediante los metadatos semánticos permitirían escribir obras dinámicas de alta calidad. Utilizando el concepto medieval de que “escribir es reescribir” podría pensarse en combinar textos de alto nivel literario de manera novedosa y creativa. No las mezcolanzas aburridas que ahora producen los programas de creación de textos (ver, por ejemplo, unas reflexiones al respecto). Habría que reconsiderar el concepto de plagio y delimitar los derechos de autor pero las posibilidades son interesantes. Si a estas combinaciones añadimos generadores de textos “inteligentes” más avanzados podríamos obtener textos definitivamente atractivos. ¿Quizá una novela negra en el buen blank verse de Shakespeare?
- Textos que “entiendan” el lenguaje natural (un reto que hunde sus raíces en los inicios de la informática, allá por los cincuenta del siglo pasado, y nunca conseguido) de modo que puedan interactuar con el usuario creando diálogos on-time que tengan sentido y calidad literaria.
- Red de hiperenlaces que siempre lleven a una historia atractiva ( lo que sería una evolución del hipertexto adaptativo tal como se describía aquí) y que eviten un curso narrativo aburrido o fallido.
- La novela interactiva en que uno de los personajes sea el lector. La novela se adaptaría a lo que, libremente – y siempre de manera distinta-, escribiera el lector formando el diálogo y los escenarios de manera coherente con esta interacción. Esto podría ser posible dado que la máquina “entendería” el contexto y el significado del texto.
¡¡¡¡¡¡¡ FELICES FIESTAS PARA TODOS !!!!!!!!!!!
ResponderEliminarHola, como estas, mi nombre es Nicolas, quería felicitarte por tu pagina, te comento que lance un nuevo sitio, el cual es de ayuda para hacer publicidad gratis, debido a que soy el creador de un nuevo sistema de marketing por Internet, este es el Marketing Mega Virtual. Esto es la combinación de las diferentes tácticas para hacer publicidad en la red, dando como resultado la expansión de una empresa en pocos meses, lo que es mejor, es gratis, ya que se utilizan los recursos de Internet, espero que pases por mi sitio y que sea de tu agrado, ya que en la misma voy a enseñar estas técnicas en forma totalmente gratis, si te interesa podemos hacer un intercambio de links, cualquier cosa avisame, te dejo mi email tvinternet08@gmail.com, te mando un abrazo.
El equipo de Marketing Mega Virtual.