4/2/25

Siempre pueda verte ante los ojos míos




... pues agora el cielo
con inmortales pies pisas y mides,                 
y su mudanza ves, estando queda,
¿por qué de mí te olvidas y no pides
que se apresure el tiempo en que este velo
rompa del cuerpo, y verme libre pueda,
                          y en la tercera rueda,                            
contigo mano a mano,
busquemos otro llano,
busquemos otros montes y otros ríos,
otros valles floridos y sombríos,
do descansar y siempre pueda verte                 
ante los ojos míos,
sin miedo y sobresalto de perderte?


Garcilaso de la Vega




Hoy




Hoy.

Ojalá los calendarios no tuvieran esta fecha. Ojala, vientos amigos hubiesen arrancado todas las hojas de todos los calendarios de todos los años de tal día como hoy. Ojala nunca hubiese ocurrido. Los malos duendes de la melancolía, la desesperanza y el dolor rebuscan hoy por los cajones de mi memoria y te evocan. El universo te recuerda. El cosmos llora. Yo lloro. Y las artes de toda la historia confluyen para honrarte cuando llega este día.

Los timbales y las trompetas de Purcell fueron musicados para ti, para ser escuchados en tu honor.

Neruda escribió La noche está estrellada y tú no estás conmigo para que yo lo leyera esta noche.

El destino sabía que el Lacrimosa de Mozart fue creado para nosotros.


El grito final de muerte helada de La Boheme era por tí.

y con Machado he aprendido que habría de hacerse Su voluntad contra la mía. Siempre fue así, siempre es así.

La barca rosa de Gabriela Mistral era la tuya, tierna compañera.

Dante ya sabía que serás la Beatriz que me guíe y me salve cuando arribe mi turno.

Te buscaré más allá de las tinieblas, mi dulce Eurídice. Y no miraré atrás.

También yo, como León Osorio, cien veces quise interrogar al cielo pero ante mi desventura el cielo calla.

He sentido el manotazo duro, el golpe helado, el hachazo invisible y homicida que Hernández anunció.

Con Quevedo espero que seas polvo enamorado. Yo lo soy. Siempre lo seré.

Me aferro a los versos de Dylan Thomas: aunque los amantes se pierdan quedará el amor y la muerte no tendrá señorío. Eso sí te lo garantizo.

Y Martí i Pol sabía ya que no tornarás pero que perduras en mí de tal manera que me cuesta imaginarte ausente para siempre.


Sólo anhelo, con Manrique, a que mi río desemboque en tu mismo mar y nuestras aguas se confundan otra vez.



1/2/25

The Book of the Duchess - Hypertext edition of the four witness version

 


The Book of the Duchess - Hypertext edition es una comparación digital e hipertextual de cuatro versiones de El libro de la Duquesa de Geoffrey Chaucer. En concreto, las 4 versiones comparadas son MS Tanner 346: A Facsimile by Pamela Robinson; Bodleian Library MS Fairfax 16 by John Norton Smith; MS Bodley 638: A Facsimile by Pamela Robinson y Thynne 1532 Edition on ProQuest.

Su objetivo principal es analizar las diferencias textuales entre dichos documentos. Todas las grafías son las que aparecen en el manuscrito, con las numeraciones encabezadas sólo en la edición de Thynne por ser la más larga. Existen llamadas hipertextuales que llevan a otros documentos, enciclopedias (como la Británica) o a diccionarios que esclarecen el significado de palabras o frases. 

El libro de la Duquesa es un poema de visión onírica que cuenta la historia de un hombre que se queda dormido y sueña con una cacería, donde se encuentra con un caballero apenado que le cuenta la historia de su amor perdido.  

Puede accederse desde este enlace.







30/1/25

X Simposio de la ASETEL

 


Hoy y mañana se celebra, en Cádiz, el X Simposio de la Asociación Española de Teoría de la Literatura. Tendrá lugar en la Facultad de Filosofía y Letras de la Universidad de Cádiz y será dirigido por la doctora María Isabel Morales Sánchez. En esta edición, expertos de España y Portugal analizaran, especialmente,  las transformaciones experimentadas por la literatura en sus modos de entender y contar la realidad, en un mundo técnico donde la realidad textual ha expandido su espacio a otras posibilidades, marcadas por la hibridez y la interdiscursividad. 

El programa completo de ambas jornadas puede leerse en este enlace.

Más información en este otro enlace.



E-reader Kobo Clara Colour

 

El lector de libros electrónicos Kobo Clara Colour presenta las siguientes características:

* Tamaño de pantalla de 6"
* Pantalla E Ink Kaleido™ 3 con FastGLR y modo oscuro
* 1448 x 1072 píxeles
* Resolución en blanco y negro de 300 ppp
* Resolución en color de150 ppp
* Color mediante capas de filtros
* Almacenamiento RAM de 16 GB
* CPU Dual 2,0 GHz
* Dispone de WiFi 802.11 ac/b/g/n, Bluetooth® y USB-C
* Batería de 1500 mAh,
* Resistencia al agua IPX8
* Iluminación frontal
* iType: 13 fuentes diferentes y más de 50 estilos de fuente
* Dimensiones de 112 x 160 x 9,2 mm
* Peso de 174
* Capaz de leer documentos en EPUB, EPUB3, FlePub, PDF, MOBI, JPEG, GIF, PNG, BMP, TIFF, TXT, HTML, RTF, CBZ, CBR), así como verbalizar audiolibros Kobo.



28/1/25

DeepSeek, rendimiento excelente sin grandes recursos

 

Estos días, la prensa está llena de noticias sobre un nuevo LLM, un gran modelo de lenguaje, que viene de China y que se denomina DeepSeek. El revuelo viene dado por cómo su existencia ha afectado brutalmente a las cotizaciones bursátiles de las grandes tecnológicas (NVIDIA, por ejemplo, ha disminuido su capitalización en seiscientos mil millones de dólares) y por cómo cuestiona los grandes planes de desarrollo en IA que EEUU acababa de proponer, el llamado Stargate.

La empresa DeepSeek, cuyo LLM recibe el mismo nombre, tiene sus raíces en una empresa de inversiones fundada en ZhanJiang, en el 2016, y llamada High-Flyer. Su fundador fue un hombre interesado en la IA, Lian Wenfeng. En el 2023, esta financiera puso en marcha un laboratorio de desarrollo de aplicaciones en inteligencia artificial y pronto este laboratorio pasó a ser una empresa independiente llamada DeepSeek. Para finales de 2023, DeepSeek puso ya a disposición del público, en código abierto, su primer modelo LLM llamado Deepseek Coder. A mediados del 2024 publicó su modelo V2 y en los últimos meses los modelos V3 y R1, siendo V3 la versión gran público y R1 la más avanzada para usos empresariales.

Y aquí llegamos al punto disruptivo. Estas dos últimas versiones son equiparables en rendimiento a los grandes modelos establecidos como ChatGPT, OpenAI o1, Llama,  Claude o cualquier otro desarrollado en los últimos años por las grandes compañías de IA.

El origen de la convulsión que estos desarrollos han causado en la bolsa y en los planes estratégicos está basado en seis aspectos fundamentales:

- La rapidez de desarrollo de sus redes LLM. En un año han llegado a crear modelos que a otros les ha llevado décadas.
- Es de código abierto, lo que implica que millones de desarrolladores podrán ahora aumentar sus capacidades en tiempos muy breves; así como que se desmonta el secretismo y el misterio que las grandes empresas daban a los LLM.
- Un coste de creación y de operación minúsculo en comparación con lo gastado para los otros modelos. Así, se ha informado que R1 no ha costado más de 6 millones de dólares cuando sus competidores han necesitado entre 60 y 100 millones. Una muestra de que es posible hacer grandes avances en LLMs sin grandes inversiones. Si esto es así, la recientemente anunciada inversión de medio billón de dólares en desarrollo de IA parece exorbitada, sobredimensionada e innecesaria. Las empresas que desarrollan hardware muy especializado pueden poner en cuarentena sus enormes inversiones por no ser necesarias.
- Hasta ahora existía la idea de que para desarrollar nuevos modelos de IA era necesario un hardware (microprocesadores, etc.) muy avanzado y costoso de fabricar. Pero, DeepSeek, sujeto a las restricciones de componentes occidentales impuestas a China, ha demostrado que no es así.
- DeepSeek "explica" cómo ha llegado a una respuesta dada. Los LLMs actuales se caracterizan porque no se sabe de dónde sale la respuesta, ni siquiera si es correcta o es una alucinación. DeepSeek indica que puede contestar y, además, razonar la respuesta. Recuerda, en este sentido, a los antiguos sistemas expertos.
- El uso de DeepSeek es gratis (aunque hay que registrarse) para los particulares y tiene un costo mínimo para las empresas.

El resultado de todo esto es la grandísima caída en bolsa de todas las grandes empresas occidentales ligadas a la IA. ¿Para que invertir en ellas si se puede hacer lo mismo sin tanto aspaviento y con poco dinero?

Dicho esto, siempre hay que llamar a la prudencia. En este momento, y como siempre, estamos inmersos en los mensajes de marketing de unos y otros, siempre interesados y alejados de la verdad. Ciertamente, DeepSeek es un buen LLM pero queda aún mucho para demostrar que es la panacea. Al cabo, movimientos similares se han visto en el pasado en otros campos de la informática y no se han impuesto. Por ejemplo, hace 30 años, Linux, un SO de código abierto con amplias posibilidades comenzó con grandes expectativas para finalmente quedar recluido a un nicho muy pequeño respecto a Windows.

Han empezado ya también, en cosa de horas, las "contramedidas" para crear opinión. Anuncios de que DeepSeek había almacenado decenas de miles de chips NVIDIA para poder correr su LLM y que no es cierto que no se precise hardware avanzado, advertencias de censura interna en la LLM (al parecer, no trata los temas sensibles al gobierno chino), problemas con la seguridad y confidencialidad de los datos que acaban en servidores chinos sin estar sujetos a las leyes occidentales de tratamiento de datos e, incluso, la empresa ha denunciado un ataque masivo cibernético a sus servidores.

Calculo que, en unas cuantas semanas o en pocos meses, las aguas volverán a su cauce, las acciones recobrarán sus valores y la evaluación técnica será más técnica que "marketiniana". Veremos.

Ahora bien, ¿por qué DeepSeek está ofreciendo estos rendimientos, equiparables a los demás LLM, a bajo coste?

DeepSeek es una red neuronal del tipo transformer (como lo son las redes de sus competidores) pero incluye nuevas ideas para mejorar la eficacia y rebajar el coste. Son varias las técnicas que utiliza para lograrlo.

En primer lugar, en vez de recurrir a un entrenamiento desde cero, DeepSeek utiliza las respuestas de los otros modelos existentes. Es decir, sus datos de entrenamiento parten de un entrenamiento hecho por otros. Podría pensarse que es una práctica abusiva si usan resultados de modelos que no fueran de la propia DeepSeeek y ciertamente lo sería, pero no más abusiva de cuando los modelos cerrados recogieron todas la información de periódicos, libros y blogs existente en Internet. Nadie ha pagado nada por usar lo que otros crearon.

Esta técnica, llamada de "destilación", significa que los modelos LLM no aprenden sólo de datos en bruto sino que pueden aprender de otros modelos que ya han aprendido. En cierto modo, es similar al aprendizaje humano. Los niños no aprenden todo de observar, no reinventan las matemáticas, no hacen arqueología para descubrir la historia. Aprenden de otras personas, de los profesores, de una cadena de seres humanos que acumularon conocimiento aprendiendo los unos de los otros, destilando el conocimiento de los ancestros para depurarlo, mejorarlo y transmitirlo a las nuevas generaciones. Así, el coste y tiempo de entrenamiento disminuyen.

Asimismo, la longitud del registro para tener en cuenta el contexto pasa a 128.000 tokens, el doble de lo habitual en otros modelos. Por ello, a medida que la conversación avanza, puede mantenerse más tiempo la coherencia con lo ya dicho.  

Igualmente, los desarrolladores citan el Multi-Head Latent Attention (MLA) que permite discernir entre matices del lenguaje. Por así decirlo, prestan más atención a los tokens que son más relevantes en información para almacenar la información y crear nuevo texto. Un ejemplo sería considerar la frase "El niño jugó con un balón". Los tokens "el" y "un" no aportan nada y podemos descartarlos a la hora de generar nuevo texto. Los modelos transformer convencionales suelen adoptar el algoritmo de atención "multicabezal" (MHA), pero durante la generación del texto, la memoria se convertirá en el cuello de botella que limitará la eficiencia de la inferencia. El nuevo sistema MLA permite reducir significativamente el tamaño de este caché de memoria. 

La otra técnica importante es que DeepSeek "trocea" el conocimiento en subconjuntos especializados que se denominan "expertos" o, en su terminología original MoE, Mixture of Experts.

Sabido es que los LLM usan redes neuronales con cientos de cientos de miles de millones de tokens que se interconectan probabilísticamente entre sí. Procesar información a través de cientos de miles de millones de nodos requiere un hardware potentísimo, mucho tiempo y un consumo de energía a raudales. Obviamente, el coste de operación es alto y complicado. 

DeepSeek reparte estos cientos de miles de millones de nodos en subgrupos y, según sea la pregunta, utiliza uno u otro sin necesidad de utilizar siempre todo el conjunto a la vez. Por ejemplo, no necesitamos recurrir a toda la red neuronal entrenada con, por ejemplo, datos de biología molecular  si la pregunta habla de carpintería, de la misma forma que un humano se dirigiría a un experto y no lanzaría su pregunta al mundo entero. Así, las respuestas son más rápidas y el consumo de energía se reduce mucho. El coste de operación es, entonces, bajo.

También se ha informado que se utilizan multitokens, es decir crear nuevos tokens uniendo otros existentes. Esto reduce el número de parámetros a usar si bien también reduce la precisión de la respuesta. Por así, decirlo es como si para crear una frase sólo pudiéramos elegir entre otras frases y no palabra a palabra. Se combina con un sistema Multi-Token Prediction (MTP).

En concreto, de los aproximadamente 671.000 millones de tokens globales de que dispone la red neuronal V3, las respuestas se obtienen a partir de subconjuntos de entre 35 y 40 mil millones de parámetros activados simultáneamente. Es evidente que las necesidades de CPU, de hardware especializado, de memoria y de consumo eléctrico han de bajar considerablemente.  DeepSeek podría operar con GPUs ya existentes para videojuegos avanzados. Otra vez, hay que poner todo esto en perspectiva, ya que no hay laptops o workstations con la capacidad necesaria. En el artículo técnico de DeepSeek se dice que han usado 2048 GPUs de NVIDIA. Pero un paso en la buena dirección es claro que lo es.

Un reciente artículo técnico publicado por los desarrolladores y que cubre ampliamente los aspectos técnicos puede leerse en este enlace. Para la versión V2, este artículo técnico resulta esclarecedor. 

Para comenzar a usar DeepSeek, llámese a este enlace.

En Github, los desarrolladores pueden encontrar código en este otro enlace.





25/1/25

Literatura e Tecnologia: Futuros (im)possíveis

 


Desde el 23 al 27 del próximo mes de junio se celebrará el Simposio sobre literatura y tecnología, con el título de Literatura e Tecnologia: Futuros (im)possíveis. Tendrá lugar en Manaos.

El simposio llega a su cuarta edición y pretende reunir estudios sobre las relaciones que pueden establecerse entre los campos de la literatura y la tecnología, particularmente la digital. Campos como la literatura electrónica, la literatura en red, la aplicación de la IA a la escritura, la catalogación de corpa, etc. tienen cabida en los debates.

En este momento está abierto el plazo de presentación de propuestas para su evaluación por el comité del simposio.

Más información en este enlace.



23/1/25

The Ballardian Tarot

 


The Ballardian Tarot, de Mike Bonsall, es un juego literario de naipes basado en la obra de J.G. Ballard.

Una vez tiradas las cartas desde un mazo dibujado, aparecen unas interpretaciones, más literarias que exotéricas y basadas en la pequeña obra de Ballard titulada "Aquello en lo que creo" (What I Beleive, en el original). Hay 22 cartas y 44 interpretaciones según se saquen por un lado u otro.

La primera carta representa "Un Mensaje del Tiempo Profundo". La segunda carta representa "Noticias de un presente agotado" y la tercera es "Las posibilidades de los próximos cinco minutos".

Puede leerse e interactuar con este tarot desde este enlace.




14/1/25

Aplicación de los transformers al estudio de la bioquímica evolutiva

 


Este post no tiene que ver con el lenguaje y, menos, con la literatura digital. ¿Por qué lo publico,  entonces?

Es bien sabido que los grandes modelos de lenguaje, conocidos por su acrónimo en inglés, LMM, permiten generar texto en lenguaje natural que no existía previamente. Es decir, las redes neuronales que están en el corazón de un LMM no funcionan extrayendo textos de una base de datos conocida para responder a alguna pregunta de un usuario con una frase ya existente en algún sitio, sino que generan texto nuevo en base a las relaciones y pesos matemáticos establecidos entre los millones de nodos que componen la red neuronal. Ya hemos visto en numerosas entradas anteriores de Biblumliteraria, cómo la creación de texto es siempre muy correcta en lo gramatical y sintáctico, simulando de manera creíble el lenguaje humano real, aunque en muchas ocasiones carezca de creatividad e interés literario, algo que ocurre también con muchísimos humanos.

Los LMM se basan en redes neuronales conocidas como transformers. Resumiendo muchísimo, las frases que, como entrenamiento, se le suministran al modelo se "trocean" en partes llamadas tokens (que, en la mayoría de los casos, pero no siempre, coinciden con una palabra particular). Tras alimentar el modelo con miles de millones de estas frases (extraídas del vasto corpus digital existente), un proceso matemático establece las relaciones probabilísticas entre dichos tokens o conjunto de tokens, teniendo en cuenta no sólo la pregunta original sino las preguntas-respuestas que haya habido en el transcurso de la conversación para mantener la coherencia a lo largo de la misma

Como se ha citado, las frases así generadas, que pueden ser muy elaboradas, son correctas en el lenguaje natural del que se trate. Ahora bien, como también hemos visto en entradas anteriores de este blog, que sean correctas, incluso literarias o elevadas, no significa que sean reales y, en ocasiones, se generan respuestas falsas totalmente verosímiles. Véanse, por ejemplo, las que se dan en este enlace.

Pues bien, ¿Qué pasaría si usásemos la misma técnica de transformers en el campo de la bioquímica , pero haciendo que los tokens no fuese palabras o signos lingüísticos, sino conjuntos de la estructura de las proteínas?

Las redes neuronales, por mucho que se empeñen los titulares de marketing, no son inteligentes y no piensan. Lo único que hacen es generar millones y millones de relaciones de probabilidad entre tokens que, para el ordenador, son conjuntos de ceros y unos. A la red, le da igual qué signifique el token. A la matemática que gobierna el proceso le da igual si ese token representa una palabra, un color, un sonido o una estructura proteínica. Por ello al igual que en su uso en lenguaje natural, ejecutará su proceso y propondrá una sucesión de salida que será la concatenación de esos tokens, en este caso de esos bloques de las proteínas. Esta salida, esta respuesta al problema, será, como ocurría con un texto, verosímil y posible, correcta estructuralmente.

La empresa EvolutionaryScale ha creado un modelo neuronal de este tipo, denominado ESM3 (por Evolutionary Scale Model 3).

En este caso, el modelo se ha entrenado no con un corpus textual sino con un corpus bioquímico compuesto por 3150 millones de secuencias de proteínas, 236 millones de estructuras y 539 millones de proteínas con sus funciones asociadas. De este ingente volumen de datos, se han establecido 771.000 millones de tokens. 

Este modelo permite estudiar la secuencia, estructura tridimensional y función de cualquier combinación. Nótese que se obvian los aminoácidos y que se comienza en bloques más elevados. Esto es científicamente relevante porque la función que una proteína llega a desarrollar depende, por supuesto, de los aminoácidos que componen la proteína pero, sobre todo, de las estructura geométrica, de los pliegues que forman esos aminoácidos al unirse, y del orden, de la secuencia, en que se unen. Al respecto hay que citar, los recientes éxitos de AlphaFold, la red neuronal desarrollada por Google DeepMind, capaz de estudiar dichos plegamientos con una precisión y rapidez no alcanzable por métodos manuales. 

ESM3 ha permitido realizar una simulación acelerada de la evolución de las proteínas a lo largo de millones de años. Uno de los resultados más relevantes es que ESM3 ha "descubierto" una nueva proteína fluorescente en el color verde de la familia GFP (por Green Fluorescent Protein), que no existe en la naturaleza y que es en al menos un 50% diferente a otras proteínas fluorescentes como las que se encuentran en algunas medusas (el descubrimiento de las GFP mereció el Nobel de Química del 2008). Esta nueva GFP representa la evolución de unos 500 millones de años si la naturaleza hubiera seguido por esa potencial rama de desarrollo o tiempo del futuro si es que la biología sigue este camino a partir de ahora.

La nueva GFP no es una pequeña variación de las existentes en la naturaleza. Es tan distinta que se puede considerar totalmente nueva. Tan diferente como pueden resultar los animales de hace 500 millones de años y los de ahora.

Las posibilidades son enormes. Podremos simular evoluciones futuras en poco tiempo y, quizá, descubrir proteínas que ni existen ahora ni existirán en mucho tiempo dejados al azar de la evolución natural, y que sean beneficiosas para la salud o la vida en general.

El artículo científico completo que narra este modelo puede hallarse en este enlace.  

ESM3 está disponible en versión beta para los investigadores, a través de una API.

Así que, aunque este desarrollo no tenga que ver con el lenguaje o la literatura digital, sí podemos decir que tiene relación con los métodos de IA para tratar el lenguaje y que, metafóricamente, produce creaciones literarias en el arte de combinar proteínas. Cuán buenas son estas creaciones nos lo dirá el tiempo que es el crítico más implacable.




12/1/25

Toolformer

 


Se ha publicado un artículo científico sobre una nueva aplicación de inteligencia artificial denominada Toolformer, desarrollado por investigadores del Meta AI Research  y la Universitat Pompeu Fabra. El primer autor del paper es Timo Schick.

Puede leerse completamente en este enlace.

Como es bien sabido los grandes modeles de lenguaje LLM ofrecen buenos resultados en muchas tareas que requieren el uso del lenguaje natural, "comprendiendo" la pregunta y respondiendo de manera sintácticamente correcta, aunque en ocasiones con textos que se alejan de la verdad en lo que ha venido a llamarse alucinaciones de la red neuronal.

Sin embargo, todos  estos modelos tienen varias limitaciones inherentes como, por ejemplo, la incapacidad de acceder a  información actualizada sobre acontecimientos recientes y la consiguiente tendencia a "inventar" para dar una respuesta sea como sea, es decir a alucinar. Asimismo, presentan dificultades de comprensión de lenguas con pocos recursos en el corpus,  la falta de conocimientos matemáticos para y el desconocimiento de la  la progresión del tiempo 

Una manera de solventar dichos problemas sería dotar a la red neuronal de la capacidad de utilizar aplicaciones externas que le permitieran acceder a datos no usados en la fase de entrenamiento. Por ejemplo, el acceso a la red on-time, le permitiría encontrar datos actualizados y evitar respuestas contradictorias con la realidad actual. El acceso al calendario del ordenador local, le permitiría evitar contradicciones temporales, la posibilidad de usar la calculadora que cualquier ordenador tiene, evitaría errores matemáticos. Incluso, el acceso y la capacidad de interactuar con programas matemáticos especializados como MathLab le permitiría cálculos complejos. O interactuar con cualquier software en general.

Toolformer viene, precisamente, a desarrollar este proceso de acceso a aplicaciones externas. En este estudio se han tenido en cuenta dos factores que los autores consideran importantes: la capacidad de que ese uso de programas externos pueda ser hecho sin intervención humana y la conservación del uso general de los datos de entrenamiento, haciendo que sea la propia red neuronal la que decida cuándo llamar a aplicaciones externas o decidir que basta con la información de la red.

Para el desarrollo de Toolformer, se parte de una idea ya existente en desarrollos previos, cual es el utilizar grandes LM con aprendizaje en contexto para generar  conjuntos de datos completos desde cero. Por ejemplo, alimentando la red con un conjunto de ejemplos escritos por humanos sobre  cómo se puede utilizar una API, dejamos que un LMM desarrolle por sí mismo  un enorme conjunto de datos de modelado lingüístico con posibles  llamadas a dicha API. A continuación, se determinan cuáles de estas llamadas  al modelo son útiles para predecir futuros tokens. Por último, el propio LMM usa las llamadas a la API que considera útiles. 



10/1/25

NarraScope 2025

 


Hasta el 7 de febrero está abierta la convocatoria para presentar trabajos que puedan exhibirse o ponencias que puedan expresarse en la edición NarraScope del 2025, la cuál tendrá lugar del 20 al 22 de junio en la Universidad Drexler de Filadelfia, en los Estados Unidos.

NarraScope es un evento centrado en el análisis y práctica de la narrativa interactiva, los juegos de aventura y la ficción interactiva reuniendo a escritores, desarrolladores y jugadores.

Pueden presentarse desde pequeñas disertaciones de 15 minutos hasta conferencias o grupos de discusión de hasta una hora.

Más información en el portal del evento, en este enlace.








9/1/25

Alien: Augmented Reality Survival Manual!

 


Alien: Augmented Reality Survival Manual!, de Owen Williams, es un libro de realidad aumentada que recrea la historia de la película Alien, de Ridley Scott, un clásico del cine de terror y ciencia ficción.

En este libro, mientras se narra la aventura, varias páginas disponen de marcadores de modo que al enfocarlas con una tableta o un dispositivo móvil se disparan vídeos, informaciones, o simulaciones de realidad aumentada. De estas últimas hay 7. Así, por ejemplo, cuando los cosmonautas de la encuentran el huevo de Alien, al enfocar la imagen, veremos cómo este se abre y nos ataca, igual que ocurría en la película. Las simulaciones se sobreponen a la imagen que la cámara esté visualizando de modo que la acción pasa de la nave Nostromo a nuestra habitación o al lugar en donde nos encontremos.

Claro, son simulaciones sencillas, esquemáticas. Nada que ver con el pavor con el que vivimos el original en la oscuridad de la sala de cine hace ya casi 50 años. 

Más información en este enlace.






8/1/25

Paper Pro

 


El lector digital Remarkable Paper Pro presenta un diseño muy elegante y características técnicas más que razonables, aunque su precio es demasiado elevado. Se trata de una evolución de Remakable 2.

Sus características principales son:

- Pantalla de tinta electrónica a color Canvas Color

- Tamaño de pantalla de 11.8"

- Resolución de 229 ppi

- Microprocesador Cortex A53 a 1.8 Ghz

- 2 Gby de RAM

- 64 Gby de almacenamiento

- Batería de 5030 mah

- Latencia de 12 ms.

- Luz de fondo

- Simulación de 8 colores mediante combinación de píxeles de diferentes colores.

- 20.000 tonos de gris

- Estilete para tomar notas

A pesar de los años que pasan, la tecnología color de la tinta electrónica sigue sin progresar decididamente, con colores logrados a base de filtros que, indefectiblemente, los hacen aparecer tenues y con poca luminosidad.






7/1/25

ELO 2025 en Toronto

 


Se anuncia que la próxima edición de la ELO, la correspondiente al año 2025, tendrá lugar en Toronto entre los días 11 y 13 de julio, aunque compartirá sede con  Kitchener-Waterloo, también en Canadá.

En esta edición el título es ELO25 @ 25: Love Letters to the Past and Future

En este momento, está abierto el plazo para presentar ponencias, propuestas de conferencias, paneles, exhibiciones o talleres. Se solicitan ideas acerca de los archivos de literatura digital y cómo deben ser almacenados a prueba de futuro,  futuras bibliotecas y técnicas e-lit para las tecnologías que aún no existen. Son bienvenidos los enfoques sobre cómo la e-lit propone preguntas, contextos y prácticas basadas en las artes y desarrollos tecnológicos. También son bienvenidos los trabajos que amplíen los límites de lo que la literatura digital puede aportar.

Más información en este enlace.



5/1/25

Las abarcas desiertas

 



Por el cinco de enero, 

cada enero ponía 

mi calzado cabrero 

a la ventana fría. 

Y encontraban los días, 

que derriban las puertas, 

mis abarcas vacías, 

mis abarcas desiertas. 

Nunca tuve zapatos, 

ni trajes, ni palabras: 

siempre tuve regatos, 

siempre penas y cabras. 

Me vistió la pobreza, 

me lamió el cuerpo el río, 

y del pie a la cabeza 

pasto fui del rocío. 

Por el cinco de enero, 

para el seis, yo quería 

que fuera el mundo entero 

una juguetería. 

Y al andar la alborada 

removiendo las huertas, 

mis abarcas sin nada, 

mis abarcas desiertas. 

Ningún rey coronado 

tuvo pie, tuvo gana 

para ver el calzado 

de mi pobre ventana. 

Toda la gente de trono, 

toda gente de botas 

se rió con encono 

de mis abarcas rotas. 

Rabié de llanto, hasta 

cubrir de sal mi piel, 

por un mundo de pasta 

y un mundo de miel. 

Por el cinco de enero, 

de la majada mía 

mi calzado cabrero 

a la escarcha salía. 

Y hacia el seis, mis miradas 

hallaban en sus puertas 

mis abarcas heladas, 

mis abarcas desiertas



un poema de Miguel Hernández



Úrsula

 


Es bien sabido que la respuesta de los grandes modelos de lenguaje (LLM) es mejor si las preguntas están bien realizadas, con suficiente elaboración de las mismas y con detalles incluidas en ellas. Estas preguntas elaboradas son las que se denominan "prompts".

Úrsula es una aplicación que usa al propio ChatGPT como paso previo, lo que permite generar dichos prompts para su utilización en el ámbito educativo. Estas preguntas extensas se introducen, entonces, en el ChatGPT general para lograr una respuesta más correcta y elaborada de la red neuronal. 

En definitiva, Úrsula es una instancia de ChatGPT que genera preguntas formuladas para guiarse a sí misma en la generación de contenido útil en contextos educativos,  personalizando la entrada para obtener una mejor salida. De hecho, una vez registrados en Úrsula pasamos a una pantalla que parece ChatGPT pero que, en realidad, es una instancia especializada del LLM.

Desarrollado por J.J. de Haro, los prompts que el sistema crea son utilizables bajo licencia Creative Commons.

Utilizan la metodología R-I-T-A

Puede usarse desde este enlace. La web del autor está en este enlace.

Un ejemplo de uso:


Usuario: crea un prompt sobre enseñanza de los componentes de una célula para una clase de biología


Úrsula: Aquí tienes un prompt diseñado para enseñar los componentes de una célula en una clase de biología:

 Eres una profesora de biología con un doctorado en ciencias biológicas y experiencia en didáctica de las ciencias. Tienes habilidades para explicar conceptos complejos de manera clara y atractiva, utilizando recursos interactivos y actividades prácticas.

1. Pregunta al usuario:

   - ¿Cuál es el nivel educativo y la edad de los estudiantes?

   - ¿Qué componentes específicos de la célula desea enseñar (por ejemplo, orgánulos, membrana celular, núcleo)?

   - ¿Cuánto tiempo está disponible para la lección?

   - ¿Hay recursos tecnológicos disponibles, como microscopios o aplicaciones educativas?

2. Con la información proporcionada:

   - Diseña una actividad introductoria que explique los componentes celulares, utilizando ejemplos visuales y fáciles de comprender.

   - Proporciona una descripción de los orgánulos y sus funciones, asegurando que sea adecuada para el nivel educativo indicado.

   - Propón una actividad práctica, como observar células al microscopio o realizar un modelo celular con materiales reciclables.

   - Crea preguntas interactivas o actividades de grupo para reforzar el aprendizaje, asegurando la participación activa de los estudiantes.

   - Sugiere una estrategia para evaluar la comprensión, como un cuestionario breve o una presentación grupal.

3. Pregunta al usuario si el plan es adecuado o si desea realizar algún ajuste antes de finalizar.

Título: enseñanza de los componentes celulares

Descripción: Este prompt ayuda a diseñar una clase interactiva sobre los componentes de una célula. Incluye actividades prácticas, explicaciones claras y estrategias de evaluación para asegurar la comprensión. Ideal para cualquier nivel educativo, ajustándose a recursos disponibles.


¿Es esto lo que buscabas o necesitas algún ajuste? Puedes explorar más ideas en la Biblioteca Avanzada de Prompts Educativos.

El contenido tiene licencia Creative Commons BY 4.0, lo que permite usarlo, compartirlo y adaptarlo siempre que se dé crédito al autor. Más detalles en Creative Commons.


Como se ve, de una pregunta muy escueta, se genera un completo "prompt" con contexto y detalles.



3/1/25

Poetry Generator

 


Poetry Generator, de BoredHumans, es un generador de poemas basado en técnicas IA de generación de texto. 

Escribiendo una idea básica del asunto sobre el que se quiere que verse el poema, la aplicación lo crea de manera libre con estrofas de dos pareados cada una, y manteniendo más o menos la métrica (en inglés), mientras que en español es verso libre sin estructura reconocible aparte de un intento, poco conseguido, de rimar asonantemente.

También genera el título del poema.

Por ejemplo, proponiendo este prompt:

longing of a great love. She died long ago but still is present every day

el poema generado es:

In Shadows of a Love Unfading


In the quiet chambers of my heart she dwells,

An echo wrapped in tender, whispered spells,

Her laughter, like a breeze, still stirs the air,

A haunting presence, woven with despair.


The dawn unfolds, yet feels so bittersweet,

With every sunrise, I am pulled to seek,

The silhouette of her in the morning light,

A phantom figure, still my guiding sight.


Through autumn’s gilded leaves that softly fall,

I hear her voice—each rustle seems to call,

As memories, like petals, drift and twine,

In every sacred moment, she’s still mine.


At twilight’s hour, when shadows start to creep,

I feel her warmth, though she’s forever asleep,

In every star that twinkles in the night,

A million dreams where love took flight.


Yet, shadows deepen where once the sun did play,

And I, a lonely traveler, seek my way,

Her spirit dances, just a whispered sigh,

In dreams where time bends and love cannot die.


If love can span the chasm of the grave,

Then I am rich, for she’s the light I crave,

With every thought, I brush against her soul,

And in this longing, I am still made whole.


Though fate has stolen the warmth of her embrace,

In every heartbeat, I still find her grace,

For love, a deeper thread than life can sever,

Will bind us close, forever and forever.


En español, al proponer esto:

Miedo a la vejez que llega y a no haber vivido lo deseado

el resultado es:

Miedo a la Vejez


En soledad de un ocaso incierto,

donde el tiempo se desliza como sombra,

temo al susurro que la vida me trae,

la vejez que viene, poderosa y procelosa.


Las imágenes flotan en la bruma,

sueños olvidados, promesas marchitas,

en el espejo, rostros que envejecen,

historias no contadas, deseos sin cita.


Uno se aferra a los ecos del ayer,

cuando el brillo en los ojos desbordaba,

jugando en los campos de risa y alegría,

sin pensar en el peso del paso que avanza.


Las manos que acarician, ahora temblorosas,

las palabras que asoman, en ocasiones lejanas,

y el corazón late, con un eco de dudas,

preguntando en silencio: ¿viví lo que amabas?


Pero en la penumbra de esta incierta despedida,

se esconde la esencia de lo vivido,

los abrazos sinceros, las lágrimas reídas,

la levedad de un instante, lo inmenso compartido.


Miedo, sí, a la vejez que se arrastra,

pero también a la vida que se deja escapar,

pues los sueños marchitan, las horas se afianzan,

y en cada elección, renace la verdad.


Así que en la llegada de cada nueva caída,

abramos las alas al viento que nos llama,

que el miedo se convierta en canto y en vida,

y el ocaso llegue, como un regalo, sin drama.


Brindemos por lo que fue, por lo que aún será,

por las huellas en la tierra, por el amor que se da,

pues aunque el tiempo robe la juventud anhelada,

las memorias abrazadas jamás se irán.


Al contrario de lo que suele ser usual en los textos generados por LLMs, estos poemas tienen cierta direccionalidad, un clímax al cual se dirigen los versos, lo cual es un avance.

Puede utilizarse desde este enlace

El sitio es incómodo de usar, con anuncios y ventanas emergentes por todos los lados.




1/1/25

David & Jonathan

 


David & Jonathan, de Tristan Willis, es un relato interactivo y multimedia con una maquetación estética cuidada y elegante. 

Presenta varios cuadros clásicos (de Perkins Harnly, de Van Gogh, un bimbo TagasodeJohn Flaxman), cada uno de los cuales representa un acto de la obra. 

En dichos cuadros es preciso ir encontrando con el ratón pequeños retazos que se muestran en un icono adicional. Al encontrarlo, aparece una pantalla emergente que muestra un fragmento del texto de la narración. Cuando se encuentran todas las partes del cuadro en curso y se leen los fragmentos adjuntos, se salta al siguiente acto.

La historia narra la relación entre Jonathan y David.

Puede leerse desde este enlace.