4/2/26

Hoy




Hoy.

Ojalá los calendarios no tuvieran esta fecha. Ojala, vientos amigos hubiesen arrancado todas las hojas de todos los calendarios de todos los años de tal día como hoy. Ojala nunca hubiese ocurrido. Los malos duendes de la melancolía, la desesperanza y el dolor rebuscan hoy por los cajones de mi memoria y te evocan. El universo te recuerda. El cosmos llora. Yo lloro. Y las artes de toda la historia confluyen para honrarte cuando llega este día.

Los timbales y las trompetas de Purcell fueron musicados para ti, para ser escuchados en tu honor.

Neruda escribió La noche está estrellada y tú no estás conmigo para que yo lo leyera esta noche.

El destino sabía que el Lacrimosa de Mozart fue creado para nosotros.


El grito final de muerte helada de La Boheme era por tí.

y con Machado he aprendido que habría de hacerse Su voluntad contra la mía. Siempre fue así, siempre es así.

La barca rosa de Gabriela Mistral era la tuya, tierna compañera.

Dante ya sabía que serás la Beatriz que me guíe y me salve cuando arribe mi turno.

Te buscaré más allá de las tinieblas, mi dulce Eurídice. Y no miraré atrás.

También yo, como León Osorio, cien veces quise interrogar al cielo pero ante mi desventura el cielo calla.

He sentido el manotazo duro, el golpe helado, el hachazo invisible y homicida que Hernández anunció.

Con Quevedo espero que seas polvo enamorado. Yo lo soy. Siempre lo seré.

Me aferro a los versos de Dylan Thomas: aunque los amantes se pierdan quedará el amor y la muerte no tendrá señorío. Eso sí te lo garantizo.

Y Martí i Pol sabía ya que no tornarás pero que perduras en mí de tal manera que me cuesta imaginarte ausente para siempre.


Sólo anhelo, con Manrique, a que mi río desemboque en tu mismo mar y nuestras aguas se confundan otra vez.



31/1/26

Please, Don't Touch Me!

 


Please, Don't Touch Me! , del grupo suizo AND-OR, es una metáfora digital en la que el lector trata de "clickar" al avatar que se mueve por la pantalla. Este evita siempre el contacto pero expresa, con texto y voz, lo que siente, lo que reflexiona ante la relación que el humano pretende. Tras cierto número de intentos el avatar, no pudiéndolo soportar más, muere y otro nuevo es creado. 

Una metáfora de las difíciles relaciones sociales entre humanos que muchas veces no son deseadas y resultan una carga.

El diseño es minimalista con una pantalla en blanco, un robotito de largas piernas y los textos que van apareciendo (acompañados de su verbalización auditiva) en rojo y negro. Las frases generadas permanecen en pantalla hasta hacer que sean una carga insoportable para el avatar.

Puede accederse desde este enlace.









28/1/26

AndorDada

 



AndorDada, de Beat Suter y René Bauer, fue un generador de poemas geolocalizados que podía ser leído en dispositivos móviles como teléfonos Android o IOS. Como, dependía de la localización que detectaba el teléfono, el resultado cambiaba y podía considerarse un poema infinito. Fue creado a principios de este siglo.

La aplicación captaba las ondas WLAN en el área inmediata del lector y las convertía en objetos poéticos. El software generaba entonces texto y creaba verbos a partir de los puntos de acceso capturados.

AndorDada presentaba tres modos distintos: el primer modo creaba una historia; el segundo generaba una narración con los contactos de la agenda; y el tercer modo adoptaba un enfoque lírico y creaba un poema dadaísta.

Al ser intrusivo con las WIFI y los datos personales, los fabricantes no permitieron más su uso tras una temporada en funcionamiento.

Pero, la idea podría ser retomada con las restricciones y seguridades actuales porque, a mi modo de ver, tiene recorrido literario.






26/1/26

The Two Fishermen

 


The Two Fishermen, de Daniele Giampà, es un pequeño hipertexto que narra un cuento basado en El castillo de los destinos cruzados, de Italo Calvino.

Se trata de una sencilla narración en ePub con enlaces que sólo permiten avanzar las páginas. Cada página se configura de manera similar con varias imágenes (que puede visualizarse vía scroll) y un texto.

Puede leerse desde este enlace.




24/1/26

Nomadic Tribe

 


Nomadic Tribe, del estudio de diseño Makermepulse, es una narración digital en la que el lector va pasando por varias páginas animadas. Las animaciones son del tipo parallax para el movimiento de los diferentes planos en profundidad y también locales en donde algunos elementos se mueven o cambian de forma bajo la interacción del usuario. El juego indica, al pasar por encima de ciertos puntos, las acciones que pueden ser ejecutadas en ese "spot" concreto.

La estética es de dibujo animado, elegante y un poco naif, con colores pastel. 

Sobre las imágenes animadas, aparecen los textos que narran la historia que, simultáneamente, se escuchan verbalmente sobre un fondo musical calmoso y bucólico.

La programación enseña mucho sobre cuánto y bueno se puede obtener con las funciones avanzadas de javascript.

Digno de verse. Puede accederse a él desde este enlace.









21/1/26

Partition of India

 


Partition of India es una página web interactiva, encargada por la BBC, que narra los eventos de la descolonización de la India tras la segunda guerra mundial y su partición en India y Pakistán. Igualmente, explora el contexto político de la época y la región.

Se trata de una muy bien diseñada y programada página que utiliza muchos elementos multimedia (Texto, audio, imágenes, vídeo) y técnicas parallax para navegar a través de ella. 

Su diseño se basa en el concepto de  "scrollytelling" (una combinación de scrolling y storytelling).  Así, la página no utiliza un menú de navegación tradicional con pestañas superiores, sino que se organiza de forma lineal y vertical. Está dividida en grandes "bloques" temáticos. La narrativa es visual e inmersiva, permitiendo una navegación sencilla y sin complejidad de seguimiento. La página controla el flujo de información. Al bajar, el texto aparece mediante efectos de fade-in (desvanecimiento), obligando a leer a un ritmo pausado en lugar de visualizar todo el texto de golpe. El esquema cromático cambia según la sección. Por ejemplo, tonos más oscuros y sombríos para hablar de la violencia de la migración, y tonos más neutros para los aspectos técnicos.  

Aparecen retratos de los protagonistas principales de los eventos (Gandhi, Jinnah, Mountbatten) y de hechos ocurridos en aquellos años. Igualmente, testimonios personales.   

Puede accederse desde este enlace.







20/1/26

ASTA. Buscador de documentación

 


ASTA es un buscador de artículos técnicos que, basándose, en IA es capaz de encontrar documentos que traten sobre el asunto que el usuario desee. Puede ser útil a la hora de redactar ensayos para no obviar información ya existente o desarrollada, para no reinventar la rueda, o para simplemente buscar elementos de enseñanza sobre una materia dada.

Puede usarse desde este enlace.

Por ejemplo, introduciendo la cuestión: Application of AI to generate shortstories, o sea Aplicación de la IA para generar relatos cortos, la aplicación devuelve un serie de artículos, indicando además, cuáles parecen más relevantes y cuáles pueden ser colaterales.


En este caso, nos devuelve 2 referencias que parecen tratar específicamente sobre lo demandado, otras 50 que pueden ser relevantes y 15 que pueden tratar anecdóticamente sobre el tema.


Puede abrirse desde la misma ventana de resultados y, efectivamente, puede verse que trata específicamente sobre la pregunta hecha. Además es un documento reciente, del año 2025. Está tomado de ArXiv, el repositorio científico de libre acceso.

Entre los sólo relevantes, he abierto uno al azar:  A Multi-Modal Story Generation Framework with AI-Driven Storyline Guidance.

que resulta también interesante y, yo diría, más que relevante.











18/1/26

MEMRL

 


El artículo titulado MEMRL: Self-Evolving Agents via Runtime Reinforcement Learning on Episodic Memory presenta un marco de trabajo innovador diseñado para permitir que los agentes basados en modelos de lenguaje de gran tamaño (LLM) evolucionen de manera autónoma sin necesidad de actualizar sus parámetros internos.

Este estudio es una colaboración de investigadores pertenecientes primordialmente a la Universidad Jiao Tong de Shanghái (Shengtao Zhang, Weinan Zhang, Ying Wen y Muning Wen), junto con especialistas del Instituto de Innovación de Shanghái, la Universidad Xidian, la Universidad Nacional de Singapur, la empresa MemTensor y la Universidad de Ciencia y Tecnología de China.

La investigación parte de una observación fundamental sobre la inteligencia humana: nuestra capacidad para dominar nuevas habilidades a través de la "simulación episódica constructiva", que consiste en recuperar experiencias pasadas para sintetizar soluciones ante tareas inéditas. 

Aunque los modelos de lenguaje actuales poseen capacidades de razonamiento notables, carecen de esta facultad de autoevolución dinámica. Las soluciones tradicionales presentan graves deficiencias: el ajuste fino de parámetros es computacionalmente costoso y propenso al "olvido catastrófico", mientras que los métodos de recuperación de información pasivos, como la Generación Aumentada por Recuperación (RAG), se limitan a coincidencias semánticas que a menudo recuperan "ruido" o información irrelevante sin evaluar su utilidad real.

Para resolver este dilema entre estabilidad y plasticidad, los autores proponen MEMRL, un sistema que desacopla el razonamiento estable de un modelo de lenguaje respecto al de una memoria episódica plástica y en constante evolución. En este esquema, el modelo de lenguaje actúa como un "córtex" estable, mientras que la memoria externa funciona como un canal de adaptación continua.

La arquitectura del modelo se basa en el triplete Intención-Experiencia-Utilidad. El núcleo de MEMRL es la transformación del proceso de recuperación de información, pasando de ser una tarea de búsqueda pasiva a un proceso de toma de decisiones activo. Para ello, la memoria se organiza en una estructura de triplete: Intención, Experiencia y Utilidad. 

 - Intención : Representa el vector numérico de la consulta o tarea del usuario

- Experiencia : Almacena la solución o trayectoria generada anteriormente.

- Utilidad : Es un valor numérico aprendido (valor-Q) que estima el éxito esperado al aplicar esa experiencia específica a intenciones similares.

El funcionamiento del sistema se divide en dos fases críticas de recuperación:

Fase A: Recuerdo basado en similitud. El sistema filtra la memoria para identificar experiencias que sean semánticamente consistentes con la consulta actual, reduciendo el espacio de búsqueda a un subconjunto relevante.

Fase B: Selección consciente del valor. De las opciones filtradas, el agente selecciona aquellas con mayores valores-Q15. Esto permite distinguir estrategias de alto valor de aquellas que, aunque parezcan similares en el lenguaje, han fallado en el pasado.

A diferencia de los métodos que modifican los pesos del modelo, MEMRL realiza un aprendizaje de refuerzo no paramétrico directamente sobre la memoria. Tras completar una tarea y recibir una señal de recompensa del entorno (éxito o fracaso), el sistema actualiza los valores de utilidad utilizando una regla de diferencia temporal inspirada en las ecuaciones de Bellman. Este proceso permite que el agente "recuerde" qué estrategias funcionan realmente a través del ensayo y error. 

Los autores demuestran matemáticamente que este proceso es estable. Mediante el uso de promedios móviles exponenciales, prueban que los valores de utilidad convergen hacia el retorno esperado real, filtrando el ruido de alta frecuencia y evitando oscilaciones incontroladas. Además, analizan el sistema como un proceso de "Maximización de la Esperanza Generalizada", lo que garantiza que la política de recuperación se estabilice con el tiempo, evitando así el olvido de las capacidades previamente adquiridas.

La eficacia de MEMRL fue validada en cuatro entornos de prueba diversos y exigentes: BigCodeBench (generación de código), ALFWorld (navegación en entornos físicos), Lifelong Agent Bench (interacción con sistemas operativos y bases de datos) y Humanity's Last Exam (HLE) (razonamiento complejo multidisciplinar). Los resultados muestran que MEMRL supera consistentemente a todos los métodos de referencia, incluyendo sistemas RAG avanzados y otros sistemas de memoria de agentes. Las ventajas son especialmente notables en entornos que requieren una exploración intensiva, como ALFWorld, donde MEMRL logró una mejora relativa del 82% sobre los modelos sin memoria y del 56% sobre los sistemas de memoria de vanguardia anteriores25.

El estudio concluye que MEMRL ofrece una solución robusta al dilema entre estabilidad y plasticidad en la inteligencia artificial. Al mantener el modelo de lenguaje "congelado", se preserva el razonamiento lógico y el conocimiento general del mundo, mientras que la capa de memoria evolutiva permite una adaptación rápida y eficiente a nuevos dominios. Esta investigación marca un cambio de paradigma: la inteligencia de los agentes no tiene por qué residir únicamente en el tamaño de sus parámetros o en la intensidad de su entrenamiento previo, sino en su capacidad para gestionar y valorar activamente sus propias experiencias vividas.   

17/1/26

Nuevo método recursivo masivo para LLMs desarollado por el MIT

 


En un reciente artículo que puede leerse completo en este enlace, investigadores del MIT liderados por Alex Zhang han presentado un método recursivo para Grandes Modelos de Lenguaje que permite procesar prompts de longitud arbitraria y hasta 10 millones de tokens sin contexto.

Este enfoque, llamado RML - Recursive Language Model- , propone una solución innovadora al problema del contexto largo  permitiendo procesar entradas de más de 10 millones de tokens sin sufrir el fenómeno conocido como "context rot" (degradación progresiva del rendimiento al aumentar la longitud del contexto) y sin necesidad de reentrenar los modelos.

Los modelos más avanzados de lenguaje (como GPT-5) han mejorado notablemente en razonamiento, pero enfrentan aún dos limitaciones principales. Primero, el límite físico del context window (ventana de contexto), que incluso en modelos avanzados como GPT-5 ronda los cientos de miles de tokens (≈272K en las pruebas). Asimismo, el denominado Context rot, donde el rendimiento cae drásticamente con contextos más largos o tareas complejas, incluso cuando el input cabe en la ventana. Hay argumentos teóricos (entropía) que sugieren que expandir la ventana requiere datos de entrenamiento exponencialmente mayores.

Las soluciones habituales, como la compactación o resumen progresivo del contexto anterior, fallan en tareas que necesitan acceso aleatorio y preciso a detalles específicos dispersos en el texto (por ejemplo, revisión legal, análisis de codebases grandes o razonamiento multi-hop).

Antes estos problemas, los RLMs reformulan el problema como uno de sistemas en lugar de arquitectura neuronal pura. Inspirados en algoritmos "out-of-core" (procesamiento de datos que no caben en memoria RAM principal), tratan el prompt largo como un entorno externo accesible programáticamente.

Así, la entrada se carga como una variable de cadena (string) en un entorno de ejecución Python REPL (Read-Eval-Print Loop). Con ello, el LLM no recibe todo el texto en su contexto, sino solo metadatos básicos (longitud total, etc.). Puede decirse que el modelo actúa como "programador" y genera código Python para inspeccionar, buscar (con técnicas como regex, slicing, etc.), particionar y extraer fragmentos relevantes. Cuando se identifica un chunk interesante, se invoca recursivamente el mismo modelo (o uno más barato/rápido) solo sobre ese fragmento.

La arquitectura típica consiste en un LM raíz potente, como GPT-5, que orquesta y planifica las tareas más  un servidor que es  un LM más eficiente y sencillo que  procesa sub-tareas. El resultado es que el sistema mantiene una interfaz idéntica a un LLM estándar (input string → output string), pero escala a longitudes órdenes de magnitud mayores sin tocar la ventana nativa del modelo subyacente. El código de implementación está disponible en GitHub (repositorio de Alex Zhang). 

En las evaluaciones que los autores detallan en su artículo, comparan RLMs contra baselines directos, agentes de resumen, CodeAct y otros enfoques agenticos en tareas de contexto largo. En general, los RLMs mantienen un rendimiento estable más allá de los 16K–272K de tokens, cifras donde los modelos base colapsan. En los experimentos se escaló con éxito a más de 10M tokens (dos órdenes de magnitud por encima del límite habitual).

Además, resultó que los costos medios de operación son comparables o inferiores que otras aplicaciones semejantes, incluso en hasta 3 veces menores.

Los autores argumentan que la mayoría de tareas complejas se descomponen en sub-tareas locales que no requieren ver todo el contexto simultáneamente. Por ello, los RLMs complementan (no reemplazan) técnicas como RAG y se pueden integrar fácilmente como wrapper en aplicaciones empresariales (análisis de código de bases masivas, revisión legal, historiales de chat largos, razonamiento multi-paso). 





15/1/26

Cinquains generados por ordenador

 


Adelaide Crapsey fue una poetisa americana nacida en Nueva York, en 1878. Recibió una educación avanzada y demostró siempre un gran talento literario. Viajó por Europa. Tuvo una vida cargada de tragedias como la muerte temprana de dos de sus hermanas y las preocupaciones que le produjeron los ataques contra su padre, Algernon Sidney Crapse, un pastor que hubo de afrontar un famoso juicio por herejía, debido a sus ideas abiertas y progresistas. Este juicio acabó en la destitución y expulsión de Algernon del cuerpo eclesiástico De salud frágil, Adelaide murió joven, en 1914.

Crapsey fue la creadora del cinquain (del francés cinq, cinco), un tipo de verso inspirado en el haiku oriental que costa de 5 versos, el primero de ellos de sólo 2 sílabas, el segundo de 4 sílabas, el tercero de 6 sílabas, el cuarto de 8 sílabas y el último, nuevamente, de sólo 2 sílabas. La rima es libre pero un buen cinquain mantiene también una estructura rítmica basada en versos yámbicos.

Como es bien sabido, el verso yámbico mantiene una secuencia de acentuación de átona-tónica, repetidamente (ta-TÁ, ta-TÁ, etc) y adquirió su máxima expresión en las obras de Shakespeare que usan preferentemente el endecasílabo yámbico o lo que es lo mismo 5 yambos concluidos por una sílaba átona final. El ritmo se adapta muy bien al idioma inglés pero bastante mal al español.

El cinquain, como los haikus, debe contar una historia que vaya al corazón directamente, dados los pocos recursos con los que se cuenta.

Un ejemplo de cinquain escrito por Crapsey:

Israel!

Wake! Be gay!

Thine enemy is brought low—

Thy foe slain—by the hand, by the hand

Of a woman!


AI aplicada a crear qinquains.

Vamos a ensayar la generación automática de cinquains utilizando algunos de los LLMs existentes. Utilizaremos este prompt, primero en inglés, idioma más apto para este tipo de versos:

Create a poetic cinquain of, obviously, five verses, the first of which has only two syllables, the second four syllables, the third with six syllables, the fourth with eight syllables, and the last, again, with only two syllables. It should tell the story of an old man who, watching the waves of the sea, feels melancholic and thinks that his life, which was once a powerful wave, is now receding to be lost in the sea.

(Genera un cinquain poético de, obviamente, cinco versos, el primero de ellos de sólo 2 sílabas, el segundo de 4 sílabas, el tercero de 6 sílabas, el cuarto de 8 sílabas y el último, nuevamente, de sólo 2 sílabas, Debe contar la historia de un hombre viejo que, viendo las olas del mar, se siente melancólico y piensa que su vida que, un día fue ola poderosa, ya retrocede para perder sen el mar.)


ChatGPT:

Old man

Watches the waves

Once my life was a wave

Now it ebbs back to the wide sea

Gone now


Claude:

The Receding Wave

Old man,

gray by the shore,

watches the waves rise high—

once he crashed fierce upon the rocks,

now fades.


Grok:

Waves sigh.

Old eyes follow foam.

Once I surged, fierce and unbroken,

Now my strength ebbs soft, retreating slow,

Tide calls.


Probemos con otro prompt: Create a poetic cinquain telling the feelings of calm when watching, after a hard long working day, the sun falling down.

(Crea un cinquain que hable de la calma que se siente al ver atardecer tras una dura jornada de trabajo)


ChatGPT:

At dusk

Evening comes

My breath slows, shoulders fall

I watch the sun descend in peace

All still


Claude:


Evening Peace

Stillness,

golden quiet,

the sun melts to the earth—

all the weight of hours dissolves

in light.


Grok:


Waves sigh.

Old eyes follow foam.

Once I surged, fierce and unbroken,

Now my strength ebbs soft, retreating slow,

Tide calls.

 

Probemos ahora ambos prompts en español:


ChatGPT:


Viejo

Ve las olas

Fue ola potente

Hoy retrocede, se pierde en mar

Se va


Claude:


La Ola que Retrocede

Viejo,

junto a la orilla,

mira las olas subir—

fue espuma fuerte contra las rocas,

ya mengua.


Grok:


Olas

vienen y van

el viejo las contempla

su vida fue cresta furiosa

retrocede


Probemos con la segunda petición:

ChatGPT:

Calma

Atardecer

Sol desciende lento

Tras el trabajo llega paz

Al fin


Claude:

Paz del Ocaso

Calma,

dorado silencio,

el sol se hunde en la tierra—

todo el peso de las horas se diluye

en luz.


Grok:


Tras el peso del día que quiebra la espalda,

el sol se derrama lento, casi sin ruido,

y la luz se hace miel sobre el horizonte cansado.

Todo calla. Respira.

La tarde me devuelve lo que el reloj me había robado.


esto no es un cinquain de 2-4-5-6-2 sílabas. Se le indica este hecho a Grok y el sistema lo modifica.

Cansado

tras larga jornada

el sol se tiñe de calma

y el alma respira hondo al fin

atardecer



12/1/26

De las cosas pálidas

 

En De las cosas pálidas (La Bella Varsovia, 2025), Alberto Santamaría continúa una línea de trabajo muy definida dentro de su trayectoria: la poesía entendida como un espacio de pensamiento, pero también como una práctica situada, consciente de sus límites materiales, lingüísticos y perceptivos. No se trata de poesía que aspire a tratar grandes problemas, sino de uno que examina con atención aquello que suele quedar en segundo plano: lo borroso, lo incompleto, lo que apenas se sostiene en la mirada, lo nimio. Ahí se sitúa el territorio del libro, en espacios desplazados que no son solo geográficos, sino también emocionales y mentales: márgenes de la memoria, zonas opacas del afecto, lugares donde el amor o el recuerdo ya no son plenamente accesibles.

El poemario dialoga de manera constante con preguntas que rayan la filosofía: ¿hasta dónde puede llegar el lenguaje?, ¿qué implica mirar?, ¿qué se pierde cuando se intenta contar una experiencia? Estas cuestiones no aparecen formuladas de modo abstracto, sino encarnadas en escenas, objetos, gestos y reflexiones breves que se abren paso entre lo cotidiano y lo conceptual. La escritura avanza con cautela, consciente de que toda afirmación es provisional. 

De las cosas pálidas puede abordarse como un recorrido por lo imprevisto, una constelación dispersa sin jerarquías claras o incluso como una reunión de restos a los que nadie presta atención. Sobre ese fondo fragmentario insiste una idea que vuelve una y otra vez: la importancia de estar. No como consigna vacía, sino como aceptación de una presencia siempre inestable, ligada a un tiempo que se escapa mientras ocurre. El libro asume ese presente frágil como único lugar posible desde el que pensar y actuar, sin promesas de trascendencia ni refugios idealizados.

Santamaría construye una dicción reflexiva, irregular, a ratos entrecortada, que combina recogimiento y distancia crítica. La ironía, leve pero persistente, impide que el tono se cierre sobre sí mismo y lo mantiene abierto a la ambigüedad. Todo ello genera una atmósfera reconocible: los poemas parecen escritos desde un tiempo suspendido, ese momento indefinido en el que la actividad se detiene y solo queda observar. Como si la escena fuera siempre la misma: una tarde apagada en la periferia, cuando ya no ocurre nada y, precisamente por eso, todo puede ser pensado.

Uno de los logros del libro es la integración de una sensibilidad crítica hacia el mundo contemporáneo sin convertir el poema en un mitin La dimensión social y política está presente, pero no como consigna, sino como atmósfera: una conciencia de precariedad, de desgaste y de intemperie que afecta tanto a las relaciones como a los paisajes y a los lenguajes. Aun así, el tono no deriva hacia el sarcasmo ni hacia el cinismo: hay distancia, pero también una voluntad clara de permanecer. El poema se convierte así en un lugar desde el que habitar el mundo, aunque sea de manera frágil y temporal.

A lo largo del libro se despliega, además, una reflexión continua sobre los propios mecanismos de la experiencia estética. Aparecen textos que interrogan la forma en que vemos, cómo se construyen las imágenes, qué papel juega el soporte material del poema, cómo opera la imaginación o de qué modo el error puede abrir nuevas posibilidades expresivas. Todo ello conforma una suerte de teoría implícita del arte, no sistemática, pero sí persistente, que se va revelando a medida que el lector avanza.

La escritura es depurada, con versos breves y estrofas contenidas que favorecen la concentración y el silencio. A veces esos versos parecen fragmentos de una métrica mayor desarmada, pero su fuerza reside precisamente en esa condición: piezas autosuficientes, tensas, donde cada palabra carga con un peso específico. La sencillez aparente es fruto de una elaboración rigurosa.