21/3/26

Open AI compra Promptfoo para su plataforma de agentes IA

 



Hace unos pocos días, Open AI anunció la compra, por algo más de 18 millones de dólares, de Promptfoo.

La compra tiene como objetivo integrar la tecnología de seguridad de Promptfoo en la plataforma de OpenAI llamada Frontier, donde se desarrollan y utilizan agentes de inteligencia artificial. 

Con esta integración, se ofrecerán tres funciones principales. En primer lugar, permitirá realizar pruebas automatizadas de seguridad dentro de la plataforma, ayudando a las empresas a detectar vulnerabilidades, fugas de datos y otros posibles problemas, además de proponer soluciones. La segunda función consiste en incorporar un sistema de evaluación que facilite el análisis y la detección rápida de riesgos de seguridad en los LLM y en los agentes de IA. Por último, se implementará un sistema de supervisión y responsabilidad que incluirá informes detallados y trazabilidad, lo que permitirá a las empresas revisar todo el proceso y asegurarse de que funciona correctamente.

Promptfoo no desaparecerá y continuará funcionando como una plataforma de código abierto que ofrece servicios de apoyo a empresas. 



20/3/26

Prompts en IA para crear literatura

 


Los LLMs no sustituirán, a corto plazo, a los escritores humanos en literatura de ficción, al menos para obtener niveles similares de calidad, emoción e interés. Pero sí pueden ser de gran ayuda en el fomento de la creatividad propia del escritor. 

No se trata de que el LLM escriba solo, que empiece y termine una obra, como no se trata de que un procesador de textos escriba solo sin teclear, o que un Photoshop dibuje solo. Al igual que en estas aplicaciones, se trata de que los LLMs ayuden, faciliten o mejoren el trabajo humano. En definitiva es una herramienta más, pero tratándose de modelos de lenguaje parece evidente que se apliquen, precisamente, a mejorar la creación literaria.

Por ejemplo, podemos usarlos para que nos den ideas potenciales de historias a partir de las cuáles podamos escribir nosotros mismos mejores y mayores desarrollos. O para que nos propongan alternativas a párrafos que hayamos creado y no nos satisfagan. Estas propuestas no son para copiarlas sin más, sino para encontrar en ellas nuevas chispas creativas que nos permitan cambiar nuestros textos.

En todas estas tareas, es importante la pregunta que hacemos al sistema, el prompt que introducimos.

Aquí, algunos experimentos:

1.- Propongo a Grok un prompt deliberadamente sencillo y abierto:

Proponme 5 ideas de novela literaria (no comercial ni de género puro) ambientadas en [país/ciudad]. Cada idea debe incluir: conflicto central, dilema moral del protagonista y una imagen simbólica recurrente.

2.- Grok me responde con estas 5 ideas, también muy poco desarrolladas, casi esquemáticas, pero quizá suficientes para comenzar a pensar sobre ellas y desarrollar nosotros mismos una buena historia:

Idea 1: Ambientada en Madrid, España

Conflicto central: Un arquitecto restaurador descubre durante la renovación de un edificio histórico en el barrio de Malasaña que su abuelo fue un colaborador franquista, lo que desencadena una crisis de identidad familiar y personal en medio de las tensiones políticas contemporáneas de la ciudad.

Dilema moral del protagonista: Decidir si exponer públicamente el pasado de su abuelo para contribuir a la memoria histórica colectiva, arriesgando el ostracismo de su familia, o silenciarlo para proteger el legado emocional de sus seres queridos.

Imagen simbólica recurrente: Las grietas en las fachadas antiguas de los edificios, que simbolizan las fracturas invisibles en la historia personal y nacional, apareciendo en momentos de introspección y revelación.

Idea 2: Ambientada en Barcelona, España

Conflicto central: Una bibliotecaria en la Sagrada Familia se ve envuelta en un debate ético sobre la preservación de manuscritos antiguos robados durante la Guerra Civil, mientras lidia con la gentrificación que amenaza su comunidad local.

Dilema moral del protagonista: Elegir entre devolver los manuscritos a sus legítimos herederos, lo que podría destruir su carrera y el museo donde trabaja, o mantenerlos en exhibición para educar al público sobre el pasado traumático de Cataluña.

Imagen simbólica recurrente: Las espirales inacabadas de la Sagrada Familia, representando la eternidad inconclusa de la culpa y la redención, que surgen en sueños y visiones del personaje.

Idea 3: Ambientada en Sevilla, España

Conflicto central: Un jardinero en los Reales Alcázares enfrenta la destrucción progresiva de los jardines por el cambio climático y el turismo masivo, mientras su hija emigra en busca de oportunidades, dejando atrás una tradición familiar.

Dilema moral del protagonista: Optar por sabotear sutilmente proyectos turísticos para salvar el ecosistema local, violando su lealtad a la ciudad que le da sustento, o aceptar el progreso económico a costa de su herencia cultural y ambiental.

Imagen simbólica recurrente: Las naranjas caídas y podridas en el suelo, evocando la decadencia de la belleza efímera y la amargura de las decisiones inevitables, presentes en escenas de soledad.

Idea 4: Ambientada en Bilbao, España

Conflicto central: Una curadora de arte en el Guggenheim lidia con la autenticidad de una obra maestra vasca que resulta ser una falsificación, en un contexto de resurgimiento del nacionalismo y la crisis económica post-pandemia.

Dilema moral del protagonista: Revelar la falsificación, lo que destruiría la reputación del museo y afectaría a artistas locales emergentes, o encubrirla para mantener la ilusión de orgullo cultural en una región en transición.

Imagen simbólica recurrente: El titanio ondulante del edificio Guggenheim bajo la lluvia, simbolizando la fluidez engañosa de la verdad y la identidad, reflejado en momentos de duda interna.

Idea 5: Ambientada en Valencia, España

Conflicto central: Un pescador en la Albufera se confronta con la contaminación industrial que arruina su medio de vida, mientras su comunidad se divide entre la tradición agrícola y la expansión urbana moderna.

Dilema moral del protagonista: Denunciar a la empresa contaminante, propiedad de un amigo de la infancia, arriesgando la ruina económica de su pueblo, o ignorarlo para preservar las relaciones personales en un entorno cada vez más fragmentado.

Imagen simbólica recurrente: Las redes de pesca rotas flotando en el agua, que representan las conexiones humanas desgarradas y la fragilidad de la supervivencia, apareciendo en reflexiones nocturnas.


3,. Vamos a perfeccionar nuestro prompt. En vez del sencillo introducido en el punto 1, vamos ahora a preguntar lo siguiente:

Proponme una idea de novela literaria y las primeras 1000 palabras (no comercial ni de género puro) ambientada en el Madrid de 1955. El protagonista es Mauricio, un joven de 26 años que llega a la capital desde un pequeño pueblo de Asturias. Proviene de una familia muy modesta. Su padre es albañil y su madre cuida de sus cuatro hermanos. Mauricio acaba de acabar su servicio militar, que lo ha pasado en Lugo, y está decidido a hacerse un hueco en la vida y ayudar a su familia. Está medio enamoriscado de Salomé, una muchacha dos años menor que él que ha quedado en el pueblo sin saber qué él la desea. Quiere ganar dinero rápido, volver como un triunfador y establecer un negocio en Oviedo. Pero estas prisas por salir de su modestia, este ansia de triunfar le pondrán, ingenuamente, en contacto con compañías no recomendables.

Con esta idea conflicto central, indica el conflicto central, el dilema moral del protagonista y una imagen simbólica recurrente. Además, describe la reflexión interna de este personaje en un momento de crisis. 

Como te indico, dime la idea para una novela literaria basada en esta premisa y escribe las 1000 primeras palabras de esa novela, cuando Mauricio va en el tren camino de Madrid. No expliques el contexto directamente; deja que se deduzca por sus pensamientos.



4.- Y esta es la respuesta de Grok:

Idea de novela literaria: "El humo de los raíles"

Ambientada en el Madrid de 1955, en plena posguerra tardía bajo el régimen franquista, cuando la capital atrae a miles de jóvenes del campo en busca de fortuna, pero la ciudad ofrece más sombras que oportunidades reales. El protagonista, Mauricio, de 26 años, llega desde un pueblo asturiano tras el servicio militar en Lugo. Procede de una familia humilde —padre albañil, madre cuidando cuatro hermanos—, y sueña con ganar dinero rápido para regresar triunfador, casarse con Salomé (la muchacha del pueblo que ignora sus sentimientos) y montar un pequeño negocio en Oviedo. Su ansia de ascenso social lo impulsa a aceptar trabajos dudosos que lo acercan a compañías turbias en el submundo madrileño de estraperlo, contrabando y favores políticos.

Conflicto central: Mauricio se ve atrapado en una red de favores y delitos menores en la construcción y el mercado negro de Madrid, donde las prisas por enriquecerse rápido lo llevan a comprometerse con un grupo que trafica materiales racionados y falsifica documentos para obras públicas. El conflicto culmina cuando debe elegir entre delatar a sus nuevos "protectores" (salvando su conciencia pero arriesgando su vida y la de su familia) o profundizar en el engranaje criminal para enviar dinero a casa y acercarse a su sueño de regreso triunfal.

Dilema moral del protagonista: ¿Priorizar la lealtad a su familia y al pueblo (incluida Salomé, que representa la pureza perdida) manteniendo la integridad moral, aunque eso signifique volver derrotado y pobre, o abrazar la corrupción como único camino realista para "salir adelante" en una España donde la honestidad parece un lujo que nadie puede permitirse?

Imagen simbólica recurrente: El humo negro y denso de las locomotoras de vapor que lo envuelve en el viaje y reaparece en las chimeneas industriales de Madrid, en los cigarrillos compartidos en bares oscuros y en las nubes de carbón de las obras. Simboliza el progreso ambiguo —la promesa de avance que asfixia, la ambición que contamina el aire y el alma—, y evoca la imposibilidad de escapar del pasado rural sin mancharse.


Reflexión interna en un momento de crisis (imaginada en mitad de la novela, cuando Mauricio se da cuenta de que ha cruzado una línea irreversible):

Sentado en un banco de la glorieta de Bilbao al anochecer, con el humo de un cigarrillo barato quemándole los dedos, Mauricio piensa: "Todo esto empezó con un billete de tren y una promesa que me hice a mí mismo en el vagón: no volveré con las manos vacías. Pero ahora miro mis manos y veo manchas que no se quitan con agua. Salomé me esperará con los ojos limpios, como siempre, y yo llegaré oliendo a carbón y a mentiras. ¿Qué le diré? ¿Que el dinero viene de donde no debe venir? ¿Que para darle una casa en Oviedo he tenido que vender un pedazo de lo que era? El humo entra por la nariz y sale igual, pero yo ya no soy el mismo. Si confieso, me hundo; si callo, me pierdo. Y el tren de vuelta no espera a nadie."

Primeras 1000 palabras aproximadas (el viaje en tren hacia Madrid, 1955)

El tren traqueteaba como si llevara prisa por dejar atrás las montañas. Mauricio se había sentado junto a la ventanilla, el cuerpo encajonado entre el respaldo duro y un hombre mayor que dormía con la boca abierta, un hilo de baba colgando como una cuerda floja. Fuera, los picos de Asturias se difuminaban en una niebla gris que parecía no querer soltarlos. Había subido en Oviedo al atardecer, con el petate al hombro y los ahorros cosidos en el forro interior de la chaqueta: doscientas pesetas que su madre le había dado apretando los labios, sin decir nada más que "cuídate, hijo". El billete le había costado casi todo lo que traía del cuartel en Lugo; el resto era para llegar y empezar.

El vagón olía a carbón húmedo, a tabaco rancio y a sudor de cuerpos que llevaban horas sin moverse. Alguien había abierto una lata de sardinas en conserva y el olor se pegaba a la garganta. Mauricio miró su reflejo en el cristal empañado: veintiséis años, la cara todavía marcada por el sol del pueblo y el frío de los cuarteles. Se pasó la mano por la barba de tres días. Pensó en Salomé. La había visto por última vez en la romería de San Roque, bailando con otro, riendo con esa risa que le hacía un nudo en el estómago. No le había dicho nada. ¿Para qué? Ella seguía allí, ayudando en la casa de sus padres, esperando a que la vida decidiera por ella. Él quería decidir por los dos. Volver con dinero suficiente para comprarle un anillo, para abrir una tiendecita en Oviedo, para que no tuviera que lavarle la ropa a nadie más. Pero primero Madrid. Madrid era la puerta. Todos lo decían: si aguantas un año, sales adelante.

El tren entró en un túnel y la oscuridad lo envolvió entero. Solo se oía el hierro contra el hierro, un latido mecánico que le recordaba el corazón cuando corría detrás de las vacas en el prado. Encendió un cigarrillo con cerillas que temblaban un poco. El humo se mezcló con el vapor que entraba por las rendijas. Pensó en su padre, albañil de sol a sol, las manos como piedras agrietadas. "No seas tonto, quédate aquí", le había dicho la última noche. Pero Mauricio no podía quedarse. Ver a sus hermanos menores con los zapatos rotos, a su madre cocinando con leña mojada, le quemaba por dentro. Quería mandarles dinero, cartas con billetes dentro, fotos donde saliera con traje y corbata. Quería que dijeran: "Mauricio lo consiguió".

Cuando salió del túnel, la luz era ya mortecina. Los pueblos pasaban como sombras: casas bajas, chimeneas humeantes, algún perro ladrando al tren. En una estación pequeña, un grupo de mujeres con cestas subió hablando en voz baja. Llevaban pañuelos negros y miradas cansadas. Una se sentó enfrente, sacó un bocadillo envuelto en papel de periódico y lo partió con cuidado. Mauricio apartó la vista. No había comido desde la mañana. Tenía hambre, pero el nudo en el estómago era más grande que el hambre.

Se durmió un rato, o eso creyó. Soñó con el pueblo: el río helado, Salomé lavando ropa en la orilla, su pelo cayéndole sobre la cara. Él se acercaba, pero el agua subía, lo arrastraba. Despertó con un sobresalto. El hombre mayor roncaba todavía. El tren aminoraba. Anunciaron León. Allí cambiaban de máquina, decían. Bajó a estirar las piernas en el andén. El frío le cortó la cara. Compró un café aguado en un puesto y un panecillo que sabía a cartón. Miró a los otros viajeros: hombres como él, maletas atadas con cuerdas, ojos que buscaban algo en la distancia. Todos iban a Madrid. Todos querían lo mismo.

Volvió al vagón. La noche se había cerrado del todo. Las luces de las estaciones eran tenues, como velas a punto de apagarse. Pensó en Lugo, en el cuartel: las marchas bajo la lluvia, las noches sin dormir, el olor a lana mojada y a miedo. Había salido de allí con una cartilla militar limpia y la cabeza llena de planes. Ahora solo quedaba el traqueteo y la promesa que se había hecho: no volver con las manos vacías. No volver para que lo miraran con lástima.

El tren aceleró de nuevo. El humo entraba por la ventanilla entreabierta, negro y espeso. Mauricio cerró los ojos. Imaginó la llegada: la estación de Atocha grande como una catedral, la gente corriendo, los taxis pitando, las luces de la Gran Vía. Imaginó un trabajo en una obra, el sueldo a fin de mes, las cartas a casa. Imaginó a Salomé abriendo el sobre, sonriendo. Pero en el fondo sabía que nada era tan sencillo. Madrid no era el pueblo. Madrid tenía sus propias reglas, sus propios humos.

Y el tren seguía, imparable, hacia el sur, hacia la capital que lo esperaba con los brazos abiertos y los bolsillos cerrados.



Está claro que mejorando y detallando mejor el prompt de la pregunta, la respuesta es también más elaborada y de mayor calidad. No se trataría, en este momento, de copiar este texto sin más, sino de masticarlo en nuestra mente para, a partir de esta semilla, disparar nuestra propia creatividad. Al menos, mucho más que suficiente para romper el trauma del papel en blanco al que todo escritor se enfrenta.




19/3/26

Feliz cumpleaños

 



Ferdinand, aquella tarde de marzo, sentado ante la mesa con un papel en blanco y un bolígrafo de esos de cuatro colores delante de él, estaba a punto de darse por vencido. Afuera llovía con esa delicadeza temerosa que tiene la lluvia cuando no se decide a ser tormenta.

Había amanecido con la intención de escribir la carta. Pero, la voluntad de seguir se había esfumado al poco rato, tras un montón de frases esbozadas y no acabadas, tachadas por ridículas o carentes de inspiración. Al parecer, la imaginación se le había secado. Sesenta y ocho años eran muchos y el cuerpo lo sabía antes que la mente. Dio la luz pensando que no le venían las ideas porque no veía bien la cuartilla y su vista ya no negociaba con los contrastes. Tonterías. Lo que no sabía era qué decir.

Pero mañana era el cumpleaños de Laura. Tenía que enviarle una carta. 

Escribió su nombre en la esquina superior del papel. Laura. Lo miró. Lo tachó. Lo volvió a escribir más abajo, como si la posición en la página pudiera cambiar el peso de lo que venía después. Y después no vino nada.

¿Cómo se le escribe a alguien que ya lo sabe todo? 

Habían sido presentados en el verano del ochenta y seis, en una oficina mal decorada con moqueta oscura y algo húmeda, muebles ya desfasados para la moda de aquellos años, y un par de cuadros de paisajes indefinidos colgados de una pared. Ferdinand tenía veintiocho años y vestía ropa un tanto anticuada para su edad. Laura tenía la misma edad y resultaba interesante a primera vista. Las primeras frases que se dijeron podrían ser un buen inicio para la carta, pero no las recordaba. Tan sólo le venía a su mente la ilusión y la vida que emanaba de su mirada y su sonrisa, su entusiasmo juvenil, casi ingenuo, sus ganas de comerse el mundo; la instantánea empatía que sintió, algo irracional si uno lo piensa bien, porque no puede uno simpatizar con otra persona así sin más, de sopetón. Estas cosas deberían llevar su tiempo porque de lo contrario, y tal como fue, es como un tsunami de devoción que lo cambia todo. La cuestión es que siempre hubo química. Ni idea del porqué. Cuando Ferdinand intentaba recordar cuándo exactamente Laura había dejado de ser una conocida para convertirse en algo sin nombre preciso, no encontraba el momento. La amistad verdadera no tiene momento. Aparece como surge la luz en las mañanas: sin que nadie encienda nada. Y, entonces, uno siente que siempre ha estado ahí, que uno nació con ello, que no hay historia previa. Cuarenta años no caben en una hoja de papel y además, para qué intentarlo si todo está ya escrito en los recuerdos de casi quince mil días. Todo estaba ya dicho en los ocho lustros. En cada conversación a medias, en cada silencio que no necesitaba explicación, en cada  ¿te acuerdas cuando…?,  en frases que no precisaban terminarse porque el otro ya estaba sonriendo. La carta entera estaba en el hecho de que él estuviera allí, un día de marzo, intentando poner en palabras algo que no necesitaba expresarse.

Tomó la pluma y escribió: Querida Laura, hoy es tu cumpleaños y quería decirte…

Se detuvo.

¿Quería decirle qué, exactamente? ¿Que la apreciaba infinitamente? Demasiado poco. ¿Que era la persona que mejor le había comprendido nunca? Sonaba excesivo por muy cierto que fuese. ¿Que había días en que su consejo había sido suficiente para dormir tranquilo? Le parecería exagerado, aunque no lo fuera. ¿Hablar de complicidad? Una palabra demasiado pulida. ¿De su eterno apoyo?  Le recordaría a una columna arquitectónica o a un trámite gubernamental. ¿Qué le había regalado la amistad más importante de su vida? Eso, pensó, era lo más cercano a la verdad, y también lo más imposible de escribir sin parecer repipi. Pero es que, de verdad, qué jodido es escribir a alguien que lo sabe todo de ti. Es como buscar un regalo para un millonario. 

¿Cómo se le escribe a alguien que ya lo sabe todo de uno? 

Porque Laura había estado en todo. En los momentos duros, en los alegres, en las cuitas difíciles, en los viajes, en las lecturas, en los conciertos compartidos, en los apuros, en los éxitos, en los fracasos, en los valores de su existencia. Siempre le había fascinado la forma de ver el mundo que ella tenía. Era la que le hubiese gustado poseer a él aunque jamás había tenido ni la sabiduría ni el arrojo para construirla. Así que pronto supo que era más fácil preguntarle, escucharle y dejarse llevar por sus consejos, siempre precisos, siempre acertados, que buscar la solución por sí mismo. Se había sorprendido durante todos aquellos años de lo sencillo que era hablar con ella hasta de lo más íntimo, sin que jamás hubiera juicios, moralina o reproches. Como no había, tampoco, halagos falsos, lisonjas o adulaciones. La había dicho siempre la verdad honesta y, fuera cual fuera, a favor o en contra, siempre sonaba bien, siempre encajaba de manera natural y evidente; siempre encontraba la frase apropiada, la que ayudaba a verse a uno mismo en un espejo fiel y a refrenar las estupideces que él en solitario hubiera cometido. Una ayuda así era inestimable, poderosa, impagable.

Cuatro décadas de cumpleaños recordados, de risas comunes, de miradas cómplices, de mudanzas vitales codo con codo, de disgustos compartidos a medias para que pesaran menos. De conversaciones que empezaban hablando de cualquier cosa y terminaban, sin saber cómo, en lo más hondo. De silencios que no incomodaban porque con Laura el silencio también era una forma de compañía. Cuatro décadas no son solo tiempo; son una acumulación de sedimentos, una geología de cenas compartidas, crisis de ansiedad, ilusiones,  esperanzas y, con el lento desmoronamiento de las ambiciones juveniles, construir la madurez y la vejez soportándose el uno al otro. Lo que habían compartido no era ostentoso sino que era más parecido a las venas que nos recorren el cuerpo: apenas visibles, sin notoriedad, difíciles de distinguir pero fundamentales, necesarias, imprescindibles para lo que uno es.

La amistad, pensó Ferdinand, es la única institución que no requiere contratos y que ofrece los intereses más altos en forma de recuerdos compartidos. Es una geografía común. Conocían los mismos baches en la carretera, las mismas estaciones, los mismos problemas laborales, las mismas emociones, y ambos sabían que su mapa era el mismo. Esa era la magia: ser el testigo de la vida del otro. Laura era la guardiana de su cronología. Si ella se olvidaba de algo, ese algo dejaba de existir.  Sintió una oleada de gratitud, de admiración, que le oprimió el pecho, no como un ataque, sino como un abrazo. La lealtad eterna no es un gran gesto heroico bajo la lluvia; es la acumulación de pequeñas decisiones diarias de no irse, de no juzgar, de seguir escuchando la misma anécdota por décima vez solo porque el otro necesita contarla. 

Ferdinand dejó el boli sobre el papel. Se levantó, fue a la ventana, miró la lluvia que caía con languidez. En la calle, un hombre paseaba a un perro con paraguas y sin prisa, y los dos parecían conformes con el agua y con el atardecer.

Pensó en la última vez que habían comido juntos, hacía tres semanas. Ella se había encargado de preparar los platos, y Ferdinand la había felicitado y halagado y Laura había dicho: Ferdinand, no seas moñas que nos conocemos de siempre, y los dos se habían reído como se ríen las personas que comparten un idioma que nadie más habla.

Eso. Eso era lo que quería escribir. Ese idioma.

Pero el idioma no cabía en papel.  

Volvió al escritorio. Miró la hoja. Miró el nombre de Laura, escrito sin nada más a continuación. Cogió el bolígrafo y, debajo de su nombre, escribió una sola línea.

Gracias por no tener nada que decirte. Feliz cumpleaños.

La dobló en dos. La metió en el sobre. Escribió su dirección de memoria, como se escribe la de uno mismo.

Y supo, mientras pegaba el sello, que era la carta más larga que había escrito en su vida. 




18/3/26

Plataforma Vera Rubin para IA.

 


En el transcurso del evento GTC de NVIDIA que comenzó anteayer, se ha anunciado la nueva plataforma de hardware para procesos de IA, denominada Vera Rubin, en honor a la célebre astrónoma.

Como se sabe, las redes neuronales que procesan, entre otras cosas, los grandes modelos de lenguaje, requieren de potencias de cálculo enormes y su consumo energético es también gigantesco. Lograr, entonces, un hardware más eficiente y potente resulta importante para que estos LLM puedan seguir evolucionando. 

Vera Rubin es una plataforma diseñada para responder a las exigencias de los sistemas de IA más avanzados: los agentes autónomos. Lejos de ser simplemente un nuevo chip, intenta ser una redefinición completa del supercomputador de IA, integrando CPU, GPU, red y memoria en una arquitectura coherente orientada a la escala masiva. Podría decirse que es un microprocesador ampliado a la escala de un rack. 

Su diseño se materializa en configuraciones como el sistema NVL72, un supercomputador de IA que conecta 72 GPUs Rubin y 36 CPUs Vera mediante la sexta generación de NVLink. El resultado es una infraestructura capaz de operar prácticamente como una enorme CPU, eliminando muchas de las limitaciones que han frenado el escalado de los modelos de IA. Gracias a este diseño, el sistema alcanza hasta 3,6 exaflops de velocidad de proceso. Una de las claves de esta potencia es la red interna NVLink 6, que permite conectar todas las GPUs del rack con un ancho de banda agregado de hasta 260 terabytes por segundo. Esta interconexión permite que cada GPU acceda a la memoria y al cálculo de todas las demás, funcionando como una sola unidad de procesamiento distribuida. Además, cada GPU Rubin incorpora memoria HBM4 de altísimo ancho de banda, alcanzando más de 1,5 petabytes por segundo de transferencia interna, lo que permite manejar modelos cada vez más grandes y complejos sin saturar la memoria. 

Aunque las GPUs siguen siendo el motor del cálculo masivo, la arquitectura Rubin introduce un nuevo elemento fundamental: la Vera CPU. Este procesador, basado en núcleos Arm personalizados llamados Olympus, incorpora 88 núcleos y 176 hilos de ejecución, además de un ancho de banda de memoria extremadamente elevado y hasta 1,5 TB de memoria LPDDR5X por chip.  

Además, NVIDIA ha multiplicado la memoria del sistema respecto a generaciones anteriores. En un rack NVL72 se combinan 20,7 TB de HBM4 en las GPUs y aproximadamente 54 TB de LPDDR5X en las CPUs, creando un enorme espacio de memoria coherente para manejar contextos cada vez más largos y modelos con billones de parámetros.

Este gran conjunto de chips producen una gran cantidad de calor. Por ello, la plataforma utiliza refrigeración líquida directa con agua a 45 °C, eliminando gran parte de los sistemas tradicionales de climatización de los centros de datos.   

Asociado a Vera Rubin, se integra la tecnología de Groq, una empresa especializada en chips para inferencia de baja latencia. Los nuevos racks Groq LPX, integrados en el ecosistema Rubin, introducen el concepto de inferencia desagregada. En lugar de ejecutar todas las fases de un modelo en la misma arquitectura, el sistema separa las etapas del proceso para optimizarlas de forma independiente. Los chips LPU de Groq gestionan la fase de decodificación de tokens, para conseguir una latencia mínima. Estas LPUs  utilizan grandes cantidades de memoria SRAM integrada y alcanzan anchos de banda superiores a 150 TB/s, lo que los convierte en aceleradores extremadamente eficientes para generar tokens en tiempo real.    


  

16/3/26

El minotauro no duerme por la noche

 


El minotauro no duerme por la noche (2015/2025), de Félix Remírez, es un relato digital que narra el discurrir de una única noche de un adolescente japonés, desubicado y solitario, que busca algo que ni sabe qué es. Deambula por Tokyo, pasando por barrios marginales, parques y zonas céntricas, reflexionando y anhelando hallar un sentido a su existencia. En su recorrido encuentra a una joven, tan perdida como él. Quizá ella sea la respuesta a sus deseos.

Es la historia de Akimitsu y Tsubame.

La vida en un laberinto por el que transitamos deseando no llegar a la salida. En esos recovecos, en esas esquinas tras las cuales siempre se esconden sorpresas, en ese ir y venir sin mapa a nuestra disposición, nos amenaza nuestra soledad, nuestras pérdidas y nuestros anhelos incumplidos. Nos amenaza un nuevo minotauro al que no sabemos sin enfrentar o evitar. La noche es el escenario ideal para otear, oler, presentir al minotauro que nos amenaza. Como Teseo, caminamos solos, desvalidos, tristes unas veces, alegres otras, intentando no perdernos en un laberíntico destino que no conocemos. De nada sirve esconderse. El Minotauro, fuerte y poderoso, nos conoce bien pues nace de nuestro corazón. Espera agazapado tras el atardecer, tras un tropiezo, tras un desengaño, nos vigila desde las sombras.

La obra se divide en escenas, cada una de las cuales muestra un paisaje distinto que el lector puede explorar en 360º. Algunas de las caras de esas escenas contienen textos que el lector debe encontrar. Otras, sólo imágenes y otras permiten pasar al lugar siguiente. El ambiente siempre es nocturno, nostálgico, lleno de tristezas incluso en lugares de clara belleza estética. Los oscuros pensamientos del joven se plasman como un minotauro que, de tanto en cuanto, deambula por la pantalla como si esos instintos le persiguieran en su vida.

Se acompaña con música de fondo.

La versión original, del 2015, estaba programada en Flash CS5 pero, ante la desaparición de este lenguaje, la nueva versión, del 2025, está programada en HTML5/CSS/javascript. Funciona para PC en Edge y Chrome.









14/3/26

TinyStories, generador de cuentos cortos por IA de tamaño reducido.

 


TinyStories: How Small Can Language Models Be and Still Speak Coherent English?, de Ronen Eldan y Yuanzhi Li (de Microsoft Research), es un artículo publicado en 2023 que aborda la cuestión de cuál es el tamaño mínimo que debe tener un modelo de lenguaje para ser capaz de generar texto coherente y fluido en inglés. Una pregunta interesante ya que los actuales LMM necesitan océanos de datos, capacidad de procesamiento muy elevada y consumen ingentes cantidades de energía. Reducirlos al mínimo permitiría una eficiencia mucho mayor.

El problema de partida es bien conocido en la literatura especializada: los modelos de lenguaje pequeños (Small Language Models, SLMs), es decir, aquellos con alrededor de 125 millones de parámetros como GPT-Neo (small) o GPT-2 (small), raramente logran producir texto consistente más allá de unas pocas palabras, incluso después de un entrenamiento extensivo sobre grandes corpus . Estos modelos tienden a generar oraciones incoherentes, repetitivas o sin sentido, incapaces de mantener un tema claro o una estructura lógica a lo largo de varios párrafos. La pregunta que surge naturalmente es si esta limitación es una consecuencia intrínseca del tamaño reducido del modelo, o si más bien se debe a la excesiva amplitud y diversidad de los datos con los que se entrenan.

Cuando un modelo se entrena sobre corpus masivos como Wikipedia o Common Crawl, no solamente aprende las reglas gramaticales del lenguaje: también debe aprender a codificar y recuperar una cantidad ingente de hechos y conceptos provenientes de los más diversos dominios del saber humano. Los autores plantean la hipótesis de que esta sobrecarga informativa puede estar impidiendo que los SLMs aprendan los mecanismos esenciales del lenguaje. Si se pudiera diseñar un conjunto de datos que preservara los elementos fundamentales del lenguaje natural —gramática, vocabulario, hechos básicos y razonamiento— pero que fuera significativamente más pequeño y restringido en términos de diversidad y amplitud temática, quizás sería posible que modelos muy pequeños adquirieran la capacidad de generar texto coherente.

Así, el artículo propone el modelo TinyStories, un generador de cuentos cortos generados mediante GPT-3.5 y GPT-4, diseñado para contener únicamente vocabulario que un niño de entre tres y cuatro años podría comprender. Cada historia está compuesta por dos o tres párrafos que siguen una trama simple y un tema consistente. Para garantizar la diversidad del conjunto de datos —uno de los principales desafíos al utilizar modelos generativos para producir datos de entrenamiento—, los autores recopilaron un vocabulario de aproximadamente 1.500 palabras básicas divididas en sustantivos, verbos y adjetivos. En cada generación, se seleccionan aleatoriamente tres palabras (una de cada categoría) que el modelo debe integrar en la historia. Además, se elaboró una lista de posibles características narrativas —como diálogos, giros argumentales, finales negativos o moralejas— de las cuales se elige un subconjunto aleatorio para cada historia, enriqueciendo así la variedad estructural del corpus.

La propuesta central del artículo es demostrar que TinyStories puede emplearse para entrenar y evaluar modelos de lenguaje con menos de diez millones de parámetros, e incluso con arquitecturas de un único bloque transformador, y que dichos modelos son capaces de generar historias fluidas, gramaticalmente correctas, diversas y coherentes. Para verificar esto, los autores entrenan una serie de modelos de arquitectura GPT-Neo con dimensiones de embedding que van desde 64 hasta 1024 y con entre uno y doce bloques transformadores. Los resultados muestran que incluso un modelo de 2,5 millones de parámetros puede generar continuaciones de historias más coherentes que las producidas por GPT-2 XL, un modelo casi mil veces más grande con 1.500 millones de parámetros.

Introducen, asimismo, un nuevo sistema de evaluación denominado GPT-Eval.  El procedimiento consiste en proporcionar al modelo evaluado el inicio de una historia, generar una continuación, y luego solicitar a GPT-4 que califique dicha continuación en múltiples dimensiones: gramática, creatividad, consistencia con el inicio y coherencia de la trama. Este enfoque multidimensional permite obtener una visión más matizada de las capacidades del modelo y no se limita a medir una única métrica de rendimiento.

Los experimentos concluyen, en primer lugar, que la capacidad gramatical emerge antes que otras habilidades y puede ser dominada por modelos relativamente pequeños, mientras que la consistencia narrativa y la creatividad requieren mayor capacidad. En segundo lugar, la dimensión del embedding resulta más determinante para el conocimiento factual, mientras que el número de capas (la profundidad) es más crucial para el seguimiento de dependencias a largo plazo y la coherencia contextual. En tercer lugar, los modelos de una sola capa muestran dificultades notables para seguir instrucciones, lo que sugiere que la atención global es especialmente importante para esa capacidad.

Los autores también presentan una variante  llamada TinyStories-Instruct, en la que cada historia va precedida de un conjunto de instrucciones que puede incluir palabras específicas a incorporar, una oración que debe aparecer en el texto, características narrativas y un resumen argumental. Esta variante permite evaluar la capacidad de seguimiento de instrucciones de los modelos y demuestra que incluso modelos de tamaño reducido son capaces de generalizar a combinaciones de instrucciones que no han visto durante el entrenamiento.

Finalmente, el artículo aporta evidencia de que los modelos entrenados en TinyStories exhiben leyes de escalado similares a las observadas en modelos de lenguaje grandes, mostrando una dependencia polinómica entre el rendimiento y los recursos computacionales empleados en el entrenamiento.

El artículo completo puede leerse desde este enlace.




13/3/26

Literazoon

 


Literazoom (2009/2023), de Félix Remírez, es una obra que aplica la técnica del zoom infinito a la literatura. Así, delante de los ojos del lector van circulando una multitud de citas literarias en prosa o en verso, sin solución de continuidad, eventualmente salpicadas con imágenes. También, van apareciendo el pantalla, en posiciones aleatorias retazos aún menores de las frases literarias utilizadas.

La imagen es minimalista.

La versión original del 2009 estaba programado en Flash CS5 pero la nueva versión  del 2023 lo está en HTML/CSS/javascript.

La obra funciona en inglés y en español. Se acompaña con un audio musical. No hay interacción ya que los textos se animan de manera automática.

Funciona para PC en Edge y Chrome.



 

8/3/26

Mejorando la capacidad de los LLMs al generar código de programación

 


Aristidis Vasilopoulos (investigador independiente, Estados Unidos) presenta en ArXiv el artículo técnico Codified Context: Infrastructure for AI Agents in a Complex Codebase una nueva configuración  para mejorar el rendimiento y la coherencia de los LLMs cuando trabajan en crear  proyectos de software complejos. El trabajo se sitúa en el contexto del rápido crecimiento de herramientas de programación asistida por inteligencia artificial —como Copilot o sistemas de agentes autónomos— y aborda una limitación fundamental de estos sistemas: su incapacidad para mantener memoria persistente del proyecto a lo largo de múltiples sesiones de desarrollo.  

El estudio parte de una observación empírica: aunque los modelos de lenguaje poseen amplios conocimientos de programación, en la práctica carecen de memoria contextual estable sobre proyectos específicos. Cada sesión de trabajo comienza sin recordar decisiones de diseño previas, convenciones de codificación o errores ya detectados. Esto obliga al desarrollador a repetir instrucciones y explicaciones constantemente, especialmente en proyectos grandes donde el contexto supera el límite de las ventanas de entrada del modelo. 

Así, actualmente, si se le pide a un modelo de lenguaje (LLM) que ayude a programar una aplicación grande, se comporta como un programador con amnesia. Se le explican las reglas del proyecto, el sistema escribe algo de código, pero al día siguiente ya ha olvidado por completo la arquitectura del software y empieza a introducir errores absurdos. Tampoco puedes simplemente copiar y pegar todo el código y el manual del proyecto en cada sesión, porque el modelo se satura con demasiada información y termina ignorando partes importantes. 

Según el autor, los mecanismos habituales —como archivos de configuración o manifiestos iniciales que describen el proyecto— funcionan únicamente en proyectos pequeños o prototipos, pero no escalan adecuadamente a sistemas con decenas o cientos de miles de líneas de código.  

El problema central que analiza el artículo es, por tanto, cómo proporcionar a los LLMs una forma de memoria estructurada y persistente que les permita trabajar de forma coherente en proyectos complejos y a largo plazo. En lugar de considerar la documentación como un simple recurso auxiliar para humanos, el autor propone tratarla como una infraestructura operativa diseñada específicamente para ser interpretada por agentes de inteligencia artificial. Esta infraestructura permitiría transmitir conocimiento del proyecto a los agentes de forma sistemática, asegurando que puedan comprender convenciones, arquitectura y restricciones incluso cuando la sesión de trabajo es nueva.  

Para explorar esta idea, Vasilopoulos desarrolla un sistema experimental durante la creación de un proyecto real: un sistema distribuido en C# de aproximadamente 108.000 líneas de código, basado en un motor de simulación multijugador. El desarrollo se realizó durante setenta días de trabajo parcial y se apoyó casi exclusivamente en un agente de programación basado en LLM. En este contexto se diseñó y probó una infraestructura de “contexto codificado” compuesta por tres niveles principales de conocimiento estructurado.  

El primer nivel corresponde a lo que el autor denomina “constitución del proyecto” o memoria caliente. Se trata de un documento relativamente breve que se carga automáticamente al inicio de cada sesión con el agente. En él se incluyen las reglas fundamentales del proyecto: convenciones de nombres, estándares de calidad del código, comandos de compilación, patrones arquitectónicos y protocolos de orquestación entre agentes especializados. Su objetivo es proporcionar una base constante de información que el modelo debe tener presente en todo momento, sin consumir excesivo espacio en la ventana de contexto. 

El segundo nivel consiste en un conjunto de agentes especializados que actúan como expertos en dominios concretos del sistema. En el proyecto analizado se desarrollaron diecinueve agentes de este tipo, cada uno definido mediante especificaciones detalladas que incluyen su ámbito de actuación, herramientas disponibles, errores frecuentes y conocimiento técnico relevante. Algunos agentes se centran en áreas críticas como redes, arquitectura del sistema o depuración de errores. La idea es que, cuando una tarea específica lo requiere, el sistema invoque automáticamente al agente más adecuado, evitando que un único modelo generalista tenga que manejar toda la complejidad del proyecto. 

El tercer nivel corresponde a la base de conocimiento del proyecto, denominada memoria fría. Está formada por decenas de documentos que describen subsistemas concretos: arquitectura de red, sistemas de combate, generación de niveles o interfaz de usuario. Estos documentos no se cargan permanentemente, sino que se recuperan bajo demanda mediante un servicio de búsqueda contextual. Cada documento describe con precisión patrones de código, rutas de archivos, parámetros y comportamientos esperados, lo que permite a los agentes comprender cómo funciona cada subsistema sin necesidad de analizar todo el código fuente. 

El artículo evalúa el funcionamiento de esta arquitectura a partir de métricas obtenidas durante 283 sesiones de desarrollo. En total se registraron más de 2.800 instrucciones humanas y más de 16.000 interacciones autónomas de los agentes, lo que ofrece un conjunto de datos significativo para observar cómo se comporta el sistema. Además, el autor analiza el crecimiento de la infraestructura de conocimiento, que llegó a representar aproximadamente el 24 % del tamaño del código del proyecto, lo que indica la importancia de la documentación estructurada para sostener el desarrollo asistido por agentes.  

El estudio también presenta varios casos de uso que ilustran el papel del contexto codificado.  

A partir de estos resultados, el autor plantea varias implicaciones para la ingeniería de software asistida por inteligencia artificial. En primer lugar, sostiene que el papel del desarrollador humano no desaparece, sino que se desplaza hacia tareas de diseño, supervisión y organización del conocimiento del proyecto. En segundo lugar, sugiere que la documentación ya no debe concebirse únicamente como una herramienta para programadores humanos, sino como un componente fundamental del ecosistema de desarrollo cuando intervienen agentes de IA. Finalmente, el estudio propone una serie de recomendaciones prácticas, como comenzar desde el inicio con una “constitución” del proyecto, documentar cualquier conocimiento que deba repetirse en múltiples sesiones y mantener las especificaciones actualizadas para evitar errores derivados de información obsoleta.  

En definitiva,  se concluye que el acceso estructurado al conocimiento específico del proyecto es clave para que los agentes de programación basados en modelos de lenguaje produzcan código consistente y fiable en sistemas complejos.  La investigación demuestra que, si se organiza la documentación de manera que la IA pueda consultarla bajo demanda, deja de adivinar a ciegas. En su lugar, empieza a comportarse como un desarrollador junior fiable que realmente consulta los manuales antes de escribir código.

Puede leerse el artículo completo en este enlace.




7/3/26

Os Circuitos do Livro: produção, difusão e receção

 


La convocatoria para el coloquio Os Circuitos do Livro: produção, difusão e receção propone un espacio académico de reflexión sobre el libro entendido como un objeto cultural central en la circulación de ideas y en la construcción de identidades. a organización está a cargo de André Pequeno dos Santos y Hugo Ribeiro da Silva, investigadores vinculados al CITCEM.

El evento parte de la idea de que la trayectoria del libro no es lineal ni exclusivamente literaria, sino que implica dimensiones históricas, sociales, culturales, educativas, políticas y tecnológicas. En este sentido, se destaca el papel de la práctica editorial como un conjunto de decisiones que determinan qué obras se publican, de qué manera se presentan y a qué públicos llegan. Asimismo, se subraya la importancia de las bibliotecas como instituciones encargadas de preservar y difundir el conocimiento, al tiempo que se reconoce que sus fondos y su funcionamiento han estado históricamente condicionados por mecanismos de control y censura.

El coloquio se inspira en el concepto de “circuitos de comunicación” formulado por Robert Darnton, que analiza la vida del libro como un proceso que involucra múltiples actores: autores, editores, tipógrafos, distribuidores, libreros y lectores. Desde esta perspectiva, el encuentro busca examinar las relaciones entre producción, circulación y recepción de los textos, así como los factores sociales, económicos y políticos que influyen en los modos de lectura y en la difusión del conocimiento.

En este momento se ha abierto el plazo para presentar trabajos y ponencias a fin de que el Jurado pueda seleccionar los más interesantes. Este plazo llegará a término a finales de  abril.

El evento se celebrará el 12 de noviembre de 2026 en la Facultad de Letras de la Universidad de Oporto (FLUP).

Más información en este enlace.


6/3/26

Un año

 


Un año (2023), de Félix Remírez, es un diario personal en el que el personaje escribe cada día, cuando llega a casa al atardecer (no, antes). El lector podrá leer solo la entrada del diario correspondiente al día en curso, de modo que para completarlo deberá estar leyendo todo un año. Si el protagonista tardó un año en escribir el diario, el lector deberá igualmente tardar un año. Es lo justo.

El ordenador, por tanto, controla el ritmo y tiempo de lectura. El lector no puede leer más deprisa o más lentamente, ni leer lo sucedido en un día durante otro día. Está obligado, si desea conocer toda historia, quién fue el cantante y qué sucederá en la vida de su familia y del protagonista. Si en una obra convencional en papel, el lector puede tomar y dejar el libro cuando lo desee, saltarse páginas, empezar por el final, releer o cualquier acción que se le antoje, en Un año, ocurre lo contrario. Es el libro el que controla los tiempos. Si el lector se salta algún día, si no tiene la disciplina de leer cada jornada, simplemente ya no podrá leerla. Nunca sabrá qué escribió el protagonista en esas horas... al menos, hasta el año siguiente. Un ejercicio de paciencia y persistencia. 

Si usted comienza a leer a mediados de año, muchas cosas habrán sucedido ya y, para ponerse al día, deberá imaginar o esperar a que pase el tiempo y vaya entendiendo la vida del protagonista, a medida que lee más. Lo mismo que sucedería si, en la vida real, conociese a alguien de pronto, con su pasado, sus cuitas y sus sueños a la espalda. Para comprenderlo, debería usted contactar con él cada día hasta descubrir, poquito a poco, su historia y lo que le importa.  

Una historia de un hombre apasionado del blues que, un día, encuentra un fabuloso vinilo de un desconocido artista de Kentucky, el talentoso y desaparecido cantante de blues, Toomy Bautish. Y, asimismo, la historia de una obsesión.. La búsqueda que emprende le ofrece un apasionante cambio en su vida. Encontrará a Marcus, un americano que le abrirá puertas y le hará cumplir sus más preciados sueños.

Contiene audio. Funciona en Edge y en Chrome, al menos. En cada entrada puede haber enlaces a otras informaciones adicionales.

El diario se actualiza aproximadamente a partir de las 20:00 ya que, antes, nuestro protagonista está trabajando u ocupado en otras actividades y está activo hasta las 00:00. El diario cubre los 365 días (o 366, si es bisiesto) y usted deberá dedicar el mismo tiempo que dedicó el escritor. 

Funciona para PC en Edge y Chrome.






2/3/26

Stassis

 


Las obras de Dreaming Methods siempre son un regalo de calidad. Stassis no es una excepción. 

Se trata de un poema visual, de imágenes y ambiente oníricos, que se desarrolla en un cementerio de piezas de ajedrez. El lector puede moverse a través de este escenario 3D e ir encontrando los espectros de ciertas piezas alrededor de las cuales vuelan y se contornean los versos. El movimiento puede hacerse con el ratón o con el dedo en pantallas táctiles. También puede hacerse zoom para explorar la escena con detalle.

Programáticamente, el renderizado que simula este 3D se realiza en tiempo real utilizando la fragmentación de la escena en una malla de elementos y efectos de partículas, Ciertamente, se precisa un ordenador potente si se quiere tener un movimiento suave y exento de parones pero aún así es una avanzada programación. 

La idea y programación es de Andy Campbell y la banda sonora de Barry Smith.

Puede accederse desde este enlace.