2/1/26

GPTMB 2026

 


Se anuncia el Congreso The Third International Conference on Generative Pre-trained Transformer Models and Beyond (GPTMB 2026= que se celebrará en Niza del 5 al 9 de julio de este 2026.

En este momento, está abierta la convocatoria para presentar ponencias para que sean evaluadas por el comité de selección. El plazo estará activo hasta el 14 de marzo. Habrá sesiones presenciales y on-line.

Los trabajos que se admiten a revisión deben versar sobre: 

Fundamentos de la IA generativa

Modelos transformadores generativos pre-entrenados (GPT)

Modelos basados en transformadores y LLM (Large Language Models, Modelos de Lenguaje de Gran Tamaño)

Combinación de modelos GPT y modelos de aprendizaje por refuerzo

Creatividad y originalidad en herramientas basadas en GPT

Taxonomía del entrenamiento de LLM basado en contexto

Aprendizaje profundo y LLM

Generación aumentada por recuperación (RAG) y ajuste fino (fine-tuning) de LLM

LLM y aprendizaje por refuerzo con retroalimentación humana (RLHF)

LLM (autorregresivos, aumentados por recuperación, autoencoders, aprendizaje por refuerzo, etc.)

Recursos computacionales para el entrenamiento de LLM y para aplicaciones basadas en LLM


LLM

Taxonomía de los Modelos de Lenguaje de Gran Tamaño (LLM)

Características del modelo (arquitectura, tamaño, datos de entrenamiento y duración)

Construcción, entrenamiento y ajuste fino de LLM

Rendimiento (precisión, latencia, escalabilidad)

Capacidades (generación de contenido, traducción, interacción)

Dominio (médico, legal, financiero, educativo, etc.)

Ética y seguridad (sesgo, equidad, filtrado, explicabilidad)

Aspectos legales (privacidad de datos, exfiltración de datos, derechos de autor, licencias)

Desafíos (integraciones, desajustes, sobreajuste, sub-ajuste, alucinaciones, interpretabilidad, mitigación de sesgos, ética)


Herramientas y aplicaciones basadas en LLM

Requisitos exigentes para acciones básicas y principios fundamentales

Métodos para la selección optimizada del tamaño y la complejidad del modelo

Mecanismos de ajuste fino y personalización

Alineación de interacciones humanas y acciones

Capacidades de entrada/salida multimodales (texto con datos visuales, de audio y otros tipos)

Aprendizaje adaptativo o continuo (optimización del entrenamiento, conciencia del contexto)

Amplio rango de idiomas y dialectos, incluida la expansión regional

Escalabilidad, comprensibilidad y explicabilidad

Herramientas para desarrollo de software, planificación, flujos de trabajo, programación, etc.

Aplicaciones en robótica, sistemas autónomos y objetivos en movimiento

Aplicaciones interdisciplinarias (finanzas, salud, tecnología, etc.)

Aplicaciones para el descubrimiento y la investigación científica avanzada

Requisitos computacionales y consumo energético

Técnicas eficientes (cuantización, poda, etc.)

Fiabilidad y seguridad de las aplicaciones basadas en LLM

Cocreación, código abierto y accesibilidad global

Consideraciones éticas (mitigación de sesgos, equidad, responsabilidad)


Modelos de lenguaje pequeños y modelos de lenguaje diminutos

Arquitectura y principios de diseño específicos de los modelos de lenguaje pequeños

Modelos de lenguaje diminutos para smartphones, dispositivos IoT, dispositivos de borde (edge) y sistemas embebidos

Herramientas para modelos de lenguaje pequeños (DistilBERT, TinyBERT, MiniLM, etc.)

Destilación de conocimiento, cuantización, baja latencia y optimización de recursos

Eficiencia energética para FPGAs y ASICs especializados en el despliegue de modelos

Modelos de lenguaje diminutos para aplicaciones de traducción en tiempo real y chatbots móviles

Lenguajes diminutos y aprendizaje federado para la privacidad

Modelos de lenguaje pequeños con visión para aplicaciones multimodales

Consideraciones de hardware (energía, cuantización, poda, etc.)

Modelos de lenguaje diminutos y aceleradores de hardware (GPU, TPU y ASICs personalizados para ML)


Problemas críticos relacionados con los datos de entrada

Conjuntos de datos: exactitud, granularidad, precisión, falsos/verdaderos negativos y positivos

Datos visibles frente a invisibles (privados, personalizados)

Extrapolación de datos

Sesgos de salida y conjuntos de datos sesgados

Sensibilidad y especificidad de los conjuntos de datos

Información falsa e incorrecta

Datos volátiles

Datos sensibles al tiempo


Problemas críticos en el procesamiento

Veracidad del proceso

Comprensibilidad, interpretabilidad y explicabilidad

Detección de sesgos e incorrecciones

Incorporación de retroalimentación interactiva

Incorporación de correcciones

Generación aumentada por recuperación (RAG) para la entrada de LLM

RLHF para el ajuste fino de la salida de LLM


Calidad de la salida

Sesgos en la salida y conjuntos de datos sesgados

Sensibilidad y especificidad de los conjuntos de datos

Salida consciente del contexto

Resumen de texto fino/grueso

Calidad de la preevaluación de datos (obsoletos, incompletos, falsos, ruidosos, etc.)

Validación de la salida

Detección y explicación de alucinaciones

Detección de resúmenes sesgados o incorrectos antes de su difusión


Educación y responsabilidad académica

Revisión de planes de estudio para integrar herramientas y metodologías basadas en IA

Concienciación del usuario sobre la confiabilidad de las salidas

Normas sobre infracción de derechos de autor

Herramientas contra el plagio y el autoplagio

Infracción de propiedad intelectual

Mecanismos para la verificación de referencias

Gestión de autorreferencias ocultas


Regulaciones y limitaciones

Regulaciones (licencias, pruebas, umbrales de cumplimiento, innovaciones descentralizadas/centralizadas)

Mitigación de los riesgos sociales de los modelos GPT

Captura de emociones y sensibilidad

Falta de memoria personalizada (individual) y recuerdos (hechos pasados)

Falta de pensamiento personalizado instantáneo (resúmenes personalizados)

Riesgo de decisiones basadas en GPTM

Conciencia de la IA

Descalificación inducida por la IA


Casos de estudio con análisis y pruebas de aplicaciones de IA

Lecciones aprendidas con herramientas existentes (ChatGPT, Bard AI, ChatSonic, etc.)

Analítica predictiva en salud

Diagnóstico médico

Imágenes médicas

Farmacología

Terapia basada en IA

Finanzas basadas en IA

Planificación basada en IA

Toma de decisiones basada en IA

Control de sistemas basado en IA

Educación basada en IA

Ciberseguridad basada en IA


Más información en este enlace.


0 comentarios :