Se anuncia el Congreso The Third International Conference on Generative Pre-trained Transformer Models and Beyond (GPTMB 2026= que se celebrará en Niza del 5 al 9 de julio de este 2026.
En este momento, está abierta la convocatoria para presentar ponencias para que sean evaluadas por el comité de selección. El plazo estará activo hasta el 14 de marzo. Habrá sesiones presenciales y on-line.
Los trabajos que se admiten a revisión deben versar sobre:
Fundamentos de la IA generativa
Modelos transformadores generativos pre-entrenados (GPT)
Modelos basados en transformadores y LLM (Large Language Models, Modelos de Lenguaje de Gran Tamaño)
Combinación de modelos GPT y modelos de aprendizaje por refuerzo
Creatividad y originalidad en herramientas basadas en GPT
Taxonomía del entrenamiento de LLM basado en contexto
Aprendizaje profundo y LLM
Generación aumentada por recuperación (RAG) y ajuste fino (fine-tuning) de LLM
LLM y aprendizaje por refuerzo con retroalimentación humana (RLHF)
LLM (autorregresivos, aumentados por recuperación, autoencoders, aprendizaje por refuerzo, etc.)
Recursos computacionales para el entrenamiento de LLM y para aplicaciones basadas en LLM
LLM
Taxonomía de los Modelos de Lenguaje de Gran Tamaño (LLM)
Características del modelo (arquitectura, tamaño, datos de entrenamiento y duración)
Construcción, entrenamiento y ajuste fino de LLM
Rendimiento (precisión, latencia, escalabilidad)
Capacidades (generación de contenido, traducción, interacción)
Dominio (médico, legal, financiero, educativo, etc.)
Ética y seguridad (sesgo, equidad, filtrado, explicabilidad)
Aspectos legales (privacidad de datos, exfiltración de datos, derechos de autor, licencias)
Desafíos (integraciones, desajustes, sobreajuste, sub-ajuste, alucinaciones, interpretabilidad, mitigación de sesgos, ética)
Herramientas y aplicaciones basadas en LLM
Requisitos exigentes para acciones básicas y principios fundamentales
Métodos para la selección optimizada del tamaño y la complejidad del modelo
Mecanismos de ajuste fino y personalización
Alineación de interacciones humanas y acciones
Capacidades de entrada/salida multimodales (texto con datos visuales, de audio y otros tipos)
Aprendizaje adaptativo o continuo (optimización del entrenamiento, conciencia del contexto)
Amplio rango de idiomas y dialectos, incluida la expansión regional
Escalabilidad, comprensibilidad y explicabilidad
Herramientas para desarrollo de software, planificación, flujos de trabajo, programación, etc.
Aplicaciones en robótica, sistemas autónomos y objetivos en movimiento
Aplicaciones interdisciplinarias (finanzas, salud, tecnología, etc.)
Aplicaciones para el descubrimiento y la investigación científica avanzada
Requisitos computacionales y consumo energético
Técnicas eficientes (cuantización, poda, etc.)
Fiabilidad y seguridad de las aplicaciones basadas en LLM
Cocreación, código abierto y accesibilidad global
Consideraciones éticas (mitigación de sesgos, equidad, responsabilidad)
Modelos de lenguaje pequeños y modelos de lenguaje diminutos
Arquitectura y principios de diseño específicos de los modelos de lenguaje pequeños
Modelos de lenguaje diminutos para smartphones, dispositivos IoT, dispositivos de borde (edge) y sistemas embebidos
Herramientas para modelos de lenguaje pequeños (DistilBERT, TinyBERT, MiniLM, etc.)
Destilación de conocimiento, cuantización, baja latencia y optimización de recursos
Eficiencia energética para FPGAs y ASICs especializados en el despliegue de modelos
Modelos de lenguaje diminutos para aplicaciones de traducción en tiempo real y chatbots móviles
Lenguajes diminutos y aprendizaje federado para la privacidad
Modelos de lenguaje pequeños con visión para aplicaciones multimodales
Consideraciones de hardware (energía, cuantización, poda, etc.)
Modelos de lenguaje diminutos y aceleradores de hardware (GPU, TPU y ASICs personalizados para ML)
Problemas críticos relacionados con los datos de entrada
Conjuntos de datos: exactitud, granularidad, precisión, falsos/verdaderos negativos y positivos
Datos visibles frente a invisibles (privados, personalizados)
Extrapolación de datos
Sesgos de salida y conjuntos de datos sesgados
Sensibilidad y especificidad de los conjuntos de datos
Información falsa e incorrecta
Datos volátiles
Datos sensibles al tiempo
Problemas críticos en el procesamiento
Veracidad del proceso
Comprensibilidad, interpretabilidad y explicabilidad
Detección de sesgos e incorrecciones
Incorporación de retroalimentación interactiva
Incorporación de correcciones
Generación aumentada por recuperación (RAG) para la entrada de LLM
RLHF para el ajuste fino de la salida de LLM
Calidad de la salida
Sesgos en la salida y conjuntos de datos sesgados
Sensibilidad y especificidad de los conjuntos de datos
Salida consciente del contexto
Resumen de texto fino/grueso
Calidad de la preevaluación de datos (obsoletos, incompletos, falsos, ruidosos, etc.)
Validación de la salida
Detección y explicación de alucinaciones
Detección de resúmenes sesgados o incorrectos antes de su difusión
Educación y responsabilidad académica
Revisión de planes de estudio para integrar herramientas y metodologías basadas en IA
Concienciación del usuario sobre la confiabilidad de las salidas
Normas sobre infracción de derechos de autor
Herramientas contra el plagio y el autoplagio
Infracción de propiedad intelectual
Mecanismos para la verificación de referencias
Gestión de autorreferencias ocultas
Regulaciones y limitaciones
Regulaciones (licencias, pruebas, umbrales de cumplimiento, innovaciones descentralizadas/centralizadas)
Mitigación de los riesgos sociales de los modelos GPT
Captura de emociones y sensibilidad
Falta de memoria personalizada (individual) y recuerdos (hechos pasados)
Falta de pensamiento personalizado instantáneo (resúmenes personalizados)
Riesgo de decisiones basadas en GPTM
Conciencia de la IA
Descalificación inducida por la IA
Casos de estudio con análisis y pruebas de aplicaciones de IA
Lecciones aprendidas con herramientas existentes (ChatGPT, Bard AI, ChatSonic, etc.)
Analítica predictiva en salud
Diagnóstico médico
Imágenes médicas
Farmacología
Terapia basada en IA
Finanzas basadas en IA
Planificación basada en IA
Toma de decisiones basada en IA
Control de sistemas basado en IA
Educación basada en IA
Ciberseguridad basada en IA
Más información en este enlace.



0 comentarios :
Publicar un comentario