5/3/22

Sistema de IA para mejora del reconocimiento del lenguaje

 



Son habituales, hoy en día, sistemas de habla automática, como los muy populares Siri o Alexa que producen frases de manera algorítmica.

Estas frases pueden ser mal entendidas por personas con dificultades de audición si las escucha en entornos ruidosos.

A fin de mejorar los modelos de generación vocal, los investigadores Jana Roßbach, Birger Kollmeier y Bernd T. Meyer de la alemana Carl von Ossietzky University, y patrocinado por el Cluster of Excellence 1077/1 Hearing4all, un modelo de reconocimiento del lenguaje basado en Redes Neuronales Profundas y Deep Learning. Con este nuevo modelo pueden simularse los reconocimientos que hacen personas sin problemas de audición con personas que sí los tienen, en diversas condiciones de sonoridad, ruido, etc. La red neuronal se entrenó con 20 personas con discapacidad auditiva y 8 sin ella, en varias diversas situaciones de ruidos complejos.



Los resultados son especialmente interesantes porque son válidos en todas las situaciones sonoras por lo que los algoritmos que pueden crearse servirán en una muy amplia variedad de entornos.

El estudio se ha hecho para escucha con un sólo oído y, ahora va a ampliarse a la escucha biaural.

El artículo completo puede leerse desde este enlace.



No hay comentarios:

Publicar un comentario