Buscar en
Buscar
  > Noticias
Lunes, 14 de septiembre de 2009
Han desarrollado el primer sistema automático para la traducción de voz a la lengua de signos española (LSE)
Traducen la voz al sistema de signos 

Interfaz del programa desarrollado y ejemplo de uso del sistema. Fuente: UPM
Interfaz del programa desarrollado y ejemplo de uso del sistema. Fuente: UPM
(SINC. Servicio de Información y noticias Científicas.)
La Fundación CNSE (Confederación Estatal de Personas Sordas) y la Universidad Politécnica de Madrid (UPM) han desarrollado el primer sistema de traducción de voz a la lengua de signos española.

Capaz de traducir las expresiones pronunciadas por los funcionarios de la Administración pública cuando atienden a una persona sorda que desea renovar el permiso de conducir o el Documento Nacional de Identidad (DNI), este sistema, que se incorpora en los ordenadores, significa un paso muy importante en el camino de eliminar las barreras de comunicación que encuentran las personas sordas.

El sistema realiza el proceso de traducción en tres fases. En una primera se reconoce la voz y se obteniene la secuencia de palabras pronunciada. Después, la secuencia de palabras se traduce a glosas (representación escrita de los signos) y, finalmente, se representan los signos mediante un agente animado (desarrollado en el proyecto europeo eSign).

Para evaluar el sistema se utilizó éste en la Jefatura Provincial de Tráfico de Toledo con personas funcionaria que son sordas, obteniendo unos resultados muy prometedores.

Con este proyecto, financiado por el Ministerio de Industria, Turismo y Comercio dentro del Plan Avanza y la Fundación ONCE, se culmina un trabajo de investigación que, desde hace años, se ha desarrollado en el Grupo de Tecnología del Habla de la Universidad Politécnica de Madrid y que ha dado otros resultados anteriores como la generación de un sistema de traducción de voz a LSE para la renovación del DNI y el diseño de una herramienta para el aprendizaje de la Lengua de Signos, con la colaboración de una alumna del grupo, Ana Huerta Carrillo, que permitió realizar un sistema que reconoce los signos y valorar la correcta ejecución de los mismos.

----------------------------

Referencias bibliográficas:

Rubén San-Segundo, Roberto Barra, Ricardo Córdoba, Luis Fernando D’Haro, Fernando Fernández, Javier Ferreiros, Juan Manuel Lucas, Javier Macías-Guarasa, Juan Manuel Montero, José Manuel Pardo."Speech to Sign Language translation system for Spanish". Speech Communication (ISSN 0167-6393), Vol. 50, 1009-1020, 2008.

Oya Aran, Ismail Ari, Alexandre Benoit, Pavel Campr, Ana Huerta Carrillo, François-Xavier Fanard, Lale Akarun, Alice Caplier, Bulent Sankur, "SignTutor: An Interactive System for Sign Language Tutoring". IEEE multimedia, vol. 16, p. 81-93, 2009.

Fuente: Universidad Politécnica de Madrid

 

Noticias relacionadas
- Los niños sordos mejoran su rendimiento en matemáticas cuando mejoran sus habilidades lingüísticas
- El implante coclear tiene una efectividad del 95 por ciento en niños nacidos con una pérdida de audición severa
- Los niños sordos con dos implantes cocleares localizan mejor la procedencia de los sonidos
- Nace la Asociación Española de Implantados Baha (pacientes implantados con el procesador auditivo Baha)
- Uno de cada mil niños nace con una deficiencia auditiva subsanable con un implante coclear

Valoración: 1 (Muy Mal)Valoración: 2 (Mal)Valoración: 3 (Normal)Valoración: 4 (Buena)Valoración: 5 (Muy Buena)
 

Eventos
Enero 2026
L
M
X
J
V
S
D
29 30 31 1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31 1

Cusos y ayudas


Ir a buscador

Cómo colaborar con Educar en Salud

© Educar en salud 2011 - Aviso Legal - Politica de Privacidad