INTEGRACIÓN DE LAS PERSONAS CON DISCAPACIDAD COMO OBJETIVO DE DESARROLLO DE LA TECNOLOGÍA

«Nos hemos acostumbrado a leer en los titulares como la tecnología da pasos agigantados, y a la par observar manifestaciones sociales que exigen la inclusión social de sectores de la población; pero, actualmente, ¿Cómo está apoyando la tecnología a las personas que realmente no podemos escuchar?»

 

Por: Rodrigo Alessandro Llancaya Perez

 

Diciembre 4, 2020
Letras del alfabeto de señas americano. Fuente: Uber Sign Language, 2017

La verdadera inclusión social y el alto costo de no escuchar

Se dice que una persona sufre de pérdida de audición cuando no está en la capacidad de oír sonidos superiores a 25 decibeles, rango considerado dentro de los parámetros normales para una persona con oído sano. Una persona <<sorda>> suele padecer una pérdida de audición profunda, lo que significa que oyen muy poco o nada. Es por este motivo que suelen comunicarse mediante su propio sistema, usando una lengua de señas. (1)

Estableceré la siguiente afirmación: En el Perú, son poquísimas las personas con discapacidad auditiva que logran acceder a una educación superior, y la cifra se torna más alarmante si contamos los que logran culminarla; corren con mucha suerte si pueden culminar la secundaria.

Podría esta afirmación sonar exagerada, pero la realidad puede ser peor. Las cifras que se pueden apreciar en uno de los más recientes informes temáticos denominado <<Situación de las personas con discapacidad auditiva>> proporcionada por el Consejo nacional para la integración de la persona con discapacidad (CONADIS), que en colaboración con el Instituto Nacional de Estadística e Informática (INEI) nos muestran que: Según proyecciones, para el año 2020, en el Perú viven alrededor de 608265 personas con discapacidad auditiva. (2)

Aunque no dice cuántas de ese más de medio millón de personas con sordera en distintos niveles de severidad están inscritas en Registro Nacional de la Persona con Discapacidad, sí señala que el 14,4 del total de personas con alguna discapacidad está inscrito, y de los inscritos, más del 40 por ciento se encuentra en edad de estudiar: 21,7 por ciento son niños y adolescentes; y 22,3 por ciento, jóvenes entre 18 y 29 años. Hablamos de 246 mil 721 personas.

Asimismo, los lineamientos del último censo realizado, las proyecciones correspondientes y los datos de uno de los informes proporcionado por el CONADIS, en la sección <<Características educativas de las personas con discapacidad auditiva>>, se señala que 6534 niños con sordera fueron integrados al sistema educativo escolar en el año 2016. De igual manera se aprecia en la data que del II Censo Nacional Universitario del año 2010, tan solo 1218 personas sordas se encontraban en pregrado vigente. En ninguno de ambos casos se menciona si culminaron los estudios. (2)

Fuente: INEI – II Censo Nacional Universitario, 2010.

En un proceso ideal de comunicación el emisor y el receptor manejan el mismo código y canal para el intercambio de un mensaje, pero ¿Cómo es que todas estas personas sordas han logrado mantener un sistema de comunicación y así poder integrarse en el sistema educativo nacional?
El Perú cuenta con su propia lengua de señas peruana (LSP), la cuál solo resalta su importancia si tenemos en cuenta los datos ya mostrados. Esta tiene su propia gramática, pragmática, articulación, percepción, vocabulario e información paralingüística. Con estos conceptos presentes veremos cómo la tecnología ha ido escalando en este proceso de integración tan importante para la inclusión social de este sector de la población.

¿Manos que hablan? Guantes <> de lengua de señas

SI bien la tecnología desarrollada a lo largo de las últimas décadas en base a un prototipo usable, en forma de guante, que sea capaz de interpretar la configuración (entiéndase por configuración a los componentes que hacen factible realizar una seña dentro de la lengua de señas, como la posición y movimiento de los dedos) que las manos realizan y << traducirla>> para personas oyentes, se ha ido refinando de maneras loables. 

Me gustaría presentar uno de los más recientes esfuerzos propuesto por miembros de la Universidad de California en Los Angeles (UCLA). Este prototipo en cuestión nos presenta las ya mencionadas funciones insignia, de poder interpretar las señas que realicemos con las manos y transformarlas en sonido a través del uso de un teléfono celular. Pero aparte de ello, en este modelo se ven reflejadas cómo la ergonomía del diseño y la funcionalidad de los sensores alcanzan un diseño, si es que no mas funcional, más practico en temas de manejo de vocabulario de lengua de señas. (3)

 

Muestra de reconocimiento de una seña formada por la mano e identificada por el aplicativo que complementa la comunicación con las personas oyentes. Fuente: CNN

Este modelo usa sensores de tipo Flex de gran precisión, los cuales permiten un mejor moldeo del guante a la mano, y su vez su aplicativa cuenta con un reconocimiento de 660 señas, resultado eficiente de su algoritmo de aprendizaje automático.

Por otra parte, el proyecto de Daria Yakimova de la Universidad Técnica de Báuman aparte de cubrir las necesidades básicas del prototipo, incorpora un acelerómetro para así poder perfeccionar la precisión del reconocimiento y la velocidad de los sensores flexibles, está trabajando también en el sistema de dos manos para lograr la identificación de señas más complejas. El funcionamiento es por demás interesante: El guante tiene 5 sensores flexibles compuestos por leds, un detector de luz y un acelerómetro.

La cantidad de luz que llega al sensor se usa para medir cuánto ha sido flexionado cada dedo, cuanto más se dobla el dedo, más se reduce el flujo de luz que llega al sensor. Asimismo, el acelerómetro incorporado mide la posición de la mano. En conjunto, estos sensores van alimentando una base de datos que están enlazadas a un procesador integrado que determina la figura completa que forma la mano y lo traduce a letras que son reflejadas en una pantalla. (3)

Este prototipo ofrece una mayor precisión al momento de reconocer las señas configuradas en las manos, se espera agregar un acelerómetro extra y así potenciar esta función. Fuente: UTB.

Transcriptor de voz para sordos. Un esfuerzo nacional

El inventor peruano Leoncio Huamán, presenta una alternativa de solución diferente para lograr la inclusión de las personas con discapacidad auditiva. Una tecnología basada en el uso de la inteligencia artificial que ofrece una transcripción del discurso oral a texto que llegará casi en tiempo real a estas personas, para que pueda mantener una conversación manteniendo el contacto visual y sin necesidad de la lengua de señas.

El sistema completo está compuesto por un procesador con pantalla y teclado que se conecta a un micrófono y, a su vez, al dispositivo periférico que se debe colocar en las gafas del usuario.  Para que este sistema funcione requiere de una conexión a Internet (3G o 4G) o Wifi.

Al utilizar el servicio <<Watson Speech to Text>> que corre en la nube pública de IBM, cada vez que alguien se comunique por el micrófono, el dispositivo enviará la información al procesador para que la información verbal sea traducida a texto. (4)

La pantalla mostrará en tres líneas de texto y el mensaje luego se refleja en una mica de vidrio ubicada sobre el lente para que la persona con discapacidad auditiva pueda leer la información con hasta dos segundos de retraso. De igual manera, esta información podrá ser traducida en tiempo real en distintos idiomas y hasta poder ser almacenada en un teléfono celular a modo de apuntes. (5)
Definitivamente un gran logro para desarrollar la inclusión de la comunidad sorda.

<> también permite almacenar y traducir la información recogida en diferentes idiomas y en el celular del usuario.

Bibliografía

  1. OMS. (2015). Organización Mundial de la Salud. Nota descriptiva N° 300. Marzo. http://www.who.int/mediacentre/factsheets/fs300/es/
  2. CONADIS. (2016). Informe temático N°5 “Situación de las personas con discapacidad auditiva en el Peru». Setiembre. https://www.tiemporeal.com.pe/wp-content/uploads/2018/03/version_1_AuditivaJP.pdf
  3. UW Agency. (2016). UW undergraduate team wins $10,000 Lemelson-MIT Student Prize for gloves that translate sign language. Washington.Edu. https://www.washington.edu/news/2016/04/12/uw-undergraduate-team-wins-10000-lemelson-mit-student-prize-for-gloves-that-translate-sign-language/
  4. IBM. (2015). Watson Text to Speech. https://www.ibm.com/cloud/watson-text-to-speech

Artículos relacionados

Respuestas

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *