NATURALEZA

La tecnología diseñada por adolescentes podría ampliar el acceso para las personas con discapacidades

Atlanta, Georgia. — Mientras postergaba la tarea, Seoyoung Jun cerró un ojo y recogió con éxito su portalápices. Se dio cuenta de que orientarse en un espacio tridimensional no requería ambos ojos. Esto la sorprendió. Con la investigación, aprendió que el cerebro puede procesar información tridimensional sin ningún tipo de visión. Y así nació la idea de Mind Beacon.

Las personas con discapacidad visual obtienen su información espacial principalmente del tacto, no de la vista. Y esta estudiante de segundo año de la Escuela Secundaria de Ciencia y Tecnología Thomas Jefferson en Alexandria, Virginia, basó su nuevo dispositivo de navegación en esa idea. Puede ayudar a las personas ciegas a obtener una lectura de los obstáculos que se avecinan.

El dispositivo portátil utiliza un haz de luz infrarroja para recopilar información en 3D sobre la colocación de paredes, vigas, muebles y otras cosas. El haz rebotado transmite esa información al dispositivo, que luego levanta pequeños alfileres para indicar dónde están esos obstáculos. Las personas con discapacidad visual pueden «leer» la posición de esos pines para comprender el diseño de las estructuras y los objetos que se encuentran adelante, y navegar alrededor de ellos.

un dispositivo de mano con cables y botones se sienta en una mesa gris al lado de un teléfono inteligente
El prototipo de Mind Beacon (izquierda) contiene un sensor de profundidad tridimensional y una computadora. Los motores controlan los nueve pines de punta rosa. Su altura cambia en respuesta a los obstáculos que el sensor detecta más adelante. Una versión futura (derecha) podría conectarse a un teléfono. Al tener más pines, podría transmitir información más detallada. Seoyoung junio

Cuando el dispositivo de Seoyoung funcionó por primera vez, no lo creía. Había estado despierta toda la noche trabajando en ello. Para asegurarse de que no era un error, lo apagó y lo reinició. Cuando volvió a funcionar, recuerda: “Empecé a gritar [with joy].” Habían sido siete largos meses de investigación, construcción y pruebas. Su emoción despertó a sus padres, quienes le pidieron que por favor se callara. Así que tomó algunas notas y luego, finalmente, se fue a dormir.

Este dispositivo portátil para ayudar a las personas con discapacidades visuales a crear una imagen mental de su entorno le ganó a la joven de 16 años un lugar en la principal competencia de investigación de la escuela secundaria del mundo. Se unió a otros 1.750 finalistas, la semana pasada, en la Feria Internacional de Ciencias e Ingeniería Regeneron 2022. Aproximadamente 600 de esos adolescentes compartieron casi $8 millones en premios.

LEER  AVELLANA TODO LO QUE NECESITAS SABER SOBRE LA AVELLANA

Varios de esos finalistas cautivaron a los jueces y miembros del público con nueva tecnología para ayudar a las personas con discapacidades sensoriales.

Un mapa que funciona como braille

El corazón de Mind Beacon es un sensor de profundidad 3-D que está conectado a una mini computadora. Seoyoung codificó esa computadora para controlar nueve motores que están alineados en tres filas de tres. Cada motor controla un pasador que puede moverse hacia arriba y hacia abajo. La altura de cada pin transmite datos en 2,25 pies cúbicos (0,06 metros cúbicos) de espacio frente al sensor. En la pantalla de la computadora, esos nueve bloques de espacio representan «cajas de volumen». Juntos, se ven como una caja de golpes en 3-D en el béisbol.

La idea de la pantalla se inspiró en su hermano jugando Minecraft, explica Seoyoung. Ese juego de computadora usa «múltiples cubos juntos», dice ella. Se dio cuenta de que sería una buena manera de representar datos espaciales en la vida real.

Seoyoung Jun pone a prueba Mind Beacon. Al comienzo de cada condición de prueba, el obstáculo (derecha) se muestra junto al mapa de profundidad infrarrojo correspondiente (izquierda), que creó el dispositivo. Al acercarse a un obstáculo, los pines del dispositivo suben y bajan para sugerir el diseño de lo que está adelante para que los usuarios puedan ajustar por dónde caminan. Una palanca de zoom, que se muestra cerca del final, permite a los usuarios buscar obstáculos incluso más adelante.

Cuando el sensor detecta un obstáculo en un cuadro de volumen, el pin correspondiente se eleva. Puede elevarse a tres alturas diferentes. Cada altura indica aproximadamente la altura del obstáculo. Alguien que pasa la mano por los nueve bolos puede decir dónde están los obstáculos y su altura general. Para aumentar aún más el área de visualización, Seoyoung agregó una palanca de zoom. Transmite datos de cajas de volumen que están aún más lejos.

Ella imagina una versión futura que podría conectarse a un teléfono inteligente, con más pines pequeños que pueden imitar la altura exacta de los obstáculos. Se sentiría como un pequeño mapa que muestra la ubicación y el tamaño de los obstáculos por delante.

El trabajo de Seoyoung obtuvo el segundo lugar en la categoría de robótica y máquinas inteligentes de la feria. Ese premio vino con un premio de $ 2,000.

IA para ASL

Como codificador, Nand Vinchhi quería inventar algo que no requiriera un dispositivo. Mientras intercambiaban ideas con amigos en un hackathon, al grupo se le ocurrió la idea de una plataforma para traducir el lenguaje de señas. Al final, el equipo decidió no desarrollarlo. Pero Nand no podía dejar de pensar en el traductor.

“Siempre he estado súper interesado en un mejor sistema educativo para todos, especialmente en mi país”, donde hay mucha desigualdad, dice. Este joven de 17 años asiste a la Escuela Pública Nacional, Koramangala en Bangalore, India. “Quería hacer algo a través de la tecnología que ayudaría”.

En solo unos meses, desarrolló la tecnología de inteligencia artificial necesaria para traducir el lenguaje de señas americano (ASL) en tiempo real. Es básicamente una aplicación de voz a texto para lenguaje de señas. Aquí, los movimientos de las manos son el discurso.

La parte más difícil, dice Nand, fue descubrir cómo abordar el problema. A veces, dice, “no sabía qué hacer”. Cuando eso sucedía, se iba a dormir. “Por la mañana, lo intenté de nuevo”.

Nand Vinchhi demuestra cómo funciona su tecnología de traducción en su habitación, donde pasó largas horas construyendo el programa de computadora. Una cámara identifica puntos clave coloridos en brazos y manos a medida que se mueven. Un algoritmo compara estos movimientos con palabras en lenguaje de señas americano, que luego se pronuncian en voz alta.

Para Nand, «dormir en ello» valió la pena. Decidió señalar las partes del cuerpo importantes en la firma. Esto podría ser puntas de los dedos individuales, por ejemplo. Usando un programa de aprendizaje automático, luego le enseñó a una computadora a identificar esos puntos clave en los videos que tomó. La computadora compilaría datos de muchos cuadros del video. Esto creó un conjunto de datos.

Nand reunió muchos de estos conjuntos de datos y luego usó un algoritmo para buscar diferencias entre ellos. Eso le permitió comparar un signo con cualquiera de unas 100 palabras ASL en ese conjunto de datos.

Su sistema ahora traduce las señales con un 90,4 por ciento de precisión, informó en la competencia. El retraso desde la firma hasta la traducción es de solo tres décimas de segundo. Eso es solo una décima de segundo más que el retraso de voz típico en las videollamadas. El adolescente ahora planea aumentar la precisión y las palabras disponibles en el conjunto de datos.

Nand imagina que la tecnología podría integrarse algún día en las plataformas de comunicación existentes, como Zoom, o en plataformas en línea como Google Translate. Eso podría ayudar a los hablantes de ASL a comunicarse con aquellos que no conocen el idioma. Él cree que otra aplicación prometedora es como una herramienta educativa para las personas que quieren aprender ASL, dice, como Duolingo.

zapatos y guantes

Las hermanas Shanttale y Sharlotte Aquino López trabajaron en un problema relacionado con las comunicaciones. Pero estos ingenieros del Centro de Matemáticas, Ciencias y Tecnología de San Juan en San Juan, Puerto Rico, adoptaron un enfoque totalmente diferente. Shanttale, de 18 años, y Sharlotte, de 16, querían ayudar a romper la barrera entre quienes usan ASL y quienes no lo saben. El guante que desarrollaron puede ayudar a cualquiera a aprender ASL básico.

Los sensores que colocan en los dedos del guante transmiten datos de movimiento que reflejan la forma del guante. Luego, el guante transmite esas señales a una placa de circuito, que tradujo la entrada en una letra en una pantalla. La idea es que el guante pueda ayudar a los usuarios a visualizar las señales que están aprendiendo. Con el tiempo, los usuarios deberían poder entender el ASL tal como lo firman otros, y “hablarlo” ellos mismos.

Joud Eldeeb, de quince años, construyó un zapato para personas con discapacidad visual. Este joven ingeniero asiste a Haitham Samy Hamad en Damanhur, Egipto. Ella incrustó sensores en el calzado que vibran, suenan y envían un mensaje de texto para alertar al usuario de los obstáculos que se avecinan.

Lo que todos estos proyectos tienen en común es un nuevo uso creativo de la tecnología informática para hacer que el mundo sea más accesible para las personas con discapacidades. La programación informática es el futuro, dice Joud. “Quiero aprenderlo para ayudar al mundo”.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies