Proyecto

Jña'a ri y'ë'ë en la lengua mazahua se integra por el verbo "jña'a" que significa hablar, continua "ri" el modo indicativo de tiempo presente y finalmente encontramos el sustantivo "y'ë'ë" que significa mano. A través de esta frase se comprende de forma figurativa la acción "las manos hablan" o en su forma retórica corresponde a "la mano que habla". Una forma inclusiva al considerar una convención factible de fomentar la comunicación entre personas a través del lenguaje de señas.

Vista de la Aplicación

Interfaz principal de la aplicación

Interfaz Principal: Pantalla de inicio con acceso rápido al traductor y configuración

Modo de traducción en tiempo real

Sección de cámara: Se usa la cámara para capturar señas y traducirlas en tiempo real

Diccionario de señas integrado

Traducción: Por el momento solo traduce vocales en tiempo real

Ayúdanos a Mejorar el Reconocimiento

La precisión de nuestro sistema depende directamente de la diversidad y cantidad de imágenes de manos que podamos recolectar. Mientras más variadas sean las manos, tonos de piel, tamaños y ángulos, mejor podrá reconocer señas nuestro modelo de IA.

¿Cómo puedes ayudar?

  • • Toma fotos de tus manos haciendo señas del LSM
  • • Diferentes ángulos y condiciones de luz
  • • Vocales, números o señas básicas
  • • Fondo neutro para mejor reconocimiento

Impacto de tu ayuda

  • • Mejor precisión en traducción
  • • Reconocimiento más preciso
  • • Avance más rápido del proyecto
  • • Ayudas altamente al progreso de esta aplicación

Cada foto que compartas nos acerca a un sistema más preciso y accesible. Tu contribución puede marcar la diferencia en la vida de alguien que depende del lenguaje de señas para comunicarse.

Desarrollo Técnico

El núcleo del sistema se basa en redes neuronales optimizadas para reconocer gestos y posiciones de manos en tiempo real. Nuestro modelo procesa, identifica la seña y genera el texto correspondiente en tiempo real. La aplicación y el backend están diseñados para ser ligeros, rápidos y escalables.

Estadísticas de pruebas con red neuronal (DEMO)

Primeras Pruebas: Estadísticas y métricas de nuestras primeras pruebas con redes neuronales para reconocimiento de señas

Código principal de la aplicación Flutter

Aplicación Móvil: Código principal en Flutter para la aplicación multiplataforma

¿Te gustaría ser parte del cambio?

Buscamos crear una comunidad diversa donde cada talento contribuya a hacer la comunicación más accesible. No solo necesitamos desarrolladores, ¡necesitamos tu pasión!

Desarrolladores

Flutter, React, Python, IA, Backend, Frontend

Especialistas en LSM

Intérpretes, maestros, comunidad sorda

Documentación

Technical writers, traductores, editores

Diseñadores

UI/UX, accesibilidad, testing

Patrocinadores

Apoyo económico, recursos, infraestructura

Este proyecto continúa evolucionando con cada avance en modelos, datasets, algoritmos y diseño de interfaz. Nuestro objetivo es que cualquier persona, sin importar su contexto, pueda comunicarse de manera más libre, natural y efectiva.