Detrás de la búsqueda para el control de una silla de ruedas con una sonrisa

HooBox Robótica / Flickr

Software de reconocimiento Facial se ha ganado una reputación difícil en los últimos años, lo que, con sus enormes implicaciones de privacidad y facilidad de uso indebido por parte de los gobiernos y minoristas por igual, pero la tecnología tiene muchas aplicaciones útiles. Tomar el Caballito 7, por ejemplo.

Mientras viaja un par de años, el Dr. Paulo Pinheiro fue golpeado por una escena que se desarrollaba ante él. “Vi a una chica en el aeropuerto, ella estaba en una silla de ruedas”, explicó a Engadget. “No se podía mover sus brazos o sus piernas, su padre le estaba ayudando con su silla de ruedas, pero ella tenía una gran sonrisa… así que pensé que sería una buena idea para tratar de traducir esa sonrisa en los comandos que se pueden mover una silla de ruedas.”

Que la experiencia resultó ser el impulso en su decisión de fundar HooBox la Robótica. Durante los últimos dos años, él y su equipo han estado desarrollando el Caballito 7, AI-impulsado por la cara de la lectura de la accesibilidad accesorio que permite a los usuarios controlar su silla de ruedas motorizada con casi una docena de expresiones faciales. Y durante los últimos 18 meses, el HooBox equipo ha estado trabajando con Intel Software Innovadores Programa para acelerar el desarrollo del sistema. Específicamente, Intel ayudó a integrar en 3D “RealSense” de la cámara en el Caballito 7 kit.

“El problema fue que para controlar una silla de ruedas que necesita no sólo de reconocimiento facial, se necesita una alta precisión de reconocimiento facial,” Pinheiro, explicó. “De modo que si la gente está utilizando una sonrisa para detener su presidente, usted quiere asegurarse de que funciona al cien por ciento del tiempo, ¿verdad?”

Intel cámara ayuda a hacer precisamente eso. Como tal, HooBox del sistema puede detectar con precisión uno de los 10 expresiones faciales en una variedad de condiciones de iluminación. Lo que es más, la cámara no necesita estar mirando directamente hacia el usuario-puede ser desplazada desde el centro hasta 60 grados, y todavía coger el usuario sutil de los movimientos faciales.

A pesar de sus impresionantes capacidades, el Caballito 7 no requiere un gran procesamiento de la huella. De hecho, el sistema no necesitará una conexión a internet. “Todo lo que se ejecuta de forma local”, dijo Pinheiro. “Podemos integrar esta tecnología en casi cualquier plataforma, así que usted puede utilizar su computadora portátil si se está ejecutando un Core i5 o mejor. Usted no tiene que usar la Gpu o la nube, usted no tiene que utilizar cualquier procesador extra de energía.”

Curiosamente, para todos los que el equipo puede hacer, hay una característica llamativa la ausencia. “Al principio, empezamos con un algoritmo que puede detectar cuando usted está teniendo una conversación con alguien para que deshabilitar la interfaz, el” Pinheiro, explicó. De hecho, el primer prototipo de la iteración del sistema incluye esa capacidad, pero posteriormente fue eliminado en las versiones posteriores debido a los comentarios de los usuarios.

“Cuando se va a iniciar una conversación que prefiere habilitar y deshabilitar la interfaz por sí mismos,” él continuó. Ahora los usuarios pueden utilizar una combinación de expresiones — levantando una ceja, y el otro durante tres segundos cada uno-para convertir la interfaz de encendido y apagado.

En la actualidad, el Caballito sistema sólo requiere cinco de las 10 expresiones faciales para el control de la silla, lo que significa que las futuras iteraciones será capaz de controlar otras funciones e incluso otros accesorios. Y, a un grado, ya lo hace. El sistema es compatible con Amazon Alexa, permitiendo Caballito 7 usuarios para el control de diversos aspectos de sus casas inteligentes, tales como encender las luces de encendido y apagado y ajuste el termostato.

La compañía también está trabajando para desarrollar un “vocabulario de expresiones faciales”, que permite a los usuarios escribir oraciones completas a través de diversos facial gesticulations, en lugar de simplemente seleccionar a partir de un pre-programados lista como muchos lo hacen hoy en día.

Finalmente, Pinheiro esperanzas para el avance de la tecnología hasta el punto de que no sólo entender las expresiones faciales, pero el comportamiento humano así. Para ello, HooBox está trabajando actualmente con uno de los mayores centros médicos en Brasil, donde la empresa se encuentra, a desarrollar un sistema para la medición del dolor del paciente a través de una cámara montada en la unidad de cuidados intensivos de la cama. No hay ninguna palabra sobre cuando el sistema esté listo para su adopción generalizada, pero, si funciona, podría revolucionar las formas en que la medicina moderna se enfrenta con el manejo del dolor y la adicción a los opiáceos.