HardwaReviews

¡Tira tu controlador! Jetson Nano puede leer tu mente para que puedas controlar Far Cry 5 y un brazo protésico con tu pensamiento

Un trabajo innovador que traduce los pensamientos de un amputado en movimientos de los dedos, e incluso comandos en los videojuegos, mantiene abierta la posibilidad de que los humanos controlen casi cualquier cosa digital con sus mentes.

Utilizando GPUs, un grupo de investigadores entrenó un decodificador neuronal de IA capaz de ejecutarse en un sistema en módulo (SOM) compacto y eficiente en energía NVIDIA Jetson Nano para traducir los pensamientos de Shawn Findley, de 46 años, en movimientos individuales de los dedos.

Y si ese avance no fuera suficiente, el equipo conectó a Findley a una PC con Far Cry 5 y Raiden IV, donde hizo que su avatar del juego se moviera, saltara, incluso vuele un helicóptero virtual, usando su mente.

Es una demostración que no solo promete brindar a los amputados un control más natural y sensible sobre sus prótesis. Algún día podría dar a los usuarios capacidades casi sobrehumanas.

El esfuerzo se detalla en un documento preliminar, o preimpresión, titulado «Una mano neuroprotésica autónoma y portátil con control de dedos basado en el aprendizaje profundo.» El documento detalla una extraordinaria colaboración interdisciplinaria detrás de un sistema que, en efecto, permite a los humanos controlar casi cualquier cosa digital con pensamientos.

«La idea es intuitiva para los gamers», dijo Anh Tuan Nguyen, autor principal del artículo y ahora investigador postdoctoral en la Universidad de Minnesota, asesorado por el profesor asociado Zhi Yang. 

«En lugar de asignar nuestro sistema a una mano virtual, simplemente lo asignamos a las pulsaciones de teclas, y cinco minutos más tarde, estamos jugando un videojuego», dijo Nguyen, un ávido jugador, que tiene una licenciatura en ingeniería eléctrica y un doctorado en ingeniería biomédica. 

En resumen, Findley, un pastor en el este de Texas que perdió la mano luego de un accidente en un taller de máquinas hace 17 años, pudo usar un decodificador de inteligencia artificial entrenado en una GPU NVIDIA TITAN X y desplegado en el NVIDIA Jetson para traducir sus pensamientos en en tiempo real en acciones dentro de un entorno virtual que se ejecuta, por supuesto, en otra GPU NVIDIA, explicó Nguyen.

Encuentra más detalles en el siguiente link: https://blogs.nvidia.com/blog/2021/05/24/deep-learning-amputee-prosthetic-hand-video-games/

Salir de la versión móvil