¿Tiene la NASA algún plan para usar Google Glass o tecnología similar durante el entrenamiento o la misión real en la Estación Espacial Internacional (ISS)?

Participé en un experimento para estudiar los efectos de los errores no lineales en los controles. Llevaba algo de cabeza y equipo para los ojos y me dieron simples controles manuales. El programa era bastante simple (solo había estas bolas flotantes que necesitaba mover), pero seguía siendo una versión primitiva de la realidad virtual.

Daré un ejemplo concreto de dónde podría usarse esto en el futuro. Digamos que tiene un astronauta que necesita controlar un robot para realizar algún trabajo en la superficie de un planeta o luna, o en un vehículo en órbita como la EEI. De hecho, este verano un astronauta en la ISS controló un robot en el suelo (IRG Roverscape en NASA Ames) por primera vez en la historia. Vea este video si está interesado:

El objetivo final de los telerobóticos de superficie (como se llama) es hacer esto en todas partes en lugar de aterrizar en la superficie de una luna o planeta, y probablemente puedas imaginar cuánto más barata sería tu misión si no lo hicieras tiene que aterrizar y despegar nuevamente, además de hacerlo mucho más seguro para los humanos. Si vio el video, Maria Bualat habla sobre algunos problemas con los controles, incluida la naturalidad de que el astronauta los recoja. Debo hacer explícito que no estaban usando ningún tipo de realidad virtual con esta demostración. De manera más realista, conducir un rover significa que planifica con anticipación con un grupo de personas el día anterior y crea algunos puntos de referencia para que un robot semiautónomo llegue. Los robots son bastante inteligentes en estos días, pero aún pueden quedarse atascados y a veces necesitan ayuda. Hay algunas razones por las que actualmente se hace de esta manera, pero no necesariamente descarta poner a un astronauta en control total. Podrías soñar fácilmente una misión complicada para la que no hay robots que puedan cumplir los objetivos incluso de forma semiautónoma.

De todos modos, la mayor parte de lo que se estaba estudiando en el experimento del que formaba parte pertenece a la categoría de psicología de factores humanos, que es un campo en crecimiento que es algo así como una generalización del mundo real del problema de UI / UX web más ergonomía. . Uno de mis amigos este verano estaba trabajando en esta área y estaba ayudando a diseñar cabinas de piloto de próxima generación para aviones (y también estaba buscando hacer aviones comerciales de un solo piloto). En particular con este experimento, aplicarían algunas transformaciones no lineales a mis controles y verían qué tan rápido podría aprender otras nuevas y lograr un objetivo. También tratarían de medir cuán cansado estaba después de hacer esto durante 2 horas. Estuvo muy interesante.

Google Glass no parece ser un buen candidato para esto, ya que solo tiene una pantalla muy pequeña que está muy fuera del camino, pero por supuesto no está diseñado para ser el foco de todo su día (como conducir un billón dólar rover). Sé que los militares usan gafas y cascos de realidad virtual para personas en ciertas situaciones, pero las personas que me dijeron esto no debían mencionar detalles, así que desafortunadamente no sé nada más que eso. No parece demasiado difícil ver que ese tipo de cosas también se construyen para los astronautas.

La respuesta es que actualmente estoy proponiendo esto a la NASA. Dennis Wingo, Skycorp Incorporated