¿Por qué la NASA no conecta una cámara Canon DSLR a sus sondas y toma imágenes perfectas del espacio?

Otros han cubierto el hecho de que la NASA construye para ‘baja masa’ y ‘baja energía’. Voy a hablar un poco sobre cómo funcionan las cámaras en color.

La forma en que una cámara ve el color requiere dos cosas: un detector de luz (en las cámaras modernas, usamos chips CCD) y un filtro para asegurarse de que el detector de luz solo vea ciertos colores de luz. En una cámara digital lista para usar, esto se hace uniendo un pequeño filtro rojo, azul o verde a píxeles alternos en su cámara. El software luego usa eso para armar una imagen donde cada píxel tiene una cantidad de luz roja, verde y azul asociada.

La forma en que los astrónomos toman fotos en color (y no siempre) cambiamos el filtro rojo de la cámara, luego el verde y luego el azul. Las razones por las que hacemos esto son dobles. La primera es que si no queremos la información de color, podemos intercambiar un filtro claro. Tendremos una resolución más alta que tratar de sacar una imagen en blanco y negro de una cámara comercial diseñada para tomar fotos en color.

La segunda es que los astrónomos no se limitan a tres colores como lo hacen los fotógrafos. Los fotógrafos usan tres colores de filtro porque los ojos humanos tienen tres tipos de receptores de color (para rojo, verde y azul). Pero los astrónomos toman fotografías en color para ayudar a determinar de qué están hechas las cosas, por lo que podríamos desear, por ejemplo, observar una determinada longitud de onda infrarroja que el hielo absorbe realmente bien. Las dos cámaras de la nave espacial Cassini tienen 18 y 24 filtros.

La cámara principal de Mars Curiosity (MastCam) está configurada como una cámara digital comercial para luz visible, pero también se puede configurar para bloquear toda la luz visible y usar una rueda de filtro para mirar la luz infrarroja. Por lo tanto, puede obtener una vista de los alrededores desde el punto de vista humano (útil tanto para los geólogos del equipo como para fotos bonitas) y cambiar a infrarrojo para buscar minerales interesantes. Las NavCams (la computadora a bordo de la cámara Curiosity utiliza para evitar riesgos durante la conducción) no tienen información de color en absoluto. Debido a que su trabajo principal es que el rover no se meta en una roca (las computadoras a bordo tienen una capacidad limitada para identificar los peligros y conducir alrededor de ellos o detenerse y decirle a la Tierra que el disco falló), es más barato no darles ningún filtro.

Resulta que las cámaras son realmente complejas cuando las usas para la ciencia, y ni siquiera mencioné el hecho de que también necesitamos lanzar estas cosas a Marte o Saturno o en otro lugar. La mayoría de estas cosas se aplican a la cámara que compraría si quisiera estudiar estrellas variables desde el telescopio de mi universidad en la Tierra.

Operar en vacío es un poco más difícil de lo que piensas. Limita el tipo de lubricantes y rodamientos que se pueden usar sin agarrotarse. Y como otros han mencionado, pesa una tonelada (relativa). Si lo piensa, realmente no se necesita mucho … el sensor, un obturador (probablemente electrónico) y algunos elementos de lentes colocados correctamente. Si está en el espacio (a diferencia de un planeta), ni siquiera necesita concentrarse.

Esas cámaras son relativamente pesadas en una nave extremadamente ligera, y requeriría una cantidad exorbitante de energía de los paneles solares de la sonda. Esa cámara tampoco está diseñada para tomar fotos de cosas que están a decenas de millones de millas o años luz de distancia.

Porque tienen mejores cámaras y lentes para usar para ese propósito.