¿Se puede utilizar el aprendizaje automático para generar mapas de forma orgánica con solo usar datos de satélite de Google?

Gran pregunta !!!! ¿Se puede utilizar el aprendizaje automático para generar mapas de forma orgánica con solo usar datos de satélite de Google? _________________________________

Aquí hay un pasaje de algunas páginas @ NASA Landsat Data Enriquece Google Earth

(tercer párrafo desde la parte inferior de todo lo siguiente)

“Moore dice que Google Earth Engine está recibiendo información diariamente del nuevo satélite y que la calidad de los datos es lo suficientemente alta como para que sea posible incluir imágenes estacionales en futuras adiciones a la animación de lapso de tiempo. En algún momento, dice, Google Earth Engine espera poder producir un informe casi en tiempo real sobre la salud del planeta: ‘Todos los mejores datos que se transmiten desde los satélites de la NASA, no solo los instrumentos ópticos sino todo tipo de instrumentos científicos, tienen esos datos entrando y haciendo está disponible para la ciencia y para uso práctico “.

_________________________________________________________


Los datos de Landsat enriquecen Google Earth

Energia y Medio Ambiente

Tecnología de la nasa

Cuando la NASA lanzó el Earth Resources Technology Satellite, más tarde conocido como Landsat, en julio de 1972, la primera nave espacial dedicada a monitorear la superficie de la Tierra portaba dos instrumentos de imágenes: una cámara y un escáner multiespectral experimental (MSS) que registraba datos en bandas espectrales verdes y rojas. y dos bandas infrarrojas. Las expectativas para el escáner, cuyo espejo de exploración zumbaba angustiosamente durante las pruebas mientras giraba de un lado a otro a 13 veces por segundo, eran bajas.

Entre las preocupaciones expresadas antes del lanzamiento se encontraban los temores de que sus partes móviles no funcionarían correctamente en el espacio, pero tampoco se sabía si un escáner podía producir imágenes digitales de alta calidad mientras giraba alrededor del planeta a una velocidad de 14 órbitas por día. Después del lanzamiento, los ingenieros de la NASA y los científicos del Servicio Geológico de EE. UU. (USGS), que manejarían el proyecto una vez que el satélite estuviera en órbita, se sorprendieron por la alta fidelidad de los datos que envió el lector de imágenes, y casi de inmediato se convirtió en el principal generador de imágenes del vehículo.

El MSS envió 300,000 imágenes durante su vida útil de seis años y cambió el enfoque de los científicos a la teledetección, agregando la dimensión del tiempo a los análisis de los recursos de la Tierra y las cubiertas de la superficie. Ahora que los investigadores podían acceder a imágenes calibradas de las mismas áreas a lo largo de las estaciones y los años, la atención se alejó de la simple construcción de bibliotecas de las firmas espectrales de las características de la Tierra y hacia el monitoreo de cambios y patrones a lo largo del tiempo.

Los datos del Landsat 1 se utilizaron para monitorear los niveles de agua del lago Okeechobee y comprender mejor la ecología local de Miami y sus necesidades de agua. La dinámica de las inundaciones a lo largo del río Mississippi y Cooper’s Creek en Australia se estudiaron para la evaluación de desastres. Las imágenes del MSS demostraron ser efectivas para mejorar las predicciones de cultivos en Kansas y se utilizaron para monitorear la tala de bosques en Washington y evaluar el cumplimiento de las licencias de aprovechamiento de madera.

Sin embargo, como se señaló en el documento de 1997, “El Programa Landsat: sus orígenes, evolución e impactos”, ninguno de los primeros intentos de utilizar datos satelitales para abordar problemas globales como la seguridad alimentaria, las tendencias de desertificación, la sostenibilidad de los recursos y los impactos de la deforestación condujeron a aplicaciones más profundas y mundiales. Las brechas en los datos de tiempo, las imágenes gruesas y la necesidad de más información de otros sistemas obstaculizaron los resultados integrales. Pero, como explican los autores del artículo, “se creía con certeza que los datos y las imágenes tendrían valor comercial, así como público” si se pudiera recopilar más.

Los primeros intentos de asociaciones público-privadas para facilitar la comercialización pueden haber obstaculizado aún más los resultados más amplios. Las operaciones de los satélites Landsat cuarto y quinto se transfirieron al sector privado, lo que llevó a un aumento dramático de los precios, con el costo de una sola imagen Landsat aumentando a varios miles de dólares. Incluso después de que el gobierno reanudó el control del programa en 1999, el gobierno todavía cobraba varios cientos de dólares por una sola imagen, lo que hacía que los análisis globales fueran prohibitivos.

Vehículo con cámara GoogleMaps StreetView

Google utilizó datos del satélite Landsat 7 construido por la NASA, a la derecha, para regenerar su imagen de todo el planeta y también para cubrir los últimos doce años de su animación de la historia reciente del planeta. Mientras tanto, la flota de automóviles y otros vehículos de la compañía equipados con montajes de cámara y láser elaborados, arriba, continúan capturando la vista de la calle de la Tierra.

Satélite sobre Texas y Florida

Para entonces, el Thematic Mapper a bordo del Landsat 5 y el Enhanced Thematic Mapper-Plus a bordo del satélite Landsat 7 se habían convertido en los principales generadores de imágenes de la Tierra, reemplazando el sensor MSS a bordo del Landsat 5 y los satélites Landsat anteriores. Estos sensores Landsat de segunda generación recopilan datos en escala de grises en todo el espectro visible a una resolución espacial de 15 metros, en oposición a la resolución de 80 metros del primer MSS, y también utilizan siete anchos de banda visibles e infrarrojos para imágenes y medición de temperatura, a resoluciones de 30 y 60 metros.

“Antes de 1999, cuando lanzamos Landsat 7, Landsat 4 y 5 habían sido operados por una empresa privada, y su costo por escena había subido hasta $ 4,400, que muy pocas personas podían pagar”, dice James Irons, Landsat Data Científico del Proyecto de Misión de Continuidad en el Centro de Vuelo Espacial Goddard, donde se ha alojado el programa Landsat desde su inicio. USGS acordó reducir el costo a $ 600, pero, según Irons, eso todavía era prohibitivo para cualquiera que quisiera datos globales. Él y sus colegas de USGS continuaron presionando para que todo estuviera disponible públicamente de forma gratuita.

“En 2008, tomaron la decisión, a la que me refiero como ‘institucionalmente valiente’, de distribuir esos datos sin costo para quienes lo soliciten”, dice.

Los procesadores de datos en Mountain View, el gigante de Internet de California, Google, perdieron poco tiempo en aprovechar el nuevo recurso.

Transferencia tecnológica

A finales de 2010, Google presentó su Google Earth Engine, una plataforma de computación en la nube para acceder y procesar imágenes Landsat del planeta que datan de hace unos 40 años. Con la digitalización de un almacén de información, de repente se hizo posible el estudio científico de las tendencias mundiales utilizando datos de Landsat.

“Ahora puede hacer preguntas a escala global, con el tiempo, que nunca antes habían sido posibles”, dice Rebecca Moore, gerente de ingeniería del programa Google Earth Solidario, un brazo humanitario del equipo de Google Earth y Maps.

Actualmente, Google permite el acceso total a la masa de datos de Landsat, así como a su plataforma de procesamiento paralelo para ejecutar algoritmos en la montaña de información, a un grupo limitado de socios científicos y de investigación.

“Tenemos alrededor de mil científicos”, dice Moore, y agrega que muchos están analizando los bosques y la cubierta terrestre o los recursos hídricos. “Los biólogos conservacionistas están haciendo un buen modelado, y en este caso, están analizando conjuntos de datos como Landsat en combinación con, por ejemplo, los datos de elevación de la Misión de Topografía por Radar del [Jet Propulsion Laboratory]”.

En la primavera de 2013, en colaboración con la revista Time, Google Earth Engine lanzó su función web Timelapse, que utiliza imágenes Landsat para permitir a los usuarios ver una animación de lapso de tiempo de cualquier área terrestre en la Tierra, con la excepción de aquellos cerca de los polos. desde 1984 hasta 2012.

Para crear esta historia visual de casi todo el planeta, la compañía analizó más de 2 millones de imágenes Landsat para encontrar la mejor representación de cada píxel individual en el modelo, y cada píxel representa un área de 900 metros cuadrados durante uno de 29 años. Según el modelo de precios establecido antes de 2008, las imágenes que Google utilizó habrían costado más de $ 1.2 mil millones.

Operación de tala ilegal en Madagascar

La tala ilegal, como esta operación de cosecha de palo de rosa en Madagascar, y las prácticas agrícolas de tala y quema se encuentran entre las amenazas para los bosques tropicales más valiosos del planeta. Los datos de Troves of Landsat ahora permiten a los investigadores examinar las tendencias globales en la cubierta de la superficie, como las ganancias y pérdidas en la cubierta forestal.

Imagen cortesía de Erik Patel, CC-BY-SA 3.0

Al año siguiente, Google también regeneró por completo sus imágenes de Google Maps y Google Earth, utilizando datos de 2012 del satélite Landsat 7 construido por la NASA y una técnica similar de selección de píxeles en la que se eligió la representación más común de cada píxel de un conjunto de muchos Imágenes satelitales. “Lo ejecutamos en 66,000 computadoras en paralelo”, dice Moore. “Fue más de un millón de horas de cálculo, pero pudimos obtener los resultados en un par de días”. La resolución que ahora se usa en esos productos es el doble de la animación de Timelapse.

La compañía también se asoció con un profesor del Departamento de Ciencias Geográficas de la Universidad de Maryland para construir un modelo detallado de los cambios globales en la cobertura forestal entre 2000 y 2012. Matthew Hansen es un científico líder a la hora de analizar la observación de la Tierra. datos para clasificar la cubierta forestal y el cambio forestal, por lo que la disponibilidad repentina de tantos datos de imágenes fue una gran ayuda para su trabajo.

“Solíamos decir siempre: ‘Utilizamos los datos que podemos permitirnos, no los datos que necesitamos’. ¿Pero qué tipo de ciencia es esa? ”, Dice. “Especialmente para la NASA, que tiene muchos objetivos científicos del sistema de la Tierra relacionados con el cambio climático global, el ciclo del carbono, lo que sea. Debes tener observaciones globales para conducir esos modelos ”.

El trabajo de Hansen con el monitoreo de la deforestación comenzó a nivel nacional en África central, pero se topó con problemas en la cuenca del Congo, donde es casi imposible obtener imágenes sin nubes. Fue entonces cuando golpeó el método píxel por píxel que Google usó.

“Así es como trabajamos con el espectroradiómetro de imágenes de resolución moderada [de la NASA]. Siempre es el mejor píxel posible, así que comenzamos a hacer eso con Landsat ”, dice. Luego pasó a cartografiar bosques en Europa, Rusia, Indonesia y México.

“En algún momento, nos sentimos cómodos de poder hacer el mundo, y esa fue la base de la discusión con Google”, dice Hansen. “También tenemos el archivo Landsat aquí, en el campus, pero creo que si intentamos crear imágenes globales completas, nos llevaría de seis meses a un año, mientras que para Google nos llevaría una semana”.

Beneficios

Lo que Hansen y Google revelaron a fines de 2013, y lo que Google Earth Engine ha publicado en la página principal de su sitio web, es el primer estudio global de la cobertura forestal: un mapa del mundo con una precisión de hasta 30 metros, que representa los bosques y las ganancias actuales y pérdidas entre 2000 y 2012, con capas de datos para cada año disponibles para descargar.

Mientras tanto, Moore dice que la función Timelapse de Google ha demostrado ser popular, con la animación atrayendo a más de 3 millones de espectadores solo en su primera semana.

“Puedes ver fenómenos asombrosos tan claramente”, dice ella. “Puedes ver a Las Vegas creciendo salvajemente mientras el cercano lago Mead se está reduciendo. Se puede ver la deforestación del Amazonas, las islas artificiales que brotan de la costa de Dubai, el glaciar Columbia retrocediendo en Alaska “.

A medida que los usuarios han explorado el mundo pasado y presente con la herramienta, los artículos de periódicos en línea, blogs y otros han comenzado a publicar enlaces a diferentes partes del mundo, dice Moore. “Y la gente ha encontrado cosas interesantes que no son solo pesimismo”, agrega, y señala que estos incluyen ríos serpenteantes, formaciones de lagos de bueyes y el desplazamiento de la costa del puerto de Cape Cod.

GoogleMaps y Landsat vista de la selva amazónica

Una colaboración entre Google y la Universidad de Maryland utilizó datos de los satélites Landsat construidos por la NASA para crear el primer estudio global de la cubierta forestal de la Tierra a lo largo del tiempo. Este mapa de 2012 que representa la selva amazónica muestra la cubierta forestal existente en verde, la pérdida de bosque en rojo, la ganancia de bosque en azul y el bosque reemplazado en púrpura. El Amazonas es el reservorio biológico más rico y diverso del mundo, tiene el 20 por ciento del agua dulce de la Tierra y cada año pierde miles de millas cuadradas debido a la tala, la agricultura y la construcción ilegal de carreteras.

Ella dice, sin embargo, que todo este trabajo temprano es solo un comienzo. “Creo que estamos en los albores de un nuevo viaje de descubrimiento, y es un viaje digital”, dice Moore. “Creo que vamos a aprender cosas que han estado sucediendo en todo el planeta desde los años 80 y 70 y descubrir cosas que estaban allí esperando a ser descubiertas en este tesoro de datos”.

Ella señala que los científicos con los que Google se está asociando también están utilizando datos actuales para predecir eventos futuros. Algunos descubrieron que podían predecir un brote de cólera con seis semanas de anticipación al observar las floraciones de plancton en la costa de Calcuta. Otro pudo observar el paisaje verde, la lluvia y las temperaturas para predecir los brotes de fiebre del Valle del Rift ocho semanas después.

“Los usos de los datos de Landsat son realmente amplios”, dice Irons. “La expansión urbana, la retirada de los glaciares, la producción agrícola, la degradación de los corales, el cambio del ecosistema, donde sea que se pueda pensar en la cobertura del suelo y el cambio en el uso del suelo, los datos de Landsat se han aplicado allí. Recuperación de desastres, gestión de los recursos hídricos: la lista continúa.

En mayo de 2013, la NASA lanzó el nuevo satélite Landsat 8, que según Irons tiene aproximadamente la misma resolución espacial que su predecesor, pero un rendimiento mucho mayor en términos de relación señal / ruido. “Eso hace una gran diferencia en su capacidad para reconocer o diferenciar diferentes tipos de cobertura del suelo y sutilezas dentro de una clase de cobertura del suelo, o para ser más sensibles al cambio con el tiempo”.

Moore dice que Google Earth Engine está recibiendo información diariamente del nuevo satélite y que la calidad de los datos es lo suficientemente alta como para que sea posible incluir imágenes estacionales en futuras adiciones a la animación de lapso de tiempo. En algún momento, dice, Google Earth Engine espera poder producir un informe casi en tiempo real sobre la salud del planeta: “La mejor transmisión de datos desde los satélites de la NASA, no solo los instrumentos ópticos, sino todo tipo de instrumentos científicos: ingrese esa información y póngala a disposición de la ciencia y para su uso práctico “.

Irons dice que la NASA y el USGS han formado un equipo de estudio para desarrollar un plan para un programa coordinado y sostenido de imágenes terrestres durante al menos los próximos 20 años para garantizar que no haya brechas en la cobertura. “Ahora estamos obteniendo un retorno total de la inversión de dólares de impuestos que se gastaron para lanzar el satélite”, dice. “Están distribuyendo alrededor de 3 millones de escenas por año, y las personas están comenzando a desarrollar la capacidad de analizar grandes volúmenes de datos de Landsat”.

Después de haber trabajado en el programa Landsat durante gran parte de su carrera de 35 años, Irons dice que siente que los desarrollos recientes han hecho realidad ese tiempo, esfuerzo y energía. “Han sido unos meses muy emocionantes después del lanzamiento del Landsat 8 y de ver que el sistema funciona realmente bien, y luego de que personas como Matt Hansen, Google y otros vengan y pongan los datos a trabajar de una manera tan productiva, es extremadamente gratificante “.

More Interesting

¿Puedo terminar en trabajos de aprendizaje automático si tengo una maestría en neurociencia?

Cómo combinar salidas del sistema de recomendación (matriz de elementos de usuario) a través de un conjunto

¿Cuáles son algunos ejemplos del uso del aprendizaje automático en sistemas distribuidos?

Cómo configurar una instancia de AWS GPU para aprender el aprendizaje automático

En Machine Learning: ¿por qué siempre entrenamos una muestra en lugar de todo el conjunto de datos / base de datos?

¿Son los chatbots el comienzo de la verdadera IA?

¿Cuáles son las diferencias entre GRU y RNN estándar?

¿Cuál es el mejor software de reconocimiento facial en el mercado?

¿Qué tan efectivamente se pueden usar las redes neuronales en la regresión? ¿Es posible alguna configuración que prediga un número que no se ve en los datos de entrenamiento?

¿Cuál es una mejor opción para que un graduado de negocios aprenda en términos de su carrera, ciencia de datos o aprendizaje automático?

¿Es posible comenzar a aprender y trabajar en el aprendizaje por refuerzo y el aprendizaje profundo sin un conocimiento previo sólido de otras clases de ML?

¿Cuál es la relación entre el análisis sentimental y el aprendizaje automático?

¿Cuáles son las mejores prácticas para garantizar que los datos adquiridos de la investigación que implica el análisis de Big Data resulten precisos y útiles?

Las redes neuronales se han vuelto muy populares en los últimos años, sin embargo, gran parte de la teoría se desarrolló hace 20 años. ¿Qué avances explican los éxitos recientes?

¿Puedo usar el aprendizaje automático para analizar correos electrónicos?