¿Cómo podemos usar Hadoop para AI?

Gracias Baljinder Maan por A2A.

En primer lugar, comprendamos el Hadoop, la IA y su relación. Esto le ayudará a comprender su duda con exactitud.

Hadoop es un marco de programación de código abierto basado en Java que admite el procesamiento y almacenamiento de conjuntos de datos extremadamente grandes en un entorno informático distribuido

La inteligencia artificial es la simulación de procesos de inteligencia humana por parte de máquinas, especialmente sistemas informáticos. Estos procesos incluyen aprendizaje, razonamiento y autocorrección.

¿Por qué necesitamos usar Hadoop para AI?

Existe una confusión entre los estudiantes de que la IA es solo un conjunto de declaraciones if-else donde definimos ciertas condiciones y sus respuestas. La computadora hace coincidir la entrada con esas condiciones predefinidas y toma las decisiones PERO esta no es la inteligencia real . Considera una situación. Has buscado un Pendrive de 16 GB o un vuelo de Delhi a Patna y cierras el sitio web. Si se ha dado cuenta, habrá encontrado que varias ofertas, enlaces, anuncios relacionados con Pendrive (o vuelos más baratos) comienzan a aparecer en su línea de tiempo de Facebook, tarjetas de Google, etc. ¿Por qué? ¿Cómo es que tu Facebook sabe que quieres un Pendrive? Esta es la inteligencia artificial real . Su Facebook, Google usa las cookies del navegador (información de búsqueda) y en base a eso muestran productos similares antes que usted. Ahora, imagina cuántas búsquedas de Google se llevan a cabo cada segundo. ¿Es posible administrar esta pantalla de búsqueda manualmente? La respuesta es no. Esto se hace a través de Hadoop.

¿Cómo usar Hadoop para AI?

Lo primero que debe preocupar es la cantidad de datos que tiene. Si puede almacenar datos en una máquina (servidor), simplemente use R o Python . Pero si necesita un sistema distribuido porque sus datos son muy grandes, entonces busca almacenar en Hadoop y usar Spark para construir sus modelos de datos de IA . Debe verificar el flujo del tensor para el aprendizaje profundo (Marque esto). Tenserflow puede ejecutarse en HDP (verifique esto). También puedes usar Spark en Hadoop. Para usar agua con gas en Hadoop en YARN, verifique esto. Si no desea usar H2O, simplemente use SparkMLLib (Marque esto).

SUGERENCIA IMPORTANTE

TensorFlow y H2O es una herramienta independiente para el aprendizaje automático . Si está leyendo datos del sistema de archivos local , puede usar DeepLearning4J, SparkMLLib u otras bibliotecas , para usar el aprendizaje automático sin instalar otras herramientas. Pero aún necesita el clúster Spark (incluso si es un nodo único) para poder usar SparkMLLib.

Buena suerte 🙂

Diría que sería como si no se pudiera usar hadoop con IA, pero puede hacer que la IA sea más fuerte, hay algunas áreas como redes neuronales artificiales, aprendizaje profundo, sistemas de autocuración, que necesitan algoritmos extremadamente sofisticados. Estas áreas son la clave para avanzar en IA. Los algoritmos (no importa si el aprendizaje es supervisado o no) utilizados para enseñar a las computadoras a ser inteligentes, funcionan mejor cuando se les suministran datos en cantidades astronómicas.

Las herramientas y tecnologías utilizadas para analizar datos, o para big data, tienen poco que ver en el dominio de la IA. Por ejemplo, Hadoop, MapReduce, Pig, Hive, etc. se vuelve casi inútil en el contexto de la IA. Esas son herramientas para hacer que los grandes datos sean más manejables.

Pero sí, el aprendizaje que una máquina obtiene del aprendizaje no supervisado al encontrar patrones y correlaciones en big data es definitivamente útil en el contexto de la IA.