Primero, debe comprender qué es Big Data … aquí está mi definición de Big Data:
“Big Data es la aplicación de nuevas técnicas y plataformas para procesar, analizar y visualizar grandes volúmenes de datos que están más allá de la capacidad de los métodos tradicionales para procesar en tiempo casi real. Algunas de estas técnicas aprovechan la computación en la nube y crean lo que se llama” nube de datos “. El objetivo de big data es extraer tendencias, patrones y conocimientos de los datos para mejorar la toma de decisiones organizacionales. Un ejemplo de big data es el procesamiento de datos de flujo de clics en un sitio web, utilizando un clúster Hadoop, para entender los patrones de compra del cliente “.
Ahora, para responder algunas de sus preguntas específicas:
- ¿Hay algún lugar donde los métodos tradicionales de aprendizaje automático puedan vencer el aprendizaje profundo o las redes neuronales?
- Cómo aprender a crear un sistema óptico de reconocimiento de caracteres utilizando redes neuronales artificiales como mi mini proyecto
- ¿Qué técnicas se usan generalmente para la reducción de la dimensionalidad en el campo de análisis de Big Data?
- ¿Un doctorado en aprendizaje automático centrado en un tema que no sea el aprendizaje profundo seguirá siendo comercializable (en la industria) en 2020?
- ¿Cuáles son algunos ejemplos de buenos regresores e instrumentos para los modelos de regresión IV?
1. No, los datos grandes normalmente no se almacenan en una base de datos relacional porque el volumen de datos es mucho mayor que el que se puede almacenar en una sola base de datos relacional. Si puede almacenar todos los datos que desea procesar en una sola base de datos relacional, no tiene grandes datos.
2. En un clúster de Hadoop, haces aprendizaje automático con Mahout.
3. El ecosistema de Hadoop es, con mucho, la plataforma dominante en el procesamiento de Big Data. Ver: ¡Bienvenido a Apache ™ Hadoop®!
4. Hay toneladas de libros y tutoriales en línea sobre Hadoop.
¡Los mejores deseos!