¿AlphaGo Zero amenaza el campo de la ciencia de datos ya que Zero no necesita capacitación y análisis de big data?

AlphaGo, Google Translator, el auto sin conductor … no son una amenaza tan grande para la ciencia de datos como lo son para los métodos de ingeniería de software.

La ciencia de datos es lo que usa para dar sentido a sus datos y, en cierto sentido, elaborar una historia detrás de los datos. Luego, usted toma decisiones como un agricultor que está tratando de decidir qué plantar, almacenar para decidir qué vendería el próximo año o experimentar lo que desea diseñar … Puede que el aprendizaje profundo sea aplicable aquí y allá, pero un análisis científico de datos para evitar Las conclusiones “falsas” no van a desaparecer.

Lo que perceptron y ahora el aprendizaje profundo está mostrando es que sus cláusulas if / while / case … en un software pueden reemplazarse con esencialmente aritmética y, lo que es más importante, que los coeficientes de esa aritmética se pueden aprender de los datos (reales o generados). Eso significa que, digamos que está pensando en un servicio, en lugar de escribir software al tener requisitos y reglas para su entrada y salida, todo lo que necesita es tener datos reales o sintéticos y una estructura (red) correcta. La propagación hacia atrás con la ayuda de la arquitectura de procesamiento actual (por ejemplo, GPU) hace el trabajo pesado. Es un cambio alucinante en cómo pensamos en el desarrollo de software.

AlphaGo zero necesitaba enormes cantidades de datos: usaba más de 100,000 $ de tiempo de GPU para generar datos y luego capacitarlos.

Todavía necesitaba ser diseñado (diseño de capa, algunos ajustes de parámetros).

Go es un problema extremadamente simple en términos de datos, básicamente se trata de cuadros secuenciales de datos de baja resolución.

Dicho esto, AlphaGo es aprendizaje automático, no ciencia de datos.

Esencialmente no tiene nada que ver con la ‘ciencia de datos’ en términos de lo que hacen la mayoría de los científicos de datos, simplemente utiliza algunas de las mismas herramientas y terminología porque los campos del aprendizaje automático y la ciencia de datos se superponen fuertemente.

¡AlphaGo Zero en realidad usa una tonelada de datos! Sin embargo, son datos que puede generar por sí solo y todo lo que quiera porque podemos simular perfectamente el juego Go. Lo que AlphaGo Zero no usa son datos sobre cómo juegan los humanos, algo que las versiones anteriores usaban para mejorar su rendimiento.

Entonces, no, los científicos de datos no deben preocuparse porque (1) todavía usa muchos datos (4.9 millones de juegos + todas las simulaciones dentro de cada uno) y (2) la mayoría de los problemas que los científicos de datos están relacionados provienen de la realidad y no pueden simularse perfectamente.

No, no hay nada fundamentalmente nuevo sobre el enfoque de AlphaGo Zero, aunque es una maravilla de la ingeniería. La IA fue entrenada con aprendizaje de refuerzo, un área de aprendizaje automático que se formalizó a fines de la década de 1980.

Incluso sus predecesores AlphaGo utilizaron el aprendizaje por refuerzo, pero solo después de aplicar primero el aprendizaje supervisado en los juegos humanos. No es realmente sorprendente que AlphaGo Zero los haya superado, ya que evita el sesgo introducido por el entrenamiento en movimientos humanos subóptimos.

Aunque el aprendizaje supervisado sigue siendo la técnica dominante de aprendizaje automático utilizada por los científicos de datos, el aprendizaje por refuerzo es otra área bien conocida que está experimentando una creciente aplicación. Todavía necesita personas con más o menos la misma competencia técnica para implementar ese tipo de algoritmos también. En todo caso, el aprendizaje por refuerzo proporciona oportunidades adicionales para el trabajo, ya que no hay bibliotecas y marcos bien desarrollados para ello, como lo hay para el aprendizaje supervisado.