¿Está muriendo el aprendizaje automático?

En 1959, Arthur Samuel definió el aprendizaje automático como un “campo de estudio que brinda a las computadoras la capacidad de aprender sin ser programado explícitamente”.

El aprendizaje automático sin ninguna razón es un campo nuevo, esta pregunta no se trata de la muerte de un bebé. El aprendizaje automático ha tenido suficiente tiempo para hacer una diferencia en nuestras vidas.

Publiqué esta pregunta para conocer los avances en ML. No ha atraído una respuesta que refutara la afirmación original con fuertes ejemplos de por qué ML está vivo, y mucho menos prospera. Por lo tanto, estoy interesado en despedirme de ML para dar la bienvenida a Big Data Analytics. Lo que siento sobre ML (algo así como … YAHOO) es que todos piensan que es genial, clásico y que tiene un rincón suave. Aquí están mis principales razones para no tener una esquina suave para ML. Desde mi experiencia limitada if feel (60% ~ ML) = SVMs.

¿Cuál es tu set de entrenamiento? ¿Es lo suficientemente grande? ¿Estás demasiado ajustado? ¿Estás mal ajustado? ¿Te estás transformando en el espacio correcto? ¿Sus granos son chi cuadrado o epsilion? ¿Supervisado o no supervisado? Oh SVM, ¿está bien, lineal o descomombrado? ¿Debo probar con otro conjunto de datos? ¿Qué sucede si todo no coincide? SVM suave o SVM duro? ¿Cuántos parámetros para sintonizar?

+ o – 10, esto es lo que es un SVM al final del día. Tenga en cuenta que solo los puntos (vectores de soporte) que se encuentran en los márgenes contribuyen a la toma de decisiones futuras, y no se presta atención al resto de los puntos.

¿Cómo puede generalizarse una sola línea en el espacio transformado? Por cierto, si una línea en un espacio transformado puede hacerlo, entonces tal vez algo igualmente simple en el espacio original también hubiera funcionado bastante bien.

Técnicas basadas en datos / Big data son sencillas:

1. Use un modelo simple (ej. NN) y una representación.

2. Obtenga muchos datos.

3. Prueba con muchas consultas.

4.1 Buena respuesta suficiente. Terminar.

4.2 Mala respuesta: obtenga datos Moar o use un modelo simple diferente.

El ámbito del aprendizaje automático es un poco confuso: el aprendizaje automático , una rama de la inteligencia artificial, se refiere a la construcción y el estudio de sistemas que pueden aprender de los datos.

El núcleo del aprendizaje automático se ocupa de la representación y la generalización . La representación de instancias de datos y funciones evaluadas en estas instancias son parte de todos los sistemas de aprendizaje automático. La generalización es la propiedad de que el sistema funcionará bien en instancias de datos invisibles.

– Wikipidia

En ML, su fe está en sus modelos, representación, espacios de características transformadas, generalizaciones, límites de decisión y aprendizaje .

Las técnicas de Big Data / Data Driven , por otro lado, recomiendan el uso de algoritmos y modelos simples, vecinos más cercanos, correlación, etc. La fe está en los datos : los datos deben ser tan ricos que cualquier consulta nueva será similar a algo ya presente en los datos

Mi comprensión del escenario actual es un fuerte cambio de las técnicas de ML a las técnicas Big Data / Data Driven: esta última está prosperando y la primera es, admitámoslo, muriendo.

De hecho, ML funciona realmente bien si copia de técnicas controladas por datos; recuerde el ajuste excesivo. La generalización, OMI, es un sueño descabellado en la mayoría de los escenarios. Las técnicas basadas en Big Data / Data celebran el sobreajuste al comprometer los Modelos, el algoritmo, el aprendizaje, etc. Hace un cambio audaz de POR QUÉ (ML, física) a QUÉ (Big Data): “¿Por qué estos datos de ejemplo apuntan a Apple?” a “Lo que se parece a esta consulta, el 90% de ellas son manzanas, por lo que son manzanas”.

2012, pertenecía a Big Data. 2013 perteneció a Big Data Analytics. 2014?

Aquí está lo que pasa con ML recientemente:

== Cita: [1206.4656] Aprendizaje automático que importa:

Gran parte de la investigación actual sobre aprendizaje automático (ML) ha perdido su conexión con problemas de importancia para el mundo más amplio de la ciencia y la sociedad. Desde esta perspectiva, existen limitaciones evidentes en los conjuntos de datos que investigamos, las métricas que empleamos para la evaluación y el grado en que los resultados se comunican a sus dominios de origen. ¿Qué cambios son necesarios en la forma en que llevamos a cabo la investigación para aumentar el impacto que tiene ML? Presentamos seis desafíos de impacto para enfocar explícitamente la energía y la atención del campo, y discutimos los obstáculos existentes que deben abordarse. Nuestro objetivo es inspirar un debate continuo y centrarnos en el LD que importa.

== Un vistazo imparcial al sesgo del conjunto de datos es el sitio (con el mismo título que el documento en CVPR 2011) donde puede ver las implicaciones. – Los resultados de generalización de conjuntos de datos reportados en el documento muestran claramente el precio que pagamos por ser fieles a algunos conjuntos de datos estándar. Trabajamos bajo el efecto de un gran sesgo y esencialmente terminamos ajustando todo nuestro aprendizaje para ello.

== La efectividad irracional de los datos –

Algo simple (vecinos más cercanos) + muchos datos = ¡Gana!

== Traductor de Google : solo encuentra la combinación más cercana de bigrams y trigrams de un corpus realmente enorme y combínalos. Sin aprendizaje

== Tendencias de la gripe de Google : Google predice la gripe H1N1 usando términos de búsqueda

En lugar de utilizar datos estadísticos de casos de H1N1, Google ha estado utilizando consultas de búsqueda como punto de partida. El funcionamiento del sistema es que la empresa supervisa las búsquedas realizadas en el motor de búsqueda de Google relacionadas con la gripe.

Por ejemplo, si Google nota un aumento en las consultas en su motor de búsqueda con las palabras “fiebre”, “dolor de garganta” y “dolores” en Wichita, podrían predecir un aumento en el número de casos de gripe porcina en los próximos dos años. semanas. – Algoritmo / modelo simple, gran dependencia de los datos, sin aprendizaje.

== La comparación de Macropixel por pares puede funcionar al menos tanto como los algoritmos holísticos avanzados para el reconocimiento facial. [ http://www.bmva.org/bmvc/2010/co…]

Este artículo muestra mediante experimentos la superioridad de un

método ingenuo sobre los enfoques populares bien establecidos con una complejidad cada vez mayor. Nos estimula a repensar:

¿Ha tocado el avance actual de la investigación de la visión por computadora (principalmente ML y modelos predictivos)

Cuál es el problema subyacente en el reconocimiento facial?

== http://amps-web.amps.ms.mit.edu/…

Big data avanza sobre el ML regular. Verifique la corteza del árbol y los ejemplos de textura. Solo 10-15 minutos en el video.

[Disco: tengo una experiencia práctica limitada con ML que no va más allá de hacer el curso de ML y un proyecto de curso, http://researchweb.iiit.ac.in/~k… (Cuestiona por qué deberían incidir puntos muy alejados de los márgenes penalización en una hipótesis SVM). Leí la mitad de un gran libro sobre Big Data y trabajé en 3 proyectos que trataban con una cantidad bastante grande de datos. Entonces, toma todo lo escrito aquí con tu propia pizca de sal.]

Ciertas áreas parecen ser.

Con el gran interés en Deep Learning, parece que mucho trabajo en optimización convexa avanzada se está ralentizando.

No he visto mucho trabajo en SVM estructurales o transductores en mucho tiempo, aunque todavía hay algunas reservas, y de vez en cuando salen algunos documentos y métodos interesantes.

Tampoco veo mucho trabajo nuevo en el aprendizaje de Kernel, excepto quizás para imitar el gran éxito en ConvNets.

Ciertamente falta un buen trabajo teórico. Los métodos como la teoría de VC y PAC no han demostrado ser realmente de gran utilidad práctica, y no creo que sea tan necesario probar un límite de VC cuando se lanza un nuevo método.

Con ese fin, ¿alguien realmente sabe algo fundamental sobre Deep Learning que sea cualitativamente diferente de nuestra comprensión de los espejuelos tipo Hopfield de finales de los 90?

¿Puede proporcionar un contexto de fondo para la pregunta? ¿Por qué percibes la muerte de ML? Veo que el mercado se expande simplemente porque los datos están proliferando y las decisiones informadas se están convirtiendo en una palanca competitiva para la mayoría de las empresas.

ML avanzará desde aquí a áreas mucho más interesantes si mi suposición es correcta. Desde los días en que Rosenblatt propuso el primer perceptrón, los ANN han avanzado bastante. La potencia de procesamiento necesaria para los algoritmos y los modelos informáticos también ha evolucionado con el tiempo.

Sin embargo, el problema puede estar en personas que venden Analytics demasiado como un elixir a todos los problemas que la humanidad ha enfrentado. ML tiene sus limitaciones y éstas se hacen más pronunciadas cuando el algoritmo se está implementando. Tome el caso de un método de aprendizaje supervisado como un backprop. Ajustar el algoritmo requiere bastante esfuerzo y experiencia. E incluso después de tanto esfuerzo, no es muy seguro aproximar su polinomio con precisión porque entran datos más nuevos. Otros algoritmos pueden tener limitaciones similares. Por ejemplo, Analytics se basa en gran medida en la prueba de hipótesis estadísticas, que a su vez se basa en algunos supuestos sobre la distribución de datos. Por lo tanto, vender una solución basada en los modelos derivados como el Análisis Factorial también debe hacerse con precaución.

Por lo tanto, vender cualquier ML o algo analítico como una solución duradera, especialmente por parte de las compañías de análisis, puede matar al ganso dorado.

El aprendizaje automático no está muriendo, su característica esotérica es morir.

More Interesting

¿Cuáles son sus experiencias como consultor en ciencia de datos?

¿Qué razones existen para estudiar ingeniería de control? ¿Qué pueden hacer los ingenieros de control con su conocimiento?

¿Por qué la gente quiere construir una inteligencia general artificial?

¿Fuzzy Logic tiene algún uso significativo en el mundo de hoy cuando estamos liderando el mundo del aprendizaje automático y la inteligencia artificial?

¿Cuáles son algunos de los mejores diseños de camisetas y sudaderas de informática?

¿Cuál es la diferencia entre sincronización de procesos y punto muerto? Si hay sincronización, ¿ocurrirá un punto muerto o no?

Tengo 4 años de experiencia en TI. Estoy planeando cambiar a BIG Data y Hadoop. ¿Cuáles son los pros y los contras que debo tener en cuenta?

Cómo calificar la productividad de alguien

¿Cómo han avanzado los avances recientes en aprendizaje automático y visión artificial en el campo de la radiología médica?

¿Qué tan bien defienden las especificaciones profundas o los sistemas informáticos verificados formalmente que se ejecutan en unidades de estado sólido contra ataques avanzados de canal lateral?

¿Qué es la secuencia de arranque, publicación y bios? ¿Qué viene primero?

¿La mayoría de los lenguajes de programación son contraintuitivos y están mal diseñados?

¿Qué es el proxy API?

¿Por qué necesitamos aprendizaje automático?

¿Las billeteras de papel Ether Ethereum) están a salvo de ser retrocedidas o pirateadas?