¿Los programas de software de aprendizaje automático toman riesgos?

Si tiene la intención de preguntar si los algoritmos de aprendizaje automático toman riesgos o no, entonces la respuesta es definitivamente sí. Los algoritmos de Machine Learning se arriesgan todo el tiempo.

Un algoritmo que no puede correr ningún riesgo en absoluto, tendría que ser correcto todo el tiempo, o en otras palabras, tendría que sobreajustar. El sobreajuste es malo. Los algoritmos de Machine Learning deben generalizarse bien para ser útiles y, por lo tanto, deben arriesgarse a no ser absolutamente correctos todo el tiempo, pero deben estar dentro de los límites razonables de ser correctos.

Si quiere preguntar si se pueden desarrollar programas de software de aprendizaje automático para tomar una decisión y elegir el menos riesgoso de un conjunto de opciones, entonces asegúrese de que sea posible, pero en qué medida y cómo puede depender del dominio del problema y del riesgo aceptable .

En un sentido micro, sí. En un nivel mayor, no (para un caso de uso típico).

ML funciona porque asume “riesgos” sistemáticos, en la medida en que trata de resolver problemas intentando una gama de posibles soluciones, en lugar de limitarse a soluciones para las cuales existe un apoyo a priori. En este sentido, la resolución de problemas a través del aprendizaje automático implica una mayor toma de riesgos que la resolución de problemas basada en una hipótesis existente sobre la naturaleza de la solución.

Sin embargo, estos riesgos se limitan efectivamente al espacio de la solución, debido a las formas en que tendemos a usar ML. ML se implementa con mayor frecuencia hoy para resolver problemas que hemos definido con anticipación, es decir, “¿Cómo podemos tomar la entrada A e identificar la respuesta B?” Esto excluye la posibilidad de que ML pueda identificar puntos finales novedosos o variables dependientes. En otras palabras, la implementación más común de ML toma riesgos (medidos, regulares) con respecto a los medios, pero no a los fines.

Sin embargo, esto no se aplica a enfoques como el aprendizaje no supervisado, a través del cual es posible hacer ambas cosas, y esta toma de riesgos a mayor escala es mucho más emocionante. Dentro del espacio de uso de la ciencia, por ejemplo, métodos no supervisados, con su capacidad no solo para responder preguntas de nuevas maneras, sino también para identificar puntos finales novedosos y “más riesgosos” (en la medida en que un investigador humano podría no arriesgar la reputación y el financiamiento para su laboratorio sobre lo que podría parecer una idea completamente sin fundamento previo) promete ser revolucionario.

No sé a qué te refieres con correr riesgos. Un algoritmo de Machine Learning no es como un cerebro humano que analizará la situación y saltará a una u otra conclusión. Por lo general, observa su conjunto de datos de aprendizaje y realiza una acción que está más cerca de lo que ha aprendido. Cuanto menos precisos sean sus datos, más salvaje será la suposición.

Yo diría que un motor ML no toma riesgos en el sentido que lo hace un humano. Toma decisiones basadas en lo que se le ha enseñado.

More Interesting

Cómo explicar intuitivamente los tensores

¿Cuál es la diferencia entre almacenar datos en HDF5 frente al formato TFRecord de TensorFlow?

¿Cuáles son las ideas principales detrás de los principales algoritmos de clasificación de búsqueda?

Cómo ingresar a un programa de doctorado en la mejor escuela de EE. UU. En inteligencia artificial, visión artificial y aprendizaje automático

Como principiante en Deep Learning hoy, ¿qué marco debo usar?

¿Cuáles son algunas aplicaciones del aprendizaje semi-supervisado?

¿Hay alguna forma de implementar TSVM usando bibliotecas SVM?

¿Pueden Kmeans y el algoritmo DBSCAN dar el mismo resultado para un conjunto de datos en particular?

¿Debería considerarse un experto en aprendizaje automático después de completar la clase de ML del profesor Andrew en Coursera?

¿Dónde aplicarías algoritmos de aprendizaje automático en tu vida diaria? ¿Por qué?

¿Qué algoritmos (aprendizaje automático y aprendizaje profundo) funcionan con un pequeño conjunto de datos, sin sobreajustarlo?

¿Cómo funciona la propagación hacia atrás en la red neuronal convolucional?

Si alguien sin experiencia en programación quisiera aprender algoritmos y aprendizaje automático, ¿cuáles serían las mejores fases de estudio e investigación? ¿Sería mejor comenzar con el aprendizaje de la codificación? ¿Con qué idioma es mejor comenzar?

¿Hay alguna desventaja de usar GPU en el aprendizaje profundo?

¿Debería un científico de datos novato centrarse en conceptos matemáticos o herramientas?