¿Consejos prácticos para el aprendizaje automático?

Hola

No es una locura una ambición. Por lo general, si queremos resolver un problema con el aprendizaje automático , un experto humano debe proporcionar una red neuronal inicial que ya esté estructurada para hacer el tipo básico de cálculo que requiere el problema. AutoML, por otro lado, prueba una serie de algoritmos posiblemente adecuados, esencialmente probando arquitecturas de red neuronal totalmente diferentes, y luego califica cada una contra el objetivo. Sin la necesidad de supervisión humana, con el tiempo el proceso debería centrarse tanto en el mejor enfoque matemático del problema como en la mejor implementación de ese enfoque. La red neuronal final tampoco tiene que usar solo uno de estos algoritmos, y puede incluir elementos individuales de múltiples, si eso es más útil.

En teoría, el enfoque AutoML debería ser capaz de diseñar redes neuronales más eficientes, aunque solo sea por problemas simples en este momento, pero al ser más eficientes, esas creaciones de IA también podrían ser más inescrutables para los humanos.

Ese es el quid del principal ejemplo de Google de las habilidades de AutoML. Dada una gran base de datos de imágenes para clasificar, diseñó una red neuronal que era similar pero ligeramente superior a la diseñada por los ingenieros humanos de Google. Lo que fue tan fascinante sobre este tipo de diseño por proxy es que los ingenieros que observaron la red neuronal de AutoML en realidad no sabían que las diferencias entre ella y la suya eran realmente mejoras; Como no habían creado la red neuronal ellos mismos, al principio no estaban totalmente seguros.

¡Puedes encontrar muchas cosas sobre Machine Learning aquí!

Según una encuesta reciente, solo en Bengaluru se requieren casi 4.000 programadores de aprendizaje automático y de inteligencia artificial. El MD de Microsoft Research India, Sriram Rajamani, les dice a Alnoor Peermohamed y Raghu Krishnan cómo India puede cosechar los beneficios de la industria cambiante.
El Director Gerente de Microsoft Research (MSR) India, Sriram Rajamani, que dirige un laboratorio de informática de 50 personas en Bangalore, nunca creyó que las máquinas pudieran llegar a ser inteligentes algún día. Sin embargo, ahora que lo han hecho, se ha iniciado una reestructuración masiva en todas las industrias. La gran oportunidad para India en aprendizaje automático e IA

La era del aprendizaje automático ya está en pleno apogeo, revela una encuesta reciente realizada por MIT Technology Review Custom en asociación con Google Cloud.

Los investigadores preguntaron a 375 líderes empresariales y de TI de una variedad de organizaciones de todo el mundo sobre su uso del aprendizaje automático. Los resultados incluyen:

1. El cincuenta por ciento de los implementadores de aprendizaje automático pueden cuantificar el ROI de su inversión en aprendizaje automático, y la mitad llama a ese ROI reconocible incluso en una etapa temprana.

2. El sesenta por ciento de los encuestados tiene estrategias de aprendizaje automático en vuelo, y casi un tercio caracteriza sus iniciativas como “maduras”.

3. La ventaja competitiva se ubicó entre los objetivos principales de los proyectos de aprendizaje automático para el 46% de los adoptantes actuales y el 48% de los planificadores. El 26% de los adoptantes actuales dijeron que ya habían obtenido una ventaja competitiva del aprendizaje automático.

4. La inversión en aprendizaje automático está creciendo, ya que el 26% de los encuestados dedica más del 15% de sus presupuestos de TI a proyectos de aprendizaje automático.

BLOG DE GOOGLE CLOUD BIG DATA Y APRENDIZAJE DE MÁQUINAS

El Aprendizaje automático básicamente está tratando de encontrar una función que modele de cerca sus datos. Entonces, digamos que tiene un atributo (datos) y sus datos tienen la forma (x, y) y se ven como (2,6), (3,9), (5,15), (1,3) … donde x es el atributo e y es el objetivo. Con solo mirar los datos, puede comprender que sus datos siguen una relación Y = 3X (Y es dependiente y X es dependiente). Este es, por supuesto, un caso ingenuo y en la vida real, la función no es tan fácil de aprender. A diferencia de la relación lineal, tenemos polinomios complejos e incluso relaciones exponenciales. Y es por eso que aplicamos algoritmos de aprendizaje automático para comprender cómo construimos un modelo (función) a partir de datos existentes que puedan predecir datos nuevos.

La navaja de Occam funciona en todas partes. Entonces, si sus datos son simples, las técnicas más simples son mejores. Si es complejo, complejo son mejores. Además, si sus datos tienen muchos errores y etiquetado incorrecto, nuevamente los métodos simples son mejores. Los métodos complejos pueden sobreajustar el conjunto de entrenamiento.

Entonces, básicamente, tienes la idea, quieres aprender funciones. Existen técnicas simples no paramétricas como árboles de decisión y vecinos más cercanos k y otros modelos paramétricos (como SVM, regresión lineal, etc.). Ahora, generalmente con conjuntos de datos pequeños con pocos atributos (o datos dispersos), los modelos no paramétricos funcionan bien. Para datos de tamaño moderado, SVM lineales y para regresión, regresión lineal y regresores lineales regularizados como lazo, la cresta funciona bastante bien.

Ahora, con más datos, las redes neuronales tienden a funcionar mejor (y también rompen el punto de compensación para usarlas. En general, mucho más costoso desde el punto de vista computacional). Por ejemplo, considere aprender a jugar Go, que tiene un tablero de 19 * 19 con más combinaciones posibles que los átomos en el universo. O, digamos, aprender a clasificar toneladas de imágenes. Como puede imaginar, la relación entre una tonelada de imágenes no puede ser modelada por una simple función lineal. Las funciones convexas son más simples ya que tienen un máximo o mínimo, es decir, el máximo o mínimo local es el global. Este no es el caso con una función no convexa. Por lo tanto, aprender es difícil. Las NN (y, en particular, el aprendizaje profundo) ayudan a modelar una función tan compleja. Por lo general, los modelos de aprendizaje profundo son bastante complejos, y no tenemos modelos teóricos claros para ajustarlo. Sin embargo, hay una gran cantidad de heurísticas.

More Interesting

¿Cómo se puede usar Big Data contra nosotros?

¿Siempre estamos mejor con más datos en Machine Learning en la práctica?

¿Qué temas aprendiste como parte de un curso de ciencias de datos durante tu maestría en los Estados Unidos? ¿Cuáles son algunas sugerencias que me ayudarían a convertirme en un científico de datos exitoso?

¿Cuáles son las startups que son realmente buenas en big data y análisis en Mumbai?

¿Cuáles son los casos de uso de Docker en Data Science y Machine Learning?

¿Cuáles son los métodos de normalización de datos más comunes utilizados en el aprendizaje automático?

Entrevistas de trabajo de análisis de datos: ¿qué puede decir sobre SQL como herramienta para mostrar sus habilidades?

¿Cuál es la diferencia entre la desigualdad de Hoeffding y el intervalo de confianza?

¿Cuáles son las mejores revistas de estudios de datos críticos?

¿Es una buena idea pasar a Big Data (Hadoop)? Tengo más de 11 años de experiencia en .NET y C ++.

¿Cuáles son algunos buenos institutos de capacitación en Delhi / Gurgaon como el NIIT, DUCAT, etc., que brindan capacitación en el aula sobre almacenamiento de datos, inteligencia empresarial y / u otras materias relacionadas con la ciencia de datos?

Suponiendo que tiene habilidades de programación decentes (C ++, Java, C #) pero no es muy bueno con las estadísticas, ¿a qué cursos en línea (Coursera, etc.) debe un programador unirse para convertirse en un científico de datos?

¿Cuál es el equivalente R de los ** kwargs de Python?

¿Cuál es la pregunta sin respuesta más importante sobre Quora relacionada con big data y data science?

¿Puedes citar un ejemplo de ley escrita usando Big Data?