¿Cuáles fueron los principales avances en aprendizaje automático / inteligencia artificial en 2016?

El 2016 bien podría pasar a la historia como el año del “bombo publicitario de Machine Learning”. Ahora todos parecen estar haciendo aprendizaje automático, y si no lo están, están pensando en comprar una startup para afirmar que sí.

Ahora, para ser justos, hay razones para gran parte de ese “bombo”. ¿Puedes creer que solo ha pasado un año desde que Google anunció que estaban abiertos a Tensor Flow? TF ya es un proyecto muy activo que se está utilizando para cualquier cosa, desde el descubrimiento de drogas hasta la generación de música. Sin embargo, Google no ha sido la única compañía abierta que abastece su software ML, muchos siguieron el ejemplo. CNTK de fuente abierta de Microsoft, Baidu anunció el lanzamiento de PaddlePaddle, y Amazon anunció recientemente que respaldarán a MXNet en su nueva plataforma AWS ML. Facebook, por otro lado, básicamente apoya el desarrollo de no uno, sino dos marcos de Deep Learning: Torch y Caffe. Por otro lado, Google también está apoyando al Keras altamente exitoso, por lo que las cosas son al menos incluso entre Facebook y Google en ese frente.

Además de la “exageración” y el gran apoyo de las empresas a los proyectos de código abierto de aprendizaje automático, 2016 también ha visto una gran cantidad de aplicaciones de aprendizaje automático que eran casi inimaginables hace unos meses. Me impresionó especialmente la calidad de la generación de audio de Wavenet. Habiendo trabajado en problemas similares en el pasado, puedo apreciar esos resultados. También destacaría algunos de los resultados recientes en lectura de labios, una gran aplicación de reconocimiento de video que probablemente sea muy útil (y tal vez aterradora) en el futuro cercano. También debo mencionar los impresionantes avances de Google en la traducción automática. Es sorprendente ver cuánto ha mejorado esta área en un año.

De hecho, la traducción automática no es el único avance interesante que hemos visto en el aprendizaje automático para las tecnologías del lenguaje el año pasado. Creo que es muy interesante ver algunos de los enfoques recientes para combinar redes secuenciales profundas con información secundaria para producir modelos de lenguaje más ricos. En “Un modelo de lenguaje de conocimiento neuronal”, el equipo de Bengio combina gráficos de conocimiento con RNN, y en “Modelos contextuales LSTM para tareas PNL a gran escala”, la gente de Deepmind incorpora temas en el modelo LSTM. También hemos visto mucho trabajo interesante en el modelado de atención y memoria para modelos de lenguaje. Como ejemplo, recomendaría “Ask Me Anything: Dynamic Memory Networks for NLP”, presentado en el ICML de este año.

Además, al menos debería mencionar un par de cosas de NIPS 2016 en Barcelona. Desafortunadamente, tuve que perder la conferencia la única vez que sucedía en mi ciudad natal. Sin embargo, seguí desde la distancia. Y de lo que reuní, los dos temas más candentes fueron probablemente Redes Adversarias Generativas (incluido el tutorial muy popular de Ian Goodfellow) y la combinación de modelos probabilísticos con Deep Learning.

Permítanme mencionar también algunos de los avances en mi área principal de especialización: Sistemas de recomendación. Por supuesto, el aprendizaje profundo también ha impactado esta área. Si bien todavía no recomendaría DL como el enfoque predeterminado para los sistemas de recomendación, es interesante ver cómo ya se está utilizando en la práctica y en gran escala por productos como YouTube. Dicho esto, ha habido investigaciones interesantes en el área que no están relacionadas con el aprendizaje profundo. El mejor premio en papel en el ACM Recsys de este año fue para “Modelos locales de ítem-ítem para la recomendación Top-N”, una extensión interesante de los métodos lineales dispersos (es decir, SLIM) usando un paso de agrupación inicial sin supervisión. Además, “Máquinas de factorización de campo para la predicción de CTR”, que describe el enfoque ganador para el Desafío de Kaggle de predicción CTR de Criteo es un buen recordatorio de que las Máquinas de factorización siguen siendo una buena herramienta para tener en su kit de herramientas de ML.

Probablemente podría continuar con varios otros párrafos simplemente enumerando avances impactantes en el aprendizaje automático en los últimos 12 meses. Tenga en cuenta que ni siquiera he enumerado ninguno de los avances relacionados con el reconocimiento de imágenes o el aprendizaje de refuerzo profundo, o aplicaciones obvias como automóviles sin conductor, bots de chat o juegos, que todos vieron grandes avances en 2016. Sin mencionar todos la controversia sobre cómo el aprendizaje automático está teniendo o podría tener efectos negativos en la sociedad y el aumento de las discusiones sobre el sesgo algorítmico y la equidad.

Editar:

Antes de que me llamen sobre esto, también debo mencionar que la mayoría de estos avances probablemente fueron publicados por Schmidhuber hace años. Pero, oye, ¡al menos apareció en el New York Times este año!

Bien, esto no fue 2016, fue a fines de 2015 (noviembre), pero creo que es igual de importante.

Tensorflow se volvió de código abierto. Tf es el sistema de aprendizaje automático que alimenta gran parte de (si no todos) los sistemas ML de Google. Cuando se hicieron de código abierto el 5 de noviembre de 2015, millones de aspirantes a científicos de datos obtuvieron acceso a una herramienta tan poderosa para el aprendizaje profundo.

En mi humilde opinión, este fue el más significativo, porque el repositorio ahora se encuentra entre los 20 repositorios más destacados en Github con más de 40,000 estrellas y 18,700 solicitudes de extracción. El hecho de que una utilidad tan sorprendente que está detrás de una de las características del mundo de la inteligencia artificial y el aprendizaje automático ahora está disponible públicamente es un gran avance.

Hay una ola de inteligencia artificial en varias industrias, especialmente en electrónica de consumo y atención médica. Es probable que la ola continúe en los años venideros con la creciente base de aplicaciones de la tecnología. Se espera que el mercado global de inteligencia artificial sea testigo de un crecimiento fenomenal en los próximos años a medida que las organizaciones de todo el mundo hayan comenzado a capitalizar los beneficios de estas tecnologías disruptivas para el posicionamiento efectivo de sus ofertas y el alcance del cliente. Además, aumenta el gasto de las empresas en todo el mundo para obtener mejores avances en sus servicios y productos.

Obtenga más detalles sobre la inteligencia artificial

El mercado global de inteligencia artificial sobre los tipos de sistemas de inteligencia artificial en redes neuronales artificiales, sistemas de asistencia digital, sistemas integrados, sistemas expertos y sistemas robóticos automatizados. Por aplicación, el mercado se ha clasificado en aprendizaje profundo, robots inteligentes, reconocimiento de imágenes, asistente personal digital, método de consulta, procesamiento de lenguaje, control de gestos, análisis de video, reconocimiento de voz, procesamiento sensible al contexto y seguridad cibernética. Por lo tanto, el informe proporciona un análisis exhaustivo de segmentos cruzados para el mercado de inteligencia artificial y lo clasifica en varios niveles, proporcionando así información valiosa a nivel macro y micro.

Machine Learning / Artificial Learning está de moda en el mundo tecnológico actual. Ha alcanzado un nuevo hito.

Leí un artículo en el periódico THE TIMES OF INDIA dos días antes, es decir, el 2 de febrero de 2017, sobre un programa de IA recientemente desarrollado. Me sorprendió mucho lo que pudo hacer.

Déjame darte una breve descripción sobre este programa de IA.

El programa AI se llama LIBRATUS . Está desarrollado por investigadores de la Universidad Cargnegie Mellon.

Poder de LIBRATUS: – Libratus fue capaz de vencer a cuatro jugadores profesionales en un torneo de póker que duró 20 días.

Los cuatro jugadores profesionales incluso compartían notas entre ellos mientras el juego avanzaba para exponer las debilidades de Libratus, pero la inteligencia artificial se hizo más fuerte a medida que avanzaba el torneo. La estrategia de aprendizaje que utilizaba este programa de IA es totalmente diferente del aprendizaje utilizado en los últimos días. Libratus solía mejorar a diario al final del día y estas fueron sus principales características que lo hicieron vencer a esos cuatro jugadores profesionales de póker.

Adjunto la foto del artículo a continuación. Léelo Usted también se sorprenderá después de leer.

Creo que este programa de IA explica claramente los avances realizados en ML / AI.

La Inteligencia Artificial en la Industria Minorista es una tecnología que recopila datos y procesa mediante el uso de algoritmos y luego proporciona un modelo a través del cual pueden obtener información útil y valiosa que luego se puede utilizar para tomar decisiones relacionadas con el cliente y almacenar relacionadas, como decisiones operativas, logística, más productividad, etc. El principal impulsor de este mercado es que los minoristas pueden conocer los requisitos y necesidades del cliente cuando vinculan los datos con la productividad real. También se describe en la creación de estrategias relacionadas con el monitoreo, la productividad, una mejor relación con el cliente y muchos más.

Obtenga un folleto en PDF gratuito para obtener más innovación profesional y nueva, asesoramiento sobre inteligencia artificial en la industria minorista. Información técnica de la industria: http://bit.ly/2z6tT82

AlphaGo, búsqueda de arco neural a través de RL, aprender a jugar en un día, wavenet, pixelCNN / RNN, Plug and Play Generative Networks, StackGAN viene a la mente de inmediato. Estoy seguro de que me perdí algunos, así que espero que otros puedan completarlo.

Hola amigos, soy Abhijit, un entusiasta de la ciencia de datos y el aprendizaje automático.

Estoy trabajando en una idea, realmente me encanta compartir mi conocimiento, para ayudar a que florezca el nuevo. Por profesión,

Soy analista de datos. También tengo un canal de YouTube: ” ANALYTICS MANTRA “, dedicado a todos los aprendizajes y tutoriales sobre ciencia de datos.

Vaya al canal. Si le gustan los videos, no olvide SUSCRIBIRSE

Deep Belief Networks realmente despegó en 2016. Ha pasado de ser difícil aplicarlos en la práctica a múltiples bibliotecas gratuitas con tutoriales, lo que lo hace extremadamente fácil.

Por ejemplo, TensorFlow se lanzó técnicamente a fines de 2015, pero ha mejorado significativamente a lo largo de 2016. También OpenAI lanzó recientemente Universe.

En 2016, el principal avance en inteligencia artificial fue, con mucho, el éxito de AlphaGo, que demostró el poder de integrar métodos de IA estrechos.

More Interesting

¿Cómo hago un robot?

¿Cuál es la mejor arquitectura de red neuronal para la clasificación de etiquetas múltiples?

¿Cuál es la diferencia entre ciencia de datos, aprendizaje automático, aprendizaje profundo e inteligencia artificial?

¿Dónde puedo recibir correos electrónicos o algo similar sobre nuevas ideas, inventos o artículos recientes publicados sobre temas como la IA?

¿Por qué Mark requirió construir jarvis?

¿Dónde está el mejor lugar para comenzar a investigar el aprendizaje automático en inteligencia artificial?

¿Los salarios mínimos / de vida perjudican a los trabajadores debido a la mayor mecanización y automatización?

¿Cómo puede Machine / Deep Learning satisfacer las necesidades de las empresas / mercado?

¿Cuáles son las ventajas y desventajas de usar una gran red neuronal para realizar una regresión multivariada en comparación con los OLS normales?

¿Cómo se relacionan los modelos gráficos probabilísticos (PGM) con el aprendizaje automático?

¿El proceso burocrático está reemplazando gradualmente a la comunidad para que nos quedemos simplemente con trabajos y roles en una vasta burocracia de máquinas?

¿Qué son los agentes en la IA?

¿Cuál es la historia de Cortana dentro del universo Halo? ¿Por qué es ella mucho más significativa que la otra IA?

Reconocimiento de voz: ¿algunos idiomas hablados son más fáciles de reconocer por una máquina?

¿Qué distingue a las llamadas 'redes neuronales profundas' de las redes neuronales de antaño? ¿Por qué están mucho mejor ahora?