¿Cuál es la motivación de Google para el código abierto del modelo de TensorFlow para problemas ML / NLP como el resumen automático de texto?

Además de lo que Dave Orr ha mencionado sobre el avance del estado del arte; Google es un negocio, por lo que sus acciones deben tener sentido estratégico. Algunos ejemplos de cuán importante es el factor comercial en la toma de decisiones de Google son evidentes en cómo en el último mes reemplazaron el liderazgo del proyecto de automóviles autónomos con la esperanza de hacerlo un negocio más viable y también reducir su personal en Google Fiber.

Para ver las cosas desde una perspectiva estratégica, una decisión debe pensar en el ROI: ¿cuál es el beneficio frente al costo / riesgo para sus negocios actuales y futuros?

En este momento, el aprendizaje automático, el lenguaje natural y el talento para el aprendizaje profundo son raros y muy deseables, especialmente para Google que quiere “organizar la información del mundo”. Por lo tanto, un beneficio para el abastecimiento abierto de esta tecnología es que Google puede obtener una gran cantidad de talentos valiosos que contribuyen a su tecnología y también aumentan su diseño para unirse a Google. Tener el mejor talento de PNL y aprendizaje profundo es increíblemente valioso en este momento. También creo que los juegos de herramientas tienen efectos de red: cuanto más personas usen un juego de herramientas en particular, más escribirán sobre él y compartirán en la web, lo que facilitará el uso de otros.

El segundo beneficio es que Google está tratando de crear otro negocio lucrativo más allá de la búsqueda y necesitan una propuesta de valor diferenciada para una de sus apuestas clave: Google Cloud. Estoy seguro de que Google espera que el aprendizaje profundo con TensorFlow pueda ser una de esas características asesinas.

En términos de riesgos, el código abierto puede ser una mala idea si alguien puede usar su tecnología en su contra. Sin embargo, como Borislav Agapiev mencionó, Google tiene algunas barreras importantes para ingresar a sus productos, como su recopilación de datos de uso de búsqueda que protegen búsqueda, datos de uso de correo electrónico que protegen gmail, datos de uso móvil que protegen Android, etc., y como sabemos, los datos son cruciales para aprendizaje. Por lo tanto, incluso si una empresa tuviera exactamente la misma tecnología de plataforma que Google, los negocios actuales de Gogole tienen grandes reservas en sus activos de datos que los protegen.

En resumen: los modelos de fuente abierta TensorFlow y PNL empujan los límites en un espacio difícil, inspira a las mejores personas a unirse o contribuir a su misión, y crea una propuesta de valor potencialmente diferenciada para su negocio en la nube emergente con poco inconveniente o riesgo debido a Los fosos de Google en los datos.

Estas son ideas similares a por qué nosotros (Microsoft) abrimos nuestro CNTK de herramientas de aprendizaje profundo hace un par de años.

Jeff resumió muy bien por qué Google tensorFlow de fuente abierta se encuentra bastante bien en un artículo de Wired que discute el lanzamiento:

“Lo que esperamos es que la comunidad adopte esto como una buena forma de expresar algoritmos de aprendizaje automático de muchos tipos diferentes, y también contribuye a construir y mejorar [TensorFlow] de muchas maneras diferentes e interesantes”, dice Jeff Dean, uno de los ingenieros más importantes de Google y un jugador clave en el auge de su tecnología de aprendizaje profundo.

Eso es realmente: Google quiere ayudar a la comunidad de ML a moverse más rápido y mejorar el estado del arte. Finalmente, esa tecnología ayudará a mejorar las experiencias de los usuarios de Google. Y TensorFlow en sí mismo puede mejorar con el tiempo a medida que más personas aporten ideas o códigos.

Pero eso solo sucede si hay una comunidad, y un ecosistema, construido alrededor de TensorFlow. La forma más fácil de hacerlo es asegurarse de que sucedan muchas cosas y de que se estén trabajando en problemas interesantes. Este es uno de ellos.

Pero hay otra razón, que es que el resumen de texto es un problema muy difícil que tendría un montón de aplicaciones si solo pudiéramos hacerlo bien. Mejorar las técnicas de resumen podría tener beneficios significativos para los usuarios de Google y para todos los demás, por lo que nuevamente, lograr que la mayor cantidad de personas lo utilicen es para beneficio de todos.

Es por eso que Google abre las fuentes de estas cosas. Para ayudar a avanzar en el estado de las soluciones a problemas difíciles, para ayudar a sus usuarios y para ayudar a construir una comunidad alrededor de TensorFlow.

Esta es una gran pregunta y gran parte de la respuesta se da en las palabras ahora inmortales de Steve Ballmer: “desarrolladores, desarrolladores, desarrolladores …”.

Google ve a Deep Learning como una tecnología emergente estratégica de gran importancia y tienen la sensación de que están (muy) por delante del resto del grupo. Quieren capturar la participación mental de los investigadores y desarrolladores de aprendizaje profundo al lanzar una plataforma de código abierto para crear aplicaciones de aprendizaje profundo.

Se diferencian de Microsoft en el código abierto, pero el objetivo final es similar: convertirse en la plataforma o en un sistema operativo de aprendizaje profundo, si lo desea. A ese respecto, a Google le gustaría mucho ser como Linux, a diferencia de Microsoft y Windows.

No quieren cobrar a sus usuarios, sino que quieren promover y estimular el aprendizaje profundo, donde sienten que tienen y continuarán teniendo una gran ventaja sobre los demás.

Obviamente, Facebook y Apple comienzan a diferir, y es por eso que también han estado adquiriendo nuevas empresas de aprendizaje profundo.

Una gran parte de por qué Google cree que están adelante es la inmensa escala de sus datos, básicamente billones (!) De páginas web y montañas de datos de usuarios recopilados a lo largo de los años.

Facebook tiene una gran escala, pero no como Google, por ejemplo, el gráfico social de Facebook tiene miles de millones de nodos con decenas de miles de millones de bordes. Además de eso, obtienen un flujo constante de nuevas publicaciones, por una suma de alrededor de 100 millones por día. Pero todo eso no está a escala de Google, por un orden o dos de magnitud.

Sin embargo, es una pregunta abierta si estos enormes conjuntos de datos son un verdadero cambio de juego. Han demostrado estar en aplicaciones como la traducción automática, pero está menos claro si ese seguirá siendo el caso para otros ejemplos.

Por ejemplo, algo como el propio word2vec de Google realmente no necesita billones de oraciones, miles de millones funcionarán bien y uno obtendrá rendimientos decrecientes más allá de eso. Por supuesto, word2vec es bastante simple en comparación con el estado del arte en 2016 y el objetivo final de la IA, pero la cuestión de una aplicación asesina que eclipsa a todas las demás debido a la escala de datos aún está muy abierta.