¿Google acelera el lanzamiento de la investigación de aprendizaje profundo?

Google tiene una fuerte presencia en conferencias para aprendizaje automático y visión por computadora y contribuye activamente con publicaciones, talleres y tutoriales.
Ejemplo: investigación de Google Computer Vision en CVPR 2015. Esta publicación de blog destaca las contribuciones de Google en CVPR 2015 en Boston.

Es posible que el producto de Google utilice técnicas e ideas que no publicará de inmediato. Es difícil creerlo cuando sus contribuciones están en línea con la investigación contemporánea. Puede evaluar esto mirando lo que sus documentos revelan como contribuciones novedosas y lo que se cita por el trabajo realizado fuera de Google, especialmente cuando las citas son de trabajo contemporáneo. Sería extraño cuando la idea de la novela es realmente algo en lo que estuvieron sentados durante más de 2 años, sin embargo, se basa en otra cosa que se publicó hace solo unos meses.
Google ciertamente tiene la capacidad de acelerar la investigación de aprendizaje profundo al aprovechar sus recursos y experimentar con un alto rendimiento. Una contribución suya podría ser simplemente su capacidad de probar algo que nadie más puede, porque tienen los recursos necesarios. Un ejemplo sería cuando salió GoogLeNet. Un aspecto importante de este modelo es la profundidad de esta red. No es que los investigadores de Google fueron los primeros en pensar que pueden construir redes más profundas, sino que tenían los recursos para demostrar lo que sucedería si lo hicieras.

Documento de GoogLeNet: [1409.4842] Profundizando en convoluciones

Resulta que una vez que le pagan dinero real para investigar, el prestigio y el reconocimiento que conlleva la publicación se vuelven menos importantes. En la academia, publicar su investigación es de suma importancia: es la moneda por la cual se juzga su carrera. En la industria, recibes dinero directamente.

Dado eso y combinado con las montañas de otros trabajos involucrados en el trabajo, la dilación se convierte en el principal determinante de qué tan pronto después del lanzamiento interno un autor (o grupo de autores, que agrega más complejidad y factores de retraso inocuos) termina publicando.

No.

La investigación de aprendizaje automático es un secreto comercial, por lo que es posible que no se lance durante años, si es que alguna vez.

De hecho, no estoy de acuerdo con Jeff Nelson y estoy más de acuerdo con la respuesta anónima. El material básico de aprendizaje profundo se publica (no siempre con gran detalle) y algunas figuras importantes de las redes profundas trabajan en Google y continúan avanzando. Dicho esto, como señala Anonymous, a veces construir cosas interesantes tiene prioridad sobre la publicación. Creo que los cerebros (con quienes estoy muy impresionado) podrían estar publicando más de lo que lo hacen actualmente. No estoy en ese equipo, así que no puedo decir si se les impide hacerlo porque es un secreto comercial, pero mi impresión es que esa no es la razón.
Creo que Google no está en peligro de que otras personas usen las ideas secretas de Google, porque las otras personas no tienen los datos, las herramientas y, lo que es más importante, las personas que Google tiene, por lo que no pueden usar esas ideas tan impactantes en la mayoría de los casos.

More Interesting

¿Cuáles fueron los temas candentes en el aprendizaje automático en 2014?

¿Es posible perseguir varios temas en informática, de manera efectiva al mismo tiempo? ¿Cómo?

¿Cuáles son los temas de investigación más importantes en el complejo campo de big data?

¿Cuán "ciegos" son los revisores de conferencias académicas? ¿Pueden los profesores y / o estudiantes de posgrado a menudo reconocer a los autores del trabajo, a pesar de que las revisiones son técnicamente "ciegas"?

Ciencias de la Computación: ¿Cuán competitivo es el premio al mejor trabajo estudiantil en SODA?

¿Cuáles son algunos temas de investigación realmente candentes en algoritmos y teoría de la complejidad?

¿Qué hacen los investigadores de seguridad informática?

¿Qué es el hamming-incrustado? ¿Cómo mejora el modelo BoF?

¿Cuál es el algoritmo de reconocimiento facial más simple? ¿Por qué y cómo lo usas?

¿Qué tan difícil es hacer la transición de la industria al profesor titular?

Visión por computadora: ¿Por qué los mejores artículos rara vez son los más citados?

¿Cuál es la diferencia entre la declaración de variables y la inicialización?

¿La Facultad de Ingeniería Poonjar está produciendo ingenieros informáticos de clase mundial?

Presenté mi trabajo en una conferencia de CS superior hace 8 meses. Fue bien recibido, pero nadie lo cita. ¿Qué puedo hacer para que más personas citen mi trabajo? ¿Hay algo que pueda hacer para aumentar la visibilidad del documento y obtener más citas?

¿Qué herramientas basadas en IA están disponibles para la investigación científica y las revisiones de literatura?