En los próximos 10 años, el aprendizaje automático será el elemento más importante no solo de Google y Facebook, sino de casi todas las empresas tecnológicas y no tecnológicas. El poder que libera esta tecnología cambiará la estructura de cada negocio de una manera más significativa que la computadora misma hasta este punto.
Máquina de enseñanza de la máquina
Fue el pionero de la IA Arthur Lee Samuel en 1959 quien definió lo que hoy se conoce como Aprendizaje automático hoy en día: “Un campo de estudio que brinda a las computadoras la capacidad de aprender sin ser programado explícitamente” [1]. Machine Learning es un subconjunto de Inteligencia Artificial, un término de categoría amplia. La base del aprendizaje automático es utilizar los datos necesarios para que una máquina aprenda y se adapte cuando se expone a nuevos datos, una máquina de autoaprendizaje / aprendizaje.
Un sistema fundamental de Machine Learning puede funcionar con datos extraídos y, por lo tanto, crea un nuevo algoritmo y luego actualiza los algoritmos actuales en consecuencia para “aprender” una nueva tarea que se derivó al funcionar en los conjuntos de datos.
Existen diferencias notables entre Machine Intelligence vs. Machine Learning vs. Deep Learning vs. Inteligencia artificial vs. Neural Networks vs. X, sin embargo, para esta presentación generalizaremos sobre Machine Learning y asumiremos que todo lo demás está conectado.
El progreso de la IA y el aprendizaje automático ha sido constante pero lento en los últimos cincuenta años. El ritmo en los últimos cinco años ha sido más rápido que la totalidad de los últimos cincuenta años combinados. Hay muchas razones convergentes para esta aceleración, incluida la Ley de Moore [2] y la gran cantidad de datos que las empresas tecnológicas han cumplido, especialmente en los últimos 10 años. Para funcionar sobre estos datos de una manera racional, sacar conclusiones y actuar sobre estas conclusiones, la tarea ha crecido incluso en las empresas más grandes. En pocas palabras, incluso equipos muy grandes de ingenieros y científicos de datos que trabajan con las mejores herramientas de bases de datos no pueden funcionar completa y eficientemente en el flujo de datos sin alguna forma de Machine Learning en la actualidad.
Google siempre ha utilizado alguna forma de Machine Learning, incluso en sus primeros años comenzaron a implementar sistemas tempranos. Facebook también comenzó a usar Machine Learning en los primeros años. Ambas compañías han hecho grandes compromisos financieros para avanzar las herramientas disponibles interna y externamente. Ambas compañías han lanzado herramientas y marcos de fuente abierta para el desarrollo de semillas, estimular la innovación y tal vez encontrar empresas creativas y el talento que tienen.
Hay bastantes sistemas de aprendizaje automático disponibles hoy en día, incluidos Torch, Caffe y Theano. Tanto Google como Facebook usan o han usado estas herramientas / sistemas de forma independiente y combinados con sistemas desarrollados internamente.
Toda la comunidad de IA ha sido ampliamente una comunidad abierta y académica. Ha habido un espíritu de intercambio y apoyo mutuo. Es algo difícil tener límites claros sobre qué compañía podría, incluso si quisiera, afirmar ser la única fuente de innovación. Ha sido un esfuerzo grupal masivo.
Las comparaciones entre Google y Facebook en esta presentación no son realmente una situación de ganador o no. Ambas compañías son grandes contribuyentes a las comunidades de código abierto y abordan los mismos desafíos programáticos de diferentes maneras y, por lo tanto, las herramientas que desarrollan y usan difieren en el grado de cómo se usan y quizás por qué se desarrollaron en primer lugar.
Google TensorFlow
El trabajo inicial de Google Machine Learning comenzó con DistBelief [3], este fue un desarrollo del proyecto Google Brain [4] iniciado en 2011 como una colaboración de Deep Learning con la Universidad de Stanford. Se hicieron grandes avances con este proyecto académicamente apoyado. Durante más de cuatro años, Google realizó bastantes avances y el proyecto se convirtió en TensorFlow [5]. El 9 de noviembre de 2015, Google lanzó TensorFlow.
Hoy, TensorFlow es utilizado por cincuenta equipos de productos en Google, incluidos los vehículos de reconocimiento de voz, Gmail, Google Photos, búsqueda y conducción autónoma. Desde la apertura del producto, cientos de empresas lo han adoptado. El poder de las herramientas de TensorFlow es que se centra en una plataforma colaborativa que permite un desarrollo interactivo y rápido.
Al igual que Android, con TensorGlow Google está sembrando el mundo del desarrollo con herramientas muy ricas y poderosas que cuestan millones para probar, diseñar, desarrollar y construir. Según muchos estándares, TensorFlow es quizás una de las herramientas de Machine Learning más avanzadas y modernas disponibles en la actualidad.
Facebook AI Research (FAIR)
Facebook ha sido un gran defensor del aprendizaje automático y muy temprano en su historia se basó en gran medida en Torch [6], una biblioteca / framework / lenguaje de scripts de código abierto para aprendizaje automático. Facebook ha contribuido bastante a los repositorios de Torch a lo largo de los años. Facebook AI se encuentra bajo el paraguas de la investigación de Facebook, un grupo que abarca el Aprendizaje automático aplicado a través de la Investigación de la experiencia del usuario.
El equipo FAIR ha estado activo en Facebook durante aproximadamente 5 años y ha trabajado para integrar Machine Learning en todos los aspectos de Facebook. Desde el análisis de oportunidades publicitarias hasta el etiquetado de personas mediante el reconocimiento fiscal, Facebook ha estado utilizando estas herramientas con éxito durante bastante tiempo.
El 17 de enero de 2015, Facebook anunció que lanzaría todos sus módulos optimizados para Torch al dominio público. Facebook ha invertido una considerable cantidad de tiempo creando, modificando y ampliando muchos aspectos de Torch. Se puede decir que Facebook casi rehizo Torch en mayor grado. Facebook también abrió una especificación de hardware de computadora llamada Big Sur. Big Sur se basa en la GPU Nvidia Tesla M40 y puede admitir hasta ocho tarjetas Nvidia Tesla M40. Cada tarjeta Nvidia Telsa M40 tiene 3072 núcleos y 12 GB de memoria. Estas se conocen como tarjetas GPU (Unidad de procesamiento gráfico) y están diseñadas principalmente para representar gráficos de juegos de alta resolución. Sin embargo, también sirven como una especie de supercomputadora de los pobres. Estos GPUS son muy potentes y efectivos en aplicaciones de problemas de procesamiento paralelo como el aprendizaje automático.
Hardware de Big Sur Machine Learning de Facebook.
La trayectoria de código abierto levanta todos los barcos en el puerto
Facebook y Google y casi cualquier empresa, como mencioné anteriormente, necesitarán adoptar Machine Learning en algún momento en los próximos 10 años. La adopción de Machine Learning será una característica definitoria de una empresa exitosa. Al igual que en el pasado, cuando las empresas comenzaron a adoptar computadoras y reemplazar los procesos manuales.
Tanto Facebook como Google están en una trayectoria similar y ambas compañías han adoptado y extendido a toda la comunidad de Machine Learning al sembrar herramientas de código abierto muy potentes. Este ethos fomenta un ecosistema rico y diverso. No hay absolutamente ninguna duda de que ambas compañías están en un curso competitivo, pero se encuentran en un terreno común al apoyar mutuamente a toda la comunidad de IA en el proceso.
[1] Arthur Samuel
[2] Ley de Moore
[3] TensorFlow
[4] Google Brain
[5] http://www.tensorflow.org
[6] Antorcha (aprendizaje automático)