La informática se basa en algoritmos, y un algoritmo es una secuencia finita de instrucciones inequívocas que, cuando se le dan todas las entradas necesarias, produce el resultado correcto y se detiene.
Eso es genial, pero ¿qué pasa si no puede pensar en un algoritmo para dar la respuesta correcta? Por ejemplo, si quiero calcular el factorial de un número, comienzo con el número y lo multiplico por uno menos que él mismo hasta llegar a 0, pero ¿cómo escribo un algoritmo para decirme: “esta es una imagen de ¿Joshua Gross parado frente a un cañón ”(mi foto de perfil actual)? No hay una forma directa de escribir ese algoritmo. Sabemos cómo los humanos calculan los factoriales (es como arriba), pero no sabemos cómo los humanos detectan individuos y cañones en las fotografías.
ML nos permite utilizar la potencia computacional masiva para hacer una gran cantidad de comparaciones. Si desenrolla un modelo de detección de imágenes, lo que está haciendo es comparar una imagen dada con cada imagen etiquetada (o conjunto de características de imagen) que ha visto e identificar cuáles son las más similares. Por supuesto, tales comparaciones de imagen a imagen no son directamente posibles, por lo que el modelo presenta una representación de cada imagen etiquetada que ha visto (junto con las etiquetas).
- ¿Qué es el LSTM?
- ¿Aprender Python en lugar de C ++ es una buena introducción a los lenguajes de programación en medio de la teoría CS / AI?
- Cómo calcular la similitud de coseno
- ¿Es posible utilizar el aprendizaje automático en la votación para que podamos incluir las razones de los votantes en lugar de sí / no?
- Dado lo éticamente y empáticamente incompetentes que son los humanos, ¿cuándo comenzaremos a entrenar el aprendizaje automático en grandes conjuntos de datos de decisiones éticas?
Si tiene una gran cantidad de datos inconsistentes y desea clasificar o cuantificar esos datos, entonces ML tiene sentido. ¿Qué es grande? No es simple, pero ML trata mejor con más datos (dentro de un límite), y ciertamente la norma está en megabytes si tratamos con datos textuales o numéricos (verdaderos), y puede escalar a terabytes, y si estamos hablando sobre los medios, en petabytes. En cuanto a lo inconsistente, si un humano puede revisar los datos y formar un algoritmo o un modelo estadístico altamente preciso, entonces no necesita ML.
Para mi maestría, utilicé ML (algoritmo genético) sin supervisión para permitir que un robot encontrara una solución a un laberinto. Fue interesante y divertido, pero no fue realmente una aplicación práctica (aunque algún día podría pensar en una aplicación). Para mi doctorado, escribí un clasificador para agrupar las direcciones de correo electrónico concurrentes para dar a las personas “filtros sociales” (es decir, grupos que podrían etiquetar como “familia”, “amigos”, “colegas”, “equipo de boliche”). Esta no era la tesis en sí, pero parecía útil. No sé si se usaría en la práctica, pero se usan cosas similares (por ejemplo, nombres sugeridos en gmail), y estos se basan en el mismo principio.
Quizás el ejemplo canónico actual es el de autos sin conductor. Necesitamos construir modelos que integren cantidades masivas de datos y actúen sobre ellos. No hay un algoritmo para conducir en primer lugar, y la fusión de sensores en esta escala y en tiempo real está resultando ser un gran desafío. Veremos dónde estamos en dos años más o menos.