El aprendizaje automático tiene muchas aplicaciones. Por lo tanto, realmente depende de lo que llames “interesante”, que es subjetivo. Como los intereses varían de persona a persona, y como no tengo idea de lo que le interesa, simplemente enumeraré algunas aplicaciones típicas.
– detectar fraudes en bancos
– identificar qué consumidores tienen más probabilidades de responder favorablemente a: correo directo, ofertas de Groupon, anuncios de Facebook
– negociación de acciones y derivados
– fijación de precios de las primas de seguro (Google financió recientemente una startup que ayuda a las compañías de seguros de desastres naturales a determinar los precios en función de los patrones climáticos debido al calentamiento global)
– identificación de genes humanos que hacen que las personas sean más propensas a desarrollar cáncer
– predicción de precios de vivienda para empresas inmobiliarias
– predicción de las calificaciones de cata de vinos
– lectura programática de texto de una fotografía aleatoria
– reconocer caras mediante programación
– coches autónomos y autónomos
– software antivirus (inspección de paquetes)
– diagnóstico de mantenimiento de fábrica
– vuelos aéreos retrasados
– Determinar qué votantes sondear durante una elección
– desarrollo de fármacos (química combinatoria)
– predicción de gustos musicales (Pandora)
– predicción de gustos en películas / espectáculos (Netflix)
– motores de búsqueda (Google)
– predicción de intereses (Facebook)
– prediciendo otros libros que te pueden gustar (Amazon)
Puede aplicar el aprendizaje automático a casi cualquier cosa. Todo lo anterior son problemas reales cuyas soluciones las personas / empresas ya están pagando.
- ¿Qué tan bueno es el ADVI en STAN en la práctica?
- ¿Cuáles son las definiciones de entrada, salida y destino en el aprendizaje automático?
- ¿Los matemáticos trabajan en problemas que surgen de la inteligencia artificial (teórica) y el aprendizaje automático?
- Las redes neuronales se han vuelto muy populares en los últimos años, sin embargo, gran parte de la teoría se desarrolló hace 20 años. ¿Qué avances explican los éxitos recientes?
- Los algoritmos de ML escritos en Java funcionan bien para un conjunto de datos más pequeño. Para un conjunto de datos grande, ¿cómo podemos escalar estos algoritmos? ¿Necesitamos buscar algoritmos distribuidos / mapas distribuidos en memoria / NOSQL / archivos para leer y escribir grandes conjuntos de datos o hay alguna buena API?