¿Cuáles son algunas de las aplicaciones más creativas de inteligencia artificial / aprendizaje automático?

Lectura de la mente:

Bueno, no tengo una referencia aquí sobre qué tipo de aplicación clasifica como creativa, sin embargo, pensé que tomaría una oportunidad para responder.

He tenido el honor de trabajar en el grupo del profesor Tom Mitchell en el departamento de aprendizaje automático de CMU. Aunque ha habido muchos otros estudiantes que han trabajado mucho más en esto, no sabía cuántos de ellos estaban activos en Quora. Entonces aquí va:

El Prof. Mitchell y su colaborador (Prof. Marcel Just) comenzaron este trabajo hace unos años. Entonces, como breve reseña, las imágenes cerebrales siempre han sido muy interesantes para la neurociencia. Con herramientas como fMRI, EEG, MEG, puede mirar directa o indirectamente la respuesta de los circuitos locales dentro del cerebro. A pesar de que cada método tiene sus propias desventajas con las que lidiar (MEG es la herramienta más reciente y actual), proporcionan una imagen aproximada de lo que está sucediendo en diferentes partes del cerebro cuando se proporcionan diferentes tipos de estímulos al sujeto (El chico del escáner). Entonces, durante mucho tiempo, los neurocientíficos simplemente tuvieron que usar sus propias cabezas para averiguar mirando toneladas de datos, qué partes del cerebro estaban realmente involucradas o mostraban correlación (está más relacionada) con un estímulo. Esto condujo al desarrollo de muchas teorías de procesamiento visual, del lenguaje, de tareas cognitivas, entre otros dominios basados ​​en datos de EEG, fMRI de lectura humana. No me malinterpreten, las herramientas de visualización y procesamiento de datos fMRI, EEG se han desarrollado bastante bien para hacer frente al aluvión de datos de neuroimagen. Sin embargo, la conclusión es que es un problema de comprender qué partes del cerebro o qué circuitos neuronales locales (estos métodos no pueden observar células individuales) están más correlacionados con los estímulos de entrada. Aunque el procesamiento manual y la visualización de datos se consideran efectivos (era la única forma hasta hace poco), es algo difícil saber qué parte de la actividad cerebral parece ayudar a explicar los estímulos. Un tipo que está interesado en el aprendizaje automático ahora comenzaría a ver hacia dónde se dirigían.

Entonces, finalmente en la aplicación real, el grupo del profesor Mitchell utilizó el aprendizaje automático para aprender las respuestas cerebrales para un conjunto de imágenes de dichos animales y herramientas. Le mostraron al sujeto (otra vez en el escáner) una secuencia de imágenes simples de animales y otro conjunto de imágenes de herramientas y les pidieron que las clasificaran (presione un botón si ven un animal y otro si ven una herramienta). Utilizaron el aprendizaje automático para aprender qué tipo de actividad cerebral se ve cuando el sujeto ve un animal o una herramienta. Además, las técnicas de aprendizaje automático (regresión logística regularizada L2 para entusiastas de ML) nos permiten aprender la diferencia entre la actividad cerebral generada debido a las imágenes de animales versus las imágenes de herramientas.

Por lo tanto, en efecto, dada una imagen nueva o nueva de cualquier animal o cualquier herramienta, no solo puede predecir qué tipo de imagen está viendo la persona (animal, herramienta o cualquier otro tipo), sino que también puede predecir su actividad cerebral (usaron regresión lineal para predecir la actividad cerebral) o, para decirlo de manera muy concisa, puede leer sus mentes hasta cierto punto. Además, lo que encontraron fue sorprendente, realizaron estos experimentos con muchas personas y descubrieron que la representación cerebral de diferentes conceptos (por ejemplo, animales y herramientas) en diferentes personas es más o menos muy similar. Por lo tanto, dada la experiencia muy diferente de una persona en el transcurso de su vida, él / ella aprende representaciones muy similares en sus cabezas. Piense en todas las preguntas que plantea este hallazgo (qué pasa con el lenguaje y la representación de cosas en diferentes idiomas, qué pasa con aprender a diferenciar entre conceptos más abstractos como cálculo vs álgebra, o investigue la representación de otros conceptos abstractos en mente como Dios, etc. ) Sé que me estoy adelantando aquí, pero la conclusión es que el aprendizaje automático en esta área no solo nos ha permitido verificar nuestras teorías anteriores de neurociencia, sino que también ha llevado a nuevos descubrimientos que habrían sido muy difíciles sin la intervención de la máquina.

Algunos recursos:

Página sobre Cmu
Otros documentos en la siguiente página son igualmente informativos sobre este trabajo:
Publicaciones seleccionadas por Tom Mitchell

¡Hablando de visión por computadora, la investigación interesante y creativa surge todo el tiempo en conferencias de primer nivel!
Aquí mencionaré un par de ellas que me llamaron la atención.


¿Qué hace que París se vea como París ?: Este artículo de SIGGraph 2012 de investigadores en CMU habla sobre la exploración de contenido visual de una manera completamente sin supervisión. Es una extensión de su trabajo anterior que buscó una forma de descubrir parches discriminativos en un conjunto de datos. De hecho, es interesante cómo pudo encontrar patrones arquitectónicos exclusivos de París, Londres, etc.


¿A quién me parezco? Determinación de las semejanzas entre padres e hijos a través de codificadores automáticos cerrados (página en ucf.edu): este artículo de CVPR 2014 intenta usar parches de imagen para descubrir la similitud entre un padre y su descendencia. ¡Tiene implicaciones antropológicas muy interesantes!


Modificación de la memorabilidad de las fotografías de rostros: (ICCV 2013) ¿Podemos hacer que un retrato sea más memorable o más olvidable automáticamente? Al igual que el método anterior, este artículo pide que trate de emular la percepción humana mediante el aprendizaje automático. ¡Los resultados son bastante buenos, OMI!

Esto es sólo la punta del iceberg.

Los teléfonos ya no son simplemente “inteligentes”, están equipados con todo lo que necesitamos para navegar por la vida moderna.

La Inteligencia Artificial (IA) con la que interactuamos todos los días está haciendo el movimiento para convertirse en un asistente personal confiable y de pleno derecho.

Conoce a Arbo … !!!

Arbo podría ser, lo que Jarvis es para Iron Man. Arbo está redefiniendo cuán inteligente es realmente su teléfono: desde el momento en que se despierta hasta que vuelve a dormir, su asistente artificial estará disponible para guiarlo durante el día.

Atrás quedarán los días en que olvidaremos nuestras reuniones matutinas, recordatorios de cumpleaños o para recoger nuestra limpieza en seco: Arbo está disponible para asegurarse de que las pequeñas cosas funcionen sin problemas, dejándote con espacio para afrontar lo cotidiano.

Problemas actuales que estamos tratando con nuestros teléfonos inteligentes ::

  • Carga lenta
  • corta duración de la batería
  • salida ineficiente
  • pantallas rotas,
  • y falta de almacenamiento

Todas estas características terminarán con la próxima generación de móviles … más que ser simplemente “inteligentes”.

La serie de teléfonos inteligentes Panasonic Eluga Ray nos trae el Asistente personal, Arbo , obsoleto en todos los problemas anteriores.

Esto analiza el comportamiento de los usuarios de acuerdo con la hora o la ubicación, y automáticamente muestra y hace sugerencias en nuestra pantalla, como

  1. Números telefónicos contactados frecuentemente
  2. Aplicaciones
  3. Wi-Fi, volumen y otras configuraciones
  4. Conexión con dispositivos IoT, dispositivos Bluetooth, etc.

¡Seamos aún más inteligentes …!

Creo que una de las aplicaciones más utilizadas de inteligencia artificial ha sido en el campo de la atención al cliente.

Con la ayuda de chatbots basados ​​en inteligencia artificial, los negocios ahora pueden proporcionar soporte al cliente 24 x 7 a sus clientes.

No solo chatbots, ya se están aplicando muchas más soluciones basadas en IA para proporcionar un soporte incomparable. Por ejemplo:

El sistema de gestión de tickets habilitado por IA ayuda a su centro de soporte al responder instantáneamente a las preguntas frecuentes planteadas a través de tickets, Tweets, publicaciones de Facebook, etc. Recupera todo el contenido de su empresa para responder a las consultas de sus clientes. Con los mismos datos, también responde a correos electrónicos masivos.

Puede encontrar más aplicaciones interesantes de IA en el artículo que escribí recientemente. Encuéntrelo aquí: ¡Cómo la inteligencia artificial está dando forma al futuro del soporte al cliente!

La inteligencia artificial es una palabra autoexplicativa que literalmente significa el sentido del pensamiento replicado en un dispositivo informático. Las habilidades incluyen percepción visual, reconocimiento de voz, toma de decisiones y traducción de idiomas.

¡Fuera de esto, doodleblue selecciona dos inventos interesantes de esta semana! – ¡Experimento Quickdraw de Google AI y asistente de chat que es tu cuidador personal!

EXPERIMENTOS DE AI: AI Experiment ha creado el último llamado QuickDraw with Google, que utiliza la tecnología de reconocimiento de escritura a mano utilizada en Google Translate. El juego solicita a los usuarios que dibujen imágenes específicas en 20 segundos con el mouse o la pantalla táctil y el juego continúa haciendo conjeturas. ¡Después de reproducir un conjunto de seis imágenes, proporciona información sobre sus dibujos y las conjeturas que proporcionaron otros usuarios!

Dado que este juego está aprendiendo de cada dibujo, el sistema evoluciona y se vuelve más inteligente con el tiempo en función de las redes neuronales de resultados de cada juego jugado por innumerables usuarios. La memoria nunca se alimenta previamente y obtiene información sobre el objeto a través de muchos resultados y esto está literalmente entrenando a la red neuronal para tomar estas conjeturas. AI Experiments también especifica la tecnología que utiliza para crear este experimento, en su sitio web.

¿LOS BOTS PERSONALES INTELIGENTES PUEDEN SENTIR CUANDO ESTÁ HAMBRIENTO, ENOJADO O AMBOS?

Más allá de hacerle saber dónde está un lugar en particular o cuáles son los horarios del programa para una película, su último asistente personal de robot puede sentir cuándo está molesto, estresado o cansado. El asistente de chat es una invención del ecosistema abierto de IA y esto, vinculado con varias tecnologías emergentes; Estos asistentes digitales se han vuelto más humanos.

Pero ahora, se conecta con el termostato, la balanza, los autos e incluso el brazalete en sus muñecas. Esta integración de Internet de las cosas y datos personales junto con conversaciones habladas hasta la fecha, los asistentes no han tenido acceso a nuestro horario diario, nuestros cuerpos, vidas o incluso algo tan complejo como nuestro estado de ánimo. Si la vida se hace más fácil con una simple integración de inteligencia, ¡entonces también podemos repensar nuestras decisiones al contratar asistentes personales! – Ver más en: ¡Todas las cosas de Inteligencia Artificial!

Las 10 mejores aplicaciones de inteligencia artificial para inspirarte

Aplicaciones de Android en Google Play es una aplicación de IA. Descargue la aplicación y sabrá su importancia