Muy, muy lejos. A pesar de los avances recientes y maravillosos en el aprendizaje profundo, la inferencia bayesiana, la optimización, la ingeniería de sistemas, los métodos numéricos y la investigación básica en neurociencia cognitiva, todavía no sabemos exactamente * cómo * construir un agente conversacional como Samantha.
Tenga en cuenta que la IA en “Her” no es tanto un bot de chat como una persona real con deseos, deseos y sentimientos. Ella (2013) es una de mis películas de IA favoritas de todos los tiempos, porque explora la idea de cómo la inteligencia artificial pone en duda el significado de nuestra propia existencia; El absurdo de un hombre que sale con su Sistema Operativo solo es superado por la audiencia que se siente atraída por el ingenio juguetón y el encanto de Samantha. Ayuda que Scarlett exprese a Samantha, en lugar de, no sé, Microsoft Sam de Windows XP.
Hasta ahora, los únicos sentimientos que albergo hacia los bots de chat de atención al cliente son la ira ardiente. Los bots de chat no han logrado cumplir con su exageración y son en gran medida productos terribles en comparación con sus homólogos humanos. Idealmente, se supone que un asistente virtual debe anticipar sus necesidades y comprender sus deseos y deseos básicos de una manera que reduzca su propia carga de trabajo. Pero los bots de chat como están ahora son al revés; Cada vez que converso con un bot de chat, necesito anticipar el proceso de pensamiento del chatbot para obtener el soporte que quiero.
- ¿Cómo se puede optimizar un sistema si la variable principal de la función objetivo se modela a través de un modelo de Machine Learning?
- ¿Debo unirme a un campamento de entrenamiento de $ 30000 USD para aprender el aprendizaje automático y el aprendizaje profundo?
- Cómo construir una IA para detectar errores en un sitio web
- ¿Cuáles son las ventajas y desventajas de usar una gran red neuronal para realizar una regresión multivariada en comparación con los OLS normales?
- ¿Qué tipos de trabajos de programación serían los más difíciles de automatizar por AI?
No sé cómo construir una IA de Samantha, pero parece que faltan algunas piezas obvias:
- Psicología intuitiva: la IA necesita comprender a las personas lo suficientemente bien como para anticipar su comportamiento, su estado emocional, sus valores y objetivos. Si no podemos confiar en que la IA nos comprende, no confiaremos en que haga algo más que buscar el clima de hoy o buscar datos y estadísticas deportivas en Google.
- Aprendizaje eficiente. Los humanos están armados con una gran cantidad de antecedentes sobre el mundo natural, y esto nos permite aprender rápidamente nuevas categorías de objetos y conceptos semánticos con tan solo 1 ejemplo. Nuestros algoritmos de aprendizaje actuales son bastante ineficientes en cuanto a datos y son malos para descubrir la “estructura correcta” para dominios con problemas complejos.
- Memoria a largo plazo. Algunos trabajos en el aprendizaje de refuerzo profundo sugieren que la memoria a largo plazo y el aprendizaje de políticas están estrechamente vinculados. Sin un mecanismo para almacenar decisiones significativas y experiencias sensoriales, un agente de aprendizaje no puede aprender rápidamente. No tenemos modelos que puedan almacenar / codificar la misma escala de datos que el cerebro humano con la misma eficiencia.
- Deseo. El deseo humano es algo divertido que todos han experimentado, pero cuando se trata de formalizar en un objetivo de recompensa y escribirlo en código, sigue siendo muy difícil de alcanzar. El deseo humano es probablemente bastante diferente, cualitativamente, que el deseo animal (p. Ej., Patrones de acción fijos en gansos de ganso silvestre), pero el marco dominante actual de Aprendizaje por refuerzo realmente no considera una diferencia entre los dos.
- Políticas de estímulo nulo: en ella, Samantha hace muchas cosas sin que Theodore se lo pida. Presumiblemente pasa mucho tiempo sola, solo pensando, aprendiendo y leyendo. Nuestros marcos de investigación actuales realmente no saben cómo tratar este tipo de comportamiento. Los chatbots y asistentes de voz actuales tienen un patrón explícito de “solicitud-respuesta” que no refleja cómo las personas realmente interactúan entre sí (monitoreamos la reacción de la audiencia mientras hablamos, interrumpimos, etc.)
Si está menos interesado en las preguntas filosóficas de “qué nos hace humanos” y más interesado en “cómo hago un humano con IA”, definitivamente debería ver Ex Machina, una película británica de 2015 que da un giro más oscuro a la superinteligencia de IA .
Al igual que Ella, Ex Machina es una película filosófica, pero mucho más interesante para el practicante de IA y notablemente perspicaz cuando se trata de detalles técnicos sutiles. Un punto planteado por Ex Machina es que las grandes empresas tecnológicas probablemente ya tengan suficientes datos para construir una Samantha, pero sigue siendo una pregunta abierta sobre cómo extraer un proceso generativo del pensamiento humano a partir de esos datos.