¿Podría la IA volverse autónoma y aprender y adaptarse de manera no supervisada a través del aprendizaje profundo?

Picasso dijo que las computadoras eran inútiles porque solo podían dar respuestas. Ese es el problema que tengo con la noción de autonomía de la IA.

Todos podemos ver cómo la IA está ampliando su alcance para cubrir más y más actividades. Eliminar la necesidad de trabajo humano en un proceso siempre ha sido el objetivo. El aprendizaje profundo no supervisado realmente no funciona todavía, pero lo hará.

Por lo tanto, no es difícil imaginar un banco, una compañía de seguros o una compañía de logística completamente administrada por AI. El 95% de lo que hacen es transaccional. El objetivo es hacer un trabajo de calidad con datos (decisiones acertadas, ejecutadas rápidamente, sin defectos) y la IA es excelente en eso.

PERO, esto sigue siendo automatización , no autonomía .

La autonomía sería decidir hacer algo nuevo y poder llevarlo a cabo.

Ignoremos el simple hecho de que un ingeniero de ML siempre puede hacer un archivo / salir, y ese es el final de la “autonomía”. Veo una mayor objeción.

Soy autónomo porque construí un conocimiento eficiente del mundo y de mis semejantes, y lo uso sin un acceso formal a él (la “paradoja de Polanyi”).

Entiendo lo que estoy haciendo, tengo objetivos, hago planes abstractos, sincronizo el lenguaje corporal y mi tono de voz con el otro chico, puedo mezclar promesas y amenazas sutiles en la misma conversación de dos minutos, puedo entender lo que mi jefe quiere escuchar, cómo lograr que mi hijo coma sus judías verdes y cuándo es mejor no interrumpir a mi esposa.

Sin ese conocimiento, ninguna entidad puede ser autónoma en el mundo real. Caerá por la primera manipulación.

El problema es que no podemos enseñar nada de eso a la IA. No sabemos cómo lo aprendemos y no sabemos cómo lo usamos.

“A través del aprendizaje profundo”: si esto implica ML donde las muestras se asignan a las etiquetas de clase, entonces la respuesta es no. El aprendizaje no supervisado es lo que hacemos cuando interactuamos con un entorno coherente. El entorno nos supervisa siendo coherentes (predecibles). El aprendizaje de estilo hebbiano en el que las entradas comunes son seguras y los caminos (a las respuestas) se refuerzan como resultado. Si no se supervisa, las muestras de aprendizaje de un régimen simbólico como el texto, el número de imágenes de píxeles, etc. tienen un problema semántico con las muestras (por resolver) y también con la elección de las clases: es ese problema el que la gente de ML puede resolver ( dependiendo de sus interpretaciones) con aprendizaje supervisado. Para que la IA sea autónoma, el aprendizaje debe muestrear un entorno consistente a nivel de muestras basadas en sensores y debe adaptarse utilizando la retroalimentación de las respuestas de las interacciones con ese entorno. Las muestras de sensores de entornos consistentes (dadas las tasas de muestreo apropiadas (p. Ej., Nyquist)) proporcionan datos consistentes y persistentes que son espacialmente correctos (relaciones espaciales codificadas). Por lo tanto, está condicionado a ser adecuado para aprender sobre las interacciones con las fuentes de información (que proporcionan las muestras )

No puede conectar un sistema a una fuente de texto sin que el sistema sepa cómo interactúan los componentes de texto con el mundo real. La lógica puede funcionar en el texto, pero la semántica subyacente realmente determina la verdad. (Creo que ese es el punto del experimento mental de la habitación china de John Searle).

En este caso (muestreando un caso de entorno consistente) la respuesta es quizás. En este caso, el aprendizaje profundo implicará: gobernado / determinado por un propósito del sistema definido (conjunto de objetivos) a partir del cual las interacciones se pueden planificar para adaptarse a este propósito y las interacciones proporcionarán la retroalimentación para la gestión y la realización del objetivo.

La cuestión de cómo sería exactamente un sistema de aprendizaje automático “autónomo” es increíblemente confusa. Como mínimo, debería poder hacer lo siguiente:

  1. Reescribir a sí mismo
  2. Sepa automáticamente cómo buscar en Internet fuentes de datos novedosas e interesantes que lo ayuden a realizar tareas
  3. Tener alguna forma de saber exactamente lo que debería estar aprendiendo

Ahora, para ser claros, estas tres cosas son necesarias, pero de ninguna manera suficientes. Además, los tres son completamente imposibles en este momento. Estamos tan lejos de comprender lo que sería un sistema autónomo de aprendizaje automático que ahora es tanta ciencia ficción como hace 50 años.

Absolutamente. Echa un vistazo al proyecto OpenAI. Lo que intentan hacer es alejarse del enfoque tradicional de la función de recompensa para el aprendizaje. Si bien todavía tienen una función de recompensa, las capas adicionales entre ella y el comportamiento real obligan a la IA a desarrollar un plan para obtener la recompensa en lugar de seguir el plan del diseñador del sistema.

Todavía es temprano y hay muchos fracasos, pero es un buen enfoque.

La parte no supervisada es la parte crítica. También es la razón por la que no tengo miedo de la IA en este momento. Creo que estamos al menos 2 a 3 décadas lejos de esto.

Tan pronto como se convierte en realidad, es cuando la IA se vuelve aterradora.

Posiblemente. Pero solo puede ser 10 años más adelante si no más tarde.

More Interesting

¿Cuál es la diferencia entre el aprendizaje probabilístico y el aprendizaje no probabilístico para diferentes situaciones? ¿Cuándo es uno más apropiado que el otro?

¿Qué significa realmente la matriz de covarianza de la estimación de máxima verosimilitud de la distribución normal multivariante?

¿Crees que los algoritmos de aprendizaje automático pueden cambiar la forma en que hacemos simulaciones numéricas?

¿Se pueden usar los árboles de decisión para encontrar atributos de variables latentes de una muestra?

¿Cuáles son las implicaciones de privacidad del reconocimiento facial DeepFace de Facebook?

¿Dónde puedo encontrar excelentes bibliotecas de aprendizaje automático para Java?

¿Me podría recomendar un curso abierto de aprendizaje automático?

¿Hay alguna diferencia entre el algoritmo de retropropagación utilizado en la etapa de ajuste fino del autoencoder y el algoritmo típico de retropropagación?

¿Cómo se ajustan los pesos en una red neuronal mientras estoy entrenando la red?

¿Qué tan difícil es entrenar idiomas indios con CMUSphinx?

¿Qué áreas del aprendizaje automático son más importantes para los fondos de cobertura y los bancos de inversión (en equipos cuantitativos)?

¿Cuáles son algunas de las herramientas de procesamiento de lenguaje natural más comunes utilizadas por las grandes corporaciones minoristas?

¿Cuál es una buena manera de entender la maldición de la alta dimensión en el aprendizaje automático?

¿Se están utilizando redes neuronales profundas para crear estrategias de fondos de cobertura / HFT?

¿Qué es mejor que el aprendizaje profundo?