¿Hay algo que Deep Learning nunca podrá aprender?

Claramente, el aprendizaje profundo en su forma actual es bastante limitado. Pero cuando las personas descubren cómo construir IA a nivel humano, algo como el aprendizaje profundo tendrá que ser parte de la solución.

Las ideas del aprendizaje profundo son

  • (1) el aprendizaje es un componente indispensable de la IA: esto no fue ampliamente aceptado en las décadas de 1980 y 1990. Pero siempre he estado convencido de esto, y cada vez más personas están convencidas de esto ahora.
  • (2) el aprendizaje profundo es realmente la idea de que un sistema de IA debe aprender representaciones abstractas / de alto nivel / jerárquicas del mundo. Eso tiene que ser parte de la solución a la IA, independientemente del método a través del cual el sistema aprenda estas representaciones.
  • (3) Una pregunta es si la IA a nivel humano se puede construir alrededor del paradigma central del aprendizaje automático, que es minimizar una función objetivo, y si esta minimización se puede hacer a través de métodos basados ​​en gradientes (como el descenso de gradiente estocástico donde el gradiente es calculado con backprop). Si no, necesitamos encontrar nuevos paradigmas alrededor de los cuales construir futuros algoritmos para el aprendizaje de representación.

Más allá de eso, hay una pregunta filosófica y teórica: cuáles son las tareas que se pueden aprender y las que no se pueden aprender independientemente de la cantidad de recursos que se les brinde. Se ha trabajado bastante en aprender teoría sobre estas preguntas. Un conjunto interesante de resultados son los “teoremas de no almuerzo gratis” que muestran que una máquina de aprendizaje en particular puede aprender de manera manejable un pequeño número de tareas entre el conjunto de todas las tareas posibles. Ninguna máquina de aprendizaje puede aprender todas las tareas posibles de manera eficiente. Todas las máquinas tienen que estar “sesgadas” para aprender ciertas tareas. Nos parece humillante, humanos, que nuestros cerebros no son máquinas de aprendizaje generales, pero es cierto. Nuestros cerebros son increíblemente especializados, a pesar de su aparente adaptabilidad.

Hay problemas que son inherentemente difíciles para cualquier dispositivo informático. Es por eso que incluso si construimos máquinas con inteligencia sobrehumana, tendrán habilidades limitadas para superarnos en el mundo real. Pueden ser mejores que nosotros en el ajedrez e irnos, pero si lanzamos una moneda, serán tan malos como nosotros al predecir cabeza o cola.

Las emociones pueden ser bastante difíciles de aprender y los sentimientos quedan fuera del alcance.

Para agregar mis humildes 2 centavos a la respuesta detallada de Yann LeCun, recordaré una realidad simple, la conciencia y la inteligencia no son un producto de nuestro cerebro, ya que surgen dentro de nuestro cuerpo completo. [1] [2]

Por lo tanto, una máquina debe interconectarse con dispositivos sensibles para desarrollar respuestas emocionales a estímulos específicos.

Sin embargo, desde este punto de partida, la IA enfrentará fuertes restricciones, ya que la genética y la epigenética no pueden inducir la mejora personal de esas interfaces, por casualidad y necesidad.

Sin los convites de la vida y las interacciones de los primeros días de los mamíferos, los algoritmos podrían no producir patrones emotivos.

Finalmente, los sentimientos representan el siguiente paso en la evolución inteligente, la posibilidad de domesticar las fuerzas emotivas a través del conocimiento y el libre albedrío y, a partir de él, violar las reglas del universo al eliminar algunas decisiones del azar y la necesidad.

Notas al pie

[1] Eje intestino-cerebro – Wikipedia

[2] PNAS | Móvil

Si bien esta pregunta es, en última instancia, un tema de investigación más que cualquier otra cosa, la respuesta sería sí. De hecho, el aprendizaje profundo (y el aprendizaje automático) es increíblemente limitado en comparación con el aprendizaje humano. Hasta cierto punto, esto proviene del hecho de que la complejidad del modelo de las redes profundas es increíblemente alta, por lo que se requieren cantidades extremadamente grandes de datos de entrenamiento para producir modelos utilizables.

Para aclarar esto, te daré un ejemplo del mundo real:

# Suponga que a un típico estudiante de medicina humana se le muestra una imagen de TC de una columna lumbar y se le dice que estas son las 5 vértebras y, a veces, existe una sexta. Cuantas imagenes ¡Solo 1! Al mismo alumno se le muestra una imagen de resonancia magnética de la columna vertebral de una persona diferente y él / ella puede encontrar inmediatamente las vértebras e incluso señalar que esta contiene 6 vértebras. ¿Qué se necesitaría para tener una red profunda que imite esta capacidad? Nadie lo ha hecho, así que nadie lo sabe, pero si tuviera que adivinar, uno posiblemente necesitaría entrenar una red compleja y grande para hacer esto ingenuamente.

# Ahora se podría hacer trampa y usar algo como ‘Registro de imagen’ o ‘Segmentación de imagen’, pero eso sería una trampa grosera, ya que se estaría usando algún tipo de conocimiento humano para guiar el aprendizaje. Si realmente entrenamos una red pura y profunda para resolver este problema, uno probablemente necesitaría proporcionar enormes cantidades de datos de cientos de miles de imágenes. ¡Entonces habría una posibilidad de que el rendimiento se acercara al de un ser humano!

Aprendizaje humano: 1
Aprendizaje profundo: 0

El aprendizaje profundo es solo una mota de polvo en el universo en términos del sistema de adquisición de conocimiento que generalmente llamamos por el nombre de aprendizaje. Cuando no sabemos qué aprendizaje está aplicando este término a las máquinas es ingenuo.

Por ejemplo, aprender puede ser muchas cosas como,

1. Encontrar un patrón en datos como en algos de aprendizaje profundo.

2. Comprender las respuestas éticas a los datos, una diferenciación entre lo bueno y lo malo, así como lo correcto y lo incorrecto. La IA actual es binaria, respondiendo sí o no. Pero a medida que los datos se hagan más grandes, las respuestas se volverán decimales. Y todas las respuestas serán técnicamente correctas. Entonces tendremos que encontrar la respuesta más cercana a la buena.

3. Aprendizaje situacional.

4. Aprender por la sensación de asombro, misterio … causado por desconocidos … algunos lo llaman por el nombre de Dios.

5. Y muchas más formas.

La IA actual se limita a solo el primer tipo de aprendizaje a través de datos de texto y visión. Entonces, aquí está el primer límite para las máquinas.

Una vez más, la IA se basa en el aprendizaje basado en reglas … Entonces, usted alimenta las reglas de aprendizaje y la computadora aprenderá cualquier cosa. Pero lo más importante es que conocemos todas las reglas de aprendizaje. O en otras palabras, somos omniscientes. NO.

Entonces, el límite de cualquier sistema de IA es el límite de nuestro propio conocimiento. Y hasta que nos volvamos omniscientes, un sueño de toda máquina de conocimiento es … solo un sueño.

Soy un candidato a doctorado que investiga en el área de CV. En mi opinión, Deep Learning puede considerarse como un concepto para entrenar parámetros en un modelo. La capacitación en Deep Learning actualiza los parámetros basados ​​en la entrega jerárquica de gradiente. Mientras tanto, el aprendizaje profundo evoluciona con el tiempo. Los antiguos modelos profundos son redes totalmente conectadas de longitud fija, mientras que el modelo actual son modelos dinámicos basados ​​en gráficos. En general, el aprendizaje profundo es siempre una técnica útil para aprender parámetros. Si la tarea se puede aprender se basa en cómo usar los datos y cómo diseñar estructuras modelo y experimentos.

Depende de lo que entiendas por aprendizaje profundo. Si te refieres a los algoritmos actuales que conocemos, entonces la respuesta es muy probable que sí. Pero, por supuesto, el aprendizaje profundo continúa evolucionando a medida que la investigación sobre este tema está prosperando, y existe una clara tendencia a expandir el ámbito de las aplicaciones del aprendizaje profundo. Las redes neuronales solían ser principalmente exitosas para las tareas de reconocimiento de patrones, con el reconocimiento de fonemas y objetos como buenos ejemplos de eso. Sin embargo, estamos viendo más y más trabajo expandiéndose a áreas de IA más clásicas como el razonamiento, la representación del conocimiento y la manipulación de estructuras de datos simbólicos. Creo que este trabajo reciente es solo la punta del iceberg, pero por supuesto no tengo una bola de cristal. Si incluimos en el aprendizaje profundo en el futuro la capacidad de replicar todas las habilidades cognitivas humanas utilizando algoritmos inspirados neuronalmente, entonces es razonable suponer que nada dentro de ese dominio es imposible de alcanzar. Pero entonces, puede haber tareas que los humanos nunca podrán aprender, y para el caso, es fácil crear tareas que ningún alumno pueda realizar, con cualquier número finito de ejemplos de entrenamiento.

Puede dividir las capacidades potenciales del aprendizaje profundo en 4 clases.

(1) Conocimientos conocibles: dado un conjunto suficientemente grande de conocimientos (es decir, datos de entrenamiento) podemos obtener una buena convergencia de nuestros errores de predicción.

(2) Incógnitas conocidas: con una buena generalización, podemos conocer los datos de prueba que una máquina nunca ha visto.

(3) Conocimientos desconocidos: sin embargo, hay ciertas clases de sistemas que el aprendizaje profundo nunca puede aprender. Estos están en la clase de sistemas computacionales irreducibles. Sin embargo, un sistema de aprendizaje profundo puede detectar la dirección de la causalidad y ser capaz de saber que puede aprender del sistema. Lo que no podrá saber (incognoscible) es si un sistema está en la clase de sistemas computacionales irreductibles.

(4) Inconocibles desconocidos – Finalmente, hay una clase de ignorancia total. Esto es realmente solo una declaración metafísica. La clase de incognoscibles que no se pueden conocer es incognoscible.

Por cierto, solo para complicar las cosas. Esto es diferente de los conocimientos conocidos, las incógnitas conocidas (conocimiento tácito), los conocimientos desconocidos (autoengaño) y las incógnitas desconocidas (meta-ignorancia).

No lo sé. Solo puedo pensar en el observador en su mente. Que cualquier fuente que recibamos debería poder “ver” la fuente y tener la capacidad de interpretarla en sentido. En lugar de recibir la fuente y pasarla a la salida para la acción en su impulso y nunca ‘ver’ la fuente. Simplemente, es un observador vacío, solo una máquina de reacción a cosas que son relativas a su encuentro.

Otra cosa es; Creo firmemente que nunca se volverá como un ser humano; en cambio, si es una verdadera vida artificial, se convertirá en su propia especie: como una mosca, un perro, un elefante, una hormiga, un árbol, casi cualquier cosa que sea capaz de absorber , computación, luego reaccionar. Debemos cuestionar y atacar cómo hacemos para institucionalizar al animal y terminar como un animal educado (capacidad de calcular matemáticas, leer, escribir y de alguna manera pronunciar / gesticular en inglés), para que podamos hacer lo mismo con Artificial Life.

En este momento, el tema del aprendizaje automático es una tendencia: todo se debe principalmente a la sensación de precisión, capaz de absorber una gran cantidad de datos y calcular su pertenencia, agrupando dónde encajan mejor y el porcentaje de precisión convertido en alto. Todo depende de la aplicación en función de cómo utilizamos la máquina Deep Learning.

Hay pocos investigadores que continúen resolviendo problemas y tratando de descubrir cómo hacerlo para darle vida.

Conciencia. El aprendizaje profundo nunca podrá aprender procesos que simulen la conciencia.

El mecanismo causal que produce la conciencia es extremadamente complejo y, sin embargo, no se comprende completamente desde el punto de vista de los procesos neurobiológicos.

Por lo tanto, los procesos que simulan la conciencia no se pueden aprender a través del aprendizaje profundo.

Pensando. Aunque los animales tienen algo de inteligencia, no pueden pensar. ¿Por qué?

Pensar es más que aprender e inteligencia. Existe un debate filosófico si las máquinas pueden pensar (en el futuro) o no.

Utiliza la palabra “nunca” que indica que nadie puede garantizar eso. Actualmente hay muchas cosas que el aprendizaje profundo no puede hacer, pero podría hacerlo en el futuro. Simplemente no lo sabemos. Por ejemplo, aprender de un dominio y aplicarlo en el otro dominio (Transferir aprendizaje) como golpear un 3 × 3 tic-tac-toe y aplicarlo a 5 × 5 tic-tac-toe.

Aprendizaje de una sola vez, un aprendizaje que necesita poca cantidad de datos de entrenamiento como lo hace un humano en el reconocimiento de objetos Y muchas cosas que debemos hacer para que se comporte de manera más inteligente. Una cosa es aprender la estructura del modelo en sí, no solo ajustar pesos y sesgos.

Es posible que desee leer este artículo de kdnuggets con detalles interesantes: ¿Deep Learning tiene defectos profundos?

El aprendizaje profundo es una técnica, un camino. Es decir, la respuesta del algoritmo de aprendizaje profundo no se optimiza en comparación con otras formas, pero ciertamente produce una respuesta.

More Interesting

¿Cuál es su enfoque para el diseño de redes neuronales convolucionales?

¿Cuál es un ejemplo ilustrativo donde LDA y SVM dan límites de decisión diferentes?

¿Cuáles son las instituciones en India que ofrecen cursos de aprendizaje automático y minería de datos y cuáles son las áreas posteriores?

¿Cuál es la diferencia entre agrupar sin PCA y agrupar con PCA?

¿Cómo ser bueno en la programación de Python si quiero aprender el aprendizaje automático? ¿Son estos problemas diferentes de la programación competitiva?

Cómo entrenar una red neuronal para detectar un objeto en un video que no estaba presente en el cuadro anterior

Con respecto al descenso de gradiente funcional, ¿qué significa minimizar un funcional con respecto a una función? Proporcione un ejemplo claro.

¿Puede ingresar al programa de doctorado CS de nivel superior / siguiente sin publicación, suponiendo que tenga una experiencia de investigación decente?

¿Pueden los algoritmos de aprendizaje automático de análisis de datos reemplazar el trabajo realizado por los científicos de datos?

¿Qué tan efectivamente se pueden usar las redes neuronales en la regresión? ¿Es posible alguna configuración que prediga un número que no se ve en los datos de entrenamiento?

¿Qué tan importante fue el Premio Netflix para el área de Sistemas de recomendación?

¿Qué herramientas matemáticas puedes usar para analizar el comportamiento de las redes neuronales en el tiempo?

¿Cuál es la diferencia entre el sistema de soporte de decisiones y el sistema de recomendaciones?

Cómo crear mi propia biblioteca de tokenizadores en PNL

En TensorFlow, ¿qué es una capa 'densa' y una 'abandonada'?