¿Es posible que una computadora realmente entienda los datos?

Respuesta corta: sí.

Pero requerirá un estilo de programación radicalmente diferente al que estábamos acostumbrados a usar en el pasado.

Otros han señalado la necesidad de contexto y de prominencia: la capacidad de decir lo que importa. Podría agregar creatividad, la capacidad de crear abstracciones y, ante todo, la capacidad de aprender de sus errores.

Estos no se implementarán como módulos o subsistemas individuales en una gran IA compleja con un diagrama de bloques que cubra toda su pared. En cambio, todos surgirán naturalmente, a través de la emergencia, de un algoritmo único y bastante simple que recibe información y entiende lo que significa … en contexto. Y mucha memoria.

Esta forma de programación radicalmente diferente; Hay varios ejemplos de productos y sistemas de investigación que ya utilizan este tipo de métodos: algoritmos que proporcionan * algún * nivel de comprensión medible, como la comprensión de voz de Android y el clasificador de imágenes de Google creado por Andrew Ng y Jeff Dean. Deep Learning es el nombre actual que usa la mayoría de las personas; Básicamente es un reetiquetado de ciertos tipos de redes neuronales con algunas modificaciones novedosas que personas como Geoff Hinton descubrieron en los últimos 30 años.

En términos más generales, me gusta hablar sobre los métodos libres de modelos: sistemas que pueden resolver problemas en cualquier dominio problemático en lugar de dominios que están explícitamente programados para manejar. Las redes neuronales pueden construirse usando métodos libres de modelos, pero también pueden usarse en otros tipos de sistemas y quizás la verdadera comprensión puede surgir de algún rincón inesperado del espacio libre de modelos. Pero en este momento, mi apuesta personal por la primera máquina realmente comprensiva es en grandes redes neuronales con neuronas clave inicialmente vacías que ejecutan algún “Algoritmo de Connectome” para determinar la interconectividad de neurona a neurona.

En realidad, es posible escribir un sistema que elija por sí mismo qué tipo de aprendizaje aplicar. También hay sistemas que aprenden sobre sí mismos, como hyperneat og google brain. En cuanto a los humanos : no creo que comprendamos de una manera especial y principalmente aprendamos a través de la repetición.

No estoy seguro si lo entiendo correctamente, pero se pregunta por qué la máquina no puede “derivar leyes” de los datos observados directamente.

Mira esto

http://www.news.cornell.edu/stor

Es mas que posible. Ya esta aqui. Cuando dice “entender”, quiere decir “vinculación de contexto” con “sesgo”. Muchos sistemas están en gran medida vinculados al contexto, como el que usamos para determinar las irregularidades en el tráfico aéreo. También hay juguetes inteligentes como Akinator … y juguetes más peligrosos como las armas centinelas autónomas Aegis. Por supuesto, hay límites, pero los humanos no tienen el monopolio de la comprensión (aunque realmente amamos creer que lo tenemos). Podríamos descubrir un día que no somos más que guiones genéticos escritos por una forma de vida superior.

a2a. Absolutamente.

Claramente, el estado actual de comprensión del aprendizaje automático está muy por debajo de la amplitud de la comprensión humana, pero los sistemas de aprendizaje automático han comenzado a comprender dentro de sus dominios respectivos y acotados.

En los próximos meses y años, el aprendizaje automático continuará mejorando. Tengo pocas dudas de que la diferencia entre la comprensión humana y la comprensión del aprendizaje automático se reducirá a niveles imperceptibles en una década.

Depende de lo que quieras decir con “entender”. Habrá problemas incluso con una cantidad infinita de datos o tiempo que podremos resolver. En algunos contextos, el aprendizaje automático nos permitirá alcanzar nuevos métodos para interpretar datos, pero estos normalmente se encuentran en situaciones en las que las computadoras son mejores en lo que hacen, comparando y haciendo crujientes.

Si Veamos el ejemplo.

Barack Obama ganó el Premio Nobel de la Paz en 2009. Es el 44º presidente de los Estados Unidos.

  • Aplique el clasificador de aprendizaje automático para varias categorías, podría identificar este texto como categoría política. [debido a las entidades Barack Obama, presidente de Estados Unidos]
  • Aplique etiquetado POS y NER en este texto, sería capaz de identificar entidades ‘Barack Obama – Persona ‘, ‘Premio Nobel de la Paz – Evento ‘, ‘Estados Unidos – Ubicación ‘, ’44.o Presidente – posición ‘ [POS y NER están listos usando el análisis de texto. El modelo NER capacitado puede hacer esto, consulte el grupo Stanford NLP (procesamiento del lenguaje natural)]
  • Aplique una resolución de coreferencia, que ayudará a la máquina a identificar “He” => “Barack Obama” en el texto dado [verifique – CherryPicker: una herramienta de resolución de coreferencia]

Ahora el bot tiene una comprensión básica. Si aplica más algoritmos de razonamiento basados ​​en nlp y mlp, más comprensión tendrá.

después de esto si haces preguntas como:

  • Quién ganó el premio Nobel de la paz en 2009
  • ¿Quién es el actual presidente de Estados Unidos?
  • ¿Cuánto tiempo ha sido Barack Obama presidente de Estados Unidos?

la máquina podría responderlo. Por favor, vea, el aprendizaje profundo se aplica aquí.

Saluda a IBM Watson: es un buen ejemplo de este tipo de aprendizaje.

Según IBM, su conocimiento médico es similar al de un estudiante de medicina de primer año, y la compañía espera que Watson apruebe los exámenes generales de la junta de licencias médicas en un futuro no muy lejano.

Recomiendo leer “On Intelligence” de Jeff Hawkins. Está trabajando para resolver ese problema de la inteligencia natural creando lo que se conoce como algoritmos de aprendizaje cortical. Tienen un producto llamado Grok, que está cerca de implementarse, creo (lo siento, estoy en movimiento, así que no puedo verificar esto).

Depende de cómo se define “entender”.

Si un algoritmo siempre genera lo mismo que los humanos, prefiero creer que comprende los datos de alguna manera. 🙂

Ese es el objetivo final. En este momento, podemos entrenar una computadora ampliamente y esperar que funcione bien en situaciones invisibles similares. Puede ser que pueda aprender a comprender ciertos patrones, pero como Monica Anderson y otros han señalado que el contexto es la clave. Los humanos aprendemos esta habilidad muy rápidamente para entender si el jaguar es un automóvil o un animal fácilmente (puede que un recordatorio sea suficiente), pero las computadoras necesitan muchos datos.

Otro aspecto destacado en el desarrollo de ML / AI es comprender las emociones humanas mientras se toman decisiones. La computación afectiva será una herramienta importante para influir en la toma de decisiones al interactuar con humanos.

Ayer me di cuenta de que Google está haciendo un gran trabajo para comprender nuestras búsquedas. Quería buscar un trabajo de investigación y copiar el título, pero debido a algún error de formato busco esta ” Estimación de densidad multivariada: práctica teórica y visualización ” [1], que es incluso difícil de entender para un ojo humano, pero Google entendió y me preguntó: ¿Quiso decir? : Estimación de densidad multivariada : práctica teórica y visualización “Sí, quise decir eso … así que ya ves que estamos progresando.

[1] Estimación de densidad multivariada: práctica teórica y visualización – Búsqueda de Google

La pregunta es un gran SÍ. Un ejemplo simple está en Quora. A partir de los datos de su experiencia pasada, las máquinas Quora pueden aprender cuáles son los posibles temas que le gustaría seguir. También lo está haciendo para millones de cuentas y esto no es posible para ninguno de nosotros con nuestros grandes cerebros. Por lo tanto, tal vez la pregunta debería ser “¿Es posible que un humano realmente comprenda los datos?”.

Cuando te preguntas por qué quieres leer este artículo, tu conciencia participa en esta acción.
Porque si eres un robot inconsciente, nunca te “preocupará” la motivación o la casualidad de leer un artículo, solo seguirás las instrucciones y el comando.

Entonces, para que una máquina “entienda” algo, debe asegurarse de que esta máquina tenga conciencia de sí mismo. Obviamente, los algoritmos de aprendizaje automático actuales son demasiado impotentes para hacer esto. Y tal vez nunca sabremos si una máquina es autoconsciente o no, porque la autoconciencia es algo que solo la máquina puede percibir.

En teoría, no hay nada que un cerebro humano pueda hacer que una computadora sea incapaz de hacer. En la práctica, no sabemos cómo hacer la mayor parte.
Gran parte de la dificultad de comprensión es el contexto. No el contexto de los datos, sino del mundo. Para comprender algunos datos arbitrarios, debe comprender el mundo en el que existe y cómo funciona, lo que en sí mismo requeriría la comprensión de factores más básicos. Como humanos, pasamos un par de décadas construyendo este contexto. Llevamos muchos años en el mundo y aprendimos cómo funciona para construir modelos cada vez más elaborados. La investigación sobre el desarrollo y el aprendizaje del niño humano puede proporcionar información sobre los conceptos que debe comprender antes de continuar. Cosas simples como la persistencia de objetos se aprenden temprano, pero se aprenden. Las cosas de esa naturaleza son tan fundamentales que podemos tener horarios para cuando se espera que los niños lo aprendan, sin ninguna enseñanza explícita.
Eventualmente, alcanza un nivel de comprensión donde la enseñanza explícita es, si no estrictamente necesaria, extremadamente útil. Aquí tenemos escuelas diseñadas para desarrollar conceptos y guiar nuestra comprensión a niveles cada vez más altos.
A medida que crecen los niveles de comprensión, ganamos la capacidad de comprender cosas más amplias. La política, por ejemplo, requiere una comprensión profunda del mundo, los objetivos y deseos de otras personas, la economía, etc., que la mayoría de las personas en realidad no captan por completo. Otras cosas son tan específicas que necesita una educación especializada para comprenderlas, que es donde las universidades entran en juego.
Entonces, si a los humanos les lleva décadas alcanzar estos niveles de comprensión mientras se involucra completamente con el mundo y puede interactuar con él y expirar, mientras se enseña explícitamente una amplia gama de temas, entonces una computadora probablemente necesitará un período de aprendizaje similar y crecimiento para entender las cosas.
Sin embargo, antes de que pueda, necesitaremos desarrollar los algoritmos de aprendizaje que sean capaces de ese crecimiento. También es posible transferir ese aprendizaje a nuevas computadoras, de modo que cualquier instancia no necesite décadas de aprendizaje, pero se puede construir desde una base común.

Cuando lo haga, tendremos una verdadera IA.

Por el momento no.

Por el momento, una computadora ni siquiera entiende que hay datos. Todo lo que sabe es que hay pasos en un programa que sigue. Eso es todo.
Tomemos el ejemplo de la computadora que supuestamente deriva leyes. Supongamos que lo hace en lugar de atascarse en esa discusión. La pregunta es: ¿entiende que lo está haciendo? ¿Deriva leyes porque da sentido a los datos o simplemente modifica variables basadas en un programa? Sugeriría que es lo último. Personalmente, no puedo ver de qué se trata el alboroto: está obteniendo una solución basada en repetir un conjunto de decisiones que se le han dado. Si hay algo inteligente aquí, es el trabajo del programador.

El problema en realidad radica en una falla en nuestra comprensión de la física. Creemos que el mundo está compuesto solo de materia y energía porque eso es todo lo que hemos estudiado. Desafortunadamente, hay un tercer componente, actualmente conocido como información, que recientemente se ha convertido en el estudio de la cibernética. Sin un marco científico para la información, no entendemos qué datos somos nosotros, por lo que somos tontos al esperar más de nuestras computadoras.

Gracias por la A2A

Un gran NO. Es por eso que los científicos y analistas de datos pasan la mayor parte de su tiempo raspando y limpiando los datos.
¿Qué porcentaje de tiempo pasa un analista de datos en diferentes tareas (recopilar datos, limpiar datos, analizar datos, etc.)?

Sí, pero la investigación continúa. Ha habido muchos esfuerzos en esta dirección. Personas como Alexei Efros y Derek Hoiem han trabajado, no exactamente en el aprendizaje automático, sino en la comprensión de imágenes, que es la comprensión de la información contextual de las imágenes.

A continuación hay algunos enlaces útiles sobre el mismo
Comprensión espacial a partir de imágenes
Página de inicio de Alexei A. Efros
Ventana emergente automática de fotos
Página en utexas.edu

Me gustaría que los investigadores consideren la siguiente afirmación: No existe ningún conocimiento en la mente sin una pregunta. Creo que si se acercaran a Machine Learning, PNL y otros problemas de IA desde esta perspectiva, tendrían más éxito.

“Como si los humanos leyeramos un artículo, tendemos a entender las cosas en lugar de aprender” sí, lo hacemos. Pero solo porque hemos sido entrenados / pensamos cómo … si le doy un periódico a un bebé recién nacido que no ha sido entrenado, el bebé no entenderá lo que significa el papel.

O si te doy un papel en un idioma que no hablas, no entenderás lo que ese papel dice …

Nuestros cerebros están programados / conectados de una manera que aprendemos y reconocemos patrones. Si pudieras encontrar un algoritmo que sea equivalente al cerebro humano. La máquina no necesitará ningún entrenamiento, aprenderá todo por sí misma.

La comprensión del significado no es una cosa binaria, donde hay comprensión o no hay comprensión.
TODO entendimiento está en relación con lo que una entidad ya sabe. Pero hay diferentes grados de relación y diferentes complementos de lo que uno ya sabe.
Una simple máquina solo puede relacionar datos entrantes con otros datos, o patrones que conoce. Sin embargo, un sistema consciente puede tener formas adicionales de relación y comprensión. Puedo entender que una estufa caliente me quemará, y tendré qualia unido a este significado de calor. Pero un sistema de ML solo puede llegar a saber que algo caliente puede tener un efecto destructivo química o físicamente, al asociar datos. Sin embargo, un sistema combinado ML y simbólicamente cognitivo, con detección analógica, podría aproximarse a la comprensión que tiene un ser humano, si incorporamos la detección del dolor como un parámetro que excede algún umbral.
Una vez un VC me preguntó si alguna vez podríamos crear un chef de IA. Sostenía que actualmente no tenemos papilas gustativas electrónicas sofisticadas, y sería difícil, si no imposible, dada esa base para hacer uno. Pero algún día podremos crear una máquina que pueda saborear y sentir la textura y la temperatura, y luego podríamos comenzar a desarrollar algo que pueda atribuir significado a las cosas del mundo analógico que los humanos dan por sentado. Pero recuerde también que la carne de un hombre es el veneno de otro hombre y mientras que a algunos les gustan los chiles, a otros no. Y así, el significado de un ají difiere en el sentido qualia para diferentes personas. Entonces, ¿cómo podemos esperar que las máquinas manejen esto bien, cuando los humanos no podemos?

Comprender algo significa que puedes tomar una declaración y expresarla en términos de declaraciones que son menos complejas, más abstractas o que se te dan como axiomas.
Existen algoritmos existentes que tienen una base de conocimiento (cosas como “si la persona a mata a la persona b, la persona b está muerta”, “si la persona b es el tío de la persona a, las personas a y b están relacionadas”, por lo que aprendemos cosas como niños de observaciones y de ser enseñados) y pueden entender las obras de Shakespeare. Incluso entienden las conexiones que no se mencionan explícitamente en el texto.