Para que la inteligencia artificial funcione, ¿necesitamos primero descubrir qué es la inteligencia humana?

No. En cambio, simplemente podemos definir los requisitos para el sistema que queremos construir y crear un sistema que cumpla con esos requisitos sin importar cómo se comporten realmente los humanos, y sin tener en cuenta la definición de inteligencia humana. Podemos definir lo que queremos que sea la inteligencia artificial y crear el sistema para cumplir con esa definición.

Sin embargo, ayuda un poco entender la inteligencia humana. En su libro “Los orígenes de la inteligencia en los niños”, Jen Piaget definió la inteligencia como una adaptación:

La inteligencia es una adaptación … Decir que la inteligencia es un caso particular de adaptación biológica es, por lo tanto, suponer que es esencialmente una organización y que su función es estructurar el universo tal como un organismo estructura su entorno inmediato … El organismo se adapta materialmente construyendo nuevas formas para adaptarlas a las del universo, mientras que la inteligencia extiende esta creación al construir estructuras mentales que pueden aplicarse a las del entorno … ”

La definición de Piaget es un poco vacía, pero es un comienzo. Como dije anteriormente, podemos definir lo que queremos que haga el sistema y construirlo.

Si y no Estas investigaciones deben proceder en paralelo e informarse mutuamente.

Estamos lejos de comprender la inteligencia, ya sea humana o artificial. Por cierto, no olvidemos la inteligencia animal: ¿deberíamos combinar eso con el humano y llamarlo “inteligencia natural”?

En el proceso de intentar construir sistemas artificialmente inteligentes, desarrollamos modelos más elaborados, que nos ayudarán a comprender la inteligencia natural. Sin embargo, lo que hemos estado descubriendo durante algún tiempo es que la inteligencia natural continuamente supera nuestros sistemas de juguetes simples. Por lo tanto, el desarrollo de la visión también va en sentido contrario, y la inteligencia natural de ingeniería inversa (un enfoque llamado biomimesis o computación bioinspirada) sugiere nuevos modelos y arquitecturas de IA.

Ver también

  • Una encuesta mundial de proyectos de cerebro artificial, parte I: simulaciones cerebrales a gran escala
  • Una encuesta mundial de proyectos de cerebro artificial, Parte II: arquitecturas cognitivas inspiradas biológicamente

No es necesario, de hecho, las técnicas de IA más avanzadas utilizan métodos que no son similares al funcionamiento del cerebro humano. Deep Learning necesita millones de ejemplos para funcionar bien, el cerebro humano necesita una pequeña cantidad. Esto se debe a que estamos muy bien generalizando.

Aunque no es necesario comprender la mente humana para crear IA, tiene sentido tratar de imitarla. Después de todo, y esto puede discutirse, somos el animal más estúpido e inteligente del mundo. Como dijo Douglas Adams en su libro The Hitch-hiker Guide to the Galaxy: “Muchos [seres humanos] opinaban cada vez más que todos habían cometido un gran error al bajar de los árboles en primer lugar. Y algunos dijeron que incluso los árboles habían sido un mal movimiento, y que nadie debería haber abandonado los océanos “.

Lo cierto es que por ahora no hemos podido crear una inteligencia mayor que la del ser humano. La clave que buscan todos los científicos es el concepto de generalización. No entendemos completamente cómo funciona el cerebro humano, pero tenemos algunas ideas. Sabemos que creamos representaciones de nuestro entorno. Estas representaciones son modelos flexibles de cosas junto con sus relaciones. Esto nos lleva a una característica muy importante de nuestra inteligencia, nuestra capacidad de comprender las diferencias entre las representaciones. Y podemos identificarlos realmente rápido.

No.

No es esencial comprender cada parte de la biología del cerebro para desarrollar una IA.

Pero para crear un tipo similar de inteligencia, es necesario emplear un conjunto funcionalmente equivalente de herramientas cognitivas.

Los resultados son lo que importa, los métodos son menos importantes.

Por analogía, no es esencial reflejar la anatomía de un pájaro para lograr el vuelo.
Pero es esencial crear un vehículo que emplee un arsenal similar de elementos aerodinámicos.

Respuesta corta: ¡Sí, por supuesto!

Respuesta larga:
Es discutible si una Inteligencia Articial necesita ser consciente de sí misma para ser juzgada como tal. Incluso el término “inteligencia” en sí mismo no se ha definido de manera integral y ampliamente acordada.

Por otro lado, definir la autoconciencia es relativamente fácil, ya que hay un montón de pruebas claras para declarar que un ser es autoconsciente.

Lo siguiente es: hay organismos “menores”, también conocidos como animales, con un nivel de supuesta inteligencia y autoconciencia, por ejemplo, chimpancés o delfines. Entonces, entender el cerebro humano como una condición necesaria para crear una IA “verdadera” podría estar disparando demasiado. Sin embargo, los cerebros de los chimpancés y los delfines son casi tan complejos como sus contrapartes humanas.

Entonces, para resumir: necesitamos entender cómo funciona un cerebro suficientemente complejo (al menos que demuestra un comportamiento inteligente y consciente de sí mismo) para construir una IA.

La autoconciencia está ligada a la conciencia y ambos parecen ser subproductos, condiciones o resultados de una red neuronal suficientemente compleja. Los científicos aún luchan por descubrir cuál, pero creo que podemos estar de acuerdo en que la autoconciencia es una tarea tan compleja que la entidad que lo demuestra también debe ser muy compleja en sus entrañas.

Para llegar allí, ampliar nuestra comprensión del cerebro humano aún podría ser la forma más fácil, ya que tenemos acceso a muchos sujetos dispuestos para realizar pruebas y análisis. Y estos sujetos pueden incluso ser entrevistados acerca de que se sometan a pruebas, lo que a su vez ayuda a realizar esas pruebas.

En los últimos 5 años, los neurocientíficos han progresado enormemente en la comprensión del cerebro humano a través del escaneo avanzado (p. Ej., MRI funcional y de difusión) y formas novedosas y eficientes de reconstruir su comportamiento en software y silicio.

Pero hasta ahora, las simulaciones cerebrales más avanzadas solo lograron simular el comportamiento de varias 10.000 neuronas, que sigue siendo un orden de magnitud menor que cualquier cerebro animal o humano consciente de sí mismo.

Mi opinión: tenemos que romper la barrera de simular aprox. 1 millón de neuronas para hablar realmente de negocios sobre la autoconciencia. Tal vez evolucionará por sí solo cuando finalmente entremos en este reino …

PD
La autoconciencia no se puede lograr sin algo de lo que estar atento. Por lo tanto, las IA exitosas necesitarán tener acceso a una manguera de entrada de datos de transmisión sobre su entorno virtual y, por supuesto, a sí mismo.

No lo creo. Creo que en el proceso de creación de inteligencia artificial, aprenderemos qué es “inteligencia” y entenderemos mucho mejor la inteligencia humana.

La respuesta realmente depende de qué se entiende exactamente por “autoconsciente”. El grupo de IA basado en la lógica en RPI (Paul Bello, Selmer Bringsjord, etc.) tiene sistemas que muestran la teoría de la mente. En la medida en que eso muestre conciencia de uno mismo versus otro, entonces la respuesta es no.

Sí y no, es sí porque el cerebro es el único prototipo que tenemos de un mecanismo que puede crear inteligencia. Entonces, si necesitamos construir nuestro modelo de IA de acuerdo con el cerebro, necesitamos entender completamente el cerebro humano.

No es porque puede haber otros maquinistas que puedan crear inteligencia. y si podemos descubrir qué tipo de mecanismo puede crear inteligencia, podemos construirlo sin comprender el cerebro. Y también puede haber métodos evolutivos que pueden mejorar en una máquina de inteligencia fuerte.

Solo lograremos una comprensión total del cerebro mejorando gradualmente nuestros modelos (AI).

Creo que en el proceso de creación de IA obtendremos una buena reflexión sobre lo que es la inteligencia humana, así como sobre lo que deberíamos estar creando con nuestra inteligencia para hacer del mundo en que vivimos un lugar mejor, más seguro y más amable.

Si usas la IA para crear un mundo enfermo, todavía tienes que existir en el mundo en el que trabajaste para enfermarte …

La IA que no ayuda a la humanidad, y que la explota al final no es realmente ‘inteligente’.

More Interesting

Conflictos geopolíticos: ¿tiene sentido que si los humanos se encuentran ahora en las primeras etapas de desarrollo de la IA, algunos seres en otros planetas lejanos ya sean seres con IA?

¿Es Lisp un lenguaje de programación ampliamente utilizado en IA?

¿No es demasiado pronto para dar el ranking de Go 'divino' AlphaGo de Google?

¿Alguna vez has visto una pieza de matemática avanzada que haya demostrado ser útil para avanzar en el estado de la IA?

Redes neuronales artificiales: ¿por qué utilizamos la función softmax para la capa de salida?

¿Qué compañías están ofreciendo CRM impulsado por IA?

¿Existen las redes neuronales de Markov?

¿Alguna vez ha habido una situación en la que la IA no funcionó correctamente e hizo algo para lo que no estaba programada?

¿Es el aprendizaje automático el grado más difícil de realizar?

¿Cómo escribe un programador un rastreador web que hace clic en la página?

¿Aprender las redes de una máquina virtual le brinda todas las habilidades necesarias necesarias en el campo de las redes?

¿Cuáles son algunas películas geniales de IA o malas de robots como Terminator 2?

Soy diseñador de circuitos (PhD), quiero entrar en el aprendizaje automático. ¿Qué temas necesito aprender para as de las entrevistas? Realmente agradecería una lista.

¿Cómo manejan los investigadores de redes neuronales los largos tiempos de entrenamiento? ¿Qué haces mientras esperas?

¿Cuáles son algunas de las funciones de entrada de aprendizaje automático para la detección de objetos?