¿Los expertos en el campo de la IA realmente creen que la IA puede alcanzar la inteligencia y la conciencia a nivel humano?

Nunca es un tiempo muy largo. No quisiera hacer demasiados reclamos en un período de tiempo así.

Pero, todo depende de la definición. ¿Una IA que puede engañar al lego para que piense que es un ser independiente y pensante? Sí, creo que eso se logrará en algún momento.

¿Una IA que sea medible, demostrativa, sensible e inteligente? Mucho más duro. Aún no sabemos si los humanos tienen esos criterios, ya que no podemos definirlos de manera significativa.

También hay una cuestión de cómo. Los sistemas basados ​​en compuertas lógicas tienen algunos problemas inherentes en la forma en que funcionan, principalmente con un exceso de calor que los sistemas biológicos no tienen. Si alguna vez podemos escalar lo suficiente como para lograr la sensibilidad, y si cualquier propiedad del cerebro que lo haga sensible puede implementarse en puertas lógicas sigue siendo una pregunta abierta.

Personalmente, creo que es probable que copiemos cerebros biológicos antes de hacer los sintéticos. Por ejemplo, cerebros de impresión 3D con los centros y sensores que consideremos adecuados.

Pero, nada es un hecho. Estamos hablando de uno de los problemas de ingeniería más difíciles que la humanidad ha enfrentado, salpicados de profundas preguntas filosóficas con las que hemos luchado durante milenios.

Hace mucho tiempo, Marvin Minsky dijo una vez que desarrollar una Inteligencia Artificial a ese nivel requeriría “1.8 Einsteins y una décima parte de los recursos del Proyecto Manhattan”.

Creo recordar que dijo esto en la Conferencia Conjunta Internacional de Inteligencia Artificial (IJCAI) de 1977 en el MIT.

Desde entonces, el rendimiento de las computadoras ha hecho algo maravilloso, por lo que se ha satisfecho o excedido la necesidad de recursos.

El problema es que todavía nos faltan un par de Einsteins. Es decir, estamos progresando en muchos de los problemas que deben resolverse para crear una verdadera IA. Por ejemplo, ha habido un progreso significativo en Machine Learning. Pero no tenemos una buena teoría general de qué inteligencia es la forma en que la teoría de la relatividad era para la física.

Por ejemplo, ha habido mucho trabajo bueno en redes neuronales y aprendizaje profundo que brinda resultados espectaculares en campos específicos de aplicación. Pero todavía tengo que ver una buena teoría del Meta aprendizaje (informática). Hay muchas buenas ideas y trabajos prometedores, pero no hay una teoría unificada.

Entonces, en esencia, estamos esperando a Godot.

Realmente no soy un experto en inteligencia artificial, pero estoy de acuerdo en que es más una cuestión de cuándo que si. Nunca es un tiempo realmente largo.

Los seres humanos desarrollaron inteligencia a nivel humano en el transcurso de millones (o quizás miles de millones, si prefieren un punto de partida temprano). La IA ha progresado significativamente más en los 50 a 100 años (nuevamente, dependiendo de cómo elija su punto de partida) que los humanos lograron en miles. Si le das a una IA evolutiva unos pocos millones de años, sería extremadamente improbable que no logre o supere la inteligencia a nivel humano.

La única forma en que la IA nunca alcanzará la inteligencia a nivel humano es si hay algún aspecto inmaterial de la inteligencia humana que no se pueda replicar: un alma, una chispa divina o una llave mágica.

Preguntas más específicas, como sucederá en los próximos 5 años / dentro de nuestras vidas / dentro de los próximos mil años, o si la IA logrará una inteligencia sustancialmente mayor que la del nivel humano, son un poco más difíciles de responder.

Como otros dijeron: ¿qué tipo de inteligencia esperas? Los desarrollos son relativamente lentos ahora. Primero, me temo que las herramientas que tenemos podrían no ser tan sofisticadas como deseadas y el entorno para tener la inteligencia necesaria para manifestarse aún deben inventarse.

Luego están estos Frankensteinianos que creen que esta inteligencia se volverá contra sus creadores. Y, por último, los desarrolladores deben tener en cuenta las restricciones sociales, políticas y económicas que podrían desempeñar un papel decisivo en la creación de una verdadera inteligencia.

Nadie sabe lo que sucederá una vez que se pase la masa crítica o el punto de singularidad en el nacimiento de la inteligencia. Nadie puede decirte lo que seguirá más allá de ese punto. Por un lado, estoy seguro: los humanos solo lo ayudaremos a dar sus primeros pasos, de ahí en adelante es por sí solo.

Si. Con la arquitectura adecuada, creo que se puede lograr la inteligencia a nivel humano. Estoy trabajando en tal arquitectura ahora. Ver Construyendo Mentes con Patrones (DRAFT) para más detalles.

Hasta donde yo sé, las encuestas entre expertos muestran que la mayoría de ellos está convencida de que la inteligencia a nivel humano se logrará eventualmente. Sin embargo, no existe un consenso real sobre cuándo .

La conciencia, por otro lado, generalmente no se considera un requisito para HLI y, por lo tanto, no se discute tanto entre los tecnólogos de IA.

Para llegar a una conclusión, sí, la mayoría de los expertos creen que se logrará HLI, pero no dicen mucho sobre la conciencia.

Sí, definitivamente, y creo que ya estamos viendo que comienzan a surgir grados de inteligencia (olvídate de Deep Learning y vencer a Go champions = IA estrecha, no es una IA fuerte). Sin embargo, todavía no estoy convencido de que la inteligencia artificial se parezca a la inteligencia humana. Gran parte de nuestra inteligencia se deriva de nuestras experiencias a través de nuestros órganos sensoriales y, a menos que tengamos que replicar nuestros órganos sensoriales perfectamente, lo que probablemente no queremos también, las experiencias de los sistemas de inteligencia artificial serán muy diferentes según sus sensores. Cuando usamos metáforas para describir cosas, todos entendemos el significado basado en la misma entrada de tipo sensorial. Cuando describimos un lugar o persona como dulce, no estamos diciendo que tenga buen sabor, estamos diciendo que las cosas dulces son buenas a través de nuestras experiencias de probar alimentos azucarados que todos disfrutamos mucho. Para un sistema inteligente que no necesita ni tiene papilas gustativas, y mucho menos necesita comer para sobrevivir, podemos hacer que nos imiten, pero nunca entenderían nuestro verdadero significado. Esto podría dar lugar a sus propias metáforas que quizás nunca comprendamos.

Una cosa para reflexionar es que las máquinas pueden vivir tanto en la luna como en la tierra, por lo que las cosas que consideramos valiosas para la vida podrían importarles menos. El envenenamiento del agua, el aire, los alimentos, etc. puede no ser una preocupación para ellos y podría ser muy perjudicial para la vida en la tierra cuando las máquinas se volvieron demasiado inteligentes para que podamos controlarlas. Nuestra inteligencia y nuestra arrogancia hacia otra vida, incluso la vida inorgánica, puede ser nuestra verdadera ruina.

Esa es una pregunta difícil, pero este video dará una idea clara y completa sobre esta pregunta.