¿Qué pasaría si pudiéramos demostrar que AGI está más allá del poder computacional de la máquina Turing?

Bueno, sí, esa es una pregunta interesante que me hace pensar en el problema de detención y también en la autorreferencia computacional.

Si encontramos algo (es decir, una nueva definición matemática de una computadora) que termina superando (es decir, sin explicación) un modelo de máquina de Turing, entonces siempre podemos actualizar la definición de una máquina de Turing.

De alguna manera, ya lo hemos hecho, por ejemplo, cuando resultó que los cálculos estadísticos analógicos y los desarrollos posteriores en la información cuántica provocaron una refundición de la máquina de Turing o la tesis de Turing para convertirse en la tesis Iglesia-Turing-Deustch (→ esto se ha convertido en una nueva definición de trabajo de una máquina de Turing o computadora cuántica universal para aquellos involucrados en la computación cuántica):

“El principio establece que un dispositivo informático universal puede simular todos los procesos físicos”.

– donde una máquina de Turing (vainilla, no cuántica, sin complejidad física) se define como (de Wikipedia):

Es posible inventar una sola máquina que pueda usarse para calcular cualquier secuencia computable. Si esta máquina U se suministra con la cinta al principio de la cual está escrita la cadena de quíntuples separados por punto y coma de alguna máquina de computación M , entonces U calculará la misma secuencia que M ”

– pero el problema de Detención dice que no hay una función que pueda calcular si una función arbitraria X terminará o se detendrá si X puede incorporar como entrada alguna función Q que está estructurada de modo que Q esté indeciso o ejecutándose siempre que sea un caso , i , eso de lo contrario detendría X se da como una entrada a Q.

** entonces X también puede entenderse como X ( f ( i )) y Q como Q ( g ( i )) …

donde f ( i ) yg ( i ) son solo funciones arbitrarias que toman en una entrada, i .

… También podemos tener f ( i ) == g ( i ).

Entonces, ¿es en cierto modo un demonio computacional, el Demonio de Turing? (Tomando prestado, quizás muy irresponsablemente, lenguaje de la física para describir algo igualmente extraño, el Demonio de Maxwell).

Pero es divertido incluir una referencia propia en la imagen y pensar en el problema de detención de esta manera, dada una cantidad finita de cosas (o información existente en algún espacio), y una cantidad finita de tiempo que puedo barajar alrededor de cosas para hacer un patrón, llámelo XYZ → pero ¿puedo hacer un patrón XYZ * que pueda simular efectivamente ese patrón XYZ? → entonces, ¿puedo hacer un patrón, XYZ ** que simule efectivamente XYZ *? →… → eventualmente podría quedarse sin cosas o tiempo.

Entonces … incluso para casos muy simples, no es obvio cómo construir o estructurar programas o lógica para que se puedan manejar todos los casos o instancias de problemas computacionales, y también hay un límite en cuanto a cuánto puede simular cadenas de simulaciones (o cuánto puede autorreferenciarse) → como si estuviera persiguiendo el infinito (en este caso, un cierto estado optimizado) y nunca llegara allí.

Por lo tanto, es difícil ver cómo un AGI puede alterar la definición de una máquina de Turing (podemos terminar corriendo a la altura, en el sentido de que podemos construir un AGI que pueda simular eficientemente los AGI), pero incluso así podemos simplemente actualice nuestras definiciones y explore dónde más las teorías de computabilidad y complejidad podrían usar la actualización también.

Si hay alguna forma extraña de que AGI de alguna manera resuelva el problema de Detener, implica que cualquiera que sea la arquitectura AGI que utilizamos supera una definición muy general y amplia de una computadora y, a su vez, se convierte en una clase matemática aún más amplia y general ( Las máquinas de Turing que terminan como un subconjunto de esta nueva definición de máquina), entonces sería genial e interesante, valdría la pena investigar más a fondo, especialmente si vemos indicios o casos de que esto podría estar sucediendo.

Si lo hiciera, también podría tener algunas implicaciones de largo alcance para la teoría de la información y la física, pero no estoy seguro, y no estoy seguro de que este sea el caso.

* Además, podría muy bien ser el caso de que la física más nueva nos permita comprender los nuevos modos de cómputo y actualizaciones rápidas en nuestras definiciones de computadoras, Y, que AGI por cualquier razón necesita este nuevo modelo de física y → nuevo modelo de computabilidad, pero sospecho que este no será el caso.

Si pudiéramos probar eso (y esto me parece bastante improbable, pero correré con la premisa), entonces necesitaríamos encontrar un modelo computacional más poderoso que la máquina de Turing, uno que soporte inteligencia general, que realmente podríamos implementar en la vida real.

La cosa es que no se sabe tal cosa en este momento. De hecho, la tesis de Church-Turing básicamente establece que toda la física podría simularse en una máquina de Turing.

Ahora, nuestros cerebros de alguna manera funcionan con la física. Y tengo que suponer que un cerebro humano “contaría” para cualquier definición razonable de AGI. Entonces, el cerebro humano es prueba por ejemplo de que AGI es posible en nuestro universo. Entonces, si AGI está más allá de la capacidad de una máquina de Turing, entonces debe ser que parte de nuestra física está más allá de la capacidad de una máquina de Turing, y además, nuestros cerebros funcionan con esa física.

Entonces, si aún estuviéramos decididos a crear AGI, podríamos investigar mejor la física, investigar nuestros cerebros y así descubrir cómo implementar un mejor modelo computacional en nuestro universo físico. Y entonces tal vez podríamos hacer AGI.

Ahora, algunas personas han hecho esta afirmación de que el cerebro funciona con una teoría unificada de física, que es de donde proviene la conciencia. Roger Penrose ha argumentado algo como esto, por ejemplo. De nuevo, lo considero bastante improbable, yo mismo.

Creo que Cherie Woo a continuación tiene un buen enfoque para esto (fue el enfoque filosófico utilizado en los años 60 para quienes dudan de la “IA eventual”).

Filosóficamente, la pregunta es “¿Podemos, en principio, simular la física lo suficientemente bien como para hacer la biología que tenemos, y así hacer los cerebros que tenemos?”

Creo que la respuesta es “probablemente”.

En términos de ingeniería, la pregunta es “¿Podemos simular AGI lo suficientemente eficiente como para pensar los mismos tipos de pensamientos (o mejores) que pensamos?”.

Creo que la respuesta es “probablemente”. (Y casi con certeza las soluciones no estarán al nivel de la física).

La respuesta depende de qué capacidades a nivel humano son “imposibles” con un TM. Si una IA solo con TM fuera tan capaz como un perro o un chimpancé, eso sería muy útil. (Sospecho que un chimpancé podría conducir un automóvil de manera segura, con suficiente instrucción y asistencia informática continua. Un perro también podría ser suficiente, dada la historia de los perros de observación).

Esto invita a la pregunta, ¿qué aspectos de la cognición podrían ser indiscutibles? Dado que la cognición es efectiva (se completa de manera confiable y productiva), es claramente decidible y computable, tal vez no utilizando una TM. Pero dado que una TM puede implementar cualquier algoritmo informático, AGI debe emplear funciones que requieren más potencia de la que puede proporcionar una TM o computadora. Pero, ¿qué podrían ser?

La no computabilidad surge cuando la información es insuficiente o la función no es determinista. Dado que la información no debería ser una limitación en AGI (siempre se puede proporcionar suficiente información), creo que la necesidad de computabilidad super-TM implica que la función del cerebro humano tendría que ser no determinista, por lo que su funcionamiento está habilitado por mecanismos o información externos. Pero no tengo claro cómo podría probar esto, ya que el no determinismo ventajoso confiable (como un oráculo) debe ser reconocible a través de la presencia de resultados favorables no aleatorios (por ejemplo, adivinar correctamente sin conocimiento previo). A menos que pueda demostrar la existencia de contribuciones externas a la mente similares a ESP, no veo ninguna forma de demostrar, y mucho menos sugerir, que el modelo para AGI requiere más que una máquina de Turing.

En cuanto a esta “fuerza oracular” extrasensorial, ¿presumiblemente existe solo en humanos, y no en especies sub-AGI “menos inteligentes”? Como zoólogo de una sola vez, no presumiría esto. Se ha demostrado que los etólogos animales se equivocan cada vez que suponen que los humanos poseen la habilidad cognitiva “XYZ” (uso de herramientas, construcción de herramientas, imaginación, simpatía, planificación, altruismo, etc.). La evidencia hasta la fecha implica que los humanos no viven en un plano etéreo superior; somos incrementalmente más inteligentes. Tal como AGI probablemente lo es.

Bueno, despiértame en unos 500 años cuando quizás comprendamos cómo funciona el cerebro humano (o animal). El cerebro humano sigue siendo la estructura más compleja del universo conocido. Las computadoras se pueden usar para aumentar nuestra inteligencia (como escribió Doug Englbart), pero no para reemplazarla.

Se puede usar una carretilla elevadora para levantar un bloque de una tonelada, pero aún así no reemplaza el cuerpo humano. ¿Sería útil de todos modos? Solía ​​haber la idea de que las computadoras podrían reemplazar por completo a los humanos, pero ¿cuál sería el punto de tener un planeta completamente automatizado que funcionara sin humanos?

Tal prueba identificaría las limitaciones del modelo de máquina de Turing que otros dispositivos computacionales como nuestro cerebro no están sujetos.

Entonces, lo que sucedería es que las personas comenzarían a investigar dispositivos informáticos no sujetos a estas limitaciones.

Tenga en cuenta que las máquinas de Turing pueden simular computadoras cuánticas, simplemente son lentas. Entonces, o la preocupación sería que las TM son fundamentalmente AGI lentas, o esta prueba se basaría en propiedades computacionales del mundo físico que aún no conocemos.