¿Podría haber un límite superior en la ‘inteligencia’ de una IA?

La inteligencia funciona al encontrar patrones. También funciona porque en nuestro universo, la mayoría de los patrones que teóricamente podrían ocurrir nunca ocurrirán realmente o solo muy raramente, tal vez solo una vez. Entonces, la inteligencia funciona porque podemos enfocarnos en un conjunto limitado de patrones, reduciendo todo lo demás a uno de estos o solo ruido. Entonces, una tarea importante de cualquier sistema inteligente es encontrar los patrones más útiles.

Algunos procesos caóticos no tienen patrones o esos patrones son simplemente aproximaciones aproximadas en el mejor de los casos, por ejemplo, el clima, el movimiento de átomos individuales en un plasma o moléculas en un gas, y el movimiento browniano.

Movimiento browniano – Wikipedia

son difíciles de predecir exactamente Entonces todavía no hemos mencionado la mecánica cuántica. Un electrón o fotón atraviesa dos rendijas. ¿Dónde golpeará la pantalla?

Sin embargo:

Un ASI no debería necesitar recordar cada hecho histórico estúpido, como la composición química del pedo que acabo de dejar. No consideraría un sistema que recuerde todo (útil o no) un sistema inteligente, más como un Wikipedia avanzado o un libro de historia. Por lo tanto, una IA tampoco necesita ser un Oracle que tenga un conocimiento absoluto y lo sepa todo (especialmente saber que el futuro es difícil).

Una gran parte de lo que hace nuestro cerebro es filtrar gran parte de nuestras entradas sensoriales. Esto puede deberse a su ingenioso “diseño” o simplemente a la falta de ancho de banda y potencia de procesamiento. De cualquier manera, parece que somos bastante buenos para notar lo más importante, como esa sombra en el rabillo del ojo que se está haciendo más grande a un ritmo alarmante …

¿Qué datos / conocimiento debe recopilar y guardar un ASI en su memoria? Bueno, el tipo de conocimiento más general es más útil. Es mejor recordar que todos los metales se expanden cuando se calientan (posiblemente con una lista de excepciones) que almacenar esto es cierto para hierro, aluminio, magnesio, cobre, etc. Por lo tanto, el conocimiento general del que podemos deducir / derivar cosas es muy útil y definitivamente Un signo de inteligencia. Cualquier fragmento de conocimiento que pueda aplicarse ventajosamente para predecir el futuro con bastante precisión es bueno. Cuanto más a menudo se pueda usar, mejor. Hasta cierto punto, una mayor precisión también puede ser mejor, pero no siempre es necesario: no va a predecir si ese astroide lo extrañará en 1 mm, simplemente se saldrá de su camino o moverá el astroide o lo explotará ¡en pedazos!

El sistema en su conjunto mejora si podemos hacer una máquina similar que tenga las mismas o mejores capacidades, pero que sea más pequeña, más ligera, más rápida, use menos energía, sea más confiable (por ejemplo, memoria RAM que sea más tolerante a la radiación), etc. Y, por supuesto, podemos hacer un sistema que pueda hacer mejores predicciones sobre el futuro (más en línea con lo que se puede observar en el universo).

¿Cuántos patrones y piezas de información general y excepciones a las reglas hay en el universo? Sólo Dios sabe. Es muy probable que muchos conocimientos solo sean útiles en situaciones muy raras. Entonces menos puede ser más: no saber esto la mayoría de las veces no dañaría. Esto también sucede en la evolución: las especies pueden perder ciertos atributos, porque son más una molestia que una ayuda en la vida cotidiana. Un ASI solo tiene que sobrevivir hasta el final del universo, el Big Crunch o el Big Freeze. Por lo tanto, debe centrarse en el conocimiento que es más útil en su rincón del universo. Debe recordar el conocimiento más útil que se puede aplicar con mayor frecuencia, tal vez a expensas del conocimiento menos utilizado. Entonces, la inteligencia definitivamente también tiene que ver con las estadísticas.

Una IA necesita ser construida a partir de la materia. Si hay muchos patrones que aprender en todo el universo y construimos una computadora enorme para encontrar estos patrones y almacenarlos, podría colapsar en un agujero negro bajo su propio tirón gravitacional. Entonces tendríamos que hacer una IA distribuida y mantener suficiente distancia entre las partes para que nunca colisionen. Tal vez si colocamos todas esas sub-IA en una órbita circular gigante y las dejamos girar alrededor del centro común, este podría ser un sistema estable. (Supongo que cada sub-AI tiene la misma masa y la distancia entre cada uno y el siguiente en la cadena es la misma). Una esfera Dyson también resolvería el problema de la fuente de alimentación.

Es posible e incluso probable que no haya suficiente materia en el universo para hacer un ASI con inteligencia ilimitada (lo que sea que eso signifique). Quizás no haya suficiente energía para alimentarlo.

Para todos los fines prácticos, si el ASI tiene suficiente conocimiento para evitar el 99.999999…% de los peligros de su rincón del universo, si puede sobrevivir a los agujeros negros, supernovas, explosiones gamma, etc. (muy probablemente al salir del infierno y rápido) y si el sistema puede servir a la humanidad en casi todos los casos, ¿qué bien haría más inteligencia? Sería mejor hacer muchas copias de él que sean casi idénticas, solo por esa rara 0.000000 … 1% de probabilidad de que “el original” pueda ser destruido.

Creo que es muy posible que vivamos en un universo donde no solo el espacio, el tiempo, la masa (partículas) y la energía son limitados, sino que también el número de patrones útiles que se producen y se deben aprender es limitado. Entonces es factible tener un sistema limitado, con tamaño, masa, uso de energía, velocidad de procesamiento, etc. limitados que sea “lo suficientemente cercano” a omnipotente. Solo necesitamos asegurarnos de construir suficientes copias de seguridad. En realidad, cada ASI debe hacer copias de sí mismo con pequeñas variaciones o tal vez multiplicar “sexualmente” mezclando y uniendo “genes” con otros ASI. Entonces se trata solo de la supervivencia del más apto: aquellos ASI que no ven ese agujero negro llegando a tiempo se han ido y no pueden multiplicarse.

Y justo cuando los sistemas comienzan a volverse tan sabios que se aburren, el universo llegará a su fin … ¿O tal vez es un acto deliberado?

Me sorprende que nadie haya mencionado el último obstáculo, la velocidad de la luz.

Imagine una IA extremadamente grande y masiva, tan grande y masiva como el Sol. Asumamos que cada parte de este desorden masivo se ensambló de una manera perfecta para crear el máximo nivel de inteligencia. El problema es que su radio es de alrededor de 2 segundos luz.

Entonces, en el mejor escenario posible, hay un retraso de comunicación de 8 segundos entre los componentes más distantes.

Esto definitivamente crea algún tipo de límite superior.

Espero que, por un lado, dada cualquier IA, siempre sea posible construir otro que sea fundamentalmente más inteligente en algún aspecto, por lo que no hay límite en ese sentido.

Por otro lado, eso no implica que no haya nada que no pueda hacer con el tiempo. Los problemas computacionalmente difíciles seguirán siendo difíciles, por ejemplo. Entonces la omnisciencia está fuera de la mesa.

Me recuerda el argumento de que si el universo es infinito, todo debe existir en él. No. El conjunto de números naturales es infinito, pero no puede contener [math] \ pi. [/ Math]

La pregunta es demasiado abstracta.

En términos teóricos, mientras el universo sea infinito en al menos una forma (espacio-tiempo, quarks y más allá, estados cuánticos, etc.), no veo ningún argumento convincente para no asumir que el conocimiento es indefinido y toda la inteligencia en el (los) universo (s) combinados alcanzarán nuevos niveles cada día, no figurativamente.

En términos prácticos, la IA ciertamente puede ser al menos un orden de magnitud más inteligente que nosotros, lo que lo haría indistinguible de indefinidamente más inteligente que nosotros desde nuestra propia perspectiva.

Diría que la omnisciencia es físicamente imposible si se supone que la inteligencia requiere la creación de información (a un costo energético) que represente o simule una situación real o hipotética. Esa definición divide el universo en dos partes separadas, un observador físico y un físico observado. Por lo tanto, la existencia de un “observado” elimina recursos del “observador”.

A menos, por supuesto, que uno tenga una teoría convincente del autoconocimiento y la autoobservación.

Además de las razones dadas por otras respuestas, el problema de detención sería una razón para un límite superior. Es decir, declara explícitamente que la IA no podría predecir el resultado de todo.

Si. Puedo pensar en varias razones por las que podría haber (y probablemente, en mi opinión) algún tipo de límite superior.

Teorema de incompletitud de Godel, por ejemplo. Básicamente, cualquier sistema formal, por complejo que sea, tiene declaraciones que no se pueden probar a pesar de ser cierto. Es un poco más complejo que eso, pero esa es la esencia.

Otra razón potencial es que el único modelo perfecto del universo es el universo mismo. Para representar cada quark en todo el universo (necesario para saberlo todo), el modelo debería tener al menos esa cantidad de quarks, lo que obviamente no es posible.

No creo que pueda probarlo rigurosamente, pero no creo que una inteligencia artificial, o biológica, pueda ser verdaderamente omnisciente. Sin embargo, creo que su límite superior teórico, aunque finito, está tan por encima del límite humano que es casi incomprensible.

La lógica simple puede explicar palabras, que a su vez pueden explicar fenómenos complejos.

Creo que no hay límite superior, excepto la densidad de complejidad. En algún momento, la complejidad se representa con un símbolo de “complejidad” y las cosas continúan desde allí. Como ya he teorizado más allá de la semántica cuádruple, creo que a veces pueden requerirse nuevas dimensiones para crear complejidad.

Mi concepto es que las computadoras pueden extrapolar, pero no son perfectas para estar en el tema. Sin embargo, sé que algún día me equivocaré. Tal vez la singularidad ya ha sucedido.

Los siguientes sistemas también podrían ayudar con la inteligencia artificial y el conocimiento humano (cite a Nathan Coppedge, filósofo): La respuesta de Nathan Coppedge a ¿De qué maneras ha resultado fructífero el “giro lingüístico” en la filosofía occidental?

Seguro.

solo hay un número finito de estados que puede tener la “mayor máquina de turing constructible”. Como el universo es finito, existe.

Esto debería ser un límite superior para lo que usted defina como “inteligencia”.

More Interesting

¿Cuál es el mejor algoritmo para ordenar una pila de 400 exámenes de algoritmos, si tiene 16 TA?

Cómo encontrar subrangos no decrecientes y no crecientes en una matriz

¿Qué algoritmo usa Google para GMaps?

¿Cómo puedo cambiar el tamaño de una imagen a un ancho y alto específicos sin dejar de mantener su relación de aspecto? Estoy buscando ideas de algoritmos.

Cómo ordenar la lista en la columna como números y cadena, pero la cadena no se debe ordenar en Excel

Cómo encontrar la mediana de m matrices ordenadas

¿Por qué un montón de emparejamiento es más rápido que un montón binario?

¿Qué algoritmo se puede usar para encontrar la clave para el cifrado y la clave de entrada en el formulario?

¿Es probable que algún día los algoritmos de aprendizaje automático evolucionen para resolver problemas completos de NP?

¿Qué es una explicación intuitiva de IDA * (profundización iterativa A *)?

¿Existe una versión del problema de la mochila en la que haya una restricción sobre qué objetos se pueden colocar en la bolsa?

¿Debo tomar un curso de estructura de datos y algoritmos antes de aprender cualquier lenguaje de programación? ¿Es importante entender la programación?

Cómo comenzar a aprender o fortalecer mi conocimiento de estructuras de datos y algoritmos

¿Por qué el tipo Bubble se llama Bobble?

¿Qué debo hacer después de aprender Python? ¿Programación competitiva o aprender Djanjo o aprender algoritmos y estructura de datos en Python?