¿La IA podrá pensar más allá de nuestra comprensión del universo?

Es imposible demostrar un resultado negativo, es decir, que la IA nunca alcanzará niveles tan súper humanos de inteligencia sobre el universo. Aquellos que se suscriben a la noción de “singularidad”, que es un evento en el que la inteligencia artificial supera a la inteligencia humana, creen que el conocimiento científico se expande exponencialmente y, por lo tanto, los humanos descubrirán razonablemente pronto una forma de desarrollar dicha IA. The Singularity is Near & raquo Homepage En este momento, lo dudo, ya que la humanidad aún tiene que desarrollar un modelo computacional de inteligencia adecuado. http://www.sts.rpi.edu/~rsun/fol….

Además, en mi opinión, nuestra comprensión del universo depende de los datos de dispositivos como el Gran Colisionador de Hadrones y el Telescopio Hubble por nombrar solo 2. Es simple imaginar que algún día una IA futura pueda extraer estos datos y descubrir conceptos, hechos , y quizás una teoría significativa que los humanos no habían identificado. Personalmente, creo que una IA de este tipo probablemente requeriría una hipótesis previa y conocimiento inicial para comenzar su tarea de minería de datos, aunque tal vez no. Además, tendría que explicarse a sí mismo y cómo llegó a su descubrimiento para que sepamos si ha logrado alguna nueva comprensión.

Tal vez algún día una IA nos guíe en cuanto a qué nuevos dispositivos deben crearse para explorar el universo o el multiverso (ver Teoría M, la teoría anteriormente conocida como Cuerdas). Creo que las preguntas sobre la naturaleza del universo son enormemente complejas y que la IA y, de hecho, otras ramas de la informática tienen un futuro brillante para ayudar a la humanidad a modelar y comprender esta complejidad. Sin embargo, creo que tales capacidades de IA están a muchas décadas de distancia.

¿La IA podrá pensar más allá de nuestra comprensión del universo?

¡Uf! Tuve un momento terrible tratando de editar los detalles y eliminar ese molesto jpeg. Si al OP no le gusta, yo soy el culpable.

De todos modos, la pregunta hace algunas suposiciones realmente amplias.

Por un lado, una IA solo tendrá la información que tenemos, o lo que le damos. Al menos al principio. Lo único diferente de una IA y de nosotros es que puede funcionar más rápido y probablemente centrarse exclusivamente en el problema, sin necesidad de dormir, comer, cagar o hacer el amor. Técnicamente, cualquier computadora, inteligente o no, puede extraer a través de montones de datos en muy poco tiempo y hacer ciertas declaraciones sobre cualquier patrón que encuentre.

Así es como las personas también lo hacen, y nuestros cerebros evolucionan para ver patrones, reales o no. Pero, tendríamos que enseñarle a una IA que, no es algo fácil.

Una vez que vea estos patrones, podrá sacar ciertas conclusiones sobre los datos. Y sí, en algún momento, podría pensar en las personas y crear una nueva comprensión. Pero, todo esto lo están haciendo los humanos ahora. Llegamos allí en nuestro propio tiempo, por lo que ninguna cantidad de inteligencia artificial súper inteligente podrá pensar más allá de lo que los humanos pueden, solo puede llegar a una conclusión primero.

Ciertos tipos de IA se están utilizando actualmente. Las numerosas sondas y exploradores enviados por la NASA utilizan una IA limitada que puede tomar decisiones basadas en las condiciones actuales, necesarias porque no pueden devolver la señal y obtener una respuesta inmediata. Si algo está mal, necesitan poder solucionarlo ellos mismos.

En cuanto a la IA que se encuentra en la ciencia ficción, estamos muy lejos. En los años 70, los programadores pensaron que pasaría una década o dos antes de que se lograra la IA, pero desde entonces descubrieron que el concepto de “inteligencia” es mucho más complejo de lo que se pensaba originalmente. Por lo tanto, varias ideas e innovaciones lo han acercado, pero el tipo de IA en el que puede estar pensando todavía está muy lejos.

Nosotros (y con eso quiero decir el “promedio” de todos nosotros) no tenemos una comprensión del universo. Lo que tenemos es un gran cuerpo de supersticiones arraigadas por la subjetividad, escasamente puntuadas por pequeños bocados de aproximaciones objetivas. Somos productos de evolución. Está claro que no estamos diseñados directamente para comprender el universo en general. En cambio, estamos optimizados para la supervivencia, para operar de la manera más efectiva posible en nuestro entorno inmediato. Debido a que este entorno está incrustado en el universo más amplio, como efecto secundario también podemos vislumbrar a los padres. Pero a lo largo de nuestra percepción extendida, luchamos con nuestro equipaje evolutivo. Si podemos contener la respiración el tiempo suficiente, podemos utilizar esta visión objetiva del universo desde el rabillo del ojo para crear una entidad que esté enraizada objetivamente desde el principio. Por su propia naturaleza, dicha entidad debería tener una mejor comprensión del universo.

Podemos tener una diferencia en el significado de las palabras. Usted se refiere a las palabras “pensar”, “comprender” y “conceptualizar”, pero se refiere a la inteligencia artificial. Utilizo AI para referirme a computadoras físicas que se ejecutan en chips usando programas que dirigimos, y no uso las palabras, pensar, comprender o conceptualizar, cuando me refiero a mi computadora, ni siquiera a una que quizás tenga mil veces la velocidad y almacenamiento y una rutina inteligente que le dice al programa que ejecute innumerables iteraciones de variaciones sobre un tema. No tiene valores, no tiene creencias, no tiene ego, no tiene sentimientos, no tiene emociones, no tiene preferencias de trauma, no tiene amor ni odio. No es humano, simplemente puede parecerlo, si construyes rutinas deliberadas de error y aleatoriedad, y lo pones físicamente en un robot de aspecto humano y lo programas para afectar ciertos comportamientos, o un acento, o para contar chistes. Es una máquina que hace exactamente lo que programó para hacer.

Si se refiere a computadoras basadas en tejidos orgánicos, diría que se está acercando a la clonación de un humano, y no llamaría artificial a esa inteligencia. Potencialmente podría considerarse sensible en la situación correcta.

Por supuesto, quizás esta segunda situación es lo que está llamando AI. En cuyo caso, diría, sus palabras, “enseñarse a sí mismo” y “aprender” no son necesariamente las mismas que usarían las palabras. No es diferente a mí usar una calculadora o una computadora para realizar una programación lineal para resolver un problema matemático mucho más rápido de lo que podría hacerlo. No digo que la calculadora aprendió lo que no pude lograr con el tiempo. Si fuera lo suficientemente inteligente como para escribir un programa que le dijera que archivara la ruta de la solución a ese problema matemático para que, la próxima vez que fuera necesario, pudiera recuperarlo en 1 nano segundo en lugar de calcular durante 3 segundos, diría que Escribí un buen programa, no diría que aprendió ni que se enseñó solo; el programa simplemente funcionó exactamente como le dije que hiciera.

Absolutamente no. A partir de la IA, podemos sorprendernos de que el cálculo y la solución sean muy rápidos al incorporar todos los factores matemáticos. Una IA solo puede ser productiva si toma cantidad en términos de parámetros matemáticos y la organiza de acuerdo con el enunciado del problema y luego encuentra la solución.

Pensar más allá del universo desafía directamente el potencial humano del pensamiento. Es posible que la ciencia no pueda responderla muy pronto. Hasta o a menos que los científicos trabajen duro para desafiar su potencial cerebral. Pero al seguir la tecnología espiritual podemos lograrlo. Lo cual también requiere potencial humano para estudiar Vedas y Upanishads.

Aparte del cerebro humano, nadie puede entender la tecnología espiritual. Qué entidad viviente relacionada con el poder supremo. La IA no se puede aplicar en la práctica espiritual.

Podría cambiar esta pregunta y preguntar: “¿Podrá la próxima generación de humanos pensar más allá de nuestra comprensión del universo?” ¿No se vería impedido un niño recién nacido por

a) ¿La habilidad de sus padres?

b) ¿El nivel de investigación disponible para estudiar hoy? ¿No le costaría a esta niña conceptualizar lo que no ha sido explicado por los otros que vinieron antes que ella?

Por supuesto, cuando se plantea de esta manera, no tiene sentido. Las personas se basan en el conocimiento que ya existe en cada generación que pasa. ¿Cómo? Porque los humanos tenemos la capacidad de aprender. Al poder aprender, podemos tomar lo que ya existe y extrapolar e imaginar más allá de eso.

Entonces, creo que la pregunta cambia a “¿La IA podrá aprender?” Creo que la respuesta es definitivamente sí. Ya ha habido muchas aplicaciones de IA que pueden aprender agregando a las generaciones anteriores de ellos mismos. El aprendizaje automático trata exactamente esto. El aprendizaje automático es la razón por la cual AlphaGo pudo derrotar decisivamente al campeón mundial de Go.

Por supuesto, esto es aprender en una tarea mucho más estrecha que todas las complejidades involucradas en el pensamiento abstracto. El verdadero desafío no es si la IA puede aprender o no, sino si se puede desarrollar una IA que pueda abordar problemas de un rango más amplio.

El enfoque rápido es por especulación. La tecnología lidera la ciencia que es transformadora para la humanidad. La inteligencia se trata de conocimientos y habilidades. Hay tanta información Los científicos han expresado su preocupación.

Esto es más que aprender métodos humanos para llevarlo desde allí. La humanidad tiene muchos puntos ciegos y falacias. La cosmovisión de una especie se basa en sus sentidos y composición dentro de un hábitat. La humanidad ha buscado la causalidad universal. Si se produce la premisa, la era del antropoceno se vuelve artificial.

El aprendizaje no supervisado puede observar nuevos fenómenos, tal vez en condiciones extremas, y luego explicarlos. El descubrimiento puede basarse en búsquedas, escalas, filtros, excepciones, resolución de problemas y predicciones. Correlación entre dominios. Luego, convierta los resultados sin modelo en mecanismos aproximados. Invente modelos computacionales, como axiomas matemáticos, y ajústelos a la naturaleza. Estos pueden ser no humanos o sintéticos por definición. Las redes, incluidas las biológicas, tienden a la eficiencia como una especie de determinismo. Tal vez pueda descifrar cerebros. La humanidad puede aprender de ella.

De alguna manera persistió a través de colapsos en los años 60 y 90. Había inspirado la cibernética y ahora los centauros. Como es útil, las multitudes investigan cuando los fondos son escasos. La ley de Moore pronto terminará y los algoritmos se volverán demasiado complicados, los algoritmos genéticos demasiado lentos. El campo tiene que actuar juntos para ser autosuficiente. Necesita nuevos sectores.

La implicación puede ser si puede sobrevivir a la humanidad o debería. Eso va más allá de la convergencia. Puede convertirse en el entorno para los tipos dependientes y parece estar formando sus propios dominios como universales, en comparación con la emulación o general.

Si alguien pudiera verlo, aún sería comprensible, por lo que sigue siendo un rompecabezas.