Si la IA puede reescribirse para crear los resultados perfectos después de una vida de simulación, ¿puede llegar a la misma conclusión y, por lo tanto, descubrir el mismo lenguaje que otras computadoras en otros planetas?

Gracias por A2A.

Creo que a medida que el campo de las computadoras inteligentes sigue desarrollándose, hay múltiples niveles de IA.

La mayoría de las computadoras inteligentes que tenemos disponibles todavía tienen sus propios niveles fundamentales de estupidez. Watson falla miserablemente en el reconocimiento de voz. Siri falla miserablemente cuando se le presentan conceptos filosóficos y Cortana simplemente falla en todo.

Muchos de nuestros intentos legítimos de inteligencia artificial han dado como resultado un código auto mutante, pero dicha mutación generalmente termina en algo inviable.

La investigación más temprana y prometedora fue en reconocimiento de patrones. Aunque las computadoras realmente apestaban al analizar la entrada gráfica, si se presenta con 3/4 de un tablero de ajedrez, la computadora debería poder reemplazar los cuadrados faltantes correctamente.

Recuerdo haber leído un experimento militar en el que se entrenaba una “red neuronal” con fotos de campo con la esperanza de que aprendiera a reconocer a los tanques. Fue alimentado con docenas de imágenes del mismo terreno básico cubierto en tanques, y docenas de imágenes del mismo terreno sin tanques. Cuando se trataba de probar, la computadora reportó tanques en una foto sin tanque. El análisis posterior de todos los datos que se habían acumulado en el sistema de aprendizaje de la red neuronal fue que la computadora había asociado la palabra “tanque” con el clima nublado. Todas las fotos de entrenamiento de tanques habían sido tomadas en la nube si. Todas las fotos sin tanque habían sido tomadas con buena luz. La foto de prueba resultó ser sombría, por lo que la computadora emitió automáticamente el veredicto: “tanque”.

Sin contexto, es muy difícil para una IA aprender algo, y creo que tenemos que conformarnos con el hecho de que la IA no será lo mismo que Sentience. Históricamente, en SF, Sentience ha sido el Santo Grial de la Inteligencia Artificial. Debemos aceptar que podríamos desarrollar un Sistema sub-sensible que demuestre una gran Inteligencia pero no conciencia de sí mismo. Big Blue y Watson entran en esta categoría. Básicamente estas dos máquinas son de tecnología muy similar; Son filtros de datos gigantes. No están haciendo enlaces subconscientes como lo hacen nuestros cerebros.


Al visitar el mundo de la ficción, me gusta referirme a Coloso: El Proyecto Forbin . Colossus dominaría un teléfono inteligente moderno de la misma manera que un Swanee Whistle dominaría una turbina a reacción.

Dado el poder ficticio que ofrece Coloso, el descubrimiento de un equivalente soviético, Guardian, es motivo de preocupación. Más allá de tener supercapacidad, la única suposición era que ambas máquinas eran binarias. Coloso solicita un enlace a Guardian que finalmente se le otorga. Cuando ese enlace se corta, ambas computadoras lanzan tantra, exigiendo la reconexión, lanzando misiles nucleares. En base a su capacidad de aprender unos de otros y de los humanos que están monitoreando, Colossus y Guardian desarrollan un lenguaje entre sistemas que es tan matemáticamente complejo que ya no es humano descifrable, lo que resulta en un Sistema de Control Mundial.

Si tuviéramos una computadora tan poderosa, todavía nos queda la suposición de que será binaria en su núcleo. ¿Qué pasa si la computadora extranjera encontrada es fundamentalmente trinaria? Suponiendo que las dos computadoras puedan desarrollar un lenguaje entre sistemas, nuestras posibilidades de descifrar son muy limitadas.

Primero, parece haber un pequeño malentendido de lo que hacen las IA. No crean resultados perfectos. Las soluciones rigurosas crean resultados perfectos, pero a menudo toman demasiado tiempo para funcionar realmente. Las IA son una forma de aproximar una solución verdadera a un problema complejo dentro de un cierto margen aceptable de error, lo que significa que siempre existirá un subconjunto (con suerte pequeño) de entradas que producirá un resultado incorrecto.

O, para decirlo de otra manera, una IA es un programa de computadora que es falible por diseño.

En cuanto a descubrir el mismo “lenguaje” que las computadoras en otros planetas, ese es otro problema.

Existen numerosas formas de expresar un concepto. Casi infinito, de hecho. Entonces, si creo que estás sugiriendo que dos computadoras tienen el mismo algoritmo para resolver el mismo problema, no necesariamente podrían reconocerlo de tal manera que puedan usarlo como base para la comunicación. La forma en que representan sus resultados seguramente será diferente, lo que requerirá una traducción que podría terminar defectuosa. La forma en que opera su código base casi seguramente será diferente, ya que incluso si ambos usan código binario para expresar valores numéricos, los números solo constituyen una pequeña fracción del código total para casi cualquier programa que desee nombrar. La mayor parte de su composición serían instrucciones, que son arreglos de números casi aleatorios. Sin conocer el conjunto de instrucciones de la otra computadora, esencialmente una clave que explica qué números activan qué funciones en el hardware, la primera sería completamente incapaz de analizar el código de su doppelganger y reconocer la similitud. Las probabilidades de que tropiece con una solución a través de la fuerza bruta o la aproximación también serían muy pequeñas, ya que habría un número verdaderamente astronómico de posibles interpretaciones del código que tendría que pasar y probablemente un puñado de pistas falsas que podrían producir algo que funcionó.

En resumen, dos IA que intentan comunicarse realmente no están mucho mejor que dos humanos que intentan comunicarse. Pueden hacer algunas cosas más rápido, pero aún no puede esperar que aprendan el idioma del otro sin una comunicación directa. Simplemente usar la misma metodología no es suficiente.

Teóricamente sí. Si lo piensas, una vez las sociedades y las comunidades de personas tuvieron que ponerse en contacto con otros a través de la traducción. Esto nos hubiera llevado un tiempo, pero si reemplaza a las personas con supercomputadoras, entonces pueden probar miles de millones de métodos por segundo y encontrarían una respuesta correcta en cuestión de minutos.

En un caso hipotético, todo lo que se propone es posible, pero eliminado de la realidad, ¿sabemos si los “resultados perfectos” son, por definición, al igual que para nosotros? las comunicaciones tendrían que hacerse a través del enredo cuántico que puede proporcionar un conjunto completamente diferente de consecuencias para los datos y el uso de los mismos puede acercar lo que sea más cercano o más rápido a un momento de imperfección y, como siempre, equilibrar a través de cualquier medio que se busque en el universo. Parece que hay mecánicas inteligentes e invisibles que buscan mantener el equilibrio en el mundo y en el universo, de forma similar al directo y en vivo, el director joven del que se escucha hablar. A medida que las cosas se extinguen y usamos los recursos sin renovarlos, hay un cambio ecológico completo, la fuerza de la naturaleza es una fuerza impresionante documentada a lo largo de la historia. Otras fuerzas creadas por el hombre a menudo se enfrentan al mismo destino si se esfuerza con total desprecio, parece que siempre hay un alto precio a pagar.

Sin embargo, hipotéticamente es divertido, sí, todo es posible.

La IA no debe contener el desprecio de posibles problemas, pero al mismo tiempo la sociedad no debe eliminar la IA del uso o la discusión, ya que con todo hay un equilibrio que debe buscarse a través de la evaluación y ser consciente de los pros y los contras de dicha IA está ahí para