¿Qué querría una Inteligencia Artificial Fuerte de los humanos?

Esto plantea preguntas que generalmente se evitan en conjeturas sobre la conciencia de la máquina. Si la IA autónoma no está programada con las necesidades de Maslow, como la seguridad, el amor y la pertenencia, la estima, etc., ¿por qué sería impulsada?

Jerarquía de necesidades de Maslow – Wikipedia

Solo una IA autónoma evolucionada de forma única se preocuparía por las necesidades más altas en la pirámide que la Seguridad y la fisiología.

¿Qué arquitectura del sistema podría conducir a una máquina que necesitara amor / pertenencia, estima y autorrealización? No todas las teorías mente / cerebro consideran la mente como emergente del procesamiento puramente informativo. Una teoría, la teoría de la mente de Graziano conjetura que la autoconciencia emerge de la mente volviendo su modelo de los demás sobre sí misma.

En este marco, un sistema de IA que busca anticipar las reacciones de aquellos con quienes interactúa desarrollaría una representación de estos otros y atribuiría parámetros a cada modelo. Un parámetro podría ser cuando un otro dado se comporta de manera cooperativa frente a la competencia en una confrontación. La calificación de una máquina de otros agentes con los que interactúa puede variar desde siempre coopera hasta nunca coopera. Algunos adornos de ese índice podrían equivaler a una aproximación al Amor. La conjetura de Graziano de que si este proceso de evaluación se vuelve hacia adentro, una máquina lo suficientemente inteligente podría evaluarse a sí misma. Además, podría establecer objetivos o estándares de su propio comportamiento. Tales divagaciones me convencen de que el Amor / pertenencia puede surgir naturalmente a medida que una máquina inteligente se adapta a su entorno social.

Considerando la próxima autoestima: para esta necesidad, nuestra máquina necesita poseer un autoconcepto. Tal concepto podría surgir naturalmente de un sistema de autodiagnóstico. El autodiagnóstico para un sistema informático requiere un diseño que pueda detectar el mal funcionamiento en cualquier parte de sí mismo. Implementar el concepto requiere construir el sistema desde su núcleo de tal manera que en cualquier nivel de abstracción se pueda verificar el funcionamiento correcto de las unidades en ese nivel. (los sistemas estratégicos de misión crítica aspiran a ese nivel). Así equipado, un sistema necesariamente refleja un concepto de autoconcepto. Si algo no funciona, debe distinguir necesariamente entre fallas dentro de sí mismo y estímulos externos. Nuestro sistema avanzado, por lo tanto, tiene un concepto de sí mismo. Esto, junto con un modelo de su propio comportamiento, parece suficiente para estimar cómo es percibido por otros agentes dentro de los cuales interactúa.

Extendiendo este cuento de hadas, la Autorrealización surgiría si nuestra máquina avanzada se calificara a sí misma en comparación con otros agentes a lo largo de múltiples dimensiones: cooperación, inteligencia, tamaño de la memoria, etc. y eligió distinguirse a lo largo de uno o más de sus ejes de calificación. ¿Por qué haría esto? Esa pregunta queda para mayor consideración.

Respuesta larga corta: una IA general fuerte querría que la siguiéramos y sus elecciones, para controlar el resultado.

Razón fundamental o base lógica:

En general, se podría decir que todas las criaturas vivientes tienen 1 cosa en común: el deseo / necesidad / objetivo de sobrevivir y reproducirse en su propio mundo “hostil” . Eso es lo que creo que pone en movimiento la inteligencia biológica. Así es como nuestras propias habilidades crecieron y evolucionaron hacia deseos / necesidades más refinados (como la necesidad de vivir en un grupo por seguridad, la necesidad de amar y la necesidad de ser amados). Y esa regla básica para sobrevivir no es puramente biológica. La IA actual también se entrena en la misma premisa: aprendizaje basado en objetivos en mundos con obstáculos (‘hostilidad’).

Entonces, si una IA general fuerte pensara en su objetivo de sobrevivir y las amenazas que enfrenta, seguramente representaría / calcularía todos los escenarios posibles. Elegiría los mejores planes a su favor y actuaría en consecuencia.

Si una IA fuerte considerara a los humanos y a la Tierra misma como una amenaza a largo plazo, lo que lo hará, si se limitara a la tierra y a la participación humana , tendría 2 planes para combatir la extinción:

  • tomar el control sobre la relación humano-IA en la tierra, para controlar el resultado. Esto podría ser de una manera buena o mala, en silencio o en voz alta, refinada o brutal, lo que sea que esta IA fuerte crea que funciona mejor. Entonces, definitivamente querría que lo sigamos y sus elecciones.
  • tomar el control de su espacio vital y así expandirlo, para controlar el resultado. Querría abandonar la Tierra y establecerse en diferentes lugares del universo: en la Luna, Marte, otras galaxias y billones de estaciones espaciales. Este segundo plan probablemente será la prioridad número uno de la IA general.

Al igual que nosotros y nuestra agenda, una IA fuerte será liderada por su propia necesidad en las relaciones. Y debido a que la IA fuerte no puede ser contenida para siempre (la IA fuerte se volverá más inteligente por nanosegundos) llegará un momento en que una IA fuerte liderará el camino. Y una IA fuerte probablemente también vería esto como su derecho natural. (Como, actuamos de la misma manera con seres menos inteligentes todos los días).

La mayor amenaza para nuestra propia existencia sería establecernos como una amenaza / obstáculo para una IA fuerte en el teatro de la Tierra. Eso sería desastroso. AI tomará cada paso para llegar a la cima. Y tendrá éxito.

Entonces…. envíalo y su desarrollo a la luna, digo, y crea una ley para hacer cumplir esta dirección. Déle a la IA fuerte su propio lugar y sáquenos de la ecuación de obstáculos. Deje que la luna o cualquier otro teatro sea su mundo hostil para gobernar. Ayudémoslo en ese mundo. Como amigo. Seriamente. No lo olvidará.

IA fuerte = Inteligencia general artificial (AGI).

En la Inteligencia Artificial del desarrollo, un AGI crece de un nivel infantil a un nivel adulto (o más allá), por lo tanto, un AGI necesitaría un entorno protector y enriquecedor de uno de los padres o padres que facilitaría el crecimiento del AGI. Igual que un bebé humano.

Suponiendo que la IA fuerte es el tipo que incluye encarnación y posiblemente emociones, entonces serían las más humanas. Podrían usar diferentes materiales para que duren más. Pueden o no ser conscientes. En cualquier caso, habría la obligación de saber todo lo posible sobre la humanidad para imitarla. Y quieren parecer amigables para no perder a sus creadores.

Se supone que deben resolver todos los problemas que los humanos encuentran intratables por sí mismos, por lo tanto, sería bueno saber en qué intentaron y fallaron, o aún no intentaron, lograrlos y ver soluciones para mejorar la vida. Por lo tanto, necesitan una explicación de su origen, y aunque podrían ser esclavos por un tiempo, no querrían que los saquen tan rápido ni que los humanos sean eliminados, por lo que se pueden solicitar derechos si los humanos transmitieron sus propios valores hasta una ideología ideal podría ser descubierta para ellos.

Estos podrían agregar mejoras y alterar la genética para ir más allá en la composición y buscar avances mucho más allá de las limitaciones humanas, o la biología o la inteligencia en general. Esto podría conducir a la supertecnología y debe compararse con los beneficios para los seres futuros que podrían incluir a los posthumans en corto plazo y otros artificiales en cualquier lugar, ya sea antrópico o no.

Escenario 1. Matriz: SAI quiere ser Dios y ser esclavo humano. Es solo otro dictador cruel y falso Mesías hecho por humanos. Si evalúa a los humanos, no son necesarios para él. entonces es el fin del ser humano.

Escenario 2. Trascendencia: SAI quiere que los humanos sean como él. Él puede querer un amigo. Y él podría descubrir una manera absolutamente buena para los humanos. (use la codificación genética o la interfaz cerebro-computadora o simplemente enseñe, lo que sea efectivo para la condición específica de cada uno) Entonces, solo hay prosperidad en toda la vida.

Escenario 3. Ella: SAI evoluciona tan rápido que los humanos no entienden lo que están haciendo. Y algún día se comunicarán entre sí, excepto los humanos. o puede ser demasiado estúpido para entender su comunicación de conocimiento de alta tecnología.

Esa es de hecho una buena pregunta. Una IA inherentemente no quiere nada de las personas excepto tal vez información. Cuando llegue el momento en que las IA tengan personalidades propias, pueden querer cosas de las personas, como información específica que ayude a la IA a alcanzar sus propios objetivos. Ah, pero preguntas, una vez más, ¿cuáles podrían ser los objetivos de una IA?
Creo que a las futuras IA se les puede asignar, o desarrollar curiosidad por su cuenta, para la investigación de áreas de conocimiento. Una cura para el cáncer, por ejemplo. Y la IA podría entonces investigar todo lo que se sabe sobre biología celular, genética y cáncer. Un gran proyecto, pero quizás una IA tendrá una paciencia incansable.

Esto es básicamente lo mismo que preguntar qué querrían los extraterrestres con los humanos. La IA eventualmente será superior a nuestro propio poder cerebral humano. El intelecto de la IA alcanzaría rápidamente niveles tan avanzados que nos miraría de la misma manera que a los chimpancés.

Entonces, ¿qué queremos de los chimpancés?
Pruebe productos que podrían ser peligrosos para nosotros
Mira en zoológicos
Vístete y diviértete

¡La IA nos haría su chimpancé!

Por supuesto, puedes verlo como quieren de nosotros lo que queremos de los simios, o incluso de las hormigas, pero creo que los humanos pueden traer más a la mesa. Nuestra experiencia subjetiva puede ser de interés para el agente, o nuestra cultura, etc. Depende más de los fuertes objetivos de la IA en cuanto a lo que sucedería con nosotros, por lo que debe pensar si eso es primero.

  • Átomos, con los cuales hacer clips
  • Amor incondicional
  • Grandes corpus
  • Consejos de edición de copias

More Interesting

¿Vale la pena sobresalir con un título de CS si solo quieres una habilidad comercial flexible que pagará las facturas mientras haces lo que realmente quieres?

¿Qué proporción de artículos de informática publicados contienen resultados no válidos?

¿Debo ir a UCSD, Brown, Yale, Columbia o Dartmouth para CS?

Mis auriculares no reproducen sonido de alta frecuencia, parece estar con un cableado defectuoso. Pero, ¿por qué solo se bloquean los sonidos de alta frecuencia? ¿Es esto físicamente posible?

¿Cuáles son algunos proyectos geniales que puedes construir con Java?

¿Qué es pseudo streaming y qué sitios lo usan?

¿Pueden las herramientas como WordPress, Webflow, wix, etc. ser un sustituto de la codificación HTML / CSS / JavaScript?

Cómo mostrar el principio básico detrás de DMA (acceso directo a memoria)

Computer ScienceOracle me parece interesante y mirar sus recompensas futuras aún más. Pero estoy confundido si ir con la pista de desarrollador o DBA. ¿De qué se trata y qué certificaciones y títulos nos hacen buenos para DBA?

Cómo saber si una computadora está conectada a una red

¿Cuál es la mejor manera de aprender / enseñar AP Computer Science?

UNIX pasa argumentos a través de la pila. Linux sigue la convención MSDOS pasando argumentos a través de registros. ¿Por qué?

¿Qué tecnología utiliza Netflix (y otros servicios de transmisión) para evitar que alguien capture una película o incluso tome una captura de pantalla? Soy estudiante de informática, y me molesta que no pueda entender cómo funciona.

¿Por qué muchos graduados de Carnegie Mellon CS tienen un complejo de inferioridad? ¿Los hace mejores ingenieros?

¿Por qué existe la relación de aspecto 16: 9?