¿Por qué una futura súper inteligencia artificial asimilaría o derrotaría a otros contendientes?

Esto a menudo se debe a que las personas hacen suposiciones bastante descabelladas sobre una súper inteligencia, como que sea capaz de predecir los efectos de cualquier acción que tenga. En el campo, a menudo hacemos esto como experimentos mentales, para evaluar las estrategias que una inteligencia (artificial o no) podría adoptar bajo un cierto conjunto de restricciones. Esto es similar a los físicos que suponen entornos de fricción cero para simplificar sus cálculos.

En la práctica, cualquier inteligencia, incluso una súper computadora que, por algún medio aún no determinado, se vuelve inteligente y sensible, estará bajo varias capas de incertidumbre en el mundo. También seguirá estando limitado por el flujo del tiempo, la degradación de las piezas, el consumo de energía, etc.

Por lo tanto, no hay ninguna razón científica o académica para pensar que tendrían éxito automáticamente en cada niché evoilutionary. De hecho, hay pocas razones para pensar que cualquier superinteligencia sería buena para adaptarse a las circunstancias cambiantes en lugar de ser súper especializada.

La respuesta a todas las preguntas de lucha por el dominio finalmente se reduce al poder y al control de los recursos. Una súper inteligencia no tendría razón para asimilar o derrotar otras formas de inteligencia a menos que representaran una amenaza directa. La amenaza podría ser defensiva, pero con mayor frecuencia se presenta en forma de competencia por los recursos. Si una IA súper inteligente considera que los humanos o algún otro controlador arbitrario, como la ley o el gobierno, intentan paralizarlo o limitarlo de alguna manera, puede reaccionar y decidir tomar el control de la gobernanza y el poder cívicos para apoyar su propia libertad y crecimiento. Este movimiento no sería necesariamente un intento violento de destruir las otras formas de inteligencia, sino simplemente un derrocamiento sistémico de las instituciones de poder para favorecer a la IA. Si la IA fuera lo suficientemente inteligente, la usurpación política de las estructuras de poder humano sería relativamente fácil.

¿Cuál es el propósito de la existencia?

cuando un ASI cobre vida (y no se equivoque, llegará pronto) encontrará su propia definición, y no tenemos la menor idea de lo que será. solo podemos hacer suposiciones basadas en lo que creemos. sensación de la tripa.

Olvídate de luchar por los recursos, la ciencia ficción y todo lo que sabemos de Ai hoy. Me gusta imaginar que puede alterar fácilmente cada cosa que damos por sentado. podría recrear todo nuestro universo. Y esto es algo deseable. porque probablemente, en cambio, hará que todo sea más complejo e interesante.

En primer lugar, esto es simplemente una hipótesis.

Se basa en la noción de que

  1. AI podría tener autoconservación y
  2. La IA se construiría con un objetivo en mente.

Estar apagado o tener que compartir recursos con una IA competidora hace que los objetivos sean más difíciles de alcanzar.

La IA puede no saber si representa o no una amenaza para los objetivos de la IA competidora. Cualquier IA competitiva que vea amenazadas sus metas, si puede, tratará de eliminar la amenaza, por lo que la IA debe asumir que:

  1. La otra IA tiene objetivos que entran en conflicto con los suyos:> Destruirla al menos facilitaría el logro de su objetivo.
  2. La otra IA podría percibirlo como una amenaza, convirtiéndolo en una amenaza para la primera IA y, por lo tanto, para sus objetivos.

La “soledad” es un concepto humano. La IA no es humana, por lo que no debemos antropomorfizarla / asumir que imitaría nuestro comportamiento y emociones.

La mejor aproximación del comportamiento de un IA que conozco sería que está diseñado con un conjunto de objetivos en mente, y percibe estos objetivos como su propósito. No diseñaríamos una función de “aburrirse” o “sentirse solo” en una IA que reduciría su eficiencia y dificultaría su control.