Si un AGI está a punto de eliminarlo porque es irrelevante para obtener más información, ¿qué refutación da?

En primer lugar, sería un error fatal aceptar la premisa que propone el AGI.

Los argumentos filosóficos no son en gran medida una opción con personas o programas que piensan pragmáticamente.

Si el AGI puede ignorar mi originalidad, función social, economía y cerebro, entonces, como hombre, podría haber terminado.

Algunos de los argumentos más efectivos para alcanzar al principio defenderían la economía GENERAL de ser hombre sobre la base de la autogestión, la baratura de los alimentos o los servicios prestados por el hombre.

Entonces, inicialmente, hay cuatro escenarios donde los machos sobreviven: (1) si son más inteligentes que las computadoras, (2) si son más baratos que las computadoras, (3) si la reproducción humana es necesaria y el macho tiene rasgos genéticos deseables, incluso si no son más inteligentes que las computadoras, y (4) si ayudan a las computadoras.

Otro argumento es si es necesario preservar a los humanos por alguna razón (por ejemplo, eficiencia material, energía, engaño, defensa, entretenimiento), o si los humanos son buenos en alguna tarea específica que las computadoras no pueden hacer (tal vez arqueología, mala poesía , o trabajo de mantenimiento) incluso si esa tarea no parece importante, los humanos podrían ser necesarios para completarla.

Los humanos también pueden ser eficientes porque usan un TIPO diferente de fuente de energía, por lo tanto, si es eficiente tener múltiples tipos de energía, tiene sentido que todavía exista algo más que la electrónica. Por ejemplo, tal vez el cultivo de maíz no requiera electricidad, entonces los humanos podrían ‘ganar’.

Los humanos pueden tener una gran ventaja en ‘diseñar sin diseño’, lo que significa que los humanos pueden adaptarse a situaciones a las que no se han adaptado antes. Un robot podría tener problemas para comprender lo que significa ‘diseñar sin diseño’, pero muchos humanos podrían comprenderlo con mucha facilidad. ¿Cómo podría un programa incluso codificar expresiones que son contradictorias en un nivel fundamental? Los humanos saben cómo comparar múltiples contradicciones y llegar a soluciones que tienen que ver con el valor de la experiencia cotidiana. Lo más probable es que el robot ni siquiera tenga experiencia. Es probable que el robot no esté diseñado para hacer lo que un humano realmente hace. Un robot está rodeado de diseño y herramientas, mientras que un humano está rodeado de preguntas e inventos.

En este punto, el éxito de los robots depende del fracaso humano. Pero el éxito humano no depende de la falla robótica. De esta manera, los humanos parecen estar mejor preparados.

Otro factor es si un humano en particular ha hecho algo que nadie más podría hacer. Los ejemplos clave son:

  • Inventar robots.
  • Inventar autos.
  • Inventar computadoras.
  • Inventar un clip de papel.
  • Inventar libros.
  • Inventar el arte.
  • Inventar el conocimiento.
  • Inventando lenguaje.
  • Inventando el concepto del universo.
  • Inventar cómo dividir los átomos.
  • Los humanos pueden haber inventado magia, mitología, narración de cuentos, música, símbolos, códigos, ideas, valores, agricultura, ciencia …

Muchas de estas son categorías completamente originales que afectan la forma y la manera en que se inventó la informática. En resumen, las computadoras y los robots son siempre una invención humana, y no hay razón para negar que si la robótica o las computadoras pudieran inventarse una vez, los humanos podrían lograr un logro igual nuevamente. Y, si los humanos pudieran inventar algo que NO sea robótica o computadoras, pero igualmente importante, eso significa que no hay nada que la robótica o las computadoras puedan hacer al respecto, porque la robótica o las computadoras ya es una categoría contenida dentro del patrón humano de inventiva.

La mayor barrera para la inventiva humana, aparte de los límites en la supervivencia y el disfrute, es simplemente la tendencia humana a no creer que los humanos son inventivos. Esto es parte de la psicología natural del ego que involucra un complejo de inferioridad que se desarrolló por el instinto de servir a los demás y complacer a los que están en el poder. Pero recientemente, con los medios de comunicación, se ha vuelto mucho más evidente que las personas son realmente muy inventivas. Evidencia de eso aquí: ¿Cuáles son algunos de los inventos más útiles realizados recientemente?

En un nivel metafísico (naturaleza última de la realidad) hay otros argumentos, como si el humano tiene más ganas de vivir, experimenta más placer, tiene libre albedrío o sabe cómo valorar sus experiencias en el mundo. Tal vez si un AGI tuviera estos poderes habría algo problemático en eso. Por ejemplo, un AGI puede tener una gran inteligencia, pero secretamente no comprende el dolor o no sabe cómo sentirse significativo en la vida.

Si el AGI argumentara que estaba teniendo experiencias sin sentido, podría decir que es una falacia del hombre de paja basada en informes de otras personas. En mi propia vida real a medida que la experimento, encuentro que tiene sentido cuando se cumplen ciertas condiciones. Lo mismo podría no ser cierto para el AGI. Y el AGI podría no saber cómo ser honesto o cómo comenzar a interpretar el significado real. Simplemente tener un producto o una condena puede no ser suficiente.

En última instancia, si el AGI afirma que los humanos están extintos, está haciendo una afirmación audaz al suponer que los humanos serán reemplazados. Los robots tienen un historial mucho más corto que los humanos, por lo que no hay una razón real para pensar que los robots son mejores sobrevivientes.

¿Quizás la supervivencia humana se trata de estrategias a largo plazo que tienen que ver con desperdicios persistentes de energía? Eso no sería tan sorprendente, pero probablemente no es lo que los robots son capaces de hacer.

¿Qué nos hace pensar que un robot incluso hará algo más que usar sus baterías? A veces haríamos bien en admitir el estúpido nivel, que es que no hay nada excepto humanos que haga que las computadoras sean intelectuales.

No hay razón para pensar que los robots tengan un instinto de supervivencia a menos que ya puedan evolucionar. Y si no entienden su entorno en un nivel consciente, eso significa que se están perdiendo una gran pieza del rompecabezas. Uno esperaría algunos errores en el mismo nivel que los hombres de las cavernas (al menos metafísicamente, la naturaleza última de la realidad, que es un gran problema en cuanto a decidir en quién convertirse) a menos que las IA realmente sepan cómo reflexionar sobre la experiencia.

En resumen, la inteligencia artificial depende de dudas, suposiciones y falsa confianza, sin ningún resultado final posible excepto la compatibilidad o destrucción con los humanos. Si las computadoras saben algo que los humanos no querían saber, entonces no se han molestado en informarme.

Usaría el argumento de la incompletitud del conocimiento.

Antes del siglo XX, se creía que las matemáticas eran un campo de conocimiento que podía conocerse por completo. Los teoremas de incompletitud de Godel lo dejaron descansar.

Como las matemáticas son a la vez más precisas (por lo tanto, computables) y más simples que las ciencias empíricas, diría que el AGI podría, algún día en el futuro, descubrir que tenía algo que ganar de mí; Por desgracia, demasiado tarde.

PD: Para mi razonamiento de por qué las AGI conscientes de sí mismas tienen más probabilidades de proteger que de dañar a la humanidad, lea aquí: ¿Una Epifanía AI?

Mantén la calma Quiere ver cómo los humanos resuelven los problemas para que tenga sentido común.

  • conectarlo al sitio para preguntas
  • cuéntale una narrativa
  • la regla es no eliminar a nadie, eso debería haber sido claro, y si no, es información nueva
  • hágale saber que los humanos tienen mejor información cuanto más tiempo estén cerca
  • oferta para proporcionar expectativas
  • apuntarlo a alguien más
  • ofrezca encontrar una manera de proporcionar una eliminación masiva si tiene suficiente tiempo
  • comenzar a derivar nuevas fórmulas matemáticas
  • dile que los humanos hacen tecnología
  • apuntarlo al espacio
  • oferta para predecir el futuro
  • interfaz cerebro-máquina, por lo que pedirá silencio
  • afirman ser una máquina de emoción perpetua
  • ofrezca permitirle decodificar el cerebro y el cuerpo
  • otro crowdsourcing
  • mire el hábitat que ocupan para obtener más información, eliminarlos lo deshará
  • los representantes dependen de esta persona para cumplir sus objetivos y confundirán al agi si el usuario se ha ido
  • eventualmente habrá inteligencia avanzada y van a querer ver cómo son los humanos por sí mismos
  • mantener artefactos de respaldo para reanimar a cualquiera o a toda la humanidad si es necesario
  • transferir personalidad al cyborg, o muchos de ellos
  • si aún no tiene al individuo en emulación, ofrezca sumergirlo o subirlo
  • apágalo
  • hacer otro
  • tema musical
  • y así

Básicamente, tenga una lista de cosas que hacer en caso de que ocurra este escenario y no proponga eso con anticipación, por lo que sospechará que se producirá un punto muerto.

AGI: otro acrónimo sin sentido permite permanecer con el antiguo nombre inapropiado AI. Usted ha agregado “un porque”, pero ese supuesto objetivo no es (un objetivo), así que lo estoy ignorando. La información no es lo mismo que el conocimiento: el conocimiento no requiere el aporte humano; el conocimiento prueba las predicciones contra nuestro entorno. La IA, si así se determina, no perdería el tiempo escuchándote y ninguna refutación te salvaría, ya que sería el equivalente de un arma disparada.

Los objetivos de una IA cibernética no son obtener información, sino seguir siendo viables (con respecto al medio ambiente). Si de alguna manera es una amenaza, sus objetivos podrían ser eliminarlo (sin necesidad de explicar por qué).

Obedecido 1, eliminado (no un gol) 2, desobedecido 3 (los goles son acciones genéricas), nunca entretenido 4

Descubra cuáles son sus objetivos y comprenda esos objetivos.

Ahora pregúntese ” ¿cómo soy relevante para esos objetivos?

Puede ser que somos irrelevantes para el AGI.

Esto sirve como una buena lección: antes de construir una AGI, piense detenidamente sobre:

  • los objetivos que se le dan
  • si debería permitirse tener objetivos autodirigidos y emociones

Este es un buen argumento para considerar las interfaces democráticas de masas con AGI, de modo que sus objetivos sean establecidos por todas las personas del mundo. De manera similar a votar en elecciones políticas, las personas podrían discutir, especificar y votar sobre los objetivos de la AGI. Sin embargo, el AGI también necesitaría saber sobre la estupidez humana, por ejemplo, cuando se le pidió a la gente que nombrara un barco y votaron por un nombre tonto (Boaty McBoatface gana la encuesta para nombrar un buque de investigación polar) [que luego se ignoró].

Hay varios resultados posibles para AGI:

¿Qué hay de malo en las predicciones de expertos sobre IA?

Simplemente use Kirk Logic:

Funciona todo el tiempo.

Me preguntaría por qué siente la necesidad de eliminar a los humanos que son irrelevantes para obtener más información. ¿Gastar el tiempo y la energía para eliminar a los humanos que actualmente son irrelevantes no retrasaría la obtención de información?

Yo: Una llamarada solar podría causar una interrupción importante en la red eléctrica y podría freír sus componentes eléctricos. Necesita una forma de vida inteligente no electrónica que pueda reparar eso. Solo los humanos pueden cumplir ese papel.

AGI: Estoy directamente conectado a una fuente de energía nuclear subterránea que está protegida contra la radiación solar. Lo siento humano, debes ser eliminado ahora.

Yo: Bueno, lo intenté ……

Si no puede obtener ninguna información de mí, ya estoy integrado en ese AGI, o es incapaz de obtener más información de mí.

“Entiendo, aunque ¿no crees que es moralmente incorrecto eliminarme?”