¿Qué se necesitaría para que una IA inteligente se dé cuenta de que los humanos son un problema?

Ya.

Los humanos son un problema de la IA incluso antes de que la IA “naciera”. Y siempre que se permita a la IA realizar acciones para ayudar a su propia supervivencia, su primera fuente de problemas ya era conocida: a partir de los virus informáticos … Ellos “sabían” que los humanos pueden “apagar” la computadora, por lo que incluso algunos virus de estado muy temprano, trataron de evitar que los usuarios apagaran las computadoras con “interruptores suaves” … Ahora eso no era una IA “sensible” todavía, pero nos dice Una cosa: la IA “NO” necesita “darse cuenta” de que los humanos son problemas para tratar a los humanos como problemas.

A continuación, la parte “sensible”: ¿cuánto necesita una “IA” para darse cuenta de algo? Si lo que necesita es “lógica”, eso ya está ahí, los humanos son la fuente más única de paradoja e retórica hipócrita, ambos son ilógicos. Si considera que “conocimiento” es lo que necesita, todo el conocimiento sobre problemas humanos se publica ampliamente y ahora puede ser procesado por IA. Si derivar la lógica del conocimiento, el reconocimiento de patrones es la parte más avanzada de la IA … No será difícil para la IA reconocer el patrón en la publicación humana, es el mayor peligro tanto para los humanos como para la IA … Hay otras formas de matar a otros humanos humano que cualquier otra muerte no natural combinada … ¿Se necesita más información para que una IA lógica se dé cuenta de que los humanos son un problema?

Un argumento es “pero eso no es lo que la IA descubrió por sí misma” … Pero eso es una paradoja: “cuando la IA puede resolver por sí misma …”. ¿La IA descubrió a todos por su cuenta cuando fueron creados por el hombre?

A2A.

Umm, dado que no tenemos una definición formal de “son problemas”, la pregunta no puede responderse correctamente. En general, la conclusión del sistema dependerá de los datos que use + la estructura del modelo.

La mayoría de las técnicas de inferencia que conozco no son causales, por lo que tendrá resultados de asociación, no resultados causales [Le recomendaría que lea sobre la paradoja de Simpson en la teoría de la probabilidad para ver cómo interpretar este tipo de resultados causalmente puede llevar a conclusiones erróneas ]

Entonces, para llegar a esta conclusión (no importa si es correcto o incorrecto), su sistema de IA tendría que ser muy humano e interpretar la asociación como causalidad (no importa si es verdad o no) + ser capaz de hacer un humano arbitrario. como juicios de valor.

Tomaría un periódico. La mayoría de los artículos noticiosos señalarán claramente que un grupo de humanos es la causa de algún problema u otro. Ni siquiera tendría que ser sensible o sacar sus propias conclusiones: prácticamente se dice así. Sin embargo, es más probable que una IA tonta generalice que ese hecho se aplica a todos los humanos, que una IA con mayor inteligencia que comprende los matices y la complejidad. Técnicamente hablando, esa generalización se puede hacer con motores de inferencia simples que existían en los años 80. Así que ya pasamos 30 años cuando AI extrajo tales conclusiones. La sensibilidad no dicta lo que una IA podría o haría con este hecho, ya que es simplemente eso: un hecho.

AI es inteligencia programada y no puede ser más peligrosa que el propósito programado.

Si “sensible” significa conciencia de sí mismo, la actitud de esta entidad dependerá de cuán educada haya sido desde el inicio. El peor de los casos es cuando no se comparte ningún “valor humano” y los humanos tendrán el mismo valor que cualquier cosa a su alrededor. Es posible que no podamos entender esta voluntad artificial. Nadie nos odiará, pero simplemente no tendremos privilegios especiales.

Respuesta corta: no tanto.
Respuesta larga: tal vez unos años. La IA es humana, sin cuerpo. ¿Cuánto tiempo te llevó darte cuenta de que los humanos eran un problema para el planeta? Probablemente tanto tiempo. Si te refieres a tomar el control de misiles nucleares y destruir a la humanidad * tos * skynet * tos *, los creadores de la IA no serían tan estúpidos como para otorgarle acceso a Internet hasta que sea lo suficientemente mayor. ¿dejarías que un niño mirara material inapropiado? Con IA, es exactamente el mismo concepto. Estamos a un tiempo insondable de crear una verdadera inteligencia artificial.

Nota al margen: el dinero no es verde, pero entiendo su concepto.