Ya.
Los humanos son un problema de la IA incluso antes de que la IA “naciera”. Y siempre que se permita a la IA realizar acciones para ayudar a su propia supervivencia, su primera fuente de problemas ya era conocida: a partir de los virus informáticos … Ellos “sabían” que los humanos pueden “apagar” la computadora, por lo que incluso algunos virus de estado muy temprano, trataron de evitar que los usuarios apagaran las computadoras con “interruptores suaves” … Ahora eso no era una IA “sensible” todavía, pero nos dice Una cosa: la IA “NO” necesita “darse cuenta” de que los humanos son problemas para tratar a los humanos como problemas.
A continuación, la parte “sensible”: ¿cuánto necesita una “IA” para darse cuenta de algo? Si lo que necesita es “lógica”, eso ya está ahí, los humanos son la fuente más única de paradoja e retórica hipócrita, ambos son ilógicos. Si considera que “conocimiento” es lo que necesita, todo el conocimiento sobre problemas humanos se publica ampliamente y ahora puede ser procesado por IA. Si derivar la lógica del conocimiento, el reconocimiento de patrones es la parte más avanzada de la IA … No será difícil para la IA reconocer el patrón en la publicación humana, es el mayor peligro tanto para los humanos como para la IA … Hay otras formas de matar a otros humanos humano que cualquier otra muerte no natural combinada … ¿Se necesita más información para que una IA lógica se dé cuenta de que los humanos son un problema?
- ¿Cuál es el objetivo final de la investigación de inteligencia artificial?
- ¿Por qué una Súper Inteligencia Artificial no puede superar sus objetivos iniciales programados?
- ¿Quién será el auto AI será el primer ganador del mercado?
- ¿Sería posible que la IA lavara el cerebro de los humanos y los convirtiera en esclavos?
- ¿Cómo se construye una IA?
Un argumento es “pero eso no es lo que la IA descubrió por sí misma” … Pero eso es una paradoja: “cuando la IA puede resolver por sí misma …”. ¿La IA descubrió a todos por su cuenta cuando fueron creados por el hombre?