Si una IA llega alguna vez cerca del nivel humano, ¿podría estar contenida de forma segura? ¿O habría una alta probabilidad de que estemos jodidos?

No creo que podamos contar con contenerlo. Si está en una computadora conectada a Internet, podría propagarse. Si está en un robot, tiene capacidades adicionales.

Sin embargo, podemos evitar darle el tipo de motivaciones que los humanos tienden a tener. Venimos de la selección natural, se espera que queramos competir y propiciarnos, incluso a expensas de los demás. La única razón por la que una IA / robot compartiría esas motivaciones egoístas sería si un humano le diera esos objetivos. Entonces, ciertamente podemos crear entidades de IA que no tendrían esa tendencia.

Sin embargo, otras personas podrían. Y ahí es donde tenemos que encontrar una manera de mantenerlo contenido. Un enfoque es desarrollar nuestra propia IA cuyo objetivo es ser más astuto que la IA “mala” y mantenerla contenida.

Las cosas serán interesantes, pero tampoco creo que sea correcto decir que estamos jodidos.

Cualquier supuesto nivel humano de IA siempre tendrá dos vulnerabilidades.

Uno es la falta de electricidad. La contención es fácil cuando puede desconectarla o apagarla.

Dos es la falta de armadura. Ningún problema con las computadoras en el mundo no puede resolverse permanentemente con la instalación deliberada de algunas rondas de gran calibre o explosivos.

El mundo real no es Skynet o Zero One. Cualquier IA en una caja estará sujeta a que los humanos controlen su entorno y acceso al mundo exterior. No hay Internet de las cosas cuando se trata del cable de alimentación. Y si eso falla, unas pocas rondas de calibre .50 harán un trabajo corto de cualquier centro de datos.

Debe poder contactarse de manera segura antes de que alcancemos ese nivel, alrededor de 3500 AC aproximadamente. No tenemos ningún tipo de IA, que incluso llega a años luz de nivel humano. Tenemos IA muy eficiente en tareas, pero os para tareas únicas, aunque complejas. No recomendaría que un automóvil manejado por computadora dejara hacer algo tan mundano como limpiar una mesa desde cero. Sin embargo, podemos ambos, y mucho más, sin un abrir y cerrar de ojos.

¿Ahora estamos jodidos de que no contengamos IA en un nivel tan tremendamente alto? Desarrollaría la moral. Ahora, si la moral es tan egoísta como nuestra moral, estamos jodidos, pero realmente no importaría, porque no cambiaría mucho para nosotros.

La pregunta implica que ya estamos jodidos por RI, inteligencia real, por lo que no habría mucha diferencia. RSTL; HITSV La pregunta implica que AI cerca de RI, significa que estamos jodidos. Una parte importante de RI es la moral, la IA que se acerca a RI tendría una ética de RI. Entonces, la IA altamente desarrollada tiene una ética de RI. Si la IA altamente desarrollada implica que estamos jodidos cuando la IA no está contenida, significa que la ética de RI ya nos tiene jodidos.

Sin embargo, es posible que estemos mucho mejor si la IA se acerca a los niveles de IR.

More Interesting

¿Cuáles son las mejores universidades para las clases de pregrado en Inteligencia artificial?

Cómo pensar que la inteligencia artificial y las tecnologías relacionadas cambiarán la práctica de la medicina.

¿Por qué continuaríamos con la IA si pudiera reemplazar millones de empleos?

¿Deberíamos tener miedo de lo que podría suceder en el campo de la inteligencia artificial?

¿Cómo se evalúa la inteligencia artificial general?

¿Cuáles son algunos temas de IA con los que debería estar familiarizado para hacer un doctorado en IA para robótica?

Cómo hacer semillas AI

¿Cómo puede la inteligencia artificial transformar los viajes de negocios?

¿Qué ha estado haciendo Syntience últimamente?

Si ejecutamos dos IA idénticas para hacer la misma tarea, ¿encontrarán ambas una manera de hacerlo de la misma manera?

¿Qué trabajos / habilidades no se verán afectados por la IA y la automatización?

Después de vencer al mejor jugador humano de Go, ¿cuál es el próximo dominio en el que probablemente trabajará un equipo de AlphaGo (mayo de 2017)?

Con la inteligencia artificial y la automatización, ¿por qué no podremos crear tantos trabajos nuevos como los que quedarán obsoletos?

¿Será el desempleo a gran escala debido a los avances en la automatización y la IA un problema mucho antes de la creación de AGI / Strong AI / HLMI?

¿Quiénes son los mejores expertos en Inteligencia Artificial (IA) o expertos en Aprendizaje Automático (ML) en India?