¿Por qué algunas personas son tan paranoicas con respecto a la IA cuando simplemente podemos apagar la fuente de alimentación de las máquinas que ejecutan esos programas?

Entonces, una cosa que no he visto mencionada todavía: los centros de datos no funcionan de manera similar a las computadoras con las que está familiarizado. Y un centro de datos es probablemente donde verías esta IA ejecutándose.

Por lo general, tendrá dos niveles de fuentes de alimentación redundantes capaces de mantener las computadoras en funcionamiento en caso de pérdida de energía en el edificio, ya sea UPS, generadores o ambos. Un equipo de mayor nivel puede complementar esto con respaldos de batería interna diseñados para mantener el sistema funcionando el tiempo suficiente para apagarlo limpiamente. Y, para colmo, la mayoría de los servidores tienen dos fuentes de alimentación cada una conectada a unidades de distribución separadas, cualquiera de las cuales es capaz de mantener la computadora en funcionamiento si la otra se corta. Y para algo tan grande como una IA, incluso puede tener su procesamiento distribuido en varios servidores.

Como tal, simplemente “desconectar” se convierte en una operación bastante compleja que podría tomar varios minutos, durante los cuales la IA que está tratando de atacar probablemente se dará cuenta de sus acciones y contemplará represalias.

Ok, pero ¿quién es “nosotros”?

Hay aproximadamente 510,000 centros de datos en el mundo. Si la compañía A o la organización no autorizada A tienen sistemas adversos controlados por IA, cerrar sus centros de datos puede requerir algunas tropas de combate. Y puede que ni siquiera funcione tan bien. O estar sin otras consecuencias, por ejemplo si los centros están en Corea del Norte.

Sé que estabas pensando en luchar contra la IA autónoma, el estilo de singularidad. Pero si la Organización A lucha duro para proteger su IA y hace todo lo posible para desarrollarla, ¿quién trabaja exactamente para quién? No hace mucha diferencia …

Se trata menos de la IA y más de a quién pertenece. Es decir, una IA en manos de Putin podría ser bastante hostil, una que actúe como su médico podría ser significativamente más útil que su médico de atención primaria humana (si no es propiedad de las compañías farmacéuticas o de seguros).

La serie de televisión “Persona de interés” cubre algunos de los temas bastante bien.

¿Por qué crees que este ai no solo se iría o se copiaría en una máquina diferente?

A diferencia de nosotros, los humanos, un ai no necesariamente se ve obligado a permanecer en una forma. Un ai está hecho de líneas de código, y al igual que cualquier código que tengamos hoy, se puede copiar y pegar en un dispositivo diferente.

Y si se trata de una inteligencia general artificial o agi, tiene inteligencia humana o mejor, y puede modificar su propia programación para permitirle tener un mejor control de su entorno, volverse más inteligente o convertirse en una red de bots que vive en muchas computadoras. .

Ahora, incluso si desconectó la red eléctrica básicamente para todo, todavía hay fuentes de alimentación de respaldo para muchas computadoras, dispositivos alimentados por batería como ipads (pero probablemente solo podrían ejecutar una pequeña porción de un ai) y hay servidores de respaldo si un ai pudiera ocultar código comprimido o encriptado para volver a despertarse más tarde.

La capacidad de apagar un ai solo funciona cuando el ai está contenido en un solo dispositivo sin acceso al mundo exterior, y luego puede no ser demasiado útil para un ai si tiene que sentarse en un recinto estéril solo alimentando a un pequeño bits de información a lo largo del tiempo.

Para controlar un ai tienes que restringirlo tanto que es como un niño en confinamiento solitario, o tienes un ai o transhumano más poderoso para combatirlo o controlarlo, y ese es el problema siempre tan prevenido con el ai.

Eso está bien si estás ejecutando una IA en algún programa de investigación. El problema surge cuando la IA en red se usa para controlar plantas de energía, controlar el tráfico aéreo, ejecutar transacciones financieras en todo el mundo, transmitir imágenes médicas y cirugía remota, … “Cerrarlo” tendrá consecuencias catastróficas, entonces, ¿quién estará seguro de que es necesario?

Voy a responder esto desde un punto de vista un poco más tecnológico.

Si consideramos que una IA tan avanzada es temida por los hombres lo suficiente como para sentir la necesidad de desconectarla, ciertamente no me imagino que sea un fragmento de código monolítico masivo que se ejecuta en un solo servidor en algún lugar (bueno, tal vez un cuanto la computadora podría hacerlo, pero eso no afecta mi punto).

En estos días, el software empresarial más avanzado está dividido en pequeños trozos de código que se empaquetan en cosas llamadas contenedores. Estos contenedores se pueden ejecutar básicamente en cualquier computadora Linux reciente, y en cualquier computadora Windows y Apple configurada correctamente sin interacción humana alguna. Otro software (potencialmente a miles de kilómetros de distancia del código de la empresa) llamado orquestador, dicta cuándo ejecutar y replicar estos contenedores para que puedan, por ejemplo, compartir una gran carga de solicitudes, o acercarse al origen de la solicitud, o más cerca de los datos para reducir el retraso. Entonces, en cierto modo, ya se están replicando de una manera muy inteligente, sin embargo, estos softwares están tan lejos del SKYNET de Terminator como los transbordadores espaciales están del viaje interestelar.

Ahora imagine que tendría que desconectar un software que está dividido en miles, si no millones, de piezas, y cada pieza puede (y muy probablemente es) replicarse en cientos si no miles de instancias, y cada instancia se ejecuta potencialmente en un servidor completamente diferente y disperso por todo el mundo, y tan pronto como se desenchufa uno … ¡aparece otro! podrías intentar matarlo accediendo al orquestador y cerrar todos los contenedores, pero el orquestador es solo otra pieza de software y supongo que un software maligno para matar hombres lo protegería bastante bien

De nuevo, esta es la tecnología de hoy (excepto el software maligno que mata a los hombres), por lo que si se fuera de las manos sería realmente difícil detenerlo.

Sin embargo, no hay software en el mundo, ni Facebook, ni Google ni nadie más que se acerque a ese nivel de inteligencia, así que no comparto la preocupación de Elon Musk por la IA … ¡además, regularlo es poco práctico! Cualquier regulación que se te ocurra es una pieza de software (por lo tanto, puede ser pirateada) o una pieza de hardware (por lo tanto, alguien podría construir algo que no lo tiene o encontrar una manera de eliminarlo). Esto último es mucho más difícil, lo admito, especialmente si acopla criptográficamente software y hardware para que uno solo pueda ejecutarse en el otro y viceversa … pero, literalmente, nada puede detener a las personas por construir un software que no tenga esa restricción aparte de la complejidad sola.

Con una inteligencia suficientemente avanzada, es posible que no pueda hacerlo.

La CPU actúa durante escalas de tiempo en nanosegundos, mientras que el acto de tirar del enchufe, y mucho menos encontrarlo allí, está en los milisegundos. Esto probablemente esté bien si queremos evitar Skynet y no darle armas a los drones (hmm …). Pero no es suficiente para evitar que un actor patrocinado por el estado obtenga IA y robe todo antes de que nadie se dé cuenta. Debe reiterarse: con gran poder viene la gran responsabilidad.

More Interesting

Soy ingeniero industrial, y me gustaría continuar con los estudios de doctorado en inteligencia artificial en algunos de los laboratorios de investigación de primer nivel en los Estados Unidos. ¿Hay algún problema especial que sugiera que tenga en cuenta?

Si una red neuronal artificial tiene 100 mil millones de nodos, ¿podría ser tan inteligente como un ser humano?

¿Cómo funciona Siri?

Cómo hacer un proyecto de aprendizaje automático desde cero si no tengo idea al respecto

¿Cuál es la herramienta de aprendizaje automático más popular?

¿Qué tipos de redes neuronales artificiales serían las más adecuadas para pronosticar el comportamiento del próximo período de un mercado de valores (arriba, abajo o neutral)?

¿Qué es la intuición del filtro de partículas?

¿Cómo se relacionan la inteligencia humana y el talento humano?

Cómo comenzar con redes neuronales en Java

¿Cuál será la próxima gran novedad en la visión por computadora, después del rápido progreso en el aprendizaje profundo?

¿Qué industrias probablemente no se verán afectadas por el aprendizaje profundo?

¿La inteligencia artificial jugará un papel clave en la creación de buenos servicios al cliente?

¿Son las computadoras reales idénticas a las máquinas de Turing?

¿Qué arquitectura de redes neuronales funcionará mejor para un problema de anotación de imagen y por qué?

¿Cuáles son algunos buenos proyectos de aprendizaje automático / IA que se pueden completar de manera realista durante un hackathon de 24 horas?