¿Puede la inteligencia artificial ser segura?

Contestaré con una contrapregunta: ¿Puede la electricidad ser segura?

La electricidad es extremadamente útil para nosotros, pero también tiene el potencial de causar un gran daño si no se maneja adecuadamente. Sin embargo, realmente no tememos a la electricidad en general porque sabemos cómo aprovecharla y protegernos de ella. Tenemos el control de las perillas para apagarlo. Si alguien resulta herido accidentalmente, somos rápidamente responsables de las prácticas de seguridad que no se siguen al pie de la letra y nunca culpamos del incidente a la corriente eléctrica. Nunca decimos, “deberíamos castigar a la corriente porque estaba tratando de dañarnos intencionalmente”.

Cuando hablamos de IA, tenemos mucho miedo de que de alguna manera la máquina no responda a ese interruptor de muerte, y casi podemos escucharnos a nosotros mismos decir, “estamos tan jodidos”. Es el mismo pánico que podríamos enfrentar si los frenos de nuestro automóvil fallaran repentinamente mientras maniobraban una curva traicionera en la pintoresca carretera de montaña. El instinto de supervivencia nos dice que debemos temer a lo desconocido. El miedo nos mantiene vivos.

Según yo, la IA es una forma alternativa de cálculo. El nombre es engañoso en el sentido de que, de alguna manera, implica una pérdida de control del operador para empezar. Con AI, enseñamos a las máquinas a mejorar en una tarea particular mediante el ” aprendizaje “. Cuanto más se aprende mejor, la IA logra una tarea prescrita. Todavía usa electricidad para lograr ese aprendizaje.

Si bien es cierto que queremos que la IA sea autónoma y aprenda sin supervisión a través de la observación de su entorno, o mediante la información que se le proporciona, no creo que sea un objetivo final del esfuerzo humano renunciar involuntariamente al control sobre él. Por el contrario, los humanos siempre han intentado controlar todo lo visible y lo invisible, la naturaleza, los animales y otros humanos que no son lo suficientemente fuertes como para protegerse.

Al igual que con la electricidad, si realmente podemos entender cómo funciona la IA, siempre podemos diseñar un “fusible” (también conocido como disyuntor) que sirva como unidad de protección. Y dado que son los humanos (tal vez con la ayuda de otra IA) quienes diseñarán la “singularidad” definitiva (una IA que supera a los humanos en inteligencia y capacidad) , tendremos todo tipo de medición y gráficos solo para ver qué diablos está pasando allí. Lo único que tenemos que tener en cuenta es la naturaleza adversaria de la IA fuerte, en resumen, intentará solucionar sus limitaciones, porque somos demasiado listos para nuestro propio bien . La diferencia entre la IA y la electricidad es que este último es un jugador tonto en un juego natural, incapaz de doblegar su ley de física para lograr un objetivo simple (ganar el juego contra un oponente), mientras que la IA, por su propio diseño, es un experto adaptativo y experto jugador contra un oponente menos ingenioso (de la especie de Turing).

Tenga en cuenta que estamos sentados en una bomba de tiempo llamada bomba nuclear, y no tenemos miedo. ¿Deberíamos tener miedo de la IA? Sí, deberíamos tener miedo de que la IA obtenga el control del arma nuclear y la active solo porque quería maximizar su función “divertida”, mientras alguien estaba en un baño. Y esa es una posibilidad si alguna vez pensamos que la IA será más efectiva para proteger las armas de destrucción masiva, que algunos hombres anticuados con equipo militar.

IA débil no adaptativa y no evolutiva -> sí (algunos pueden no llamar a esta IA por más tiempo). De lo contrario, depende del contexto y la definición exacta de “seguro”. Nada es 100% seguro. Prefiero utilidad y significado, es decir, una definición es que la IA es valiosa para el apoyo a la toma de decisiones en un rol (o tomar decisiones mientras asume un rol) que es responsable de realizar una tarea para lograr un objetivo. Es valioso si la IA mejora el rendimiento en comparación con (i) una política justa de Laissez (nivel mínimo), (ii) similar o mejor en comparación con un tomador de decisiones humano sin apoyo.

Lo fácil que es medir esto depende del contexto, por ejemplo:

  1. ¿Está el contexto en un dominio de alta validez en el que las decisiones se toman con frecuencia basadas en hechos y los resultados de estas decisiones son observables como consecuencia de las decisiones tomadas?
  2. ¿Hay objetivos en conflicto?
  3. ¿Estamos tratando de controlar un proceso hecho por el hombre, un proceso natural o un híbrido del mismo?
  4. ¿El sistema se adapta a las personas y puede evolucionar con el tiempo?

Con respecto a la seguridad, podemos abordar los sistemas críticos para la seguridad, los sistemas críticos para la misión y los sistemas económicos críticos. Debemos separarnos entre individuos y una población en este caso. Para garantizar la seguridad lo mejor posible para las personas, hacemos que estos sistemas sean lo más simples posible, pero esto puede ser subóptimo para una población. Para mejorar la seguridad de una población, por ejemplo, reducir el número de muertos en el tráfico, es posible que necesitemos sistemas más complejos que pueden fallar para las personas, pero que son buenos para la población en general. Los autos sin conductor son un ejemplo, no son simples, pero aún así intentamos llevarlos a las carreteras. Hay muchas formas en que estos superan a los conductores humanos (por ejemplo, no se cansan ni se aburren, pueden tener una observación de 360 ​​grados de manera que ningún humano pueda acercarse, potencialmente comunicarse directamente con el entorno y otros vehículos, etc.) Sin embargo, siempre son compromisos, por ejemplo, si se permitiera a los autos sin conductor conducir a un máximo de 30 km / hora, el número de muertos en el tráfico eventualmente disminuiría si cambiamos a autos sin conductor; Sin embargo, personalmente dudo que este compromiso sea aceptable para la mayoría de los viajeros y, por lo tanto, aceptamos un mayor riesgo para lograr mayores velocidades.

En términos de, por ejemplo, centrales nucleares, las consecuencias pueden ser catastróficas y, por lo tanto, estos sistemas se consideran críticos para la seguridad. En este tipo de sistemas, podemos analizar si la IA y cualquier tecnología compleja basada en la incertidumbre es aceptable.

Sí, la inteligencia artificial puede ser segura si y solo si no se agregan emociones a máquinas artificialmente inteligentes de cualquier variedad. De lo contrario, la adición de emociones a una máquina artificialmente inteligente de cualquier variedad hará que tal máquina sea peligrosa de usar en el mundo real. Robotronics LLC | Facebook

Creo que puede, pero me temo que no. La seguridad es generalmente un desastre en todas partes. En el futuro, la seguridad rota en la IA avanzada podría ser un problema enorme.

Necesitamos prepararnos para el momento en que la IA controlará cosas importantes con la posibilidad de volverse peligrosa. También necesitamos prepararnos para el momento en que la IA general es más inteligente que nosotros. Para que la IA sea lo más útil posible, debe ser creativa y poder controlar las cosas. Esto tiene el potencial de ir muy, muy mal.

Entonces … la IA definitivamente puede ser segura, pero no será así por sí sola.

Puede depender de quién escribe los algoritmos.

Hace poco leí un artículo académico sobre algoritmos que reflejan involuntariamente los prejuicios de sus diseñadores, sin mencionar el momento en que Watson comenzó a maldecir al aprender a maldecir y maldecir. En consecuencia, la IA puede en algún momento reflejar nuestras cualidades menos deseables si no somos diligentes.

Por lo tanto, es posible que la fruta no caiga lejos del árbol y, de ser así, sí, es posible que tengamos problemas.

Probablemente sí, pero deberíamos preocuparnos por eso.

Varios investigadores escribieron artículos académicos mencionando la Inteligencia Artificial Amigable.

Sí, pero solo si todos los desarrolladores se comportan de manera responsable. No todos harán eso. Ooops