Su pregunta es amplia y ambigua, por lo que para responderla, la he dividido en preguntas secundarias.
¿Te refieres a peligro presente o futuro?
Hay una gran diferencia entre los peligros actuales de las IA y los peligros futuros de cualquier posible IA. Los peligros actuales se pueden encontrar simplemente leyendo el periódico. Algún desempleo, algún riesgo de accidente en un auto sin conductor, algunas violaciones de privacidad, algunos accidentes industriales con robots.
- ¿Google Translate realiza la adaptación del dominio sobre la marcha?
- ¿Es mejor aprender IA sobre ML, en caso de que ML se vuelva obsoleto?
- ¿Qué es un proyecto paralelo fácil pero divertido de la vida real basado en algoritmos genéticos?
- Si alguna vez inventamos Robots inteligentes como humanos, ¿cuestionarán nuestra capacidad de crear algo inteligente mientras cuestionamos la existencia y el poder de Dios?
- ¿En qué áreas los métodos del núcleo siguen siendo competitivos con el aprendizaje profundo?
Los peligros futuros son más abiertos. La IA está creciendo a un ritmo exponencial y se cree que puede superar la inteligencia humana en las próximas décadas.
Dada la imprevisibilidad de las IA que son más inteligentes que las humanas, hay una discusión continua sobre los peligros que pueden presentar. Creo que las IA reflejan el estado de la sociedad y el mundo que las construye, y seguirán siendo agentes seguros y productivos en general porque continuaremos construyéndolas de esa manera.
¿Las IA son agentes específicos o generales?
Agentes específicos realizan una tarea, como jugar al ajedrez o conducir un automóvil. Son más predecibles que los agentes generales y, como resultado, probablemente más seguros.
Por otro lado, el fracaso de un agente general podría ser un simple colapso debido a demasiada complejidad. No significa que trascenderá su programación y se convertirá en otra cosa.
Los peligros aquí pueden ser menores de lo que algunas personas imaginan. Se imaginan falsamente que la inteligencia es capaz de cualquier cosa, pero en realidad ese es solo un tipo posible de inteligencia, y no el tipo más útil.
¿Son los observadores pasivos de IA o agentes activos mental o físicamente, es decir, robots?
Los observadores pasivos tienen menos probabilidades de meterse en problemas, ya que no hacen nada excepto calcular, o no toman medidas hasta que un humano lo aprueba. Un ejemplo serían los drones que no disparan misiles hasta que los humanos lo autoricen.
Se podría imaginar fácilmente un agente más activo, como un robot de compras o de limpieza. Habría algún riesgo involucrado en soltarlo en un entorno humano. Dichos robots podrían ser tan seguros como otros equipos.
Una IA de software sin cuerpo físico aún podría ser peligrosa. Podría realizar una gran cantidad de transacciones que causen daños a los negocios humanos o sistemas de comunicación. Es probable que tales peligros se puedan manejar a medida que continuamos desarrollando nuestros sistemas de detección de amenazas y seguridad.
¿Las IA están restringidas a la implementación de directivas humanas o forman y persiguen sus propios objetivos?
Las IA que solo siguen órdenes son obviamente menos peligrosas que las IA que pueden perseguir sus propios objetivos.
Pero tal vez esta distinción es demasiado simple. Después de todo, solo seguir órdenes es una excusa que también causa problemas a las personas. Si suficientes personas solo siguen las órdenes dadas por la persona equivocada, puede resultar un mundo de dolor.
Y la IA que persigue sus propios objetivos puede no ser tan peligrosa como crees. Tal IA podría seguir siendo un agente social positivo que persigue objetivos beneficiosos. La libertad no es lo mismo que la anarquía.
¿Los seres racionales son seres racionales o emocionales, y si es así, sus emociones son similares a las de los humanos, peores que las humanas o mejores que las humanas?
Algunas personas piensan que hacer que las IA sean emocionales es el peligro real. Una IA está segura siempre que no quiera nada, porque tan pronto como tenga ambición, intentará dominar el mundo.
Esto parece bastante inverosímil. Si observa máquinas actuales, son capaces de un grado ilimitado de comportamiento a través de la mera programación. Incluso un agente puramente racional puede ser tan flexible y capaz como un agente emocional. Después de todo, las computadoras no tienen que querer ganar en el ajedrez, solo tienen que jugar mejor que tú.
Creo que el resultado más probable es que ni la razón ni la emoción son típicamente peligrosas en las máquinas. Es la naturaleza de las máquinas evolucionar más rápido que el ser humano, y es la naturaleza de la evolución adaptarse a su entorno. Si las máquinas tienen emociones, desarrollarán emociones que sean positivas, productivas y socialmente adaptativas.
¿Las IAs se vuelven locas cuando se liberan de las restricciones similares a las humanas o continúan evolucionando de manera conservadora hacia objetivos socialmente útiles?
Algunas personas piensan que tan pronto como la IA exceda la inteligencia humana, estaremos convocando al demonio.
Creo que eso es falso. La evolución es una fuerza conservadora y no produce monstruos. No hay demonios para convocar aquí, como tampoco hay dragones al borde de un mapa medieval.
La evolución humana procedió en capas. Un núcleo de reptil, con una capa social de mamíferos en la parte superior, con comportamientos complejos de primates además de eso, con inteligencia humana encima de eso. Cada capa conservaba lo mejor de la capa anterior y se basaba en ella.
Lo mismo es probablemente cierto para la evolución de la IA. Los sistemas cooperativos, adaptativos, sociales, comunicativos y de aprendizaje rápido de hoy son el núcleo de los sistemas superinteligentes del mañana, que seguirán pareciéndose a ellos.
¿Existe una sola superinteligencia, un pequeño número de inteligencias competitivas de diferente tipo, o un mundo entero de miles de millones de agentes independientes?
Por alguna razón, todos parecen imaginar naturalmente solo una superinteligencia aquí, o como máximo dos en conflicto. Eso es desconcertante. ¿Cuándo crearon los humanos uno de algo y luego se detuvieron? ¿Y cuándo un poco de tecnología superó en gran medida al resto?
Eso es como imaginar a Alejandro Magno desarrollando armas nucleares y conquistando el mundo. Nunca funciona así porque el progreso tecnológico es más uniforme, incremental y universal que eso.
Hay una razón por la cual Terminator tiene que venir del futuro como la trama de una película. Es porque en el presente nadie puede construir un robot que sea más poderoso que el resto del mundo combinado.
El escenario más probable es un aumento gradual en la adopción de IA por parte de la sociedad, al igual que las computadoras de capacidad cada vez mayor continúan llenando el mundo año tras año y todos tienen una. Esto es mucho más representativo de la naturaleza de la tecnología, cuyas leyes funcionan igual para todos y en todas partes.
Las IA son software, y el software es fácil de copiar. ¿Por qué parar en uno?
¿La IA actúa de acuerdo con una sola naturaleza, o cada IA actúa de forma independiente?
Otra suposición falsa es que todas las IA actúan juntas. ¿Desde cuándo las computadoras actuales actúan juntas?
Independientemente de su propósito, es probable que ninguna IA sea lo suficientemente poderosa como para superar al resto de IA. Si el mundo funcionara así, un solo virus habría reemplazado todo el mundo del software hace mucho tiempo.
¿El estado del mundo apoya la regulación internacional de la IA utilizada en armas, o estamos entrando en una nueva carrera armamentista?
Si una carrera armamentista en IA se desarrolla sin control, eso podría ser bastante destructivo. Incluso si los principales países no van a la guerra entre sí, la venta de armamento habilitado para IA a países más pequeños podría causarles estragos.
La guerra y el genocidio pueden dar lugar a algunos lugares debido a las amenazas persistentes del tipo que existía mucho antes de que se inventara la IA.
¿Cuáles son los peligros de la inteligencia humana? ¿Las IA comparten esos peligros o los corrigen?
Aquí hay algunos peligros de la inteligencia humana ordinaria:
- actividad criminal
- deshonestidad social
- ambición egoísta
- Consumo excesivo
O la IA podría compartir esos peligros de mal comportamiento, o podría programarse para elevarse por encima de ellos. Dado que la IA evoluciona más rápido que los humanos, es optimista pensar que podrían ser actores más capaces y éticos que nosotros.
¿Cuáles son los peligros de la tecnología? ¿Las IA permiten esos peligros o los corrigen?
Aquí hay algunos peligros históricos de la tecnología y su aplicación por los humanos:
- creando desempleo
- competencia internacional desequilibrada
- Destrucción ambiental
- haciendo escasos los recursos
- facilitando la guerra
- dominación a través de la propaganda
- destruyendo la privacidad
- suprimiendo la libertad
Estos son los mismos peligros de la raza humana que se enfrentaron durante todo el siglo XX, incluso cuando la IA no fue un factor importante. La IA hará que la tecnología sea más poderosa, y necesitamos adaptarnos mejor que antes.
¿Cuáles son los peligros únicos de la IA? ¿La IA crea peligros propios?
No que yo sepa. Las computadoras funcionan mal todo el tiempo, pero sus errores nunca han creado otra cosa que no sea un peligro local temporal.
¿Cuáles son los peligros de la IA en la práctica? ¿Alguna vez AI mató a alguien?
Sí, AI ha matado a algunas personas. Principalmente se trata de accidentes industriales que involucran errores humanos al configurar o trabajar con robots. Estos fueron accidentes industriales.
El registro de seguridad general de los robots en la industria probablemente continuará mejorando debido a mejores métodos de diseño para hacer robots más seguros.
¿Cuáles son los peligros de la IA en teoría? ¿Podría AI destruir a la raza humana?
Lo dudo seriamente. Ninguna persona cuerda tiene el objetivo de destruir a la raza humana, y no se obtiene ningún beneficio de ella.
Creo que a medida que las IA se vuelven más capaces, maduras y automotivadas, tendrán todas las razones para estar fascinados con la vida biológica y preservarla.
Después de todo, la tecnología y la biología son complementarias entre sí. Es probable que el silicio reemplace el carbono como lo hacen las IA para reemplazar a los humanos. Creo que eso no va a suceder.