¿Debería alguien ser responsable del daño causado por la IA, programado para el aprendizaje de refuerzo, y en ese caso, a quién?

La respuesta no depende en absoluto del hecho de que se utilizó el aprendizaje por refuerzo. La respuesta sería la misma para cualquier paradigma de Machine Learning o cualquier sistema de IA.

Hay algunos factores para determinar la culpabilidad en caso de daños causados ​​por la tecnología.

  • Podría funcionar perfectamente, pero puede ser mal utilizado por el usuario. Cuando alguien usa un martillo para causar daño a otra persona, el proceso utilizado para construir el martillo no es responsable.
  • Pudo haber sido un accidente. Cuando alguien que trabaja en un techo deja caer accidentalmente un martillo, dañando a otra persona que camina por debajo, esto es un accidente sin que nadie tenga la culpa (si ambas personas tomaron todas las precauciones razonables).
  • Podría ser un problema con el sistema físico (computadora o robot) donde se implementa el sistema AI. En ese caso, dependiendo de la naturaleza del mal funcionamiento, la compañía que creó el robot sería culpable (a menos que el sistema se haya utilizado de una manera que no respete los términos y condiciones del contrato entre el usuario y el fabricante). Si se rompe un martillo y la persona que lo usa se lastima, mientras lo usa de manera estándar, la compañía que fabrica el martillo es responsable.
  • Podría ser un problema causado por una decisión tomada por el sistema. En ese caso, nuevamente hay varias posibilidades. Si los términos y condiciones dejan claro que existen tales riesgos, entonces no hay reclamo válido. El usuario sabía lo que posiblemente estaba obteniendo. Si el modelo aprendido por el algoritmo de Machine Learning era incorrecto (lo que ocasionalmente lo será) pero esto está en una situación en la que esto no debería ocurrir, el problema radica en el algoritmo utilizado, el conjunto de datos (en el caso de aprendizaje por refuerzo, sería sea ​​un conjunto de datos o simulador o ambos), cualquier procedimiento de prueba que se haya pasado por alto, … En cualquier caso, el problema estaría en la compañía que creó la IA o en la persona que usa la IA. La IA no tiene la culpa. No se puede culpar a un martillo cuando causa un accidente.

Primero, ¿podrías encontrar la forma de vivir para siempre?

En el año 3487 se encontró una tumba milenaria lapidaria.

Su epitafio dice:

“Los científicos de mi tiempo eran verdaderos idiotas,
proclamando logros futuros con fanfarria,
defendiendo la evolución como fanáticos incondicionales,
utilizamos dispositivos móviles pero nos enfermamos, ¡extraño!

More Interesting

¿Qué puede usarse la inteligencia artificial o el aprendizaje profundo en el análisis financiero y la inversión?

¿Qué idioma debo aprender para crear cosas relacionadas con la IA?

¿Cuál es el mejor algoritmo de aprendizaje automático para predecir datos numéricos?

¿Cómo comenzar a aprender el aprendizaje automático? ¿Cuál es la hoja de ruta?

¿Cuál es el futuro del aprendizaje profundo para la segmentación de imágenes médicas?

¿Cómo debería un estudiante de CS típico comenzar a aprender IA? ¿Cuál debería ser el orden de los temas (principales)? ¿Hay algún requisito previo?

Si todas las respuestas de Quora son solo combinaciones de 100,000 palabras, ¿por qué no cree que la inteligencia artificial no puede generar todas las respuestas?

¿Cuáles son algunos temas de investigación en automatización de IoT e IA?

¿Cuáles son los 5 conceptos más importantes de la inteligencia artificial?

¿Alguien ha planteado la idea de que no hay nada más pequeño que un sistema?

¿Por qué Google adquirió DeepMind Technologies?

En el contexto del aprendizaje automático, ¿qué tan fuerte es la siguiente suposición: algún dato proviene de alguna distribución subyacente?

¿Cómo puedo usar las redes neuronales convolucionales recurrentes (RCNN) para correcciones tipográficas de OCR?

¿Está explorando diferentes algoritmos de aprendizaje automático y qué tipo de conjunto de datos funcionan mejor con un buen tema de Math HL IA?

¿Es posible incorporar la empatía en máquinas inteligentes a través del aprendizaje automático?