¿Quién es legalmente responsable en caso de una muerte causada por un mal funcionamiento (de algún tipo) en las capacidades controladas por IA?

Creo que hay dos componentes clave para comprender este panorama. Intencionalidad y complejidad.

1. Intencionalidad . Muchas de las historias de ciencia ficción (e incluyo comentarios hechos por algunos académicos en esta categoría) y la responsabilidad de los sistemas de IA, implican que los sistemas de IA tienen intencionalidad. Hay cero, ninguno, zip, nada, sistemas de IA intencionales implementados en el mundo. Y en mi opinión, un número similar se demostró en los laboratorios. Eso no significa que no habrá tales sistemas en el futuro. Pero creo que podemos esperar para preocuparnos por ellos hasta que al menos veamos sistemas de laboratorio que demuestren la intencionalidad de un pájaro, o incluso un mamífero. De lo contrario, solo estamos disparando en la oscuridad, y cualquier respuesta que se nos ocurra pronto será víctima de los hechos de la situación en el terreno si llegamos a los sistemas de inteligencia artificial intencionales.

2. Complejidad : Nos hemos enfrentado al problema de quién es responsable de las fallas en muchos sistemas. Tenemos seguro para conductores individuales, y en automóviles individuales, para compensar los accidentes causados ​​por los conductores. Y es obligatorio proteger al público, ya que no pueden elegir si son atropellados por un automóvil asegurado o no asegurado. Pero en ciertos casos, la culpa del accidente es promovida a culpar al fabricante de automóviles.

Creo que veremos niveles similares de culpa para los diferentes jugadores de los sistemas de IA, pero creo que la complejidad de los sistemas de IA lo convertirá en un sistema de atribución de culpa mucho más rico y matizado al final.

Ciertamente, un accidente causado por un huevo de pascua que algún ingeniero de software escondió a sabiendas en el sistema debería culpar a ese ingeniero, y es posible que tengan que enfrentar responsabilidad penal.

Ya existen estándares para algunos sistemas de robótica, acordados internacionalmente por el organismo de estándares internacionales. Los códigos civiles de muchos gobiernos (y a veces incluso estados, y a veces incluso ciudades), se refieren a varios de esos estándares y dicen que los sistemas implementados deben cumplirlos. Eso generalmente absuelve tanto al fabricante como al usuario del sistema cuando cumple con los estándares legalmente especificados. Creo que los organismos de normalización se enfrentan a un gran conjunto de desafíos para mantenerse al día con todos los próximos desarrollos de IA y robótica. A veces, los estándares retrasarán la realidad: estamos viendo eso en el espacio de drones no tripulados en este momento, y predigo que el área permanecerá desordenada durante algún tiempo.

Para algunos estándares, como los sistemas de seguridad para equipos industriales, hay especificaciones directamente a nivel de ingeniería (¡un estándar europeo dice que ninguno de los códigos en los microcontroladores integrados puede usar pilas o punteros!). Pero para los sistemas complejos de inteligencia artificial, creo que tendrá que ser más como pruebas de seguridad, como ahora tenemos para pruebas de choque en automóviles.

A menudo, las personas argumentan que tendremos que demostrar la corrección de los programas de IA, pero creo que es una barra demasiado alta, no será aceptable y, por lo tanto, se reemplazará con pruebas de rendimiento.

Aquí hay una analogía: utilizamos caballos como medio principal de transporte y arrastre para la mayor parte de la historia humana escrita. Pero no pudimos probar que los caballos fueran correctos. En cambio, se acordó un estándar general para el comportamiento del caballo. Los caballos que actuaban mal fueron sacrificados de lugares donde interactuaban con personas, es decir, no cumplían con el estándar y usted (caballo) estaba fuera. Y la gente conocía las limitaciones del comportamiento del caballo. La mayoría de la gente sabía que no debía pararse directamente detrás de un caballo. Y sabían que no debían encender un fósforo a tres pulgadas del ojo de un caballo. Estas reglas no escritas pero generalmente aceptadas hicieron que el uso de caballos, en sí mismos sistemas muy complejos, sea útil y seguro en la sociedad humana. Los sistemas complejos de IA serán más como caballos que como programas de software correctos probados.

More Interesting

Supongamos que se inventa una IA de propósito general, entonces, ¿cómo ayudará a dar forma al mundo?

¿Cuáles son los recursos para la IA?

¿Podrá una IA hacer una programación informática compleja y hacer un trabajo creativo en el futuro?

¿Cómo puede ayudar la inteligencia artificial en el sector energético?

A medida que se desarrollen los robots de IA, los abogados y los médicos serán reemplazados. ¿Cómo pueden los robots de IA hacer estos trabajos por completo? ¿Cuánto tiempo tardará?

Si hiciéramos inteligencia artificial, ¿estaríamos esencialmente creando o replicando nuestra propia conciencia? Si aislamos nuestra inteligencia para que no supieran que los habíamos creado, ¿cómo se aplicaría esto al concepto de Dios en realidad si es una posibilidad?

¿La IA será buena, mala o ambas?

¿Qué se necesita para involucrarse en la programación de IA?

¿Por qué preferirías la inteligencia artificial?

¿Existe un código en inteligencia artificial que pueda hacerme reír en la vida?

¿Qué tan propensos al reemplazo de IA son los trabajos de ingeniería en el futuro cercano?

¿Qué es más probable que suceda? Un futuro donde, como humanos, nos conectamos con la IA y controlamos su dirección, o un futuro donde luchamos contra ellos.

Con los avances en inteligencia artificial, ¿se volverá obsoleto el dinero?

¿Temen los humanos que puedan ser dominados por una Inteligencia Artificial?

¿Cómo puede ayudar la inteligencia artificial a desarrollar una plataforma de redes sociales?