Si una IA comete asalto / infringe un delito, ¿se hace responsable a la IA o al desarrollador?

Desarrollé una aplicación / dispositivo de IA para una granja lechera local que inadvertidamente mató a un niño debido a un error en mi conjunto de datos de entrenamiento.

Soy un arquitecto de soluciones independiente que comenzó a desarrollar sitios web para empresas locales a finales de los 90. A lo largo de los años he estado a la vanguardia de las tecnologías de desarrollo web / de aplicaciones (desarrollo de javascript, desarrollo de aplicaciones web, puerta de enlace SMS / MMS / desarrollo de aplicaciones, desarrollo de servicios web, desarrollo Twilio / VXML, desarrollo de redes sociales, desarrollo de aplicaciones móviles, Microsoft Surface Table dev, Google Glass dev, cloud dev, IoT device dev, AR / Microsoft Halo Lens dev, Alexa dev, and now machine / deep learning dev) y se especializan en automatización y encontrar soluciones a problemas realmente difíciles.

El año pasado, una granja lechera local me encargó desarrollar un dispositivo para erradicar las palomas y las palomas que se reproducían sin control y causaban numerosos problemas en los vecindarios circundantes. El dispositivo rastrea las aves que vuelan sobre la granja, determina si es una paloma o una paloma, y ​​lo dispara si aterriza en uno de los rieles objetivo que tienen un tope de retención y un comedero para atrapar a las aves muertas.

El dispositivo en sí era relativamente fácil de crear y consistía en un rifle de aire comprimido hecho a medida montado en una torreta estabilizada con giroscopio, un compresor de aire, una cámara Dragonfly2 y un NUC Intel. La parte más difícil del proyecto fue crear un conjunto de datos que pudiera diferenciar a las palomas y palomas de otras aves cuya captura era ilegal. El dispositivo había estado funcionando sin problemas durante meses y se convirtió en una novedad para las personas de los vecindarios circundantes que vendrían a verlo funcionar. Cuando tomé el proyecto, entendí que estaba desarrollando algo que era potencialmente peligroso, como Glock y Tesla, y tomé todas las precauciones imaginables para asegurarme de que era seguro, lo que no entendí era lo inimaginable.

Una niña de 6 años que llevaba un gorro de punto diseñado como un pájaro dio la vuelta al tope y se acercó a uno de los rieles de incendios para obtener una mejor vista. La combinación de la altura de la niña en relación con la cerca y el sombrero de pájaro que llevaba hizo que el dispositivo identificara erróneamente su cabeza como una paloma que aterrizaba en la barandilla y le disparó fatalmente.

Al contrario de otros comentarios aquí, creo que el riesgo futuro de que la IA cometa actos atroces como resultado de un error o lo inimaginable es mucho mayor que ser “programado” para ser tortuoso. En este momento, el desarrollo de IA es similar al desarrollo de aplicaciones móviles antes del iPhone, iOS y App Store, pero eventualmente se convertirá en una corriente principal y un ecosistema y mercado similar evolucionará a su alrededor, donde podrá comprar su propio hipotético AI Bird Turret desarrollado por un desarrollador mucho menos experto que yo.

Es una buena pregunta

En teoría, después de la construcción de una Inteligencia Artificial, el fabricante es el responsable.

En ese aspecto de la legalidad, es lo mismo que tener un perro o un gato al afirmar que la entidad no tiene medios razonables de control y es responsabilidad del propietario.

Pero … ¿no es eso tomar responsabilidad LEJOS de la Inteligencia Artificial?

Esto es lo que debe tratarse en una verdadera Inteligencia Artificial.

En teoría, una vez que asigna inteligencia y autoconciencia a una entidad de IA, también debe abogar por un sentido de integración comunitaria y comportamientos responsables civiles.

Para ser una persona productiva e individual de la sociedad, también se debe considerar que la unidad tiene derechos civiles.

Pero NO PUEDE extender los derechos humanos completamente a una máquina.

  • ¿Una máquina tiene derecho a una jubilación después de 60 años o más de uso continuo?
  • ¿Tiene una máquina el derecho a la igualdad de impuestos y pago de vacaciones?
  • ¿Una máquina tiene derecho a capitalizar intereses durante 400 años?

En su propia categoría única, los derechos y responsabilidades de la primera IA deberán ser pensados ​​adecuadamente.

Soy de la opinión de que el enfoque correcto es poner límites civiles a su comportamiento que trabajen para mantener la paz.

Lo que eso significa es una barrera que tal vez ni siquiera podamos comprender en esta etapa solo viendo las cosas desde nuestra propia perspectiva personal egoísta.

Dejando a un lado lo absurdo de la pregunta por un momento, sugeriría que la entidad o persona que operaba la IA para su beneficio sería responsable. El propietario podría culpar al desarrollador por negligencia.

Desarrollo sistemas de IA para el espacio fintech. Si se considera que un prestamista que usa uno de mis sistemas ha violado una ley, la autoridad reguladora lo considerará responsable. Entonces probablemente me demandarían para recuperar cualquier multa, si pensaran que podría tener alguna responsabilidad.

Pero en serio … Los sistemas de inteligencia artificial hoy en día hacen cosas como jugar Go, guiar vehículos, calcular rutas, tomar decisiones sobre solicitudes de préstamos y manejar quejas por correo electrónico. Ellos deciden qué noticia o anuncio verás a continuación.

En términos de formación de intenciones criminales, no existe una plataforma o sistema existente que pueda comprender el concepto de intención criminal, y mucho menos realizarlo.

Me imagino que la ley se definirá para que el propietario sea directamente responsable, y el propietario a su vez responsabiliza al proveedor. La empresa que proporciona productos suele ser responsable de percances y remedios relacionados. Los empleados generalmente no lo son, pero pueden ser despedidos, por supuesto. Cualquier forma de IA es solo un producto por el momento.

Actualmente, las IA que pueden hacer esto por su propia cuenta no existen.

No hay IA que sean capaces de decidir cometer un delito para completar una tarea. El desarrollador debe especificar que cometer un delito es una forma posible de realizar la tarea. Si hicieran esto, el desarrollador habría hecho la IA de tal manera que cometiera el delito, y por lo tanto, el desarrollador se hace responsable.

More Interesting

¿Cómo es la investigación de Inteligencia Artificial en la industria diferente a la de la academia?

¿Qué hacen las compañías de inteligencia artificial en estos días?

AlphaGo vs Lee Sedol: ¿Quién gana y cuál será el puntaje final? ¿Por qué piensas eso?

¿Por qué solo se utilizan redes neuronales convolucionales para imágenes, en lugar de otras técnicas de aprendizaje profundo?

¿No es el examen de ciencias de cuarto u octavo grado una posibilidad demasiado remota para la IA actual? ¿Por qué no realizar primero tareas más simples como la comprensión básica del mundo a partir de videos?

¿Por qué no reemplazamos jueces con software en la India?

¿Por qué todos los robots de inteligencia artificial como Siri, Google Now y la mayoría de los sistemas GPS utilizan voces femeninas? ¿Por qué no voces en off masculinas? ¿Tiene que ver con la psicología humana?

Después del curso de ML de Andrew Ng, ¿debo hacer el curso de red neuronal de Geoffrey Hinton antes de hacer un aprendizaje profundo? ¿Cuánto conocimiento de redes neuronales es lo suficientemente bueno como para comenzar a hacer un aprendizaje profundo?

¿Podría una red neuronal usar el Billboard 100 para crear una canción?

¿Cuáles son las 5 mejores ciudades del mundo para el aprendizaje automático y la experiencia de aprendizaje profundo en el mundo a partir de 2017?

¿Qué robot debo comprar para ver mis algoritmos en acción?

¿Por qué la optimización de colonias de hormigas es una técnica metaheurística?

¿Por qué la radiología no puede hacerse completamente por IA?

¿Cómo serán castigados los robots autoconscientes por sus crímenes?

¿Cuál es tu opinión sobre el futuro de la IA?