¿Qué tipo de problemas legales y de propiedad intelectual ve que enfrentan las empresas de inteligencia artificial en los próximos 5 años?

Esto va a ser un poco extraño, pero hay grandes problemas de reforma legal que vienen junto con la IA.

Hablemos de autos autónomos por un momento. La IA en el auto se caga y alguien sale herido. OK, ¿quién tiene la responsabilidad? El automóvil no es reconocido como una entidad (y la “entidad”, la IA, que tuvo el accidente ya no existe, más sobre esto en un momento). El pasajero no lo hace, y puede que no haya un pasajero. ¿La compañía propietaria del auto? ¿Ellos? Tal vez. ¿La compañía que hizo el auto? ¿La compañía que construyó la IA, si es diferente del automóvil (alta probabilidad de eso, por cierto)? ¿El desarrollador que escribió la línea de código errante o el tipo de control de calidad que se lo perdió? ¿El desarrollador de las herramientas utilizadas para construir la IA? Quiero decir, gente, son tortugas hasta el fondo …

Y no vamos a saber la respuesta hasta que esto haya sido fuertemente litigado. Probablemente por tres o cuatro décadas …

La otra cosa son las contribuciones incidentales a la propiedad intelectual. Como si yo fuera el tipo que hace algo estúpido que es completamente imprevisto y que hace que el auto de arriba tenga el accidente. Pensemos en lo que pasa después …

Suponiendo que la computadora del automóvil no está dañada y que la conexión de red está activa (probablemente), la IA del automóvil se cargará a “la nave nodriza”, donde se analizará lo que sucedió y se emitirá un parche (potencialmente por otra IA, que agrava todo el conjunto “¡Quién tiene la culpa” mencionado anteriormente!), Y la versión de la IA que tuvo el accidente ya no existe, y todas las versiones de ese software en ejecución ahora están actualizadas con la actualización y CADA versión ha “aprendido”. Simultaneamente.

¿Pero qué hay de mí? Te di el aprendizaje clave que te permitió crear la propiedad intelectual que te permitió hacer el parche … ¿cuál es mi propiedad en tu propiedad como resultado? Hmmm? ¿Nadie? Bueller?

Cuando AI realiza cambios en AI y AI actúa como agentes independientes (automóviles no tripulados que se mueven a áreas de demanda anticipada o que regresan a la base para mantenimiento por su propio reconocimiento, por ejemplo), las ruedas caen completamente del autobús en un sistema legal basado en la noción de personas reales que tienen responsabilidad personal … Lo mismo se aplica a la propiedad intelectual también.

Y da lugar a un argumento completo de la Decimotercera Enmienda sobre si las IA autoorganizadas son en sí mismas “personas” o no, y si es así, ¿pueden ser “propiedad” en algún sentido …

Abordaré cuestiones legales, no IP:

Los posibles problemas surgirán de:

  • donde AI viola las leyes existentes, por ejemplo. Decisiones hipotecarias que violan las leyes de vivienda, crédito o decisiones de contratación que son o parecen discriminatorias.
  • Recopilación selectiva de datos o exclusión deliberada de datos para lograr el resultado deseado: por ejemplo, manipular los resultados de incumplimiento o ejecución hipotecaria para hacer que los bienes inmuebles parezcan una inversión más segura
  • aplicación de IA o ML sin el cuidado suficiente con respecto a la capacitación; es decir, la carrera para ser el primero en adelantar al mercado es precisa
  • Defecto en la aplicación de un sistema de IA que provoca daños: accidentes automovilísticos sin conductor, etc.
  • Los sistemas de ML e IA utilizados para la creación de perfiles que marcan repetidamente una persona o grupo específico. Intenta imaginar AI y ML en la actual prohibición de inmigración.

AI y ML no son perfectos. Si bien pueden superar los controles humanos y se producirán errores humanos en la toma de decisiones. Es toda la discusión de falsos positivos y falsos negativos.

cada decisión incorrecta es una oportunidad para que una demanda demuestre que se tomó el debido cuidado. Es probable que haya una gran cantidad de demandas para definir cómo se debe tratar la IA y el LD bajo la ley.