Creo que hay dos componentes clave para comprender este panorama. Intencionalidad y complejidad.
1. Intencionalidad . Muchas de las historias de ciencia ficción (e incluyo comentarios hechos por algunos académicos en esta categoría) y la responsabilidad de los sistemas de IA, implican que los sistemas de IA tienen intencionalidad. Hay cero, ninguno, zip, nada, sistemas de IA intencionales implementados en el mundo. Y en mi opinión, un número similar se demostró en los laboratorios. Eso no significa que no habrá tales sistemas en el futuro. Pero creo que podemos esperar para preocuparnos por ellos hasta que al menos veamos sistemas de laboratorio que demuestren la intencionalidad de un pájaro, o incluso un mamífero. De lo contrario, solo estamos disparando en la oscuridad, y cualquier respuesta que se nos ocurra pronto será víctima de los hechos de la situación en el terreno si llegamos a los sistemas de inteligencia artificial intencionales.
2. Complejidad : Nos hemos enfrentado al problema de quién es responsable de las fallas en muchos sistemas. Tenemos seguro para conductores individuales, y en automóviles individuales, para compensar los accidentes causados por los conductores. Y es obligatorio proteger al público, ya que no pueden elegir si son atropellados por un automóvil asegurado o no asegurado. Pero en ciertos casos, la culpa del accidente es promovida a culpar al fabricante de automóviles.
- ¿Qué sucede en las horas, días y meses posteriores al anuncio de una empresa pública (por ejemplo, Google) de que han logrado la Inteligencia Artificial General?
- ¿Qué puede evitar que alguien construya un AGI?
- ¿Cómo afectará la superinteligencia artificial / inteligencia general artificial a la investigación sobre el envejecimiento?
- Cómo ver la IA dando forma a la industria de la salud
- ¿En qué se diferencia OpenAI de otros institutos de investigación de IA en términos de enfoque y visión?
Creo que veremos niveles similares de culpa para los diferentes jugadores de los sistemas de IA, pero creo que la complejidad de los sistemas de IA lo convertirá en un sistema de atribución de culpa mucho más rico y matizado al final.
Ciertamente, un accidente causado por un huevo de pascua que algún ingeniero de software escondió a sabiendas en el sistema debería culpar a ese ingeniero, y es posible que tengan que enfrentar responsabilidad penal.
Ya existen estándares para algunos sistemas de robótica, acordados internacionalmente por el organismo de estándares internacionales. Los códigos civiles de muchos gobiernos (y a veces incluso estados, y a veces incluso ciudades), se refieren a varios de esos estándares y dicen que los sistemas implementados deben cumplirlos. Eso generalmente absuelve tanto al fabricante como al usuario del sistema cuando cumple con los estándares legalmente especificados. Creo que los organismos de normalización se enfrentan a un gran conjunto de desafíos para mantenerse al día con todos los próximos desarrollos de IA y robótica. A veces, los estándares retrasarán la realidad: estamos viendo eso en el espacio de drones no tripulados en este momento, y predigo que el área permanecerá desordenada durante algún tiempo.
Para algunos estándares, como los sistemas de seguridad para equipos industriales, hay especificaciones directamente a nivel de ingeniería (¡un estándar europeo dice que ninguno de los códigos en los microcontroladores integrados puede usar pilas o punteros!). Pero para los sistemas complejos de inteligencia artificial, creo que tendrá que ser más como pruebas de seguridad, como ahora tenemos para pruebas de choque en automóviles.
A menudo, las personas argumentan que tendremos que demostrar la corrección de los programas de IA, pero creo que es una barra demasiado alta, no será aceptable y, por lo tanto, se reemplazará con pruebas de rendimiento.
Aquí hay una analogía: utilizamos caballos como medio principal de transporte y arrastre para la mayor parte de la historia humana escrita. Pero no pudimos probar que los caballos fueran correctos. En cambio, se acordó un estándar general para el comportamiento del caballo. Los caballos que actuaban mal fueron sacrificados de lugares donde interactuaban con personas, es decir, no cumplían con el estándar y usted (caballo) estaba fuera. Y la gente conocía las limitaciones del comportamiento del caballo. La mayoría de la gente sabía que no debía pararse directamente detrás de un caballo. Y sabían que no debían encender un fósforo a tres pulgadas del ojo de un caballo. Estas reglas no escritas pero generalmente aceptadas hicieron que el uso de caballos, en sí mismos sistemas muy complejos, sea útil y seguro en la sociedad humana. Los sistemas complejos de IA serán más como caballos que como programas de software correctos probados.