Agencia moral codificadora
Creo que la preocupación central con la IA, incluso si no siempre se afirma como tal, es si queremos poner máquinas y algoritmos en una posición para tomar decisiones con serias implicaciones éticas, decisiones que nosotros como humanos encontramos difíciles de tomar debido a Las apuestas involucradas. En resumen, ¿queremos hacer agentes morales de IA?
Por ejemplo, pregúntate si te sentirías cómodo dejando que una IA haga lo siguiente:
- Cómo implementar AI en mi aplicación de Android
- Teoría de decisiones: ¿Cómo resolvería un cubo de rubix con una planificación de orden parcial (si se puede hacer)?
- ¿Qué piensan los informáticos sobre los robots de IA TARS y CASE que se muestran en la película Interestelar?
- ¿Qué pasa si hay un nuevo estado después de haber recibido capacitación en aprendizaje de refuerzo?
- ¿Podría Google AI predecir qué vas a Google a continuación?
- Determine qué anuncios mostrar en las páginas web. Los algoritmos de aprendizaje automático ya lo están haciendo, pero aún no es una IA.
- Reequilibrar las carteras de inversión. Los algoritmos pueden reaccionar a las condiciones cambiantes del mercado de capitales mucho más rápido que nosotros y pueden procesar grandes cantidades de datos que exceden mucho de lo que un humano puede manejar. Este es un uso limitado del aprendizaje automático, acercándose a la IA.
- Conducir autos. ¿Qué es lo peor que puede pasar? Una IA puede causar lesiones corporales o la pérdida de vidas humanas, pero generalmente serán mucho más seguras que los conductores humanos. Este es un caso más complejo de aprendizaje automático, acercarse a la IA, y uno que implica un riesgo para la vida humana.
- Determinar la atención médica. ¿Llegaremos a un momento en que las IA sean mejores para diagnosticar enfermedades y seleccionar opciones de tratamiento? Actualmente, el aprendizaje automático se utiliza para ayudar al diagnóstico, pero los médicos siguen siendo quienes toman las decisiones. ¿Te sentirías cómodo hablando con un médico de IA para problemas comunes y tomando los medicamentos que te recetan?
- Usa la fuerza letal. ¿Deberíamos poner bombas capaces de matar a cientos de personas en un avión no tripulado autónomo y dejar que vuelen sobre aldeas donde los terroristas se pueden esconder entre los civiles? Ya lo estamos haciendo, pero los drones aún no son IA, y hasta donde yo sé, no tienen la capacidad de decidir usar la fuerza letal sin un ser humano en el circuito.
¿Qué tienen en común todos estos escenarios? Afectan a los seres humanos y la calidad, incluso la continuación o terminación, de la vida humana. Las IA no están involucradas en esas situaciones, todavía no, pero las tendencias dicen que estamos llegando allí.
Miles de millones de personas en todo el mundo toman este tipo de decisiones todos los días, y cada decisión sigue un sistema de reglas, explícito o implícito. Las decisiones no siempre son fáciles de tomar, y dejar que las máquinas las tomen requiere, al menos al principio, codificar un sistema de reglas.
Todo se reduce a esto: hacer reglas sobre el valor de la vida humana . Generalmente no nos sentimos cómodos haciendo eso, y eso es algo bueno. La historia muestra lo fácil que es marginar a grupos de personas en función de la religión, el origen étnico, la capacidad física o mental, etc. Los resultados nunca son buenos, desde evitar que las personas vivan hasta su máximo potencial hasta el genocidio.
Una preocupación importante con las IA es que les transmitiremos nuestros valores de una de dos maneras.
- Estamos creando las reglas que definen sus valores, para que las IA puedan compartir nuestros prejuicios, para bien o para mal
- Una vez que una IA está en modo de aprendizaje, los que interactúan con los humanos aprenderán de los humanos, por lo que le enseñaremos a reflejar nuestros valores.
Lo que sucedió con Tay es un caso estrecho del segundo punto anterior. El chabot de la IA fue engañado para imitar declaraciones ofensivas, como la forma en que un niño de cuatro años repetirá malas palabras para llamar la atención.
No nos sentimos cómodos haciendo reglas sobre el valor de la vida humana, y las IA nos obligan a contemplar hacerlo. Hacer que una IA sea un agente moral es un dilema ético, y a menos que desarrollemos salvaguardas y las incorporemos a IA que interactúen y afecten a los humanos, corremos el riesgo de permitirles, incluso causarles, que nos hagan daño. Pero … Tay tenía salvaguardas, y fueron superados en menos de 15 horas.