Dado lo éticamente y empáticamente incompetentes que son los humanos, ¿cuándo comenzaremos a entrenar el aprendizaje automático en grandes conjuntos de datos de decisiones éticas?

El entrenamiento de máquinas para aprender conceptos éticos es probablemente una de las últimas cosas que sucederá en el desarrollo de la inteligencia artificial .

La forma en que funciona el aprendizaje automático es que el usuario alimenta versiones cuantificadas de las entradas y recibe una salida. La forma en que se evalúa la salida cambia en función de la forma en que ha aprendido. Aprende, como dijiste, haciendo que un usuario alimente sus datos; Sin embargo, la distinción importante que puede haber fallado en reconocer es que estos datos vienen en forma de piezas numéricas de [{entradas}, {salidas}].

La sugerencia de que podremos hacer que la IA resuelva problemas éticos y empáticos implica dos cosas que considero problemáticas:

  1. Que las entradas y salidas serán cuantificables. La idea de que las emociones pueden cuantificarse fácilmente es un poco exagerada dada nuestra comprensión prematura de la neurociencia. No dudo que toda esta idea sea posible en el futuro, pero tal como está, no parece que podamos traducir la ética y las emociones en números que simplemente.
  2. Que habrá datos “buenos” y “malos” de los cuales la máquina puede aprender. Las máquinas pueden aprender ética implicaría que ya tenemos evidencia concluyente de ética buena y mala, pero eso sería completamente subjetivo. Al tomar una determinada decisión, ¿es mejor maximizar el bienestar total de todas las personas involucradas, o es mejor maximizar el bienestar mínimo de las personas involucradas? ¿O algún enfoque completamente diferente?

Es difícil decir qué es bueno o malo en estos escenarios, por lo que no es posible (todavía) lograr que una máquina aprenda de los datos.