El entrenamiento de máquinas para aprender conceptos éticos es probablemente una de las últimas cosas que sucederá en el desarrollo de la inteligencia artificial .
La forma en que funciona el aprendizaje automático es que el usuario alimenta versiones cuantificadas de las entradas y recibe una salida. La forma en que se evalúa la salida cambia en función de la forma en que ha aprendido. Aprende, como dijiste, haciendo que un usuario alimente sus datos; Sin embargo, la distinción importante que puede haber fallado en reconocer es que estos datos vienen en forma de piezas numéricas de [{entradas}, {salidas}].
La sugerencia de que podremos hacer que la IA resuelva problemas éticos y empáticos implica dos cosas que considero problemáticas:
- ¿Por qué decimos que la máquina de vectores de soporte y muchas otras técnicas de aprendizaje automático tienen un supuesto subyacente de iid?
- ¿Dónde puedo encontrar los mejores tutoriales de aprendizaje automático como principiante?
- Diseño de vectores de características para algoritmos de aprendizaje automático. ¿Debo poner características de diferentes dominios en el mismo vector?
- ¿Cuál es el mejor blog / sitio para mantenerse actualizado sobre las últimas tecnologías y herramientas de big data, aprendizaje automático?
- Yoshua Bengio: ¿Será el aprendizaje profundo un paso hacia la IA consciente?
- Que las entradas y salidas serán cuantificables. La idea de que las emociones pueden cuantificarse fácilmente es un poco exagerada dada nuestra comprensión prematura de la neurociencia. No dudo que toda esta idea sea posible en el futuro, pero tal como está, no parece que podamos traducir la ética y las emociones en números que simplemente.
- Que habrá datos “buenos” y “malos” de los cuales la máquina puede aprender. Las máquinas pueden aprender ética implicaría que ya tenemos evidencia concluyente de ética buena y mala, pero eso sería completamente subjetivo. Al tomar una determinada decisión, ¿es mejor maximizar el bienestar total de todas las personas involucradas, o es mejor maximizar el bienestar mínimo de las personas involucradas? ¿O algún enfoque completamente diferente?
Es difícil decir qué es bueno o malo en estos escenarios, por lo que no es posible (todavía) lograr que una máquina aprenda de los datos.