Esta es una pregunta muy interesante. Como mencionó Robby Goetschalckx, la respuesta depende de cómo se defina la “sensibilidad”. En lugar de discutir sobre las implicaciones filosóficas / morales, quiero hablar sobre “cómo” se puede lograr desde una perspectiva informática.
Mientras la IA esté impulsada por reglas construidas por humanos para resolver problemas específicos, no será sensible. Finalmente, para la inteligencia, la IA debería ser mucho más compleja de lo que los humanos pueden codificar fácilmente. Tal IA nunca sería más grande que la suma de sus partes.
Una forma de hacerlo es a través de ANN al tener varias interconexiones y varias capas (aprendizaje ultra profundo si es posible). Pero no estoy a favor de un enfoque como 1. no será divertido construir eso … 2. es demasiado computacionalmente intensivo.
- ¿Qué tipo de problemas legales y de propiedad intelectual ve que enfrentan las empresas de inteligencia artificial en los próximos 5 años?
- No todos pueden ser expertos en un campo, y con una curva de aprendizaje, ¿hay un perfil particular de una persona especialmente adecuada para comenzar una carrera en IA?
- ¿Cómo se comparan las arquitecturas de aprendizaje profundo?
- ¿Cómo afectará a la industria india de TI si abandonan su mentalidad basada en el servicio y comienzan a construir productos basados en inteligencia artificial y aprendizaje automático?
- ¿Cuál podría ser un proyecto interesante en Python para aprender inteligencia artificial?
Otro enfoque que creo que podría funcionar es segregar el motor de IA en varios agentes más pequeños o micro-bots. Cada microbot puede ser un motor de reglas o una máquina de ML. Los microbots pueden competir y colaborar entre sí para obtener los mejores resultados. Las colecciones de micro-bots pueden volverse sensibles siempre que se les den los incentivos adecuados para hacer su trabajo y estén interconectados de alguna manera. Esto debería conducir a una inteligencia superior que es más grande que sus partes.