De lo que estás hablando es de una llamada “IA fuerte”: tiene objetivos, es capaz de resolver grupos de problemas que no fueron preprogramados y puede reaccionar ante cualquier cosa.
Actualmente, no existe una IA fuerte (estudio CS y mi tesis de licenciatura trata sobre la clasificación de símbolos escritos a mano con redes neuronales)
Eso significa que cualquier conversación sobre IA fuerte es puramente especulativa.
- ¿Los sistemas de reconocimiento de imágenes de aprendizaje profundo siempre aprenden esencialmente las mismas características de bajo nivel?
- ¿Cuál es el algoritmo detrás de x.ai?
- ¿Por qué podría ser malo realizar el Análisis de componentes principales en un conjunto de datos antes de la clasificación?
- Como hacer un robot
- ¿En qué problemas de aprendizaje profundo las redes neuronales son propensas a grandes sesgos?
Sin embargo, si uno piensa en cómo podría funcionar una IA tan fuerte, también podría pensar en agregar restricciones que eviten una IA malvada. Hay varias maneras de hacerlo:
- Restringir las posibilidades de interactuar.
- Tareas “codificadas” que no pueden modificarse
- La “función objetivo”: una IA debe tener algo que hacer. Supongo que una IA fuerte todavía necesita algún tipo de función de error / función de destino / función de felicidad. Supongo que uno podría enseñarle a la IA qué está mal con esta función.
Sin embargo, una IA fuerte siempre tendrá estos problemas. Por ejemplo, restringir las posibilidades de interactuar con la realidad hará que la IA sea inútil porque podría descubrir que está en un mundo simulado y, por lo tanto, dará otras “respuestas” a cualquier pregunta / simulación que ejecutemos.
La tarea “codificada” también podría ser problemática. Una IA fuerte debería ser capaz de crear otras IA fuertes que pudieran conducir a una generación sin restricciones. Esto también se aplica a la función de destino.