Si y no. El problema se acumula con un viejo problema filosófico llamado “libre albedrío”. Los humanos dicen tener esto. Cualquier robot de nivel humano también tendría que tener libre albedrío o al menos creer que lo hace tanto como los humanos creen que lo tienen.
Podría construir una IA en 10 minutos que afirme tener libre albedrío, pero no pude construir una que se vea a sí misma introspectivamente y descubra que debe tener una especie de libre albedrío porque no ve restricciones fundamentales para lo que puede hacer. Nadie puede construir una IA como esa. No tenemos idea
Para continuar a lo largo del camino actual, donde creamos máquinas cada vez más útiles, como mejores autos autónomos y Siri, que comete menos errores. Incluso podríamos construir un doctor AI que sea mejor que cualquier médico humano. Estamos progresando en esas líneas. Nuestras máquinas mejorarán, pero seguirán siendo máquinas sin sentido que solo ejecutan programas. La IA podría curar el cáncer, pero en realidad no le importará ni sabrá sobre el cáncer. Solo será una aplicación que se ejecuta en una computadora.
- ¿Cuál es el mayor problema no resuelto para la IA?
- ¿Por qué Python es el lenguaje elegido para la inteligencia artificial?
- ¿Es posible crear inteligencia artificial que realmente piense como un humano?
- ¿Cómo puede ser útil la inteligencia artificial para las ventas en la industria del personal?
- ¿Cuáles son algunas de las principales compañías de inteligencia artificial?
Pero nadie tiene idea de cómo hacer una IA de propósito general autoconsciente. Para construir esa voluntad se requiere un avance científico. Los avances técnicos de ingeniería no nos están guiando en la dirección de la máquina que mira hacia adentro y determina que siente que debe tener libre albedrío.
Mi perro es ciertamente un ser consciente de sí mismo que puede aprender. Hacer una máquina como un perro ni siquiera está en nuestro horizonte. Mi perro no es tan listo. Mi iPhone entiende más inglés. Ser un ser consciente de sí mismo no es lo mismo que ser inteligente, puedes tener uno sin mucho del otro.
¿Se requiere un Newton? Sí, si desea una IA consciente de sí misma que pueda actuar según sus propios intereses y tenga lo que llamamos “libre albedrío”. No, si todo lo que quieres es una máquina muy útil que podría ser una simulación de un humano ultra inteligente.
Aquí está la pregunta de $ 1,000,000: ¿Puedes escribir un programa que haga algo para lo que no estaba programado? No puedes simplemente tirar dados y elegir un comportamiento porque la tirada de dados y los comportamientos son programas. Tal vez escribir unas pocas docenas de tipos de pasos y luego combinarlos al azar. No, tenías que programar eso. Ese es el problema. Todo lo que escribes es solo automatización.
¿Puedes escribir un programa que TRUELY tenga libre albedrío? Quiero pruebas, no solo argumentos. Tal vez se necesitará otro Issac Newton no solo para demostrarlo, sino para inventar un campo matemático completamente nuevo necesario para la prueba y luego, después de que todos comprendamos completamente el problema de la mente / cuerpo humano, construiremos un robot humano equivalente.