¿Será posible crear IA en un mundo virtual que realmente crea que existe?

Claro, puedes hacerlo ahora mismo. Simplemente agregue un método:

  boolean doIExist () {
     volver verdadero;
 }

El problema aquí no es con la creencia en la autoexistencia, sino en la definición de “creencia”. Una vez que haya resuelto eso, el resto del problema es relativamente trivial.

Las computadoras tienen un acceso mucho mejor al estado de sí mismos que los cerebros humanos. Esa puede ser la razón por la que es tan difícil hacer que piensen como los humanos. Los humanos piensan de una manera enormemente paralela, altamente adictiva. No tienen acceso a sus estados de creencia fácilmente porque no están organizados de esa manera. Apenas están organizados en absoluto.

Las computadoras razonan con mucha precisión, y preguntas como “¿existo?” Son triviales. Pero la motivación para preguntar, o cualquier otra motivación, es difícil de encontrar: no sabemos lo que significa en nosotros mismos, por lo que no sabemos lo que significa en las computadoras.

Sospecho que algún día lo resolveremos en nosotros mismos. Y cuando lo hagamos, podremos ponerlo en las computadoras con relativa facilidad. Pero probablemente no querremos hacerlo, por la misma razón por la que no fabricamos autos con patas. Ya tenemos humanos. Lo que queremos es que las computadoras hagan cosas que no podemos hacer.

¡Sí!

Una forma más clara de hacer esta pregunta es esta:

¿Algún día habrá IA que puedan formar sus propias creencias sobre el mundo basadas en “experiencias personales”? ¿Y esas IA llegarán eventualmente y espontáneamente a la conclusión de que “existen” en el sentido paradójico que a veces lleva a los humanos a una crisis existencial?

Seguro. Por qué no?

Hasta ahora, la barrera ha sido desarrollar sistemas autónomos que puedan construir su propio modelo del mundo de una manera lo suficientemente flexible que les permita aprender el idioma por su cuenta, participar en la cultura humana y formar sus propias creencias sobre el mundo. Parece probable que estos problemas eventualmente se resuelvan. Y cuando lo están, ¿qué es lo que impide que la IA confronte preguntas existenciales y llegue a conclusiones sobre ellas?

Sí, es posible hoy, y no solo en las formas triviales discutidas en otras respuestas. Pero probablemente todavía no en la profunda forma epistemológica y existencial que Paul King pretendió y articuló aún más.

He construido agentes en un mundo virtual que forman creencias sobre el mundo y sobre ellos mismos y los demás. Aprenden sobre sí mismos, el mundo y los demás. Tienen una autoimagen. Su propia existencia se da en su mayor parte por sentado. Pueden lamentarse por la desaparición de otra persona (pero esto es raro y no ha sido parte de nuestra investigación). Ellos (todavía) no piensan en su propia “mortalidad”, ya que ese no es un concepto que hemos introducido, pero podríamos.