¿Cómo prueba este experimento que los robots podrían ser conscientes de sí mismos?

Aquí está el documento que incluye el código explicado: http://kryten.mm.rpi.edu/SBrings…

Solo es consciente de sí mismo en el sentido literal más estricto de que hace una inferencia sobre una acción que se realiza a sí misma (se le da una píldora), utilizando el conocimiento de una acción realizada por sí misma (hablando). Pero dado que esta inferencia podría aplicarse a cualquier sujeto no consciente, la única conexión autoconsciente sería el paso intermitente de la retroalimentación del sensor de audio, que es un poco técnico. Sin embargo, las definiciones de autoconciencia de la mayoría de las personas probablemente incluyen retener un modelo de uno mismo, y esto parece mucho más un caso de “input-> inference-> output-> end program”

Básicamente, el código verifica si el tiempo de la voz que escucha coincide con el tiempo de la función de salida del robot; de ser así, pasa por una ruta de inferencia establecida explícitamente que desencadena una respuesta preescrita. El código está escrito de manera tan específica para esta tarea tan específica de píldoras y sonidos que no veo ninguna diferencia práctica con la programación normal de reglas si, entonces, salvo que toman el camino más largo. Puede haber algunas partes interesantes en el documento, pero los títulos sensacionales son inapropiados como de costumbre.

No pude encontrar un pub que explique lo que realmente se hizo:

Laboratorio Rensselaer de Inteligencia Artificial y Razonamiento

Es de destacar que no podemos realmente diferenciar entre una instancia particular de un enfoque cognitivo y, en este caso, la programación dirigida por eventos, a menos que veamos una mayor variedad de casos de prueba que diferencien o ‘vean el código’. Me imagino que lo que se presenta es, ritmo La respuesta del usuario de Quora a ¿Cómo demuestra este experimento que los robots podrían ser conscientes de sí mismos ?, pretende mostrar un enfoque particular para razonar sobre el propio comportamiento; Tenemos que suponer que el razonamiento del robot incluye un modelo de “sí mismo” versus “otro”. Pero el fragmento que se muestra en el artículo que publicó solo no es prueba de ello.

Este truco no prueba que el robot sea consciente de sí mismo. Sin que veamos el código y los algoritmos, todo lo que muestra es que alguien escribió un código que hizo hablar a un robot si no escuchaba a otros robots hablar. Eso es trivial y no requiere gran autoconciencia. No existe el hecho de que un robot crea que otro robot se ha tragado una píldora. Creo que alguien ha tonificado y ‘popularizado’ la descripción de lo que realmente se hizo. Este evento me parece un truco de relaciones públicas.