¿Cuál es su opinión sobre el argumento de la habitación china de John Searle?

Searle dice que le toma 5 minutos o menos para refutar la idea de la inteligencia artificial (o la conciencia, que ha combinado con la inteligencia durante 3 décadas o más), vea el video a continuación. Bueno, lleva un minuto refutar su objeción a la habitación china como lo demostró Douglas Hofstadter. La sala de chino no es igual a Searle o la persona dentro de la sala, la sala requiere una computadora o una respuesta externa de alguien que ‘realmente’ entienda chino y escribió el diccionario o programa que proporciona a Searle las respuestas, ‘verdaderamente’ en el sentido del propio Searle.

Searle hace algunos puntos interesantes con respecto a la conciencia artificial, pero lo ha combinado con inteligencia artificial durante décadas en lo que considero ahora una posición muy deshonesta, ya que no puedo concebir que no comprenda sus defectos básicos. Ningún investigador de IA ha afirmado haber creado una conciencia artificial, por lo que la objeción de Searle es que nadie se preocupa por nada. Luego toma su argumento para construir otros argumentos completamente desconectados del original (que de todos modos estaba equivocado) e incluso menciona una contra objeción tonta para él como prueba de que las objeciones contra su objeción son tontas. El argumento de la sala china está tan mal construido que no resiste el escrutinio de la escuela secundaria, es bastante vergonzoso. El argumento principal es que si no todas las partes de una habitación entienden chino, no importa si todo lo hace, se puede decir que la habitación no tiene conciencia ni inteligencia, ¿hum?

Searle cae en una falacia o falla casi en cada oración que puede armar, por ejemplo, el uso del argumento sintáctico contra las computadoras y la IA, sin darse cuenta de que están asumiendo que la mente no es sintáctica, ¡lo que la neurociencia sugiere fuertemente que puede ser fácilmente! Nuevamente, ignorando toda la ciencia, y ni siquiera capaz de construir un argumento filosófico básico.

Entonces, este tipo de preguntas filosóficas son abordadas de manera más adecuada por personas con antecedentes en ciencias como Gregory Chaitin, Giulio Tononi, Max Tegmark, Stephen Wolfram a Selmer Bringsford, Judea Pearl, Paul Nurse, William Bialek, por nombrar algunos.

La Sala China es un experimento de pensamiento interesante aunque extremadamente desordenado. Por un lado, a Searle se le ocurrió mostrar que la intencionalidad no puede derivarse de la manipulación de símbolos, mientras que lo que realmente parece ser el núcleo del argumento es la experiencia consciente. Además, las intuiciones reclutadas por el argumento parecen provenir de varias características, posiblemente independientes, de la configuración del experimento.

Las diferentes intuiciones que puedo reconocer son las siguientes:

  1. Esa manipulación de símbolos como tal / por sí sola no es suficiente para la conciencia ya que los símbolos son simplemente estructuras “vacías” que no pueden “contener” ninguna realidad cualitativa.
  2. Esa simulación no es igual a la replicación porque en una simulación las relaciones causales entre elementos se alteran o adquieren una naturaleza diferente.
  3. Que un sistema no puede tener una experiencia consciente de, digamos, una escena visual (lo que parece implicar tener mucha información “activa” simultáneamente), si en un instante dado prácticamente toda la información que tiene el sistema se almacena en la memoria y no se almacena usado.

Estas intuiciones, especialmente 1 y 2, apuntan en la dirección del panpsiquismo: la creencia de que alguna forma de conciencia ya está presente en el nivel de la materia; que se siente como algo sujeto a ciertas interacciones causales.

Aunque probablemente no le gustaría decirlo claramente, algo en esta línea debe ser lo que Searle tiene en mente cuando dice que los fenómenos mentales dependen de los poderes causales y las propiedades físico-químicas reales de los cerebros.

Algunas teorías panpsiquistas de la conciencia que toman en serio estas intuiciones son la famosa teoría de la información integrada de Giulio Tononi, las teorías electromagnéticas como las de Johnjoe McFadden o Roy John, o las teorías cuánticas como la de Joachim Keppler.

Sin embargo, creo que estas intuiciones y la conclusión a la que conducen probablemente estén equivocadas. Dado que un experimento nos lleva a ellos, considere ahora este otro experimento mental de David Chalmers:

Las neuronas son reemplazadas una por una por pequeñas computadoras de silicio que recrean las mismas características de entrada-salida de las células reemplazadas. Cuando una neurona que se va a reemplazar ya está conectada a una de las neuronas artificiales, en lugar de agregar otra computadora, la que ya está presente toma la función de las dos neuronas, y así sucesivamente, de modo que al final terminan teniendo solo una pequeña computadora haciendo todo el trabajo, como en el experimento de pensamiento de la Sala China.

Ahora la pregunta es ¿qué sucede con la experiencia consciente de la persona que se somete a este proceso? ¿Desaparece repentinamente cuando se produce un cierto umbral de sustitución? Esto parece muy inverosímil. ¿Se desvanece gradualmente a medida que avanza la sustitución? Esto lleva a una situación muy extraña. Imagine que las neuronas que son responsables de la visión del color ya han sido reemplazadas, por lo que ahora la persona experimenta el mundo en blanco y negro, sin embargo, debido a que las neuronas artificiales sustituidas están produciendo el mismo comportamiento que las originales, la persona No ser capaz de pensar, y mucho menos expresar, que está perdiendo su visión del color. Supuestamente verá el mundo en blanco y negro, pero continuará comentando lo hermoso que se ve el cielo naranja durante el atardecer. Esta desconexión entre los pensamientos de la persona y su experiencia es muy poco atractiva. La suposición más razonable sería entonces que la conciencia se conserva durante todo el proceso y, por lo tanto, la Sala China debería ser consciente (de alguna manera, como un todo). Pero cómo podría ser esto sigue siendo dolorosa y bellamente misteriosa.

Creo que la conciencia es realmente extraña y misteriosa, pero la Sala China es un llamado a la intuición que plantea preguntas y que no nos acerca particularmente a comprender el misterio.

Como primera observación, el hombre en la habitación, y su comprensión del chino (o la falta de él), parece una irrelevancia total, y que la conversación es en chino (en lugar de inglés o cualquier otra cosa) también es una pista falsa. Además, que el procesamiento de las consultas chinas ocurre en una “habitación”, por un hombre que consulta un “libro de reglas”, son juegos de manos que solo pueden servir para distraer nuestras intuiciones de algo que algunas personas podrían considerar extremadamente relevante: a saber, que cualquier proceso computacional remotamente similar al cerebro humano implicaría cientos de miles de millones de pasos. Si explotamos cada neurona al tamaño de una nota Post-It, el cerebro humano tendría quizás una milla de diámetro; si (de manera más realista) cada neurona tiene su propia habitación con su propio hombre a cargo, entonces tal vez cien millas de diámetro; Si las moléculas individuales dentro de las neuronas necesitaran sus propias habitaciones, podríamos estar hablando de tamaños astronómicos.

Por lo tanto, también podríamos simplificar el argumento de la sala china deshaciéndonos del hombre, la sala, los chinos y el libro de reglas. 🙂 La única parte que es realmente relevante son los trozos de papel, y el hecho de que esos trozos representan un cálculo que (por hipótesis) pasa la prueba de Turing. Y la pregunta que tenemos ante nosotros es si, digamos, una máquina tipo Rube-Goldberg del tamaño del Sistema Solar, que pasa trozos de papel de una manera isomorfa a lo que hace un cerebro humano, generaría conciencia.

La respuesta de Searle, por supuesto, es no. En realidad, ha escrito que cualquiera que no pueda ver que la respuesta es no necesita un contraargumento, ¡sino ayuda psiquiátrica!

Pero cuando se le hace la pregunta: ¿cuál es el criterio de principio según el cual juzgas que otra persona está consciente, pero juzgas que el malabarista de papel está inconsciente, incluso si su comportamiento externo es el mismo? ”, Dice Earle, es por los “poderes causales biológicos” del cerebro. ¡ Y luego nunca explica en qué consisten esos poderes causales! Ni siquiera hace un gesto hacia ningún principio general por el cual, por ejemplo, si nos encontramos con algunos extraterrestres basados ​​en arseniuro de galio en lugar de carbono, podríamos decidir si esos extraterrestres tienen poderes causales o no.

Para mí, esto no parece una postura coherente sobre la conciencia, o incluso el comienzo de tal postura. Fijar la conciencia sobre los “poderes causales” parece determinar por qué las pastillas para dormir funcionan en su “virtud sedante”: es solo una reafirmación del problema.

Permítanme compartir una anécdota divertida. Las primeras veces que enseñé mi curso universitario de computabilidad y complejidad en el MIT (6.045), incluí una conferencia sobre los “grandes debates filosóficos de la informática”: la prueba de Turing, la sala china, las opiniones de Roger Penrose, etc. Mi objetivo era siempre para que los estudiantes discutan entre ellos sobre estas preguntas.

Pero siempre fallé, porque no pude encontrar un solo estudiante universitario del MIT que pensara que la posición de Searle tenía sentido y lo argumentaría. Con creciente desesperación, yo mismo discutiría la posición de Searle, solo para tratar de alejar a los estudiantes, pero ellos responderían con calma que, no, si un cerebro que transmite señales eléctricas puede ser consciente, entonces un artilugio mecánico pasar trozos de papel también puede ser consciente … o, en cualquier caso, no les había dado ninguna propuesta real para diferenciar el uno del otro. ¿Por qué no era tan obvio?

Tuve que suspender esa conferencia …

Tres observaciones:
1) Una sala china es análoga a una computadora que también pasa el lenguaje a través de ella en el patrón de unos y ceros. Sin embargo, las computadoras también contienen plataformas de sistemas operativos de hardware y firmware más el software para el que está escrito el programa. Por lo tanto, es el sistema subyacente el que hace que la computadora sea consciente mecánicamente para comprender las reglas / patrones que se pasan a través del entorno externo.
2) Las claves son la comprensión y el entorno integrado.
3) Cuando era niño, recuerdo estar en un restaurante chino con mis padres, ver a los chinos por primera vez hablando este idioma extraño. No entendía este idioma, pero debido a que los camareros y otros chinos estaban trabajando con la comida, deben haber estado hablando de nuestra comida. El restaurante refuerza el aspecto ambiental del lenguaje y la conciencia. “Strange People” refuerza el aspecto de que la plataforma china o los sistemas operativos ENTIENDEN el idioma chino que subyace en el aspecto ligeramente racista del argumento de Searle. Del mismo modo, podría haber usado una habitación marciana.

Esto es lo que Scott Aaronson tiene que decir sobre el argumento de la sala china de Searle en su libro Quantum Computing Since Democritus :

La tercera cosa que me molesta sobre el argumento de la Sala China es la forma en que obtiene tanto kilometraje de una elección de imágenes posiblemente engañosa, o, podría decirse, tratando de eludir todo el problema de la complejidad computacional simplemente a través de un encuadre inteligente. Estamos invitados a imaginar a alguien empujando pedazos de papel con cero comprensión o comprensión, al igual que los doofus de primer año que escriben (a + b) ^ 2 = a ^ 2 + b ^ 2 en sus exámenes de matemáticas.

¡Pero de cuántos trozos de papel estamos hablando! ¿Qué tan grande debería ser el libro de reglas y qué tan rápido tendría que consultarlo para llevar a cabo una conversación inteligente en chino en algo parecido al tiempo real? Si cada página del libro de reglas correspondiera a una neurona del cerebro de un hablante nativo, entonces probablemente estaríamos hablando de un “libro de reglas” de al menos el tamaño de la Tierra, sus páginas pueden ser buscadas por un enjambre de robots que viajan cerca de la velocidad de la luz.

Cuando lo pones de esa manera, tal vez no sea tan difícil imaginar que esta enorme entidad de habla china que hemos creado podría tener algo que estaríamos preparados para llamar comprensión o comprensión.

La conclusión principal aquí es que los filósofos pueden ser tan buenos en distinciones cualitativas puras que es fácil pasar la diferencia entre “chico en una habitación” y “planeta procesado por robots de velocidad de la luz” debajo de la alfombra. El punto de Scott es que la eficiencia con la que se puede calcular algo importa; Incluso escribió un ensayo de sesenta páginas sobre un tema relacionado para llevar ese punto a casa.

Por cierto, obtuve este pasaje de una crítica de un libro que no menciona las otras dos cosas que molestan a Scott sobre el argumento de la habitación china de Searle, así que se lo dejaré a él para que le explique los detalles. Espero que haya ayudado!

Es un argumento perfectamente bueno, siempre y cuando Searle esté dispuesto a admitir que también demuestra que ningún ser humano realmente puede entender chino; después de todo, un cerebro humano no es más que una máquina que lleva a cabo un algoritmo. En otras palabras, lo que demuestra el argumento es simplemente que la noción intuitiva de conciencia de Searle es incompatible con cualquier cosa que pueda existir en el mundo real.

Dado que estoy bastante convencido de que soy consciente, a pesar de que soy “simplemente” una computadora que obedece una lista de instrucciones, puedo concluir que “conciencia” significa algo diferente para mí que para Searle.

Cuarto chino

Me parece muy insatisfactorio decir que, dado que conocemos el mecanismo de traducción realizado por el sistema, no puede ser tan bueno como un sistema para el que no tenemos tal comprensión.

Parece que Searle valora la magia sobre la ciencia.

Cuando escuché por primera vez el argumento de la Habitación China, mi primera reacción fue que no había una computadora en la habitación, ya que no había borrador en la habitación. Una computadora podría simular lo que está sucediendo en la habitación, pero la habitación no puede simular una computadora.