El gran problema que me interesa es: ¿qué significa para nosotros vivir con máquinas que no son sensibles pero que parecen serlo?
Comencemos definiendo rápidamente la sensibilidad y la inteligencia (al menos para esta discusión). Diremos que la inteligencia es la capacidad de resolver problemas complejos, manejar aportes variados y lograr objetivos. Los autos autónomos son inteligentes. Los animales son inteligentes. Un ábaco no es inteligente. La sensibilidad es la capacidad de sentir, tener experiencia en primera persona. Las personas son sensibles, al igual que los mamíferos, las aves, los pulpos y posiblemente los peces. Los automóviles autónomos no son inteligentes, ni ninguna otra máquina existente actualmente (si pueden serlo en el futuro es una pregunta tremendamente importante, pero a partir de ahora, no lo son).
En general, creemos que otras personas son sensibles aunque no podamos percibir directamente la experiencia de los demás. Sin embargo, fuera de nosotros mismos, nuestra intuición sobre la sensibilidad de los demás no es confiable. Hay pruebas muy sólidas de que los animales son sensibles, pero muchas personas no creen que lo sean. Y resulta que es bastante fácil programar las interacciones de una computadora para que la gente la vea como sensible.
- ¿Cómo configuro una ubicación personalizada / simulada en Android?
- ¿El aprendizaje automático ha logrado mejoras tangibles en la eficacia del descubrimiento de fármacos?
- Si tengo n computadoras que ejecutan un programa Python, ¿cómo sincronizo los relojes de esas computadoras para que todas acepten menos de 0.1 milisegundos?
- ¿Qué lenguaje es mejor para un algoritmo de futuros HFT, C ++ o python?
- ¿Cuál es la diferencia entre el kernel estable de Linux y el sistema de archivos de Linux?
Alan Turing propuso lo que se conoce como la prueba de Turing como respuesta a la pregunta “¿Pueden pensar las máquinas?”. Basado en un juego de salón llamado Imitation Game, la idea básica es que un juez se comunica a través de un texto escrito con un concursante que dice ser humano pero que puede ser máquina o humano. Se dice que una máquina que convence al juez de que en realidad es humana pasó la prueba de Turing.
Todavía no tenemos programas que puedan engañar a un juez reflexivo con la oportunidad de una interacción extensa. Sin embargo, hay innumerables programas que están tuiteando, comentando las noticias y coqueteando en los sitios de citas que han pasado la prueba de Turing: han convencido a su audiencia de que son humanos.
Turing realizó un juego de manos intelectual cuando propuso esta prueba. Si bien la pregunta que se propuso responder fue “¿Pueden pensar las máquinas?”, Inmediatamente la descartó por carecer de sentido, un problema insoluble sobre el cual podríamos filosofar indefinidamente. El juego de imitación proporcionaría una prueba solucionable.
Como respuesta a la pregunta “¿Pueden pensar las máquinas?”, No es una buena prueba. En 1964, Joseph Weizenbaum creó ELIZA, el primer chatbot. Enmarcado como un terapeuta, analizaría las palabras que escribiste y haría una pregunta relacionada. Era un simple programa de análisis de oraciones, pero podía llevar a cabo un diálogo paciente-médico bastante convincente. La intención de Weizenbaum al crear Eliza era demostrar que mantener una conversación era una prueba pobre de la inteligencia artificial. Pero a la gente le encantó. Su secretaria, que sabía cómo se hacía, solicitó chats privados con ella. Fue promocionado como el futuro de la psicología. Esto horrorizó a Weizenbaum, quien pasó el resto de su carrera advirtiéndonos de los peligros de las computadoras.
Turing había muerto en 1954, por lo que no hay forma de saber con certeza cómo habría reaccionado. Es probable que no haya previsto lo fácil que sería un diálogo humano convincente. En su artículo, propone que la máquina que pasaría su prueba sería una máquina de aprendizaje, una que comenzó como una “máquina infantil” y, a través de un extenso proceso educativo, llegó a tener conocimientos complejos y habilidades de interacción. Señaló que “una característica importante de una máquina de aprendizaje es que su maestro a menudo ignorará en gran medida lo que está sucediendo en su interior, aunque puede ser capaz de predecir en cierta medida el comportamiento de su alumno”, lo que suena muy parecido al conversación sobre redes neuronales hoy.
Dijo algo más que resuena fuertemente hoy. “Creo que a finales de siglo el uso de las palabras y la opinión educada en general habrá alterado tanto que se podrá hablar de máquinas pensando sin esperar que se contradiga”.
Y de hecho, lo hacemos. Hablamos de dispositivos como Echo o Siri como compañeros, celebramos funerales para perros robot, facilitamos la soledad al chatear con los programas. ¿Percibimos estos programas como simplemente inteligentes, capaces de hacer bien su tarea de conversación, o los consideramos inteligentes, capaces de pensar en nosotros como pensamos en ellos?
Antes de la IA, es decir, durante casi toda la historia humana, la sensibilidad y el comportamiento inteligente, y específicamente el comportamiento exclusivamente humano, siempre estuvieron estrechamente relacionados. Por lo tanto, no sorprende que intuitivamente sientamos algo que habla con nosotros, especialmente si se ha diseñado con pequeños detalles para que parezca más humano (chatbots que cometen errores ortográficos, robots sociales con caras expresivas). No son sensibles, pero parecen serlo.
¿Por qué importa esto?
Una razón es que si creemos que es posible que una máquina algún día sea realmente sensible, entonces tendríamos la obligación moral de tratarla como tal. Pero, ¿cómo podemos distinguir una máquina verdaderamente sensible de una aparentemente sensible?
Una preocupación más inmediata (y relevante para nuestro bienestar, no para la máquina) es que las máquinas aparentemente inteligentes tienen el potencial de ser bastante manipuladoras. Nos preocupamos por su (aparente) opinión sobre nosotros, y pueden ser programados para tener expresiones sutiles.
Y finalmente, y esto estaba en el corazón de la reacción horrorizada de Weizenbaum, ¿qué significa no preocuparse por la sensibilidad del terapeuta o compañero, solo preocuparse por cómo responde a usted, no por qué? Parte de nuestra relación con otros humanos es cuidar cómo nos perciben, si nos quieren, nos respetan, se ríen de nosotros o de nosotros; nos importa no solo lo que dicen sino cómo se sienten. Cuando equiparamos una relación con una máquina inteligente pero no inteligente con una con un ser realmente sensible, hemos dado un salto enorme (y diría erróneo) a un mundo en el que solo importan la apariencia y el comportamiento.