¿Cómo deberíamos pensar en el aprendizaje automático y la IA? ¿Qué tan útil es la prueba de Turing?

El gran problema que me interesa es: ¿qué significa para nosotros vivir con máquinas que no son sensibles pero que parecen serlo?

Comencemos definiendo rápidamente la sensibilidad y la inteligencia (al menos para esta discusión). Diremos que la inteligencia es la capacidad de resolver problemas complejos, manejar aportes variados y lograr objetivos. Los autos autónomos son inteligentes. Los animales son inteligentes. Un ábaco no es inteligente. La sensibilidad es la capacidad de sentir, tener experiencia en primera persona. Las personas son sensibles, al igual que los mamíferos, las aves, los pulpos y posiblemente los peces. Los automóviles autónomos no son inteligentes, ni ninguna otra máquina existente actualmente (si pueden serlo en el futuro es una pregunta tremendamente importante, pero a partir de ahora, no lo son).

En general, creemos que otras personas son sensibles aunque no podamos percibir directamente la experiencia de los demás. Sin embargo, fuera de nosotros mismos, nuestra intuición sobre la sensibilidad de los demás no es confiable. Hay pruebas muy sólidas de que los animales son sensibles, pero muchas personas no creen que lo sean. Y resulta que es bastante fácil programar las interacciones de una computadora para que la gente la vea como sensible.

Alan Turing propuso lo que se conoce como la prueba de Turing como respuesta a la pregunta “¿Pueden pensar las máquinas?”. Basado en un juego de salón llamado Imitation Game, la idea básica es que un juez se comunica a través de un texto escrito con un concursante que dice ser humano pero que puede ser máquina o humano. Se dice que una máquina que convence al juez de que en realidad es humana pasó la prueba de Turing.

Todavía no tenemos programas que puedan engañar a un juez reflexivo con la oportunidad de una interacción extensa. Sin embargo, hay innumerables programas que están tuiteando, comentando las noticias y coqueteando en los sitios de citas que han pasado la prueba de Turing: han convencido a su audiencia de que son humanos.

Turing realizó un juego de manos intelectual cuando propuso esta prueba. Si bien la pregunta que se propuso responder fue “¿Pueden pensar las máquinas?”, Inmediatamente la descartó por carecer de sentido, un problema insoluble sobre el cual podríamos filosofar indefinidamente. El juego de imitación proporcionaría una prueba solucionable.

Como respuesta a la pregunta “¿Pueden pensar las máquinas?”, No es una buena prueba. En 1964, Joseph Weizenbaum creó ELIZA, el primer chatbot. Enmarcado como un terapeuta, analizaría las palabras que escribiste y haría una pregunta relacionada. Era un simple programa de análisis de oraciones, pero podía llevar a cabo un diálogo paciente-médico bastante convincente. La intención de Weizenbaum al crear Eliza era demostrar que mantener una conversación era una prueba pobre de la inteligencia artificial. Pero a la gente le encantó. Su secretaria, que sabía cómo se hacía, solicitó chats privados con ella. Fue promocionado como el futuro de la psicología. Esto horrorizó a Weizenbaum, quien pasó el resto de su carrera advirtiéndonos de los peligros de las computadoras.

Turing había muerto en 1954, por lo que no hay forma de saber con certeza cómo habría reaccionado. Es probable que no haya previsto lo fácil que sería un diálogo humano convincente. En su artículo, propone que la máquina que pasaría su prueba sería una máquina de aprendizaje, una que comenzó como una “máquina infantil” y, a través de un extenso proceso educativo, llegó a tener conocimientos complejos y habilidades de interacción. Señaló que “una característica importante de una máquina de aprendizaje es que su maestro a menudo ignorará en gran medida lo que está sucediendo en su interior, aunque puede ser capaz de predecir en cierta medida el comportamiento de su alumno”, lo que suena muy parecido al conversación sobre redes neuronales hoy.

Dijo algo más que resuena fuertemente hoy. “Creo que a finales de siglo el uso de las palabras y la opinión educada en general habrá alterado tanto que se podrá hablar de máquinas pensando sin esperar que se contradiga”.

Y de hecho, lo hacemos. Hablamos de dispositivos como Echo o Siri como compañeros, celebramos funerales para perros robot, facilitamos la soledad al chatear con los programas. ¿Percibimos estos programas como simplemente inteligentes, capaces de hacer bien su tarea de conversación, o los consideramos inteligentes, capaces de pensar en nosotros como pensamos en ellos?

Antes de la IA, es decir, durante casi toda la historia humana, la sensibilidad y el comportamiento inteligente, y específicamente el comportamiento exclusivamente humano, siempre estuvieron estrechamente relacionados. Por lo tanto, no sorprende que intuitivamente sientamos algo que habla con nosotros, especialmente si se ha diseñado con pequeños detalles para que parezca más humano (chatbots que cometen errores ortográficos, robots sociales con caras expresivas). No son sensibles, pero parecen serlo.

¿Por qué importa esto?

Una razón es que si creemos que es posible que una máquina algún día sea realmente sensible, entonces tendríamos la obligación moral de tratarla como tal. Pero, ¿cómo podemos distinguir una máquina verdaderamente sensible de una aparentemente sensible?

Una preocupación más inmediata (y relevante para nuestro bienestar, no para la máquina) es que las máquinas aparentemente inteligentes tienen el potencial de ser bastante manipuladoras. Nos preocupamos por su (aparente) opinión sobre nosotros, y pueden ser programados para tener expresiones sutiles.

Y finalmente, y esto estaba en el corazón de la reacción horrorizada de Weizenbaum, ¿qué significa no preocuparse por la sensibilidad del terapeuta o compañero, solo preocuparse por cómo responde a usted, no por qué? Parte de nuestra relación con otros humanos es cuidar cómo nos perciben, si nos quieren, nos respetan, se ríen de nosotros o de nosotros; nos importa no solo lo que dicen sino cómo se sienten. Cuando equiparamos una relación con una máquina inteligente pero no inteligente con una con un ser realmente sensible, hemos dado un salto enorme (y diría erróneo) a un mundo en el que solo importan la apariencia y el comportamiento.

Aunque me desviaré un poco del tema, no puedo resistirme a poner mi valor de 2 centavos, ya que esta fue mi área de estudio durante mucho tiempo.

Aunque la IA es un tema complejo, ya sabemos que estamos muy presionados para construir un escenario suficientemente complejo si / entonces / otro para la imitación del comportamiento humano. La segunda metodología requiere el uso de PNL y redes neuronales, pero nuevamente la capacitación llevaría años y la cantidad de potencia de procesamiento necesaria está demasiado lejos en el futuro.

El paso adelante probable y más lógico es aprender nanotecnología. Esto no significa necesariamente robots, sino un software que es simple pero con la capacidad de conectarse en red y aprender evolucionando. Al igual que las abejas y las hormigas que pueden construir estructuras complejas aún no se consideran inteligentes.

¿Pueden estos simples nanobots evolucionar lo suficiente como para imitar a las personas? Posiblemente. Pero requerirá muchas generaciones. Tenga en cuenta que en 200 mil años las hormigas han seguido siendo hormigas.

Mi creencia personal es que antes de cambiar la forma en que la tecnología está orientada, por ejemplo, a una velocidad más orgánica (lenta), es decir, no aparecerán nanobots biomecánicos que puedan evolucionar rápidamente.

En su ensayo de Turing, Alan Turing dijo:

La pregunta original, “¿Pueden pensar las máquinas?” Creo que no tiene sentido para merecer una discusión. Sin embargo, creo que a finales de siglo el uso de palabras y la opinión educada en general habrá alterado tanto que se podrá hablar de máquinas pensando sin esperar que se contradiga. Además, creo que no sirve ningún propósito útil al ocultar estas creencias. La opinión popular de que los científicos proceden inexorablemente de un hecho bien establecido a un hecho bien establecido, nunca influenciados por ninguna conjetura mejorada, es bastante errónea. Siempre que se aclare cuáles son hechos probados y cuáles son conjeturas, no puede producirse ningún daño. Las conjeturas son de gran importancia ya que sugieren líneas de investigación útiles.

Mi lectura del documento, dado el período de tiempo en el que fue escrito, fue que Turing realmente estaba haciendo un argumento de reductio ad absurdum. En esa época, sugerir que una máquina podía “pensar” era, para la mayoría de las personas, impensable.

Su punto era que si realmente estaba teniendo una discusión inteligente sobre Shakespeare con esta cosa, y aún así no creía que estaba ‘pensando’, entonces era bastante inútil tratar de convencerlo en ese momento. No estaba proponiendo su prueba como una prueba literal, pero tratando de expandir la perspectiva de las personas para ver que el pensamiento es computación, y el hardware específico que lo lleva a cabo no es importante. Eso es algo que era un concepto radical y poco entendido en ese momento.

Eventualmente interactuaremos con las máquinas de la misma manera que interactuamos con las personas. Hará la vida mejor que nunca y peor. Parece en la vida que los viejos problemas simplemente se reemplazan por nuevos. Tenemos poca idea de lo que serán. Quizás nos volvamos como los Borg. Tal vez la raza humana se dividirá en dos como “The Time Machine” de HG Well. Dicen que mirar hacia adelante diez años funciona mejor. Es tiempo suficiente para que todos los problemas del día se desvanezcan, pero aún estén conectados con el presente. Los cambios culturales provocados por la agitación económica nos llevarán al borde del caos. Sin embargo, esa parece ser la condición humana. Así que realmente es más de lo mismo.

No creo que sea demasiado útil, ya que la prueba de Turing parece apuntar a comparar el habla natural entre humanos y humanos. No puedo ver que la naturaleza de una máquina suene o hable como un humano. Creo que debemos pensar en el pensamiento de máquina de la forma en que lo hace una máquina, no de la forma en que lo hacen los humanos.