Supongo que estamos hablando de límites finales, no solo límites a corto o mediano plazo.
Parece que hay dos formas básicas de imaginar la respuesta a esta pregunta:
- Escenario A: Nuestro conocimiento actual no es sólido ni completo, y en realidad no puede proporcionar límites, aunque imaginamos que sí puede.
- Escenario B: Nuestro conocimiento actual de matemáticas y ciencias es sólido y puede proporcionarnos una estimación de estos límites.
Escenario A: mirar ciegamente a lo desconocido
- ¿Cuáles son las principales tecnologías de IA?
- Exactamente, ¿cuántos tipos de inteligencia hay y cuáles son?
- Después de la singularidad, ¿la IA (inteligencia artificial) promoverá una sociedad socialista o capitalista? Elabore racionalmente con cierto detalle.
- ¿Cuándo será la IA más inteligente que los humanos?
- ¿Debemos temer a la IA?
Considere, por ejemplo, la teoría de la relatividad, que parece predecir que no es posible viajar más rápido que la velocidad de la luz. Según el conocimiento actual, la velocidad de la luz es un límite absoluto. Sin embargo, el conocimiento futuro puede romper esa barrera utilizando medios que actualmente no conocemos.
También tenemos que considerar las limitaciones del cerebro humano para conocer las cosas. Si el cerebro es el órgano del pensamiento humano, presumiblemente es tan limitado como el resto de los sentidos y la experiencia humana. Podemos ver evidencia de esto siempre que el pensamiento humano sea débil, superficial o propenso a errores.
Sin embargo, lo que no podemos ver es cosas que el cerebro humano en sí mismo puede no ser capaz de saber o incluso imaginar. Puede haber aspectos de nuestra existencia que simplemente no podemos comprender. Pueden estar tan lejos de nosotros que ni siquiera somos conscientes de comprender nuestro conocimiento de ellos, como las hormigas que intentan comprender el conocimiento de la mecánica cuántica. Ni siquiera saben que no saben, y nunca sospecharán. Es solo un gran espacio en blanco para ellos.
Por lo tanto, nuestro conocimiento actual, por impresionante que sea, puede estar incompleto de formas que simplemente no conocemos. Es obvio que no tenemos una teoría de todo (TOE) para estar aquí, pero no es tan obvio lo que nos estamos perdiendo o cuáles son las implicaciones de eso. ¿Quién sabe qué tipo de habilidades de IA quedan por descubrir en ese escenario?
Escenario B: Rellenar el mapa
En este escenario, nuestro conocimiento actual de matemáticas y ciencias es básicamente sólido. Claro, quedan cosas por descubrir, pero no invalidarán lo que ya sabemos.
Por lo tanto, nuestro conocimiento de matemáticas y física nos proporciona estimaciones definitivas para:
- cuánta energía podemos extraer de una unidad de materia, de dónde vendrá esa energía y cuánta energía hay
- las formas en que la computación puede transformar la energía en trabajo intelectual útil (llamados algoritmos)
- los límites de esos algoritmos para resolver problemas a medida que aumenta la dificultad o la escala del problema (llamado orden o notación Big-O)
- la dificultad de hacer mediciones del estado del mundo que alimentan los datos a esos algoritmos
- los rendimientos decrecientes de continuar aplicando energía y esfuerzo adicionales para resolver problemas específicos.
En contraste con estos límites específicos, creo que la persona promedio simplemente ve la inteligencia como una caja mágica que conoce todas las respuestas. Entonces, en su opinión, la IA simplemente lo sabría todo y sería perfecta. Pero eso asume falsamente que no hay límites, cuando realmente los hay.
Consideremos una IA que juega al ajedrez como ejemplo.
- Podemos alimentar la IA con energía solar. Hay mucho de eso. Por otro lado, hay más juegos de ajedrez posibles que átomos en el universo, por lo que las demandas de calcularlos parecen exceder nuestra fuente de energía. Y tampoco vamos a querer gastarlo todo en ajedrez.
- La IA puede usar cualquier algoritmo disponible para nosotros. Un algoritmo consiste en una serie finita de pasos en lenguaje máquina. Por lo tanto, la cantidad de algoritmos disponibles es finita y depende de nuestra elección del lenguaje de máquina y las limitaciones del hardware para ejecutarlo. Por otro lado, la IA no se limita a usar solo algoritmos diseñados por humanos, porque nada le impide descubrir sus propios algoritmos más avanzados. Aún así, estos algoritmos serían finitos porque tienen que caber en un espacio finito y ejecutarse en un tiempo finito, como todos los algoritmos.
- La IA se encuentra con dificultades mientras trata de mirar más movimientos en el juego de ajedrez. El ajedrez tiene un factor de ramificación, o número de opciones en cada paso, de aproximadamente 30. Por lo tanto, su movimiento y el movimiento de IA ofrecen aproximadamente 30 × 30 = 900 opciones. Digamos 1000 ya que las matemáticas son más simples. Mirando hacia adelante cuatro movimientos, la IA necesita evaluar 1000 × 1000 = 1 millón de posiciones. Mirando hacia adelante seis movimientos, la IA necesita evaluar 1000x1000x1000 = mil millones de posiciones. Entonces, hacer que la IA sea mil millones de veces más poderosa sin otros cambios le permitiría mirar solo seis movimientos por delante. Entonces, en realidad no está resolviendo un billón de veces más problemas. Y muchos algoritmos son aún más difíciles que eso.
- Aquí la IA tiene un descanso porque el ajedrez es un juego de información perfecta, y puede conocer el estado total del tablero en cada punto. Las reglas también son simples y la posición del tablero es fácil de representar en términos de computadora. Sin embargo, en problemas del mundo real, la IA puede tener dificultades genuinas para obtener la información que necesita para decidir cómo resolver las preguntas. Por ejemplo, ¿cómo sabe lo que está pensando sin la capacidad de escanear su cerebro? ¿Cómo predice el clima sin saber dónde sopla cada ráfaga de viento? Es probable que el mundo sea complejo más allá de cualquier capacidad de medirlo perfectamente.
- El ajedrez es solo un juego y jugarlo mejor nos gana solo un poco en términos de calidad de vida. Entonces, en algún momento, simplemente decimos: “¡Eso es suficiente ajedrez!” y pasar a otras cosas. Después de todo, jugar un juego perfecto de ajedrez probablemente ni siquiera sea posible sin importar cuántos recursos le dediques.
IA versus humano: ¿Quién gana?
Debido a que la IA es obviamente imperfecta, algunas personas piensan que las mentes humanas son inherentemente superiores. Un ejemplo que a menudo se cita son los teoremas de incompletitud de Gödel. Se argumenta que las mentes humanas pueden ser más poderosas que las máquinas de Turing porque son capaces de comprender que la lógica misma tiene sus límites. Por lo tanto, algunos concluyen que las mentes humanas son superiores a las máquinas.
Me parece una noción bastante dudosa. Incluso si la mente humana es de alguna manera más poderosa que una máquina de Turing, lo cual es hipotético, no hemos demostrado que no puedan construirse otras mentes de máquinas que no sean de Turing que sean menos capaces. Es probable que las máquinas, incluso las máquinas ordinarias de Turing, se construyan en un futuro próximo que comprendan todas las matemáticas a un nivel superior al humano, lo que pondrá fin a esta noción.
Después de todo, los cerebros humanos son como construidos usando propiedades químicas e impulsos eléctricos, y por lo tanto están sujetos a las mismas leyes de la naturaleza que otras máquinas, que tienen esas mismas características para aprovechar.
En todo caso, esperaría que la máquina sea más poderosa que el cerebro, ya que las máquinas pueden construirse artificialmente para aprovechar los principios que no son evidentes en la operación del cerebro, por ejemplo, la computación cuántica.
¿Puede una máquina pensar (en chino)?
La sala china es un escenario imaginario del filósofo John Searle. Afirma que las máquinas no pueden pensar o comprender como lo hacen las personas, en otras palabras, que no existe una “IA fuerte”.
Su argumento asume que no sabes chino, pero que te envían a una habitación y te dan instrucciones sobre cómo manipular los símbolos chinos. Se pasan preguntas a la sala, como lo que se hace en el examen de Turing, y salen respuestas correctas y perspicaces al aprobar el examen.
Sin embargo, Searle afirma que la máquina todavía no piensa. Si bien tiene el rendimiento de pensar (la gente está de acuerdo en que pasó la prueba de Turing en chino), la sala no entiende chino, porque la persona en la sala no entiende chino.
¿Searle es correcto? Se han hecho muchos argumentos sobre esto. Supongo que hay dos resultados con los que podría estar de acuerdo:
- Searle es correcto, pero trivialmente, porque su prueba es tan arbitraria como la prueba de Turing. A Alan Turing le gustan las máquinas que lo engañan haciéndole creer que pueden pensar, pero a John Searle no, ya que exige comprender cómo fue engañado, no solo ser engañado. Dado que esto es solo una preferencia personal, y puede hacer cualquier prueba que desee, ¿por qué debería importarnos la diferencia?
- Searle está equivocado, porque no puede explicar cómo las neuronas en el cerebro de un hablante chino entienden el chino más de lo que él puede explicar cómo la habitación china entiende el chino. Su incapacidad para comprender intuitivamente cómo una habitación o una persona pueden entender chino, no prueba que ninguno de ellos, en realidad, no pueda entender chino.
Tiendo a favor de la última explicación. Si realmente tuviéramos máquinas que hablan chino lo suficientemente bien como para pasar la prueba de Turing, el 99% de la raza humana simplemente aceptaría que entienden chino, por lo que no creo que haya ningún obstáculo real allí.
Conclusión
Los límites de la IA son probablemente los límites que esperaríamos para ellos, dado nuestro conocimiento actual de matemáticas y física. Si bien ciertamente suena impresionante que podamos esperar ganancias exponenciales de los avances en IA, debemos tener en cuenta que la escala de problemas en IA puede ser más allá de lo exponencial, nuestras fuentes de energía y capacidad de observar el mundo siempre son finitas, y por lo tanto los resultados En términos de la experiencia humana ordinaria, es probable que sean menos impresionantes de lo que suenan en abstracto.
Aunque todavía esperaría que la IA sea capaz de superar el rendimiento humano en cualquier tarea bien definida.