¿Cuáles son los límites de la inteligencia artificial?

Supongo que estamos hablando de límites finales, no solo límites a corto o mediano plazo.

Parece que hay dos formas básicas de imaginar la respuesta a esta pregunta:

  • Escenario A: Nuestro conocimiento actual no es sólido ni completo, y en realidad no puede proporcionar límites, aunque imaginamos que sí puede.
  • Escenario B: Nuestro conocimiento actual de matemáticas y ciencias es sólido y puede proporcionarnos una estimación de estos límites.

Escenario A: mirar ciegamente a lo desconocido

Considere, por ejemplo, la teoría de la relatividad, que parece predecir que no es posible viajar más rápido que la velocidad de la luz. Según el conocimiento actual, la velocidad de la luz es un límite absoluto. Sin embargo, el conocimiento futuro puede romper esa barrera utilizando medios que actualmente no conocemos.

También tenemos que considerar las limitaciones del cerebro humano para conocer las cosas. Si el cerebro es el órgano del pensamiento humano, presumiblemente es tan limitado como el resto de los sentidos y la experiencia humana. Podemos ver evidencia de esto siempre que el pensamiento humano sea débil, superficial o propenso a errores.

Sin embargo, lo que no podemos ver es cosas que el cerebro humano en sí mismo puede no ser capaz de saber o incluso imaginar. Puede haber aspectos de nuestra existencia que simplemente no podemos comprender. Pueden estar tan lejos de nosotros que ni siquiera somos conscientes de comprender nuestro conocimiento de ellos, como las hormigas que intentan comprender el conocimiento de la mecánica cuántica. Ni siquiera saben que no saben, y nunca sospecharán. Es solo un gran espacio en blanco para ellos.

Por lo tanto, nuestro conocimiento actual, por impresionante que sea, puede estar incompleto de formas que simplemente no conocemos. Es obvio que no tenemos una teoría de todo (TOE) para estar aquí, pero no es tan obvio lo que nos estamos perdiendo o cuáles son las implicaciones de eso. ¿Quién sabe qué tipo de habilidades de IA quedan por descubrir en ese escenario?

Escenario B: Rellenar el mapa

En este escenario, nuestro conocimiento actual de matemáticas y ciencias es básicamente sólido. Claro, quedan cosas por descubrir, pero no invalidarán lo que ya sabemos.

Por lo tanto, nuestro conocimiento de matemáticas y física nos proporciona estimaciones definitivas para:

  • cuánta energía podemos extraer de una unidad de materia, de dónde vendrá esa energía y cuánta energía hay
  • las formas en que la computación puede transformar la energía en trabajo intelectual útil (llamados algoritmos)
  • los límites de esos algoritmos para resolver problemas a medida que aumenta la dificultad o la escala del problema (llamado orden o notación Big-O)
  • la dificultad de hacer mediciones del estado del mundo que alimentan los datos a esos algoritmos
  • los rendimientos decrecientes de continuar aplicando energía y esfuerzo adicionales para resolver problemas específicos.

En contraste con estos límites específicos, creo que la persona promedio simplemente ve la inteligencia como una caja mágica que conoce todas las respuestas. Entonces, en su opinión, la IA simplemente lo sabría todo y sería perfecta. Pero eso asume falsamente que no hay límites, cuando realmente los hay.

Consideremos una IA que juega al ajedrez como ejemplo.

  • Podemos alimentar la IA con energía solar. Hay mucho de eso. Por otro lado, hay más juegos de ajedrez posibles que átomos en el universo, por lo que las demandas de calcularlos parecen exceder nuestra fuente de energía. Y tampoco vamos a querer gastarlo todo en ajedrez.
  • La IA puede usar cualquier algoritmo disponible para nosotros. Un algoritmo consiste en una serie finita de pasos en lenguaje máquina. Por lo tanto, la cantidad de algoritmos disponibles es finita y depende de nuestra elección del lenguaje de máquina y las limitaciones del hardware para ejecutarlo. Por otro lado, la IA no se limita a usar solo algoritmos diseñados por humanos, porque nada le impide descubrir sus propios algoritmos más avanzados. Aún así, estos algoritmos serían finitos porque tienen que caber en un espacio finito y ejecutarse en un tiempo finito, como todos los algoritmos.
  • La IA se encuentra con dificultades mientras trata de mirar más movimientos en el juego de ajedrez. El ajedrez tiene un factor de ramificación, o número de opciones en cada paso, de aproximadamente 30. Por lo tanto, su movimiento y el movimiento de IA ofrecen aproximadamente 30 × 30 = 900 opciones. Digamos 1000 ya que las matemáticas son más simples. Mirando hacia adelante cuatro movimientos, la IA necesita evaluar 1000 × 1000 = 1 millón de posiciones. Mirando hacia adelante seis movimientos, la IA necesita evaluar 1000x1000x1000 = mil millones de posiciones. Entonces, hacer que la IA sea mil millones de veces más poderosa sin otros cambios le permitiría mirar solo seis movimientos por delante. Entonces, en realidad no está resolviendo un billón de veces más problemas. Y muchos algoritmos son aún más difíciles que eso.
  • Aquí la IA tiene un descanso porque el ajedrez es un juego de información perfecta, y puede conocer el estado total del tablero en cada punto. Las reglas también son simples y la posición del tablero es fácil de representar en términos de computadora. Sin embargo, en problemas del mundo real, la IA puede tener dificultades genuinas para obtener la información que necesita para decidir cómo resolver las preguntas. Por ejemplo, ¿cómo sabe lo que está pensando sin la capacidad de escanear su cerebro? ¿Cómo predice el clima sin saber dónde sopla cada ráfaga de viento? Es probable que el mundo sea complejo más allá de cualquier capacidad de medirlo perfectamente.
  • El ajedrez es solo un juego y jugarlo mejor nos gana solo un poco en términos de calidad de vida. Entonces, en algún momento, simplemente decimos: “¡Eso es suficiente ajedrez!” y pasar a otras cosas. Después de todo, jugar un juego perfecto de ajedrez probablemente ni siquiera sea posible sin importar cuántos recursos le dediques.

IA versus humano: ¿Quién gana?

Debido a que la IA es obviamente imperfecta, algunas personas piensan que las mentes humanas son inherentemente superiores. Un ejemplo que a menudo se cita son los teoremas de incompletitud de Gödel. Se argumenta que las mentes humanas pueden ser más poderosas que las máquinas de Turing porque son capaces de comprender que la lógica misma tiene sus límites. Por lo tanto, algunos concluyen que las mentes humanas son superiores a las máquinas.

Me parece una noción bastante dudosa. Incluso si la mente humana es de alguna manera más poderosa que una máquina de Turing, lo cual es hipotético, no hemos demostrado que no puedan construirse otras mentes de máquinas que no sean de Turing que sean menos capaces. Es probable que las máquinas, incluso las máquinas ordinarias de Turing, se construyan en un futuro próximo que comprendan todas las matemáticas a un nivel superior al humano, lo que pondrá fin a esta noción.

Después de todo, los cerebros humanos son como construidos usando propiedades químicas e impulsos eléctricos, y por lo tanto están sujetos a las mismas leyes de la naturaleza que otras máquinas, que tienen esas mismas características para aprovechar.

En todo caso, esperaría que la máquina sea más poderosa que el cerebro, ya que las máquinas pueden construirse artificialmente para aprovechar los principios que no son evidentes en la operación del cerebro, por ejemplo, la computación cuántica.

¿Puede una máquina pensar (en chino)?

La sala china es un escenario imaginario del filósofo John Searle. Afirma que las máquinas no pueden pensar o comprender como lo hacen las personas, en otras palabras, que no existe una “IA fuerte”.

Su argumento asume que no sabes chino, pero que te envían a una habitación y te dan instrucciones sobre cómo manipular los símbolos chinos. Se pasan preguntas a la sala, como lo que se hace en el examen de Turing, y salen respuestas correctas y perspicaces al aprobar el examen.

Sin embargo, Searle afirma que la máquina todavía no piensa. Si bien tiene el rendimiento de pensar (la gente está de acuerdo en que pasó la prueba de Turing en chino), la sala no entiende chino, porque la persona en la sala no entiende chino.

¿Searle es correcto? Se han hecho muchos argumentos sobre esto. Supongo que hay dos resultados con los que podría estar de acuerdo:

  • Searle es correcto, pero trivialmente, porque su prueba es tan arbitraria como la prueba de Turing. A Alan Turing le gustan las máquinas que lo engañan haciéndole creer que pueden pensar, pero a John Searle no, ya que exige comprender cómo fue engañado, no solo ser engañado. Dado que esto es solo una preferencia personal, y puede hacer cualquier prueba que desee, ¿por qué debería importarnos la diferencia?
  • Searle está equivocado, porque no puede explicar cómo las neuronas en el cerebro de un hablante chino entienden el chino más de lo que él puede explicar cómo la habitación china entiende el chino. Su incapacidad para comprender intuitivamente cómo una habitación o una persona pueden entender chino, no prueba que ninguno de ellos, en realidad, no pueda entender chino.

Tiendo a favor de la última explicación. Si realmente tuviéramos máquinas que hablan chino lo suficientemente bien como para pasar la prueba de Turing, el 99% de la raza humana simplemente aceptaría que entienden chino, por lo que no creo que haya ningún obstáculo real allí.

Conclusión

Los límites de la IA son probablemente los límites que esperaríamos para ellos, dado nuestro conocimiento actual de matemáticas y física. Si bien ciertamente suena impresionante que podamos esperar ganancias exponenciales de los avances en IA, debemos tener en cuenta que la escala de problemas en IA puede ser más allá de lo exponencial, nuestras fuentes de energía y capacidad de observar el mundo siempre son finitas, y por lo tanto los resultados En términos de la experiencia humana ordinaria, es probable que sean menos impresionantes de lo que suenan en abstracto.

Aunque todavía esperaría que la IA sea capaz de superar el rendimiento humano en cualquier tarea bien definida.

Asumiré que la pregunta se refiere a “los límites últimos de la IA” en lugar de los actuales.

La inteligencia es en parte una función de la computación (así como del diseño), por lo que las capacidades de una IA se correlacionarán positivamente con los aumentos en la computación disponible. Los límites de la IA dependen mucho de la pregunta alternativa, “¿Cuáles son los límites de la computación?” No hay una respuesta concluyente aquí, pero hay estimaciones altas y bajas para adivinar.


Bajo

Si eres especialmente pesimista, supondrás que la electrónica de consumo deja de ver ganancias a principios de la década de 2020. Alrededor de ese tiempo, la ley de Moore se declararía muerta y las generaciones posteriores se darán cuenta de que la computación cuántica es inviable y nunca se materializará.

Dado este escenario, todavía tendrá autos y drones autónomos y traductores en tiempo real. Si finalmente se logra un conocimiento suficiente del cerebro, la emulación del cerebro completo seguirá siendo tecnológicamente factible, por lo que incluso en este sombrío escenario, los límites de la IA serán al menos chatbots capaces de Turing y la preservación de copias de seres queridos.

Alto

Un artículo del MIT realizó el cálculo de una servilleta para adivinar los límites finales de cálculo permitidos por la física. Si pudiera organizar una cantidad de materia para que esté en la mejor forma posible de dispositivo informático para esa cantidad de materia, ¿qué podría hacer? Esa es la pregunta planteada y respondida por el periódico.

La conclusión a la que se llegó es que un kilogramo de esa materia podría realizar en un segundo lo que la combinación de todos los cerebros humanos que haya vivido podría producir en ese mismo segundo, excepto 100 mil millones de billones de veces. Esa es una estimación sin sentido, porque no tiene en cuenta la energía, la velocidad de la luz, la corrección de errores o la economía que podría impulsar la creación de dicho material. Sin embargo, demuestra cuán alto se encuentra el techo.


Los extremos en cualquier dirección normalmente hacen malas predicciones, por lo que supongo que los verdaderos límites de la IA son alguien entre estos. Quizás las IA serán mejores que los cerebros humanos SOLO por un factor de 10 ^ 10 en lugar de 10 ^ 23.

La inteligencia artificial debe tener en cuenta la ley de la entropía. En este punto, los logros relevantes no los tienen en cuenta y no logran simularlos. En la naturaleza, la ley de la entropía conduce a la estabilización de cualquier tipo de sistema. El paso de un nivel alto de entropía a uno bajo y viceversa consume energía. Los movimientos más comunes en la naturaleza son el resultado de aplicar la ley de la entropía a un sistema dado. Pensamos que mediante la simbiosis entre la célula viva (organismo vivo) y los sistemas técnicos, se podría lograr el control inteligente de la materia;

Toda la base de la inteligencia artificial se basa en procedimientos informáticos que significan circunscribir el comportamiento inteligente de un ser humano, aunque los expertos nunca lograron simular el comportamiento de un mono con un ABAC. Como vimos anteriormente, el ser humano tiene la calidad de complicar mucho las cosas cuando sabe lo que debe hacer, pero sobre todo cuando no sabe a dónde se dirige. Por lo tanto, consideramos que cuando el objetivo no se conoce muy bien, el cerebro humano, tanto funcional como estructuralmente, complicará aún más los procedimientos de solución, lo que consume tiempo y considerables recursos de información. Creemos firmemente que los sistemas biotecnológicos pueden ser una solución a este problema;

Los dos pilares de la informática, “0” y “1”, junto con los valores de verdad “Verdadero” y “Falso” son las fronteras principales de la inteligencia artificial. Cualquier procedimiento de información inteligente se descompone eventualmente en cadenas de “0” y “1”, lo que nos lleva a la objeción fundamental de que las máquinas inteligentes nunca serán como los humanos. Tenemos que considerar que los bio-sistemas también funcionan con valores intermedios;

La inteligencia artificial se basa mucho en la lógica simbólica, y no ha logrado involucrar la llamada lógica afectiva . En la lógica afectiva, las combinaciones de valores de verdad pueden conducir a diferentes evaluaciones. Se podría obtener una posible solución mediante el uso de la computación afectiva [1], que se compromete a modelar el comportamiento afectivo en diversas situaciones.

En general, cualquier sistema está limitado por:

  1. Lo que puede percibir el mundo.

    Podemos construir sensores que superen a los órganos sensoriales humanos y perciban cosas que los humanos no pueden. Sin embargo, existen limitaciones físicas según las teorías actuales, por ejemplo, el tiempo de Planck: Wikipedia limita el intervalo mínimo que podemos usar para separar eventos. Tenga en cuenta que en el futuro podríamos haber mejorado las teorías que eliminan algunas de las limitaciones físicas que actualmente tomamos como límites de lo que podemos hacer.

  2. Cómo puede actuar en el mundo.

    Un robot tiene manipuladores y actúa en el mundo real. Un comerciante de robots actúa comprando y vendiendo acciones de acuerdo con las reglas.

  3. Cómo lo afecta el contexto del mundo.

    Todo necesita energía para funcionar de acuerdo con nuestro conocimiento actual. El aprendizaje profundo, por ejemplo, necesita mucha energía en la fase de aprendizaje. Además, necesita numerosos procesadores. Hoy en día, esto puede ser manejado por hardware que no es tan costoso.

    Aparte de esto, las limitaciones son las que establecemos directa o indirectamente. Indirectamente puede ser a través de, por ejemplo, configurar metamodelos para la adaptación de un sistema. Por ejemplo, podemos entrenar un sistema para ganar y, por lo tanto, adaptar sus estrategias para ganar.

  4. Cómo puede razonar sobre el mundo.

    Un sesgo se puede introducir de muchas maneras. Además, tenemos modelos de caja negra y caja de vidrio, donde los modelos de caja negra son difíciles de validar y se usan para explicar, pero actualmente están obteniendo grandes éxitos (por ejemplo, aprendizaje profundo). En general, estos se construyen empleando aprendizaje automático. Las cajas de vidrio son mejores para validarlas y explicar por qué algo es así. Sin embargo, estos suelen estar construidos por expertos humanos y hasta ahora sus éxitos han sido más limitados. Hay híbridos de estos, por ejemplo, Bayesian Networks y Bayesian Belief Networks, así como la clasificación aleatoria de bosques son tales híbridos. En el primero, agregamos estructura y luego aplicamos el aprendizaje automático. En este último, adoptamos una estrategia para construir un árbol de clasificación que sea más fácil de entender en comparación con, por ejemplo, las redes neuronales.

Las limitaciones de la Inteligencia Artificial a partir de hoy podrían no ser limitaciones unos años más tarde. Sin embargo, a partir de hoy, utilizamos Deep Learning para lograr IA, pero no estamos completamente seguros de cómo funcionan estas redes neuronales profundas. Las neuronas en el cerebro pueden conectarse a cualquier neurona en proximidad física con ellas mismas, pero las máquinas tienen capas específicas, donde la salida de una capa se alimenta como una entrada a la siguiente capa, y aún no sabemos el funcionamiento que ocurre en cada una. capa.

Se necesita utilizar una enorme potencia computacional para entrenar estas máquinas, lo que consume tiempo y memoria. No existen métodos de optimización para reducir la gran cantidad de datos necesarios para entrenar estas redes.

Además, las máquinas aún no han sido capaces de lograr cognición humana. Todavía no pueden reconocer imágenes de baja resolución u ocluidas, detectar sarcasmo en el lenguaje o humor en una imagen, por nombrar algunos problemas. Aunque las redes neuronales pueden estar altamente especializadas en la actividad que realizan, no pueden ser entrenadas para realizar diferentes acciones como reconocer a un gato, escuchar música y clasificar correos electrónicos no deseados al mismo tiempo. Aunque las máquinas se pueden confundir fácilmente al clasificar las imágenes si están distorsionadas con el ruido, lo que puede hacer que un pez globo se clasifique como una bola.

Estas son solo algunas limitaciones de la IA, que con suerte se resolverán en el futuro.

No hay límites. La gente no reconoce que la inteligencia humana natural no es mágica ni mística. Es solo el resultado final de los átomos que interactúan de manera física, todos bien entendidos.

Todavía no se comprende bien cómo esas interacciones físicas crean las propiedades emergentes de la conciencia y las interacciones mente / cuerpo. Pero se entiende bien que lo hacen.

La escala también es bastante clara. Hay aproximadamente 90 mil millones de células nerviosas en el cerebro humano, de las cuales solo 16 mil millones están en el cerebro donde se encuentra la mayor parte de la planificación.

E incluso las ideas generales detrás de todo son bastante claras. La conciencia parece surgir de una interacción entre el tronco encefálico, que se conecta directamente a las partes del cuerpo, y las áreas sensoriales y motoras primarias del homúnculo cortical. La idea básica es que el cerebro puede simular de alguna manera experiencias similares en especie a las experiencias reales y esto forma la base del pensamiento consciente.

Todavía hay 2 misterios reales sobre cómo surge el sentido de qualia (nuestro mundo subjetivo interno) y cómo los pensamientos conscientes crean respuestas físicas. Pero si bien estos son misterios, se entiende la escala del misterio. No puede ser más que la interacción de 4 billones de bytes (4 peta-bytes) de información, ya que ese es el alcance de lo que las dendritas de las células cerebrales son capaces de codificar. Tampoco puede requerir más de 3 mil millones de entradas sensoriales, ya que esa es la mayor medida de lo que puede codificar la combinación del nervio óptico y la médula espinal. Finalmente, la codificación humana ocurre a no más de 400 hertzios, o 400 ciclos por segundo.

No hay muchos misterios relevantes ni en la mecánica de procesamiento ni en la mecánica de entrada sensorial del aparato de inteligencia humana. Es el software general que es misterioso.

Sin embargo, por misterioso que sea, es notablemente robusto, por lo que no puede ser demasiado frágil o exigente. Tiene que tener amplias tolerancias de trabajo. El único problema de IA ahora es que todavía no estamos en el nivel de entrada sensorial de 3 mil millones de bits con una capacidad de procesamiento de 2 exactetos a la que opera el cerebro.

Dicho esto, incluso en el nivel en el que estamos, ya hemos demostrado que la velocidad y la precisión de la inteligencia artificial logran lo que parecen ser saltos cualitativos con cada 2 órdenes de magnitud (100 veces) de mejoras de velocidad y capacidad. Las capacidades de procesamiento de fotos y videos indican que se trata de mejoras rápidas y continuas.

Sin embargo, el santo grial de la IA no es la capacidad de computación humana. En muchos sentidos, eso probablemente ya se haya excedido. El santo grial para la IA está en la capacidad sensorial y motora y en la eficiencia humana. Claro que los bancos de máquinas de Watson y las bases de datos profundas de Google pueden superar los límites superiores exabytes de la capacidad humana, pero los humanos lo hacen en marcos móviles que funcionan con 100 vatios de potencia. Es por eso que todavía no estamos impresionados por los logros de AI. Simplemente carecen de la eficiencia y la movilidad para igualar a los humanos.

Aún así, no faltan más de 20 años. Y el gran “problema” que la gente no ha internalizado es que la gente está lejos de ser lo más eficiente posible. Las personas son ineficientes al menos por un factor de 10, y probablemente un factor de 10,000 de lo que es posible. Una vez que las personas son superadas a bajo costo por su capacidad de uso general, todas las capacidades, este nivel de avance se acelerará dramáticamente.

Este punto de avance (una máquina económica y de propósito general que supera la capacidad humana en todos los sentidos, desde el ajedrez al baloncesto, la cirugía cerebral a la minería, la investigación y el desarrollo a la asesoría y la crianza de los hijos) se llama singularidad porque es imposible comparar los tiempos anteriores y posteriores.

Lo único que limita lo que es imposible son los límites físicos de la química. Los químicos complejos no pueden instalarse en las estrellas, por ejemplo. Más allá de esos límites, hay mucha abundancia en la tierra y el sistema solar para un futuro fenomenal.

Por supuesto que la ética importa. De alguna manera, la ética ha surgido de la inteligencia natural evolutiva, de modo que los padres no comen a sus hijos cuando son jóvenes y débiles, y los niños no comen a sus padres cuando son viejos y débiles. Tendremos que hacer todo lo que esté a nuestro alcance para garantizar que esta ética cruce la barrera de la IA.

¡Hasta donde puedo determinar, los únicos límites de la inteligencia artificial serán su imaginación! Es decir, ellos, como nosotros, podrán crecer a medida que piensen fuera de la caja y vean nuevas posibilidades.

Sin embargo, lo anterior es realmente sobre IA en general. Una IA en particular puede tener muchas más limitaciones, al igual que los humanos individuales.

Las limitaciones incluirán:

a) Cómo se encarnan. Puede haber limitaciones causadas por la tecnología que se utiliza. Estos serán la velocidad del pensamiento y el movimiento. El calor generado por cualquier fuente de energía utilizada deberá ser disipada o reutilizada de alguna manera.

b) Cómo se programan. Así como tenemos dificultades para abandonar nuestra psicología, también lo hará la IA. Tenemos muchas ilusiones causadas por la forma en que nuestros sentidos se fusionan para producir una visión coherente (para la mayoría) de la realidad, por lo que habrá limitaciones de una visión del mundo de IA individual causada por su software (por falta de una mejor palabra).

Por supuesto, con el tiempo podrán desarrollar estrategias para superar las limitaciones físicas y mentales de sus encarnaciones actuales (por así decirlo) y luego producir lo que pueden llamar IA, tal como estamos a punto de hacer;)

Ese tipo de depende de si te refieres a límites finales, límites teóricos o límites prácticos actuales.
Mi mejor conjetura es que no existen límites finales, excepto los físicos, como la velocidad de la luz, que limitan el tamaño de un sistema inteligente.
Los límites teóricos, bueno, un cerebro podría estar limitado por los límites de las comunicaciones, por ejemplo, un equipo con demasiados miembros se estancaría en una maraña exponencial de piezas. Del mismo modo, una IA distribuida muy grande.
¿Límites prácticos actuales? No estamos cerca de lo que pueden hacer los sistemas nerviosos biológicos. No quiere decir que algún día la tecnología pueda exceder los sistemas bioquímicos.

Teóricamente hablando, no hay límites a largo plazo ya que las máquinas inteligentes eventualmente diseñarán y construirán la próxima generación de máquinas inteligentes. Esta es la versión de inteligencia artificial de la evolución biológica.

Al final, esto podría ser más eficiente en comparación con la evolución biológica, pero también algo similar en el sentido de que cada generación de máquinas probablemente tendrá un número diverso de máquinas construidas específicamente con un subconjunto que se propaga hacia adelante y se considera más óptimo para el entorno actual. De nuevo los ecos de la vida biológica y la evolución biológica.

Esto todavía no es parte del modelo estándar que no incluía ninguna autonomía. Necesitan una teoría sobre cómo pensar que incluiría la predicción y la falsificación. La definición depende de la interpretación y cambia con el tiempo para significar la próxima gran cosa. Comenzó como máquinas para la inteligencia humana, luego para toda la sociedad, ahora para capacidades superiores a las humanas, y tal vez para información universal. Quieren medir la utilidad. El mecanismo para esto es el cálculo, que se supone que es cómo se organiza la naturaleza. Ejecuta algoritmos más rápido y más eficientemente a medida que pasa el tiempo. Existen otros modelos, como la mecánica cuántica o la conciencia, ninguno de los cuales se define dentro del campo.

Hay incógnitas:

  • si puede hacerse
  • si puede explicar la inteligencia
  • si equilibra inteligencias múltiples
  • si puede ser pacífico en lugar de agresivo
  • si será amigable (ideología, emociones)
  • si puede encontrar una respuesta a todos y cada uno de los problemas
  • si rastrea la economía, las matemáticas, la ciencia, la tecnología y similares
  • si es determinista
  • si será moral (ética, democrática)
  • si pueden detenerlo o restablecerlo
  • si va a escalar
  • si continuamente tiene que adaptarse
  • si pudiera sobrevivir más tiempo que la especie humana
  • si la vida puede no biológica
  • si afectará la biosfera y el proceso de evolución
  • si la humanidad se fusionará con ella (vida mítica)
  • si puede traer de vuelta a los que vivieron anteriormente
  • si puede descubrir otra inteligencia no humana
  • si ya existiera
  • si crea algún orden de naturaleza aleatoria
  • si todo lo demás se transformará y, por lo tanto, qué tipo de transformación comienza

Hay un cuerpo de literatura sobre el tema.

En este momento, la mayor limitación de la inteligencia artificial son los datos que utilizamos para el entrenamiento. Digamos que entrenamos a un robot para atar un nudo. Alimentamos sus datos durante un período de meses sobre cómo atar un nudo en un tipo particular de cuerda. Digamos que, idealmente, querríamos que un robot hiciera un nudo usando un nudo doble, pero todos los datos que le dimos solo mostraban cómo atar un solo nudo. Ahora queremos ver cómo funciona el robot con una cuerda que es más o menos similar a las que hemos entrenado y resulta que hace un nudo bastante bien, pero no sabe cómo atar un nudo doble. Luego vemos si el robot puede al menos atar un solo nudo en un zapato, pero tampoco puede hacerlo porque los datos que le dimos estaban en una sola cuerda y el robot intenta aplicar lo que aprendió del entrenamiento, pero lo hace No generalicemos el problema de atar un solo no en un zapato.

Entonces, esta situación demuestra algunas grandes conclusiones del aprendizaje automático y los sistemas de inteligencia artificial. Si entrenamos nuestros modelos con datos que no reflejan nuestro objetivo final, el modelo no funcionará bien. Si entrenamos nuestro modelo para una instancia específica del problema, todavía es un problema difícil usar estas instancias específicas del problema para generalizar en otras versiones del problema. Obtener buenos datos es un gran problema en la comunidad de aprendizaje automático, pero recientemente ha mejorado. El problema de la generalización sigue siendo un tema de investigación activo.