¿Cuáles son las limitaciones de la IA?

La IA es fundamentalmente ilimitada en comparación con la inteligencia humana en teoría , hasta donde sabemos. En la práctica, todavía hay muchos problemas que la inteligencia artificial no puede realizar por algunas de las razones mencionadas a continuación.

El aprendizaje automático está limitado por los datos, la complejidad del modelo y el tiempo de cálculo.

Existen tres limitaciones generales para los modelos ML:

  • Datos : no tiene suficientes datos (o, si no existen patrones significativos en sus datos). Algunas veces esto puede remediarse mediante la introducción de datos adicionales, y otras veces no. Por ejemplo, si está intentando modelar un evento histórico, debe usar datos históricos limitados.
  • Complejidad del modelo : el espacio de modelos que puede aprender es limitado para modelar completamente las relaciones en los datos. Aumentar la complejidad del modelo es arbitrariamente posible con el aprendizaje de representación y las redes neuronales.
  • Tiempo de cálculo : los recursos de cálculo disponibles no son factibles para reducir con precisión el error de entrenamiento a límites superiores razonables. Esto se limita a los recursos de cómputo disponibles, como los ciclos de GPU y RAM.

La computación está limitada por las leyes de la termodinámica.

Como toda otra materia en el universo, la IA depende de la computación, así como los organismos confían en la computación biológica.

Hay un costo de energía de ejecutar un cálculo. Si la energía disponible no es suficiente para realizar la operación de aprendizaje, entonces no tiene suerte.

AI no tiene conciencia

Hasta donde sabemos, no hemos podido construir máquinas conscientes. Para empeorar las cosas, no tenemos una definición estandarizada de lo que es la conciencia en primer lugar. Sin embargo, esto siempre podría cambiar. Por ejemplo, un principio de las religiones monoteístas tradicionales es que los humanos son las únicas criaturas con experiencias conscientes. La ciencia está demostrando que esta suposición es errónea. Por ejemplo, se han observado niveles de conciencia casi humanos en el loro gris africano:

La pregunta es científica, filosófica y también política.

Desde el punto de vista científico, la respuesta es que no sabemos qué es la inteligencia. Anteriormente jugar ajedrez se consideraba inteligente, luego se pensaba que la visión y el habla son más difíciles. Luego, crear música o piezas de arte o escribir novelas o resolver problemas matemáticos difíciles se consideraba inteligente. Sin embargo, en todos estos casos, las computadoras son capaces y su capacidad está aumentando. Por lo tanto, no hay límite, de hecho, en la comunidad científica existe un término llamado singularidad, que es el punto donde la IA tendrá inteligencia a nivel humano. Tal punto podría causar la destrucción de nuestra civilización o permitirnos entrar en una nueva era más próspera.

Desde el punto de vista filosófico, la inteligencia es una cosa humana. El término se inventa porque los humanos podemos identificar la diferencia entre criaturas inteligentes, incluso entre humanos. Al mismo tiempo, no sabemos qué es la inteligencia. Aunque existen diferentes exámenes, ningún examen puede determinar qué tan inteligente es una persona. Solo puede medir parcialmente la excelencia en ciertos tipos de problemas.

Desde el punto de vista político, depende de las personas. Es totalmente posible crear genéticamente humanos. Pero eso ha sido prohibido por el gobierno. Si dicha amenaza proviene de la IA, entonces es posible que los gobiernos cierren las operaciones de IA a gran escala. Para que la IA sea lo suficientemente inteligente, necesitará una cantidad muy grande de datos y una potencia computacional proporcional para procesar los datos. Si el gobierno puede cerrar los sistemas antes de la singularidad, entonces ese es el Límite de AI.

Sin embargo, la pregunta clave es la filosófica. lo que hace al ser humano inteligente O lo que hace al humano humano. La autoconciencia es tal concepto. Muchos científicos piensan que no es posible hacer que las máquinas sean conscientes de sí mismas. Cualquier signo de inteligencia es básicamente una simulación de inteligencia ya que la computadora no entiende nada. Pero otros científicos sostienen que la autoconciencia no es más que un programa de bucle infinito que se asocia con el entorno y obtiene retroalimentación sensorial. Esto se puede contrarrestar con los conceptos de creatividad y sueño. Sin embargo, muchos científicos argumentan que la creatividad no es más que una conexión cruzada semi aleatoria de neuronas que tiene una acumulación de experiencias y conocimientos de la vida. Del mismo modo, se cree que el sueño no es más que la recopilación aleatoria de visiones cotidianas.

Muchos de estos puntos no tienen respuesta. Nuestro conocimiento científico aún no ha sido tan avanzado para responder estas preguntas.

Entonces TL.DR. edición es No tenemos idea de cuál es el límite de la IA.

Existen limitaciones teóricas y prácticas de la IA. Teóricamente, la IA solo está limitada por las leyes de las matemáticas y la termodinámica. Es decir, una IA no podrá predecir información que simplemente no está allí y tendrá que lidiar con el costo energético de crear información. Y si una IA está 99% segura de algo, significa que se equivocará 1 de cada 100 veces en promedio.

Prácticamente la IA está limitada por lo que los humanos tendrán un incentivo suficiente para crear. Debe distinguir entre inteligencia a nivel humano e inteligencia humana. Una IA puede ser bastante avanzada y no ser reconocida como similar a nuestra propia inteligencia. Es por eso que la comprensión del lenguaje natural es un problema tan difícil porque requiere inteligencia humana y no inteligencia a nivel humano. Y creo que los humanos tienen pocos incentivos para crear una inteligencia humana como fuera de la emulación cerebral para la inmortalidad, lo que creo que no cuenta como artificial. Así que supongo que hay un límite en cuanto a qué tan cerca se parecerán las computadoras a los humanos.

1. Las máquinas necesitan muchos costos de reparación y mantenimiento. El hardware y el software deben actualizarse con tiempo para cumplir con el último requisito. Si se pierden los datos, es costoso y lleva mucho tiempo restablecerlos. La mayoría de las organizaciones no podrán permitirse muchos robots en su campus debido a la misma razón.

2. Las máquinas no mejoran con el tiempo y la experiencia por sí mismas como lo hacen los humanos. Deben mantenerse y actualizarse artificialmente. Los robots no pueden actuar de manera diferente fuera de cualquier algoritmo o programación que se alimente en sus circuitos internos.

3. Cuando se trata de trabajo artístico, nada puede vencer a la mente humana. Una computadora no puede pensar de manera diferente mientras dibuja o hace algo. Un ser humano está lleno de emociones y cada trabajo artístico se basa en su propio proceso de pensamiento. La máquina siempre carecerá de esta gran habilidad.

4. Los humanos trabajan con entusiasmo y dedicación, pero las máquinas no. Por ejemplo, si alguien recibe atención médica, espera un comportamiento de cuidado extremo. Esto no está en el diccionario de robots y tienden a hacer solo tareas específicas instruidas en su programación. Si los científicos alimentan con éxito las emociones en un robot, uno todavía sentirá la diferencia.

5. Si las máquinas comienzan a hacer todas las tareas que realizan los humanos actualmente, habría desempleo en todas partes. Por lo tanto, no es ético reemplazar a los humanos con robots.

6. Si las máquinas alcanzan las manos equivocadas, esto conduciría a la destrucción de la humanidad. Como no existe la existencia de emociones, cualquier cosa que se haga no afectaría su mente. Estas cosas no pueden enviarse a las cárceles ni golpearse por sus obras debido a la falta de la sensación de dolor que poseen los humanos.

7. Si la Inteligencia Artificial se parece a la inteligencia humana en los próximos años, la máquina realmente pensaría en gobernar el mundo y convertir a los humanos en sus esclavos. Los científicos necesitan entender esto y no deben continuar esto con la codicia de llenar sus bolsillos, por el bien de la humanidad.

El límite principal en el espacio del problema es la información (la riqueza de la señal fuente). El límite principal en el espacio de la solución es la discriminación (la separación entre señales). Metafóricamente, la IA es un prisma. Cuanto más pura sea la fuente de luz y menos defectuoso sea el cristal, mejor será el arco iris.

Para resolver cada problema hay una cantidad fundamental de información sobre el problema que es necesaria para una solución correcta y confiable. Para un problema dado, si la información disponible cae por debajo de ese umbral, ninguna cantidad de inteligencia puede resolver el problema excepto por pura suerte. Aparecerán errores Y como el ruido puede ocultar información, también es deseable el mejor rechazo posible del ruido.

Los límites también están presentes en la solución. Si el método / función AI no logra discriminar de manera eficiente entre la información disponible, resolverá el problema menos de lo que podría. Será más lento o menos preciso o menos preciso de lo que es posible utilizando el método ideal (que podría extraer toda la información, o rechazar todo el ruido, que se necesita para resolver el problema idealmente bien).

La comunidad de IA teórica tiene mucho interés en comprender los límites de las soluciones (y, en menor medida, los problemas). En mi opinión, una de las áreas de investigación más intrigantes ha sido el trabajo de Grenander y Mumford en “Pattern Theory”, que investiga los límites comunes a una variedad de problemas y métodos matemáticos. Gran parte del trabajo de vanguardia en IA teórica (especialmente el aprendizaje automático) comparte estos objetivos.

En el mejor de los casos, la inteligencia es identificar patrones recurrentes en la naturaleza. Hasta ahora, hemos estado programando patrones en las computadoras en lugar de alimentarlos con datos brutos tal como están y hacer que nos den un patrón, aunque hubo un patrón identificado por un programa de computadora: 42.

La IA es mejor que los humanos en ciertas tareas, pero no en todas las tareas. De ahí proviene su desventaja. Hay una palabra popular utilizada para describirlos llamados sabios idiotas. Eso esencialmente significa que son excelentes para realizar solo un conjunto específico de tareas y en el resto de los asuntos son prácticamente nada. La mayoría de nosotros vemos una IA jugando al ajedrez. Juega mejor que la mayoría de nosotros, pero no puede jugar tetris o Lode Runner como lo hacemos nosotros. AlphaGo Zero es una versión avanzada de Ai en este sentido, ya que aprendió el juego por sí mismo en lugar de la entrada humana. Las limitaciones de la IA no son nada en comparación con los beneficios de la IA. Puede obtener los beneficios de la inteligencia artificial a través del entrenamiento de inteligencia artificial de Intellipaat. Diríjase al siguiente enlace que especifica la capacitación brindada por ellos:

https://intellipaat.com/ai-deep-