A2A.
Bueno, en última instancia, no hay diferencia entre los dos; sin embargo, para los no iniciados, esta declaración puede ser muy engañosa. Antes de aclarar, permítanme mencionar que (aunque más allá del alcance de esta respuesta) algunas de las críticas más convincentes de los esfuerzos modernos (y pasados) en IA se han derivado precisamente de esto: que AI, en última instancia, es la aproximación glorificada de la función (un problema de optimizacion). Para más información, vea aquí: las opiniones de Hubert Dreyfus sobre la inteligencia artificial – Wikipedia, que resume las críticas de Hubert Dreyfus a la IA como un sistema que construye modelos del mundo circundante (nuevamente, a través de la aproximación de funciones).
Ahora para elaborar …
- Soy estudiante de tercer año de CSE. ¿Cómo puedo construir mi propia tecnología de reconocimiento de gestos para proyectos?
- ¿Qué conocimiento es necesario para construir un bot de chat de Facebook Messenger?
- ¿Qué son los agentes en la IA?
- ¿Qué gigantes tecnológicos están invirtiendo más en inteligencia artificial y cuáles son sus planes a largo plazo?
- ¿Es la robótica del desarrollo la dirección correcta para los robots de nivel humano?
Primero, tenga en cuenta que la IA general está actualmente fuera del alcance. Tampoco entendemos qué es la conciencia, aunque hay una serie de teorías en competencia, la mayoría de las cuales se reducen a la conciencia esencialmente como un fenómeno emergente de la mecánica estadística de las neuronas en el cerebro: Emergentism – Wikipedia. Si uno adopta este punto de vista, puede ver el problema dentro del marco de la física estadística (que es una disciplina bien desarrollada), pero eso no resuelve automáticamente el problema. De hecho, para la mayoría de estos sistemas, es difícil cuantificar el comportamiento del sistema, especialmente cuando el sistema nunca se establece en un equilibrio: Mecánica estadística – Wikipedia (y referencias allí).
Dado esto, supondré que por IA nos referimos a agentes expertos, como aquellos diseñados para clasificar imágenes o aquellos diseñados para jugar Go.
En tales casos, hay dos clases generales de algoritmos:
- Máquinas deterministas de estado estático
- Sistemas dinámicos no deterministas (como las redes neuronales)
En la primera clase, uno programa el sistema para lograr la salida deseada en entradas conocidas. En este caso, todos los estados del sistema se conocen de antemano (y si un sistema encuentra una ruta que lo obliga a un estado desconocido, puede salir con un error). Esto requiere que uno tenga un conjunto de estados posibles, posibles entradas y salidas deseadas antes de comenzar a construir el sistema. En cierto sentido, qué entradas deberían mapearse a qué salidas se conocen de antemano, y el trabajo de un ingeniero se reduce a asociar las entradas conocidas a las salidas correctas.
En la segunda clase, generalmente no se sabe qué entradas deben asignarse a qué salidas. Por lo tanto, no se puede codificar un sistema determinista que tenga en cuenta todas las entradas posibles (y que dé las salidas correctas). En este caso, se hacen algunas suposiciones de alto nivel sobre el tipo de función que podría asociar esas entradas a las salidas correctamente, pero esta función depende de muchos parámetros que pueden alterar su comportamiento. Uno no conoce estos parámetros desde el principio y debe aproximarlos. Aquí es donde entra en juego el “entrenamiento” de un sistema de IA.
En sistemas como el aprendizaje profundo con miles o incluso millones de neuronas, el grado de libertad es tan grande (el número de esos parámetros que controlan la función desconocida) que es prácticamente imposible resumir la función después de que el sistema ha sido entrenado (es decir, después de Se ha seleccionado un conjunto de parámetros). Además, muchos sistemas de IA evolucionan continuamente a través del proceso de aprendizaje en línea (lo que significa que esos parámetros pueden cambiar continuamente).
Entonces, quizás lo que hace que un algoritmo califique como IA es precisamente la distinción entre sistemas deterministas y no deterministas.
Por cierto, estoy usando la terminología aquí que puede entrar en conflicto con otros usos de la misma (por ejemplo, Determinismo – Wikipedia).
En el caso de la IA, el no determinismo radica en el hecho de que el comportamiento del sistema después de que se instala en algún estado después del entrenamiento no se conoce de antemano; lo que se conoce es el rendimiento deseable del sistema (que es realmente un requisito / restricción, y no es intrínseco al sistema). Sin embargo, puede haber diferentes sistemas (es decir, sistemas con diferentes parámetros) que tengan un rendimiento comparable (en otras palabras, no se sabe de antemano si existe un vector único de parámetros de tal manera que para todas las pequeñas fluctuaciones alrededor de este vector el sistema logre el deseado rendimiento: puede haber más de uno de esos vectores, o puede que no haya ninguno; este, por cierto, es uno de los problemas centrales en la mecánica estadística antes mencionada, que se llama el problema de las transiciones de fase: estado de Gibbs – Wikipedia y transición de fase – Wikipedia; y para obtener más detalles sobre una conexión entre la física estadística y las redes neuronales, consulte ¿El aprendizaje profundo está relacionado con la física estadística, en particular la ciencia de redes?). El vector de parámetros que finalmente se encuentra (o se determina como resultado del entrenamiento) puede depender de algunas cosas, incluido el algoritmo de entrenamiento y el estado inicial.