¿Cuáles son los 5 conceptos más importantes de la inteligencia artificial?

Preguntas como esta siempre son un desafío para responder, pero definitivamente vale la pena intentar sintetizar lo que uno ha aprendido durante toda una vida haciendo investigación en un campo. Entonces, ¿cuál es mi elección de los 5 conceptos más importantes en IA?

  1. La inteligencia como búsqueda en espacios problemáticos: Alan Newell fue uno de los defensores más contundentes del concepto de búsqueda como categoría fundamental de problema. Su trabajo histórico en SOAR, una arquitectura cognitiva, se basó en modelar cada problema de IA como el de la búsqueda en algún espacio problemático. Si pensamos en los principales éxitos de la IA recientemente, ya sea Alpha Go Zero at Go o el jugador Jeopardy de IBM o incluso el éxito en la construcción de automóviles autónomos, está claro que la observación de Newell sobre la primacía de la búsqueda sigue siendo tan relevante hoy en día como Fue hace varias décadas. Mi antiguo asesor de tesis, Tom Mitchell, escribió un artículo influyente llamado “Generalización como búsqueda”, que muestra cuánto del aprendizaje automático es una vez más reducible para buscar en algún espacio de hipótesis (o espacio de parámetros). De hecho, es difícil pensar en un problema de IA que no implique alguna búsqueda. Entonces, la búsqueda aparece como la primera en mi lista de los conceptos más importantes en IA. Hay muchas formas de modelar la búsqueda: la búsqueda en espacios continuos es básicamente el trabajo de optimización, ya sea el tipo convexo tradicional como en métodos como máquinas de vectores de soporte, o el tipo no convexo en el aprendizaje profundo. Los problemas de búsqueda discreta son como problemas de satisfacción de restricciones (piense en Sudoku) o busque en juegos (ajedrez, Go) o búsqueda en mapas (por ejemplo, A * en Google Maps).
  2. El conocimiento como mecanismo efectivo para simplificar la búsqueda: dado que la búsqueda es la categoría principal en IA, el principal problema que debe abordarse es cómo hacer que la búsqueda sea más eficiente. No hace falta decir que es poco probable que los métodos de búsqueda “ciegos” escalen en un problema real. La búsqueda es manejable cuando se guía por el conocimiento relevante. Por ejemplo, en la optimización convexa, uno explota el conocimiento de que la función que se minimiza tiene “forma de cuenco” y tiene un mínimo único. El conocimiento también es extremadamente útil para simplificar el espacio de políticas o mapeos que se buscan en el aprendizaje por refuerzo. Considere el problema de entrenar un auto sin conductor. Aquí, conocer las reglas de tráfico simplifica enormemente el problema de qué políticas son “legales”, y se pueden eliminar clases enteras de acciones ilegales. Newell también introdujo un concepto fundamental que desafortunadamente ha sido olvidado y necesita ser reintroducido al estudiante moderno de IA. Al igual que los sistemas informáticos pueden describirse en varios niveles, por ejemplo, el nivel de hardware, el nivel de software, etc. Newell introdujo el concepto fundamental del “nivel de conocimiento”, que caracteriza un sistema de inteligencia artificial por lo que “sabe”. Esta caracterización es notablemente útil para proporcionar una caracterización de alto nivel de un sistema, abstraída de los detalles de cómo se representa, almacena, accede y utiliza el conocimiento. Lamentablemente, el concepto de nivel de conocimiento rara vez se usa más, pero en mi opinión, continúa proporcionando una de las formas más importantes para distinguir los sistemas de inteligencia artificial de otros sistemas inteligentes. Los sistemas de inteligencia artificial son inteligentes en la medida en que “saben” cosas sobre el mundo, y pueden actuar racionalmente dado su conocimiento. Entonces, la caracterización del nivel de conocimiento de un sistema de IA es el segundo concepto más importante en IA.
  3. Representación e inferencia manejable: se ha hecho evidente durante varias décadas de investigación en IA que la forma del conocimiento, la representación, juega un papel crucial en determinar cuán eficiente será la inferencia al usar el conocimiento para guiar las decisiones. Numerosos resultados, desde la teoría del aprendizaje PAC en la teoría del aprendizaje computacional hasta el trabajo en modelos gráficos para la inferencia probabilística y el trabajo en la inferencia lógica, muestran que existe una compensación fundamental entre la expresividad y la trazabilidad. Cuanto más expresivo es un esquema de representación del conocimiento, menos manejable es, y esto impone una barrera fundamental en la construcción de sistemas de IA eficientes. Tome el simple problema de aprender funciones booleanas a partir de ejemplos. Resulta que es extremadamente difícil, si no imposible, aprender eficientemente cualquier función booleana de un número relativamente pequeño de ejemplos de manera confiable, pero si uno limita la función booleana a una clase más pequeña, digamos expresiones booleanas conjuntas donde cada “cláusula” es limitado a una disyunción de, a lo sumo, literales “k”: existen algoritmos eficientes. Por lo tanto, las representaciones desempeñan un papel fundamental en la determinación de si una estructura de conocimiento dada se puede aprender y se puede utilizar de manera eficiente para reducir la búsqueda. En última instancia, ¿muchas preguntas básicas sobre la representación en IA se reducen al último P = NP? pregunta que ha atormentado a los informáticos durante más de cuatro décadas. En matemáticas, las representaciones juegan un papel clave en la comprensión de las estructuras fundamentales, como las transformaciones lineales o las simetrías. Para comprender una transformación lineal, uno la asigna a una matriz, que es una representación de esa transformación de alguna manera. Para comprender las rotaciones en seis dimensiones, uno lo asigna a un grupo de un tipo particular, que también tiene una representación matricial. La teoría de las representaciones forma el tercer concepto más importante en IA.
  4. Optimización versus equilibrio: al dar objetivos a los sistemas de IA, una tendencia natural es esperar que sean capaces de encontrar una solución “óptima” con respecto a alguna pérdida o función de utilidad. Queremos que nuestro automóvil autónomo funcione de manera óptima de acuerdo con algún conjunto de métricas. Aquí yace el problema, como dice el refrán. La mayoría de los problemas del mundo real implican el intercambio de un conjunto de métricas incompatibles entre sí. Un automóvil autónomo que optimice la seguridad podría no optimizar otras métricas, como llevar a los pasajeros a sus destinos a tiempo. Al observar el proceso de selección natural, está claro que la biología favorece el proceso de equilibrio (encontrar soluciones de equilibrio) en lugar de la optimización. Si estoy tratando de decidir cuál es la mejor ruta, por ejemplo, desde San Francisco hasta Palo Alto todas las mañanas, está claro que tengo control sobre solo un pequeño número de variables, como si manejo o tomo el Caltrain, y si manejo , qué autopista elijo, Ruta 1 o 280, pero no tengo control sobre las decenas de miles de otros conductores que persiguen sus propios objetivos de conducción autosuficientes para llegar al trabajo. En el mejor de los casos, puedo tratar de equilibrarme y encontrar una solución tal que forme un tipo de equilibrio “local” de Nash, de modo que no haya una mejora local en mi política siempre y cuando los otros conductores no se desvíen de sus elecciones. Los equilibrios de Nash parecen fundamentales para diseñar sistemas de IA de múltiples agentes, ya que la optimización parece una métrica irremediablemente ideal que no se puede lograr en un problema del mundo real. Entonces, mi cuarto concepto más importante es el de encontrar soluciones de equilibrio.
  5. Distributividad versus localidad y tolerancia a fallas: claramente, si vamos a construir sistemas de IA resistentes a fallas, deben tener cierta capacidad inherente para soportar fallas de componentes individuales. El cerebro humano no tiene comparación en este sentido, ya que incluso los pacientes con lesiones cerebrales graves pueden compensar sus pérdidas y recuperar una funcionalidad casi completa. Por lo tanto, cualquier sistema de representación del conocimiento que finalmente tenga éxito en IA debe ser igualmente capaz de un deterioro suave, donde la pérdida de componentes individuales no haga que todo el sistema quede inoperable. A diferencia de la mayoría de los sistemas informáticos modernos, donde la pérdida de un solo sector puede hacer que un disco duro sea ilegible a veces, los sistemas de inteligencia artificial necesitan conocimiento almacenado de una manera altamente redundante, para que el conocimiento pueda reconstruirse de una manera tolerante a fallas, de la misma manera que la memoria humana es capaz para reconstruir eventos. El requisito de tolerancia a fallas conduce inexorablemente a representaciones e inferencias distribuidas y, en última instancia, a modelos de IA inspirados neuronalmente, donde se combinan muchos elementos informáticos simples para producir un comportamiento inteligente. Por lo tanto, mi quinto concepto más importante en IA sería el diseño de sistemas paralelos distribuidos basados ​​en el conocimiento que puedan funcionar de manera tolerante a fallas a prueba de fallas, al igual que el cerebro humano.

OK, aquí está mi lista de los cinco conceptos más importantes en IA, y por qué representan mis 5 mejores opciones. ¡Esperamos que te sea útil!

Voy a dar una puñalada rápida a esto. Entendí que la pregunta se refería a conceptos abstractos más que a técnicas de IA.

[1] Definición . Es inteligencia a causa del resultado (IA clásica: hace cosas inteligentes), construcción (IA moderna: ANN, EA), o algo intangible en la biología como una “mente” (IA posmoderna: cerebros biológicos utilizados como unidades informáticas).

[2] Realización . Este se desprende del último, pero la idea esencial se refiere a si la inteligencia puede desarrollarse sin interactuar con el entorno. La interacción requiere un cuerpo para sentir y actuar. Es por eso que la robótica y la IA tienden a ir juntas.

[3] Singularidad . Si podemos construir algo más inteligente que nosotros mismos. Sin duda, habrá casos en los que la IA supere a los humanos, pero la pregunta realmente tiene que ver con la inteligencia emergente y sus habilidades (y, por supuesto, nuestra capacidad de retener el control).

[4] Espacio de estado . Muchas técnicas utilizadas en IA son formas ingeniosas de buscar espacios de estado tan grandes que las búsquedas exhaustivas tomarían más tiempo de lo que la gente ha estado buscando (problemas de NP completo).

[5] Ingeniería . Esto se refiere tanto a la comprensión del diseño de sistemas biológicos como a un nuevo paradigma para el desarrollo donde las máquinas genéricas aprenden a resolver problemas en lugar de ser entrenados o construidos para resolverlos.

Veo 9 conceptos importantes en (razonamiento) inteligencia artificial (una vez que ha recibido algún conocimiento en lenguaje natural sobre con qué razonar):

1) El programa fuente es un conjunto de árboles de decisión de lenguaje natural que cualquiera puede leer. Es a él a quien modificamos cuando queremos modificar el porgrama. Eso es todo.

2) El programa objeto se convierte en una base de datos simple que contiene reglas (tipo de sistema experto), también en lenguaje natural, por lo tanto, legible por todos. Ya no hay un solo algoritmo.

3) Conversacional: un programa de IA tiene una capacidad inmediata para dialogar con los usuarios

4) AI proporciona deducciones sobre el caso a medida que avanza (es decir, nuevos conocimientos de la información recibida)

5) AI informa contradicciones en el conocimiento, lo que permite saber si el programa es bueno y no obtener resultados ilógicos

6) Explicación: la capacidad de explicar al usuario sus preguntas y sus deducciones

7) Aptitud para la simulación: durante el tratamiento uno puede cambiar uno o más datos que describen el caso. El programa no comienza desde cero, no se bloquea, nunca hace las mismas preguntas. Reanuda su razonamiento sobre los datos disponibles, elimina aquellos que se han convertido en falsos y continúa deduciendo, hasta el resultado.

8) la capacidad de comenzar a partir de cualquier dato (que forma parte de su vocabulario): razona a partir de lo que se le dice.

9) si el programa no está escrito por el experto en sí, sino por un mayordomo, The Maieutician no necesita comprender el conocimiento del experto. La IA lo hace todo por sí misma.

En una presentación que di una vez, Inteligencia Artificial: Ciencia e Impacto, destaqué todos los conceptos que pensé que eran más importantes sobre la Inteligencia Artificial. Para destilar esto aún más, creo que los cinco conceptos más importantes son:

  1. Inteligencia : la capacidad de pensamiento, creatividad y resolución de problemas; es una definición que retrocede, es decir, es la parte que no podemos explicar; si podemos explicarla, no es inteligencia.
  2. Representación del conocimiento : el principal problema de la inteligencia artificial; Puede ser simbólico, sub-simbólico o estadístico.
  3. La prueba de Turing : los evaluadores humanos juzgan una conversación entre un humano y una máquina para decidir cuál es el humano.
  4. PU BK | = C – Las instalaciones con conocimientos previos implican conclusiones
    (La ecuación fundamental de inferencia por Ryzard Michalski).
  5. Patrones de diseño del sistema cognitivo : puede diseñar un AGI más rápidamente con ellos que sin ellos (inventado por mí).

La mejor de las suertes.