Sí, varios tipos de sistemas expertos tienen la capacidad de hacer una pregunta a partir de un conjunto establecido de preguntas. Los sistemas más avanzados tienen la capacidad de formular y hacer preguntas, pero aún en un dominio limitado.
Este es un elemento del aprendizaje automático. Cuando un sistema de aprendizaje encuentra una incongruencia, buscará una solución. Si una de las alternativas válidas del sistema es hacerle una pregunta a un humano, describirá el problema y solicitará una solución.
Tenga en cuenta que no es necesario preguntar en un lenguaje humano educado. Simplemente puede mostrar “error: inventario! = Stock” esperando una respuesta algorítmica como “si stock! = Sopa y (stock = ganado o stock (está en (almacenamiento))), entonces inventario = stock” (este algoritmo en realidad necesitan ser considerablemente más sofisticados a menos que las variables utilizadas tengan definiciones específicas de la aplicación o llamadas subrutinas complejas).
- ¿Cómo funcionan los algoritmos genéticos?
- ¿Cómo hacen empresas como Microsoft para hacer inteligencia artificial, y se crea a partir de software prefabricado como Visual Studio u otra cosa?
- Al entrenar una red neuronal, ¿tengo que entrenar a la red con la salida correcta para cada entrada posible?
- Si hay un algoritmo o teoría sobre cómo crear una IA fuerte, ¿se hará pública dicha información como otra investigación académica o se mantendrá en secreto para beneficiar a los involucrados?
- ¿Cómo se define la función de valor de estado óptimo para los procesos de decisión de Markov?
Ningún programa de computadora hoy tendrá “hambre de aprender” como un objetivo explícito. Puede exhibir el comportamiento asociado con esa motivación si tiene una rutina de optimización para recopilar e integrar nueva información sobre un tema.
En este punto no podemos expresar esta clase de conceptos sofisticados en forma algorítmica. Esto se debe principalmente a nuestra incapacidad para comprender cómo el cerebro humano forma tales conceptos y los aplica en el proceso de decisión.
Personalmente, creo que la IA no debe esforzarse por imitar la emoción humana, a menos que se descubra que la emoción es un elemento necesario para un razonamiento sofisticado. Los humanos son notoriamente egocéntricos cuando tienen los medios para ignorar la presión social. Por esta razón, una IA con una réplica completa del pensamiento humano sería muy peligrosa.