Aunque existen varios tipos de incertidumbre en varios aspectos de un sistema de razonamiento, la investigación de “razonamiento con incertidumbre” (o “razonamiento bajo incertidumbre”) en IA se ha centrado en la incertidumbre del valor de verdad , es decir, permitir y procesar la verdad valores distintos de “verdadero” y “falso”.
En términos generales, desarrollar un sistema que razone con incertidumbre significa proporcionar lo siguiente:
- Una explicación semántica sobre el origen y la naturaleza de la incertidumbre.
- una forma de representar la incertidumbre en un lenguaje formal
- Un conjunto de reglas de inferencia que derivan conclusiones inciertas (aunque bien justificadas)
- Un mecanismo eficiente de control de memoria para la gestión de la incertidumbre.
Este es un subcampo grande y activo de investigación de IA. Para obtener más información, consulte Asociación para la incertidumbre en la inteligencia artificial.
- Cómo comenzar el aprendizaje automático y la inteligencia artificial desde cero
- ¿Tener una función dedicada para cada módulo de un programa de IA es el enfoque correcto para construir programas de inteligencia artificial?
- ¿Cuál es la ventaja de la IA?
- ¿Qué tanto cambia el paradigma es la inteligencia artificial?
- ¿Es posible crear inteligencia biológica artificial?
Para más detalles ir a: Incertidumbre