¿Cuál es una explicación intuitiva del problema de ‘explicación’ en modelos gráficos dirigidos?

Explicar-Ausente es básicamente un patrón de razonamiento en el que una causa de un efecto explica ese efecto por completo, lo que reduce (no es necesario eliminar) la necesidad de verificar otras causas alternativas.

Imagine una ‘observación’ ‘Ob’, diga “obtuvo 100/100 en matemáticas”. Podría haber tenido dos causas (en aras de la simplicidad), a saber, ‘C1’ – ‘el cuestionario fue demasiado fácil’ y ‘C2’ – ‘eres demasiado inteligente’. Ahora, ‘Ob’ podría deberse a cualquiera de esas dos causas (o ambas), es decir, obtuviste un puntaje de 100/100 porque el cuestionario era demasiado fácil o eres demasiado inteligente o ambos. La confirmación de una causa, diga ‘C1’, es decir, ‘el papel fue demasiado fácil’ no proporciona ninguna evidencia de la otra causa alternativa ‘C2’ (‘usted es demasiado inteligente’).
Pero, en un esquema probabilístico de razonamiento, la confirmación del primer razonamiento ‘C1’ (‘el papel fue fácil’) DEBERÍA REDUCIR la probabilidad de la otra causa (‘usted es inteligente’) a pesar de que ambas pueden ser verdaderas simultáneamente. Esto se llama “Explicar lejos”. Quiero decir que si sé que obtuviste un puntaje de 100/100 y también sé que el papel fue demasiado fácil, tiendo a suponer que no eres muy inteligente, incluso si realmente lo eres.