¿Cuál es una explicación fácil de entender del algoritmo de Reddit?

¿Te refieres al nuevo sistema de clasificación de comentarios de este reddit? Creo que es difícil explicarlo mejor que Randall Munroe. Pero lo intentaré de todos modos. Si tiene X votos a favor y votos a favor Y, una conclusión natural sería que dado que X / (X + Y) es la fracción promedio observada de votos a favor, entonces será la probabilidad en el futuro y este valor puede usarse para estimar la calidad de un comentario . Pero este razonamiento común es en realidad al revés. El mundo no aprende la probabilidad de tus observaciones. Las observaciones son una pista de la probabilidad. Claro, si la probabilidad es realmente X / (X + Y), entonces coincide con sus observaciones. Pero hay muchos otros posibles valores de probabilidad (y por lo tanto: calidad) que podrían manifestarse con los resultados observados. Entonces la pregunta es: qué probabilidades son probables y cuáles no. Esta es una pregunta sin respuesta satisfactoria. Algunas probabilidades muchas observaciones son mejores, algunas peores, pero es difícil deducir (estimar) la probabilidad de las observaciones. Es mucho más fácil ir a la inversa: decir qué observaciones son probables dada la probabilidad. Como la pregunta es difícil, la gente llegó con muchas respuestas útiles pero contradictorias, llamadas “estimadores”. Ver Estimador para una lista. Uno de ellos es Maximum Likelike (ML), que es X / (X + Y) y se usa comúnmente porque parece razonable al principio, pero cuanto más sabes sobre la probabilidad, más ingenuo parece. ML responde a la pregunta “¿cuál de todas las probabilidades posibles (números reales de 0 a 1) es aquella para la cual el resultado que veo es más probable de todos los resultados posibles?”. Randall Munroe sugirió usar un estimador diferente: el que responde a una pregunta “¿Cuál es la probabilidad más pequeña posible para la cual el resultado que veo es aún bastante probable”?