Realmente hago eso en mi investigación de ML como una forma de verificar que haya o no (dependiendo de lo que quiera) un sesgo integrado en un modelo de ML. Los números aleatorios del mismo tamaño de bit que la entrada no deberían distribuirse aleatoriamente en la mayoría de los modelos entrenados. Debe haber un sesgo en la mayoría de los modelos después de que se entrena, ya que debe tomar una decisión.
También es útil en una red neuronal con picos para examinar el flujo y encontrar la velocidad de disparo base, aunque en este caso generalmente debe ingresar el número aleatorio varias veces. Esto puede ser útil en una red conectada aleatoriamente para verificar que la concentración de las neuronas no está agrupada en muy pocas de las salidas o si alguna capa oculta está subutilizada.
También puede usar números aleatorios para ayudar a realizar ingeniería inversa de un modelo. Si puede encontrar qué bits activan qué salidas en un umbral dado, puede determinar algunas de las conexiones internas.
- ¿Cómo es asistir al campamento de selección de indios para IOI?
- ¿Cuál es la diferencia entre la variable de referencia en Java y los punteros en C?
- ¿Qué es una explicación intuitiva del proceso de jerarquía analítica?
- ¿Estudiar vale / vale la pena en Malasia en comparación con la India?
- ¿Es beneficioso hacer un proyecto con algún profesor al final del primer año en IIT BHU?