Creo que una de las principales razones para elegir una medida frente a la otra es la facilidad de obtener las mediciones y la precisión del método. Además, hay alguna diferencia si el sistema que se está midiendo es explícitamente de un solo subproceso o de subprocesos múltiples (y espero que se denote).
Es posible adivinar a qué hora se informa.
1. El tiempo medido es increíblemente pequeño. Es probable que las mediciones de latencia en el rango de microsegundos o nanosegundos se realicen mediante recuentos de ciclos y / o temporizadores de alta resolución.
- Cómo encontrar un tema de investigación en informática adecuado para estudiantes universitarios
- ¿Se puede resolver el problema de 3SUM en tiempo subcuadrático?
- ¿Por qué la biología se está volviendo cada vez más relevante en TI?
- ¿Qué computadoras portátiles usan los grupos de investigación en visión artificial / AR? MacBooks o Alienwares? ¿Cuáles son las especificaciones?
- ¿Cuál es más eficiente de usar para la investigación: Matlab o Python? ¿Hay mejores opciones?
2. La cantidad de tiempo disminuye a medida que introducen más recursos. Es más probable que sea algún tipo de tiempo de pared (especialmente si están agregando más núcleos de CPU).
3. El problema está más vinculado a E / S que a CPU. El tiempo en la pared demostraría que todo funciona mal.