¿Cómo se mide el tiempo en las computadoras?

Escribí un artículo sobre este tema.

La mayoría de las computadoras en el mundo toman corriente de línea (AC) como tick-tocks (alto-bajo). En los EE. UU. Esto significa aproximadamente 60 Hz, pero también 50 Hz o 100-120 Hz en otros países. El problema es la deriva; no siempre es de 60 Hz con precisión (el intervalo varía según los tipos que generan energía necesitan (tuvieron conversaciones con algunos durante una crisis de energía de verano)). Pero también es así como funcionan sus relojes de pared enchufados. La forma en que su hardware y su sistema operativo manejan este registro simple varía, puede formatearse en decimal o entero (como la estructura de BSD gettimeofday tiene formato al microsegundo, pero la mayoría del sistema se incrementa en 10 000). La gente pensó que se incrementó en 1 (los sistemas de minisupercomputadora Convex hicieron esto, probablemente tenían un registro dedicado para aumentar al microsegundo con sistemas que realizan aproximadamente 10 o más operaciones entre los tics de reloj Convex, el modelo más rápido Convexen podría hacer 100 operaciones antes de que el reloj marcara )

Una marca, por supuesto, debe ser un tipo de datos entero o de punto fijo. Una conversación de punto flotante es potencialmente una operación invasiva para un tiempo de resolución fino. Las personas hacen suposiciones sobre el número de ciclos que toma una carga, una tienda o una adición.

Otros sistemas tenían relojes de tiempo de ciclo. Crays lo hizo. Solo puede saberlo probando empíricamente su computadora. Debe configurar mediciones de instantáneas donde tome dos veces secuencialmente. ¿Cuánto trabajo puedes hacer antes de notar una diferencia? ¿También sincronizaste tu reloj? ¿Está seguro de que comenzó con un reloj constante alto (o bajo)? La mayoría de las personas y las empresas NUNCA hacen esto. No confíes en nada de lo que leas sobre el reloj de la computadora o confíes en que “está en hardware”, lo que significa “es determinista”.

Tuve compañeros de trabajo y gestión popo-poo este documento. Hice que Don Knuth me dijera: “¡Esto es genial!” Fue publicado en una reunión de Cray User Group a mediados de los 90. Era más que solo el reloj, sino también contadores de eventos que Crays también tenía (ese es un conjunto complejo de preguntas por separado).

Si te refieres a “tiempo de reloj de pared”, generalmente hay un pequeño IC que consume muy poca energía de una batería de celda de moneda y realiza un seguimiento del tiempo transcurrido. El sistema operativo de vez en cuando contacta con un servidor de tiempo de red y actualiza la hora de IC.

Ese tiempo solo tiene una precisión de alrededor de una décima de segundo.

Para una sincronización más precisa, la CPU tiene un registro de contador de reloj que generalmente es un registro de 64 bits que cuenta a la velocidad del reloj de la CPU, hoy en día varios miles de millones de tics por segundo. Ese es el reloj que usa la mayoría del software para la sincronización de grano fino. Por ejemplo, los reproductores de video usan ese reloj para reproducir video a la velocidad correcta.

Si te refieres a tiempo simulado, como en un juego, donde un día puede pasar cada hora, el programa comienza con cualquiera de las fuentes de tiempo anteriores y lo multiplica o divide para generar un tiempo de reloj simulado.

No estoy seguro de lo que estás preguntando, así que te daré dos respuestas.

Las computadoras tienen un reloj interno que realiza un seguimiento de la hora. Este reloj se mantiene funcionando con una batería, en una computadora de escritorio parece una batería de reloj, en una computadora portátil es la batería de la computadora portátil. El reloj siempre está funcionando, por lo que la hora en su computadora siempre es precisa, ocasionalmente su computadora sincronizará la hora con Internet para que se mantenga precisa.

Las computadoras no registran el tiempo como lo hacemos nosotros. Llevamos un registro de tiempo como este: 17: 56.05. Las computadoras registran el tiempo de esta manera: 1400885779. En caso de que se lo pregunte, esa es la cantidad de milisegundos desde el 1 de enero de 1970; ‘tiempo de época’. Cuando vea la hora que se muestra en su computadora, esa hora se ha convertido de la época.

Las computadoras registran el tiempo de la misma manera que usted o yo, ¡con un reloj! El reloj de tiempo real funciona incluso cuando la CPU está apagada. Está completamente separado de los “ciclos de reloj” de la CPU. En las PC, el reloj funciona con una batería cuando la computadora no está conectada a una fuente de alimentación externa.

Para más información: ¿cómo se mide el tiempo en los sistemas informáticos?

Debe haber un oscilador de cuarzo y un contador que contaría el número de 1 o 0 del oscilador. Además, el diseñador conocerá la frecuencia de los osciladores de antemano para que pueda configurar el contador para calcular un segundo.

No sé qué quiere decir con su pregunta, pero el tiempo en la computadora en realidad está dado por un oscilador de cristal generalmente hecho de cuarzo y hecho para frecuencias oscilantes de alta estabilidad, esto se divide por un factor adecuado para reducirlo a medir segundos, etc.
No sé si es relevante para su pregunta, pero espero que ayude. Aclamaciones.