¿Cuánto tiempo le tomaría a una computadora contar hasta un googol?

Ignorando que la pregunta casi no tiene sentido exactamente como está escrita, voy a tratar de responder lo que creo que el autor de la pregunta estaba tratando de hacer.

Hice una prueba corta en mi propia computadora. Escribí un código para contar hasta 1 millón (10 ^ 6) imprimiendo el número en cada pasada a través de un bucle. Se completó en 36.999 segundos:

$ time gforth count.fs -e ‘cuenta adiós’
1
2
3
… [Muchas líneas de salida omitidas]
999997
999998
999999

0m36.999s reales
usuario 0m1.996s
sys 0m4.928s

Convertido a años:

Tienes: 36.999 segundos
Quieres: años
36.999 segundos = 1.1724526e-06 años
36.999 segundos = (1 / 852912.94) años

Entonces tomamos ese número (1.1724526 * 10 ^ -6), lo multiplicamos por 10 ^ 94 (un googol dividido por un millón) y llegamos a algún lugar del orden de 1.1724526 * 10 ^ 88 años. Esto es para un programa escrito en Forth en una computadora portátil desde aproximadamente 2009 o 2010.

Por cierto, tuve la brillante idea de ejecutar esto en modo consola (texto) para intentar acelerarlo; en realidad es un orden de magnitud más lento que un terminal GUI por alguna razón.

No estoy completamente seguro de si hay una forma más rápida o más eficiente de contar para una computadora, pero suponiendo que no necesariamente tenga que mostrar nada y podría contar una vez cada ciclo de CPU …

Bueno, mi procesador particular es un núcleo de 8 núcleos que puede ejecutarlos a 5 GHz como máximo. Suponiendo que se permita hacer la tarea en paralelo con todos los núcleos funcionando a la vez, eso es 40 mil millones de cuentas por segundo. Asi que….

10 ^ 100 / 4.0 × 10 ^ 10 = 2.5 × 10 ^ 89 segundos. Que es 7.95 × 10 ^ 81 años. Por lo tanto, se necesitaría una eternidad indescriptible para que una computadora de escritorio doméstica actual lo haga. Apenas lo abollaría, incluso si distribuye el recuento a través de todas las computadoras en la Tierra en la historia a la vez. La edad del Universo es solo 1.4 × 10 ^ 10 años.

Bueno, dado que los números en un monitor de computadora son literalmente ligeros, viajan a la velocidad de la luz desde el monitor a sus ojos, sin importar cuán rápido se emitan los números. Entonces, por simplicidad, supongamos que la computadora genera 1 número por día … tomaría un día googol

Lucas tiene problemas para imaginar “números de salida a la velocidad de la luz”. Me lo imagino porque no tiene ningún sentido. La velocidad de la luz: ~ 299.792 km / seg.

¿Salida de números? ¿Cómo? ¿En papel? Te refieres a contar así:

1
2
3
[… etc. …]
10 ^ 100 (Googol)

En ese caso, todavía tiene que explicar lo que quiere decir con “números de salida a la velocidad de la luz” (la velocidad de la luz se expresa en una distancia por unidad de tiempo y no en números por unidad de tiempo).

Solo entonces alguien (que tiene demasiado tiempo en sus manos) podrá calcular esto por usted.

Esto llevaría exactamente la misma cantidad de tiempo que hacer girar un motor y revoluciones de googol por nada.

En otras palabras, haga un uso completo de la estructura de datos GIGO. Con la estructura de datos GIGO [pendiente de pat], nada es imposible. Necesitará transmisión de datos serializados cuantizados y totalmente paralizados, tanto dentro como desde el GIGO.

… Y asegúrate de no perder tiempo en eso.

Su pregunta es como preguntar, “qué tan rápido puede recitar la Biblia si pudiera hablar a la velocidad de la luz”, “qué tan azul sería el cielo si fuera tan azul como la velocidad de la luz”, o “” aquí hay una regla, use para medir el volumen de esta música “.

No puedes medir cosas usando una regla diseñada para otra cosa

“Salida del número a la velocidad de la luz”. Tengo problemas para imaginar lo rápido que es eso.