Estás confundiendo cosas muy diferentes. La Ley de Moore, que es un término flexible en primer lugar, habla sobre el crecimiento del poder computacional, y aproximadamente lo vincula como duplicado cada 18-24 meses. Esto no significa que obtengamos información, solo la velocidad a la que la procesamos.
Aquí hay un viaje. Toda la información que tendrá el universo ya está aquí. Y algo más. No tiene nada que ver con la computación. La matriz de la materia, los átomos de los que hablas, son la información. Algo de esto también incluye información codificada más allá del estado físico de sí mismo (libros, arte, grabaciones, recuerdos, la sensación de oler el océano). No todo eso puede cuantificarse, per se, pero todo se reduce a cómo están dispuestos esos átomos (y también a cómo se organizaron en el pasado, aunque puedo estar equivocado sobre esa última parte).
Pero aquí está la cosa … cuando considera no solo el arreglo actual, sino los diversos arreglos que han existido con el tiempo, termina con un número infinito de posibilidades. De hecho, sin considerar el tiempo, la cantidad de información potencial debería considerarse como el factorial del número total de átomos en el universo; esto le dará un número insondablemente grande más allá de la comprensión, y también uno muy bajo, ya que no consideraría cualquier otro factor en juego (vector, giro, arreglos, etc.).
- ¿Por qué elegir la estructura de datos incorrecta hace que un programa sea ineficiente?
- Pasé más tiempo leyendo blogs de gestión de productos que codificación, a pesar de que estoy cursando una licenciatura en CS. Perdido 🙁 ¿Cómo debo pasar mi último año?
- ¿Cuál es el principio de funcionamiento del subespacio aleatorio en el aprendizaje automático?
- ¿Qué es mejor para la informática y el emprendimiento, Stanford, MIT, Harvard o UCB? ¿Por qué?
- ¿Cuál es el significado del teorema de Kirchoff?
En resumen … es imposible no tener más datos que los átomos totales.