Ya se está haciendo y no solo una instantánea, sino muchas instantáneas con el tiempo. Su tamaño es actualmente de 3 petabytes, creciendo a 100 terabytes por mes. Ver en.m.wikipedia.org/wiki/Wayback_Machine
Sin embargo, esto no captura todos los datos que se esconden en las bases de datos detrás de las páginas web. Sería bastante difícil capturar todos esos datos. Cuanto más usemos interfaces RESTful para datos (lo que significa que puede acceder a cualquier información simplemente especificando una URL única), más datos serán archivables. También está el problema de todos los datos cifrados y protegidos con contraseña a los que nunca tendrá acceso porque pertenecen a otras personas (registros bancarios, compras, etc.) También hay toneladas de datos en intranets dentro de las compañías que no sería capaz de acceder o tener un método estandarizado para acceder o categorizar. Tendríamos que confiar en que cada una de esas compañías haga una copia de seguridad de sus propios datos de manera que sepan y luego puedan guardar todas sus copias de seguridad en la nave espacial. 🙂 Sospecho que puede haber más datos a los que no puede acceder en Internet que datos a los que puede acceder públicamente. No tengo ningún dato de apoyo sobre eso, solo un presentimiento.
- ¿Por qué la información en línea tiene el poder potencial de derrocar a un gobierno de algún país?
- ¿Hay algún inconveniente en la India digital?
- ¿Cuáles son las críticas de cómo funciona el plato de internet?
- ¿Sobrevivirá Internet si Estados Unidos se derrumba o declina?
- ¿Se requiere una computadora para tener una vida funcional en el mundo moderno?