Al eliminar un archivo, ¿por qué la computadora no puede volver a convertir los datos a 0? ¿No haría eso para que nadie pueda recuperar esos datos en lugar de esperar a que la computadora los sobrescriba en algún momento?

Incluso si los datos se convierten en ceros, todavía hay una manera de recuperarlos, al menos parcialmente, analizando las propiedades magnéticas residuales de los bloques HDD. Los poderes fácticos (agencias de inteligencia, algunos laboratorios de TI realmente avanzados) pueden usarlo para restaurar al menos parcialmente la información original. Si realmente desea que la información desaparezca para siempre, es mejor que vuelva a escribir la misma dirección varias veces.

Por ejemplo, el viejo método DoD 5220.22m: escribe todos los 0, luego escribe todos los 1 y luego escribe números aleatorios.

Y si eres REALMENTE PARANOID, saluda al método Gutman. Más de 35 reescripciones con diferentes números: una garantía para eliminar todos los datos para siempre.

… ¿o no?

Hay muchos contraargumentos al respecto, algunos dicen que esto es redundante y que los riesgos de restaurar los datos no se eliminan por completo.

No olvide que cualquier procedimiento de lectura / escritura lleva tiempo. Y la optimización tiene que ver con el tiempo y la velocidad. Teniendo en cuenta que no es necesario garantizar el secreto de los datos, la reescritura constante es redundante y hace que el acceso a la memoria sea más lento.

Pero en estos casos raros en los que necesita secreto por encima de la velocidad, esto se puede hacer sin problemas.

Escribir ceros es un trabajo innecesario. Las estructuras de datos que codifican un archivo en un sistema operativo simplemente se pueden liberar. Los bytes se marcan como disponibles para su uso.

En sistemas operativos tipo Linux / Unix, puede ejecutar

$> shred file_name

$> rm nombre_archivo

hacer que el contenido de un archivo sea irrecuperable después de eliminarlo. Esto escribirá basura aleatoria en el espacio ocupado por el archivo llamado “nombre_archivo”, y luego eliminará (libera el espacio ocupado por) el archivo, en ese orden. No lo hagas a la inversa. Perderá los límites del archivo y luego no podrá escribir esos bytes basura en el espacio correcto en el disco.

Estoy seguro de que alguien ha implementado algo similar en el sistema operativo Microsoft. OS X, etc., es Linux casi en su totalidad, por lo que lo anterior debería funcionar allí siempre que tenga instaladas todas las herramientas estándar.

Imagine que tiene un archivo de 2 GiB (por ejemplo, una película) en su disco duro.

Después de verlo, procedes a eliminarlo.

Si fuera a convertir todos los bits en los sectores donde se encuentra el archivo a 0, tardará mucho tiempo en finalizar. Y sabemos que el disco duro es bastante lento. Y conocemos 2 GiB de datos + un disco duro lento = una eternidad .

Es por eso que Windows o cualquier buen sistema operativo simplemente vacía los datos en MFT (Master File Table, que se puede adivinar, es la “tabla” que contiene todos los nombres, atributos, etc. de los archivos) que apunta al archivo.

Al eliminar un archivo, la computadora elimina la ‘dirección de memoria’ del archivo. Técnicamente, el archivo todavía existe en el mismo clúster del disco, sin embargo, cuando se copia un nuevo archivo, esta ubicación del archivo es ‘libre’ según la dirección. Entonces, la computadora sobrescribe aquí, y el archivo anterior está ‘técnicamente perdido’ y no puede recuperarlo. Este es el proceso normal que ocurre cuando presionas el botón Eliminar. Si cree que sus datos son confidenciales, ¡la mejor opción sería formatear la unidad o utilizar software de terceros como File Shredder!

Bueno, sí, esto se puede hacer, pero requiere tiempo adicional de codificación y ejecución. La mayoría de los sistemas operativos modernos no molestan. Entonces, al ingresar a nuestra MÁQUINA DE CAMINO, viajamos a los primeros tiempos de la computación Paleozoica (fines de la década de 1970) y descubrimos que, de hecho, ¡un sistema militar estaba considerando hacer precisamente esto! ¡No solo eso, sino que los datos * no * debían ser registrados por diario! ¿Por qué? Seguridad. No se desarrolló debido a los costos de codificación y los gastos de recursos en las computadoras.

Y, ¿por qué se propuso esto? Lea aquí: John Anthony Walker – Wikipedia

Sistema: AUTODIN, Propuesta de US NAVY, ca. 1977

En un disco duro mecánico, el tiempo que tomaría para archivos grandes a menudo haría que el sistema fuera lento o no respondiera. En los SSD es una gran pérdida de vida. Es cierto que un solo pase de 0 descartará el software de recuperación básico.

Pero un principio básico de la recuperación de datos es que no hay un 0 o 1. perfecto. 0 es una ausencia general de una carga, mientras que 1 es una carga de aproximadamente un valor específico. Supongamos que este rango es de 0 a 10. Si sobreescribo un 10 con un 0, el valor restante podría ser realmente 1. Va a estar listo como 0 porque está realmente cerca de 0. Pero analizando una unidad que se ha puesto a cero, tengo una pista de que solíamos tener un 1 allí. Es por eso que 3 pases se consideran mejores. No he seguido el ritmo, pero más allá de eso solía ser paranoia.

En OSX uno tiene la opción de hacer una “Eliminación segura”. Escribe un patrón sobre los datos eliminados.

Pleaese señala que la CIA y otros tienen tecnología que puede recuperar datos borrados que se han escrito más de 30 veces, por lo que si quieren saber, pueden saberlo.