¿Qué se entiende por seguridad de 128 o 256 bits?

Esto significa que la clave de un algoritmo de cifrado tiene tantos bits.

En el cifrado, debido a la naturaleza de las computadoras, la clave es binaria, es decir, que consta solo de 0s y 1s. Puedes considerarlo como un número realmente enorme: por ejemplo, 32 bits ya son más de 4 mil millones, en el sistema decimal, 33 bits es el doble, 34 bits dos veces 33 bits y así sucesivamente …

Al final, esto significa que un atacante tendrá que, dejando de lado las fallas de seguridad, la fuerza bruta de muchas teclas para encontrar la correcta para poder acceder a los datos. Solo contar hasta ahora requerirá más tiempo del que existe el universo.

Los algoritmos de cifrado están diseñados teniendo en cuenta la imperfección: lo más probable es que alguien encuentre una falla o debilidad que permita verificar menos que el espacio de teclas completo, por lo que los algoritmos están diseñados de tal manera que incluso después de que esto suceda, el cifrado es Todavía lo suficientemente fuerte como para ser utilizado durante muchos años.