El bit no es “ la unidad de información más fundamental en informática“. El bit (dígito binario) es la unidad fundamental de datos almacenados y transmitidos . Estos dos términos ( información y datos ) no son sinónimos: las cadenas de bits (datos) deben (de alguna manera) “asignarse” a la información que representan los datos.
Para ilustrar el punto: ¿Cuál es el “contenido de información” de la siguiente cadena de bits sin comprimir?
1000100001001000
- ¿Cuál es el uso más interesante del aprendizaje automático que has visto?
- ¿Cuál es el próximo campo tecnológico después del aprendizaje automático?
- Cómo aumentar la velocidad de mi iPad
- ¿Cuál es el lenguaje más utilizado en el aprendizaje automático?
- Cómo crear una inteligencia general artificial
Sugerencia: Parte del “conocimiento de mapeo” necesario es el hecho de que esta cadena tiene sus bits que vienen en “cuartetos”. Esa sugerencia debería facilitarle ver que el “valor decimal” que representa la cadena binaria es 8848. Pero esto solo cambia la pregunta a, ¿cuál es el “contenido de información” del valor decimal 8848 ?
¿Es esto equivalente a decir que “los dígitos decimales son las unidades de información más fundamentales”? ¡Por supuesto no! Simplemente hace que sea más fácil ver que la premisa básica de la pregunta ( “los dígitos binarios son las unidades de información más fundamentales” ) está totalmente equivocada .
Si no puede resolverlo, no se preocupe: nadie puede , excepto el suyo verdaderamente (¡porque yo soy el único que sabe cuál es el “mapeo” real de esa cadena de bits en particular )!