Un archivo enorme es casi siempre preferible. Las respuestas de William y Greg son muy informativas. Algunos ejemplos diarios:
- En el mundo de Linux suele haber muchos archivos. Esto es lo que veo en la PC con Windows: la carpeta \ AppData \ Local \ GitHub \ contiene 3 702 archivos, 271 subcarpetas – 270 megabytes en total y C: \ Program Files (x86) \ gnucash contiene 4 569 archivos, 672 subcarpetas – 300 megabytes en total . Esas son aplicaciones instaladas que uso todos los días. Los distributivos generalmente se empaquetan en zip / tar.gz / exe y así sucesivamente para un mejor control de lanzamiento y comprobación de hash posterior a la descarga
- Mi carpeta \ AppData \ Local \ Mozilla contiene 12150 archivos, 260 carpetas – 370 megabytes. Este es el perfil de Firefox + caché del navegador, y se debe a la naturaleza de Internet. Los elementos de caché se crean en momentos aleatorios y se accede a ellos en momentos aleatorios y, por lo general, no los mueve el usuario; ponerlos todos en un contenedor no daría ningún beneficio. Pero si decidiera mover mi perfil de usuario, limpiar esos archivos 12150 (!) Podría ahorrarme una docena de minutos, y el caché se repoblará de todos modos
- Históricamente, el sistema operativo Windows está más centralizado: registro del sistema frente a muchos archivos de configuración, GAC frente a la carpeta lib local para cada aplicación, por ejemplo
- Mover muchos archivos pequeños en la misma unidad lógica lleva algún tiempo, porque cada registro de archivo se modifica. Mover un archivo enorme es superrápido, porque solo se actualiza un registro
- Pasar a otra unidad de registro / física tomará un tiempo proporcional a la velocidad de transferencia de archivos + las mismas acciones que en el párrafo anterior. Pero es bueno saber que el sistema operativo Windows se vuelve muy lento al copiar un archivo que es más grande que la RAM disponible debido al almacenamiento en búfer, por lo que la mejor práctica es utilizar técnicas un poco avanzadas para hacerlo; consulte http://blogs.technet.com/b/ askpe … y http://www.howtogeek.com/73887/b…
- Las bases de datos son 1 archivo grande en el caso general. Eso brinda más flexibilidad en la copia de seguridad: el trabajo de copias incrementales y diferenciales depende de eso
- El software como Dropbox y OneDrive puede tomar mucho tiempo incluso para prepararse para la sincronización después de colocar allí unos 50 mil archivos. Es mejor comprimirlos primero con compresión cero: lleva algo de tiempo empacar, pero ahorra mucho tiempo más tarde
- Si un servidor web está bien para dar acceso a un archivo en particular en múltiples subprocesos, y un cliente también lo admite, entonces las descargas HTTP son tan rápidas como P2P (al menos en el sector del consumidor con una conexión habitual de 10-100 mbit a Internet).