¿Existe actualmente alguna forma de, en una computadora, tener una herramienta / programa automático que recorra los valores de los números en una parte de la URL de un sitio web?

Ciertamente es factible, pero necesitará algunos conocimientos básicos de programación o scripts para hacerlo.

Podría, por ejemplo, usar un programa de línea de comandos como curl o wget (ambos OpenSourced freeware) y escribir un script para ejecutarlo un millón de veces, guardando las imágenes descargadas resultantes (o no, si no existen). Luego, puede escanear esas imágenes con el visor de directorios habitual en cualquier sistema operativo que esté utilizando.

Por supuesto, esto consumiría mucho espacio en disco si incluso existe una pequeña fracción de los millones de archivos posibles que existen, y podría ser bastante lento (dependiendo de la velocidad del servidor remoto y su conexión a Internet).

Si desea hacer clic en las imágenes, es posible que tenga un script que use curl o wget para recuperar las imágenes de una en una, mostrar cada una y esperar una pulsación de tecla antes de recuperar la siguiente … de esa manera, solo necesita almacenar una imagen a la vez.

Escribí un pequeño script en Python 3 que descargará las imágenes que siguen ese patrón Image_number de ese sitio en su disco duro / SSD:

import urllib.request

inicio = int (input (“Rango de inicio:”))
stop = int (input (“Rango final:”))

para i en rango (inicio, parada + 1):
filename = str (i) .rjust (6, ‘0’) + “.jpg”
url = ” https://website.com/Image_&quot ; + nombre de archivo
imprimir (url)
intente: urllib.request.urlretrieve (url, nombre de archivo)
excepto urllib.error.URLError como e:
imprimir (e.razón)

Si los números no están rellenados con ceros (el primer archivo es Image1.jpg), elimine .rjust (6, ‘0’) . El script también imprime la URL del archivo descargado actualmente, para que sepa cuántos archivos se descargaron hasta ahora.

Para usar el script, descargue e instale Python 3, cree un archivo de texto llamado download.py y copie y pegue este script en él y ejecútelo. Los archivos se guardarán en la misma carpeta que el script.

Sugerencia: en lugar de descargar todas las imágenes a la vez, puede descargar un lote más pequeño de archivos y luego verificarlos (por ejemplo, 5000 archivos a la vez). Repita hasta que encuentre el archivo.

Editar: agregue el manejo de errores si el archivo actual en la cola de descarga no existe.

Tome una copia de HTTrack e intente distribuir todo ese sitio web en su propio disco duro.

Luego use algo como Total Commander, explore la copia del archivo HTTrack o Windows para examinar los archivos de imagen en el directorio de descargas de HTTrack.

HTTrack – Navegador sin conexión de software gratuito (GNU GPL)

Total Commander – Descargar

intente con ScrapBook Plus, es un complemento de Firefox.

Puede configurarlo para que revise las páginas web a varios niveles de profundidad y filtre qué descargar, para que pueda configurarlo fácilmente para descargar solo * .jpg del dominio dado e ignorar todo lo demás.

Tenga en cuenta que de esta manera solo puede obtener archivos a los que se hace referencia (que se muestran) en alguna página web, un enlace al que puede seguir la herramienta.

Puede escribir un script para descargar todos los archivos JPEG en un sitio web.

Descarga de imágenes por lotes desde un sitio web

Ahi tienes