La conexión se encripta y luego rebota entre nodos, ninguno de los cuales rastrea la ruta completa.
(Difiere de https y ssl, que son los datos cifrados que se pasan entre el servidor y el cliente)
Estarían capturando información sobre un sitio sin DNS o cualquier forma de proporcionarle una ruta más tarde.
- ¿Son reales las vistas y los números en Facebook y otros sitios web?
- Cómo comenzar a construir un sitio web
- ¿Qué es un sitio web receptivo y cómo se crea?
- ¿Cuáles son los mejores temas en WordPress para un sitio web de Vet Pharma Company?
- ¿Qué piensan las personas de los sistemas de inicio de sesión basados en correo electrónico (es decir, el usuario hace clic en un enlace de inicio de sesión en un correo electrónico para iniciar sesión)?
Google dorks en realidad muestra muchos sitios [web profunda, no web oscura] que fueron indexados que deberían haber tenido un archivo robots.txt para detener el rastreador , pero incluso aquellos que tienen un nombre DNS o una dirección IP para indexar no un nombre TLD de cebolla, que es más o menos una versión autocifrada de dónde se puede encontrar su sitio en este momento, tanto IP como puerto.
La inclusión del puerto en la resolución de dirección .onion significa que un rastreador web de motores de búsqueda necesitaría no solo rastrear todas las direcciones IP en los puertos 80 y 443 como lo hace, sino también todos los puertos 65535 para una dirección IP dada.
Si un motor de búsqueda almacenara la dirección .onion, aún necesitaría TOR para visitarla en función de esa dirección.
Supongo que debería agregar eso realmente, podrían indexar todo, pero sería un gran esfuerzo inútil fuera de su modelo de negocio. La mayoría de los datos son inútiles.