Esto es solo una teoría.
La mayoría de los ataques de DOS provienen de lugares tradicionales, como computadoras de escritorio y portátiles. En los últimos años, también se usaron teléfonos inteligentes.
En cualquier ataque DDOS regular, el sitio web puede bloquear temporalmente cualquier dirección IP entrante que parezca estar involucrada en el ataque. Además, pueden recopilar bits de información sobre cada IP para bloquear segmentos del ataque.
- Cómo hacer pruebas de seguridad de aplicaciones web
- ¿Pueden los virus DOS infectar usando DOSbox?
- ¿Qué obstáculos de seguridad tienen los ingenieros con los diferentes tipos de software?
- ¿Cuál es un buen sitio que enumera los archivos del sistema Windows / Linux y proporciona descripciones?
- ¿Cuáles son los fundamentos de la ciberseguridad?
Por ejemplo, digamos que la mayor parte del ataque se origina en un Gusano que infectó a los robots atacantes. Ahora, nombremos al gusano, Trojan XYZ. Después del ataque, los administradores del sitio pueden poner un bloqueo temporal en cualquier dirección IP, que puede haber sido infectada por Trojan XYZ, en función de si esas direcciones IP provienen de áreas de alto perfil que lo harían más susceptible a tener el Trojan XYZ, o incluso puede ser voluntariamente parte del ataque.
Todo eso funciona con los tipos normales de ataques DDOS, que provienen de computadoras o teléfonos, de los cuales el sitio podría extraer dicha información.
Sin embargo, este ataque utilizó principalmente dispositivos que formaban parte del IOT, tales dispositivos no retendrían los datos, las cookies, etc., que el sitio podría detectar para bloquearlos preventivamente en función de la evaluación de riesgos que el sitio realiza mientras está bajo ataque. Como no se proporcionó dicha información, fue mucho más difícil para los sitios bloquear los bots que causaron el ataque.
Si ese es el caso, no veo ninguna forma de evitar que esto suceda en el futuro, a menos que los fabricantes de IOT, comiencen a ingresar la capacidad para que los dispositivos IOT recopilen más datos de los que tienen actualmente. Eso permitiría a los sitios detectar mejor quién es real y quién es un bot.