¿Cuál es el problema de tener una solicitud HTTP GET / POST que toma mucho tiempo calcular?

Olvídate de los aspectos técnicos. Piénselo desde la perspectiva del usuario.
¿Quién esperaría 30 segundos para que se cargue una página? Si es una startup, es probable que alguien ya lo esté haciendo mejor. ¿Puedes permitirte hacer que tus usuarios esperen 30 años?
Idealmente, solo debe procesar esas cosas en una solicitud que sean absolutamente necesarias. Intenta apuntar a <1s tiempo de solicitud / respuesta.
Ahora, si su cálculo toma 30 segundos y partes de él pueden procesarse en segundo plano, entonces debería usar apio. Por ejemplo: si hay una aplicación de procesamiento de pdf y se tarda unos 20 segundos en procesar el pdf, entonces no tiene sentido mantener al usuario esperando por 20 años. Reconozca que ha recibido el pdf, procese el pdf en segundo plano y notifique al usuario a través de notificaciones o correo electrónico. De esta forma, el usuario sabe lo que está sucediendo en esos 20 años.
Si el cálculo debe tomar 30 segundos, entonces está haciendo algo mal y debe repensar cómo lo está haciendo.

Si las conexiones de red no son confiables, un tiempo de conexión más largo significa más posibilidades de que la conexión se caiga.

Si estás en AWS, sus ELB tienen un tiempo de espera de 60 segundos. Entonces, como señaló el usuario, si comienza a recibir muchas solicitudes simultáneas, podría comenzar a alcanzar fácilmente su límite de tiempo de espera.