¿Cuánto tiempo te lleva programar un algoritmo razonablemente complicado?

Puede que no sea un buen punto de referencia: solo escribo código episódicamente, pero …

Realmente depende de la complejidad del algoritmo y del lenguaje que use.

Un algoritmo bien diseñado es esencialmente una fórmula, todo lo que hay que hacer es traducir eso en código, que puede ser tan simple como una macro de una línea en Excel.

O tal vez uno define una tabla de base de datos (o algunas), algunos fragmentos de código que implementan funciones básicas y un bucle simple para unir todo. En algo como MATLAB, eso podría ser muy, muy fácil. En c, quizás un poco más complejo.

Ahora, si uno está tratando de construir un sistema de producción alrededor del algoritmo, por ejemplo, para la programación dinámica y el despacho de vehículos de marcación (no es un ejemplo aleatorio, por cierto), esa es una tarea mucho más complicada. No tanto en términos de implementación del algoritmo per se, sino en el desarrollo de todo el código que rodea el algoritmo (entrada del usuario, recopilación de datos, interfaces con otros sistemas, alta disponibilidad, etc.).

Lea sobre Naismith. Esto describe cuánto tiempo lleva llegar de a a b con todas las variables. Para la programación no conocemos las variables. No podemos responder tu pregunta.

Honestamente, un solo algoritmo definido no tomaría tanto tiempo, sin embargo, la mayoría de los programas son sistemas complejos que requieren años de esfuerzo para desarrollarse. La reducción de lo que hacemos para implementar algoritmos falta la mayor parte del proceso.