¿Por qué CLRS no cubre algoritmos como el punto más cercano iterativo (ICP)?

Los libros de texto de CLRS y algoritmos de su tipo enfocan su discusión casi exclusivamente en algoritmos donde se pueden probar fuertes garantías.

Hay muchos algoritmos que funcionan bien en la práctica, pero que se basan en heurísticas que no tienen garantías, o donde la garantía es débil o difícil de establecer.

Los métodos iterativos y de gradiente tienden a ser los últimos. Muchas veces, la única garantía que puede probar es que el método convergerá. Puede o no converger en algo agradable, donde “agradable” no siempre es tan fácil de definir (si estamos hablando de un problema de IA). E incluso si puede estar seguro de que convergerá en algo agradable, no sabe exactamente cuánto tiempo llevará. Incluso si puede decir algo sobre la tasa de convergencia, eso no se traduce exactamente en un tiempo de ejecución exacto. El tiempo de ejecución puede depender mucho de elegir una buena configuración de inicio, que depende de los datos. Conocer el peor tiempo de ejecución puede ser inútil si los algoritmos se ejecutan mucho más rápido en promedio. Pero calcular un tiempo de ejecución promedio de un caso puede ser extremadamente difícil. El análisis puede ser significativamente más complicado que el algoritmo en sí.

Por esta razón, este tipo de métodos realmente no encajan bien en un libro como CLRS (además, hay muchos otros libros específicos del tema).

La lista de algoritmos por ahí son infinitas. Tuvieron que elegir y elegir, y supongo que ICP no hizo el corte. Otra suposición mía sería que ICP no es realmente un algoritmo ‘fundamental’, y no es tan elegante como la mayoría de los otros algoritmos encontrados en el libro.