La complejidad de tiempo del algoritmo es la cantidad de tiempo que tarda un algoritmo en ejecutarse como una función para la entrada dada.
En términos más simples, si c es el tiempo de ejecución de una operación básica de algoritmos en una computadora en particular y si C (n) es el número de veces que se ejecuta una operación en la entrada n , entonces la complejidad de tiempo de un programa puede calcularse aproximadamente como,
T (n) = c * C (n)
- ¿Hay algún algoritmo de aprendizaje automático para el que pones una línea y devuelve la línea más cercana en un conjunto de datos?
- Cómo escribir un programa simple usando pseudocódigos
- ¿Cuál es el orden de lectura de estructuras de datos y algoritmos para un aprendizaje fluido?
- ¿Se usa R ampliamente hoy en día en la ciencia de datos?
- Algoritmos aleatorizados: ¿Dónde puedo encontrar una colección extraña de cosas no relacionadas?
Se analiza determinando el número de repeticiones de la operación básica en función del tamaño de entrada. La operación básica es la que más contribuye al tiempo de ejecución del algoritmo.
Generalmente se expresa usando la notación O grande. La notación O grande excluye coeficientes y términos de orden inferior.
Dado que la complejidad de tiempo de un algoritmo puede variar con diferentes entradas del mismo tamaño, la complejidad de tiempo más utilizada de un algoritmo es la más utilizada . los En el peor de los casos, la complejidad de un algoritmo proporciona la cantidad máxima de tiempo necesario para cualquier tamaño de entrada n.