No, esto simplemente no es cierto. Puede decir que si tanto [matemáticas] f (n) \ en O (g (n)) [/ matemáticas] y [matemáticas] g (n) \ en O (h (n)) [/ matemáticas] entonces [matemáticas ] f (n) \ en O (h (n)) [/ math], esto se debe a que Big-Oh mantiene la transitividad .
Lo que puede (al menos) decir es en relación con [matemáticas] g (n) [/ matemáticas] y [matemáticas] h (n) [/ matemáticas] (bajo los supuestos de su pregunta) son los siguientes:
- [matemáticas] f (n) \ en O (g (n) + h (n)) [/ matemáticas]
- [matemáticas] f (n) \ en O (\ max \ {g (n), h (n) \}) [/ matemáticas]
- [matemáticas] f (n) \ en O (g (n) h (n)) [/ matemáticas]
Pero no , en general no puede decir que [matemáticas] g (n) \ en O (h (n)) [/ matemáticas], esto es simplemente porque no tiene idea de [matemáticas] f (n) [/ matemáticas] cuán asintóticamente apretadas son las dos funciones de crecimiento (como límites superiores asintóticos).
- ¿Cómo se puede construir un nuevo generador de números pseudoaleatorios criptográficamente útil?
- Teoría de la complejidad computacional: ¿Cuál es la diferencia entre las máquinas de Turing deterministas y no deterministas?
- ¿Podemos modificar la máquina de turing?
- ¿Qué libros de algoritmos y estructuras de datos tratan bien la recursividad?
- ¿Cuál es la complejidad temporal para ordenar n cadenas de n caracteres, cada una utilizando un orden lexicográfico?
Por ejemplo, sea [matemática] f (n) = n [/ matemática], [matemática] g (n) = n ^ 2 [/ matemática] y [matemática] h (n) = n \ log {n} [ /matemáticas]. [matemáticas] n \ en O (n ^ 2) [/ matemáticas] y [matemáticas] n \ en O (n \ log {n}) [/ matemáticas] no implica [matemáticas] n ^ 2 \ en O (n \ log {n}) [/ math] porque [math] n ^ 2 \ notin O (n \ log {n}) [/ math]. Notará en este caso que [math] n \ log {n} \ in O (n ^ 2) [/ math], pero esto puede no ser cierto en general con [math] g [/ math] y [math] h [/ matemáticas].
¡Espero que esto ayude!