Creo que te refieres a las siguientes fórmulas de logaritmo
[matemáticas] \ log (xy) = \ log x + \ log y [/ math]
[matemáticas] \ log \ left (\ frac {x} {y} \ right) = \ log x- \ log y [/ math]
[matemáticas] z = b ^ {\ log _b (z)} [/ matemáticas]
Aunque ha convertido la multiplicación a la suma de logaritmos, hay dos fallas principales de este enfoque
- La exponenciación costosa al final para obtener la respuesta final.
- Pérdida de precisión en una computadora real.
Por ejemplo: 3 * 4 = 12
Usando nuestro enfoque de registro
[matemáticas] log (3 * 4) = log (3) + log (4)
= 1.079181246 [/ matemáticas]
Estoy usando 10 como base de logaritmo y este es un resultado truncado
- ¿Qué libros de algoritmos y estructuras de datos tratan bien la recursividad?
- En Python, ¿cómo sería el código si quisiera que el usuario ingrese un número de 3 dígitos y luego obtenga la suma de esos tres números individuales?
- ¿Cuántas matemáticas requiere la Olimpiada Internacional de Informática (IOI)?
- ¿Cuál es la mejor manera de encontrar números amistosos hasta N?
- ¿Cuál es el papel de las matemáticas en las computadoras?
[matemáticas] 3 * 4 = 10 ^ {1.079181246} = 11.9999999987 [/ matemáticas]
La respuesta está bastante cerca. Pero no exacto. Esto se llama error de precisión.