Dada la potencia computacional suficiente, ¿serían los objetivos de la mecánica del continuo tan complicados de lograr? Es decir, ¿sería matemáticamente más sencillo modelar sistemas de forma discreta que continua?

Bueno, debe hacer las preguntas: ¿por qué necesita modelar un sistema con algún grado de fidelidad?

¿Qué gana al ejecutar un cálculo de fidelidad extremadamente alto usando todos los tera / penta flops que pueda desear?

La respuesta a la primera pregunta es que un modelo es una herramienta para resolver un problema de diseño o problemas relacionados con el sistema con el mínimo grado de fidelidad necesario. Puede hacerlo con una teoría simple o una formulación 1-D y un cálculo MATLAB / Excel y puede hacerlo con una sofisticada simulación por computadora, pero si el diseño se puede hacer o el problema se puede resolver con el primero, no tiene tantos detalles para procesar y puede avanzar mucho más rápido en el diseño del sistema enfocándose en parámetros críticos.

Para la segunda pregunta, te topas con el problema de la incertidumbre estocástica y las interacciones no lineales. Esencialmente, todas las entradas al cálculo tendrán incertidumbres y variaciones que afectarán los resultados finales del cálculo. Hay suposiciones que se hacen al configurar el modelo, como una temperatura constante o tensión constante o propiedades uniformes / isotrópicas del material que en realidad solo son válidas dentro de un cierto grado de certeza estadística.

Luego hay interacciones no lineales entre los diferentes fenómenos que ocurren dentro del sistema, algunos de los cuales están incluidos en el modelo y el resto ignorados, principalmente porque suponemos o estimamos que no son tan importantes.

Si tiene una simulación de muy alta fidelidad, entrará en una situación en la que las incertidumbres y las interacciones no lineales tendrán un mayor impacto en la respuesta final que la fidelidad o precisión adicional del cálculo. Necesitará caracterizar y / o capturar la mayoría de estos e incluirlos en los cálculos de alguna manera. Por lo tanto, un cálculo de muy alta fidelidad se limitará típicamente a problemas simples bien caracterizados.

En el mundo de los CFD, casi todos los softwares principales pueden hacer un cálculo de DNS para capturar todos los remolinos turbulentos, pero la gran mayoría de los cálculos de CFD todavía se ejecutan con modelos de turbulencia RANS, a pesar de la gran potencia de cómputo disponible en la actualidad.

Cuando intentas responder preguntas de ingeniería del día laboral y evaluar múltiples diseños, eso es lo suficientemente bueno. Para algunas aplicaciones en las que intentan diseñar hasta el enésimo grado para que sea un diseño lo más confiable posible, como las turbinas de gas, utilizan modelos de mayor fidelidad un poco más cerca de DNS, como LES. Pero prácticamente nadie fuera de la academia o los laboratorios de investigación usa DNS. Si todos los practicantes de CFD tuvieran acceso a una potencia informática ilimitada, probablemente aún no la usarían.

Las matemáticas discretas son en realidad más complicadas que las matemáticas continuas. Las ecuaciones de diofantina que usan solo los enteros conducen a muchos, muchos problemas sin resolver.

Es posible que haya oído hablar del famoso último teorema de Fermat que, a pesar de su nombre, fue una conjetura que derrotó a los mejores matemáticos durante siglos antes de que Andrew Wiles lo probara recientemente. Fue un problema matemático discreto buscar soluciones en números enteros para la ecuación

[matemáticas] a ^ n + b ^ n = c ^ n, n> 2 [/ matemáticas]

Esta ecuación ni siquiera es levemente interesante si [matemáticas] a, b, c [/ matemáticas] pueden ser números reales.

De manera similar, se considera que factorizar grandes números en sus componentes primos es muy difícil computacionalmente (NP-hard de hecho). Ni siquiera es un problema encontrar dos números reales que se multipliquen a un tercer número dado.

No veo ninguna razón para creer que modelar discretamente fluidos, por ejemplo, sería más simple que los modelos continuos. Ambos son terriblemente difíciles. Es por eso que hice matemáticas puras en lugar de matemáticas aplicadas 🙂

No estoy muy seguro de lo que estás proponiendo. ¿Estás pensando en modelar el átomo o las moléculas individuales?

Si es así, primero tenemos que entender la escala del problema. La constante de Avogadro nos dice el número de átomos / moléculas en 1 mol de una sustancia. Ahora 1 mol de agua pesa alrededor de 18 gy la constante de Avegadro es 6E23, por lo que si queremos modelar 18 g de agua tendríamos que observar 600,000,000,000,000,000,000 de moléculas individuales. La mejor computadora del mundo funciona con 33 pentaflops, es decir, 33E15 operaciones por segundo. Entonces, hacer una sola operación en cada molécula tomaría casi 2 millones de segundos o 210 días.

Para hacer las cosas aún más difíciles, incluso las interacciones individuales molécula-molécula son cosas enormemente complicadas de resolver. Esto nos lleva al ámbito de la mecánica molecular que en sí mismo es solo aproximaciones empíricas a las propiedades mecánicas cuánticas subyacentes. Entonces, en efecto, reemplazaríamos un problema computacionalmente difícil con otro problema computacionalmente difícil que se ejecuta un sextillón de veces.

Declaración de problema muy confusa. ¿Quiso decir simplemente: “¿Cuál es el cálculo más fácil, discreto o continuo?” No he oído hablar de un método continuo para las formas complejas, las condiciones de contorno, las cargas, las áreas de contacto, las concentraciones geométricas de tensiones, etc., que uno encuentra en los problemas de análisis de tensiones de la vida real, por ejemplo. FEA, como se practica actualmente, maneja todas estas cosas bastante bien. Hay una variedad de tipos de elementos y solucionadores para elegir según el problema. Puede refinar la malla en áreas que lo requieran. Mejor dedique su tiempo a convertirse en experto en el uso de FEA (por ejemplo, ANSYS o COSMOS en SolidWorks). Igual de importante es la descripción precisa de la carga y otras condiciones aplicables en cada caso. Las herramientas actuales son poderosas y también hay mucha potencia de cómputo disponible. Especular sobre la fantasía del poder de cómputo ilimitado no tiene sentido. Usamos las herramientas que tenemos.

More Interesting

¿Existe, por casualidad, alguna interconexión entre la teoría de la complejidad computacional y el aprendizaje profundo?

¿Existen los números irracionales que no son construibles en la recta numérica real?

¿Cuál es el mejor libro para explorar la profundidad del problema P versus NP?

¿Cuántas soluciones totales hay en este problema combinatorio?

Apelo en matemáticas pero quiero obtener un título de CS porque me encanta la programación. ¿Qué tengo que hacer? ¿Hay alguna alternativa?

¿Hay algún algoritmo del orden O (sqrt (n))?

¿Crees que P = NP o no? ¿Por qué?

¿Cómo explicaría las diferencias subyacentes entre álgebra lineal, establecer álgebra teórica y álgebra relacional (especialmente desde una perspectiva CS / base de datos)?

¿Cuál es la complejidad temporal para ordenar n cadenas de n caracteres, cada una utilizando un orden lexicográfico?

¿Qué haría como programador (específicamente un ingeniero de software) que implicaría un conocimiento matemático sólido?

En el siguiente problema, ¿cuántas combinaciones posibles de sombreros hay para que nadie use el mismo color de sombrero?

Tengo los datos de todos mis productos (altura-ancho-longitud) pero quiero encontrar el número óptimo de cajas N y el tamaño de cada N cajas (medidas como HWL). ¿Cómo puedo hacerlo?

¿Existe una secuencia de bits perfectamente aleatoria?

Cómo formular un programa entero donde todos estén representados en un horario

¿Cómo obtengo un límite superior para T (n) = T (n / 2) + n?