¿Son importantes los números complejos para la informática? Si es así, ¿por qué?

Los números complejos aparecen en algunos lugares en informática. Es similar para la trigonometría y otras matemáticas de secundaria. Estas son materias con las que se supone que los estudiantes están familiarizados, por lo que pueden usarse como fuente de ejemplos sin demasiados preliminares.

El primer lugar (y generalmente el último) que vemos números complejos en CS es el ejemplo prototípico de una clase o un tipo. Un número complejo es un ejemplo fácil de entender de un objeto en el sentido de Programación Orientada a Objetos. Podemos mostrar los datos, una parte real y una parte imaginaria, y las operaciones sobre los datos implementados como métodos. Es el caso de uso raro para la sobrecarga del operador. Hay aspectos de diseño interesantes: ¿representamos en coordenadas rectangulares o polares o ambas, y si es esto último, cómo y cuándo convertimos?

Otro lugar son los gráficos por computadora. En el caso 2D, los puntos pueden ser números complejos, y las rotaciones y traslaciones y reflexiones de esos puntos corresponden a varias operaciones en números complejos. Los números complejos se generalizan a cuaterniones, que son útiles para gráficos 3D. Pero esto es un poco exagerado; los gráficos a menudo se enseñan usando matrices y vectores sin preocuparse por los números complejos.

En realidad, no se trata de informática, pero muchos científicos informáticos terminan trabajando en sistemas que procesan señales digitales de audio u otras señales. A menudo, esos sistemas realizan transformaciones rápidas de Fourier por una razón u otra. El típico FFT ingresa números complejos [matemáticos] 2 ^ n [/ matemáticos] y produce números complejos [matemáticos] 2 ^ n [/ matemáticos] como salida. Obviamente, si uno está haciendo este tipo de cosas, necesita saber cómo lidiar con números complejos.

Hay otros lugares donde pueden surgir, generalmente como conocimiento de la aplicación que debe entenderse antes de que se pueda escribir un programa. Un sistema de álgebra computacional o uno que simula la mecánica cuántica podría ser un ejemplo aquí.

En resumen, los números complejos no son particularmente importantes o fundamentales en informática. Aparecen como ejemplos o se necesitan conocimientos de aplicación aquí y allá.

No si no estás haciendo cosas multimedia o numéricas (por ejemplo, simulaciones).

El uso más obvio de los números complejos se encuentra en los cuaterniones, que son solo números complejos 4d generalizados. Estos se utilizan para rotaciones en aplicaciones gráficas.

Los métodos numéricos están más cerca del lado matemático. Aparecerán números complejos cuando hagas cosas como transformadas de Fourier o series de potencia. Hablando francamente, si tienes la determinación de aprender esas cosas, puedes aprender números complejos al mismo tiempo en una semana más o menos.

Sí, pero solo para un subconjunto de CS. Dado que CS también se denomina adecuadamente informática, cualquier procesamiento de información que ocurra (incluso sin computadoras) es de nuestra competencia. Entonces, si bien muchos informáticos nunca tocarán números complejos fuera del aula, hay muchos más que los vivirán y respirarán.

Fortran, el primer lenguaje informático, alrededor de 1952, invertido y desarrollado por IBM, finalmente tuvo TYPE COMPLEX & DOUBLE COMPLEX. Al menos la gente de EE lo usó. Como era un tipo intrínseco, los escritores de compiladores generaron un código eficiente.

¿Qué es fortran? Ya no se enseña en las escuelas de EE. UU., Aunque en las pruebas realizadas a fines de los 80, el código generado por Fortran se ejecutó un 20% más rápido que el código C ++, créanme

Entonces, para Ciencias de la Computación, el tipo de datos COMPLEJO no es tan importante.

Es decir, el concepto de TIPO no es importante, ¡lo es!