Por supuesto. Una red neuronal suficientemente grande puede imitar fácilmente uno de los muchos algoritmos para producir los dígitos de [math] \ pi [/ math]. Claro, tendrá que ser lo suficientemente grande como para acomodar la lógica y la memoria necesarias para las variables, pero no hay nada fundamentalmente impredecible en esos dígitos. Son perfectamente computables, con programas informáticos realmente cortos.
No hay razón para intentar esto, de verdad. No hay razón para esperar ninguna revelación profunda de una red neuronal que aprendió a calcular los dígitos de [math] \ pi [/ math], aunque puede ser interesante desde la perspectiva de estudiar el poder expresivo de NNs y la cantidad de información necesitaba entrenar para un algoritmo corto pero algo complejo. Honestamente, los NN no son un paradigma algorítmico adecuado para este tipo de computación.
Sin embargo, desde una perspectiva matemática, no hay razón para esperar que esto sea perspicaz o útil. Ya tenemos muchos algoritmos para calcular esos dígitos con precisión y para siempre, y cualquier problema abierto que quede no se resuelve fácilmente usando tales algoritmos. Las preguntas son sobre la secuencia infinita en sí misma, en su conjunto, y requieren herramientas de análisis matemático para abordar.
- Tengo un conjunto de datos con 14 características. Quiero aplicar SVM en él usando R. ¿Cómo puedo?
- ¿Por qué los LSTM generalmente se entrenan con backprop y no con EKF?
- ¿Cómo podría usar el aprendizaje automático para clasificar los datos 1D?
- ¿Qué es mejor para la dirección de investigación de visión por computadora, redes neuronales o modelos gráficos probabilísticos?
- ¿La red neuronal convolucional es básicamente un procesamiento previo de datos a través del núcleo más las redes neuronales? ¿Acaso Deep Learning no es solo redes neuronales con preprocesamiento para las selecciones de funciones automatizadas?