¿Cómo manejo tanto la programación como la investigación en el área de redes neuronales y redes neuronales profundas?

La investigación está respaldada por la aplicación, la mayor parte del tiempo. Estaba en la situación de proponer algunos modelos NN, y luego llegué con demostraciones matemáticas sobre la capacidad de convergencia o aproximación. Esto es solo la mitad del trabajo, ya que generalmente tiene que ejecutar el modelo (NN) en algunos benchamrks y compararlo con otras redes. Si va a publicar esto en una revista o presentarlo en una conferencia, los revisores le pedirán que lo haga.

Aquí viene la parte de programación: para probar su modelo, debe ejecutarlo. Debería poder cargar los datos, preprocesarlos y luego alimentar su modelo. Aunque el procesamiento previo podría ser un paso separado, lleva a cabo mediante el uso de algunos paquetes / scripts simples, la parte central es poner en práctica su modelo y ser capaz de ajustar distintas partes de la misma (por ejemplo hiperparámetros).

Después de esta validación básica, debe probar su sistema frente a otros modelos. Para hacer esto, debe implementar esos otros modelos y ejecutarlos, o para poder incluir su código en un ecosistema que le permita comparar los resultados. Weka (basado en Java) es un excelente ecosistema, tanto para ajustes iniciales (parte de Explorer) como para comparaciones estadísticas (Experimenter). El rápido Miner recientemente se convirtió en lo más amable para la integración de módulos implementado utilizado. Python (scikit learn) y R (caret) son otros lenguajes que puedes adoptar; El punto principal de esta respuesta es: para el aprendizaje automático Java, R, Python y Octave / Matlab son los lenguajes principales.

Así que sólo lo hacen, como dijo Michal. Asegúrese de que es usted quien implementa su modelo, solo para poder encontrar sus falacias y poder mejorarlo.

Sólo empezar a hacerlo 🙂

More Interesting

¿Cuál es el orden para aprender a usar los campos aleatorios de Markov para el procesamiento de imágenes?

¿Puedo usar la agrupación (k-means, etc.) en un gran conjunto de datos para automatizar el proceso de búsqueda de similitudes y hacer recomendaciones?

¿Qué es el procesamiento del lenguaje natural?

¿Por qué visualizamos filtros en redes neuronales convolucionales? ¿No son los filtros solo conjuntos de pesas? ¿De qué sirve tratar un conjunto de pesas como una imagen?

¿Por qué el 'modelo neuronal McCulloch-Pitts' también se conoce como puerta umbral lineal?

¿En qué se diferencia el aprendizaje automático de la minería de datos?

¿Debo elegir PHP para el aprendizaje automático?

¿Cuál es una buena manera de clasificar los documentos de texto contra un modelo de tema arbitrario?

¿Debo obtener una MacBook Pro con 16 GB de RAM (máximo) para el trabajo de aprendizaje automático, a pesar de que puedo llevar cosas intensas a una instancia de Google Cloud?

En una máquina de vectores de soporte, el número de vectores de soporte puede ser mucho menor que el conjunto de entrenamiento. ¿Cómo puede ser útil esta característica?

¿Cuáles son algunos paquetes de software populares para modelos gráficos?

Cómo encontrar la correlación más fuerte entre los vectores de colores a continuación en MATLAB o Python

¿Es posible comenzar a aprender y trabajar en el aprendizaje por refuerzo y el aprendizaje profundo sin un conocimiento previo sólido de otras clases de ML?

¿Qué hay de nuevo con Wasserstein GAN?

¿Cuál es la diferencia entre TensorFlow y Grep? ¿Cuál es el más adecuado para el aprendizaje automático? ¿Por qué o por qué no?