¿Debería cada científico de datos crear su propia red neuronal al menos una vez?

Creo que eso sería genial. Lo que no creo que sea tan útil es, como otros también han señalado, reinventar la rueda .

Esta es una razón importante para nuestra elección (en WordMaps) de convertirnos en un proveedor de plataforma.

Aunque, en el análisis cualitativo, puede haber grandes diferencias en cuanto a lo que un analista en particular quiere extraer de los datos, también hay una superposición potencialmente útil entre los deseos y las necesidades de los diferentes analistas. Aquí hay algunos ejemplos de intereses compartidos:

  1. ¿Dónde pasan las cosas? Geografía
  2. ¿Cuándo suceden las cosas?
  3. Por qué suceden las cosas: valores, normas, reglas, objetivos, metas
  4. Cómo se hacen las cosas: habilidades, comportamientos
  5. ¿Cómo se siente la gente acerca de las cosas: valencia emocional, sentimientos?

El mapeo de estos y muchos otros temas permite una amplia gama de análisis lógicos, incluido el análisis de intersección de la coexistencia de cualidades .

Aquí hay un ejemplo de la intersección entre la comida mexicana y el sentimiento en más de 500,000 reseñas de alimentos :

Se seleccionaron 10 platos para el análisis (dos quedaron fuera debido a que no ocurrieron las revisiones de alimentos analizadas)

La coincidencia se busca dentro del alcance de un párrafo. También podría haber buscado coincidencias dentro del alcance más estrecho de una oración o el alcance más amplio de los textos completos.

Estos son algunos de los tokens involucrados en la identificación de los temas a analizar:

Sin una plataforma que ofrezca una variedad de temas compartidos, este análisis no habría sido algo en tiempo real. Como los usuarios documentaron y compartieron su trabajo, se necesitaron menos de 5 minutos para hacer las preguntas y documentar los resultados.

A2A. Hacer su propia implementación de cualquier algoritmo o modelo de aprendizaje automático proporcionará una intuición funcional más profunda. La implementación de un ejemplo de cada uno de los principales enfoques algorítmicos ciertamente debería estar en el camino para convertirse en un científico de datos oficial. No solo debe codificar una red neuronal, debe codificar CNN y RNN con varios métodos, como LSTM, GAN y nuevas variaciones a medida que salen de la investigación.

Hay una advertencia con respecto a la cantidad de esfuerzo que debe gastar en esta área. Si bien seguramente será un lugar común con el tiempo, los DNN generalmente requieren conjuntos de datos más grandes. Si es poco probable que trabaje con conjuntos de datos suficientemente grandes, debe limitar su inversión en DNN hasta que cambie su situación. El aprendizaje de transferencia es prometedor para situaciones en las que tiene un conjunto de datos más pequeño y puede aprovechar un DNN capacitado en un conjunto de datos grande de un espacio de problemas relacionado. Si está interesado en trabajar en DNN como núcleo de su trabajo, entonces debe usar DNN en competencias, como Kaggle; hacerlo bien y alguien lo notará.

Ya sabes cómo todos los demás desarrolladores siguen diciendo

  • No reinventes la rueda
  • Mantenlo simple

Sabes el tipo, ¿verdad? Bueno, esa es la razón por la que tantos desarrolladores por ahí apestan en estos días.

Uno de mis héroes, Richard Feynman, seguía diciendo que solo entiendes algo correctamente si puedes explicárselo a los demás de una manera que lo entiendan perfectamente.

Ahora déjame hacerte una pregunta. ¿Cómo puedes entender algo en ese nivel si solo sigues usando bibliotecas y nunca te ensuciaste las manos?

En mi carrera, utilicé este enfoque con solo unas pocas excepciones (todavía tengo que implementar el sistema operativo: D) y me sirvió mucho.

¡Es por eso que no solo respondo SÍ, les ruego que dejen de ser flojos y ayuden a llevar nuestra civilización a nuevas alturas! ¿Quien está conmigo?

Después de meses de estar sentado y estudiar cálculo, vectores y matrices que en ese momento estaban muy lejos de lo que estaba aprendiendo en la escuela secundaria, finalmente pude calcular mi primera derivada a una función de costo.

En ese momento, de repente todas las ecuaciones que estaba mirando durante las últimas semanas hicieron clic, tenían sentido. Por primera vez me di cuenta de cómo funciona la propagación hacia atrás y el descenso de gradiente.

Nunca me detuve a pensar si debía hacerlo, no pude evitarlo, corrí hacia la computadora y me senté hasta las 3 de la mañana para codificar mi primera red neuronal entrenable.

No optimizado, simple y mal escrito, pero fue mío y el primer código que escribí fue “verdaderamente” ML.

Asi que….

Deberías? Probablemente. para entender mejor los conceptos

¿Podrías? Ciertamente, no solo por ninguna razón racional, sino más bien debido a tu entusiasmo nerd que te hará escribir código toda la noche

Entrené mi primera red neuronal en una función sigmoidea simple. Tomó solo unas pocas semanas desde allí llegar a la convolución y construir mi reconocedor de dígitos escrito a mano. Porque una vez que los conceptos centrales comienzan a hacer clic desde allí, simplemente están subiendo.

Quiero suponer que por “hacer su propia red neuronal” se refería a implementar una red neuronal desde cero (sin invocar libs / paquetes o frameworks DL previamente implementados).

Lo recomiendo mucho !! Por todo lo que vale la pena, el ejercicio lo mantendrá bien arraigado en los conceptos que son bloques de construcción. Obtendrá una comprensión más profunda de los cálculos múltiples en los pasos hacia adelante y hacia atrás, sin mencionar la codificación de todas las funciones, incluidos el cálculo de costos, los derivados, la implementación de varias optimizaciones, etc. Una implementación exitosa de una red neuronal profunda demuestra su comprensión de los conceptos subyacentes comunes. a ML / DL y son fundamentales para el análisis predictivo.

Pero, ¿por qué esto sería importante para un científico de datos además de demostrar su capacidad para hacerlo y tal vez verse bien? Las bibliotecas / paquetes y marcos están bien para prototipos y si la solución a un problema dado no es a largo plazo. El uso de libs / paquetes y / o marcos de implementación previa tiene sus propios pros y contras;

Pros: # 1. Construcción de modelos rápida y eficiente # 2. Algunos de los paquetes o marcos lib / están altamente optimizados debido a que se han invertido años de investigación en implementarlos # 3. Código comprimido y fácil lectura

Contras: # 1. Comercialización de un lib / paquete o marco: no hay garantía de que un software de código abierto siga siendo de código abierto # 2. ¡Las funcionalidades se pueden mover en cualquier momento y su código se rompe! # 3 Deficiente a la falta de una adecuada lib / paquete de gobierno y mantenimiento

Sopesa tus compensaciones. Si cree que necesitará crear productos predictivos impulsados ​​a la producción a largo plazo, le recomiendo evitar el uso de los llamados marcos de código abierto. Recomiendo usarlos para crear un prototipo de la solución y obtener un poco de comprensión sobre su problema, datos y cosas que posiblemente tenga en cuenta.

Sí, creo que cada científico de datos debería hacer una red neuronal. Luego deberían aprender de él, actualizar su pensamiento en función de lo que aprendieron y luego crear otra red neuronal. Luego, deben aprender de él, actualizar su pensamiento en función de lo que aprendieron y luego crear otra red neuronal. Finalmente, deberían aprender de él, actualizar su pensamiento en función de lo que aprendieron y luego crear otra red neuronal.

Como posible ejercicio para los científicos de datos avanzados, deben crear una red neuronal que las haga, actualizar su forma de pensar acerca de las redes neuronales que hacen redes neuronales y luego crear una nueva red neuronal.

¡Espero que hayas aprendido de esto, actualices tu pensamiento y veas a hacer una gran red neuronal!

Yo diría que cada científico de datos debería hacer sus propios algoritmos en general al menos una vez. En la escuela de posgrado, derivamos muchos algoritmos comunes con un papel y un lápiz para practicar, luego aprendimos cómo implementarlos en R. Es una buena práctica, y lleva a casa los componentes principales de un algoritmo: las piezas que ves en los documentos de aprendizaje automático ( ver aquí: https://www.slideshare.net/Colle …).

Yo diría que cada científico de datos debería hacer sus propios algoritmos en general al menos una vez. En la escuela de posgrado, derivamos muchos algoritmos comunes con un papel y un lápiz para practicar, luego aprendimos cómo implementarlos en R. Es una buena práctica, y lleva a casa los componentes principales de un algoritmo: las piezas que ves en los documentos de aprendizaje automático ( ver aquí: Crea tu propia red neuronal en Kindle)

Eso es un poco como preguntar si todos deberían aprender a conducir de forma manual (stick).

Por supuesto, porque una vez que haya aprendido, comprenderá mejor cómo funciona un automóvil, cómo hacer que haga lo que desea y cuándo es apropiado tomar ciertas decisiones.

Pero eso no significa que las personas que no aprenden no sean conductores calificados. Simplemente significa que carecen de una profundidad de conocimiento particular con la que nunca tuvieron que toparse, y posiblemente, muy probablemente nunca lo necesiten.

Depende de tu estilo de aprendizaje.

En mi caso, si. Lo hice varias veces Es como cuando desmontas un motor y lo vuelves a poner. después de eso no tendrá secretos para ti.

Pero sé, algún otro amigo que no lo necesito. Las matemáticas como suficientes.

Comprender las matemáticas detrás es esencial, la forma en que obtienes esa comprensión depende de ti. La mayoría de nosotros intentamos pasar la nomenclatura correctamente una vez, pero esto depende totalmente de usted.