Como sugirieron otras respuestas, la comunidad Node aún no ha proporcionado una línea de base bien conocida para la ciencia de datos. Sin embargo; También hay algunas limitaciones técnicas.
Node todavía está sujeto a limitaciones del motor de JavaScript subyacente, que a partir de este escrito, sigue siendo solo V8. Hay algunos límites de memoria física (creo que son 32 GB) que no se pueden exceder sin escribir un sistema más complejo. Para muchos conjuntos de datos, este no es un problema importante, pero si realmente se trata de grandes datos o requiere una gran cantidad de almacenamiento temporal para algoritmos de varios pasos, esa RAM se puede comer muy rápido. Por ahora, esto requiere producir su propio sistema de procesamiento paralelo, que generalmente no es el foco principal de la ciencia de datos. Simplemente actúa como una barrera innecesaria (en comparación con otras soluciones).
ES 2017 y más allá colocó algo en la especificación llamada “Memoria compartida”, que es básicamente multihilo para JavaScript. Probablemente no aterrizará en JS Engines hasta 2018/2019, pero eliminará una de las principales barreras para tratar con grandes datos en JavaScript. Una vez que se proporciona un marco / plataforma simplificado para esto, puede hacer que Node sea una herramienta más lucrativa para la ciencia de datos.
- Cómo aprender a recuperar, insertar, buscar datos en Big Data
- Si mi interés principal son las series temporales, ¿debería enfocar mi energía en aprender Python o R?
- Si encripta un SSD sin primero borrar de manera segura los datos antiguos, luego llénelos con datos encriptados, ¿podrían los datos no encriptados aún ser recuperables?
- ¿Desde dónde debería comenzar para aprender el desarrollo de big data?
- ¿Qué estrategias sugiere para resolver este problema de detección de fraude en un negocio minorista y de suministro con minería de datos y análisis de datos?