R es un lenguaje. Spark es una plataforma para el procesamiento de datos paralelos a gran escala. No son mutuamente exclusivos. SparkR, por ejemplo, es la interfaz de lenguaje R para Spark.
R, como lenguaje, es el más adecuado y está diseñado para la programación estadística. Se puede usar como un lenguaje multipropósito, pero es difícil de usar para la programación general. No es específicamente un lenguaje para la informática de alto rendimiento, pero puede acceder a las tecnologías HPC a través de él (SparkR es un ejemplo).
Spark es bastante específico para cierto tipo de computación de alto rendimiento. Hay enlaces de lenguaje para esto en Java, Scala, R, Python, C #, Groovy y Clojure. Proporciona un marco para manejar datos y distribuir operaciones en los datos de manera eficiente y a escala.
- ¿Cómo entrenamos un clasificador para el cual solo tenemos: 1) un conjunto de datos que son datos de entrenamiento explícitamente positivos y 2) un conjunto de datos que se desconoce (tiene el potencial de ser positivo o negativo)?
- ¿Hay algún instituto que ofrezca aprendizaje automático?
- ¿Qué es más poderoso, la red neuronal convolucional o la red artificial? ¿Cuál es más conveniente de usar?
- ¿Qué tan buena es la Universidad de Edimburgo, en comparación con la CMU para estudios de posgrado e investigación en aprendizaje automático y neurociencia computacional?
- ¿Se están utilizando redes neuronales profundas para crear estrategias de fondos de cobertura / HFT?
No es una o ninguna perspectiva. Si desea hacer un trabajo estadístico, o usar algunas de las bibliotecas de aprendizaje automático de R, entonces, por supuesto, elija R. Si está tan contento con otra cosa, úsela. Si desea utilizar Spark y R juntos, investigue SparkR.