Vaya por 16 + GB, la última gen-i7 con unidad SSD.
Para conocer el modelado de aprendizaje automático, puede aprender incluso con el procesador iPad Pro (Super. Computadora: D, juego de palabras) o un procesador Atom. Tenía Surface 3 (procesador Atom) y funcionaba bien al ejecutar Rstudio, PyCharm y Chrome en paralelo. No ejecuté ningún código, pero los usé para fines de IDE y navegación.
Si quisiera modelar con conjuntos de datos más grandes (> 1 GB), planifique invertir en piezas de escritorio y construya a mano. Con $ 1200, puede terminar con el escritorio de 64GB, i7 y SSD Drive
- Soy doctora en ingeniería informática con experiencia en aprendizaje automático y optimización bayesiana. Me encantaría evolucionar mi investigación hacia la mecánica estadística y la biofísica. ¿Cómo podría lograr eso? ¿Qué colaboraciones vale la pena buscar?
- Matemática Aplicada: ¿Cuáles son los diferentes métodos para pronosticar datos de series de tiempo?
- ¿Por qué las personas usan Keras en el back-end de TensorFlow y no solo en TensorFlow?
- Con la introducción de la inteligencia artificial, ¿podrán las computadoras tener un alto coeficiente intelectual?
- Cómo comprender mejor las funciones de activación en el aprendizaje automático, especialmente las matemáticas detrás de ellas
Para el cálculo de Machine Learning, podríamos definir la necesidad de poder de cálculo bajo estas tres dimensiones. Volumen, Complejidad del modelo, Munging de datos
Con mi exposición y en la comunidad de reuniones de trabajo, nunca tuve la oportunidad de discutir sobre SAS, la mejora de SAS o los paquetes ML de SAS. No estoy seguro de cómo funciona SAS con operaciones de subprocesos. Mi suposición sobre el manejo de datos de SAS estaría a la par ya que los paquetes data.frame y ML de R son mínimos. Vale la pena investigar
Los paquetes base de R no usan un procesador de cuatro núcleos. Es de un solo hilo. Pero con Sparklyr y data.table, puede utilizar los núcleos y subprocesos múltiples. R + sparklyr / data.table en i7 sería una operación de manipulación de datos de primer nivel en comparación con data.frame de R o los pandas de Python.
No se trata del programa en sí. R / Python son lenguajes de alto nivel y, según mi experiencia, R es más rápido en macos / Linux OS en comparación con Windows. Estoy harto de Windows y su engorroso núcleo. Realice un arranque dual y una interfaz R a través de RStudio-server.
La limitación de volumen se maneja en sparklyr también en data.table. Sparklyr realiza el cálculo en la técnica de transformación perezosa y data.table funciona en la copia superficial del conjunto de datos. Con respecto a la complejidad del modelo, el modelo xgboost es un modelo iterativo. Incluso algunas de las operaciones antes de una iteración son multiproceso. Los paquetes Lasso (Glmnet) están utilizando su quad-core. Como beneficio adicional, puede utilizar Google Chrome cuando tenga i7.
Mi exposición con redes profundas es limitada. Tengo entendido que Deep-nets utiliza GPU. Esperaré otras respuestas sobre la explicación del uso de la GPU
Los SSD son muy importantes y su rendimiento en IO. Su experiencia general con su computadora portátil se cuadruplica con la inversión de SSD. Atom o i7 dependerán de usted, por lo tanto, el tamaño de RAM. La inversión en GPU sería muy específica para las pruebas de redes profundas y FIFA 17.
Excepto como un truco de marketing, no veo ninguna singularidad con i5. Si el costo es el factor principal, escalemos desde procesadores m3-m5 en lugar de i5. i5 suena como un procesador intermedio (Pied Piper !!!). No lo hace!
Adios!