Hablando sobre aprendizaje automático y sobre las técnicas de tendencia hoy en día, no en el corto plazo. Como puede ver, el desarrollo más interesante en el aprendizaje automático es hacia el nivel de hardware en formas de implementación FPGA y / o computación GPGPU. Ambas técnicas (y muchas otras) tienen el propósito específico de aliviar la carga de la CPU y ambas aportan un enfoque muy diferente a las asignaciones de memoria y un gran enfoque en la programación paralela.
Ahora, digamos que mañana alguien lanza un compilador de php que genera una aplicación con rendimientos comparables con el generado por el compilador de Java para el mismo algoritmo, todavía tiene un lenguaje con soporte de programación paralela horrible, sin biblioteca matemática (que inevitablemente se escribirá en ensamblado) e incapaz de acceder a recursos de bajo nivel como GPU.
No es que PHP / Java / Lo que sea e incluso C / C ++ sea lento, es que las CPU no son eficientes para esta tarea. Puede existir un marco para ML en PHP, pero será del mismo tipo de scikit con capas computacionales internas escritas en algo más eficiente.
- ¿Cómo puedo usar las redes neuronales convolucionales recurrentes (RCNN) para correcciones tipográficas de OCR?
- ¿Cuáles son algunos ejemplos de simulaciones de fenómenos emergentes?
- ¿Cómo se aplica la inteligencia artificial a los sistemas de transmisión automática en automóviles?
- ¿Cuáles podrían ser las consecuencias para la sociedad económicamente, cuando los robots comienzan a tomar más trabajos?
- ¿La Inteligencia Artificial afectará a todas las industrias y empresas si se vuelve real?