Depende del tipo de problema que intente resolver. Por ejemplo, si desea trabajar con datos genéticos, los datos que puede tener son prácticamente infinitos. Si está trabajando en el aprendizaje profundo para aplicaciones de voz o PNL, las compañías como Google tienen muchos datos provenientes de todos nuestros dispositivos (cuando usamos la búsqueda por voz). Si está buscando aplicar el aprendizaje profundo para imágenes, empresas como Facebook y Google no tienen escasez de dichos datos.
La limitación en el uso de IA para resolver problemas de la vida real no se deriva del hecho de que requiere una gran cantidad de datos, está limitada por su acceso a grandes cantidades de datos y tecnología para manejar el flujo de datos para tales grandes cantidades de datos (usted necesitará un procesamiento de datos distribuido para aplicaciones a gran escala, por lo que probablemente necesitará un grupo de GPU y habilidades para manejarlas, como Spark o Hadoop). Con el aumento de las herramientas para manejar el procesamiento paralelo y con el aumento de la tecnología GPU, el uso de una gran cantidad de datos para lograr un aprendizaje automatizado definitivamente se está volviendo más fácil día a día.
Por lo tanto, no creo que el requisito de grandes cantidades de datos sea una gran limitación para la IA.
- ¿Por qué el aprendizaje profundo solo funciona bien en datos no estructurados?
- ¿Puede un principiante de programación sumergirse profundamente en el aprendizaje automático y el aprendizaje profundo directamente?
- ¿Qué computadora portátil debo obtener para aprender el aprendizaje automático, usando SAS, R, MATLAB, Python, etc.?
- ¿Existe una diferencia práctica y significativa entre los términos 'función objetivo' y 'función de pérdida' en el aprendizaje profundo?
- ¿Existen algoritmos que hacen lo contrario de la detección de anomalías, por ejemplo, señalan ocurrencias regulares en datos ruidosos?