El problema es que un ANN gigantesco no es mejor que un ANN promedio con una gran cantidad de entradas, y si entrena un ANN, la tasa de error ni siquiera disminuye con el tamaño, solo aumenta el tiempo de entrenamiento exponencialmente y el error final es no se garantiza que baje, también puede aumentar. tampoco se garantiza que una red basada en ANN aprenda nada, incluso si es multicapa, se sabe que el aprendizaje mediante retropropagación logra buenos resultados en redes de 2-3 capas, pero nunca se trata de redes más profundas. Yo también caerá fácilmente en una sobrecompensación, produciendo habilidades de generalización menores o nulas, por lo que su red rinde inutilizable. Nadie afirmó que un gran ANN haría ninguna tarea, la cosa reside en la arquitectura misma.
Solo piense en esto: ¿por qué han pasado tantos años desde CPU simples hasta procesadores inteligentes multinúcleo reales? – La respuesta no está en haber usado millones de transistores pequeños, con tamaños decrecientes … si es así: ¿por qué no construyeron una súper CPU en los años 60 para diseñar las CPU reales? La respuesta, mi amigo, radica en la arquitectura, el paralelismo y las teorías detrás de ellos.
La velocidad y la precisión individuales son inútiles sin una teoría adecuada relacionada con una arquitectura adecuada.
- ¿Aprender las redes de una máquina virtual le brinda todas las habilidades necesarias necesarias en el campo de las redes?
- ¿Cómo será el sistema operativo de la próxima generación?
- ¿De qué manera pueden los robots ayudar a mejorar el medio ambiente?
- ¿Cuál es la diferencia entre las técnicas de computación de IA y las técnicas de computación de investigación de operaciones con respecto a la optimización? ¿Hay alguna diferencia en absoluto?
- ¿Cuáles serán los recursos por los que competirá la verdadera inteligencia artificial?
¡Ahí está el secreto que se encuentra!