La respuesta corta es que es altamente “improbable” que un individuo diseñe inteligencia artificial general.
Esto es actualmente porque:
- Se requieren muchos recursos para realizar experimentos a escala cerebral, o incluso experimentos mucho más pequeños que se aproximan a la escala cerebral. Como ejemplo , la Inteligencia Artificial más fuerte del planeta, requiere más de 170 GPU para ser entrenadas, y 4TPU para ser utilizadas en la inferencia, que fue organizada por múltiples humanos . (es decir, Google + Deepmind, es decir, fabricantes de TPU e investigadores de aprendizaje automático)
- En el lado de la literatura de software o aprendizaje automático, aunque el material de aprendizaje automático se ha reducido a un pequeño subconjunto de técnicas matemáticas pertinentes como AndrewNg menciona, todavía vemos que ese subconjunto está creciendo rápidamente , ya que el aprendizaje automático / investigación de redes neuronales puede implicar una integración cada vez mayor de campos aparentemente dispares a primera vista. Esto significa que se requieren múltiples humanos para mitigar este factor de integración. Ejemplos de redes neuronales que hacen uso de múltiples campos, son las redes neuronales de teoría del campo medio / aprendizaje múltiple, como el modelo en este documento de Poole et al o Early Visual Concept Learner de Deepmind, donde las variedades donde antes eran simplemente cruciales y centrales para las matemáticas y física, y no explícitamente el aprendizaje automático, hasta hace poco como se ve en los documentos anteriores.
- ¿Cuánta potencia informática se necesitaría para simular un cuerpo humano a funciones celulares individuales?
- ¿Cuándo quedará Android desactualizado?
- ¿Cuáles son algunas de las características que ofrecen los motores de búsqueda como Bing, DuckDuckGo y Baidu, pero no Google?
- ¿Las computadoras cuánticas son realmente reales ahora? ¿Cuándo lo usarán para calcular el significado de la vida? ¿Cuándo resolverá las otras preguntas filosóficas?
- ¿Por qué los profesores de informática no conocen el desarrollo de aplicaciones web completas?
Nota al pie :
Las cosas podrían cambiar de cierta manera en un futuro probablemente lejano.
Tendremos razonablemente:
- Máquinas masivas de tamaño exascale en paquetes pequeños en formas pequeñas asequibles, en comparación con las grandes computadoras exascale de más de 50 millones de dólares de hoy.
- Robustas bibliotecas de aprendizaje automático de alto nivel donde los usuarios pueden aplicar temas muy complejos en pocas líneas o clases, sin conocimientos de bajo nivel. (Al igual que las bibliotecas de hoy, como tensorflow, mxnet, etc.) De todos modos, en lugar de Mean Field Theory como describí anteriormente, uno podría imaginar el aprendizaje automático que involucra Quantum Field Theory , es decir, Lie Superalgebras en el futuro (estoy trabajando meticulosamente al principio versiones de un camino que implica “Redes neuronales artificiales supersimétricas” – basado en la evidencia de supersimetría en cerebros bilógicos) Uno podría imaginar futuros marcos de alto nivel que involucren Lie Superalgebras como métodos para construir redes neuronales, y las personas, ya sean investigadores o kaggler-2039 ers, podrían aplique esto para desarrollar algoritmos generales no triviales.
Sin embargo, al final del día, se requieren cosas como TPU y CPU, en un futuro lejano o no, y probablemente serán facilitadas por las grandes corporaciones. La gran conclusión es que el desarrollo de AGI probablemente será un esfuerzo conjunto.