Si un AGI (Inteligencia General Artificial) es mejor que un ser humano en todos los sentidos, entonces la respuesta debe ser SÍ porque un humano puede descubrir y probar exhaustivamente (no “probar”) una ley de la naturaleza. Habiendo dicho eso, hay algunas advertencias y cosas que entender sobre esta declaración.
El aprendizaje automático como lo practicamos actualmente no busca generalizaciones, produce predicciones a partir de pilas de datos. Puede hacer excelentes predicciones sin desarrollar una regla o ley subyacente. ¿Necesitamos desarrollar máquinas que funcionen para encontrar la ley? ¿O estaremos satisfechos con el tipo de poder predictivo que posee Watson con respecto al diagnóstico médico (por ejemplo)? Buenas predicciones pero sin comprensión subyacente.
Una máquina que se sienta en un escritorio y recibe datos nunca puede desarrollar una ley de la naturaleza y probarla exhaustivamente. La máquina debe “ver por sí misma” para probar sus teorías. Debe tener acceso ilimitado a la “realidad”, de lo contrario podría ser víctima de un engaño elaborado por sus manipuladores. Solo una máquina autónoma , con sentidos y movilidad podrá hacer lo que está pidiendo.
- ¿Cuáles son los algoritmos utilizados en los sistemas de preguntas y respuestas en PNL?
- ¿Es posible usar datos sintéticos (no de la vida real) en un modelo de aprendizaje automático?
- ¿Son útiles los procesos jerárquicos de Dirichlet en la práctica?
- ¿Cómo se compara la industria del aprendizaje automático con las opciones de carrera dentro del desarrollo web?
- ¿Puede el aprendizaje automático ayudar con la ciencia del clima?
Por lo tanto, no busque su computadora de escritorio o iPhone para realizar descubrimientos científicos en el corto plazo.