¿Por qué las redes neuronales funcionan tan bien? Tenemos cierta comprensión teórica pero no mucha. Hacemos un degradado decente sobre un espacio no convexo, por lo que deberíamos obtener un impulso óptimo. Ehrn nos acercamos? ¿Cuál es el espacio de hipótesis efectivo que cubrimos? De manera más general, ¿cómo afectan la optimización / búsqueda heurística y la construcción codiciosa del modelo a la generalización de los modelos? Como no estamos optimizando en un espacio bien definido, la analasis PAC regular no funciona silenciosamente.
¿Qué es un modelo simple? Ciertas ideas son intuitivas y tienen sentido para nosotros los humanos. ¿Podemos usar esto para hacer modelos más simples y no simplemente controlando el número de variables u hojas en un espacio artificial? ¿Podemos buscar automáticamente modelos que sean más simples y medir la simplicidad en un sentido más humano? ¿Se generalizarán mejor estos modelos?
Transferencia de aprendizaje. Esta es un área que todavía no entendemos muy bien. ¿Podemos aprender no solo de diferentes distribuciones sino de diferentes problemas en conjunto? Hemos visto un montón de casos en los que esto funciona, pero no puedo decir que lo comprendamos demasiado bien o que lo hagamos regularmente.
- Cómo usar el lenguaje C para escribir un programa para hacer una matriz de multiplicación que permita 1, 2, 3, 4, 5, 6 o 7 hilos que corren paralelos
- ¿Existe alguna notación conveniente, como la notación factorial (n!) Para expresar la suma de todos los números contados del 1 al n?
- ¿Cómo probarías que el problema máximo de conjunto independiente en los gráficos está en la clase NP?
- ¿Qué subcampo o resultado en matemática pura podría ser el próximo en encontrar aplicaciones (sorprendentes) del mundo real?
- Dado un número X, encuentre el siguiente número con el mismo número de 1 bits en su representación binaria. Para la entrada x = 12, ¿la salida sería 17?
Y muchos más.