Fue un problema de pollo y huevo. El rendimiento del algoritmo no siempre se puede limitar matemáticamente y los detalles de implementación se hicieron mucho más difíciles debido a las limitaciones de memoria. Los teóricos nunca podrían esperar ser tan competentes como los programadores y no podrían probar las teorías en el hardware limitado. Sin la implementación real, el progreso en las pizarras blancas fue más lento y muchas hipótesis erróneas tendrían que ser probadas / descartadas matemáticamente, lleva tiempo. Podemos probar los criterios de hipótesis mucho más rápido con una implementación real en estos días. Debido a que todo fue más lento, extrañaríamos ciertas ideas que son mucho más fáciles de adquirir en estos días. Tampoco podría trabajar en múltiples proyectos simultáneamente porque consumía más tiempo sin acceso a todo el marco de abstracción que damos por sentado en estos días. Por lo tanto, estaría involucrado en la creación de marcos tanto como la investigación real.
La velocidad del procesador no era en sí misma la mayor limitación, pero la memoria, el ancho de bits y las velocidades de lectura y escritura sí lo eran. Los estándares de punto flotante tampoco estaban tan formalizados como ahora (se introdujeron en 1985), por lo que cada ejercicio tuvo que volver a comprobarse varias veces. Todos nuestros algoritmos de cálculo fueron verificados / implementados contra un conjunto de pruebas LINPACK limitado (LAPACK fue lanzado en la década de 1990).
- ¿Cuáles son algunos temas candentes en la investigación en nanotecnología?
- ¿Cuáles son los proyectos que un estudiante de primer año de informática puede hacer en el verano?
- ¿Cuál es la importancia de la investigación algorítmica de la teoría de juegos?
- ¿Cómo se puede construir una carrera en investigación en el campo (s) de sistemas operativos y / o redes?
- ¿Qué campos de investigación tendrán más impacto fuera de la academia en los próximos años?