¿Fue la sofisticación de los algoritmos o los límites del poder computacional lo que limitó la investigación de IA en los años 70 y 80?

Fue un problema de pollo y huevo. El rendimiento del algoritmo no siempre se puede limitar matemáticamente y los detalles de implementación se hicieron mucho más difíciles debido a las limitaciones de memoria. Los teóricos nunca podrían esperar ser tan competentes como los programadores y no podrían probar las teorías en el hardware limitado. Sin la implementación real, el progreso en las pizarras blancas fue más lento y muchas hipótesis erróneas tendrían que ser probadas / descartadas matemáticamente, lleva tiempo. Podemos probar los criterios de hipótesis mucho más rápido con una implementación real en estos días. Debido a que todo fue más lento, extrañaríamos ciertas ideas que son mucho más fáciles de adquirir en estos días. Tampoco podría trabajar en múltiples proyectos simultáneamente porque consumía más tiempo sin acceso a todo el marco de abstracción que damos por sentado en estos días. Por lo tanto, estaría involucrado en la creación de marcos tanto como la investigación real.

La velocidad del procesador no era en sí misma la mayor limitación, pero la memoria, el ancho de bits y las velocidades de lectura y escritura sí lo eran. Los estándares de punto flotante tampoco estaban tan formalizados como ahora (se introdujeron en 1985), por lo que cada ejercicio tuvo que volver a comprobarse varias veces. Todos nuestros algoritmos de cálculo fueron verificados / implementados contra un conjunto de pruebas LINPACK limitado (LAPACK fue lanzado en la década de 1990).

Límite de poder: sí. Pero también diferencia en el dominio.

En los sistemas de razonamiento, estábamos tratando de hacer demasiado. Queríamos elaborar reglas para diagnosticar pacientes. Los sistemas de razonamiento actuales clasifican los URI en las propiedades disponibles. Se trata más de hacer menos con muchos más datos.

En Machine Learning, que sé menos, también trabajamos con conjuntos mucho más pequeños y con mucha menos demanda. Los métodos bayesianos existieron y fueron utilizados. Sin embargo, para que Data Science se convierta en el rey, debe agotar otras opciones, como procesos ineficaces, altos gastos generales, etc.

More Interesting

¿Los procesadores se ralentizan con la edad?

¿Cuál es el estado del arte en redes anónimas abiertas P2P optimizadas para transmitir música o video?

¿La investigación académica de CS es realmente valiosa? No he encontrado casi nada valioso o innovador en ellas (excepto casos muy raros en los que los autores tienen una conexión muy estrecha con la industria).

¿Cuáles son algunas buenas áreas de investigación en informática en IIT Kanpur?

En la investigación de CS, ¿cuál es la relación de pensamiento a implementación?

¿Cuáles son algunos buenos temas en criptografía que se están investigando actualmente en informática?

¿Qué universidades contienen los departamentos de informática más prácticos?

¿Cuáles son algunas de las buenas prácticas seguidas por los investigadores de CS?

Dados los recientes avances en la curación de la ceguera, ¿sigue siendo relevante la investigación en informática de accesibilidad para discapacidades visuales?

¿Cuál es el estado actual del arte en visión biomimética por computadora?

Cómo publicar una investigación de inteligencia artificial si actualmente no estoy en la academia o en un entorno de investigación de la industria

¿Puede señalarme un buen artículo que profundice en algunas posibles direcciones futuras del aprendizaje automático?

¿Ha habido algún progreso en la arquitectura de subsunción desde que se introdujo?

¿Le preocupa la investigación en NN y el aprendizaje profundo, ya que los resultados se basan en demasiados resultados sin respaldarlos con una explicación teórica sólida?

¿Cuáles son algunos de los mejores sitios web sin conexión disponibles relacionados con los departamentos de informática?