¿Pueden las computadoras seguir haciéndose más rápido?

Yo diría que SÍ y NO. Si dices computadora, no solo te refieres a CPU. Te refieres a CPU y memoria y componentes periféricos, etc.
Ahora, si nos fijamos en la historia de la CPU, 2006 fue el año más importante con la llegada del sistema multinúcleo. Debe recordar el motivo de multinúcleo. Los sistemas de un solo núcleo no pudieron ser más rápidos debido a la potencia, la utilización y el ancho de banda. La razón principal para cambiar a multinúcleo fue la potencia y las restricciones térmicas.
Pero ahora, si nos fijamos en los sistemas actuales, nos estamos acercando a la tecnología de un solo dígito. Y con la disminución del tamaño de los transistores, veremos más de ellos en la misma área de matriz. Pero hay un problema con esto conocido como Silicio Oscuro. ¿Podemos alimentarlos a todos a la vez de manera térmica eficiente? Además, si observa la memoria, existe una gran brecha entre la CPU y la velocidad de la memoria. Hay muchos otros factores, uno de ellos mencionado por Wayne Uejio.

Entonces, en general, debería ver un aumento en la velocidad de las computadoras, pero no estoy seguro de si será principalmente debido a la reducción de la tecnología, la arquitectura, el nuevo dispositivo o la velocidad de la memoria.

No solo pueden, sino que ciertamente lo harán. Lógicamente hablando, no hay razón para suponer que estamos cerca de los límites de velocidad de una computadora (suponiendo que realmente haya límites de velocidad) Teniendo en cuenta que las computadoras son efectivamente solo alrededor de 60-70 años, uno podría argumentar que aún están en su infancia. Cosas como el procesamiento paralelo (agregar CPU / núcleos adicionales) y la agrupación siempre proporcionarán una opción para hacer crecer los sistemas, por lo que, en cierta medida, depende de cómo defina una computadora.

El meollo de su pregunta es si es PRÁCTICO o no que las computadoras sean más rápidas. Obviamente, solo agregar CPU / núcleos / blades / nodos a los sistemas tiene costos y limitaciones de ingeniería al igual que agregar más cilindros a un motor tiene rendimientos decrecientes. Según la tecnología en la tubería alrededor de los encogimientos de los troqueles y el diseño mejorado del transistor y la gestión térmica, diría que todavía hay un poco de margen con el silicio tradicional, y cuando las computadoras cuánticas realmente entren en escena en la próxima década o dos, las computadoras de hoy lo harán En comparación, parece un caracol anciano que duerme en melaza.

Por un tiempo, sí, pero la velocidad del límite de luz finalmente entrará en juego. Paralelo ayudará a algunos, pero hay 2 problemas:

`1. ¿Podemos programar para hacer uso del cpus paralelo? ¿La arquitectura interna del chip permitirá el uso paralelo completo? Actualmente no. Además, la mayoría de los programas principales, como rdbms, se escriben de manera lineal con la utilización del sistema para algunos usos paralelos. Muchos programadores de hoy no podrán cambiar a programación paralela

2. Los chips con múltiples cpus son más lentos que los chips de una sola CPU. El tiempo del ciclo era reducir el calor y soportar múltiples cpus que acceden a cachés y memoria. Un solo chip de CPU hace 5 años ejecutó rt 3.3 a 3.8 Ghrz ciclo de tiempo. Los chips de CPU múltiples actuales tienen un tiempo de ciclo de 2.2 a 2.5 Ghrz. La tendencia es tener más cpus en el chip con un tiempo de ciclo más lento. Si tiene un código de subproceso único, por ejemplo, al recopilar datos de 1 instrumento con poca o ninguna interacción del sistema operativo, se ejecutará más rápido en un solo chip de CPU.

Quizás encontremos una manera de ir más rápido que la velocidad de la luz, pero no apostaría por ello.