Gracias por P2P.
Al ritmo de cambio en las computadoras y los sistemas operativos de hoy en día, creo que en el momento en que entrega su dinero, la computadora está obsoleta.
Muy pocos fabricantes ponen su tecnología “de vanguardia” en el estante de ventas, todo lo que puedan ordeñar en el mercado con la tecnología actual.
- ¿Qué tan adecuado es el aprendizaje automático para lidiar con los sesgos de comportamiento en las finanzas?
- ¿A qué sitio web debo ir para dominar mis habilidades de programación en lenguaje de programación C?
- ¿Quiénes son los hackers más famosos de todos los tiempos? ¿Quién es el más notorio? ¿Cuáles son algunas de las mejores historias de hackeo que conoces?
- ¿Cuál es un buen algoritmo de ejemplo simple para explicarle a alguien cómo funciona el cifrado asimétrico?
- ¿Cómo se comparan las capacidades y trayectorias de aprendizaje automático de Facebook y Google? ¿Por qué esto importa en términos del desempeño futuro de las dos compañías?
Mientras todavía trabajaba en la industria (90), sabía muy bien que la tecnología de CPU había roto la “barrera de 1 GHz” mientras que el mercado general de PC seguía luchando por los procesadores de menos de 100 MHz de Intel, AMD y Cyrix. En otros hilos, he sugerido que ya no deberíamos calificar una CPU en Hz, sino en MFLOPS. Las CPU están completando más de una instrucción por ciclo de reloj, mientras que ahora se sabe que la edad de piedra 286 toma múltiples ciclos de reloj para completar una instrucción. Esto hace que la frecuencia sea un número poco confiable para medir el rendimiento de la CPU.
Sí, debemos estar en la cúspide de un avance revolucionario en diseño y arquitectura de computadoras. Continuar mejorando en nuestro nivel actual de tecnología públicamente conocida significa más y más procesamiento paralelo, ya sean procesadores de múltiples núcleos o procesadores múltiples, mientras que, irónicamente, las comunicaciones más rápidas dentro de una computadora se logran al volver a las señales en serie.
Por otro lado, la comunicación serial versus paralela ha sido un problema desde los primeros días de la informática. Manteniéndolo en 8 bits, por ejemplo, el envío de datos en formato paralelo es el siguiente:
1-1
2-0
3-1
4-1
5-0
6-1
7-1
8-0
9-0 (luz estroboscópica)
Espere un período de tiempo predeterminado para que esas líneas de señal se asienten, luego la señal estroboscópica cambia a 1. La impresora (el mejor ejemplo) responde a la señal estroboscópica y lee sus líneas de entrada, imprimiendo el carácter relevante. En distancias más largas (limitadas a simples metros), es bastante posible que la señal Strobe llegue antes de que las líneas de datos se hayan estabilizado, lo que da una salida de galimatías. Por lo tanto, en distancias más largas, se prefiere la serie:
1-10110110
… Con información adicional para asegurarse de que cada uno de los caracteres se divida correctamente dentro del flujo único de datos.
Es por eso que las unidades de disco duro se han convertido en SATA (Serial ATA). La velocidad a la que se transmiten los datos en la distancia aparentemente muy corta desde MoBo a HDD a través de ese cable plano ha cruzado el umbral por el cual la señal estroboscópica puede llegar antes que los datos reales. Los discos duros son esencialmente dispositivos en serie por su propia naturaleza, ya que los datos se escriben en serie a través de una cabeza a la vez (en algunas unidades solo hay una cabeza). Si bien he visto una tecnología más antigua y más resistente mediante la cual un HDD IBM físicamente masivo tenía 32 cabezales (operando en pares en cada superficie del plato) se necesitaría $ I + D ridículo para escribir datos actuales a través de múltiples cabezales en un dispositivo físico, cada pequeño cable desde el controlador al la cabeza tendría que tener una longitud idéntica, capacitancia idéntica, inductancia idéntica en las cabezas, etc., y por idéntico no quiero decir “lo suficientemente cerca es lo suficientemente bueno”.
Incluso la comunicación a través del cable óptico puede sufrir los efectos negativos de que el estroboscopio llegue antes de la señal en comunicaciones paralelas.
Es a lo largo de este camino de cambio a las comunicaciones en serie que espero que se desarrolle la próxima evolución en la PC de consumo. En lugar de las rutas de memoria de 64 bits de ancho, sospecho que la memoria también cambiará a transmisión en serie desde y hacia la CPU, lo que nuevamente hará que la velocidad de memoria de “2133MHz” sea un número redundante y esencialmente sin sentido.
He sugerido durante años que el troquel de la CPU debería ampliarse para que el complemento completo de memoria también pueda ajustarse al troquel. AMD realizó una excelente investigación sobre la redundancia dentro de un chip hace décadas, de modo que la memoria podría ser el doble de lo que la CPU puede abordar y un controlador de memoria separado se enruta alrededor de los bloques de memoria defectuosos (al igual que las unidades Flash ahora), sin que la CPU lo sepa alguna diferencia*. Habría un aumento de costos por adelantado para las CPU, pero, sabiendo que la memoria está al máximo, el MoBo sería mucho más simple, ¡excepto por el disipador de calor masivo que sobresale de su computadora portátil!
* Tal diseño acaba de eliminar más de 200 pines de la huella del chip de la CPU.
No existe una PC “preparada para el futuro”. Estoy construyendo un par de PC megalíticas “justo detrás del grado de juego actual” que están destinadas a ejecutar Win10. Todavía ejecuto máquinas de 8 bits y sigo usando Win98SE y XP. Mientras la computadora pueda seguir el ritmo de mi teclado, estoy moderadamente feliz. Cuando se trata de renderizado de video (quiero renderizado de calidad de exportación en lugar de renderizado de juegos en tiempo real), no me importa si no puedo usar una de las dos máquinas durante varias horas (o días, ya que estaba encendida). mi editor de video 98SE).