Dado que no ha habido una sexta generación de computadoras en casi 30 años, ¿realmente cree que estamos haciendo un progreso real en el campo de la informática y la tecnología?

Si nos fijamos en las 4 generaciones anteriores, todas se basaron en los avances de hardware. Pero la última 5ta generación es una generación basada en software.

En términos de desarrollo de hardware, actualmente estamos limitados por la física.

Para entender esto, necesitamos mirar otro aspecto de los procesadores, a saber, el recuento de transistores. El recuento de transistores de un procesador es el número de transistores con los que está equipado el procesador. Dado que las CPU se mantienen aproximadamente del mismo tamaño, el recuento de transistores está directamente relacionado con el tamaño de los transistores.

Entonces, al pasar de los 170 millones de transistores con los que se equipó un procesador Intel® Pentium® 4 de 2004 a los 4.300 millones de transistores de un procesador Intel® Xeon® Ivy Bridge de 15 núcleos de 2013, vemos que los tamaños de los transistores se han encogido enormemente Moore observó este aumento y lo describe su ley que establece que la densidad de integración de los transistores se duplica cada 18 a 24 meses (“La próxima generación de la Ley de Moore”).

Otra observación importante es la llamada escala de Dennard , que dice que la cantidad de energía requerida para hacer funcionar los transistores en un volumen de unidad específico se mantiene constante a pesar de aumentar su número, de modo que el voltaje y la corriente escalan con la longitud. Sin embargo, esta observación ya no se está volviendo válida ya que los transistores se están volviendo muy pequeños. La escala del voltaje y la corriente con la longitud está llegando a sus límites, ya que las puertas del transistor se han vuelto demasiado delgadas, afectando su integridad estructural, y las corrientes comienzan a tener fugas.

Además, las pérdidas térmicas se producen cuando coloca varios miles de millones de transistores en un área pequeña y los enciende y apaga varios miles de millones de veces por segundo. Cuanto más rápido activemos y desactivemos los transistores, se generará más calor. Sin un enfriamiento adecuado, podrían fallar y ser destruidos. Una implicación de esto es que una velocidad de reloj de operación más baja generará menos calor y asegurará la longevidad del procesador. Otro inconveniente grave es que un aumento en la velocidad del reloj implica un aumento de voltaje y hay una dependencia cúbica entre esto y el consumo de energía. Los costos de energía son un factor importante a considerar al operar centros de computación.

Volviendo a la 5ta Generación, todo se trata de IA (Inteligencia Artificial).

Como tal, es bastante difícil definir la IA. También a partir de ahora es imposible construir una verdadera IA. En este momento, lo que tenemos son todos los sistemas de Machine Learning con enormes capacidades de procesamiento. Pueden parecer inteligentes, pero son una forma muy básica de “inteligencia”. En esencia, toman un montón de ejemplos anteriores, los analizan y encuentran una solución al problema actual.

El problema fundamental aquí es que todavía no sabemos cómo funcionan varias cosas en el cerebro humano. Todavía no estamos seguros de cómo funciona la creatividad. No tenemos idea del funcionamiento de la mente de un artista, un músico, etc. Hasta que comprendamos exactamente cómo funciona, no podremos replicarlo realmente.

También señalaré que la inteligencia artificial salió a la luz y la gente comenzó a trabajar en masa solo alrededor de 2010. También alrededor del mismo tiempo, la capacidad del procesador comenzó a estabilizarse. Entonces, quizás sea más significativo definir la quinta generación a partir de 2010 en adelante.

¿Cuál es el futuro?

En este momento parece que Quantum Computing podría ser la próxima gran cosa. Pero hasta ahora solo Google – D Wave parece ir en esa dirección. E incluso ellos parecen estar caminando lentamente.
En este momento, la mayor parte del enfoque está en escribir un código más eficiente y mejor. Programas que se escalan bien horizontalmente. Programas que pueden aprovechar las enormes capacidades de computación paralela que ofrecen las GPU.
Sinceramente, no creo que la generación actual termine porque construimos una verdadera IA. Es mucho más probable que otro avance tecnológico salte por delante del problema de la IA y simplemente declaremos que estamos en una nueva generación de computadoras

PD: diferentes fuentes proporcionan años muy diferentes para las distintas generaciones. Algunos dicen que la 5ta generación comenzó en 1980, algunos dicen que comenzó en 2010, algunos dicen que terminó en 1990 y que estamos en la 6ta generación. Así que tenlo en cuenta cuando mires en línea. Es sobre todo una cuestión de perspectiva.