Asumiendo que esta pregunta se trata de los límites físicos de la computación (y no de la Ley de Moore), entonces los límites físicos del cerebro tienen que ver principalmente con la velocidad de las neuronas (que es lenta), los requisitos de consumo de energía, el lento ritmo de evolución, y el desafío de la complejidad del sistema. Sin embargo, no existe un límite teórico para el enfoque arquitectónico del cerebro (eso se conoce).
La ley de Moore predice la tasa de progreso a la que la industria de la tecnología mejora el hardware de la computadora (transistores por chip, costo por megabyte de RAM, costo por gigabyte de disco duro, …). Implica un potencial ilimitado para la mejora tecnológica. Ver: la ley de Moore
Esta pregunta parece ser acerca de las limitaciones físicas en la velocidad de cómputo, por ejemplo, los transistores solo pueden volverse tan pequeños, las velocidades de conmutación solo pueden volverse tan rápidas, etc. Así que hay dos observaciones allí:
- ¿La falta de competencia matemática interrumpiría mi facilidad de aprendizaje de programación?
- ¿Cómo ha influido la teoría de conjuntos en el desarrollo de las estructuras de datos?
- Cómo implementar esto en Python: dada una matriz, encuentre tres números a, byc de modo que a ^ 2 + b ^ 2 = c ^ 2
- Cómo imprimir el conjunto de potencia de un conjunto finito de enteros en Java usando recursividad
- ¿Por qué la gente encuentra divertida la programación / codificación, pero no las matemáticas?
1. Al igual que el fin del mundo, los límites físicos para la computación se siguen prediciendo, pero siguen siendo superados por estrategias alternativas. Las velocidades de reloj no han superado los 4 GHz en muchos años, pero ahora todo va en paralelo. Un chip GPU de $ 50 tiene 150 procesadores trabajando en paralelo para entregar 1 millón de veces el rendimiento computacional que se encontró en la supercomputadora Cray original.
2. El cerebro logra la mayor parte de su poder a través del paralelismo y la arquitectura inteligente de los circuitos. Un cerebro más grande no es necesariamente mejor (y puede ser peor). Pero un cerebro más grande con la abstracción de procesamiento de información paralela de varias capas correcta es más poderoso … por lo tanto, los humanos pueden hacer cálculos, mientras que las ballenas, que tienen cerebros 6 veces más grandes, no pueden.
Entonces, ¿qué límites hay?
Velocidad de cambio : los cerebros humanos se basan en neuronas, que no pueden cambiar (aumentar) mucho más rápido que 200 veces / segundo (y 10 veces / segundo es la velocidad promedio). Sin embargo, las neuronas se pueden lograr más con cada pico a medida que el cerebro evoluciona.
Latencia de propagación de señal : al igual que las computadoras, los cerebros están limitados por el tamaño. Se necesitan alrededor de 20 milisegundos para que la información llegue de un lado del cerebro al otro. Si el cerebro fuera 50 veces más grande, la propagación de la señal izquierda-derecha tomaría un segundo completo.
Consumo de energía : el cerebro ya usa el 20% de la energía del cuerpo y representa solo el 2% del peso total del cuerpo. El cuerpo no puede suministrar mucha más energía que eso. (quizás el 50% sería el límite).
Ritmo de evolución : la mayor limitación es el lento ritmo de evolución. Se necesitan millones de años para que se produzca cualquier cambio sustancial en la estructura del cerebro. En 100 años, las computadoras digitales serán más de 1 billón de veces más potentes de lo que son hoy, según la ley de Moore. Los humanos se volverán más inteligentes descargando más y más a las computadoras, como ya lo están haciendo, no evolucionando.