Hay una diferencia realmente importante.
Lo más importante y fundamental para comprender la diferencia entre cerebros y computadoras es que el cerebro es un procesador masivo, masivo, paralelo y distribuido. Una computadora no lo es.
Una computadora es extremadamente rápida en hacer muchos tipos de cálculos, pero (tradicionalmente) procesa cosas en serie a través de la CPU.
- ¿Existe una aplicación que, dada la entrada en una categoría (por ejemplo, computadora), proporciona una salida que contiene todas las categorías vinculadas (por ejemplo, mouse, teclado)?
- ¿La placa base más barata compatible con AMD FX6300?
- ¿Dónde podemos obtener componentes informáticos en EMI en Hyderabad?
- ¿Dónde puedo encontrar un minorista de computadoras portátiles personalizado en Australia?
- ¿Qué es una carcasa de torre súper completa ATX?
Primero, hablemos sobre la velocidad de procesamiento.
Las computadoras funcionan a la velocidad de los electrones (muy rápido). La biología no desarrolló cables y circuitos literales para mover electrones (no voy a decir que no podría haber … pero probablemente no podría haberlo hecho). Inventó una biología celular increíble para aprovechar la velocidad de la electricidad y así es como los animales pueden procesar el mundo lo suficientemente rápido como para hacer algo como esquivar una roca que cae (esto es mucho más difícil si no tienes un sistema nervioso, pedir una planta).
Pero no somos tan rápidos. La velocidad de procesamiento del cerebro generalmente está limitada por cosas como la difusión de moléculas a través de espacios (muy pequeños) y, en algunos casos, cascadas de señalización molecular intracelular y cambios en la expresión génica (que toman segundos, minutos u horas, increíblemente lento en comparación con cómo rápido, una computadora puede procesar una entrada y almacenar algo en la memoria permanente).
Entonces los cerebros son lentos en comparación con las computadoras. Pero eso no es realmente tan importante de una diferencia. Si los cerebros fueran solo computadoras lentas, entonces entenderíamos mucho más sobre cómo funcionan los cerebros.
Los cerebros son increíblemente eficientes en cuanto a espacio y energía.
Los cerebros aún pueden hacer cosas que las supercomputadoras no pueden hacer, y los cerebros son mucho más pequeños y se quedan sin una hamburguesa con queso. ¿Has visto una foto de IBM Watson? ¿Sabes cuánto poder se necesita? Los humanos le dieron a Watson una verdadera carrera por su dinero antes de que finalmente nos creara en peligro. Pero IBM Watson llena una habitación, y el cerebro humano pesa solo unas pocas libras. Solo piensa en eso.
No está claro si el cerebro humano tiene una ventaja de hardware o una ventaja de software (algoritmos), pero probablemente sea una ventaja de algoritmos. Las supercomputadoras modernas tienen 150 trillones de transistores. El cerebro humano tiene 100 billones de sinapsis. El cerebro humano funciona con unos 12 vatios de potencia. IBM Watson funciona con 750,000 vatios. Y son aproximadamente igualmente buenos en Jeopardy. Piensa en eso.
No puede alimentar la misma cantidad de unidades de procesamiento en 4 órdenes de magnitud menos potencia a menos que esté haciendo algo realmente diferente.
Los cerebros no son computadoras lentas. Los cerebros simplemente funcionan de manera completamente diferente.
Eso nos lleva de vuelta al paralelismo.
Los cerebros procesan grandes cantidades de información y todo está sucediendo en paralelo. Y el poder de esa arquitectura de procesamiento distribuido apenas comienza a entenderse. Durante décadas, los cerebros solo aplastaron las computadoras en tareas aparentemente triviales como diferenciar entre gatos y perros o, no sé, mover sus cuerpos con dos patas (eso no es una broma, busque en Google algunos videos de robots andantes de los años 90 y es triste (o quizás hilarante) lo malos que son en comparación con los humanos. Pero mejoraron. Mucho mejor.
Pero algo “mágico” (es decir, no entendemos cómo funciona …) comienza a suceder cuando comienza a explorar arquitecturas de procesamiento altamente paralelas (y recurrentes) que son más similares a la anatomía del cerebro y menos como las computadoras tradicionales. Esto es lo que está impulsando la explosión del aprendizaje profundo y las aplicaciones de redes neuronales en los últimos 10 años (realmente los últimos 5 años) en informática. Nuevamente, esto es emocionante y nuevo porque generalmente las computadoras no funcionan de esta manera. De hecho, las computadoras aún no funcionan de esta manera: simulamos estas arquitecturas en software (que es extremadamente costoso desde una perspectiva energética).
La desventaja de esto es que todavía no entendemos cómo funcionan realmente los cerebros (o las redes neuronales artificiales de alto rendimiento). Podemos describir el paralelismo y caracterizar cómo se comporta el sistema, pero no podemos construirlo desde cero. Los sistemas de inteligencia artificial más avanzados que utilizan redes neuronales profundas tienen que enseñarse a sí mismos. Hemos diseñado los algoritmos que “entrenan” a estos sistemas, pero en realidad no podemos construir el sistema nosotros mismos.
“¿Puede el cerebro entender el cerebro?”
Así reflexionó sobre David Hubel, uno de los neurocientíficos más influyentes del siglo XX, ganador del Premio Nobel.
Generalmente entendemos cómo funcionan las computadoras y podemos construirlas.
No entendemos cómo funcionan los cerebros, y no podemos construirlos. Todavía.
Fuente de la imagen: El sistema visual de primates según Felleman y Van Essen, 1991