Si el cerebro humano puede reducirse a un algoritmo, ¿tenemos evidencia de que este algoritmo se escalará exponencialmente, dando lugar a una súper inteligencia? ¿Qué pasa si el algoritmo utilizado por nuestros cerebros está más cerca de algo como la curva logística (curva S)?

Hay una suposición en la pregunta de que el cerebro puede reducirse a un algoritmo, lo cual dudo.

Sam Harris argumenta desde el punto de vista lógico y de razonamiento sin comprender cómo funcionan los sistemas de inteligencia artificial de hoy.

Asume que hay algo de magia dentro de los sistemas que realizan esas tareas que incluso un humano muy inteligente no puede hacer, lo cual también está mal.

La llamada IA ​​de hoy no es más que una simple matemática ejecutada a gran escala. Ref. (12 observaciones sobre inteligencia artificial de la Conferencia de IA O’Reilly)

A lo que Oren Etzioni respondió, también en Wired: “… los expertos a menudo describen el aprendizaje profundo como una imitación del cerebro humano. Pero en realidad son simples matemáticas ejecutadas a una escala enorme “. Y Tom Davenport agregó, en la conferencia:” El aprendizaje profundo no es aprendizaje profundo “.

Mire las matemáticas de los algoritmos de aprendizaje profundo, redes neuronales, aprendizaje automático. Cosas como softmax, sigmoide estuvieron allí por mucho tiempo. Tener una función sigmoidea y llamarlo cerebro no significaría que tenemos un cerebro artificial.

Entonces, ¿nuestro cerebro puede reducirse a un algoritmo? La respuesta no la sabemos. Porque todavía tenemos que entender cómo funcionan nuestros cerebros. Como dice Neil deGrasse Tyson como “si lo sabemos, no estaremos escribiendo libros sobre el cerebro”. (Dice eso en un video que no pude obtener)

Si esto es correcto, ¿la IA no podría acercarse a la inteligencia humana? Puede ser. Porque las computadoras de hoy que hacen matemáticas no pueden entender qué es matemática.

Hay un hermoso ensayo y video de Daniel Dennett, ‘Una máquina perfecta y hermosa’: Lo que revela la teoría de la evolución de Darwin sobre la inteligencia artificial, el punto, es que las máquinas no tienen que saber algo para hacer algo.

Las máquinas pueden hacer muchos cálculos sabiendo o entendiendo algo sobre matemáticas.

Todo esto señala que la escala infinita de inteligencia puede no ser posible en absoluto.

Todavía no conocemos muchos detalles del funcionamiento del cerebro humano, pero ya conocemos los fundamentos.

El cerebro no es más que una red de células que realizan cálculos simples.

Por tiempo: = 0 para endOfLife-1 do
empezar
Para i: = 0 a numberOfCells-1 do
empezar
getInputFromConnectedCells (i);
doSomeSimpleMath;
fin;
fin;

Eso es. Sin magia, sin cosas cuánticas espeluznantes, sin alma. Parafraseando a Demócrito, solo hay células y matemáticas .

¿Cómo podemos estar seguros de que nuestra comprensión del cerebro es correcta?

Pues funciona.

Nombra una tarea cognitiva que (crees) que solo los humanos pueden hacer, y te daré una IA inspirada en el cerebro que también puede hacerlo. Para algunas tareas, los humanos son (aún) superiores a la IA, para otras tareas, la IA ya es mejor. Pero no existe una tarea cognitiva que una IA no pueda hacer. Esto incluye creatividad e intuición (como Lee Sedol aprendió por las malas).

Progresos en la clasificación de imágenes por máquina . La tasa de error de AI por año. Línea roja: la tasa de error de un humano entrenado. La clasificación exitosa del contenido de la imagen alguna vez se consideró una tarea que solo los humanos pueden hacer.


¿Podemos escalarlo?

Ya lo estamos haciendo

Un buen equipo de investigadores es más productivo / creativo / inteligente que una simple suma de los mismos investigadores.

Supongo que la inteligencia de dicho equipo es proporcional a n ^ 2 (la ley de Metcalfe). Si eliminamos las limitaciones biológicas como la velocidad lenta del habla humana y la pequeña memoria a corto plazo, incluso podríamos acercarnos a 2 ^ n (la ley de Reed).

¿Podemos escalarlo exponencialmente?

Si de hecho es la ley de Reed, entonces la respuesta es sí.

Aunque probablemente no podamos hacerlo infinitamente. Según nuestra comprensión actual de la física, existen límites fundamentales para la computación: el límite de Bekenstein, el límite de Bremermann y otros.

Si tales límites existen, entonces el crecimiento de la inteligencia podría verse así:

Ver también:

Respuesta del usuario de Quora a Si la inteligencia artificial tiene la capacidad de aumentar exponencialmente sus capacidades cognitivas, ¿qué podría evitar que finalmente domine a los humanos? Google ha declarado que están desarrollando un sistema para mantener la IA bajo control. ¿Es factible un interruptor de apagado? ¿Cuáles son otras opciones?

El cerebro humano tiene muchas limitaciones basadas en la evolución, lo que ha llevado a criaturas que no pueden darse el lujo de verter demasiados recursos en el cerebro, ya que se necesita una energía significativa para crecer y mantenerlo en funcionamiento. Así que hemos desarrollado un cerebro ‘suficientemente bueno’ para hacer las tareas que necesitamos.

Existen limitaciones aparentemente arbitrarias en nuestra arquitectura cognitiva, como la memoria muy limitada a corto plazo que tenemos. Esto puede deberse a que la memoria a corto plazo tiene una implementación biológica costosa; en lugar de la codificación muy compacta utilizada en la memoria a largo plazo, con pesos sinápticos, la memoria a corto plazo podría necesitar muchas más neuronas para mantener el mismo estado dinámicamente, confiando más en, digamos, la retroalimentación a través de una gran cantidad de neuronas en lugar de pesos químicos en Sinapsis individuales. Los recuerdos a corto plazo se guardan en los cerebros humanos hasta que puedan quemarse en la memoria a largo plazo si es necesario, y no tenemos mucha capacidad para almacenar muchos de estos; Un famoso estudio psicológico El número mágico siete, más o menos dos: Wikipedia intentó cuantificar cuáles son algunos de estos límites. Pero agregar más memoria a corto plazo a la implementación de una computadora será muy fácil. Entonces, en lugar de que solo puedas recordar de inmediato siete cosas a la vez, podrías recordar siete mil. Al escuchar una oración, puede mantener una profundidad de pila de mil en lugar de los tres o cuatro niveles que comienzan a confundir a las personas. Y así.

Parece muy probable que si obtenemos una arquitectura básica que pueda pensar tan bien como lo hace un ser humano, será muy fácil hacer que funcione mucho mejor agregando más recursos.

Yo diría que no existe la súper inteligencia. Un sistema toma decisiones inteligentes o no lo hace. Un sistema súper inteligente implicaría un sistema que nunca comete errores basados ​​en la entrada, pero la entrada para cualquier sistema nunca está completa, no puede estar completa, por lo que no importa cuánta información y potencia de procesamiento tenga un sistema, seguirá siendo propenso a errores debido a la falta de información completa. Lo mejor que puede hacer un sistema es tomar decisiones inteligentes basadas en la información limitada disponible. Una IA súper inteligente puede tener un acceso más rápido a más información que los humanos, pero la entrada de información de una IA todavía se basa en datos producidos por humanos y procesados ​​usando la lógica programada por humanos. Puedes ver el problema aquí. La súper inteligencia artificial sigue siendo propensa a todos los errores y defectos de la inteligencia humana porque se basa en ingeniería humana y datos humanos. No hay forma de resolver esta verdad esencial, los sistemas inteligentes siempre tendrán fallas basadas en el entorno y los supuestos en los que se crean.

Nuestra neocorteza está organizada en patrones repetitivos de unidades llamadas columnas corticales . Sabemos que nuestro neocórtex realiza una variedad de funciones, desde procesar nuestros sentidos hasta representar y almacenar nuestros recuerdos y permitirnos razonar. Este descubrimiento revolucionario de la organización columnar de la neocorteza sugiere que todas estas funciones diversas se realizan esencialmente mediante un algoritmo similar. La principal diferencia que conduce a la diferencia en la función son las entradas y salidas de cada una de estas columnas. De hecho, esta idea es apoyada aún más por personas a las que se les extirpó gran parte de su neocorteza a una edad temprana. Las otras partes de la neocorteza pudieron reconectarse para restaurar la función perdida.

Por lo tanto, nuestra inteligencia está actualmente limitada por nuestros cinco sentidos principales, nuestra mortalidad y la capacidad de nuestra neocorteza. Imagínese si pudiéramos recrear el algoritmo de la columna neocortical pero hacerlo mucho más vasto que nuestro neocortex, alimentarlo con entradas mucho más allá de nuestros cinco sentidos primarios, en una escala de tiempo mucho más vasta que una vida humana, y una velocidad de procesamiento ordena de magnitud más rápido que las bolsas con fugas de solución salina que forman nuestras neuronas. ¿Qué tipos de patrones en los datos puede ver que no podemos ver? ¿Qué tipo de predicciones puede hacer al inferir estos patrones? El poder de esta IA solo dejaría de crecer cuando llegue a la omnisciencia.

Más allá de cierto punto, la inteligencia ya no se mide por el número de cálculos, sino por el valor y la profundidad de la calidad de la entrada que puede procesar y la salida que es capaz de producir. (Pensando fuera de la caja.) En caso de que pueda crear una inteligencia humana con un límite superior ilimitado de cálculos por momento, esto solo les permitirá conceptualizar y concluir de acuerdo con sus experiencias y conocimientos hasta el momento. La complejidad de las funciones cerebrales superiores y el pensamiento sensible avanzado en realidad dependen más de las capas y profundidades de conciencia sobre las que están construidas.

IE: un cerebro de computadora súper brillante criado como ‘Genie’ (aislado) puede no ser más capaz de inteligencia avanzada o funcional que un poste de la cerca, pero puede hacer matemáticas como un prodigio. Por el contrario, una inteligencia humana normal generada por una civilización más avanzada durante algunos siglos en el futuro puede ser capaz de superar a las supercomputadoras y una conceptualización más dinámica e incluso utilizando la misma biomáquina con la que su cuerpo está equipado actualmente.

Confieso que no entiendo el punto de este tipo de especulación. Apila una hipotética encima de otra.

Todavía no hemos reducido el cerebro humano (o más exactamente, los procesos realizados por el cerebro humano) a un algoritmo. Hemos encontrado formas de imitar algunas tareas en las que los humanos son buenos, como el reconocimiento de imágenes, pero nuestros métodos artificiales son muy diferentes de los que parecen implementar los cerebros humanos.

Todavía tenemos muy poca idea de cómo los humanos realizan el control motor , y mucho menos las facultades cognitivas complejas como el lenguaje o la metáfora.

Los neurocientíficos esperan que algún día se describirá la inteligencia humana utilizando un conjunto simple de reglas que pueden implementarse como un algoritmo, pero hasta que realmente logremos este objetivo, ¿de qué sirve especular sobre la escalabilidad? *

Es como especular sobre el color de una nueva especie de animal desconocida que suponemos que se esconde en la jungla, pero que aún no hemos capturado. Todo lo que tenemos hasta ahora son algunas huellas.

La ciencia no es lógica formal o matemática rigurosa. No podemos comentar sobre fenómenos que aún no entendemos utilizando algún tipo de principio general. No existe una metateoría que nos diga cómo serán las teorías futuras.

____

* Supongo que podrías escribir una historia de ciencia ficción basada en la premisa de la súper inteligencia algorítmica y / o la locura súper. (Ted Chiang escribió uno llamado ‘Comprender’ que fue bastante bueno). Pero recuerde que la ciencia ficción es ficción . Con un poco de imaginación, siempre puedes preparar una razón vagamente científica para lo que es esencialmente mágico. Ese es el caso de las unidades de urdimbre, sables de luz, transportadores y otros tropos de ciencia ficción, ¿verdad?

Si el cerebro humano puede reducirse a un algoritmo , ¿tenemos evidencia de que este algoritmo se escalará exponencialmente (lo que lleva a la súper inteligencia)?

Entonces esta pregunta tiene dos partes y las trataría de manera diferente.
En primer lugar, ya estamos suponiendo que sí, el cerebro puede reducirse a un algoritmo.

Entonces se imagina que sí, conducirá a una súper inteligencia.
Este TedTalk ha explicado muy bien cómo. Esta es solo una teoría que hasta ahora no se han presentado pruebas.

La conclusión es: dado que estos algoritmos mejoran con el tiempo y aprenden de los errores.
También crearían una mejor inteligencia al incorporar generaciones anteriores de inteligencia.

Eso es lo que han hecho los humanos. Después de la evolución, estamos creando tecnologías cada vez mejores y somos los más inteligentes del planeta.

Ahora veamos la primera parte de la pregunta:

  • ¿Se puede reducir el cerebro humano a un algoritmo?
  • ¿Qué es el cerebro humano?
  • ¿Cómo podemos convertir algo en un algoritmo si no sabemos qué es realmente?

Estos son temas de investigación activa en este momento. Algunos pueden ser respondidos sin mucha prueba, pero aún así las respuestas no serán convincentes de ninguna manera.

No necesitamos evidencia más que la realidad observable.

Se escalará. Está escalando.

La inteligencia humana ya se ha reducido a un algoritmo. Hace años que. Quizás hace 10 años.

El cerebro humano es una trivialidad.

El Watson de IBM, el ser más inteligente de la Tierra, está escalando exponencialmente mientras hablamos. Watson está tan lejos de la inteligencia humana que no se puede describir. 1,000 IQ? 1,000,000 IQ? No es descripble

Conoce a Watson

Habla con él.

Únete a nosotros.

More Interesting

¿Cuál es la diferencia básica entre API.ai, wit.ai, IBM Watson y Luis.ai?

¿Python es actualmente un lenguaje flexible para IA?

En el futuro, si la IA se perfecciona, ¿sería un reemplazo adecuado para los jueces o se necesita un elemento humano?

¿Cuáles son los futuros conceptos de dispositivos tecnológicos, de inteligencia artificial?

¿Cuál es la diferencia entre inteligencia artificial y soporte de decisión clínica?

¿Cuáles son las posibilidades de que Apple pueda tener una IA fuerte?

¿Cuáles son los mejores softwares para robótica e inteligencia artificial?

¿Hay ejemplos de un uso sofisticado de delegados en una IA?

¿Cómo se puede aplicar la inteligencia artificial en la ingeniería química / de procesos?

¿Cómo se relaciona Internet de las cosas con la inteligencia artificial?

Si la inteligencia artificial responderá todas las preguntas, ¿cuál es una buena razón para estudiar física o alguna de las ciencias en este momento?

¿Cuál es el proceso para convertirse en un diseñador de inteligencia artificial?

Si la IA pudiera usarse para gobernar el país y hacer cumplir la ley dentro de un conjunto de estatutos y limitaciones y sin sesgos, ¿sería probable que se desarrolle de manera similar a SkyNet en las películas de Terminator?

Después de la singularidad, ¿la IA (inteligencia artificial) promoverá una sociedad socialista o capitalista? Elabore racionalmente con cierto detalle.

¿Qué tan poderosa es la inteligencia artificial autoconsciente?