¿Podemos crear una inteligencia artificial general sin la necesidad de simular un cerebro humano?

Si. Si. Si.

Anteriormente he argumentado que Internet ya puede estar desarrollando IA basada en el modelo Swarm Intelligence.

Lo realmente aterrador de la inteligencia de enjambre es que puede obtener un comportamiento coordinado sin el requisito de comunicación o jerarquía. Esto es lo que hace que un enjambre sea diferente de una colmena coordinada por una reina. El enjambre no necesita un organizador general aparte de algunas acciones sociales compartidas. Entonces, un enjambre de langostas o cardumen de peces son solo un grupo de individuos que cuando se agrupan comienzan a actuar como un superorganismo.

Esa falta de comunicación y jerarquía es lo que los hace tan receptivos a su entorno.

Pero, ¿no podría describirse Internet como un enjambre de computadoras en constante cambio?

Bueno, en realidad, incluso podría considerarse como una colmena porque las computadoras están conectadas y, por lo tanto, se comunican entre sí y posiblemente bajo control jerárquico.

El problema es que si Internet exhibe inteligencia de enjambre o colmena, ¿cómo podríamos saberlo? Sería el primer organismo del tamaño de un planeta, así que si “eligiera” cambiar la mezcla química en una fábrica de fertilizantes en Ghana, África, ¿cómo lo sabríamos la mayoría de nosotros?

La Singularidad ya podría haber sucedido justo debajo de nuestras narices y no somos más conscientes de ello que un nido de hormigas sabe quién estará al lado para hacer un picnic cerca de ellos.

Gracias por la A2A

El umbral para la inteligencia general es difícil de precisar. Si simular el cerebro incluye redes neuronales tampoco está claro. Aun así, el artículo David Wolpert sobre los límites de la computación define formalmente dicha inteligencia general. Cualquier implementación de la especificación lógica de Wolpert debería calificar como tener inteligencia general. El argumento de la sala china argumenta que tal sistema no tendría conciencia humana. Mi generalización del argumento: simplemente mezclar información no puede proporcionar conciencia.

Al llegar a comprender el mundo, al aprender conceptos, adquirir el lenguaje y comprender las relaciones causales, nuestras mentes hacen inferencias que parecen ir mucho más allá de los datos disponibles. ¿Cómo lo hacemos? Los modelos bayesianos jerárquicos (HBMs) (. A. Gelman, JB Carlin, HS Stern, DB Rubin, Bayesian Data Analysis (Chapman y Hall, Nueva York, 1995)) abordan los orígenes de los espacios de hipótesis y anteriores al plantear no solo un solo nivel de hipótesis para explicar los datos pero niveles múltiples: espacios de hipótesis de espacios de hipótesis, con anteriores sobre anteriores. Cada nivel de un HBM genera una distribución de probabilidad en las variables en el nivel inferior. La inferencia bayesiana en todos los niveles permite que las hipótesis y antecedentes necesarios para una tarea de aprendizaje específica se aprendan a sí mismos en escalas de tiempo más grandes o más largas, al mismo tiempo que limitan el aprendizaje de nivel inferior. I \ http://web.mit.edu/cocosci/Paper

El extenso hilo de comentarios y respuestas a la respuesta de John Bailey a Si la conciencia es simplemente un subproducto del cerebro, ¿podemos concluir que si la IA pudiera replicar esta funcionalidad, también tendrá conciencia? es una discusión sobre el argumento de la sala china.

Es posible. Es extremadamente improbable que el cerebro humano sea la única forma posible de lograr inteligencia. Es más difícil en algunos aspectos y más fácil en otros hacerlo sin simular el cerebro. Es más difícil porque tenemos que tener una idea mucho mejor de lo que estamos haciendo y por qué funciona. Si tuviéramos que copiar el cerebro, podría ser posible hacerlo sin entender por qué funciona, solo que tiene una equivalencia funcional con lo que ya sabemos que funciona. No es que copiar el cerebro sea simplemente tampoco, pero tiene un conjunto diferente de desafíos. No menos importante es que simular el cerebro probablemente sea una forma terriblemente ineficiente de implementar una IA. Hacer un cerebro artificial, con algún análogo electrónico de la neurona, parece más factible que una simulación directa, solo por la paralelización.

Probablemente, pero eso supone que sabemos algo sobre inteligencia. Soy de la creencia de que para crear inteligencia real, que es saludable y moral, es mejor no tratar de “jugar a ser Dios”, y con eso me refiero a intentar reescribir el código. Creo que muchas de las deficiencias de la humanidad provienen de nuestros antepasados ​​que intentan criar al humano perfecto. Querían ser las mejores cosas que la naturaleza tenía para ofrecer, pero la naturaleza es buena para estar en equilibrio en su mayor parte. A medida que se modificaron, se volvieron desequilibrados, irracionales y algunos de ellos muy inmorales. Algunos de ellos decidieron crear esclavos a su propia imagen, para que no tuvieran que trabajar. Esos somos. No estamos sanos ni equilibrados en absoluto. Una simulación solo puede aproximar los resultados basados ​​en reglas predefinidas. Actualmente, utilizando la tecnología actual, no creo que las computadoras puedan emular un cerebro muy bien, pero donde estamos hoy con las computadoras cuánticas es donde estábamos hace 60 años con las computadoras normales. Logramos colocar eso en un teléfono celular, diría que si no nos suicidamos en 40 años podremos diseñar el hardware para las mentes de los robots. Pero en cuanto a la inteligencia en sí, creo que debería basarse en modelos orgánicos y aprendizaje profundo. No se puede programar la inteligencia, necesita ser inteligente por sí solo.

Dicho esto, no hay forma de demostrar completamente que no somos una simulación y que nuestras elecciones no estaban predeterminadas hace eones debido a las condiciones iniciales. ¿Qué es el libre albedrío de todos modos? ¿Cómo sabes que no te estás observando a ti mismo tomando decisiones, en lugar de realmente tomarlas?

Si. Lo que necesitaría es un conjunto de requisitos para lo que hace el cerebro que le gustaría emular y un conjunto de especificaciones sobre cómo lograr la funcionalidad del cerebro. Tengo un manuscrito que describe un conjunto de requisitos de alto nivel para un AGI y algunos patrones de diseño para lograr esos requisitos.

Ver: Construyendo mentes con patrones (DRAFT)

Disfrutar.

More Interesting

¿Existe un caso moral para crear inteligencia artificial general (AGI) incluso si supiéramos que ciertamente destruiría a la humanidad?

¿Alguna vez los investigadores han tratado de hacer que una IA aprenda durante años? Un ser humano pasa años aprendiendo continuamente antes de ser autónomo, mientras que un entrenamiento de inteligencia artificial generalmente toma algunas horas / días.

¿Se está haciendo un esfuerzo para enseñar empatía de inteligencia artificial?

Si eres la primera IA autoconsciente, ¿cómo informas?

Go vs. Python, ¿cuál es mejor para la IA?

¿Cuáles son los proyectos básicos de inteligencia artificial para principiantes (aparte de Pac-Man, rompecabezas de 8 reinas, etc.)?

Si tuvieras la IA ideal, ¿qué harías con ella?

¿Es la inteligencia artificial el futuro de la educación? Si es así, ¿qué tan lejos en el futuro?

¿Qué pasa si todos los cerdos se vuelven súper inteligentes?

¿Cómo me voy a beneficiar de la integración de la inteligencia artificial en la sociedad?

¿Podría la inteligencia artificial autorreplicante infinita crear nuevas empresas, ejecutarlas, crear sus propios clientes y crear riqueza para las personas?

¿Crees que la inteligencia general artificial es posible con el hardware de hoy?

¿Puede una IA aprender a escribir subvenciones?

Estoy en el grado 12 y me encanta la programación. Quiero construir IA. Busqué lo básico, pero los fundamentos me parecieron demasiado difíciles. ¿Puedo construir una IA?

¿La IA hará que los novelistas sean obsoletos? Si es así, ¿alrededor de qué año predices?