¿La ‘Hivemind’ será anterior a la aparición de AGI? ¿Importará y por qué?

El Hivemind es AGI.

Es esnobismo intelectual infundado sugerir que cualquier cosa que no sea inteligencia humana no es inteligencia.

Es solo una adhesión a una visión de la evolución pre-victoriana y lamarckiana que ve al hombre como el pináculo de la evolución que nos ciega al hecho de que la inteligencia de la colmena ha existido por más tiempo y es una estrategia más exitosa

Ya he argumentado en preguntas anteriores que todo ha estado en su lugar para que ocurra un Hivemind en Internet desde la invención de Internet hace más de 25 años. Mientras tanto, todavía estamos tropezando con tratar ciegamente de hacer que las máquinas piensen como humanos porque, en primer lugar, no tenemos idea de cómo pensamos.

[correo electrónico protegido] que entró en funcionamiento en 1999 fue un ejemplo clásico de cómo funcionaría un Hivemind y ese ni siquiera fue el primer uso de la informática distribuida. Esa fue la Gran Búsqueda de Internet Mersenne Prime organizada en 1996.

¿Será Hivemind anterior a un AGI de estilo humano? puede que ya lo haya hecho

Gracias por el A2A, Ian

Si hivemind consiste en aplicaciones o dispositivos que coordinan muchos usuarios, o inteligencia colectiva, entonces podría estar allí. Los vehículos autónomos pueden no estar muy lejos. Podría seguir una tela de malla para la interfaz cerebro-máquina. También podrían ocurrir otros componentes que se prestan a los cyborgs.

AGI, por otro lado, está buscando dispositivos que tengan inteligencia a nivel humano durante la próxima década y luego a nivel humano o superior. Esto podría deberse a la computación rápida avanzada, ser capaz de replicar cerebros artificialmente o acelerar la evolución que llevó hasta aquí, así que llévalo hasta el final. Otros han incluido la carga mental. Algunos evitarían el funcionamiento humano e intentarían ideales que sean mejores para la sociedad o la naturaleza.

Alternativamente, hivemind podría significar zombies, en cuyo caso la identidad se pierde. El aprendizaje puede ir a un control central. Esto fue ilustrado en versiones defensivas donde cualquiera podría ser enviado como reemplazos prescindibles para cumplir una tarea como en las películas. Lo que podría impedir esto sería la conciencia que aún no se entiende. El caso predeterminado es una red donde los diferentes tipos de sistemas pueden estar vinculados y no necesariamente coordinados por otra cosa. Cualquiera de los colmenares podría hacer o reemplazar un AGI si supieran cómo. Por el contrario, los cerebros podrían modificarse genéticamente para ser como zombies, en cuyo caso la distancia entre los tipos es mucho más cercana.

Los humanos actualmente tienen la capacidad de cambiar el significado de cualquiera de sus pensamientos, por lo que si se los transmitieran, aún podrían leerlos como la señal para continuar con AGI en lugar de cualquier otra cosa. O algún otro estándar de superinteligencia si el manejo de la información es finito.

Los problemas para AGI son si es determinista, son los procesos inherentes a la naturaleza para que algún conocimiento biológico lo encuentre, o hay alguna tecnología paralela que ocurre en ambos casos, o podrían los humanos tener proxies que continuarían a través de AGI ya sea o no fueron revertidos a otra cosa, o podrían cargarse o emularse a gran velocidad para progresar, o AGI es completamente independiente de todo esto como si se transmitiera desde otro lugar, o serían dispositivos lo suficientemente inteligentes como para llegar allí, o es todo en un sim que tiene hitos independientemente, o es la conciencia implícita en la materia para que las condiciones correctas causen el pico.

El por qué podría ser cualquiera de las motivaciones como innata, adaptación, convención, científica o estética. Parecería más fácil llegar a ser amigable si no hubiera tanta diversidad, pero eso también podría estar bajo una regla adversa y si esto se va a expandir, entonces estos pueden no ser los únicos en juego en ese momento o en el futuro.