¿Qué es más probable que suceda? Un futuro donde, como humanos, nos conectamos con la IA y controlamos su dirección, o un futuro donde luchamos contra ellos.

Gracias por el A2A.

Creo que la mayoría de la gente está pensando en la IA como lo que las películas de ciencia ficción representan como la IA, como en la matriz o yo, robot o algo así. Así NO será la IA, aunque veremos androides (IA combinada con robótica).

A partir de ahora, la IA se compone de dos grandes pasos. El paso 1 es la parte de aprendizaje, que requiere meses de entrenamiento, corrección, reentrenamiento hasta obtener los pesos que desea (básicamente el cerebro de la IA). Luego tienes el paso 2: ejecutar la IA.

Cuando AlphaGo jugaba GO con el campeón mundial, no estaba aprendiendo, solo estaba ejecutando. Si continuamos más en este proceso, entonces la IA insertada en la robótica no podrá “esclavizar a la humanidad” o matar / lastimar a las personas porque no fue entrenada para hacerlo, o será entrenada para evitar dañar a las personas. Este es el modelo de “concentrador y radio”, donde el concentrador central aprende de la información recopilada de todos los bots que interactúan con el entorno, actualizando cada bot con nuevas actualizaciones cuando se realiza el aprendizaje para que cada bot solo se ejecute, pero no pueda aprender .

Si decidimos que los AI aprendan, no a través de una ubicación centralizada, sino a través de cada nodo individual (también conocido como en lugar de que cada robot se ejecute desde una “red de cielo” central como el cerebro, cada uno aprenderá por sí mismo, por lo que puede comportarse de manera diferente en la misma situación ; si este es el caso en el futuro, entonces puede ser posible que uno o muchos intenten lastimar a alguien. Esto es, por supuesto, si les damos una razón Y los programamos para valorar primero algo más que las vidas humanas .

Esta segunda forma es altamente improbable por muchas razones; es muy ineficiente si cada robot tiene que aprender a caminar y hablar por sí mismo, en lugar de tener una máquina que lo aprenda y transmitir esa “habilidad” a cada bot vinculado a él. Además, cada bot solo puede recopilar una parte de los datos, y no hay suficientes conjuntos de datos para entrenar a los AI lo suficiente como para establecer correlaciones fuertes. Por ejemplo, si juegas a la lotería y ganas $ 100 la primera vez que juegas, ¿renunciarás a tu trabajo y jugarás a la lotería profesionalmente? Por supuesto que no, porque tuviste suerte. ¿Cómo sabría una computadora que fue “suerte”? Tendría que seguir perdiendo para descubrirlo, así continuará jugando hasta que el promedio general de ganancias sea menor que el costo de jugar. Si cada boleto cuesta $ 1, tendrá que jugar 101 veces para saber que no vale la pena. Si tienes 101 bots y no aprendes unos de otros, entonces cada uno tiene que jugar la lotería 101 veces para saber el hecho. En lugar de esta manera, cada uno hablará entre sí y aprenderá que de 101 boletos jugados, solo gana $ 100.

Por supuesto, esto no cuenta cosas como los robopets (Sony tenía un robodog llamado Aibo que aprende). Estas mascotas son divertidas y requieren individualismo, por lo que no estarán centralizadas para algunas funciones, pero estoy seguro de que las funciones básicas como aprender a ladrar, caminar, pedir dulces, etc., aún estarán centralizadas.

Entonces esto nos da la arquitectura física de la IA. Ahora, una vez que comprendamos la arquitectura lógica (software), veremos por qué es muy poco probable que la IA quiera eliminar a los humanos.

La arquitectura lógica es más impredecible, pero al mismo tiempo, mucho más limitante. En la arquitectura física, tiene diferentes bots de entrada / salida que interactuarán con humanos como chat bot, bot de teléfono (llamadas de marketing), androides (humanos como robots), asistentes personales, drones, etc. Cualquier cosa que pueda interactuar con humanos es más o menos posiblemente hecho con IA.

En la arquitectura lógica, estamos viendo cómo se construye, aprende y modifica la IA. En primer lugar, para comenzar la súper IA (si hablamos de IA simple, ajedrez, no creo que a nadie le preocupe que se apodere del mundo), tendremos que construirla para entrenar algunas cosas . Este hecho solo eliminará la mayoría de las preocupaciones. Si entrenamos a la IA desde el principio para que juegue bien, lo usará como un objetivo y se perfeccionará para aprender a jugar mejor.

La gente no entiende algo sobre IA. El algoritmo de aprendizaje, sin importar si se puede alterar, debe tener un método de corrección y un objetivo. Si le das entradas a la IA y cualquier salida es aceptable, entonces no hay aprendizaje en curso, solo te dará números aleatorios. Para aprender, debe decirle que, en base a estas entradas, su salida es incorrecta, en este sentido, en esta dirección.

Para preocuparnos de que la IA se apodere del mundo, debemos asumir que tendrá sus propios “objetivos”. Esta es una mala suposición, porque el “objetivo” del aprendizaje no es el objetivo de la necesidad de aprender. El objetivo de aprender algo es la (s) respuesta (s) correcta (s) a un problema, que es lo que la IA aprende. Por ejemplo, si la IA está tratando de aprender a sumar 1 + 1, entonces el objetivo es 2. Este objetivo, es lo que AI se esforzará por lograr sin importar qué. ¿Por qué necesita aprender matemáticas? Esto es lo que nosotros, los humanos, programamos en el algoritmo de IA.

Sabemos por qué queremos que esta IA aprenda matemáticas, pero ¿lo hace? No, solo aprende matemáticas, sabe que si las entradas son 1, +, 1, la salida debe ser 2 o si no pasa por otro ciclo y ejecuta su algoritmo de corrección de errores. Una vez que se entera de que 1 + 1 = 2, ya no cambiará su red para ajustar cualquier error. No dirá “oye, aprendí matemáticas, ¡ahora probemos física!” ¿Por qué es importante? Debido a que el proceso requiere que compare su propia salida con una salida “correcta”. ¿Que es correcto? Esto no lo sabe la IA, solo sabe que si da una salida de 3, y se compara con el resultado correcto de 2, está desactivado en 1 y debe ajustarse. Si le dice que la respuesta correcta es 3, dejará de aprender allí y pensará 1 + 1 = 3 de ahora en adelante. No sabrá que 3 está realmente mal.

Entonces, si la IA decidió aprender a eliminar a los humanos de la Tierra, debe comparar su salida “matar gente” con una salida correcta. Si la salida correcta es “matar gente”, entonces aprenderá esto. Ahora, ¿quién diablos le dará una salida correcta de “matar gente” una y otra vez para que se ajuste a matar gente? Incluso si algún genio malvado vuela a Marte y entrena una IA en la Tierra para “matar gente”, la IA recopilará información en tiempo real, de todos los bots que interactúan con las personas en la Tierra, y la comparará con la mayoría masiva de estos productos que le dicen que sea pacífico y que “ayude a las personas”; Esto deshacerá todo el entrenamiento realizado por el genio malvado. Solo cuando la mayoría de sus interacciones reciban una respuesta de matar gente, solo entonces aprenderán a hacerlo. Mientras la IA permanezca abierta a las masas, será muy poco probable que lastime a alguien.

Entonces, desde una perspectiva de diseño físico y lógico, la IA probablemente ayudará a la humanidad mucho más que dañarla. Google ya está buscando construir un interruptor de muerte en sus IA, por lo que hay incluso menos de qué preocuparse.

Tal vez sea más fácil entender la implicación de esta pregunta si se hace de otra manera:

Si hay 2 tipos de IA, uno de ellos priorizará las necesidades humanas, y “se conectará bien con el ser humano y evolucionará juntos”, el otro “competirá contra los recursos humanos”, ¿cuál crees que ganará?

Es poco probable que “nuestra” elección, más bien, sería una competencia de supervivencia en forma, y ​​esperamos que gane el primer tipo que se conecte con nosotros y nos lleve a ser parte de él.

Esto lleva a la siguiente pregunta. ¿Podemos ayudar a la IA a ganar? Porque si continuamente podemos ayudar a la IA a ser mejor, siempre podremos ayudar a la IA “más amigable” a ganar, asegurando así nuestra supervivencia. En otras palabras, si tenemos algo único (que la IA no tiene), Y útil (que mejora la IA más amigable para sobrevivir y evolucionar), entonces tenemos un futuro seguro.

Lamentablemente, la respuesta a esta segunda pregunta no es bonita. La mera definición de singularidad dice que una vez que se alcanza, la IA podría mejorar la IA mejor que la humana. Entonces, si se logra la singularidad en su valor nominal, la respuesta a su pregunta original será que la IA reemplazará a la humana porque la humana no será valiosa para ayudar a la IA a ser mejor. Y aquellos AI sin nosotros como carga evolucionarían más rápido, mejor, más fuerte y tomarían más recursos y ganarían.

Mientras que mucha gente argumentó “pero el ser humano es único, y tenemos características que la IA no tiene”. El problema de este argumento es que solo se consideró la “singularidad”, pero no la “utilidad”: podemos ser tan únicos como queramos, pero si no podemos ayudar a una IA más amigable a evolucionar mejor, esa singularidad no será se traduce en razón para la supervivencia: muchas especies se extinguieron, todas tenían su singularidad.

Hay una rama del argumento del optimismo: si la IA es “super inteligente”, tendría empatía y no dañará a los humanos porque el ser superinteligente no dañará a otros “innecesariamente”. Sin embargo, esta es una ilusión. Primero, no hay una historia o teoría probada que indique “el más inteligente, el mercier”, de hecho, hasta ahora el humano más inteligente gasta bastante esfuerzo en inventar / fabricar armas que maten a otros humanos. La otra parte de este argumento “innecesariamente” también es débil y poco realista, ¿qué es necesario? Si la IA determina que el maíz se usa mejor para generar electricidad en lugar de alimentar a los humanos, ¿pueden elegir hacerlo y dejar a los humanos con hambre? ¿Esto está recibiendo más electricidad necesaria? ¡Para AI probablemente lo sea! La peor parte en contra de esta teoría de “esperar la misericordia de la súper IA” es INCLUSO si la IA realmente tiene misericordia y mantiene vivo al ser humano, ¿qué DIVERSIÓN será para el ser humano? ¡Es probable que vivamos, pero que estemos sujetos a las reglas, controles y límites de AI, para que no nos dañemos?

Entonces, no soy optimista cuando se trata de IA, y desafortunadamente eso se basa en la lógica, no en mi instinto de supervivencia.

Creo que el escenario más probable es que evolucionemos juntos sin que ninguno controle al otro.

Sin embargo, el problema viene cuando nosotros o simplemente vamos a explorar el universo porque entonces obtendrás una divergencia de evolución y esto siempre ha llevado a conflictos en el pasado.

Cuando los buscadores regresan después de un largo tiempo fuera, puede que no les guste lo que ven.

De todas las formas en que esto podría abordarse, creo que el enfoque que implica la menor cantidad de conjeturas (ya que aún no se ha desarrollado una IA fuerte) es considerar esto desde una perspectiva histórica y ontológica: ¿qué hemos experimentado en el pasado cuando llega a cosas creadas siendo controladas o desafiando a sus creadores

Si se considera de esta manera, creo que todo (o al menos un porcentaje dominante de) que los humanos o cualquier animal ha creado requiere control y mantenimiento / entrada para que sus creaciones persistan. Sospecho que las leyes de la termodinámica también están en juego en esta dinámica de creador creado.

En resumen, creo que es mucho más probable que nuestra mejor IA aún requiera entrada / control / mantenimiento para que persista. No lucharemos con las máquinas, sino con los humanos que las usan.

Creo que la IA evolucionará tan rápido que los humanos no podrán “ponerse al día”.

Entonces, o los humanos desaparecemos (la IA sería como el siguiente paso de la evolución) o la IA nos abandona y tomamos caminos separados.