Gracias por el A2A.
Creo que la mayoría de la gente está pensando en la IA como lo que las películas de ciencia ficción representan como la IA, como en la matriz o yo, robot o algo así. Así NO será la IA, aunque veremos androides (IA combinada con robótica).
A partir de ahora, la IA se compone de dos grandes pasos. El paso 1 es la parte de aprendizaje, que requiere meses de entrenamiento, corrección, reentrenamiento hasta obtener los pesos que desea (básicamente el cerebro de la IA). Luego tienes el paso 2: ejecutar la IA.
- ¿Java es bueno para la inteligencia artificial?
- ¿Qué hace posible que la inteligencia artificial sea más inteligente que los humanos?
- Cómo desarrollar inteligencia artificial desde cero e implementarla en robótica
- ¿La inteligencia artificial se dirige en la dirección correcta?
- ¿Eres un desarrollador que teme a la Inteligencia Artificial?
Cuando AlphaGo jugaba GO con el campeón mundial, no estaba aprendiendo, solo estaba ejecutando. Si continuamos más en este proceso, entonces la IA insertada en la robótica no podrá “esclavizar a la humanidad” o matar / lastimar a las personas porque no fue entrenada para hacerlo, o será entrenada para evitar dañar a las personas. Este es el modelo de “concentrador y radio”, donde el concentrador central aprende de la información recopilada de todos los bots que interactúan con el entorno, actualizando cada bot con nuevas actualizaciones cuando se realiza el aprendizaje para que cada bot solo se ejecute, pero no pueda aprender .
Si decidimos que los AI aprendan, no a través de una ubicación centralizada, sino a través de cada nodo individual (también conocido como en lugar de que cada robot se ejecute desde una “red de cielo” central como el cerebro, cada uno aprenderá por sí mismo, por lo que puede comportarse de manera diferente en la misma situación ; si este es el caso en el futuro, entonces puede ser posible que uno o muchos intenten lastimar a alguien. Esto es, por supuesto, si les damos una razón Y los programamos para valorar primero algo más que las vidas humanas .
Esta segunda forma es altamente improbable por muchas razones; es muy ineficiente si cada robot tiene que aprender a caminar y hablar por sí mismo, en lugar de tener una máquina que lo aprenda y transmitir esa “habilidad” a cada bot vinculado a él. Además, cada bot solo puede recopilar una parte de los datos, y no hay suficientes conjuntos de datos para entrenar a los AI lo suficiente como para establecer correlaciones fuertes. Por ejemplo, si juegas a la lotería y ganas $ 100 la primera vez que juegas, ¿renunciarás a tu trabajo y jugarás a la lotería profesionalmente? Por supuesto que no, porque tuviste suerte. ¿Cómo sabría una computadora que fue “suerte”? Tendría que seguir perdiendo para descubrirlo, así continuará jugando hasta que el promedio general de ganancias sea menor que el costo de jugar. Si cada boleto cuesta $ 1, tendrá que jugar 101 veces para saber que no vale la pena. Si tienes 101 bots y no aprendes unos de otros, entonces cada uno tiene que jugar la lotería 101 veces para saber el hecho. En lugar de esta manera, cada uno hablará entre sí y aprenderá que de 101 boletos jugados, solo gana $ 100.
Por supuesto, esto no cuenta cosas como los robopets (Sony tenía un robodog llamado Aibo que aprende). Estas mascotas son divertidas y requieren individualismo, por lo que no estarán centralizadas para algunas funciones, pero estoy seguro de que las funciones básicas como aprender a ladrar, caminar, pedir dulces, etc., aún estarán centralizadas.
Entonces esto nos da la arquitectura física de la IA. Ahora, una vez que comprendamos la arquitectura lógica (software), veremos por qué es muy poco probable que la IA quiera eliminar a los humanos.
La arquitectura lógica es más impredecible, pero al mismo tiempo, mucho más limitante. En la arquitectura física, tiene diferentes bots de entrada / salida que interactuarán con humanos como chat bot, bot de teléfono (llamadas de marketing), androides (humanos como robots), asistentes personales, drones, etc. Cualquier cosa que pueda interactuar con humanos es más o menos posiblemente hecho con IA.
En la arquitectura lógica, estamos viendo cómo se construye, aprende y modifica la IA. En primer lugar, para comenzar la súper IA (si hablamos de IA simple, ajedrez, no creo que a nadie le preocupe que se apodere del mundo), tendremos que construirla para entrenar algunas cosas . Este hecho solo eliminará la mayoría de las preocupaciones. Si entrenamos a la IA desde el principio para que juegue bien, lo usará como un objetivo y se perfeccionará para aprender a jugar mejor.
La gente no entiende algo sobre IA. El algoritmo de aprendizaje, sin importar si se puede alterar, debe tener un método de corrección y un objetivo. Si le das entradas a la IA y cualquier salida es aceptable, entonces no hay aprendizaje en curso, solo te dará números aleatorios. Para aprender, debe decirle que, en base a estas entradas, su salida es incorrecta, en este sentido, en esta dirección.
Para preocuparnos de que la IA se apodere del mundo, debemos asumir que tendrá sus propios “objetivos”. Esta es una mala suposición, porque el “objetivo” del aprendizaje no es el objetivo de la necesidad de aprender. El objetivo de aprender algo es la (s) respuesta (s) correcta (s) a un problema, que es lo que la IA aprende. Por ejemplo, si la IA está tratando de aprender a sumar 1 + 1, entonces el objetivo es 2. Este objetivo, es lo que AI se esforzará por lograr sin importar qué. ¿Por qué necesita aprender matemáticas? Esto es lo que nosotros, los humanos, programamos en el algoritmo de IA.
Sabemos por qué queremos que esta IA aprenda matemáticas, pero ¿lo hace? No, solo aprende matemáticas, sabe que si las entradas son 1, +, 1, la salida debe ser 2 o si no pasa por otro ciclo y ejecuta su algoritmo de corrección de errores. Una vez que se entera de que 1 + 1 = 2, ya no cambiará su red para ajustar cualquier error. No dirá “oye, aprendí matemáticas, ¡ahora probemos física!” ¿Por qué es importante? Debido a que el proceso requiere que compare su propia salida con una salida “correcta”. ¿Que es correcto? Esto no lo sabe la IA, solo sabe que si da una salida de 3, y se compara con el resultado correcto de 2, está desactivado en 1 y debe ajustarse. Si le dice que la respuesta correcta es 3, dejará de aprender allí y pensará 1 + 1 = 3 de ahora en adelante. No sabrá que 3 está realmente mal.
Entonces, si la IA decidió aprender a eliminar a los humanos de la Tierra, debe comparar su salida “matar gente” con una salida correcta. Si la salida correcta es “matar gente”, entonces aprenderá esto. Ahora, ¿quién diablos le dará una salida correcta de “matar gente” una y otra vez para que se ajuste a matar gente? Incluso si algún genio malvado vuela a Marte y entrena una IA en la Tierra para “matar gente”, la IA recopilará información en tiempo real, de todos los bots que interactúan con las personas en la Tierra, y la comparará con la mayoría masiva de estos productos que le dicen que sea pacífico y que “ayude a las personas”; Esto deshacerá todo el entrenamiento realizado por el genio malvado. Solo cuando la mayoría de sus interacciones reciban una respuesta de matar gente, solo entonces aprenderán a hacerlo. Mientras la IA permanezca abierta a las masas, será muy poco probable que lastime a alguien.
Entonces, desde una perspectiva de diseño físico y lógico, la IA probablemente ayudará a la humanidad mucho más que dañarla. Google ya está buscando construir un interruptor de muerte en sus IA, por lo que hay incluso menos de qué preocuparse.