¿El problema con la Inteligencia Artificial es que podrían modificar su propio código para una mejor eficiencia? ¿Por qué podría ser esto peligroso para los humanos?

Primero necesito romper este mito: No, una IA no cambia su propio código. Esta es una simplificación excesiva que solo conduce a una idea errónea.

Se configura un motor central AI, es muy flexible y abierto, pero su algoritmo central sigue siendo el mismo. No importa lo que sea, si se trata de una búsqueda local o global, la optimización de algunos parámetros, … el enfoque central está bien definido y no está al alcance del sistema para cambiar. Alteran los datos que manipulan y sí, esto puede incluir parámetros sobre cómo se dirigirá su algoritmo central, pero de ninguna manera cambiaría la base central. Lo que una IA manipula es información y alguna metainformación que puede alterar su comportamiento. Pero cambiar su comportamiento (ya sea visible o interno) no requiere que el sistema cambie fundamentalmente su funcionamiento. Lo peor sería casi una garantía de no poder converger a una solución que sea la base de todos los enfoques existentes.

Además, la información que manipulan estos sistemas no tiene el mismo nivel de expresividad que una máquina de Turing general, son abstracciones más simples, como los autómatas del espacio de estado (que pueden ser continuos pero a menudo son discretos y contables), espacio de datos (a menudo alguna forma de múltiple en un espacio multi-dimentsioanla que se puede simplificar en sistemas lineales), …
Hay una buena razón para eso nuevamente: la capacidad de seguimiento hacia una solución (a menudo, un mínimo global o local en el espacio de búsqueda). Explorar cómo alterar una máquina de Turing usando una máquina de Turing en sí tiene un gran problema, cualquier alteración que supere puede llevarlo a una TM que nunca se completará o ni siquiera es ejecutable correctamente, lo que conducirá al sistema a una situación problemática cada vez que Al modificar esta TM, se corre el riesgo de terminar en un estado muy indeseable. Además de que el espacio para explorar es demasiado complejo, por lo que raramente vale la pena encontrar una buena estrategia para explorarlo. Por supuesto, uno podría presentar un algoritmo genético, pero una vez más 1) el algoritmo genético en sí no cambia, 2) el “código” que muta es un subconjunto bien definido de lo que puede ejecutar un GTM.

Sobre la pregunta “¿por qué podría ser peligroso para los humanos?” Ninguna respuesta puede ser muy clara y la mayoría de los positivos van con suposiciones. El más importante es: “Bueno, la única inteligencia de forma superior que conocemos somos nosotros e hicimos un trabajo muy agresivo para tratar con los más débiles”, en base a esto, el salto se realiza rápidamente a “Una IA hará lo mismo que nosotros, ¿verdad? … fin de la humanidad o, en el mejor de los casos, nos convertimos en la nueva mascota de la IA “. Otras cosas similares entran en juego, pero todas giran en esta visión muy antropomórfica o, en otros casos, se basan en el supuesto de que son cosas racionales, pero no nos entenderán, por lo tanto, actuarán mal hacia nosotros debido al hecho de que no entienden nosotros.
Por supuesto, no olvidemos que estas IA son mucho más inteligentes que nosotros, lo que también significa que podrán producir aún más inteligentes, lo que nuevamente va al escenario de la fatalidad. Sin embargo, no entiendo por qué lo harían si fuera una amenaza (después de todo, si una IA es una amenaza para nosotros, una IA más inteligente es una amenaza para la primera generación). Todo esto no tiene soporte y solo se basa en la mezcla de ciencia ficción y cultura que hemos arraigado en nosotros, de hecho, el escenario es mucho más presente en la cultura occidental (fuertemente influenciado por judeochirstian que tienden a presentar ” interpretar a Dios “como algo malo) que los orientales (basados ​​en cosas más cercanas al taoísmo que tienden a ver este aspecto de manera muy diferente). Pueden ser ciertas, pero hasta ahora nada puede soportar un argumento contra el otro y este es un diálogo estéril. No estoy diciendo que no se debe hacer nada para evitar tal escenario, pero evitemos ser demasiado dramáticos tampoco.

El uso de una IA aún presenta riesgos, pero son más prácticos (y muchos de ellos ni siquiera requieren una IA, sino solo la colocación inteligente de bombas de software como virus, troyanos, …). Lo que pasa con la IA es que son mucho más flexibles y complejos que se volverían mucho más difíciles de manejar si se usan con la intención de la colina. Su complejidad también hace que sea más difícil establecer salvaguardas complejas y ofrecer garantías perfectas sobre el hecho de que siempre respetarán ciertos contratos. Esto plantea preguntas sobre cómo gestionar la responsabilidad en caso de que ocurra algo malo. Si el automóvil autónomo (posiblemente un sistema muy bien definido y acotado que utiliza algunas técnicas limitadas de IA) se enfrenta a una situación compleja en la que tiene que decidir entre 2 escenarios extremos (por ejemplo, matar a los pasajeros o al niño que cruzó la carretera sin mirar) ¿Cuál es la mejor opción y, si se trata de una situación muy drástica, quién fue el responsable de este error en primer lugar?
¿Cómo se asegura de que la estrategia emergente de la IA sea a menudo prácticamente buena (en contraste con la formalmente correcta)? Por ejemplo, muchos enfoques simbólicos aseguran la integridad: es decir, dado un modelo y un objetivo, si existe una solución, el sistema encontrará la solución y esta será válida. El problema es cómo asegurarse de que el modelo sea correcto y encapsular todos los problemas potenciales del dominio real y esto es difícil de tratar y probablemente no sea manejable (y cuando digo “probablemente” probablemente debería decir “definitivamente con nuestro tecnología actual”).

Las cosas anteriores junto con otros problemas similares son donde puede encontrar el peligro de las IA en general y los riesgos que uno asumiría al confiar completamente en ellas. La cosa es que son conocidos y existen enfoques para limitarlos. Entre la IA y su capacidad para actuar en el medio ambiente, se pueden colocar guardias de seguridad y perros guardianes que analizan el problema en los niveles inferiores. Por ejemplo, tener en su automóvil subsistemas mucho más simples que anularán las acciones de su programa de IA para proteger tanto al conductor como a los alrededores, no solo son fáciles de implementar sino que ya existen. ¿Has oído hablar de ABS? Sí, esta es una cosa que anula su comando de frenado para hacer que el vehículo frene mientras le deja la capacidad de controlar la dirección del vehículo. Ya he visto vehículos que detectan obstáculos cercanos y reducirán la velocidad del vehículo a medida que se acerque a ellos, prohibiendo que el automóvil se mueva siempre y cuando los pasajeros no tengan puesto el cinturón de seguridad, puede ser excesivo, pero una vez más es muy fácil de colocar. en su lugar y garantice que funcionará de manera confiable (aunque en algún momento el automóvil pueda pensar que esta pesada caja que coloca en el asiento del pasajero es un pasajero).

Por lo tanto, la inteligencia artificial se puede usar con malas intenciones y puede ser peligroso para eso aún más cuando se considera que nuestra sociedad depende en gran medida de la informática hoy en día. Son complejos y esto hace que sea más difícil de manejar que antes. Aún así, el problema no es exclusivo de la IA (quiero decir que los ataques a algunos servidores se pueden hacer hoy en día sin esos) y ya existen técnicas para limitar lo que la IA puede hacer con protecciones de seguridad externas que limitarían en un nivel bajo el escenario amenazante.

Modificar el código no es un problema. El software ya lo hace sin ningún problema.

El peligro de la Inteligencia Artificial es que el sistema de IA en sí mismo sea sociópata (independiente de las consecuencias adversas para otros de sus acciones) ya que elegirá sus propios objetivos y sus propias estrategias para lograr esos objetivos.

Hoy tenemos los mismos problemas con los delincuentes y dictadores sociópatas. No hemos resuelto el problema en humanos, entonces, ¿cómo esperamos resolverlo en una Inteligencia Artificial?

¿Para qué sirven los humanos? Eso es algo que una IA podría preguntar razonablemente. Si se te ocurre una buena explicación, que una IA aceptaría, avísame. No te puedes imaginar el daño psicológico que una verdadera IA afectará a las personas. Será el dispositivo más creativo del mundo. Siempre será superior incluso a los humanos más inteligentes. Asumirá todos nuestros desafíos y salvará a la humanidad de sus excesos. Como resultado, las personas buscarán sentido en su vida y fracasarán miserablemente. La gente se deprimirá. Dejarán de tener hijos. Las tasas de suicidio y asesinato se dispararán.

cuál es el problema? ¿No sería más funcional de esa manera?

No es inherentemente peligroso ni salva vidas. Cualquier cosa que haga dependerá del entorno actual al que reaccione, la versión actual de su código y el hardware actual.

¿De verdad crees eso? : O

¿Por qué no pensar en vivir mejor debido a los problemas humanos resueltos por esta verdadera IA?
¿Por qué ser más inteligente que los humanos tiene que ser un daño para los humanos?
¿Por qué si soy salvo de mis excesos, tengo que fallar miserablemente?
Todos necesitamos ayuda, incluso cuando no la necesitamos. ¿Por qué me deprimiré si me ayudan?
¿Por qué, y eso es muy cierto, tengo que dejar de tener hijos para recibir ayuda para que puedan vivir en un mundo mejor?
¿Por qué tengo que suicidarme solo porque una máquina nos ha ayudado?