¿Cuáles son las garantías contra un motor de inteligencia artificial que toma la decisión equivocada?

Como ninguna máquina es realmente inteligente, describiré qué medidas de seguridad podrían ser posibles.

No hay una manera perfecta de evitar decisiones equivocadas en muchas circunstancias. Al igual que con cualquier tipo de inteligencia, artificial o no, las decisiones se verán afectadas por la percepción, la observación y la comprensión, ninguna de las cuales puede ser perfecta. Los humanos cometen errores, y no podemos esperar que las máquinas hagan lo contrario, a menos que estén en un entorno simplificado.

El diseño no debe aspirar a la naturaleza poco confiable de las máquinas inteligentes, y no evitarla. Para que una inteligencia general comprenda su entorno, debe aceptar un estímulo impredecible del mundo que lo rodea y razonar también sobre él de manera impredecible. Uno no puede ser creativo si el proceso de pensamiento es completamente confiable y determinista. Si lo fuera, y si recibiera el mismo estímulo varias veces, reaccionaría de la misma manera cada vez. Respondería a las preguntas de la misma manera sin ser capaz de encontrar creativamente diferentes respuestas o soluciones cada vez. Sus movimientos en un juego serían predecibles y esto resultaría malo en el desarrollo de estrategias. Deberíamos esperar que el diseño varíe en su proceso de pensamiento, e incluso a veces sea errático.

Si tomamos este diseño poco confiable, ese diseño tendría que aplicarse a todas las partes del proceso de pensamiento, incluso cuando se aplica a lenguajes tan precisos como las matemáticas. Podemos evitar algunos errores en su proceso de pensamiento al aumentarlo con herramientas, como una calculadora. Pero incluso entonces, hay algunas partes del proceso que deben pensarse de manera poco confiable, e incluso cuando se usa una calculadora, se pueden presionar los botones incorrectos para dar como resultado un cálculo completamente correcto, pero una traducción incorrecta de la ecuación de la mente al cálculo dispositivo.

Entonces, si esperamos que las máquinas inteligentes actúen de manera variable y, a veces, de manera errática, entonces podemos aplicar técnicas similares a las aplicadas en humanos y también a otros sistemas diseñados para mejorar la confiabilidad.

Podemos mejorar la confiabilidad mejorando la comprensión de las máquinas del problema y su entorno, de la misma manera que los humanos pueden estudiar o aprender a través de la experiencia.

Un método de ingeniería común es agregar redundancia. Podríamos ejecutar el mismo cálculo en paralelo para tratar de lograr un resultado consensuado o un resultado probabilísticamente preciso.

Esto podría hacerse haciendo que varias máquinas inteligentes procesen la misma pregunta e intenten ponerse de acuerdo sobre una respuesta. Aún mejor es aplicar redundancia dentro de la mente de una sola máquina. Durante el proceso de cálculo, puede haber mecanismos aplicados de tal manera que los pensamientos intermedios puedan ser el resultado de un proceso separado que trabaje colectivamente para lograr un resultado intermedio acordado.

A menudo con un problema, hay múltiples procesos que podrían conducir a una solución correcta. Mientras múltiples procesos puedan conducir a un único resultado, la falla o desviación de algunos de esos procesos no limitaría a la mayoría de llegar de manera bastante consistente a un resultado correcto. Este método puede aplicarse tanto en los niveles conscientes como subconscientes de la mente de la máquina.

Tenía un proyecto en el área de sistemas de transporte inteligentes, pero ¿qué quieres decir exactamente con “motor de inteligencia”? ¿Puedes dar algún ejemplo? ¿Y qué significa “decisión equivocada”? ¿Quién y cómo puede determinar que estas decisiones son incorrectas? Por ejemplo: si está girando, el motor puede disminuir la velocidad, reubicar las fuerzas y el equilibrio, controlar el sistema de detención y el funcionamiento de las ruedas; pero eventualmente te pierdes el turno o algo sucedió. ¿Esta mal? Pero de todos modos es un problema compuesto y usted, en la mayoría de los casos, no tiene una protección especial para ninguna situación.

Respuesta similar a la pregunta: “¿Cuáles serían las salvaguardas contra un individuo que toma la decisión equivocada?”

Los motores de IA carecen notablemente de sentido común. Esta es una gran deficiencia, y no existe una cura fácil. Una forma de combatir esto podría ser hacer que el motor en cualquier momento evalúe toda la situación desde un punto de vista de “máxima probabilidad”, para responder a la pregunta “¿Qué está pasando aquí? ¿Parece que todo está bien? O yo me falta algo importante?