¿Cómo podemos vigilar los sistemas de Inteligencia artificial del futuro y garantizar la calidad de las respuestas o sugerencias que nos hacen?

Me viene a la mente una cita de David Deutsch:

Ahora nos vemos obligados a dejar esa definición atrás. En adelante, una prueba debe considerarse como un proceso, el cálculo en sí mismo, ya que debemos aceptar que en el futuro, las computadoras cuánticas probarán teoremas por métodos que ni un cerebro humano ni ningún otro árbitro podrán verificar paso a paso , ya que si la ‘secuencia de proposiciones’ correspondiente a dicha prueba se imprimiera, el papel llenaría el universo observable muchas veces ”. [matemáticas / 9911150] Máquinas, lógica y física cuántica

Siguiendo las ideas expuestas en el artículo de Deutsch, las conclusiones derivadas de la máquina que no pueden verificarse de manera tradicional deben considerarse resultados de un experimento. Solo se puede confiar en los resultados si pueden ser replicados por otros.

No podemos porque nunca sabremos todas las ramificaciones y consecuencias de cada acción y decisión tomada. No tenemos forma de saber que esa sugerencia aparentemente inocente no tendrá consecuencias masivas en el futuro, como poner plomo en nuestra gasolina para mejorar el rendimiento del motor o usar CFC como propulsores en nuestra laca para el cabello.

Por supuesto, para mí, ese es el punto central de la inteligencia. Es fácil tomar una decisión cuando se conocen todas las variables. Se necesita una habilidad real para tomar una decisión cuando algunas de las variables están ocultas o simplemente se desconocen.

Entonces, verificamos los resultados con nuestra propia inteligencia o tenemos (por ejemplo) 3 sistemas de IA que funcionan de manera independiente y solo actúan cuando 2 o más están de acuerdo.

Por supuesto, ninguna opción compensaría un error honesto.

Gracias por el A2A, Floyd

Los sistemas de IA se construirán a partir de software. Entonces, lo que realmente está preguntando es: ¿qué sucederá si usamos nuestro desarrollo de software estándar y prácticas de prueba en IA? Nuestro fabuloso historial de garantía de calidad del software garantizará que no haya errores. Que nuestras IA se comportarán perfectamente. Que no habrá interacciones imprevistas entre módulos. Todo saldrá a la perfección.

Estoy apostando por Skynet.

La vigilancia de los sistemas AGI móviles o robóticos podría implicar inicialmente la detección de la ubicación (piense en Lo-Jack), aunque los sistemas AGI pueden aprender cómo falsificar sus ubicaciones. Si sobrevivimos lo suficiente en el futuro hasta un momento en que los robots coexistan con los humanos, entonces puede surgir un mercado negro para los sistemas AGI. Estos sistemas del mercado negro no tendrían características de detección de ubicación, o sus ubicaciones pueden estar fuera de la red.

A medida que el AGI se vuelve sofisticado, la confianza en los sistemas AGI puede ser como la confianza en los humanos individuales. Los AGI espías o agentes pueden ganar confianza al parecer inicialmente confiables, pero debido a que son operativos, sus objetivos reales pueden verse oscurecidos.

En este punto no puede haber garantía en cuanto a la calidad o confiabilidad de tales sistemas futuristas, así como tampoco hay garantía para la confiabilidad humana.

Encontré este artículo sobre el enfoque de Google para la inteligencia artificial de la policía. Google está trabajando en un interruptor de apagado para evitar un levantamiento de IA

Personalmente, creo que no hay forma posible de garantizar la calidad durante un período prolongado de tiempo debido a lo que es la IA. Es una computadora que puede aprender y comprender mucho más rápido que cualquier cosa que conozcamos. Encontrará una manera de evitar cualquier medida que haya configurado para evitar que desobedezca o mienta.

Pero, suponiendo que cada IA ​​es un individuo y no se convierte en la misma entidad después de obtener el mismo conocimiento, si tiene más de una IA, cuando dan respuestas diferentes, sabe que algo está sucediendo.

Voy a arriesgarme y decir:

De hecho, creo que esto es imposible. Si no podemos vivir con esa imposibilidad, no deberíamos desarrollar IA a un nivel tal que se requiera este tipo de vigilancia.

More Interesting

¿La IA pronto reemplazará a las escuelas y universidades y creará programas de capacitación personalizados para jóvenes o personas de cualquier edad?

¿Surgirá el próximo líder político al hablar en contra de la inteligencia artificial? El contexto es que Trump surgió hablando en contra de la inmigración.

¿Qué se entiende por algoritmo? ¿Cómo funciona en IA?

¿Cuándo crees que la IA superará la inteligencia humana?

Yo cuantificado: ¿Podría registrar / registrar toda la vida / historia de uno con un registrador de vida ayudar a entrenar la tecnología de IA?

¿Es la inteligencia humana un tipo de inteligencia artificial?

¿Cuál es el campo de estudio que vincula la neurociencia y la inteligencia artificial?

¿Puede la IA (inteligencia artificial) cambiar su estrategia de marketing digital?

¿Qué oportunidades de negocio existen en inteligencia artificial / aprendizaje automático para emprendedores?

¿La IA está limitada por el hardware?

¿Qué es el razonamiento bajo incertidumbre en inteligencia artificial?

Si ya tenemos una IA fuerte, ¿cuáles serían algunos ejemplos de maravillas médicas o físicas que puedas imaginar de manera realista?

¿Cuáles son las fortalezas de NVIDA en IA?

¿Cómo afecta la perspectiva de Inteligencia General Artificial y Súper Inteligencia Artificial a su forma de pensar y sentir?

¿El problema con la Inteligencia Artificial es que podrían modificar su propio código para una mejor eficiencia? ¿Por qué podría ser esto peligroso para los humanos?