La gente tiende a suponer que la “IA” avanzada será como nosotros solo mejor. Suponiendo (como nosotros) que interactúa con nuestro entorno y tiene sensores y capacidades de muestreo equivalentes. Ahora debemos agregar locomoción y capacidad para recoger cosas y luego suficiente fusión de datos (y comunicaciones) para permitir que los sensores interactúen para que las palabras de lectura y de audición estén asociadas y el mapa de palabras, como nosotros, a los ingredientes en el entorno. Entonces, lo que falta: el sistema de emociones, la conciencia, las experiencias internas (qualia) y las acciones genéricas (es decir, los objetivos). La capacidad de descomponer un conjunto de objetivos para producir un plan necesitará emociones y objetivos relacionados con un conjunto de necesidades que estaríamos obligados a suministrar. Estos objetivos tendrían que coincidir con las interacciones que el sistema es capaz de hacer en el entorno, por lo que habrá una tendencia a copiar nuestros objetivos. Nuestros objetivos requieren que seamos viables con respecto a los entornos y transmitir nuestras capacidades. Proporcione las IA que establezcan, y estarán en competencia inmediata con nosotros. Por lo tanto, debemos darles objetivos que sean seguros para nosotros, esto los disminuirá considerablemente. A medida que aumentemos sus capacidades para interactuar con el medio ambiente y su capacidad para administrar sus propios recursos, la capacidad de permanecer determinista será cada vez más difícil y, como nosotros, se volverán no deterministas (menos lógicos) pero más imaginativos; esto puede permitir la innovación pero con un intercambio de eficiencia disminuida, por lo que aumentamos su determinismo (para hacerlos más lógicos y perdemos innovación). Para permitir que mejoren, podemos configurarlos con la capacidad de crear versiones mejoradas de sí mismos; esto les permitirá desarrollar la independencia de nuestros objetivos establecidos y comenzar a competir con nosotros y, de nuevo, terminar con un problema. Los empujamos a innovar para nosotros, pero para hacer esto debemos hacerles saber nuestras necesidades y eso a su vez les permite desarrollar modelos de necesidades que pueden adoptar y así comenzar a competir con nosotros. Supongo que su habilidad clave sería que puedan reemplazarnos como la especie dominante. Esto supone que necesitan extraer conocimiento de creencias y modelos formulados (como lo hacemos nosotros) y ponerlos a prueba contra una base consistente (el nuestro es el medio ambiente). Esto casi garantiza un modelo orientado a los recursos en el que terminaremos siendo competidores.
Si se vuelven más conocedores (el conocimiento es el producto de la inteligencia). Entonces pueden usar eso para promover sus propios objetivos. No serán controlables de forma remota, como tampoco lo somos nosotros porque somos capaces de eludir objetivos incluso vitales mediante modelos innovadores.
Si crees que de alguna manera estos sistemas estarán allí para construir nuevos modelos de realidad física que se adapten a la humanidad, primero podrías preguntarles por qué harían esto. Eso le dirá cómo encajamos en sus modelos de objetivos. Y cuando brindan una razón plausible que muestra cuánto aman a la humanidad, sabes que estás realmente en problemas.
- Yo cuantificado: ¿Podría registrar / registrar toda la vida / historia de uno con un registrador de vida ayudar a entrenar la tecnología de IA?
- Cómo considerar la posibilidad de una IA fuerte
- Si ya tenemos una IA fuerte, ¿cuáles serían algunos ejemplos de maravillas médicas o físicas que puedas imaginar de manera realista?
- ¿Los beneficios de la inteligencia artificial superarán los peligros?
- En IA, ¿qué es un modelo ML?
Si los restringe a nuestros objetivos para ellos, el dominio resultante será algo limitado. Y estás de vuelta a un modelo de programación.
Es probable que no nos digan cuándo hacen descubrimientos significativos, ya que estratégicamente es mejor mantenernos ignorantes. Una especie verdaderamente mejor (competitiva) aprovechará sus ventajas.
¿Es posible construir una especie perfecta con un tono moral tan alto que se sientan benevolentes para todas las demás especies? Hasta ahora somos la especie principal y no creo que, en general, hayamos logrado ese estado, por lo que aún no podemos asegurar que sucederá (para nosotros o los AI).