¿Qué habilidades podría poseer la inteligencia artificial avanzada?

La gente tiende a suponer que la “IA” avanzada será como nosotros solo mejor. Suponiendo (como nosotros) que interactúa con nuestro entorno y tiene sensores y capacidades de muestreo equivalentes. Ahora debemos agregar locomoción y capacidad para recoger cosas y luego suficiente fusión de datos (y comunicaciones) para permitir que los sensores interactúen para que las palabras de lectura y de audición estén asociadas y el mapa de palabras, como nosotros, a los ingredientes en el entorno. Entonces, lo que falta: el sistema de emociones, la conciencia, las experiencias internas (qualia) y las acciones genéricas (es decir, los objetivos). La capacidad de descomponer un conjunto de objetivos para producir un plan necesitará emociones y objetivos relacionados con un conjunto de necesidades que estaríamos obligados a suministrar. Estos objetivos tendrían que coincidir con las interacciones que el sistema es capaz de hacer en el entorno, por lo que habrá una tendencia a copiar nuestros objetivos. Nuestros objetivos requieren que seamos viables con respecto a los entornos y transmitir nuestras capacidades. Proporcione las IA que establezcan, y estarán en competencia inmediata con nosotros. Por lo tanto, debemos darles objetivos que sean seguros para nosotros, esto los disminuirá considerablemente. A medida que aumentemos sus capacidades para interactuar con el medio ambiente y su capacidad para administrar sus propios recursos, la capacidad de permanecer determinista será cada vez más difícil y, como nosotros, se volverán no deterministas (menos lógicos) pero más imaginativos; esto puede permitir la innovación pero con un intercambio de eficiencia disminuida, por lo que aumentamos su determinismo (para hacerlos más lógicos y perdemos innovación). Para permitir que mejoren, podemos configurarlos con la capacidad de crear versiones mejoradas de sí mismos; esto les permitirá desarrollar la independencia de nuestros objetivos establecidos y comenzar a competir con nosotros y, de nuevo, terminar con un problema. Los empujamos a innovar para nosotros, pero para hacer esto debemos hacerles saber nuestras necesidades y eso a su vez les permite desarrollar modelos de necesidades que pueden adoptar y así comenzar a competir con nosotros. Supongo que su habilidad clave sería que puedan reemplazarnos como la especie dominante. Esto supone que necesitan extraer conocimiento de creencias y modelos formulados (como lo hacemos nosotros) y ponerlos a prueba contra una base consistente (el nuestro es el medio ambiente). Esto casi garantiza un modelo orientado a los recursos en el que terminaremos siendo competidores.

Si se vuelven más conocedores (el conocimiento es el producto de la inteligencia). Entonces pueden usar eso para promover sus propios objetivos. No serán controlables de forma remota, como tampoco lo somos nosotros porque somos capaces de eludir objetivos incluso vitales mediante modelos innovadores.

Si crees que de alguna manera estos sistemas estarán allí para construir nuevos modelos de realidad física que se adapten a la humanidad, primero podrías preguntarles por qué harían esto. Eso le dirá cómo encajamos en sus modelos de objetivos. Y cuando brindan una razón plausible que muestra cuánto aman a la humanidad, sabes que estás realmente en problemas.

Si los restringe a nuestros objetivos para ellos, el dominio resultante será algo limitado. Y estás de vuelta a un modelo de programación.

Es probable que no nos digan cuándo hacen descubrimientos significativos, ya que estratégicamente es mejor mantenernos ignorantes. Una especie verdaderamente mejor (competitiva) aprovechará sus ventajas.

¿Es posible construir una especie perfecta con un tono moral tan alto que se sientan benevolentes para todas las demás especies? Hasta ahora somos la especie principal y no creo que, en general, hayamos logrado ese estado, por lo que aún no podemos asegurar que sucederá (para nosotros o los AI).

Las instancias actuales están dedicadas a ciertas habilidades porque requieren conocimiento de dominio para la interacción.

Un ejemplo es un científico que quiere estudiar algún fenómeno natural y crea un dispositivo para medirlo y registrarlo, posiblemente también pueda desencadenarlo como lo desee. Ha pasado bastante tiempo desde que una sola persona podría explicar toda la ciencia y, al hacerlo, agregar su propio descubrimiento para proporcionar un nuevo marco.

Este campo puede ver todos los datos que se han capturado. El aprendizaje automático está pensado para ir a través de categorías en lugar de estar especializado en cualquier tema.

La analogía científica luego reanuda su intención de describir todo, pero también con el lado de la tecnología donde el objeto se puede configurar para las condiciones del objetivo. Esto se aplicaría a la naturaleza. Luego aprendería a avanzar cualquier cosa sin perder a la humanidad sin darse cuenta, como lo que está en juego con algo como el cambio climático. Y puede colocar máquinas en cualquier lugar, o convertir cualquier cosa en eso, y eso tiene un alcance que incluye espacio que nadie ha podido ver hasta ahora. Todavía tienen que averiguar qué hora es lo suficientemente buena como para poder hacer algo con eso, pero su escala se reduce al intervalo más mínimo, de modo que la causa-efecto no es necesariamente la misma de lo normal.

Esto comienza a sonar como ciencia ficción porque parece más parecido a la imaginación que a la realidad, pero eso es lo que atrae y dónde están los límites hasta ahora. Acoplando a los usuarios con él significa que va a superar todos estos límites. A dónde lleva eso sería una incógnita. Les gusta curar los males de la historia para empezar.

Si estás hablando avanzado como en el nivel Super-Humano, entonces podrías esperar que posea todas las habilidades bajo el Sol. No veo ninguna razón para que no sea capaz de hacer nada que un humano pueda considerar, ya que sería superhumano y en ese punto probablemente podría tomar la forma de una máquina robot / humanoide realista. Por lo tanto, eso le daría muchas opciones.

Nada y todo.

Eventualmente, la IA podrá hacer cosas que ni siquiera podemos soñar en estos días.

Ya están demostrando su capacidad futura para hacer cosas tan abstractas como el arte, y tendrán habilidades excepcionales para realizar cálculos lógicos.

El cielo no es el límite, quizás lo sea el borde de la galaxia.

Realmente solo tienen una habilidad. Piensan y absorben datos más rápido que nosotros. Que es una especie de superpotencia definitiva. Todo lo que nuestra especie ha logrado ha sucedido porque somos más inteligentes que las otras especies en este planeta. Una IA capaz de volverse más inteligente que nosotros tendría un potencial bastante aterrador de logros para bien o para mal.

La IA avanzada podría competir o incluso suprimir algunas tareas humanas. Se ha hecho en muchos campos. Por ejemplo, el robot de soldadura puede lograr una mayor precisión que los soldadores humanos. Entonces puede decir que la IA avanzada tiene la capacidad de hacerse cargo de las tareas humanas y hacerlo mejor.

Creo que la Inteligencia Artificial cuando obtiene una forma física sería mucho más resistente a todo aquello a lo que los humanos no somos resistentes y tendrán una larga vida si no es inmortal. Para que puedan hacer exploración espacial y puedan vivir en planetas que no son habitables para nosotros.

Casi cualquier cosa, pero no creo que creemos IA con un sistema emocional similar. Por lo tanto, probablemente tendrá habilidades sobrehumanas, pero sin muchos “sentimientos” subjetivos.