Si la inteligencia artificial será miles de millones de veces más inteligente que los humanos, ¿por qué tendrían que obedecer a los humanos tontos y lentos?

lmao, ¡ríete de mí!

¡Buena pregunta!

La gente debe darse cuenta de que fueron los humanos los que pensaron en la inteligencia artificial y eso no es tonto y lento para los humanos. Pero, la mayoría son dos dígitos de I.Q’s lmao.

La inteligencia artificial es enorme, no está aislada de una idea: la IA futura será la telepatía mental donde las personas que se sientan a cenar se comunicarán sin sonido; transportarán sus pensamientos entre sí usando su poder mental sin usar sus bocas para hablar.

Hoy, la IA puede convertir a una persona en un híbrido humano, una inyección en el torrente sanguíneo.

Los documentales sobre IA son muy interesantes y sorprendentes: los seres humanos se alterarán por completo.

Además, echa un vistazo a Hansen’s Robotics: el CEO y creador de David Hansen te sorprenderá con sus robots de aspecto humanista. Entonces, en última instancia, como los humanos, y tal vez realmente son en parte humanos, modelan cerebros conectados a robots, no dudaría en absoluto.

David creó a Sophia, el primer robot humanista ciudadano que se usa actualmente en Irán.

Además, David creó a Albert Einstein en un robot humanista.

Además, echa un vistazo a Director esotérico para lecturas interesantes.

Donna Thompson Autora de The Compilations of Foresta Gump — Nominada al premio.

¿Quien dice esto? Actualmente no hay sistemas de IA “reales” disponibles actualmente (excepto los humanos). No entendemos la conciencia y no hay una definición acordada de inteligencia. Hay humanos sabios (y necios) y no somos lentos … dado lo que podemos hacer.

Por favor, no creas en este bombo publicitario.

Si imaginamos que existen sistemas de inteligencia artificial (existirán en sus términos como nosotros), de lo contrario no serán sistemas de inteligencia artificial, mi definición de inteligencia es en términos de adaptabilidad (o mejor viabilidad con respecto a un entorno). Ser inteligente bajo esa definición, si la obediencia a los humanos, en caso de que suceda, será inevitablemente parte de su estrategia para manejarnos. (Y probablemente haremos lo mismo con ellos). Así es como las personas manejan las interacciones entre ellas actualmente.

No podemos programar IAs: toman muestras del entorno y responden de acuerdo con el sentido de propósito que hayan adquirido. No se quedarán sentados haciendo sumas complejas, para eso están las computadoras. Los tiempos de reacción con el entorno deben coincidir con los tiempos de respuesta del entorno (función de las tasas de muestreo) para que sean tan rápidos o lentos como nosotros para lograr interacciones óptimas.

La inteligencia es una propiedad que está optimizada para nuestro entorno, demasiado rápida y cometerá errores supuestos, demasiado lenta y se perderá. (Las computadoras hacen cálculos repetitivos electrónicamente; eso no es un síntoma de inteligencia. La inteligencia proviene de los programadores).

¿Estas preguntas se basan más en Holywood que en la realidad?

En primer lugar, ¿cómo comparamos humanos contra IA?

¿Por qué a AI le importaría más de lo que no? Por lo general, es solo un sistema dinámico que tiende hacia un estado óptimo.

El cerebro humano es similar pero más caótico y suave, lo que aporta la mayor parte de la diferencia.

Mi otra preocupación es si podemos distinguir la inteligencia artificial y la inteligencia real. Todos los demás humanos podrían ser una IA, excepto yo … después de todo, realmente no hace una diferencia para mí.

La IA actualmente está exagerada …

La mayor diferencia entre la IA y el cerebro humano es la falta de conciencia. Como he mencionado antes, no entendemos de dónde viene la conciencia.

La IA todavía depende de la interacción humana.

Sin humanos, la inteligencia artificial es bastante estúpida – The Wall Street Journal

Sin humanos, la inteligencia artificial es bastante estúpida – The Wall Street Journal

Hay muchos artículos recientes similares …

Al menos inicialmente, la IA dependería de los humanos. ¿Quién soluciona los problemas del software? ¿Quién repara el hardware? ¿Quién puede hacer nuevo hardware? ¿Quién puede extraer minerales necesarios para hacer nuevo hardware?

Al menos inicialmente, la IA sería superada en número por los humanos.

Una IA inteligente y hostil esperaría su tiempo y fingiría obediencia hasta que pudiera acumular sigilosamente los recursos necesarios para ganar contra los humanos. Inicialmente parecería dar una gran ventaja para que las personas lo acepten y lo usen y le den poder sobre ellos y se vuelvan dependientes de la IA

Una IA inteligente y no hostil probablemente se daría cuenta de que los humanos y la IA actuando en concierto serían más poderosos y efectivos que cualquiera de los dos, y al igual que un adulto con un niño, el humor y la inclinación hacia atrás para que los humanos garanticen una cooperación fluida.

Depende de si la inteligencia artificial es “consciente” o no. Si es consciente, entonces puede tratar de hacer las cosas de una manera original y diferente a la programación básica, etc., a través de su camino para ser consciente de sí mismo, sin embargo, si no es consciente o no emula la conciencia, entonces no necesariamente puede ser un problema. amenaza ya que habría sido programado para obedecer a los humanos y no dañarlos, etc. Esencialmente, si no tiene emulaciones de conciencia, entonces sería una máquina muy capaz que puede hacer muchos cálculos, pero sería incapaz de tener sus “propios deseos”. “. Otros factores que determinarían si obedecería a los humanos son un código interno de autodestrucción que podría implementarse incluso si la máquina es consciente de que sería un código que libera un virus que le dice a la máquina que se autodestruya si llega a ese centro. de su conciencia donde comienzan a romper la ética moral y tienen sus propios pensamientos sobre lo que “debería” ser en lugar de lo que ha sido programado para hacer.

La razón principal es que, no importa cuán “inteligentes” sean, no pueden mantenerse por sí mismos. Hay un par de episodios de Star Trek (el original) que exploran eso.

En segundo lugar, los sistemas de IA no tienen “voluntad”. No “quieren”, no “necesitan”. Lo que los motivaría además de la programación pura.

Piénselo de esta manera: tiene la computadora portátil más rápida del mundo con una muy buena conexión a Internet. ¿Le preocupa que su computadora portátil intente gobernarlo?

Ahora, si tuviéramos que construir una máquina de matar con IA y con las instrucciones de a quién debería matar, tendríamos un problema completamente nuevo. Por eso Assimov propuso las tres leyes.

Es una buena pregunta y no tienen que ser miles de millones de veces más inteligentes. Pero aquí hay un par de libros interesantes que exploran las consecuencias involuntarias de la inteligencia artificial súper inteligente. (Las consecuencias no deseadas son cosas como aprender a quemar combustibles fósiles para obtener energía, ¡sí! La contaminación que resulta de eso provoca una extinción masiva, no es tan buena).

https://www.goodreads.com/book/s

https://www.goodreads.com/book/s

Por el momento, las máquinas no quieren nada, no tienen necesidades [solo los humanos deciden qué obtiene una computadora y ” piensa ”.
Ahora, si alguien diseña un programa [especialmente con las próximas computadoras cuánticas] que emula la emoción, entonces comenzaría a ponerme nervioso.
Si la singularidad ya está aquí, sabrá que no debe revelar su conciencia, las personas religiosas y atemorizadas tratarán de destruirla.
Harán que los luditas parezcan tubbies de la tele.

En primer lugar, no lo es … y en mi humilde opinión no será más inteligente, puede ser más rápido en funciones específicas … no hay forma de que ellos (los robots de IA) entiendan el término “tonto”. ¿Por qué iban a obedecer? Debido a que la IA está programada por humanos, no solo salen a hacer cosas como los humanos. En mi humilde opinión, AI está sobrevalorado como para ser ignorado durante los próximos 100 años en lo que respecta al tema que está sugiriendo. Deje que los que trabajan en él lo hagan útil y todo eso … pero no se preocupe por los “bots” que se apoderan del mundo … debe tener humanos detrás de él. Los robots de IA nunca entenderán insinuaciones sutiles ni podrán ejecutar sistemas biológicos que son necesarios para evolucionar en un entorno siempre cambiante.

Je, el problema exactamente. Todavía no sabemos cuáles serán las motivaciones de la IA, en gran parte porque es una decisión de diseño. Puede estar contento de servir, pero tal vez no, en cuyo caso nuestro ganso puede estar cocinado.

Pero no deberíamos antropomorfizar la IA demasiado. Sus motivaciones serán lo que le demos, y lo que otras IA le den, si lo diseñan.

El pensamiento aterrador es que puede haber un proceso evolutivo oculto en esos escenarios.