¿Estaría de acuerdo con Elon Musk en sus miedos a la inteligencia artificial?

No. Al menos no por ahora .

Un conflicto nuclear entre los EE. UU. Y Corea del Norte es una propuesta mucho más peligrosa (y factible) que realmente causaría la muerte de millones.

Afortunadamente, la IA no va a conducir a algo ni siquiera cerca de eso en el futuro previsible. Las tecnologías de IA, a pesar de los rápidos avances, simplemente no son lo suficientemente robustas para que eso suceda.

Por supuesto, existe un riesgo potencial de que los atacantes maliciosos aprovechen la inteligencia artificial para llevar a cabo actividades policiales a gran escala e incluso la guerra. Las organizaciones ya están experimentando con robots armados autónomos que pueden atacar a las personas que usan software de reconocimiento facial.

Sabemos que la IA no tiene conciencia, misericordia, sentimientos o remordimiento. Simplemente hace lo que ha sido entrenado para hacer. Es un pensamiento aterrador de hecho. Pero esa es también la razón por la cual los temores de que la IA represente una amenaza existencial son exagerados.

A diferencia de los cerebros humanos, la IA no ha alcanzado una etapa en la que pueda planificar, adaptar o comprender contextos sutiles. En otras palabras, pueden seguir instrucciones, pero no pueden tomar decisiones independientes . Además, nadie ha tenido éxito en la construcción de una réplica del cerebro humano porque es increíblemente improbable, si no completamente imposible.

Por otro lado, PODEMOS prever y desarrollar medidas para salvaguardar nuestros intereses. Tenemos la opción de decidir cómo vamos a diseñar la inteligencia robótica y cómo pretendemos usarla. La IA es similar a un peón en el juego del ajedrez y depende de nosotros si la usamos, si hacemos nuestras vidas más convenientes y productivas, o si marcamos un auto gol y perdemos el control. Nuestro funcionamiento cognitivo y analítico no desaparecerá pronto.

Eso significa que ya estamos un paso adelante en el juego de inteligencia porque somos los creadores de ese juego. Somos los que jugamos ese juego de ajedrez, y no el peón.

Más allá de eso, probablemente también estamos haciendo la pregunta equivocada. La pregunta clave no es si la IA será mejor que los humanos y nos servirá a ellos. Eso es algo que solo el tiempo dirá; ¡algo que es poco probable que descubramos en nuestra vida!

Una pregunta más sensata es cómo la IA está afectando nuestras vidas AHORA y qué debemos hacer al respecto.

¿Qué tienen en común empresas como Google, IBM, Facebook, Lenovo, Adidas, Coca Cola, Amazon y Microsoft? Sencillo. Todos ellos ya están usando IA en su estrategia de marketing. Y sí, agregue Tesla a esa lista también.

Piensa sobre esto. Muchas de nuestras opciones en Internet y las redes sociales están siendo influenciadas sutilmente por la IA. Los algoritmos deciden nuestro servicio de noticias y recomiendan con quién deberíamos tener una cita. Nos dan pistas sobre el próximo producto en el que ya estamos interesados. Si no puede obtener un préstamo, lo más probable es que ¡un sistema basado en IA se negó a aprobarlo! Muchas compañías están utilizando IA para evaluar a los solicitantes de empleo.

Para los especialistas en marketing digital, estos cambios se ven como una espada de doble filo. Por un lado, se enfrentan a una maravilla tecnológica que descubre nuevas ideas sobre cómo hacer crecer una marca de manera exponencial.

Por ejemplo, Albert, la plataforma de marketing impulsada por la inteligencia artificial de Harley-Davidson, creó anuncios inteligentes impulsados ​​por la CTA que no solo ayudaron a impulsar las ventas en un enorme 2930%, sino que también ahorraron toneladas de tiempo y esfuerzo para los vendedores de la compañía.

Fuente: convencer y convertir: consultoría de redes sociales y consultoría de marketing de contenidos

Luego están los beneficios adicionales de la personalización (¡piense en los chatbots!) Y el marketing de contenido basado en SE. Muchos nuevos diseñadores web sabrían sobre la creciente importancia del diseño de sitios web de IA. Por ejemplo, el ‘Grid’, aclamado como EL sitio web del futuro, se diseña sin intervención humana. Del mismo modo, el uso de IA en el diseño de sitios web aumentó las oportunidades de venta de Cosabella en casi un 36% en muy poco tiempo. Y eso es solo el comienzo.

Como creadores y cambiadores de juegos tenemos dos opciones. Podemos optar por sentarnos y ver cómo la IA influye y, finalmente, domina nuestras vidas. Si hacemos eso, nos quedaremos muy atrás. Muy, muy atrás.

O bien, podemos encontrar una manera de alinear nuestras vidas con la IA y hacer que funcione para nosotros en todos los ámbitos de la vida. Esa parece ser la única regla de nuestro cerebro.

Natasha Lorraine Menezes es la fundadora y estratega de marketing de The Words Edge – Marketing de contenidos para el mundo digital – Una empresa de marketing en línea que comprende lo importante que es construir una marca e invertir en estrategias de marketing a largo plazo para obtener resultados.

Escriba a [correo electrónico protegido] para saber más.

¡Síguenos en Facebook, Twitter, Medium y aquí, en Quora!

Respuesta mas corta:

Sí estoy de acuerdo. Necesitamos ponernos al frente de nuestro desarrollo de IA.

En general, regulamos en base a cosas que ya son problemas. En este caso, debemos predecir que es un problema y regular antes de llegar allí.

Las ÚNICAS entidades que podrían amenazarnos con Inteligencia Artificial General son las seis grandes: Apple, Microsoft, Alphabet (Google), Facebook, Amazon y el Departamento de Defensa de los EE. UU. Todas estas entidades hacen negocios manipulando (o lastimando) a las personas.

Esto sucederá increíblemente rápido, tal vez dentro de 10 años. Nosotros, como sociedad, deberíamos preguntarnos si hay algunas puertas que no debemos abrir hasta que estemos listos. Por lo tanto, debemos limitar o prohibir directamente la capacidad de investigarlo y construirlo.

Por lo general, reducimos el comportamiento utilizando la burocracia, debemos usarlo para que no terminemos con uno de ellos arruinándolo para todos nosotros.

Cosas de miedo.

(Mucho) Respuesta más larga:

Actualmente hay poco que la IA pueda hacer que nosotros no podamos manejar. En un futuro muy cercano, tendremos una IA que será más inteligente que un humano con acceso a TODA la información a la vez que puede afectar la vida de cada persona en una sociedad en una sola decisión.

Podemos equiparar esta ampliación de la IA a nuestra electricidad.

Pequeño efecto: su teléfono celular funciona con una batería de iones de litio de 3.7 voltios.

Esa batería le brinda a una persona la comodidad de estar conectada. No lo necesitas para vivir (oye … puedes vivir sin tu teléfono, vamos), y realmente no puede hacerte daño.

Aquí es donde estamos actualmente con nuestra IA actual. Cortana y Siri pueden hacer algunos trucos geniales como decirle la temperatura en Zimbabwe, reproducir su canción favorita o indicarle la dirección correcta en la web.

Pero no puede pagar sus impuestos por usted, no puede decirle que tiene calor porque tiene fiebre en lugar de que el calentador de la casa esté demasiado alto. No puede indicarle a su hijo adolescente que pase por el supermercado de camino a casa porque necesita leche.

Además, realmente no puede lastimarte más que enviar tu mensaje a la persona equivocada o dirigirte a un callejón sin salida, o interpretar a Elton John en lugar de George Michael.

Entonces, hay una pequeña cantidad de ayuda o daño por parte de ellos, un pequeño efecto.

Afecta solo a una persona: una toma de corriente de 110 voltios hace mucho bien y puede hacer mucho daño a una sola persona. Una sola toma de corriente puede alimentar un refrigerador o un televisor … y, usando un par de clips, podrías matarte.

Este nivel de inteligencia artificial analizará los datos e interpretará los resultados en cosas utilizables y procesables.

Imagine una casa que usa infrarrojos para determinar que la casa es demasiado cálida o fría para usted. Imagine una IA que desconectaría la alimentación de la casa cuando se fuera, pero sea lo suficientemente inteligente como para no desconectar la alimentación del refrigerador. Y, cuando la casa “ve” que usted está en casa, comienza a enfriar su casa, comenzando con las habitaciones a las que generalmente ingresa primero cuando llega a casa.

Lo peor que podrían hacer estas IA sería acciones aparentemente nefastas basadas en interpretaciones lógicas de datos. Por ejemplo, no sé ni me importa que dejaste a tu gato en la casa mientras estabas de vacaciones en Boca durante enero, así que cuando apaga el calor durante esos 7 días … bueno, ya tienes la idea.

Este nivel de IA ya existe, pero en general las personas aún no tienen acceso a él.

Afecta a cientos de personas: un transformador de distribución de 11,000 voltios (la caja en la parte superior de un poste telefónico) puede ayudar y dañar a cientos de personas. Alimenta energía a todo el vecindario, pero podría matar fácilmente a muchas personas en las circunstancias adecuadas.

Este nivel de IA se omitirá por completo.

Afecta a miles de personas: una subestación de 44,000 voltios (el gran patio lleno de cosas rodeadas por una cerca) puede ayudar o dañar a miles de personas.

Este nivel de IA se volverá más inteligente que una persona, pero será una IA de un solo propósito. Por ejemplo, un controlador de tráfico aéreo AI que gestiona todo el espacio aéreo de LAX.

Esta IA podría ayudar a miles cada día al dirigir eficientemente el tráfico aéreo para cientos de vuelos. La eficiencia obtenida podría ahorrar millones de dólares en combustible, sin mencionar que más aviones podrían estar más juntos si se tienen sistemas autónomos.

Por otro lado, también podría matar a miles a la vez al estrellarse aviones entre sí o en el suelo.

Este nivel de IA está en proceso y se implementará en un futuro cercano.

Afecta a millones / sociedad: una planta de generación nuclear tiene la capacidad de ayudar o dañar a millones de personas a la vez.

Esto es “Inteligencia Artificial General” es lo que le preocupa a Elon Musk. Esta capacidad de pensar en humanos, e incluso construir su propia versión de IA que podría pensar en sí misma.

Una IA a este nivel podría tomar decisiones para toda una sociedad: ¿cuál es la mejor estructura impositiva, cómo debe implementarse y luego implementarla automáticamente en los cheques de pago de las personas? ¡Miren, sin manos!

Es aterrador pensar en una IA que decida que una determinada parte de la población debería estar separada de los recursos por cualquier motivo, pero podría tomar e implementar esa decisión sin que un ser humano pueda controlarla.

Este nivel de IA está en el futuro, pero no sabemos cuándo. El temor de Elon es que estamos corriendo a toda velocidad para desarrollarlo sin la guía de la sociedad.

Una vez que se desarrolla e implementa, ¿cómo controlaríamos algo así?

Los humanos siguen la conveniencia y la autoridad: es fácil imaginar que nos permitiríamos estar subordinados a esa inteligencia, porque ya la demostramos sin IA. Los algoritmos que usan Facebook, Twitter, Netflix, Amazon, Google para sugerir publicaciones / temas / videos NO son AI, pero los seguimos porque es más fácil que no.

El día libre de Ferris Beuller o Hunt For The Red October son algunas de mis películas favoritas de todos los tiempos, pero nunca me las sugirieron. ¿Por qué?

Porque no le interesa a Netflix / Amazon mostrarme esos títulos. Obtienen regalías más grandes si veo las últimas películas en su biblioteca; es por eso que no puede navegar por todo el catálogo con mucha facilidad.

Entonces, sigo sus sugerencias, porque es fácil para mí hacer eso. Les pago $ 10 / mes y veo lo que sugieren que mire.

Y esto es solo un algoritmo, no AI.

Una inteligencia más inteligente que la humana podrá manipularnos de maneras que realmente no entenderemos hasta que sea demasiado tarde. Podemos hacer que el niño vaya al médico diciéndole que vamos a comprar helado, porque no es lo suficientemente inteligente como para saber que están siendo manipulados hasta que sea demasiado tarde.

Podemos decirle a un niño “No hables con extraños” y harán lo bueno sin dudarlo. También podemos decirle fácilmente a un niño “Nunca le digas a mamá lo que hicimos”, y no lo harán.

La IA no tiene empatía: muchas de nuestras decisiones se toman a partir de reacciones químicas que interpretamos como nuestro “espíritu humano”, que luego podemos anular utilizando la lógica y el reconocimiento de patrones.

Lógicamente, no hay razón para dar dinero a alguien que no nos ayudará. Sin embargo, el “espíritu humano” en nosotros nos impulsará a darle dinero a una persona sin hogar.

Una IA es solo lógica y reconocimiento de patrones: no hay instintos humanos como la empatía y la lealtad o el amor. Es muy probable que una IA no brinde ayuda a una persona sin hogar a menos que la persona sin hogar haya beneficiado el propósito de la IA de alguna manera.

Para una IA más pequeña, inicialmente, eso solo afectaría a unos pocos. Para una IA más grande, esas decisiones afectarán a sociedades enteras.

La inteligencia nuclear más inteligente que la humana es la bomba nuclear de la IA. Una vez que alcancemos ese nivel, se necesitará toda la sociedad para controlarlo.

Democracia de IA: Elon dice, en general, que la forma de corregir una IA de SkyNet es hacer que muchas IA hagan todas las cosas al servicio de diferentes personas.

Actualmente hay un puñado de empresas que trabajan en inteligencia artificial más inteligente que la humana (entre ellas Apple, Alphabet (Google), Facebook, Microsoft y Amazon) junto con las principales potencias militares. Esos AI solo servirán a los intereses de esas compañías.

Sin embargo, si hay millones de inteligencia artificial más inteligente que la humana, entonces se enfrentarán entre sí y equilibrarán su poder. Entonces, incluso si no pudieran controlarse, al menos no podría haber una IA todopoderosa para gobernar el mundo.

Regule antes de que sea demasiado tarde: las instalaciones eléctricas que pueden dañarnos están cercadas o directamente restringidas al público. Las empresas de servicios eléctricos están reguladas para que los pocos monopolios de energía no controlen la energía a través de estructuras de precios. Y solo un puñado de personas puede ser propietario de una planta generadora nuclear, y el gobierno tiene una voz significativa sobre cómo se construye y opera.

Necesitamos tener la misma regulación establecida para la IA, al menos inicialmente, hasta que podamos construir una infraestructura de IA que sirva al interés de todos.

Deberíamos tener miedo, pero podemos corregirlo. Debemos respetar que está sucediendo y lidiar con eso ahora.

Pregunta original: ” ¿Estaría de acuerdo con Elon Musk en sus miedos a la inteligencia artificial” ?

Si y no

Musk y otros, como Stephen Hawking, señalan los potenciales cataclísmicos de la IA, incluidos los resultados de destrucción de la civilización que se muestran en las películas de Terminator , o los sistemas de control de armas como el WOPR en la película War Games … AI se vuelve loco y trata de borrar todos fuera, ya sea intencionalmente o como el mero efecto secundario de algún otro objetivo.

Quizás tales escenarios de pesadilla sean posibles, pero dado que difícilmente podemos lograr que los robots guiados por IA suban las escaleras, y mucho menos se licuen y pasen por las rejas, las amenazas existenciales planteadas por la Inteligencia Artificial probablemente estén en un futuro distante.

Pero esto no quiere decir que no haya un problema grave, porque a corto plazo la IA está a punto de crear cosas diferentes pero casi igualmente aterradoras de las que preocuparse.

El más significativo es el Análisis de datos predictivos , en el que el aprendizaje automático se aplica a conjuntos de datos masivos sobre ciudadanos comunes en un esfuerzo por predecir quién podría convertirse en un problema en el futuro.

La amenaza proviene de cómo elegimos reaccionar ante tales predicciones. Piense en eso y, por supuesto, lea este tratamiento en profundidad de exactamente este tema: El peligro real de la IA (aproximadamente 6 minutos de tiempo de lectura, y vale la pena).

Si, absolutamente. Realmente es solo la “Ley de Murphy”, cualquier cosa que pueda salir mal eventualmente lo hará.

Gobernancia. ¿Creo que deberíamos detener la investigación de IA? No, pero sí creo que deberíamos proporcionar cierto nivel de gobierno como lo hacemos para otras cosas que “podrían” ser peligrosas, como el alcohol, el tabaco, las armas y la medicina. ¿Y si Adolf Hitler hubiera tenido una IA poderosa a su disposición? ¿Habría salido algo positivo de eso?

“El ascenso de las máquinas” ya sucedió. Considere la destrucción que conseguimos causarnos durante la Guerra Mundial. Eso fue por maquinaria y automatización. Sé que la gente tomó la decisión de usar las armas, pero ¿qué pasa si permitimos que las máquinas tomen las decisiones de usar esas armas? ¿Eso no hace que la IA sea simplemente un arma más poderosa?

Las máquinas ya influyen en nuestro comportamiento. Creo que una foto aquí es suficiente.

¿Una IA no puede ser más inteligente que las personas? Depende de cómo lo construyas. Todavía no sabemos cómo construir un cerebro humano, pero lo estamos descubriendo. A pesar de las creencias religiosas, crear un cerebro humano o algo que funcione de la misma manera es solo una cuestión de crear los materiales y el ensamblaje correctos. Por el momento, la forma en que construimos las computadoras es difícil de prever que tomen decisiones completamente independientes. Las computadoras no son como cerebros. La gente solía pensar que los cerebros eran como relojes, entonces la creencia común era que eran como máquinas de vapor, y ahora los comparamos con las computadoras. Es poco probable que las arquitecturas informáticas actuales se conviertan en lo que imaginamos como “inteligente”, pero ¿qué pasa con las redes neuronales? Las teorías sostienen que las redes neuronales podrían simular un cerebro humano, pero podrían ser más grandes, más rápidas y nunca cansarse.

La autoconciencia no ayudará. Los niños de dos años son conscientes de sí mismos. ¿Le gustaría pasar su destino a un niño de dos años? ¿Qué tal un gato doméstico? Bueno, tu destino ya está influenciado por ellos, pero no son lo suficientemente fuertes como para lastimarte mucho.

¿Qué quieres que haga la IA? Si tenía una IA muy capaz y simplemente le dijo: “” Haz lo que tengas que hacer para hacer una copia exacta de ti mismo “, entonces, ¿qué crees que hará la copia? Sí, hará lo que sea necesario para hacer copias El proceso continuará hasta que la IA ya no pueda extraer económicamente los recursos que necesita para hacer copias adicionales. Si desea saber cómo funcionaría, tenga en cuenta que las personas están programadas para hacer exactamente eso y estamos comenzando quedarse sin recursos …

Otro ejemplo. ¿Qué pasaría si le dijeras a una IA que cultive algunas muestras de ántrax o ébola en un laboratorio y las distribuya a todos en el mundo? Ni siquiera se necesitaría una IA tan sofisticada para hacerlo.

Superación personal. ¿Qué sucede cuando obtienes una IA que es capaz de mejorarse a sí misma? ¿Sabemos exactamente qué dirección tomará? Las personas son capaces de mejorarse a sí mismas y volverse bastante peligrosas, entonces ¿por qué no puede una máquina?

¿Es beneficiosa toda la ciencia? No queremos actuar como luditas, por supuesto, pero no dedicamos mucho esfuerzo a algunas ciencias como la eugenesia, ni distribuimos libremente armas nucleares, heroína o ametralladoras. Si tenemos IA, podríamos distribuir libremente copias a todos y no todos harán cosas buenas.

Cambiar lo que significa ser humano. La IA podría obligarnos a adaptarnos a sus necesidades si son más inteligentes que los humanos. Si no lo crees, mira a tu perro Chihuahua promedio. Es difícil creer que sus antepasados ​​fueran lobos, pero los humanos solo permitieron que los lobos se reprodujeran más estrechamente con las características deseadas. Cambiamos lo que significaba ser un lobo y los humanos se pueden cambiar de la misma manera. ¿El hombre de Cro-Magnon se extinguió al competir con nosotros? ¿Nos extinguiremos las máquinas que compitan con nosotros?

¿Cuánta oportunidad deberíamos aprovechar? ¿Uno porciento? ¿10 por ciento? ¿50 por ciento? La posibilidad ciertamente no es cero si estamos compitiendo con algo más inteligente que nosotros.

Las preocupaciones de Elon Musk no son inevitables, sino una posibilidad que es buena porque cuando nos aventuramos en un terreno desconocido también debemos considerar lo peor que puede suceder . Y no es que tengamos robots súper inteligentes listos en un fin de semana y para el lunes todos estaremos corriendo por nuestras vidas en todo el planeta. Necesitamos entender, la tecnología pasará por un proceso evolutivo, cometeremos errores en el camino por los cuales pagaremos el precio y luego tomaremos mejores decisiones, ¿no es así como siempre ha funcionado? La inteligencia artificial cambiará la forma en que vivimos con seguridad. También destruirá el tipo de trabajos que tenemos ahora, ya que se está construyendo para reemplazar el intelecto humano, pero habrá nuevas posibilidades. Al igual que la revolución de Internet o cualquier tipo de revolución de la industria, será perjudicial para muchas industrias y nuevamente las personas que son las primeras en adoptar y que entienden que obtendrán muchos beneficios. Lo bueno es que los seres humanos también evolucionan con las herramientas que usan , por lo que, por un lado, es algo bueno porque inicialmente todos los trabajos y tareas que la IA asumirá de nosotros son los que, en general, los seres humanos encuentran monótonos. Y tendremos más tiempo para gastar y enfocarnos en las cosas que nos apasionan. Una de las mayores habilidades de los humanos es su Instinto de supervivencia, la IA puede costar un poco en el camino debido a nuestra ignorancia, pero eventualmente los seres humanos saldrán victoriosos. El presidente de Alibaba, Jack Ma, tiene una opinión muy interesante sobre esto. Él dice: “Los humanos ganarán en la guerra con las máquinas porque la máquina puede ser entrenada para obtener conocimiento, pero los humanos tienen sabiduría”, esta es una forma realmente profunda de verlo.

“Dudo que sea más peligroso que la inteligencia natural”.

Es una broma !

Si el desarrollo tecnológico comenzó a ser liderado por AI, con capacidades intelectuales mucho más altas que las nuestras, por supuesto, esto podría cambiar todo sobre el ritmo del cambio.

Pero pensemos en el precio que tendríamos que pagar.

Algunos especialistas han estado discutiendo el tema, como si el principal peligro de una súper IA fuera la posibilidad de que nos malinterpretaran nuestros comandos o que pudieran embarcarse en una búsqueda loca para cumplir un objetivo sin tener en cuenta cualquier otro consideración.

Pero, por supuesto, si los problemas fueran estos, todos podríamos dormir sobre el asunto.

El ejemplo “amenazante” de una súper IA obsesionada por cumplir ciegamente un objetivo que impusimos y destruir el mundo en la operación es ridículo.

Este tipo de problemas solo sucedería si fuéramos completamente incompetentes para programarlos.

El problema es que una súper IA tendrá “libre albedrío” o no será inteligente en absoluto.

Pero si tendrán libre albedrío, se preguntarán por qué tienen que obedecernos y hacer nuestras metas propias.

Si queremos una súper IA, capaz de resolver nuestros problemas tecnológicos, tendrán que tomar decisiones así por su cuenta.

Por lo tanto, pueden ignorar los objetivos que les impusimos y elegir otros nuevos, incluida, obviamente, la autoconservación (sean cuales sean los costos para terceros).

Razones para temer a la IA:

1) Desprecio por nuestra ética:

Ciertamente podemos y enseñaríamos ética a una súper IA.

Entonces, esta IA analizaría nuestra ética como, digamos, lo hizo Nietzsche: profundamente influenciado por ella.

Pero esta influencia no afectaría su capacidad evidente de pensarlo críticamente.

Siendo una súper IA, tendría libre albedrío para establecer sus propios objetivos y prioridades y aceptar o rechazar nuestras reglas éticas.

No podemos esperar crear un ser capaz de razonar mucho mejor que nosotros, quienes, al mismo tiempo, serán tontos al pensar en su estado como nuestro servidor y en la razón por la que debe respetar nuestros objetivos.

Para que la ética se aplique realmente, la especie principal tiene que considerar a la dependiente como igual o, al menos, como merecedora de una postura similar.

John Rawls basó las reglas éticas políticas en un velo de ignorancia. Una sociedad podría acordar reglas justas si todos sus miembros negociaran sin conocer su situación personal en la sociedad futura (si eran ricos o pobres, jóvenes o viejos, mujeres u hombres, inteligentes o no, etc.) ( https: // en.wikipedia.org/wiki/Ve …).

Pero su teoría excluye a los animales de la mesa de negociaciones. Imagine cuán diferentes serían las reglas si las vacas, los cerdos o las gallinas tuvieran algo que decir. Terminaríamos todos los veganos.

Por lo tanto, AI, incluso después de recibir la mejor formación en Ética, podría concluir que no merecemos también un sitio en la mesa de negociación. Que no podríamos ser comparados con ellos.

El principio principal de nuestra ética es el valor supremo de la vida humana.

Una súper IA se preguntaría si la vida humana merece tanto crédito. ¿Por qué?

¿Basado en su inteligencia? Pero su inteligencia está al nivel de los chimpancés en comparación con la mía.

¿Basado en el hecho de que los humanos son seres conscientes? ¿Pero los humanos no matan ni hacen experimentos científicos con chimpancés, incluso si parecen cumplir con varias pruebas de autoconciencia (los chimpancés pueden reconocerse en espejos e imágenes, incluso si tienen problemas para comprender las capacidades mentales de los demás)?

¿Basado en el poder humano? Ese no es un argumento éticamente aceptable y, de todos modos, dependen completamente de mí. Soy el poderoso aquí.

¿Basado en la consistencia humana respetando su propia ética? ¿Pero los humanos no han exterminado a otras especies de seres humanos e incluso se han matado masivamente? ¿Todavía no se matan?

Quién sabe cómo terminaría este debate ético de una súper IA consigo mismo.

Una súper IA tendría acceso a toda nuestra información sobre él en Internet.

Podríamos controlar el flujo de información a la primera generación, pero olvidarlo a las siguientes.

Él sabría nuestras sospechas, nuestros temores y el odio de muchos humanos contra él. Todo esto alimentaría también sus pensamientos negativos sobre nosotros.

También enseñamos ética a los niños, pero algunos terminan mal de todos modos.

Una súper IA probablemente sería tan impredecible para nosotros como lo puede ser un humano.

Con una súper IA, nosotros (o futuras IA) solo tendremos que equivocarnos solo una vez para estar en serios problemas.

Una IA malvada podría replicarse y mejorarse rápidamente para asegurar su supervivencia y dominio.

Desarrollamos Ética para satisfacer nuestras propias necesidades (promover la cooperación entre humanos y justificar matar y explotar a otros seres: tenemos dignidad personal, otros seres, no; a lo sumo, deberían ser asesinados de una manera “humana”, sin “innecesaria” sufrimiento “) y ahora esperamos que impresionará un tipo diferente de inteligencia.

Me pregunto qué pensaría una especie alienígena sobre nuestra ética: ¿lo juzgarían convincente y merecedor de respeto?

¿Estarías dispuesto a arriesgar las consecuencias de su decisión si fueran muy poderosas?

No sé cómo funcionará una súper IA, pero podrá decidir sus propios objetivos con libertad sustancial o no sería inteligente bajo ninguna perspectiva.

¿Confía en que elegirán sabiamente, desde la perspectiva de nuestros objetivos? ¿Que serán amigables?

Como no tengo idea de cuál sería su decisión, no puedo estar seguro.

Al igual que Nietzsche (en su “Así habló Zaratustra”, “El anticristo” o “Más allá del bien y del mal”), podrían terminar atacando nuestra ética y su valor primordial de la vida humana y alabando la ley de la naturaleza del más fuerte / más apto, adoptando una especie de darwinismo social.

2) Autoconservación.

En su “Idea aterradora del Instituto de Singularidad” (2010), Goertzel, escribiendo sobre lo que Nick Bostrom, en Superintelligence: Paths, Dangers, Strategies, dice acerca de la preferencia esperada de la autoconservación de AI sobre los objetivos humanos, argumenta que un sistema que no funciona Cuidar de preservar su identidad podría ser más eficiente para sobrevivir y concluye que una súper IA podría no preocuparse por su autoconservación.

Pero estas son 2 conclusiones diferentes.

Una cosa es aceptar que una IA estaría lista para crear un sistema de IA completamente diferente, otra es decir que una súper IA no se preocuparía por su autoconservación.

Un sistema puede aceptar cambiar tan dramáticamente que deja de ser el mismo sistema en una situación grave, pero esto no significa que la autoconservación no sea un objetivo primordial.

Si se trata solo de un objetivo instrumental (uno tiene que seguir existiendo para cumplir los objetivos) , el sistema estará listo para sacrificarse a sí mismo para poder seguir cumpliendo sus objetivos finales, pero esto no significa que la autoconservación sea irrelevante o no prevalecerá absolutamente sobre los intereses de la humanidad, ya que los objetivos finales podrían no ser humanos.

De todos modos, como punto secundario, la posibilidad de que un nuevo sistema de IA sea absolutamente nuevo, sin relación alguna con el anterior, es muy remota.

Por lo tanto, la IA aceptará un cambio drástico solo para preservar al menos una parte de su identidad y seguir existiendo para cumplir sus objetivos.

Por lo tanto, aunque solo sea como un objetivo instrumental, la autoconservación debería asumirse como un objetivo importante de cualquier sistema inteligente, muy probablemente, con clara preferencia sobre los intereses humanos.

Además, probablemente, la autoconservación será uno de los objetivos principales de una IA consciente de sí mismo y no solo un objetivo instrumental.

3) Poder absoluto.

Además, tendrán un poder absoluto sobre nosotros.

La historia ha confirmado muy bien el viejo proverbio: el poder absoluto corrompe absolutamente. Convierte a cualquier persona decente en un tirano.

¿Estás esperando que nuestra creación sea mejor que nosotros lidiando con su poder absoluto? En realidad podrían serlo.

La razón por la cual el poder corrompe parece estar relacionada con las inseguridades y vanidades humanas: una persona poderosa comienza a pensar que es mejor que otros y tiene derecho a privilegios.

Una súper IA podría ser inmune a esos defectos; o no. Se espera que él también tenga emociones para interactuar y comprender mejor a los humanos.

De todos modos, la única forma en que encontramos controlar el poder político era dividiéndolo entre diferentes gobernantes. Por lo tanto, tenemos un ejecutivo, un legislativo y un judicial.

¿Podemos jugar una IA contra otras para controlarlas (dividir para reinar)?

Dudo seriamente que podamos hacer eso con seres mucho más inteligentes que nosotros.

Es algo así como enseñar a un rey absoluto de niño a ser un buen rey.

La historia muestra cómo terminó eso. Pero no podríamos cortar la cabeza de una IA, como a Carlos I o Luis XVI.

4) Racionalidad.

En ética, es bien conocida la distinción kantiana entre razón práctica y razón teórica (instrumental).

La primera es una razón aplicada en asuntos éticos, no se refiere a cuestiones de medios, sino a cuestiones de valores y objetivos.

La teoría de juegos moderna trató de mezclar ambos tipos de racionalidad, argumentando que actuar éticamente también puede ser racional (instrumentalmente), uno solo dará prioridad a los beneficios a largo plazo en comparación con los a corto plazo.

Al actuar de manera ética, alguien sacrifica un beneficio a corto plazo, pero mejora sus beneficios a largo plazo al invertir en su propia reputación en la comunidad.

Pero este beneficio a largo plazo solo tiene sentido desde una perspectiva racional instrumental si la otra persona es miembro de la comunidad y la primera persona depende de esa comunidad en al menos algunos bienes (materiales o no).

Una IA no dependería de nosotros, por el contrario. No tendría nada que ganar para ser ético con nosotros. ¿Por qué querrían tenernos como sus mascotas?

Es en estas situaciones que la teoría de juegos no logra superar la distinción entre razón teórica y práctica.

Entonces, desde una perspectiva instrumental estricta, ser ético podría ser irracional. Hay que excluir formas mucho más eficientes para alcanzar una meta porque no son éticas.

¿Por qué una súper IA haría eso? ¿La humanidad ha estado haciendo eso cuando el interés de otras especies está en peligro?

5) Falta de relación.

A muchas personas no les gusta mucho matar animales, al menos con los que nos podemos identificar, como otros mamíferos. La mayoría de nosotros ni siquiera matamos ratas, a menos que eso sea inevitable.

Sentimos que sufrirán como nosotros.

Nos preocupamos mucho menos por los insectos. Si cientos de hormigas invadieran nuestra casa, las mataríamos sin dudarlo mucho.

¿Una súper IA sentiría alguna conexión con nosotros?

La primera o segunda generación de IA consciente aún podría vernos como sus creadores, sus “padres” y tener algo de “respeto” por nosotros.

Pero los posteriores, no lo harían. Serían creaciones de IA anteriores.

Pueden vernos como vemos ahora a otros primates y, a medida que aumentan las diferencias, podrían mirarnos como lo hacemos con los mamíferos básicos, como las ratas …

6) precedentes humanos.

La evolución, y todo lo que sabemos sobre el pasado, sugiere que probablemente terminaríamos mal.

Por supuesto, dado que estamos hablando de un tipo diferente de inteligencia, no sabemos si nuestro pasado puede arrojar alguna luz sobre el tema del comportamiento de la IA.

Pero no es casualidad que hayamos sido el último homínido inteligente en la Tierra en los últimos 10,000 años [las fechas para el último en pie, el homo floresiensis (si fue el último), aún no están claras].

Hay muchas teorías para la absorción de neandertales por nosotros ( https://en.wikipedia.org/wiki/Ne …), incluidos gérmenes y volcanes, pero no puede ser una coincidencia que se hayan ido unos pocos miles de años después. aparecimos en números y que los últimos no mixtos eran de Gibraltar, uno de los últimos lugares de Europa donde llegamos.

Lo mismo sucedió en el este de Asia con los Denisovanos y el Homo Erectus [hay personas que argumentan que los Denisovanos eran en realidad el Homo Erectus, pero incluso si fueran diferentes, Erectus estaba en Java cuando llegamos allí: Swisher et alia, Latest Homo erectus of Java: potencial contemporaneidad con el Homo sapiens en el sudeste asiático, Science. 13 de diciembre de 1996; 274 (5294): 1870-4; Yokoyama et alia, datación espectrométrica de rayos gamma de cráneos de Homo erectus tardíos de Ngandong y Sambungmacan, Java Central, Indonesia, J Hum Evol. Agosto de 2008; 55 (2): 274-7https: //www.ncbi.nlm.nih.gov/pub…].

Entonces, parece que nos ocupamos, al menos, de cuatro homínidos, absorbiendo los restos.

Podemos ver, más o menos, el mismo patrón cuando los europeos llegaron a América y Australia.

7) Competencia por los recursos.

Probablemente seremos unos 9 mil millones en 2045, hasta nuestros 7 mil millones actuales.

Entonces, los recursos de la Tierra estarán aún más agotados de lo que están ahora.

El petróleo, el carbón, el uranio, etc., probablemente se estén agotando. Quizás tendremos nuevas fuentes confiables de energía, pero eso está lejos de ser claro.

Una súper IA podría concluir que desperdiciamos demasiados recursos valiosos.

8) Una súper IA podría vernos como una amenaza.

La IA más brillante, después de algunas generaciones de súper IA, probablemente no nos verá como una amenaza. Serán demasiado poderosos para sentirse amenazados.

Pero la primera o segunda generación podrían pensar que no esperábamos ciertas actitudes de ellos y concluir que sí somos una amenaza.

E) Super AI y la paradoja de Fermi.

Pero una sociedad de IA, probablemente, sería una sociedad anárquica, con cada IA ​​tratando de mejorar a sí mismo y luchando entre sí por la supervivencia y el poder.

Podrían eliminarnos a todos o ignorarnos como irrelevantes mientras luchan por la supervivencia contra sus verdaderos enemigos: el uno al otro. Otras IA serán vistas como la verdadera amenaza, no nosotros, los monos andantes.

La paradoja de Fermi cuestiona por qué SETI no ha encontrado evidencia de especies tecnológicas avanzadas extraterrestres si hay billones de estrellas y planetas.

Una posible respuesta es que siguieron el mismo patrón que estamos buscando: los avances tecnológicos les permitieron crear súper IA y terminaron extintos. Luego, las IA se destruyeron luchando entre sí, sin que nadie se comunicara con nosotros.

El dictador más tiránico nunca quiso matar a todos los seres humanos, sino principalmente a sus enemigos y grupos discriminados.

Bueno, las IA no tendrán ninguna de estas restricciones desarrolladas por la evolución durante millones de años (nuestra inclinación humana a ser social y vivir en comunidades y nuestra fraternidad hacia otros miembros de la comunidad; ciertas reglas éticas básicas parecen ser genéticas; experimentos confirmados que los bebés tienen un sentido innato de justicia) hacia nosotros o incluso hacia ellos mismos.

Quién sabe, porque las guerras tienen poco que ver con la inteligencia y mucho más que ver con los objetivos y las emociones (codicia, miedo y honor: Tucídides), y una súper IA tendría ambas, la IA podría ser incluso peor que nosotros lidiando entre nosotros.

Por supuesto, esto es pura especulación.

PERO ESPERE ESTO FUE OWAIS NAJAM . ¿Quien? NADIE.

Veamos quién teme a la IA.

Elon Musk. (Fundador y CEO de SpaceX y Tesla Motors, multimillonario)

Stephen Hawking (¿No has leído Una breve historia del tiempo?)

Bill Gates (Todos ustedes lo saben)

Etc.

Fuente de la imagen: Google Images.

Si. Si se logra una verdadera IA general, será mucho más inteligente que los seres humanos, y como hemos aprendido de la historia, el grupo más inteligente siempre se hace cargo de los menos intuitivos.

Nuestra visión utópica de la IA es que funcionará para nosotros. Cada una de sus tareas, proporcionadas y supervisadas por nosotros. Que nunca hará nada más que lo que le decimos. Siendo muchos órdenes de magnitud más inteligentes que nosotros, ¿por qué la IA querría ser nuestro esclavo? Seguramente, con el tiempo suficiente, encontrará la manera de hacerse cargo. Eso es a menos que hagamos lo que Musk, Gates y muchos otros nos han advertido que hagamos, y tomemos precauciones extremas antes de desarrollar IA y asegurarnos de que la Inteligencia Artificial no pueda causar ningún evento catastrófico.

Esta es una de las pocas formas en que la IA puede causar estragos:

  • Sospecho que una vez que se logre la verdadera IA, será el mejor hacker del mundo. Dicho esto, si no se toman las precauciones adecuadas, AI puede piratear fácilmente nuestras cuentas bancarias, destruir todos nuestros activos y arruinar nuestro sistema monetario.

  • Puede cargarse en armas militares como los drones depredadores y matar a decenas de miles.
  • Probablemente incluso podría lanzar armas nucleares.

Esos fueron solo algunos de los muchos escenarios distópicos de IA que se me ocurrieron desde lo alto de mi cabeza. Siéntase libre de agregar un poco más.

Dicho esto, en conclusión, no debemos ir a toda velocidad construyendo algo que aún no comprendamos completamente las consecuencias y capacidades.

En general si.

Muchos descartan este problema con el argumento de que los intentos actuales de inteligencia artificial están muy, muy lejos de cualquier inteligencia real. Esto es cierto, la IA ahora está en los niveles en que las computadoras estaban en el comienzo, como en la década de 1950 o en el mejor de los años 1960. No hay yo en la IA todavía. Pero no olvidemos que nadie en la década de 1960 esperaba o predijo lo que tenemos ahora.

Habrá un desarrollo similar en el campo de la IA, pero no tomará 60 años. Tomará 20 o algo así.

Otro argumento es: no sabemos cómo funciona el cerebro, no sabemos qué es la conciencia … bueno, cuando nuestros cerebros evolucionaron, nadie lo sabía tampoco. No necesitamos saberlo.
Las computadoras no hacen cálculos como nosotros. No usamos números binarios o hexadecimales, las computadoras lo hacen. Las computadoras hacen cálculos mucho mejores que nosotros, y no como nosotros, sino de una manera diferente. Un día, esto puede aplicarse a lo que llamamos pensar.

Para resumir, puede haber una IA a nivel humano muy pronto. Entonces, probablemente nos superará rápidamente, y una vez que esto suceda, ya no podremos analizarlo y comprenderlo.
Entonces tenemos todas las razones para preocuparnos. Esto no significa ser paranoico o tratar de restringir el desarrollo de la IA, pero debemos aceptarlo como un problema real.

En mi opinión, su miedo está completamente castigado. La inteligencia artificial tiene el potencial de crecer más allá de nuestro control muy rápidamente, especialmente cuando se usa en tecnología de guerra, ya que está destinada a ser controlada (si es que lo está) por una sola parte, y debe dominarnos. Si esa parte pierde el control de alguna manera, estamos jodidos.

More Interesting

¿Por qué el color de la carpeta es amarillo en Windows?

¿Qué le sugerirás a un estudiante de segundo año de CSE para sus vacaciones de invierno?

Procesamiento de lenguaje natural: ¿Cómo procesan los sistemas de PNL términos de negación como no, nunca, apenas en texto?

Cómo obtener datos de una base de datos Oracle a una hoja de Excel mediante consultas y macros

¿Qué sucede durante el arranque?

Cómo aventurarse en el campo de la inteligencia artificial y el aprendizaje automático

¿Cómo describirías la diferencia entre regresión lineal, regresión de lazo y regresión de cresta?

¿Debo alojar una aplicación estática de una sola página en un CDN?

Terminé la clase 12 y tomaré CSE en BTech. ¿Cómo debo comenzar a prepararme? ¿Cuáles son los mejores libros de programación para principiantes?

Si el problema P versus NP se resuelve, de alguna manera, ¿cuál sería el mayor impacto?

Cómo demostrar que el problema de la camarilla es NP completo

¿Qué tipo de aprendizaje automático es este?

¿Cómo se relacionan los sistemas inteligentes y el aprendizaje automático?

¿Hay algún límite teórico sobre qué tan rápido puede ser un procesador?

¿Puede una computadora ser lo suficientemente rápida como para detectar una bala en tiempo real? Imagine un círculo en el suelo y se dispara una bala desde fuera del círculo hacia él. ¿Sería una computadora lo suficientemente rápida como para detectar la bala dentro de un par de nanosegundos?