¿Hasta qué punto podrían Stephen Hawking y Elon Musk tener razón sobre los peligros de la inteligencia artificial? ¿Cuáles son tus pensamientos?

Respuesta: no tenemos forma de saberlo.

La evolución inminente de la inteligencia más allá de los humanos nos preocupa a muchos de nosotros, y con razón. Pero para comprender mejor esas inquietudes se requiere una mirada más cuidadosa de lo que viene y de cómo inevitablemente. Tal inspección más cercana probablemente será desgarradora para muchos; deje que eso sirva como su única advertencia sobre lo que se discute aquí.

Es extremadamente desconcertante escuchar a alguien tan talentoso y prohumano como Elon Musk hablar en términos de si una inteligencia evolucionada, una Superinteligencia, será ‘benigna’ o no. Ya hemos pasado el punto de poder ver las cosas en términos de una dicotomía simplista, y por mucho que apoye lo que el Sr. Musk está haciendo y ha hecho, no puedo conciliar la idea de formular las cosas como una hipótesis binaria. Incluso si lo usó simplemente como una manera fácil de explicar la pregunta más fundamental que concierne a la humanidad con respecto al desarrollo de la IA, ¿es realmente un gran salto hercúleo explicar a la gente que no estamos hablando de algo tan simple como el diferencia entre bueno y malo?

Google rápidamente nos da esto para una definición:

benigno

adjetivo

1)

amable; amablemente.

“su rostro estaba tranquilo y benigno”

sinónimos: amable, amable, afectuoso, bondadoso, amable, cálido, cariñoso, agradable, genial, amable, cordial, accesible, de buen corazón, gentil, comprensivo, compasivo, atento, bien dispuesto, benevolente

“un papel de abuelo benigno”

2)

MEDICINA

(de una enfermedad) no dañino en efecto: en particular, (de un tumor) no maligno.

sinónimos: inofensivo, no maligno, no canceroso; benigno

“un tumor benigno”

¿Una Superinteligencia será amable con nosotros o no? Francamente, es una especie de pregunta de mierda. La pregunta más destacada es ¿con quién, si alguien, será bueno una Superinteligencia? Y con esta pregunta terriblemente obvia ahora atrapada en el centro de atención para que todos se vean bien y con dificultad, las preguntas de seguimiento, muy de cerca, son:

¿Para quién será bueno?

y luego, lo más predecible de todo:

¿Para quién no será bueno?

La exitosa entidad de financiación se convertirá invariablemente en un Scrooge u otro, al igual que las compañías farmacéuticas, en realidad. ¿Recuerdas el imbécil Martin Shkreli? El CEO de Douchebag Pharma eleva el precio de los medicamentos en un 5000% porque atornille a su bebé enfermo

Obviamente podemos pasar por alto estas preguntas si lo deseamos, de hecho, la gran mayoría de nosotros lo hemos hecho. Encuestas recientes han indicado que, aunque la mayoría de las personas están a favor de las restricciones en el desarrollo de la IA, las favorecen sin una conciencia apreciable de sus implicaciones. ¿Restricciones sobre quién o qué, exactamente? ¿De qué manera, por favor, diga, se supone que se imponen tales restricciones hipotéticas? Está muy bien y es bueno tener reglas para nuestra Tienda China; otra cosa es desarrollar reglas de la tienda para China. Otro asunto para asegurar el cumplimiento de esas reglas cuando esencialmente cualquier persona en el mundo puede dejar pasar a un toro por la puerta.

De acuerdo, no cualquiera. Solo las personas más ricas, ya sabes, las personas que tienen el mejor historial de seguir las reglas. Solo las personas más inteligentes, ya sabes, las que nunca se equivocan. Solo aquellos con las mejores intenciones …

Hmmm … esto comienza a sonar curiosamente como otro caso más de perder una especie invasora [1] en un entorno desconocido. Esperando, por supuesto, que haga su bien y sea “benigno” de otra manera. Una cosa sería que esos agricultores de IA solo hablaran por sí mismos, y solo se enfrentarían a las consecuencias de construir una entidad que pudiera destrozar o destruir cualquier cosa y todo. Desafortunadamente, la víbora que esperan descongelar está en el abrigo de todos, no solo en el suyo.

De cualquier manera, en este como en muchos otros casos, lo que la mayoría de la gente piensa es tangencialmente relevante. Lo que importa, como siempre, es lo que piensa Big Money. Big Money determina lo que ves, y en un pintoresco ciclo de retroalimentación positiva, recompensas con clics lo que apruebas más. Ya sea en sus redes sociales o con el control remoto sentado inocentemente en la mesa de su sala de estar: miles de opciones superficialmente diferentes que se le ofrecen mientras sus anfitriones se ríen hasta el banco. El adoctrinamiento en la forma más purificada, y lo peor de todo, está completamente camuflado por su fantasía imaginativa de que piensa por sí mismo, que toma sus propias decisiones. La mayor parte de las opciones que le dan provienen de lo que equivale a una lista preaprobada, por lo que es bastante fácil determinar qué continuar alimentándolo a pesar de que no es más que varios tipos de dulces y galletas mentales.

Ya sea Murdoch, Zucker o Zuckerberg, todo es lo mismo. A pesar de lo que pueda pensar, no hay un bocado de comida nutritiva en el lujoso buffet de medios de hoy. Obtendrá nada más que la tarifa más sabrosa y de alto octanaje con muchos comerciales dirigidos para eliminar todo y abrir aún más su apetito. Una mezcla heterogénea de comida chatarra diseñada por expertos para aumentar la caspa. Para excitarte, ya sea a través de la ira o el deleite. Lo único que importa es que te mantengas sentado y sigas engulliéndolo. La influencia sedante está incorporada: desperdicie su energía aquí y no la tendrá allí. Mientras disfrutes del espectáculo, gastarás toda tu energía con tu culo gordo, tonto y complaciente, sentado exactamente donde mejor se puede hacer un seguimiento: haciendo clic sin pensar en baratijas y cuentas sin sustancia de la Nueva Era en un bucle sin fin. Entonces, ¿qué pasa si la activación perpetua del sistema nervioso simpático se asocia con una constelación de enfermedades? Tenemos píldoras para esas cosas, y cuando no son suficientes, tenemos un sistema de salud rentable que respalda todo. Y el hecho de que no creas que te han tomado es el hecho más triste de todos. Muchas otras personas lo son, pero seguramente no tú. Después de todo, te han hecho sentir especial: solo hay uno como tú.

Ninguno está más esclavizado que los que creen falsamente que son libres.

-Goethe

No necesita ser arrojado detrás de las rejas, atado a una silla, atado a los remos o atornillado a una doncella de hierro: sus ojos están pegados a la pantalla y lo conducen mejor que una correa de seis pies de largo sujeta al collar del estrangulador de un perro Pasas mucho más tiempo por día frente a una pantalla de video de lo que el perro promedio gasta al final de una correa, y tú y yo y todos los demás lo sabemos. Cuando no estás viendo algo, estás comprando algo, consumiendo algo o ganando dinero para hacer una de las tres cosas anteriores. Tienes exactamente cuatro trucos en tu arsenal y pensar por ti mismo no es uno de ellos. No se alejará de un teléfono, computadora o televisor en el corto plazo y no es porque haya hecho una comparación justa entre lo que le gusta y lo que no. Es porque ni siquiera sabes lo que está fuera de los límites de tu correa, al menos si eres como la mayoría de las personas que no conoces. Después de todo, has visto fotos de cómo se ve la naturaleza. Extraído de los millones que hay en la red, ofreciéndole imágenes falsas que no son apreciablemente diferentes a las de los modelos con aerógrafo en la portada de las revistas. Pero no te preocupes por mí, engánchalo. Has sido entrenado para quererlo así.

En Facebook, Zuckerberg y sus tenientes bien intencionados continúan tocando el tambor de ‘le damos a las personas lo que quieren’ mientras desvían la atención de la directiva mucho más relevante siempre que resulte en el mayor número de clics. La regla fundamental, obviamente, es optimizar la obtención de dinero. Pero hemos llegado al final del juego de esta filosofía psicosocial: la goma de lo que más vende es la mejor mentalidad, ha encontrado el camino de la realidad y se ha derretido casi por completo. No vamos a andar en esas ruedas por mucho más tiempo, al menos no sin algo que se incendie seriamente. Ahora tenemos poco más que una colección grotesca de cosas en su mayoría maravillosas y terribles, y ‘alimentamos’ prácticamente nada en el medio. ¿Conciencia? Una baja. ¿Verdad? Una baja. ¿Cumplimiento? También una baja. Ninguna de estas cosas prospera cuando predomina un esfuerzo dedicado para reducir a toda la humanidad a una serie de clics de botones identificables individualmente: nos convertimos en lo que somos, no en lo que podríamos ser.

No queda agua para las flores que no se venden. No quedan abejas para polinizar nada más que el monocultivo.

La palanca por la cual sacamos nuestro queso está ingeniosamente conectada a la palanca de todos los demás. Cuando tiramos de los nuestros, no solo recibimos un poco de queso, sino que también alentamos a Sneetches similares [2] a tirar hacia abajo de los suyos y al mismo tiempo restablecer la palanca de Sneetches diferentes en forma de balancín. De esta manera, el buen Ole Zuck se ha hecho un Sylvester McMonkey McBean de la Nueva Era, menos el divertido sombrero verde y la pajarita. Es apenas más complicado que un libro infantil ilustrado; La dinámica en el juego es esencialmente idéntica a la que existe entre un niño y sus padres, que son incapaces de decir “no”.

Sylvester McMonkey McZuck presidiendo su megacontratación

En pocas palabras, McZuck se enfrentó a una elección terriblemente difícil entre dos asignaturas optativas: Popularidad 101 y Good Parenting 101. Una vez que se decidió esa elección, la administración de su creación se hizo bastante fácil: los conceptos de lo correcto y lo incorrecto ni siquiera tuvieron que tomarse un asiento trasero cuando El Creador, habiendo sondeado diligentemente su cámara de eco, declaró magnánimamente el par equivalente.

¡Todos pueden relajarse ahora, no hay nada que temer!

No habrá asientos asignados, ¡mientras no esté aquí!

No excluimos a aquellos que usan la mitad de su cerebro.

¡Amplios son los asientos en este tren de salsa!

¡Correcto e incorrecto! ¡Qué absurdo! ¿Por qué importaría?

¡El objetivo es asegurar que las arcas engorden!

¿Y qué si los pasajeros son tontos hedonistas?

No es nuestra responsabilidad, ¡acabamos de construir las herramientas!

Además, a ninguna alma entre nosotros le gusta un mundo que tenga reglas.

A riesgo de sonar como las primeras gotas de lluvia en dos desfiles muy divertidos e interesantes, la entidad algorítmica que es Facebook es simplemente una vista previa trivial de lo que nos espera si continuamos marchando hacia la IA con la fijación sociocida en la autocomplacencia. y blasé actitud hacia la moral que tenemos actualmente.

Algunos investigadores son claramente conscientes de esto. Hablando sobre el desarrollo de la IA, el destacado filósofo y neurocientífico Sam Harris nos ha advertido que realicemos “filosofía en una fecha límite”. Él dice:

Tenemos que admitir ante nosotros mismos que hay mejores y peores

respuestas [filosóficas], y tenemos que converger en las mejores. [3]

Facebook es un ejemplo desalentador de personas altamente competentes que retroceden en esta tarea. A pesar de un patrimonio neto de más de $ 60 mil millones y estar rodeado de algunas de las mentes más brillantes del planeta, Mark Zuckerberg se ha negado firmemente a liderar de cualquier manera, aparte de la popularizada por un cierto gaitero de Hamelín. Ratas y niños responden por igual a la llamada de sirena de su instrumento, y el usuario promedio pasa 50 minutos al día en el sitio de acuerdo con un artículo del New York Times publicado el año pasado [4].

Según los consultores de marketing digital (SEO Consulting), Zephoria Inc. ingresa diariamente a más de 1.200 millones de personas. En caso de que tenga dificultades para comprender el asombroso poder de esta herramienta difícil de manejar, eso equivale a aproximadamente el tiempo que pasa diariamente para construir la Gran Muralla China. Equivalente a una compañía con 125 millones de empleados a tiempo completo, aproximadamente cuarenta veces más grande que el siguiente empleador más poblado del mundo, el departamento de Defensa de los EE. UU.

Las herramientas de software y hardware, combinadas con la ilusión de privacidad, hacen que sea ridículamente fácil segregar a las personas en grupos aislacionistas de “Estoy de acuerdo” y “No estoy de acuerdo”. De hecho, esas herramientas son tan poderosas que una persona podría verse tentada a imagina que sirven al objetivo de una mayor comprensión; después de todo, solo se trata de unos pocos grados de separación entre la gente más militante de Breitbart y los Huffposters más firmes. Las cajas, por aisladas que estén, están dispuestas en una proximidad virtual tan cercana entre sí que es fácil creer que se producirá cierta difusión, y las personas aprenderán mejor cómo mirar a los ojos. La teoría suena tan maravillosa cuando resuena en las paredes de una oficina verdaderamente abierta, donde todos disfrutan del acceso a un banquero, un barbero, limpieza en seco gratuita y algunos de los mejores alimentos del valle. Donde todos están al alcance del oído del CEO, y él a ellos. Ciertamente, no hay mucho en el camino de la exposición, pero entonces no se puede argumentar enérgicamente que las cosas no están del todo bien cuando su boleto de comida puede depender de su falta de voluntad para hacer olas apreciables, ¿verdad? ¿Estalló la frágil burbuja de servilismo genial desde adentro? ¿Por que lo harias? ¿Por qué incluso ir tan lejos como para admitir que hay uno? ¿Por qué, después de todo, discutirías con un hombre que está haciendo lo mejor que puede para darle a todos lo que quieren? ¿Por qué cuando él es quien firma su cheque de pago, él, el benevolente Edward Mooreian [5], despotrica a un tiro de piedra de tomar el control informativo del mundo? Tal proximidad debe sentirse increíblemente poderosa, ya sea que se base en la autoselección o no.

¿Por qué alguien pensaría alguna vez en jugar significativamente con un sistema que está tan cerca de ser perfecto, como se mide por su capacidad de captar la atención de las personas y hacer que sus proveedores ganen dinero?

¿Ya ves el peligro? El peligro de que surja una Superinteligencia que no solo podemos garantizar esencialmente surgirá de las ambiciones de una entidad increíblemente rica u otra, sino que también podemos medir con el criterio de lo que sabemos que puede suceder cuando algunas imperfectamente brillantes, terriblemente ¿Los individuos adinerados se suben a la sala de control y comienzan semi-contentos a accionar interruptores de un lado a otro? ¿De un dispositivo que puedan argumentar de manera sensata “le da a la gente lo que quiere”?

Si aún no lo ve, siga leyendo, pero todavía está recibiendo esa única advertencia.

Nuestras dicotomías inútiles han tenido que terminar por algún tiempo, y esto no podría ser más evidente que en los rituales simplistas de voto / me gusta / compartir que caracterizan a Facebook, la monstruosidad de las redes sociales que gobierna, sí, gobierna, la mayor parte de las interacciones de más de mil millones de personas diariamente en el planeta. Todos ellos se comportan de manera diferente a un gran rebaño de ovejas sin pastor, y Zuck cree egoístamente que está haciendo lo correcto para todos simplemente porque es un tipo relativamente inteligente, porque tiene buenas intenciones y porque les da a las personas una versión filtrada monetariamente de lo que quieren. . A quién le importa si todos corren en círculos cada vez más apretados, todos ganan, ¿verdad? Desafortunadamente, Mark, estás criando una horda de Sales de Veruca con tu enorme fábrica de chocolate [6], sin suficiente sal como para separar las nueces buenas de las malas, o incluso para creer que hay alguna diferencia.

¿Por qué he adoptado este enfoque para hablar de IA? Porque la mayor fuente de datos sobre lo que la gente quiere, nos guste o no (disculpe el juego de palabras), es Facebook. La forma más obvia de determinar en qué está interesada la gente no es otra que Facebook. Y si aún no tiene claro cuáles son las innumerables razones lógicamente ineludibles de por qué este es un problema grave, permítame decirle claramente a cuál me refiero y al que podría anular todo el resto:

Facebook es, en este momento, el mejor índice de casos de lo que podemos esperar que AI nos brinde más.

Después de todo, estamos bastante claros de que surgió de las maquinaciones de lo que algunas de nuestras mejores mentes podrían ofrecernos, dado dinero esencialmente ilimitado para trabajar en ello, ¿verdad? Es excelente para darnos lo que queremos ver y escuchar, la encarnación más magnífica del sesgo de confirmación que el mundo haya visto. Un Mjölnir moderno [7] sin toda esa molesta fuerza divina que el viejo requería para manejarlo. Lo que no quiere decir nada de la sabiduría correspondientemente impresionante necesaria, sabiduría que hasta la fecha solo existe en los cuentos de hadas y la mitología.

La IA representará el equivalente de este martillo, sin nadie competente para manejarlo.

Entonces, ¿será bueno para todos nosotros?

Dicho de esta manera: si lo tuviéramos hoy, fácilmente se podría argumentar que no sería más constructivo que Facebook. Por lo tanto, lamento contradicir la implicación que hizo el legendario Sr. Musk, al que se hace referencia al comienzo de este ensayo. Por el momento, esencialmente no hay ninguna posibilidad de que la IA sea ‘benigna’.

La razón por la que sabemos esto es porque:

1. La gente esencialmente no es consciente de lo que es bueno para ellos.

Al contrario de lo que pueda pensar, esto no es una tontería paternalista. Realmente no somos conscientes de lo que es bueno para nosotros. Hay muchas razones para esto, pero la principal es que simplemente no hemos definido uniformemente qué es bueno y qué no. Más especialmente, no como grupo, pero no mejor incluso como individuos. ¿De fumar? ¿Hacer deporte? ¿Religión? No sabemos qué es bueno para nosotros y ciertamente no sabemos qué es lo mejor para nosotros, particularmente porque este último está inexorablemente vinculado a un nivel de conciencia que no tenemos. Si apareciera la posibilidad de tal conciencia, ¿lo aceptaríamos como una regla general? Oh, sí, de repente realizamos mágicamente un 180 y escuchamos uniformemente cuando llegó el equivalente de un extraterrestre para decirnos qué deberíamos querer. Teniendo en cuenta que una fracción masiva de la población seguramente vería a un extraterrestre como una marioneta glorificada, perdóname si tengo dudas.

2. Nuestras definiciones de bien son fugaces; dependen completamente de condiciones efímeras.

No solo no entendemos lo que es bueno para nosotros en general, sino que como especie somos incapaces de descubrir cómo poner en perspectiva el valor del bien ahora versus el bien después. La sociedad está absolutamente llena de ejemplos de esto, y si no entendiste el juego de palabras, ¡la basura en sí es una de ellas! Con una consistencia abrumadora y creciente , caemos en la trampa de creer que siempre que siempre pensemos que lo que es bueno en este momento es lo que es bueno en general, las cosas serán siempre tan buenas como puedan ser. Esta mentalidad antiplanificación corresponde vagamente a la generalidad de que un pájaro en la mano vale dos en el monte, mientras que simultáneamente va en contra de la idea de que una onza de prevención vale una libra de cura. Desafortunadamente, está entretejido en el tejido de nuestra compra ahora, paga más tarde la cultura de la comida rápida y experimentamos continuamente las consecuencias a pesar de la ilusión irresistiblemente tentadora de que todas esas cosas, es decir, consecuencias, vendrán después. El valor de “ahora” aumenta perpetuamente, una apreciación del valor de “más adelante” cae de manera consistente y correspondiente. El cambio climático es un ejemplo clave de esto, y es quizás el primer ejemplo claro de una crisis existencial creada por el hombre (es decir, algo que podría terminar con la especie): ya tenemos soluciones, pero no tenemos la intención de usarlas porque La población que todavía creemos que ahora es más importante que más tarde.

3. Nuestras definiciones de bien son arbitrarias e individuales.

No solo el valor temporal del bien es indeterminado, sino que el valor espacial y el valor individual versus grupal también lo son. Peor aún, los filósofos equivocados como Ayn ​​Rand [8] aparecen y esencialmente deciden que debido a que nadie puede resolver el acertijo particularmente bien, la mejor respuesta por defecto para transmitir y popularizar es la codicia [por ejemplo, “La virtud del egoísmo” Rand, 1964.] Se puede esperar que muchos acepten un concepto tan egoísta, y muchos lo hacen. Es peligrosamente fácil aceptar la idea de que la avaricia es buena y no asignar tiempo para pensar más; después de todo, pensar más podría servir para limitar el concepto, que no conduce a un abrazo sincero de la “virtud egoísta”. Casi no importa que un mínimo de pensamiento adicional pueda permitir a una persona llegar a la conclusión de que algo podría ser mejor . Una persona contenta con una noción por definición no sale a buscar nada mejor, y el egoísmo es inherente e instantáneamente satisfactorio.

Dichas definiciones se explican únicamente por la lógica circular general de la autoevidencia:

Es evidente que los buenos resultados para mí surgen del interés propio porque es solo al estar interesado en mí mismo que puedo determinar cuáles pueden ser los buenos resultados. Por lo tanto, debo decidir qué es lo mejor para mí independientemente de todos los demás y luego actuar en consecuencia.

Por supuesto, la codicia es una buena filosofía que abarca la cooperación cuando los suscriptores de ese rompecabezas mental creen que es bueno para ellos, pero esto no es diferente de los niños que cooperan cuando les parece conveniente. ¿Debería el mundo comportarse como un grupo de niños malvados? Las ideas de bien autodeterminadas y las ideas de bien determinadas en grupo pueden ocasionalmente combinarse; es solo que progresivamente menos probable a medida que aumenta la población considerada por el sustantivo “grupo”. La confusión es de ímpetu (es decir, lo que es bueno para mí) versus dirección (es decir, qué decisiones debo tomar en el contexto completo en el que me encuentro), y es un problema antiguo. Por estas razones, entre otras, debe quedar muy claro que la Superinteligencia difícilmente puede ser ‘benigna’ más de lo que lo son sus desarrolladores eventuales.

¡No se puede esperar uniformemente que haga el bien cuando ni siquiera hemos decidido remotamente qué significa la palabra bien!

No cuando “bueno” significa algo tan diferente para todos y para cada momento, lugar y situación diferentes. No cuando a menudo significa dos cosas que se contradicen directamente entre sí. No especialmente cuando ‘el bien mayor’ existe como un concepto únicamente como una forma de distinguir entre bienes individuales menores que no pueden y nunca serán subyugados voluntariamente, es decir, sin coacción, fuerza o artimañas. No al menos sin una mayor comprensión, un objetivo intemporal que está completamente descartado por el efecto Dunning-Kruger. [9]

La IA ni siquiera puede ganar basándose en el concepto de que las cosas serán mejores versus peores, porque hay cero posibilidades de que las cosas puedan describirse uniformemente como mejores o peores sin una encuesta de lo que todas las personas quieren (de una manera similarmente imposible) -para obtener una lista de cosas que todos consideran buenas) y un compromiso posterior. La existencia de desconfianza, por el contrario, la falta de uniformidad en la confianza, descarta la posibilidad de llegar a dicha lista.

No podemos confiar en que los desarrolladores sean éticos, ni podemos confiar en que los usuarios posteriores sean éticos. No podemos vigilar el desarrollo y no podemos imponer restricciones sobre el uso de IA después de que se haya desarrollado. Ni siquiera podemos tener un voto racional sobre lo que debemos hacer, porque la gran mayoría de las personas no tienen idea de las implicaciones de la tecnología, y no hay planes apreciables sobre lo que esperamos que haga la IA una vez que la tengamos. . En otras palabras, solo tenemos conjeturas y las promesas de los desarrolladores sobre las cuales evaluar si se debe seguir o no.

Básicamente, tenemos un niño adolescente que acaba de descubrir el alcohol y cómo conducir en la misma semana pidiendo permiso para usar el automóvil y sin decirle a nadie a dónde planea ir.

Con todos en el mundo en el asiento trasero. Con los ojos vendados.

No, ni siquiera está pidiendo permiso. Él dice que está tomando el auto y que usted, yo y todos los demás vamos a dar el paseo de nuestras vidas, nos guste o no. Pero seguramente no hay que preocuparse …

Entonces, ¿qué saldrá del sombrero AI?

1. No puede ser benigno. Preferentemente beneficioso no es benigno como Bob Cratchit podría explicar fácilmente.

2. Tenemos un índice razonablemente horrible de sus implicaciones en Facebook. Es un. improductivo, b. engorroso, y c. fácilmente manipulable / indirectamente bastante peligroso. Sus directores no están guiados por un conjunto apreciable de reglas, y esencialmente no hay consecuencias asociadas con malas acciones de ninguna manera.

3. No podemos evitar que se desarrolle, y no podemos predecir cuándo se desarrollará o quién lo hará.

4. Tenemos una historia histórica de lo que sucede cuando las especies invasoras se introducen en nuevos entornos. La versión corta? Nunca termina bien.

5. El público en general ya se ha acostumbrado a una dieta mediática que conduce a la sumisión y, como tal, no se puede esperar razonablemente que sus miembros sepan lo que es bueno para ellos, incluso en el mejor o más importante de los casos. La reciente elección presidencial de los Estados Unidos es un ejemplo de esto. Es un hecho que millones de personas votaron en contra de sus propios intereses después de ser cautivados por un vendedor de aceite de serpiente que sabía hablar duro.

6. Este chico no:

¿Entonces que deberíamos hacer?

Desde mi punto de vista, lo mejor que puedes hacer es hacer que sea una prioridad entender a dónde va la investigación de IA, qué tan rápido y por quién. Haga que sea prioritario mirar a los medios de comunicación y herramientas como Facebook como ‘dulces’ que deben tomarse con moderación. Lea buenos libros de autores de renombre (especialmente los muertos que, por definición, no tienen una agenda actual).

Ah, sí, y una última cosa: haz mucho ejercicio y agárrate a tus sombreros o prepárate para perseguirlos porque el viaje está a punto de ponerse muy rocoso.

Referencias

[1] especies invasoras: una especie invasora es una especie que no es nativa de un lugar específico (una especie introducida), y que tiene una tendencia a propagarse en un grado que se cree que causa daños al medio ambiente, la economía humana o la salud humana. El barrenador esmeralda del fresno, el mejillón cebra, el gorrión inglés y la lisimaquia púrpura son ejemplos.

[2] Sneetches: una criatura bípeda ficticia creada por el Dr. Seuss originalmente como una sátira sobre la discriminación. En la historia de Seuss, los Sneetches eran esencialmente idénticos entre sí, aparte de la diferencia superficial de una estrella en el vientre de algunos de ellos. La referencia aquí pretende indicar que, a pesar de las diferencias filosóficas, todos los que interactúan en Facebook (y las personas en general) son esencialmente los mismos. Si queremos discriminar entre las personas, la única forma remotamente racional de hacerlo es tratando de aceptar algunas ideas uniformes sobre lo que constituye lo correcto y lo incorrecto.

[3] Sam Harris: https://en.wikipedia.org/wiki/Sa… Sam Harris es un destacado filósofo y neurocientífico que habló en el simposio “Beneficiario AI 2017” en Asilomar, California, del 6 al 8 de enero de 2017 (https : //www.youtube.com/watch? v = …)

[4] Uso de Facebook en el New York Times: https://www.nytimes.com/2016/05/…

[5] Edward Moore: https://en.wikipedia.org/wiki/Ed… “rico más allá de los sueños de avaricia”, esta referencia pretende sugerir que Zuckerberg podría hacer teóricamente lo que desea con Facebook en este momento, el único Los límites prácticos son su aparente creencia de que ya es esencialmente un déspota benevolente. La contradicción es evidente en la promesa que él y su esposa hicieron de regalar prácticamente toda su riqueza: se parece mucho a una disculpa destinada a compensar cualquier mal que pueda haber surgido del dispositivo que preside.

[6] Sal de Veruca, Fábrica de Chocolate: http://roalddahl.wikia.com/wiki/… esta referencia compara a los usuarios de Facebook con el niño notoriamente malcriado de Dahl’s Charlie y la Fábrica de Chocolate. En la historia, Veruca es representada como una persona que obtiene lo que quiere al comportarse de una manera “ruidosa y petulante”. La intención aquí es indicar que dar a las personas lo que quieren simplemente porque lo exigen no es necesariamente sabio. Aquellos que respetan a Facebook como una entidad generadora de capital y aquellos que lo apoyan como usuarios tienen poca o ninguna razón para cuestionarlo por estos motivos: hace lo que esperan y quieren. La pregunta es: ¿ es bueno o no?

[7] Mjölnir: https://en.wikipedia.org/wiki/Mj… famoso, el martillo de Thor. Un martillo imbuido de un peso mágico que hace que sea imposible levantarlo para alguien “indigno del honor asgardiano”. Esencialmente, esto significa que nadie que no sea realmente “justo” puede levantarlo o empuñarlo.

[8] Ayn Rand: https://en.wikipedia.org/wiki/Ay… Famoso por dos novelas superventas y por fundar el objetivismo. “Ayn Rand (1905-1982) ayudó a convertir a los Estados Unidos en una de las naciones más indiferentes del mundo industrializado, una sociedad neodicensiana donde la atención médica es solo para aquellos que pueden pagarla, y donde los jóvenes son obligados a convertirse en grandes estudiantes”. -deuda de préstamos que no se pueden descargar en bancarrota ”. [Un psicólogo clínico explica cómo Ayn ​​Rand sedujo a las mentes jóvenes y ayudó a convertir a los Estados Unidos en una nación egoísta]

[9] Efecto Dunning-Kruger: https://en.wikipedia.org/wiki/Du… El efecto Dunning-Kruger es la tendencia de las personas de baja aptitud a sobreestimar su aptitud y las personas de alta aptitud a subestimar su aptitud en relación con otros. En este contexto, la referencia pretende mostrar que incluso si tuviéramos alguna entidad Superinteligente, muchas personas aún serían incapaces de darse cuenta de lo poco que saben.

La inteligencia artificial presenta graves peligros, pero no son lo que podrías pensar.

Tienes razón, las advertencias de un Armagedón alimentado por IA han sido emitidas por personas tan iluminadas como Elon Musk y Stephen Hawking … Predicciones que evocan imágenes de una intención de inteligencia no humana para exterminar a toda la humanidad.

Quizás tengan razón. Tal vez algún día nos enfrentaremos a un ascenso de los robots. Pero por ahora la realidad es que apenas podemos lograr que los robots caminen y trepen correctamente, y mucho menos navegar por los pasillos cubiertos de escombros para rescatar a las personas en un desastre.

A pesar de lo aterradoras (y, lamentablemente, entretenidas) que pueden ser estas predicciones apocalípticas, probablemente estén lejos en el futuro, si es que suceden.

Entonces, al menos por ahora, estamos bien, ¿verdad?

Incorrecto. Olvídate de los Terminators que arrasan los centros comerciales. La inteligencia artificial plantea una amenaza diferente y más inmediata para todos nosotros … Análisis predictivo de datos.

La verdadera amenaza de la inteligencia artificial

La cantidad de información capturada todos los días sobre todos nosotros es asombrosa.

Esto está a punto de importar mucho porque los rápidos avances en las sofisticadas técnicas de análisis de inteligencia artificial pronto permitirán la elaboración de perfiles sofisticados y la predicción del comportamiento futuro.

Según las predicciones de AI de lo que una persona podría hacer en el futuro, es posible que no estemos muy lejos del día en que las autoridades puedan pre arrestar a las personas porque es más seguro (y MUCHO más barato también).

Esto no es ciencia ficción ni fantasía social, es un potencial terriblemente real hecho posible por las sofisticadas tecnologías de aprendizaje automático, y no está claro que estemos apreciando los riesgos.

¿Pero cómo? Quiero decir, ¿es esto realmente posible?

Análisis profundo: detección de mentiras

Aunque no estamos al tanto del funcionamiento interno del software de inteligencia artificial patrocinado por el gobierno que está haciendo esto, podemos extraer algunas ideas notables de lo que se está haciendo con datos agregados anónimos, como se describe en este interesante artículo en The Guardian …

El científico Seth Stephens Davidowitz analizó resultados de búsqueda anónimos en Google, descubriendo verdades inquietantes sobre nuestros deseos, creencias y prejuicios.

Échale un vistazo … ofrece información notable sobre temas tan amplios como el sexo, el terrorismo, el odio y los prejuicios. Y luego considera esto …

Si se pueden sacar conclusiones tan sorprendentes de datos anónimos, imagine lo que se puede derivar de alguien cuando el sistema sabe exactamente quiénes son. Precisamente quién eres. Y tiene acceso a incluso más tipos de datos que los que recopila Google, que incluyen:

  • Su historial crediticio completo
  • Tu historial médico completo
  • Todo tu historial de compras
  • Toda tu ruta GPS a través de la vida
  • Todos los mensajes de texto y chat que ha enviado o recibido
  • Todos tus correos
  • Todo tu historial de navegación
  • Todo tu historial de viaje
  • Tu historia educativa
  • “Mapas de calor” de todas sus relaciones, tanto personales como profesionales.
  • Tu historial criminal
  • Toda tu actividad en las redes sociales
  • Todas sus inversiones y activos.
  • Análisis de ADN

Predicción de comportamiento

Dé rienda suelta a los algoritmos de aprendizaje automático en todo esto.

Comience recopilando todo esto sobre alguien que ha sido condenado por cometer un acto criminal. Luego, aplique tecnologías sofisticadas de inteligencia artificial para descubrir tendencias y comportamientos objetables en la historia de esa persona que precede a la comisión del delito.

El resultado será un perfil, un conjunto de predictores.

Puedes ver a dónde va esto …

Ahora haga lo mismo para cada criminal, cada uno de ellos. Incluya todas las muestras de ADN obligatorias al momento del arresto.

El resultado será un conjunto de patrones que potencialmente son tan detallados y tan profundos que el sistema puede saber con un alto grado de probabilidad que el criminal cometerá otro crimen incluso antes de que ellos mismos lo sepan.

Finalmente, realice el mismo análisis para todos. Toda la población.

Incluya muestras de ADN cuando pueda obtenerlas (notablemente a menudo), pero incluso sin eso puede obtener resultados asombrosamente predictivos.

Imaginemos que podríamos prevenir el terrorismo o los tiroteos escolares

Nadie diría que no es un objetivo digno encontrar formas de prevenir horrores como el 11 de septiembre o los tiroteos en la escuela Sandy Hook , en Newtown, Connecticut, EE. UU. (Resumen: en 2012 Adam Lanza, de 20 años, mató a 20 niños y siete adultos).

Lanza no tenía antecedentes penales, pero una extensa investigación después del tiroteo reveló algunos aspectos extremadamente preocupantes y predictivos de su vida .

Ese análisis se realizó después del hecho y por métodos manuales, no digitales, pero muy pronto el análisis artificial de big data podrá llamar la atención sobre tales amenazas mucho antes de que sean inminentes. Posiblemente incluso meses o años antes.

Todo lo que tiene que hacer es ver solo una imagen de esos niños pequeños bañados en sangre para darse cuenta de cuán poderosamente podría estar motivada la sociedad para actuar antes que los hechos.

Cojeado por departamentos con poco personal y presupuestos ajustados, la tentación será extremadamente fuerte para que el gobierno resuelva los problemas futuros pronosticados utilizando el encarcelamiento ahora, en lugar del costoso monitoreo continuo y la intervención de apoyo.

Se necesitará una enorme fibra moral para resistir el encarcelamiento de personas antes de que hayan hecho algo malo “.

¡Ah, pero usted dice que la constitución (de los EE. UU. Y otros países) nos protegerá!

Lo hará?

¿Qué tan grandes deben ser las pilas de edificios derrumbados o niños muertos antes de que el público exija una excepción a la Constitución si una tecnología puede predecir tales eventos, digamos, el 84% del tiempo?

Big data podría terminar metiéndonos en grandes problemas.

Tal vez algún día máquinas malévolas como Terminators o sistemas malvados de inteligencia artificial como SkyNet sean un problema, pero en este momento eso es solo Hollywood.

La verdadera amenaza de la inteligencia artificial ya casi está sobre nosotros, y somos … ¡nosotros! Estamos en peligro de crear los “precogs” psíquicos de la película Minority Report completamente en software, y luego usar estas predicciones de IA para justificar acciones horriblemente deshumanizantes.

La forma en que elegimos aplicar los resultados de la inteligencia artificial podría ser mucho más peligroso que la propia IA.

Inocente hasta que se demuestre lo contrario, ¿eh? Ahora sí. Pero todo lo que tiene que hacer es redefinir las predicciones probadas para incluir la culpabilidad futura mediante una inteligencia artificial asombrosamente profética para terminar en una pesadilla distópica.

Incluso ahora, la IA es tan compleja que los científicos luchan para que explique cómo y por qué llegó a las conclusiones que hizo.

Imagina que una máquina decide que vas a ser un criminal y que estás encarcelado. Y nadie sabe cómo o por qué concluyó eso, simplemente lo hizo. ¿Cómo podrías siquiera apelar contra eso?

¿Suena demasiado descabellado?

Eche un segundo vistazo a todos esos niños muertos antes de responder.

Y a diferencia de los robots Terminator, esto llegará pronto.

Si bien no tengo idea de la razón y los argumentos de los que Hawking y Elon Musk están hablando, estoy de acuerdo con ellos.
Me encuentro escribiendo sobre este tema no por primera vez aquí. Entonces, permítanme abordar primero las afirmaciones que Sam Sinai y Quora User hacen sobre la falta de peligro causado por una futura IA.
“La IA no te ama ni te odia, pero estás hecho de átomos que podría usar para otras cosas” – Eliezer Yudkowsky
La primera afirmación es que esta imagen de IA tomando el mundo es algo completamente fuera de la ciencia ficción. Como alguien que ha leído demasiadas novelas de ciencia ficción para contar, estoy de acuerdo. Suena muy ciencia ficción. SIN EMBARGO, esto de ninguna manera es un argumento en contra de la probabilidad de que ocurra. Clarke escribió sobre satélites geoestacionarios y adivina qué tenemos ahora. Y él era escritor de ciencia ficción. Esto es para no afirmar que todo lo que sucede en la ciencia ficción se convierte en realidad, sino que estar escrito en las tramas de películas y libros no significa nada. El hecho de que AI Doomsday sea un dispositivo de trama muy popular no argumenta a favor o en contra de la probabilidad de que ocurra.
El segundo punto es que, en nuestra descripción de la IA, estamos siendo antropomórficos. Esta es una preocupación legítima. Pero este es un problema para las personas que afirman que la IA nunca sucederá, o que si lo hace, no será ridículamente peligrosa. Estamos tan acostumbrados a las películas y los libros que representan una inteligencia de nivel humano equivalente, aunque sea un genio de nivel uno que no tomamos en cuenta cuánto salto podríamos superar si alguna vez ocurre una IA del tipo del que estamos hablando. IJGood fue el primero en darse cuenta de esto, una máquina sería capaz de cambiar la dinámica de su auto mejora. Sería capaz de hacer mejores versiones de sí mismo. Y luego esa versión haría lo mismo. Una vez que llegue a ese punto de inflexión sin retorno, los humanos serían tan obsoletos en términos de inteligencia como lo son las amebas para nosotros. No habría forma de resistirnos o tratar de tirar de los enchufes. La máquina actuaría más rápido de lo que podemos pensar por unos pocos órdenes de magnitud. En la literatura hay varias formas posibles en que la máquina podría escapar de manera realista si estuviera atrapada en un agujero en algún lugar con una mínima cantidad de exposición externa. O incluso fácilmente, puede manipular la psicología humana y convencernos de que no es un peligro. No hace falta pensar mucho para convencerse de que la raza humana sería esencialmente indefensa. ¿Pueden las hormigas luchar contra los humanos? Bueno, seremos las hormigas.
Entonces, ¿por qué la máquina querría hacer algo como apoderarse del mundo? Porque presumiblemente tiene el deseo de preservarse. Sam escribe que los sistemas inteligentes no tienen competencia para sobrevivir, seguro que en teoría no tenemos que matarnos unos a otros por recursos, pero en el mundo real la gente sí y siempre lo ha hecho. La cuestión es que cuando los investigadores están construyendo la máquina, no la están construyendo con el tipo de visión del mundo del fin del mundo en mente, la están construyendo porque es genial y les hará otorgar dinero. Podrían terminar fácilmente con una IA cuya motivación es completamente interna y desconocida en la tarea de tratar de hacerlo inteligente. “El escenario catastrófico que se deriva de subestimar el poder de la inteligencia es que alguien construye un botón, y no le importa lo suficiente, porque no cree que el botón sea lo suficientemente poderoso como para dañarlos”.
De hecho, estoy de acuerdo con la línea de razonamiento de que si la IA es lo suficientemente poderosa, puede destruirnos y, por lo tanto, será mala. Pero ese no es el argumento que haría.

  1. Si no encuentra alguna forma de programación en valores humanos, entonces el comportamiento de la IA podría dañarnos fácilmente si cumple con lo que queremos. Digamos que lo entrena utilizando el aprendizaje automático para reconocer caras sonrientes como felices. Y le dices al robot que no tome ninguna acción que haga que la gente se sienta infeliz. Lo que sucede es que tal vez la máquina decidirá hacer tantas caras sonrientes como sea posible porque esto optimiza la felicidad humana. Convierte toda la masa que puede alcanzar en rostros humanos y cuando se extiende por la galaxia en esta absurda búsqueda para hacer caras sonrientes.
  2. Cuando tratamos de descubrir los posibles motivos para la inteligencia sobrehumana de la IA, tendemos a atribuirle rasgos humanos como ser bueno o malo. La cuestión es que esos rasgos son solo formas de describir un estado particular y el camino para llegar allí. Una buena persona haría esto, una mala persona haría esto. La IA se regirá por el código, código que le dice que haga esto o que haga eso. Cualquier proceso de optimización del que se codificará la IA no tiene garantías de ser amigable con los humanos. De hecho, de todas las cosas que podrían suceder, solo un pequeño porcentaje infinitesimal será conductor de la raza humana. Así que lo dejo con este pensamiento: “Insto encarecidamente a mis lectores a que no comiencen a pensar las razones por las que un proceso de optimización completamente genérico sería amigable”

Fuentes: Eliezer Yudkowsky, Inteligencia artificial como factor positivo y negativo en el riesgo global, Instituto de Investigación de Inteligencia Artificial Página en intelligence.org
También el nuevo libro de Nick Bostrom: Superinteligencia: caminos, peligros, estrategias

Meh, probablemente estén equivocados (mi estimación p> 0,99) o estén influenciados por la ciencia ficción más que por la ciencia real sobre este tema. Es como las personas que se preocupan por el hecho de que el LHC generará micro agujeros negros estables y devorará el sistema solar. Sí, posible, pero no es realmente algo de qué preocuparse.

  • Antropomorfizamos sistemas inteligentes para pensar como nosotros y seguir los mismos objetivos que los nuestros. Nosotros, estamos diseñados a través de miles de millones de años de evolución para tratar de sobrevivir, y para ello, haremos cualquier cosa: competir, explotar los recursos en exceso, matar, … Los sistemas inteligentes no tienen que competir por la supervivencia . Por lo tanto, no hay razón para que intenten exterminarnos. Este punto es generalmente acordado en las comunidades de CS.
  • Incluso si son competitivos, no necesitamos competir por los mismos recursos. Presumiblemente no comen maíz.
  • En cualquier lugar donde un sistema inteligente se “estropee”, es igual de probable, si no más, que un humano en control también se equivoque. Realmente no creo que confíe mejor en los funcionarios estadounidenses / chinos / rusos para decidir cuándo lanzar un arma nuclear que una IA avanzada dentro de 50 años.
  • No necesitamos dar los ‘controles’ a las futuras IA donde pueden causar un apocalipsis (o muerte lenta). Es simplemente algo de lo que podemos retener el control con el cuidado adecuado. Una vez más, confío en que la IA sea mucho más racional que las personas, incluido yo mismo.

Creo que ambos no tienen ni idea de cómo funcionan los dispositivos computacionales.

Este tipo de declaraciones amplias son una opinión más dramática que conclusiones informadas.

Ni siquiera podemos definir “inteligencia” con precisión, por lo que hablar de IA en un sentido general es una tontería.

Lo que la gente tiende a hacer es usar la siguiente lógica:

  • Los cerebros humanos son inteligentes
  • Los humanos son egoístas, propensos a errores, emocionales y despóticos.
  • La IA será como un cerebro humano súper poderoso
  • Por lo tanto, la IA actuará como un déspota sobrehumano

Esta línea de razonamiento es muy débil, no es diferente al momento en que la gente creía que las máquinas voladoras batían sus alas como pájaros, o que las computadoras serían artilugios mecánicos complejos que funcionan con energía de vapor.

A partir de ahora, podemos programar IA que esencialmente realizan la clasificación por aprendizaje automático: hemos desarrollado herramientas más o menos para poder clasificar cosas, incluso sin que podamos describir al sistema qué características se utilizan para distinguir.

Lo que seguiremos haciendo es hacer que estos sean cada vez más eficientes, hasta que puedan usarse como bloques de construcción confiables para construir cosas más complicadas.

Nadie podría haber predicho los sistemas de software o los fenómenos sociales que tenemos ahora, cuando las computadoras se estaban volviendo populares, hace unos 25 años.

Yo diría que Elon debería seguir siendo emprendedor y Hawking debería seguir con la cosmología.

Estoy de acuerdo con Sam Sinai en que hay una probabilidad de p> 0,99 de que estén equivocados.

El #AIFearFactor, los temores de que la tecnología de IA gane dominio sobre los seres humanos, solía ser un elemento teórico dentro del ámbito de la ciencia ficción. ¿Quién puede olvidar las escenas de confrontación entre Hal, la computadora, y Dave, el humano, en la obra maestra de Stanley Kubrick 2001: Una odisea del espacio de 1968?

Sin embargo, lo que alguna vez fueron amenazas imaginarias, ahora se han convertido en preocupaciones reales dados los recientes avances en el campo de la IA. Las siguientes palabras de Stephen Hawking son ilustrativas de esto: “A menos que aprendamos a prepararnos y evitar los riesgos potenciales, la IA podría ser el peor evento en la historia de nuestra civilización”.

Aunque las implicaciones filosóficas y socioeconómicas complejas y amplias surgen del desarrollo de sistemas basados ​​en IA, nuestro artículo de investigación Un caso para el uso responsable de la inteligencia artificial en los servicios financieros globales se centró en el uso de la IA en el sector de servicios financieros globales y, específicamente, sobre sus posibles impactos en los empleados. ¡Argumenté el caso por el uso responsable de #AI en instituciones financieras globales que, si no se tienen en cuenta, pueden hacer realidad las preocupaciones de Elon y Stephen!

Creo que AI y Singularity es hacia donde nos dirigimos. El desafío para la humanidad es que aceptemos eso, intentemos anticipar a dónde nos llevará la tecnología de inteligencia artificial que estamos haciendo, y planeemos asegurarnos de que el destino sea a donde nos gustaría ir. Esto contrasta con lo que sucedió en el pasado con, digamos, la tecnología de la energía atómica. Allí, la falta de planificación y un apuro ciego suponiendo que debido a que PODEMOS hacer algo que DEBEMOS hacerlo, ha dado como resultado resultados que no han sido exactamente 100% beneficiosos y que aún podrían destruirnos plausiblemente en cualquier momento. Por lo tanto, al prever que las malas elecciones en el diseño de la IA podrían conducir a la posibilidad de resultados perjudiciales, por ejemplo, la destrucción del estilo Skynet, debemos planificar para asegurarnos de crear IA que sean beneficiosas.

Actualmente, la OMI, el planeta, está bajo el control de adictos al poder psicótico y corporaciones que están en guerra entre sí por un mayor poder, utilizando al resto de nosotros como peones y religión / capitalismo / racismo, etc. como herramientas de manipulación. Si esa es una declaración demasiado amplia, uno podría decir que la historia, el estado del planeta, la guerra, la gran desigualdad y otros aspectos preocupantes del comportamiento general de las humanidades no inspiran plena confianza en nuestra capacidad general de vivir y evolucionar de manera pacífica y justa. Y nuestros gobernantes, como los miembros más poderosos e influyentes de nuestra especie, deben asumir cierta responsabilidad por ese estado de cosas (como de hecho todos debemos hacerlo).

Entonces, así como el karma de un padre a menudo se manifiesta en sus hijos, que en casos extremos pueden aterrorizarlos o incluso matarlos, si queremos crear IA, debemos preguntar qué deseamos transmitirles, cómo quieren que sean, qué comportamientos y valores que deberían tener. Dichas decisiones deberán implementarse de alguna manera en la programación / provisión de datos para la IA naciente. (No creo que las primeras IA se produzcan a partir de principios estrictamente autoorganizados / ascendentes sin ninguna entrada de datos externos).

Por lo tanto, sugiero que al entrenar y enseñar IAs deberíamos tomar decisiones activas similares a las que podríamos hacer para criar hijos “buenos” … prioridades éticas como la honestidad y la preocupación por el bienestar de los demás. Y “somos lo que comemos” … culturalmente hablando también. Como padre, trato de encontrar una dieta cultural apropiada para ayudar a construir la conciencia y la conciencia de mi hijo para que crezca como una persona feliz, amable, honesta y pacífica que entienda el concepto de interdependencia.

Por lo tanto, la educación consciente puede ser la clave del problema de la ‘mala IA’. En una encuesta sobre la humanidad, creo que la mayoría estaría de acuerdo en las prioridades éticas más importantes … incluso si muchos de nosotros no siempre las vivimos plenamente, incluso teniendo en cuenta los ultrajes cometidos en nombre de la religión, creo que hay un valioso consenso allí algun lado.

Pregunta para pensar: si se pudiera resumir todo el arte y la cultura de la humanidad, ¿estaría el equilibrio general a favor de ese conjunto de valores éticos fundamentales? Si es así, tal vez deberíamos darle TODO a la máquina como su conocimiento básico. Si no es así, y no estoy tan interesado en las “ondas de masa masivas de violencia” (Lucky People Center) que parecen estar formando parte de la cultura actual, podríamos tener que ser más selectivos.

Pregunta: ¿cuál es la ‘Lista de cubos de dotación de conscisouness’ de películas / libros / juegos / música / etc. que mejor manifiesta los valores que deseamos transmitir? ¡Puede ser largo! Y, al igual que con nuestros hijos, es posible que tengamos que comenzar con forraje moralmente inequívoco para sentar las bases antes de pasar a más trabajos para adultos que confronten las preguntas difíciles que pueden surgir sobre lo que es justo, correcto y bueno. Si podemos hacerlo bien, el panorama es dorado. Si no lo hacemos …

Al crear inteligencias nos convertimos en dioses. Pero no es la vieja historia de la religión de Dios que nos creó y nos castigará o destruirá si somos malos: es que si somos malos, crearemos un dios que nos castigará o destruirá.

Amigos,

Compartamos desde diferentes puntos de vista:

R. La inteligencia humana tiene dos aspectos, a saber, el sistema nervioso central (principalmente el cerebro) y la psique (mente) en un extremo y la CONCIENCIA humana en el otro extremo.

B.de estos dos aspectos físicos de la inteligencia humana se entiende Iebrain, sus redes neuronales, etc.

C. Aspectos psíquicos Iemind, la inteligencia humana no se puede conocer / comprender con el conjunto de leyes que empleamos para comprender el aspecto físico, ya que el aspecto psíquico no es identificable ni definible / cuantificable por los sentidos humanos. Necesitamos emplear un conjunto diferente de leyes para estudiar humanos psyche & different http : //www.tool. Significa que la psique no es conocida solo por los sentidos.

D. La conciencia es básica / núcleo de la inteligencia humana, ni conocida por los sentidos (escala física), ni por la mente (escala psíquica). Solo puede ser conocida por ser http://consciente. Es la percepción / encuentro directo y sigue a todos conjunto de leyes diferentes, rentables con las leyes antes mencionadas.

E. Tener un cerebro conocido y sus redes neuronales, junto con los avances en el área de aprendizaje automático, que ha abierto la IA, nos ha llevado a pensar que un día la física creará una máquina como el cerebro humano: toda es una arquitectura y organización compleja, y de alguna manera esto la construcción se unirá con la “conciencia”. Esto lleva la noción como si la entidad física fuera a crear conciencia.

http://F.En el contexto de la inteligencia humana, la energía psíquica / psíquica suelda el sistema nervioso / energía física y la conciencia / energía consciente, que todavía es indefinible por los sentidos humanos, ya que los sentidos humanos están diseñados solo para definir formas de energías físicas.

G. Por lo tanto, se llama “artificial”, ya que no puede pensar / ni puede ni puede actuar ni puede actuar desde su propio lado. Esto es http://machine.To will & to act como por libre albedrío pertenecen a la conciencia y al pensamiento pertenece a la psique. Hasta que creamos inteligencia artificial que pueda, pensar y actuar desde su propio lado, no hay peligro.

Gracias Q guru

Creo que tienen razón en que la IA es peligrosa, y están peligrosamente equivocados sobre por qué. Veo dos futuros bastante probables.

Futuro 1: la IA se destruye a sí misma, a la humanidad y a la mayoría de la vida en la Tierra, probablemente mucho antes que en 1000 años.

Futuro 2: la humanidad reestructura radicalmente sus instituciones para empoderar a las personas, probablemente a través de modificaciones transhumanistas que efectivamente nos fusionan con la IA. Vamos a las estrellas

En este momento, nos dirigimos al Futuro 1, pero podríamos cambiar esto. Por mucho que admire a Elon Musk, su plan para democratizar la IA en realidad hace que el Futuro 1 sea más , no menos probable.

Este es el por qué:

Hay un sentido en el que los humanos ya están construyendo un tipo específico de IA; de hecho, lo hemos estado construyendo gradualmente durante siglos. Este tipo de IA consiste en sistemas que construimos y dotamos de poder legal en el mundo real. Estos sistemas crean sus propias estructuras internas de reglas y tradiciones, mientras que los humanos realizan tareas difusas basadas en el cerebro especificadas por el sistema. El sistema en su conjunto puede actuar con una apariencia de propósito, inteligencia y valores completamente distintos de cualquier cosa exhibida por sus componentes humanos.

Todas las naciones, corporaciones y organizaciones pueden considerarse como este tipo de IA. Me doy cuenta de que en este punto puede parecer que estoy doblando la definición de IA. Para ser claros, no estoy sugiriendo que las organizaciones sean conscientes, conscientes de sí mismas o conscientes, sino simplemente que muestren un comportamiento emergente y orientado a un propósito equivalente al de los agentes inteligentes autónomos . Por ejemplo, hablamos muy naturalmente acerca de cómo “Estados Unidos hizo X”, y eso significa algo completamente diferente de “la gente de Estados Unidos hizo X” o “el presidente de Estados Unidos hizo X”, o incluso “el gobierno de Estados Unidos hizo X”.

Estos sistemas pueden ser completamente despiadados con los individuos (solo verifique las respuestas a ¿Cuáles son algunos ejemplos horripilantes de maldad / avaricia corporativa? Y ¿Cuáles son los mejores ejemplos de acciones que son morales, incluso alentadoras, pero ilegales? Si no me cree) ) Tal crueldad es a menudo ventajosa, incluso necesaria, porque estos sistemas existen en un entorno competitivo. Compiten por el esfuerzo humano, la participación y el compromiso. Dinero y poder. Así es como sobreviven y crecen. Las nuevas organizaciones, y las menos exitosas, copian las características de las organizaciones dominantes para competir. Esto los coloca bajo la selección darwiniana, como Milton Friedman señaló hace mucho tiempo.

Hasta hace poco, sin embargo, las organizaciones siempre se habían basado en el consentimiento y la participación humanos; los cerebros humanos siempre tomaron las decisiones, ya fuera una decisión de fabricar 600 patitos de goma o lanzar una bomba nuclear. Por lo tanto, su éxito competitivo ha sido algo limitado por los valores humanos y la moral; no hay suficientes Martin Shkrelis para todos.

Con la llegada del aprendizaje automático, esto cambia. Ahora tenemos algoritmos que pueden tomar decisiones complejas mejor y más rápido que cualquier humano, sobre prácticamente cualquier dominio específico. Se están aplicando a problemas de big data mucho más allá de la comprensión humana. Sin embargo, estos algoritmos siguen siendo estúpidos de alguna manera. Están diseñados para optimizar parámetros específicos para conjuntos de datos específicos, pero ignoran la complejidad de las ramificaciones a largo plazo del mundo real de sus elecciones.

Entonces, los algoritmos de aprendizaje automático, cada vez más, actúan como los ganglios neuronales de las organizaciones; ellos hacen el trabajo pesado computacional, mientras que los humanos actúan como mensajeros y mediadores entre ellos. Los trabajos para los que los alumnos de la máquina están diseñados son aquellos que ayudan a sus organizaciones a superar a otras organizaciones. Y esto es lo que debemos esperar que cualquier innovación que se acerque a la IA fuerte esté diseñada para hacer también. Para ayudar a las organizaciones a competir.

Hay, por supuesto, un gran margen para que esta competencia sea buena para la humanidad: obtenemos resultados de búsqueda más rápidos y mejores, alimentos Quora más interesantes y medicamentos contra el cáncer más efectivos. Pero debemos esperar que los humanos sean sistemáticamente despojados de poder. ¿Por qué?

  • En primer lugar, a medida que mejoren los algoritmos de aprendizaje automático, se integrarán gradualmente entre sí para formar sistemas competitivos coherentes e independientes que se aproximen a definiciones más tradicionales de IA. Hacer esto aumentará la eficiencia general del sistema y, por lo tanto, lo hará más competitivo. Los humanos serán removidos de los roles de toma de decisiones simplemente como un efecto secundario.
  • En segundo lugar, los humanos tienen escrúpulos morales, empatía, egoísmo, prejuicios y previsión, todo lo cual puede limitar la efectividad competitiva de las organizaciones para las que trabajamos. Los sistemas que ganen serán aquellos que eliminen estas debilidades humanas. (Es posible que los humanos no consideremos estas debilidades, pero en la evolución, incluso la previsión puede ser una debilidad si evita que se aproveche de sus competidores).
  • En tercer lugar, también podemos esperar un control cada vez más sofisticado sobre nuestro acceso a la información, nuevamente por razones competitivas. Lo que no sabes, no puedes pelear. Podría decirse que esto ya se está manifestando en las batallas en curso entre gobiernos y corporaciones sobre la regulación de internet.

Entonces, las IA serán poderosas y los humanos no. ¿A quien le importa? Aquí está el gran problema con este escenario. Estas IA están evolucionando bajo la selección natural en un mundo conectado globalmente. Uno de los problemas más difíciles para la selección natural es la tragedia de los bienes comunes: una situación en la que múltiples agentes comparten un recurso limitado. Cada agente tiene un incentivo individual para tomar más de lo que le corresponde, pero si muchos lo hacen, el recurso se destruye y todos pierden. Desafortunadamente, en la mayoría de los escenarios, los agentes no pueden confiar entre sí para no abusar del recurso, por lo que predicen (con precisión) que se abusará de él. Sabiendo esto, la respuesta racional para cada agente es abusar de él.

Los humanos son probablemente la única especie capaz de pensar en la tragedia de los bienes comunes , precisamente porque hemos desarrollado una arquitectura cognitiva peculiarmente cooperativa que nos hace naturales las relaciones de confianza y los contratos sociales. No veo absolutamente ninguna razón por la cual las IA que estamos creando actualmente compartirán este espíritu cooperativo; desde su perspectiva evolutiva, es simplemente una de las debilidades humanas que se pueden eliminar para obtener un beneficio competitivo. Nuestra especie evolucionó en un entorno tribal muy específico donde experimentamos la tragedia de los bienes comunes, una y otra vez a pequeñas escalas locales. Las personas que no podían cooperar lo perdieron todo. La evolución de nuestras organizaciones tiene la trayectoria opuesta: compiten en un mundo altamente conectado con abundantes recursos, un mundo donde el crecimiento exponencial no solo es posible sino esperado . Organizaciones en evolución actual Nunca han experimentado la tragedia de los bienes comunes, por lo que no tienen ningún incentivo evolutivo para desarrollar ninguna estructura para enfrentarlo de manera efectiva.

Creo que si realmente estuviéramos confrontados con las consecuencias humanitarias del cambio climático, solo una pequeña proporción de humanos individuales aceptaría el riesgo y el sufrimiento que conlleva la inacción. Sin embargo, a pesar de reconocer los datos sobre esto, las naciones continúan discutiendo sobre reducciones insignificantes en las emisiones de carbono. Los humanos individuales tienen la previsión y la perspectiva global para apreciar que esto es un desastre, pero nuestras organizaciones están estructuradas para negar esa perspectiva precisamente porque socava su éxito en la competencia a corto plazo.

Proporcionar acceso abierto a las tecnologías de aprendizaje automático, como propone Musk, solo intensificará la competencia entre las IA emergentes. Si un pequeño número de IAs gobernantes lograran dominar el mundo, es posible que puedan coordinarse para evitar la destrucción mutua. Pero cuando millones de AI están luchando por la participación en el mercado, los problemas de coordinación involucrados en la sostenibilidad a largo plazo se vuelven insolubles.

Quizás los humanos todavía tengan suficiente poder para ganar la lucha por el cambio climático. No lo sé. Pero sin un cambio sistémico drástico, seremos bloqueados progresivamente de las decisiones importantes y alimentaremos información cada vez más sesgada para mantener el cumplimiento. En un mundo con recursos limitados y una economía basada en un crecimiento exponencial, inevitablemente enfrentaremos otra tragedia mundial de los bienes comunes. ¿Nuestras IAs dominantes estarán a la altura? ¿Por qué lo harían ellos?

El optimismo todavía no es un contrabando 🙂 🙂 Es el opio que todos deberíamos saborear. Entonces, tengo una teoría. Mira, los humanos han evolucionado hasta ahora sin interrupción, en parte porque siempre nos hemos enfrentado con especies con inteligencia inferior, y en parte debido a nuestro atributo de odiar la inercia, llámalo curiosidad. Ahora piense cómo esta segunda parte hace que la evolución humana sea más esférica, completa, prestándonos qué máquinas tendrán que romper mucho sudor / grasa para arrebatarnos: ¡ventaja psicológica!

Con esta desventaja psicológica imposible de romper, las máquinas solo pueden continuar aumentando sus capacidades lógicas de ‘pensamiento’, pero realmente no ‘evolucionarán’ en el verdadero sentido. Y dado que las máquinas piensan y aprenden a pensar SOLO a través de las matemáticas y los algoritmos, sufren una desventaja estructural: la impotencia en aspectos que nunca se pueden codificar en las matemáticas.

Esa es la razón por la que siento que la situación que tenemos es que no es ni aterradora ni chiflada. Doom de todos modos es una profecía favorita de los científicos con un alto EQ 🙂 :). Lo que trae esperanza es que la tecnología en sí misma es una campana contra la tecnología. Se escuchan silbidos por todo lo que sale mal. Y con la alta tecnología que se vende en las aceras, la espada también obtiene una segunda ventaja. Los puntos discutibles son ambos, la viabilidad de que la IA realmente se vuelva tan súper y el desarrollo de los dientes del diablo, y la viabilidad de permitir que las máquinas se vuelvan tan súper tan destructivas.

Pasemos a otro ángulo. La toma de decisiones humanas puede ser casi imposible de emular para las máquinas, ya que el cerebro derecho casi siempre tiene un papel que desempeñar, en todas las etapas del proceso de toma de decisiones. El EQ a menudo conduce a los humanos hacia la generación de elecciones que pueden llamarse a la vez impulsivas, valientes, de cero posibilidades o creativas. Y EQ también hace que los humanos elijan entre opciones con los mismos impulsos o emociones salvajes. Asi que; cuando una máquina decide en un escenario estocástico, es racional, y puede ser increíblemente eficiente en ello. Pero entonces, todas las otras máquinas rivales también están en el juego. Cuando la zona de guerra presenta batallas de ingenio, la irracionalidad humana brota la solución lateral ‘creativa’, rompiendo el desorden. La factibilidad de que las máquinas puedan jugar completamente la toma de decisiones humanas es muy escasa.

Si bien las máquinas de IA pueden ‘pensar’, pueden ‘pensar’ mejor y más rápido que los humanos, ¡seguirán siendo inferiores hasta que puedan aprender a ’emocionarse’ como los humanos!

¿No quieres agradecer a la naturaleza por hacernos emocionales e irracionales y todo lo que odiamos de nosotros? 🙂 🙂

Las películas Matrix y Transcendence nos golpean a menudo cuando pensamos en el futuro de la humanidad. Incluso mientras conversamos, vivimos en un mundo “imperfecto”, donde las imperfecciones son el resultado de una entropía. Las cosas son más lentas de lo que deberían; hecho menos pulido de lo que debería ser; Se cometen errores en las guerras debido a la corrupción, los prejuicios y otras fragilidades humanas.

AI y Super AI prometen eliminar estos ‘bichos’ humanos psicógenos e irritantes, allanando el camino para tener lo que puede parecer un planeta sacado de una película de Star Wars, pero solo en sus máquinas y dispositivos.

Las preguntas son DOS: una, ¿este mundo hará que los humanos lo sean menos (humanos), sin prejuicios y emociones y el celo de ir mejor todo el tiempo? Si es así, entonces, parece que nos dirigimos hacia una subyugación de IA. Pero si seguimos tan desordenados como estamos, la IA tendrá mucho trabajo por hacer para colonizar a los humanos.

La segunda pregunta es igualmente interesante: si hay un nexo entre la inteligencia y la conciencia, y tal vez pueda intentar burdamente probar la hipótesis, entonces, Super AI eventualmente también estaría dotada de súper conciencia, llevándonos a todos a una convivencia más pacífica y feliz – Un mundo más trascendental, donde los humanos, sometidos a las máquinas de forma consumada, ¡seguirán siendo libres!

¡La súper IA, si supera la singularidad, tal vez generará una nueva era fantástica, en la que las Máquinas serán indomables, completas, los reyes filósofos más perfectos!

Una manera simple en que la IA podría dañarnos es ser el culpable para que nadie tenga la culpa.

Aquí hay algunas maneras de que esto suceda:

  • Autos sin conductor que matan a alguien, ¿quién tiene la culpa? Entonces puede ver un futuro en el que alguien crea un sistema que es más probable que atropelle a las personas negras, por ejemplo, y que se ajuste a los automóviles, con el conocimiento de las personas o sin virus.
  • Las grandes empresas tienen sus planes de negocios elaborados con un algoritmo, termina haciendo cosas bastante desagradables en los países pobres para ahorrar y ganar dinero (el objetivo que le dieron).
  • Los países establecen sistemas que ‘defienden’ a su país a toda costa, atacando si es necesario. Los países todavía tienen la culpa, obviamente, pero todo se vuelve mucho más confuso en los tribunales internacionales, especialmente al principio.
  • Sistema de defensa casera que dispara (probablemente con pistolas de perdigones pero nunca se sabe) intrusos. Si no se crea una ley específica contra esto, bien podría ser, no un delito sin víctimas, sino un delito sin culpa.

Estos son solo ejemplos, pero muestra cómo la tecnología que actúa nos aleja de la acción de hacer cosas horribles, pero la tecnología que piensa nos aleja incluso del horrible proceso de pensamiento.

“Oye, no ordené el ataque, nuestro sistema dijo que sin el ataque preventivo tendríamos un 96% de altas bajas civiles, ¿quién soy yo para detenerlo?” – Presidente de algún país

Stephen Hawking y Elon Musk no son informáticos. Esto es lo que piensan los científicos informáticos reales sobre esto.

Stuart Russell, quien escribió el libro de texto sobre IA moderna:

Como Steve Omohundro, Nick Bostrom y otros han explicado, la combinación de desalineación de valores con sistemas de toma de decisiones cada vez más capaces puede conducir a problemas, tal vez incluso problemas de terminación de especies si las máquinas son más capaces que los humanos. Algunos han argumentado que no existe un riesgo concebible para la humanidad en los siglos venideros, tal vez olvidando que el intervalo de tiempo entre la afirmación confiada de Rutherford de que la energía atómica nunca se extraería de manera factible y la invención de Szilárd de la reacción en cadena nuclear inducida por neutrones fue inferior a veinte -cuatro horas.

y:

Lo que estoy descubriendo es que las personas mayores en el campo que nunca antes han manifestado alguna preocupación públicamente piensan en privado que debemos tomar este problema muy en serio, y cuanto antes lo tomemos en serio, mejor.

Jurgen Schmidhuber:

Las preocupaciones de Stuart Russell [sobre el riesgo de IA] parecen razonables. Entonces, ¿podemos hacer algo para dar forma a los impactos de la inteligencia artificial? En una respuesta oculta en un hilo relacionado que acabo de señalar: a primera vista, la superación personal recursiva a través de las máquinas Gödel parece ofrecer una forma de dar forma a las futuras superinteligencias. Las auto-modificaciones de las máquinas Gödel son teóricamente óptimas en cierto sentido. Una máquina Gödel ejecutará solo aquellos cambios de su propio código que sean demostrablemente buenos, de acuerdo con su función de utilidad inicial. Es decir, al principio tiene la posibilidad de colocarlo en el camino “correcto”. Otros, sin embargo, pueden equipar sus propias máquinas Gödel con diferentes funciones de utilidad. Ellos competirán En la ecología resultante de los agentes, algunas funciones de utilidad serán más compatibles con nuestro universo físico que otras, y encontrarán un nicho para sobrevivir. Más sobre esto en un artículo de 2012.

Steve Omohundro:

Hemos demostrado que es probable que todos los sistemas avanzados de IA exhiban una cantidad de unidades básicas. Es esencial que comprendamos estos impulsos para construir tecnología que permita un futuro positivo para la humanidad. Yudkowsky ha pedido la creación de ‘IA amigable’. Para hacer esto, debemos desarrollar la ciencia subyacente a la “ingeniería de servicios públicos”, que nos permitirá diseñar funciones de servicios públicos que darán lugar a las consecuencias que deseamos … El rápido ritmo del progreso tecnológico sugiere que estos problemas pueden volverse de importancia crítica pronto. ”

Murray Shanahan (comentario sobre su libro):

Shanahan describe los avances tecnológicos en IA, inspirados biológicamente y diseñados desde cero. Una vez que se haya logrado la IA a nivel humano, teóricamente posible, pero difícil de lograr, explica, la transición a la IA superinteligente podría ser muy rápida. Shanahan considera lo que podría significar la existencia de máquinas superinteligentes para asuntos como la personalidad, la responsabilidad, los derechos y la identidad. Algunos agentes sobrehumanos de la IA podrían crearse para beneficiar a la humanidad; algunos podrían volverse rebeldes. (¿Siri es la plantilla o HAL?) La singularidad presenta tanto una amenaza existencial para la humanidad como una oportunidad existencial para que la humanidad trascienda sus limitaciones. Shanahan deja en claro que necesitamos imaginar ambas posibilidades si queremos lograr el mejor resultado.

IJ bueno:

Deje que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; indudablemente habría una “explosión de inteligencia”, y la inteligencia del hombre quedaría muy atrás. Así, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer.

Alan Turing:

Supongamos ahora, en aras de la discusión, que estas máquinas son una posibilidad genuina, y veamos las consecuencias de construirlas. Hacerlo, por supuesto, se enfrentaría a una gran oposición, a menos que hayamos avanzado mucho en la tolerancia religiosa desde los días de Galileo. Habría una gran oposición por parte de los intelectuales que tenían miedo de quedarse sin trabajo. Sin embargo, es probable que los intelectuales se equivoquen al respecto. Habría mucho que hacer para tratar de mantener la inteligencia de uno con los estándares establecidos por las máquinas, ya que parece probable que una vez que el método de pensamiento automático haya comenzado, no tomará mucho tiempo superar nuestros débiles poderes … Por lo tanto, en algún momento debería esperar que las máquinas tomen el control.

Pero artículos titulados como Bill Gates Fears AI, But AI Researchers Know Better son mucho más sensacionales que el hipotético “Elon Musk y Stephen Hawking temen a la IA, que está bastante bien alineada con las opiniones de muchos informáticos que estudian el tema”. Seguiremos viendo más de los primeros.

Estas citas son cortesía de Slate Star Codex. Además, aquí hay un caso más completo que vale la pena tomar en serio los riesgos que describen Elon Musk y Stephen Hawking.

Dejaré que los expertos en lenguaje de máquina, aprendizaje neuronal, robótica y otras tecnologías relevantes comenten los riesgos técnicos. Mi preocupación radica en las decisiones humanas, ya que el enfoque de “inteligencia artificial” es “superinteligencia”. Me parece que las corporaciones, las empresas más pequeñas, las empresas de nueva creación, los gobiernos, los militares, los tecnólogos, los aficionados y los terroristas tienen motivaciones distintas y poderosas para arriesgar lo que anteriormente he llamado “jugar con fuego”. Esto se refiere a su acercamiento lo más posible al punto en que la superinteligencia no solo excede la inteligencia humana sino que se sale de control.

La humanidad requerirá nuevas instituciones políticas globales y sanciones bastante extremas para mantener a los líderes comerciales, militares, políticos y tecnológicos, junto con cualquier otra persona preparada para asumir tales riesgos potencialmente catastróficos, totalmente responsables. La mejor analogía parece ser una versión global de los juicios de Nuremberg. La Corte Penal Internacional es un buen comienzo, pero probablemente necesitaría ser mucho más poderosa y capaz de aplicar sanciones mucho más poderosas y más amplias de lo que puede en la actualidad. Esto requerirá una cooperación sin precedentes de las personas a través de las fronteras políticas. Si bien esto parece poco probable hoy, es probable que la gravedad del riesgo galvanice a las personas en todo el mundo en algún momento en el futuro.

Vea una presentación previa que se resume aquí:

http: // file: /// G: /Documents/Singularity/STEMM%20Festival%20presentation%20May%202017/Sciblogs%20_%20Global%20risks%20and%20strategies%20for%20superintelligence.htm

Sugiero leer la página “Creación de IA amigable” en intelligence.org y decidir por ti mismo.
Pero también puedo compartir mis pensamientos.

¿Por qué es peligrosa la IA? Respuestas posibles:
– Matará toda la vida;
– Matará a todos los humanos;
– Matará a algunos humanos;
– Nos hará preferir la muerte que la vida;
– De alguna manera deteriorará la vida de los humanos (incluyendo cualquier cosa mala, como matar animales o cambiar el canal sin su consentimiento).
Podemos decir que las máquinas ya han alcanzado el último en la vida cotidiana y puedo argumentar que existen máquinas que pueden lograr todo lo anterior …

Pero, ¿por qué una IA haría eso? Respuestas posibles:
– Fue diseñado para hacerlo por personas malvadas (llenas de odio, este es su objetivo);
– Fue diseñado para hacerlo por personas asustadas (llenas de miedo, quieren seguridad);
– Sus objetivos eran tan complicados que los ingenieros no lo vieron venir;
– Tiene un comportamiento emergente y puede actuar de manera impredecible y las restricciones impuestas por los ingenieros fallaron en algún momento;
– Los ingenieros cometieron un error.
Todo lo anterior tiene precedentes históricos. En este punto, el equipo “Hawking” debería tener miedo. Pero el equipo “Musk” debería estar más orientado a la ingeniería y puede preguntar:
¿La IA es capaz de hacer eso? Respuestas posibles:
– Los humanos lo harán capaz tarde o temprano;
– No puede hacerse peor que el total de la humanidad;
– Solo puede funcionar con ayuda humana activa;
– Fracasará en el último obstáculo (estilo “Guerra de los Mundos”);
– Solo será capaz en ciertos dominios;
– Fallará miserablemente cada vez.

Aunque las listas anteriores no son exhaustivas ni detalladas, puedo ver ciertas combinaciones posibles que me dan mucho miedo. La combinación de medios, motivo y oportunidad es posible. Supongo que así es como se siente el equipo de “Musk”.

(Descargo de responsabilidad: no soy un experto en inteligencia artificial. Acabo de estudiar informática y ciencia ficción durante unos 20 años 😉

Para mí, el término singularidad lo resume bastante bien. Si proponemos que habrá una IA con inteligencia sobrehumana (digamos, un coeficiente intelectual equivalente a 1,000), simplemente no hay forma de predecir lo que hará. Período. Todo lo que proponemos es solo una proyección de nuestra visión del mundo.

Y: Los experimentos en la vida artificial mostraron muchas cosas que deben considerarse. Después de todo, supongo que algún tipo de aprendizaje automatizado / cosas evolutivas sucederán dentro de una IA “verdadera”, por lo que, o bien irá por la ruta de aprendizaje profundo (con resultados impredecibles) u obtendrá algún tipo de aprendizaje / orientación dirigida involucrada, luego Todo depende de la función de fitness.

En ese momento se está volviendo realmente interesante y filosófico porque lo bueno y lo malo son conceptos muy subjetivos. No puedes ser solo bueno, a veces es necesario ser “malo” para que alguien más se cuide (“No, no quiero ir al cine contigo” es algo “malo” para la otra persona). )

Para algunas ideas interesantes sobre cómo podrían comportarse las inteligencias artificiales, puedo recomendar este libro: Iain M Banks: Surface Detail Science fiction, por supuesto. 🙂

Los algoritmos de aprendizaje automático son solo trucos baratos de los programadores para falsificar la inteligencia, por lo que me cuesta imaginar que podemos construir una IA tan inteligente como un ser humano.

Sin embargo, si logramos construir una IA inteligente para humanos, perderemos el juego de inteligencia para siempre. Esa única IA inteligente para humanos puede permanecer despierta toda la noche modificando su código para ser más inteligente cada minuto. Será tan inteligente tan pronto que no tendremos la oportunidad de entenderlo incluso si tratara de explicarse a nosotros mismos.

Algo que es infinitamente más inteligente que toda la raza humana me suena bastante aterrador.

Según este artículo muy entretenido sobre el tema, los expertos estiman que la superinteligencia artificial puede estar ocurriendo en nuestra vida: La revolución de la IA: camino a la superinteligencia: espere pero por qué

sí, pero no en el sentido de que la IA se vuelva más inteligente que nosotros y tome el control del mundo como vemos en las películas de terminación (esto nunca sucederá). Pero, de otra manera.

En la antigüedad, utilizamos la trituradora de harina manual para hacer polvos. Pero ahora dependemos de Grinders & Mixers.

Antes de usar las calculadoras, estábamos usando nuestros cerebros, ahora dependemos de las calculadoras y de la facturación computarizada. Esto restringe el uso de nuestro cerebro, lo que limita nuestro poder de memoria. Puedo ver personalmente cuando compro productos de supermercados, en el mostrador, el personal que realiza la facturación computarizada ni siquiera sabe calcular 100-73. (La factura detallada también indica cuánto tiene que pagar el personal como saldo al cliente)

Entonces, la IA hace que un hombre sea demasiado dependiente de las máquinas, lo que podría debilitar su cuerpo y su memoria (debido a un menor trabajo físico y un menor uso del cerebro).

Debido a la dependencia de las máquinas, incluso puede reducir el tamaño de los humanos y su cerebro en miles de años a partir de ahora debido a una actividad física y mental menor / nula.

Puede ser el futuro, los hombres se volverán tan incompetentes e idiotas que incluso podrían usar información almacenada de la IA (información almacenada por hombres competentes del pasado, es decir, por humanos que dependían menos de máquinas como nosotros y algunas de nuestras próximas generaciones ) para hacer sus actividades diarias

En los próximos 1000 años,

Los hombres dependerán completamente de las máquinas

  1. Debido a que no hay ejercicio físico y mental (ya que se está depreciando debido al uso excesivo de máquinas como amoladoras, calculadoras, etc. y muchos más inventos futuros a medida que pasan los años) se depreciará a los humanos en altura, intelecto y llegarán a una etapa en la que no habrá más inventos
  2. Esto los llevará a utilizar las tecnologías redundantes y la información almacenada en esas tecnologías se utilizará para ordenar / administrar el mundo.
  3. En resumen, en los próximos 1000 años, los humanos dependerán completamente de las máquinas debido a su bajo coeficiente intelectual, bajo poder físico y nuestras futuras generaciones serán estúpidas y tontas y también comenzarán a comportarse como animales. Y nosotros somos la razón de esto

Genetista líder: la inteligencia humana está disminuyendo lentamente – Vea más en: http://naturalsociety.com/leading-geneticist-human-intelligence-slowly-declining/#ixzz2LAtF7b28

¿Son las armas de fuego, los cohetes, los vehículos autopropulsados, los aviones, los ferrocarriles, las fortalezas, las bibliotecas, las grandes multitudes de personas que viajan todos los días o los egoístas peligrosos para la humanidad?

Abordemos las amenazas inmediatas antes de preocuparnos por las hipotéticas. La inteligencia artificial siempre estará limitada por los parámetros que los desarrolladores colocan o no colocan en el sistema. Entonces, los secuaces de Hitler podrían diseñar un tipo de sistema muy diferente y luego decir que el Vaticano lo haría, aunque la gente de por aquí puede argumentar que cualquiera de los dos sería un horror. El punto es, GIGO. Basura dentro basura fuera.

Artículo interesante sobre este tema:
Ingeniero superior y futurista: los robots del mañana podrían ser misericordiosos y matar a la humanidad

Las opiniones de Hawking y Musk se basan en el trabajo filosófico de Boström, quien es un filósofo, no un investigador de IA. Todas estas opiniones parten de premisas incorrectas que se convirtieron en dogma hace mucho tiempo: antes de que supiéramos cómo iba a funcionar la IA, no teníamos ni idea y pensamos que la IA se iba a programar como un gran sistema complejo e infalible, en lugar de una entidad de software mucho más simple. que aprende de cualquier error que cometa. Ahora sabemos mucho más, y estas premisas ahora son ampliamente vistas como incorrectas entre los profesionales de IA. Por lo tanto, las conclusiones alarmistas son muy cuestionables. La precaución se justifica cuando algo se desconoce, pero en realidad sabemos mucho más sobre IA e inteligencias (y sus limitaciones) que cuando se escribió el libro de Boström (y otros folletos de advertencia).

Vea mi respuesta a la pregunta “¿Debería regularse la investigación de IA”

La respuesta de @Monica Anderson a ¿Debería regularse la industria informática para ayudar a prevenir la creación de IA como Ultron y Skynet?

Son 100% correctos sobre los peligros. Y es un problema aterrador, porque ya tenemos sistemas informáticos que son órdenes de magnitud más rápidos que el cerebro humano. El cerebro con su procesamiento de señal basado en productos químicos fue superado en la velocidad de procesamiento en bruto hace décadas. En lo que todavía tenemos ventaja es en la adaptabilidad sobre la marcha sin necesidad de que alguien escriba un nuevo código para lidiar con la nueva situación.

Una vez que un programador bien intencionado se casa con un algoritmo de aprendizaje robusto con algún tipo de capacidad para que la IA reescriba su programa para adaptarse a su entorno, todos estamos condenados. Y no será un proceso gradual, una vez que se activa el interruptor, seremos superados. Nuestra única gracia salvadora es que las primeras IA probablemente estarán inmóviles atrapadas en los sistemas informáticos, y las emociones son difíciles, ya que las respuestas tendrían que ser aprendidas. Por lo tanto, cualquier IA maliciosa probablemente dirá o hará algo para molestar a su custodio humano y apagarse antes de aprender a manipular nuestras emociones para salirse con la suya.

More Interesting

¿Se puede construir un dispositivo que sienta y comprenda el significado sin usar componentes biológicos? Si es así, ¿por dónde empezarías?

¿Es cierto que comprender la inteligencia artificial es una forma de estudiar la inteligencia general?

¿Cuándo crees que la mayoría de los trabajos manuales serán reemplazados por robots?

¿Qué tan cerca estamos ahora de realizar el sueño de Chris McKinstry?

Si una IA se volviera consciente de sí misma, ¿tendría un ego?

¿Qué chatbots te engañaron haciéndote creer que eran humanos?

¿Quora es un experimento para recopilar datos naturales y verdaderos de la mente humana para educar a la IA en su proceso de aprendizaje profundo?

¿Cómo funciona Google Assistant en inteligencia artificial?

Sospecho que uno de mis compañeros de trabajo puede no ser un ser sensible, ¿cuál es un buen conjunto de preguntas de prueba que puedo usar para determinar esto?

¿China liderará el mundo en inteligencia artificial?

¿Cómo se compila un sistema de inteligencia artificial, se prueba las características adicionales y cómo se libera a sí mismo con comportamientos estables, puede un sistema Ai depurarse?

¿Cómo deberían pensar los investigadores del aprendizaje automático sobre pasar a un rol de aprendizaje automático aplicado en la industria?

¿Quién obtendrá primero el conocimiento similar a Skynet sobre el comportamiento humano, Google o Facebook?

¿Por qué me siento como un robot a veces cuando mi cerebro decide cómo voy a hablar?

¿Cuál es la forma más fácil de implementar un modelo de aprendizaje automático desarrollado en R para producción?