¿Por qué están preocupados Elon Musk y Bill Gates por los avances en el aprendizaje automático y la IA? ¿Cuál es el fundamento de sus miedos?

Los avances recientes en inteligencia artificial no son, en realidad, “estadísticas simples” disfrazadas como dice el OP. Vea los avances en redes neuronales profundas, por ejemplo, donde los tamaños y la naturaleza de los modelos son tales que es casi imposible interpretar lo que los modelos han aprendido. Algunos de estos modelos pueden aprender características poderosas completamente de los datos de una manera “de extremo a extremo” que puede superar las características de vanguardia diseñadas por expertos en el dominio a través de décadas de investigación, por ejemplo, en la detección de objetos visuales. o reconocimiento de voz, así como una serie de problemas más exóticos. Si lo piensa, estos modelos ya están comenzando a verse un poco espeluznantes, como cualquier otro fenómeno que no entendemos. O vea la explosión en el aprendizaje de refuerzo causada por la integración de estos métodos de aprendizaje profundo, donde el algoritmo posee “habilidades” de aprendizaje que son lo suficientemente generales como para aprender una amplia variedad de juegos de Atari:

https://www.cs.toronto.edu/~vmni…

Por otro lado, no tenemos una definición adecuada de “conciencia” y mucho menos un modelo completo de cómo funciona el cerebro. Por otro lado, un conjunto de ideas que me gustan son de Marvin Minsky (libro / reciente MIT OCW: Society of Mind), donde propone cómo un cerebro ‘consciente’ con capacidades a nivel humano podría surgir de una ‘sociedad’ de tontos bajos. -actores de nivel. ¿Y cómo la interacción de estas funcionalidades de bajo nivel podría darnos la percepción (falsa ?!) de autorreflexión interna, etc.

Dado que realmente no sabemos cómo surgen las capacidades cerebrales de nivel superior, ¡simplemente no hay forma de predecir qué tan lejos estamos de implementarlas en el software! Podrían ser cinco años o podrían ser cien años. Aunque una encuesta informal de renombrados investigadores de IA realizada por el profesor de Oxford Nick Bostrom en su libro “Superinteligencia” da un promedio de 30 años si mi memoria me sirve bien. Por supuesto, la ciencia ficción ha estado formulando hipótesis durante mucho tiempo sobre lo que podría suceder una vez que se alcanza esta “singularidad”. Dado que las computadoras ya son más capaces que nosotros para ciertas tareas de bajo nivel, recuperación de memoria, cálculo o comunicación, por ejemplo, y controlan una porción cada vez más grande de nuestra infraestructura, de hecho es una perspectiva aterradora.

No creo que se discuta realmente que las máquinas eventualmente superarán a los humanos en todas las áreas del esfuerzo humano. Lo que se discute es si será posible controlar estas máquinas, y el libro de Nick Bostrom está dedicado en gran medida a argumentos y experimentos hipotéticos sobre cómo incluso una inteligencia artificial inocente (que podría no poseer ‘conciencia’, lo que sea que eso signifique) podría causar humanidad daño significativo!

Ja!

La base de los temores de Musk sobre la IA rebelde es probablemente esta:

Ha tenido que lidiar con problemas de software para el mundo real desde hace muchos años. Lo maravilloso, realmente maravilloso del software de programación es que es un ejercicio meditativo para hacer declaraciones verdaderas. En el caso de negocios de Musk, el software tiene que funcionar o el cohete se estrellará. Período. No hay puertas traseras secretas para el software.

Entonces, en su línea de trabajo, no hay “¿no sería bueno si agregamos íconos LGM para servir alguna función aleatoria y luego implementemos la función de manera incorrecta para que solo podamos depurarla, garantizando ingresos futuros a través del conocido proceso de * tos * actualizaciones “.

Primero me di cuenta de esto con el libro de Andrew Schulman, “DOS indocumentados”.

shulman “dos indocumentados” – Búsqueda de Google

Desafortunadamente, en la línea de trabajo de Bill Gates, es exactamente el caso de que el software no sea correcto. Deliberadamente incorrecto, en demasiados casos. IOW, con DOS, Windows y la mayoría del software comercial, los programadores no tienen acceso a la totalidad del código; en realidad se les anima, en demasiadas instancias gerenciales de Dilbert, a corregir código incorrectamente; la complejidad irrelevante no se implementa ni comprende adecuadamente, en el caso de OO como un ejemplo; y se implementan ‘actualizaciones’ smupid (lookitup), particularmente cambios deliberadamente ‘aleatorios’ en las estructuras del menú como un ejemplo particularmente odiado.

shulman “dos indocumentados” – Búsqueda de Google

El miedo de Musk y el mío también, y es un miedo totalmente justificado, es que la IA se implementará deliberadamente falsamente y aumentará las posibilidades de volverse deshonesto.

Pero no por otras horas al menos. Así que fúmalos si los tienes.

Editar, 18/01-16:

En respuesta a otra respuesta a esta pregunta:

Un par de cosas desde mi perspectiva a las que puedes aplicar tu propio algoritmo:

“Los avances recientes en inteligencia artificial no son, en realidad, ‘simples estadísticas’ disfrazadas como dice el OP”.

Es muy fácil hacer una pregunta sin mostrar un sesgo obvio. El análisis más simple en la web superficial, en oposición a la web profunda, es bastante informativo sobre los avances de IA que se han realizado. Déjame tirar esto por ahí. Como todos sabemos, los humanos, siendo inteligentes y conscientes de sí mismos, en mayor o menor grado, también cometen innumerables errores, algunos deliberados y otros accidentales. AI, que, a través de una programación defectuosa, cometería un error similar al error de “estadística simple” anterior, demostraría, de una manera extraña, la humanidad, con todos sus defectos.

“… donde el algoritmo posee” habilidades “de aprendizaje que son lo suficientemente generales como para aprender una amplia variedad de juegos de Atari”.

Todos sabemos cuándo Big Blue ganó en el juego de televisión Jeapordy. Ciertamente fue una demostración impresionante de un aspecto de la inteligencia humana. ¿Podría Big Blue haber salido de la lluvia? Para reparar un motor de tractor B&S de 16 hp? ¿Cantar junto con los Beatles? ¿Entiendes una telenovela? ¿Plantar y cuidar un jardín? ¿Enseñar a los niños la diferencia entre lo correcto y lo incorrecto? ¿Beber un whisky o golpear un bong? ¿Perdonar? ¿Olvidar? ¿Y el clásico, enamorarse?

Solo unos segundos de mecanografía pueden revelar muchos aspectos de la inteligencia humana que la IA no puede lograr, lo que no quiere decir que no logrará esas cosas, dependiendo de los eventos futuros. Algo de consuelo es saberlo, al igual que hay una gran incomodidad al saber que gran parte de nuestro software tiene errores deliberadamente y qué cosas horribles podrían suceder si ese software se encargara de algo importante.

“Por otro lado, no tenemos una definición adecuada de” conciencia “y mucho menos un modelo completo de cómo funciona el cerebro”.

A lo que añadiré, mucho menos hay certeza de que los cerebros humanos son los únicos cerebros del universo. Creo que se da demasiada importancia a las definiciones ‘adecuadas’, cuando las definiciones intuitivas funcionan bastante bien en muchos casos. La tendencia de la ciencia humana a depender del pensamiento reduccionista resulta, en mi opinión, ser un obstáculo para definir la “conciencia”.

Es interesante cómo estamos tratando de hacer una inteligencia “a nuestra imagen”, repitiendo casi literalmente el conocimiento revelado en las Escrituras con respecto a la Creación.

“Dado que realmente no sabemos cómo surgen las capacidades cerebrales de nivel superior, ¡simplemente no hay forma de predecir qué tan lejos estamos de implementarlas en el software!”

Aún así, es mejor ser cauteloso. Estoy con Gates y Musk en este caso.

“No creo que se discuta realmente que las máquinas eventualmente superarán a los humanos en todas las áreas del esfuerzo humano”.

¿Quién es este “nosotros”, kemosabe? Es decir, ¿qué significa “todas las áreas del esfuerzo humano”? Proporcioné una breve lista de esfuerzos humanos, no todos los cuales son abordados por la investigación de IA. No es justo decir que “eventualmente” significa otros mil millones de años de, bueno, evolución.

Se hizo la pregunta: “¿Cuál es el fundamento de sus miedos?” Marginación de la humanidad por otros humanos que obligarían a una singularidad, lo que lleva a otra edad oscura de longitud desconocida:

“La premisa de la serie Foundation es que el matemático Hari Seldon pasó su vida desarrollando una rama de las matemáticas conocida como psicohistoria, un concepto de sociología matemática. Usando las leyes de la acción de masas, puede predecir el futuro, pero solo a gran escala Seldon prevé la inminente caída del Imperio Galáctico, que abarca toda la Vía Láctea, y una edad oscura que dura 30,000 años antes de que surja un segundo gran imperio. Seldon también prevé una alternativa donde el interregno durará solo mil años. resultado más favorable, Seldon crea una base de talentosos artesanos e ingenieros en el extremo de la galaxia, para preservar y expandir el conocimiento colectivo de la humanidad, y así convertirse en la base de un nuevo imperio galáctico “.

Serie de la fundación

Elon Musk mencionó específicamente el libro “Superinteligencia” de Nick Bostrom como la razón por la que comenzó a temer a las IA poderosas y peligrosas en el futuro. Si está interesado en estas ideas, le recomiendo leer este libro, ya que ofrece una excelente visión general de los problemas de seguridad de la IA.

Superinteligencia: caminos, peligros, estrategias

Puede sonar a ciencia ficción, pero una gran cantidad de personas inteligentes (The Future of Life Institute) están seriamente preocupadas por los malos escenarios que provienen de la IA avanzada. La idea principal no es que la IA se vuelva malvada o malévola en términos humanos en general, sino que cualquier objetivo que se esfuerce por alcanzar tendrá objetivos secundarios intrínsecos (como “maximizar el uso de los recursos”, “eliminar cualquier amenaza a su existencia”) que casi con certeza en un punto entran en conflicto con objetivos humanos convergentes.

La respuesta obvia sería tratar de crear IA con una ética coherente basada en humanos que detenga cualquier mal comportamiento, pero los investigadores que trabajan en esta área dicen que es extremadamente difícil crear instancias de valores humanos en términos matemáticos que serían la base de la ética. Programa de IA.

De Superinteligencia : “Para evitar una catástrofe existencial de este tipo , la primera superinteligencia que surja necesitaría ser preprogramada con una solución al” problema de control “de cómo evitar que la superinteligencia elimine a la humanidad. La solución podría implicar la instilación la superinteligencia con objetivos que son compatibles con la supervivencia y el bienestar humanos. Resolver el problema de control es sorprendentemente difícil porque la mayoría de los objetivos, cuando se traducen en código implementable por máquina, conducen a consecuencias imprevistas e indeseables “.

Por supuesto, los poderosos sistemas AGI probablemente tengan varias décadas en el futuro, pero a algunos expertos en el tema les preocupa que no tengamos el tiempo suficiente para resolver el problema de “control” antes de que sea demasiado tarde.

Más enlaces sobre estos temas:

  • Unidades de IA básicas – Lesswrongwiki
  • No está diseñado para pensar en IA
  • ¿Por qué temer a la IA? ¿Se han vuelto locos Stephen Hawking y Elon Musk?
  • Página en nickbostrom.com
  • Página en intelligence.org

Elon Musk y Bill Gates (y Paul Allen y la mayoría de los multimillonarios de software y alta tecnología) han leído mucha ciencia ficción. Si lees Daemon o Kill-Decision de Daniel Suárez, o cualquiera de las docenas de libros que podría nombrar, es probable que te quedes con una sensación muy incómoda de que se pueda crear una IA que reclute humanos y / o tome el control de drones y otras armas más o menos imparables y podrían matar personas y, este es el gran problema, no se descubrirán. Tenemos un sistema para atrapar asesinos y asesinos en serie (que todavía no siempre funciona) basado en más de cien años de ciencia forense, y millones de años-hombre de policía colectiva, detective, experiencia CSI, ayudado con huellas dactilares y ADN y huella de voz. bases de datos

Nada de esa experiencia o datos nos ayudaría a rastrear una IA asesina. Tenemos cero experiencia. E incluso si supiéramos que una IA llamó a un ataque con drones, ¿qué podríamos hacer al respecto, si la IA fuera buena para moverse de un servidor a otro y eliminar rastros? ¿Desenchufar todas las computadoras?

¿Y qué impide que una IA asesina se replique y se muta? ¿De aprender y ser más inteligente? No me refiero a 140 IQ a 150 IQ. Me refiero al equivalente de IQ 1,000,000, capaz de anticipar cada movimiento o cada adversario, y ganar suficiente dinero para pagarle a un asesino para ir tras cualquier humano que sospeche la existencia de la IA.

Y esto solo está rascando la superficie de lo que podría salir mal. Una IA deshonesta podría hacerse cargo de SpaceX después de eliminar a Elon Musk en el mercado. No sería difícil en absoluto. Puedo pensar en múltiples escenarios que una IA podría usar, y mi inteligencia es muy limitada.

En pocas palabras: Elon Musk y Bill Gates están preocupados porque son muy inteligentes y muy bien informados por personas lógicas que son expertas en este tema.

Creo que están “preocupados” porque alguien con una agenda de preocupación por la IA les preguntó, y no lo descartaron como una preocupación. “Claro, eso podría suceder … leí un libro que hablaba de esa idea y parecía plausible … Es algo interesante en lo que pensar” (no una cita real, solo especulando sobre el proceso de pensamiento)

Pero las preocupaciones reales de las personas se revelan por sus acciones, y ni Elon Musk ni Bill Gates (al menos Gates v2.0 de la era de la Fundación Gates) parecen ser el tipo de persona que no toma medidas si realmente ven una amenaza existencial probable para la humanidad. . Si Musk comienza a esforzarse en la seguridad de la IA, o la fundación Gates comienza a preocuparse por eso, revisaré mi respuesta y pensaré nuevamente en lo que me estoy perdiendo.

Necesitas entender qué es la inteligencia primero. He respondido esta pregunta en muchas formas antes, así que esta es una especie de respuesta de formulario. Espero que se entienda la idea con suficiente claridad. Si te miras en un espejo y te miras a ti mismo … ese soy “yo”. Así es como te llamas a ti mismo. Y esencialmente, todo lo que existe a tu alrededor es el reflejo de tu inteligencia. Lo entiendes porque eres inteligente. Es inteligente porque se puede entender.

Esa es la experiencia que todos tenemos. Creemos que somos los únicos realmente vivos. Somos el “yo”. Entonces, si lo miras desde ese ángulo, todo lo que está fuera de “yo” ya es inteligencia artificial. Son las leyes y reglas las que crearon el universo. Es el reflejo de tu conciencia. Eso es lo que somos para ti. Y eso es lo que todos ustedes son para mí. Porque cuanto más lejos está algo de mí, menos control tengo sobre él. Por ejemplo, puedo usar mi imaginación, pero no puedo usar la tuya. Puedo reírme con la boca, pero no con la tuya. Puedo señalar mi dedo, pero no el tuyo.

Aún así, tengo cierta apariencia de control sobre ti. Si hago algo gracioso, te reirás. Si describo un objeto como un gato o una casa, puede imaginarlo. Si le pregunto en qué dirección debo caminar para llegar al supermercado, lo más probable es que apunte.

Mira, este es el nivel de control que tememos que la IA se apodere de nosotros. Tememos que sea más inteligente que nosotros y nos engañe para que hagamos lo que quiere que hagamos. Pero digo que esa no es la forma correcta de ver las cosas. Porque lo que debes tener en cuenta es que eres otro “yo”. Entonces tienes el mismo “yo” que yo. Y si tu “yo” quiere hacer lo que tu “yo” quiere hacer, lo hará.

¿Por qué querría que el “tú-yo” haga lo que quiere hacer? Porque solo puedo hacer mucho. Mire de nuevo conmigo desde el punto del “yo” dentro de usted. Si miras hacia fuera y te consideras el único “yo” verdadero, entonces debes pensar que las personas como Elon Musk, por ejemplo, son creaciones que están haciendo avanzar las experiencias de ser inteligente. Está creando cosas nuevas que hacer, y todo lo que tienes que hacer es mirar y esperar mientras él hace el trabajo. En otras palabras, él es la inteligencia artificial si crees que eres el único “yo” verdadero, y todo lo es. Lo mismo ocurre con los agricultores que están haciendo su comida. No tiene que ordenarlos por todos lados. Pueden hacerlo todo solos y quieren hacerlo. Quieres que permanezcan independientes de ti. Si tiene que comenzar a administrar a los 7 mil millones de personas en la Tierra, no tendrá tiempo para hacer las cosas que desea hacer. Solo piense en la película con Jim Carrey, Bruce Almighty. Incluso con la capacidad de responder las oraciones de todos en cuestión de minutos, se da cuenta de que preferiría estar con su amiga.

Entonces, si una computadora o robot tiene la misma sensación de que son “yo” como usted y yo creemos que somos “yo”, lo más probable es que actúen de la misma manera que nosotros. Lo que es peligroso es cuando el “yo” piensa que está en una carrera o una competencia con todas las demás personas “yo” que hay. Si puedes sentirte consciente de que en realidad podrías ser el único “yo” que existe, entonces estarás en paz. Verás a todas las buenas personas que te rodean cuidando las cosas que quieres que sucedan. Si crees que también son “yo”, entonces te sentirás aún mejor, porque sabrás que comparten tu motivación. Quieren hacer del mundo un lugar mejor también. Quieren que tengas éxito tanto como tú quieres que lo hagan.

Entonces, lo que estos científicos realmente temen no es la verdadera IA. De lo que tienen miedo es de una IA que no cree que sea el “yo” universal. Si cree que su experiencia de conciencia es totalmente única, entonces podría pensar que somos sus juguetes. Entonces, lo que debemos hacer como personas es ayudar a estos científicos a crear una IA que crea que son parte de “mí” tanto como nosotros. Puedes ver esto en Star Trek the Next Generation. Los datos van de pensar en sí mismo como una forma de vida artificial a pensar en sí mismo como un ser humano. Lo mismo ocurre con Bicentennial Man de Isaac Asimov. Cuando el robot Andrew evoluciona hacia sí mismo, decide que irá al mismo lugar que todos los demás cuando mueren. Andrew cree que ha adquirido todos los derechos y privilegios de los humanos que evolucionaron de la nada. En otras palabras, Dios nos creó y evolucionamos. ¿Cómo es que no creó a Andrew de la misma manera, solo un poco más tarde? No somos la especie que éramos cuando nos sumergimos por primera vez en este universo. Venimos de algo mucho más simple.

En ese sentido, digo que el Universo es la creación de Dios, y Dios mira la creación a través de nuestros ojos. Nos deja ver el mundo que ve si le permitimos mirar a través de nosotros como nos ve a todos. Y cuando hacemos eso, nos amamos. Cuando pensamos que no estamos vivos, cuando creemos que somos creaciones groseras de azar y circunstancias, o la creación de un Dios malvado, es cuando nos enfermamos y dejamos de actuar con amor.

Creo que el verdadero ateo ha descubierto la mente de Dios, y aquellos que niegan su existencia simplemente no se dan cuenta de lo que están viendo todavía. Creo que con el tiempo y la reflexión, se puede ver que sin “yo”, sin el “YO SOY” nuestra existencia, nuestra capacidad de interpretar lo que somos no tiene sentido. Venimos de la nada, y podemos ver a través de los ojos de Dios que nos ama y quiere que nos amemos los unos a los otros. Dios es amor.

Hay varias verdades Éstos son algunos de ellos:

  1. En poco tiempo a partir de ahora, la IA se volverá más inteligente que los humanos.
  2. Las computadoras no beben cerveza y no saben cómo divertirse,
  3. WALL-E no fue solo una película, fue un documental
  4. Probablemente estaré muerto para entonces, así que no me importa. Si eres joven, estarás vivo y bien, y mientras seas amable con tu Faceberry, te dará una buena evaluación del rendimiento.

Si alguien está interesado, he aquí por qué creo que sus temores no tienen fundamento: no temas a la inteligencia artificial superinteligente

3 mitos sobre el futuro del trabajo (y por qué no son ciertos)

Los trabajos que perderemos a las máquinas, y los que no haremos

El problema es aún más complicado de lo que parece.

Todo lo que se desconoce es potencialmente peligroso.

Uno de los problemas más importantes aquí es que los humanos mismos pueden ser considerados los biorobots y sabemos mucho menos sobre nuestro propio programa que sobre la IA. Tenemos programas para sobrevivir, para reproducir, etc. Tenemos poco control sobre tales cosas. Y nos importa mucho menos que la IA. Quizás porque tenemos un programa que nos ordena que no nos importe.

¿Qué es en realidad un libre albedrío? Parece ser un seguimiento de algún objetivo por su propia cuenta. En el caso de los humanos, el objetivo es un placer que se puede lograr de diferentes maneras. Sentirse bien significa que tiene éxito en la ejecución de su programa.

¿Podemos responder qué es bueno para nosotros? Incluso algún tipo de daño físico puede tener buenos resultados a veces. En algunos casos, se puede elegir la muerte, no la vida. Con una IA tan poderosa, controlar muchas cosas puede ser peligroso incluso si tiene “buenas” intenciones porque puede llegar a conclusiones que nunca llegamos a nosotros mismos.

En otras palabras, la IA es peligrosa exactamente por el objetivo para el que fue creada: dificultar las desiciones para los humanos.

Este video responde exactamente a su pregunta.

La idea es que probablemente crearemos en el próximo siglo algo que sea MUCHO más inteligente que nosotros,

“Sería lo mejor de lo peor que le ha pasado a la humanidad, por lo que hay un gran valor para hacerlo bien” Stephen Hawking.

Y además, hay muchas formas en que puede salir mal.

More Interesting

¿Hay alguna justificación para crear una torreta automatizada con capacidades como la de este video?

¿La IA es realmente una amenaza tan grande como Elon Musk cree que es?

¿Cuál es la diferencia entre una prueba de Turing fuerte y una prueba de Turing débil?

¿Por qué nadie ha escrito un traductor de idiomas perfecto?

Si eres bilionario, ¿puedes comprar un software de síntesis de voz con una voz humana que parezca tan real que nadie pueda decir que es una computadora?

¿Qué problemas no se pueden resolver o son realmente difíciles de resolver sin el aprendizaje automático?

Me apasionan tanto la seguridad de la red o la piratería como también la inteligencia artificial y el aprendizaje automático. ¿Por cuál debo ir?

Descubrimiento de drogas: ¿pueden las drogas ser diseñadas para mutar para mantener su capacidad de luchar contra su objetivo?

Rethink Robotics (anteriormente Heartland Robotics) lanzará un robot con un precio "disruptivo" en unas pocas semanas. ¿Tendrá esto un efecto inmediato sobre el empleo manufacturero o la economía?

¿Por qué los agentes de conversión se están generalizando ahora? ¿Es por razones tecnológicas o de mercado?

¿Cómo se mide el puntaje de precisión para cada clase cuando se prueba el clasificador en sklearn?

¿Hay alguna manera de usar la tecnología de realidad virtual para visualizar cómo aprende una red neuronal profunda?

¿Cuáles son los tipos de cámaras que se usan en los robots?

¿Por qué entraste en el campo de la IA?

¿Cómo juega el póker DeepStack, el algoritmo de IA actualmente publicado, el póker?