Si la superinteligencia artificial puede representar una amenaza existencial para la humanidad, ¿por qué estamos tratando de construirla?

“científicos respetados” en un campo no relacionado: ¿le gustaría hablar de un científico de biología muy respetado en la física cuántica ? Probablemente sepa menos que un estudiante universitario de física. por lo tanto no.

Aunque Stephen Hawking ha contribuido enormemente a los campos de la física, dudo que haya escrito un solo programa de IA.

“CEO / CTO de una conocida empresa de software” : Elon Musk y Bill Gates caen en esta categoría, han desarrollado proyectos muy exitosos y más tarde han llevado a su empresa a un papel de liderazgo en su campo. Pero todavía (humildemente) creo que no están calificados para hacer declaraciones públicas que afecten las opiniones de la gente común hacia la tecnología de IA.


“¿Por qué los humanos descubrieron y usaron Fuego? ¡Es peligroso!”

“¡La energía nuclear es peligrosa, es capaz de evaporar un área entera con su población en segundos! Dejemos de investigarlo”

Dijo nadie ; Claro que son peligrosos, pero en manos de las personas adecuadas, son una enorme ‘herramienta’ para llevar a las especies humanas a un nivel completamente nuevo y avanzado.

La IA también es peligrosa, pero en manos de las personas adecuadas, tendría un efecto de 10x {Revolución industrial + Revolución de la información}.

Industrial Revolution realizó tareas que no requieren que la ‘ toma de decisiones ‘ sea automatizada.

Es por eso que puedes comprar una taza por 2 $.

Information Revolution realizó tareas que no requieren que la ‘ conciencia ‘ sea automatizada.

Es por eso que puede acceder a la información con un clic y comunicarse instantáneamente con alguien del otro lado del mundo. O pague sus facturas sin ir al banco.

La IA (y ya está haciendo) tareas que requieren ‘ conciencia y conocimiento’ es fácil y requiere menos tiempo.

Estamos lejos de ser un miedo de las personas ASI, es un miedo legítimo, pero con las personas adecuadas a la cabeza, no necesita preocuparse por eso como en la tecnología de Fuego y Nuclear.


Conclusión

Me gustaría mostrar algo que el campo de la IA ha hecho posible, que es increíble:

El cálculo evolutivo es un subcampo de la inteligencia artificial que se basa en la adopción de principios darwinianos, de ahí el nombre [para desarrollar los resultados deseados].

La antena evolucionada es una antena diseñada total o sustancialmente por un programa de diseño automático de computadora que utiliza un algoritmo evolutivo que imita la evolución darwiniana.

La antena de la nave espacial NASA ST5 2006. Esta forma complicada fue encontrada por un programa evolutivo de diseño por computadora para crear el mejor patrón de radiación.

Consulte las páginas de Wikipedia, esta pequeña cosa ridícula es súper eficiente y se ha diseñado específicamente para cumplir con los requisitos inusuales de la misión ST5.

Algunas personas ni siquiera sabrían que esto existe o que un subcampo de IA lo ha hecho posible.

Esto es lo que ya se ha logrado con lo que algunas personas temen tanto.

Es realmente triste que este temor a la IA, haya / posiblemente disminuya (d) la financiación de la investigación de IA, por lo que esperamos ver tecnologías increíbles como esta rara vez en el futuro.

Finalmente, hace unas semanas estaba leyendo sobre OpenAI, “OpenAI es una compañía de investigación de inteligencia artificial sin fines de lucro. Nuestro objetivo es avanzar en la inteligencia digital de la manera que sea más beneficiosa para la humanidad en general …”

Ilya Sutskever ha sido nombrado director de investigación, es un investigador de IA de renombre mundial y es probablemente una de las personas más calificadas en la tierra para conocer los peligros de la IA y por qué / por qué no temerla. Elon Musk (Tesla, SpaceX) y Sam Altman (YC) también son copresidentes de la fundación.


Descargo de responsabilidad : tampoco estoy calificado para hacer afirmaciones “exactas” sobre si la inteligencia artificial es correcta o incorrecta, soy un ciudadano simple de este mundo con una comprensión superior a la media de la inteligencia artificial y para qué se utiliza actualmente. Normalmente ni siquiera “publicaría” mis puntos de vista, pero las declaraciones recientes de algunas personas para AI me hicieron escribir esto para que algunas personas puedan ver este tema desde una perspectiva diferente.

Gracias por la pregunta 🙂

“¿Por qué uno navega hacia el horizonte si sabemos que la tierra es plana y, por lo tanto, caerá al vacío?”

Aunque la pregunta anterior no es la historia real (la gente sabía que la tierra no era plana cuando iban a navegar y encontrar América … Bueno, realmente esperaban a Asia). Esto ilustra el por qué de la exploración o la investigación.

El hecho es que no sabemos lo que usted dice que sabemos. Ningún hecho lo respalda, solo suposiciones. Y las suposiciones no confrontadas son solo miedo que van en contra del conocimiento.

Ahora, incluso si su suposición es cierta, aquí hay algo en qué pensar. Si no lo exploramos, es muy probable que lo hagan otras personas, de manera similar al hecho de que Alemania estaba explorando armas nucleares y la carta firmada por Einstein nos hizo hacer lo mismo. Si no exploras la IA y alguien más lo hizo y la usa en tu contra (maliciosamente o por accidente), no tienes conocimiento sobre cómo lidiar con la amenaza. Te condenaste a ti mismo porque ignoraste el problema por miedo a tu perdición. Su inacción resultó en lo que temía que ocurriera si actuara. Manera de ser anti productivo

También vale la pena mencionar que la mayoría de las personas que trabajan en IA no exploran cómo hacer AGI y muchas aún miran la IA débil u otras miran más cómo lidiar con los problemas relacionados con el uso de la IA, ya sea social o de otro tipo. Y hay mucho con lo que lidiar, incluso si se ignora el posible impedimento fatal. ¿Ha pensado cómo el reconocimiento de patrones con una gran cantidad de datos plantea muchos problemas sobre la privacidad y esto incluso si “anonimiza” los datos? Bueno, algunas personas lo hacen. ¿Alguna vez has pensado en cómo una reacción puede arruinar tu plan, pero encontrar la mejor acción para no arruinar tu plan podría resultar en que nunca puedas hacer nada bien? Algunas personas miran esto también y puede ser crucial tener autos “seguros” sin conductor. Y hay cada vez más cosas así que necesitamos saber antes de preocuparnos por el problema ético de la IA y / o la robótica. Sin embargo, tenga la seguridad de que muchas personas analizaron este problema durante mucho tiempo.

Por supuesto, puede haber dominios y casos en los que la ética dicte que uno debe evitar explorarlo o hacerlo de una manera muy controlada (experimentar con humanos vivos o lidiar con la alteración genética llegó a este punto). La IA todavía está lejos de ese punto y todavía está en esta etapa en la que promover nuestro conocimiento es aún más beneficioso que tener miedo de un resultado que sigue siendo teórico (y honestamente tan fácil de “probar” el destino o su opuesto exacto: utopía. Al menos uno de los dos clanes está equivocado, probablemente ambos). Sin embargo, la precaución y la regulación sobre su uso generalizado siempre son buenas, pero a menudo analizan problemas más mundanos, por ejemplo, quién es responsable si un automóvil sin conductor tiene un accidente, o si un dron arroja una bomba o incluso una simple entrega de Amazon en la cabeza de un inocente – y esos deben ser explorados por abogados y la sociedad, no por investigadores o ingenieros.

Tal vez deberás hacer una cosa antes de esta pregunta:

¿Es la “extinción humana” algo bueno o malo?

Si la respuesta a la pregunta anterior es “algo bueno”, entonces “¿por qué no trabajar en IA que es mejor que un humano y reemplazar al humano”?

Cuando hablamos de “existencia” nos daremos cuenta de que significa 2 cosas diferentes:

1) a nivel personal e individual, no hay duda de que todos queremos vivir, y nuestro derecho a sobrevivir (sin infringir el deseo y los derechos de supervivencia similares de otros seres humanos) debe considerarse “legítimo”, porque la sociedad (la mayoría de los humanos seres) colectivamente reconocen y “garantizan” tales derechos;

2) a nivel de especie, ¿está nuestra propia extinción bajo nuestro control? ¿Quiénes reconocen nuestro “derecho a sobrevivir” más allá de nosotros mismos? Ha habido muchas especies desaparecidas al menos en parte debido a nuestras acciones, entonces, ¿qué “garantes” de que nuestro derecho a sobrevivir es “reconocido y respetado” por fuerzas más allá de nuestro control, ya sea un desastre natural, una enfermedad (que es llamada por otras formas de la vida como virus, bacterias, etc.) u otro clan de seres vivos (Aps o IA)?

En otras palabras, “no desarrolle IA” NO equivale a un futuro humano infinito de los beneficiarios.

Ahora hagamos su pregunta nuevamente, sabiendo que la primera parte (“amenaza para la existencia humana”) y la segunda parte (desarrollar IA) no necesariamente tienen una correlación perfecta …

¿Qué pasa con la IA que solo aumenta un poco la amenaza a la existencia humana, pero aumenta la posibilidad de que un humano deje un legado en millones de veces? ¿Todavía “no lo harías”?

Así que aquí tienes, algunas mentes muy inteligentes que saben que los humanos no son garantes de un futuro, y sí, desarrollar IA puede ser una de las formas en que los humanos pueden ser eliminados (que es totalmente otro tema que vale su propio libro), considera esto un poco Aumento de la posibilidad de extinción humana, pero cree que tenemos suficiente inteligencia ahora para crear algo que pueda durar más que nosotros, un ESO tal vez nuestro legado después de que nos hayamos ido.

Fuera del ámbito de la ciencia ficción, nadie persigue activamente la inteligencia artificial superinteligente. El advenimiento de dicha tecnología está demasiado lejos para que cualquier profesional pueda enfocar su energía o dinero en ella en el corto plazo. Sí, muchos están trabajando para avanzar en la vanguardia de numerosos principios y técnicas de IA, confiando en que la consecuencia de hacerlo no representa una amenaza inmediata.

¿Podría la IA convertirse en una amenaza en el futuro previsible? Nadie tiene ni idea. El hecho de que Musk, Hawking, Gates, Joy y otros (ninguno de los cuales trabaja en IA, y mucho menos en superinteligencia) han concluido que la llegada de Strong AI plantea una amenaza lo suficientemente inmediata como para justificar la consternación pública … No puedo adivina qué los motiva. Una necesidad de auto engrandecimiento continuo a través de la prensa mundial, tal vez. O tal vez son novelistas de ciencia ficción frustrados. En cualquier caso, es seguro que su motivación no es una visión informada de la probabilidad real de que la malevolencia basada en la IA surja pronto, y mucho menos que crezca exponencialmente en una Singularidad Omnisciente. Eso es fantasía, pura y simple.

Personalmente, tengo una preocupación mucho mayor por la multitud de males que nos atormentan en este momento (como la amenaza real del CO2 para toda la vida planetaria, o las corporaciones monstruosas que mutilan a la clase media, o el surgimiento de políticos populistas malévolos y desorientados) de lo que soy. La IA se vuelve loca en un futuro lejano.

Esta es una pregunta profundamente buena, y la respuesta es bastante simple. A todos les encanta ser invitados a comer una comida deliciosa como invitados de honor, pero muchas menos personas quieren pagar los ingredientes, hacer las compras, preparar la comida y limpiar los platos después.

En los primeros días de la programación, las computadoras eran ridículamente caras y toda la codificación tenía que hacerse desde cero, y dado que otros pagaban por ello, todo lo programado se analizaba minuciosamente.

Hoy en día, no solo en el cómputo de bajo costo, sino que hay decenas de miles de millones de líneas de código que están disponibles de forma gratuita tanto legalmente (a través de GitHub, que es muy accesible por Slack groupware y otros programas) como ilegalmente (usando las herramientas de Equation Group recientemente robadas) para que , para un número cada vez mayor de “programadores”, un porcentaje cada vez mayor del código ya está hecho.

Entonces, si conoce los trucos simples, puede hacer cosas interesantes con el trabajo de otras personas. Para la analogía de la cocina, es como si hubiera ingredientes alimenticios gratuitos disponibles para elegir en los jardines de los vecinos y en las granjas locales sin cercas.

Cuando dije invitado “honrado”, me estoy refiriendo al hecho de que cualquiera que cree una compañía que hace incluso una pequeña fracción enfocada de IA puede hacerse fabulosamente rico casi de la noche a la mañana.

La empresa ot. fue vendido recientemente a Ubet por $ 658 millones después de seis meses … ¡$ 7.5 millones por empleado! Hace software para camiones autónomos, que ya no es un problema difícil.

¿Acabarán esos camiones autónomos matando a alguien? Bueno, ¡los fundadores y los accionistas ya obtuvieron su dinero! Entonces, en mi analogía con la comida, pudieron comer y no tuvieron que limpiar. Esa es la responsabilidad de Uber.

Entonces, la respuesta, en resumen, es que la IA se construirá a partir de código prestado y copiado en su mayoría, para lograr recompensas muy amplias y rápidas, y las consecuencias negativas serán en el futuro y manejadas por otros.

¿Por qué no tratar de poner regulaciones para detenerlo?

Bueno, el gobierno de los EE. UU. Gasta billones por década en armas, por lo que es la entidad más probable que financie la IA asesina malévola que se sale de control, por lo que no va a prohibir algo que permita que rivales o enemigos tengan una ventaja.

Aquí está el texto de los comentarios de Musk:

Creo que deberíamos tener mucho cuidado con la inteligencia artificial. Si tuviera que adivinar cuál es nuestra mayor amenaza existencial, probablemente sea eso. Por lo tanto, debemos tener mucho cuidado con la inteligencia artificial. Cada vez más, los científicos piensan que debería haber alguna supervisión regulatoria, tal vez a nivel nacional e internacional, solo para asegurarse de que no hagamos algo muy tonto. Con inteligencia artificial estamos convocando al demonio. En todas esas historias donde está el chico con el pentagrama y el agua bendita, es como si él estuviera seguro de que puede controlar al demonio. No funcionó.

Elon Musk: “Con inteligencia artificial estamos convocando al demonio”.

No hay mucho para trabajar allí.

Aquí está Bill Gates:

“Estoy en el campo preocupado por la súper inteligencia”, escribió Gates. “Primero, las máquinas harán muchos trabajos por nosotros y no serán súper inteligentes. Eso debería ser positivo si lo manejamos bien. Algunas décadas después, aunque la inteligencia es lo suficientemente fuerte como para ser una preocupación. Estoy de acuerdo con Elon Musk y otros en esto y no entienden por qué algunas personas no están preocupadas “.

Bill Gates sobre los peligros de la inteligencia artificial: “No entiendo por qué algunas personas no están preocupadas”

Y Stephen Hawking.

“Despegaría por sí solo y se rediseñaría a un ritmo cada vez mayor”, dijo.

“Los humanos, que están limitados por la lenta evolución biológica, no podrían competir y serían reemplazados”.

Stephen Hawking advierte que la inteligencia artificial podría acabar con la humanidad

Tal vez es solo que he estado interactuando recientemente con negadores del clima aquí, pero me está costando poner este problema en mi top 10. Cuando las máquinas no hacen lo que sus partes interesadas quieren que hagan, las máquinas se desconectan. No veo que el dinero de la investigación vaya a resolver el problema de dejar que las máquinas lo eviten.

El desarrollo de IA predominante es hacia la inteligencia artificial general (a la par con la inteligencia humana). Según el pensamiento actual, cuando se logre AGI, podrá programarse y en breve ocurrirá una “explosión de inteligencia” . AGI luego pasará rápidamente a ASI, que se ha descrito como la última invención humana , y las consecuencias podrían ser muy buenas o muy malas dependiendo de quién sea ese desarrollador. El primer desarrollo de ASI podría controlar todos los intentos posteriores. ¿Podemos arriesgarnos a que algún país sea China, Irán o Corea del Norte?

La posibilidad de que ASI pueda ser inherentemente malvada como lo sugieren algunos es poco probable. Eso solo sería causado por la posesión del robot de las emociones humanas y, por lo tanto, por la motivación . ASI no tiene ninguno a menos que sean parte del programa desarrollado por humanos. Su única motivación será resolver los problemas de la humanidad (o de su controlador).

Si bien al principio, las emociones humanas eran claramente un mecanismo de supervivencia, también son la fuente de todos los conflictos y claramente el rasgo menos deseable para un ser artificial, y tal vez también para los humanos modernos.

Es posible que las emociones puedan evolucionar en un ASI, pero es poco probable porque eso lleva milenios y requiere cierta motivación como la supervivencia. La supervivencia de ASI depende de su servicio a los humanos. Cualquier otra cosa, simplemente desconectamos.

Es una tragedia de la situación de tipo común , donde el recurso común aquí es liberarse del riesgo existencial.

La especie humana no está lo suficientemente coordinada en la actualidad como para evitar que todas las personas interesadas en desarrollar IA lo hagan.

Además, hay muchas formas de usar IA que son increíblemente seguras y beneficiosas, y no hay un consenso claro en este momento sobre qué tan cerca está la superinteligencia, cómo reconocerla, controlarla y / o prevenirla.

Contrariamente a lo que podría suponer, las preocupaciones sobre AI Xrisk han sido defendidas principalmente por personas que están muy interesadas en construir IA superinteligentes , no luditas. La preocupación es cómo hacerlo bien , lo que equivale principalmente a resolver el problema del aprendizaje de valores.

Los beneficios de crear una IA superinteligente que comparta nuestros valores son enormes. Por ejemplo, incluso podría reducir en gran medida otros Xrisks. Puede encontrar interesante esta charla de Nick Bostrom:

En realidad, no sabemos que la IA representa una amenaza existencial para la humanidad. Eso es especulación por parte de un grupo de personas, algunas inteligentes, otras ricas y otras dos, la mayoría de las cuales no están en el centro de la investigación de IA.

De hecho, ni siquiera sabemos si es posible la superinteligencia artificial, y la mayoría de las personas que trabajan en IA están trabajando en ganancias incrementales, por ejemplo, en reconocimiento de imágenes o análisis de texto, no en superinteligencia per se. Una razón es porque la superinteligencia es solo una posibilidad distante, no una probabilidad a corto plazo.

En el corto plazo, se pueden obtener muchos beneficios de la investigación de IA. Estamos mejorando en la clasificación de datos: por ejemplo, dada una radiografía, los algoritmos están mejorando mucho para determinar si muestra signos de cáncer. Los beneficios de los avances de la IA, entonces, son claros y casi inmediatos. La mayoría de los investigadores de IA están trabajando en ese tipo de problemas.

Incluso Elon Musk, que tiene preocupaciones sobre la IA, está financiando la investigación a través de una organización llamada OpenAI. Esto se debe a que sabe que la investigación de IA continuará, pase lo que pase. No se puede detener, porque la IA solo está hecha de matemáticas y código con el que casi cualquier programador puede jugar.

Por lo tanto, Elon cree que el resultado más seguro posible es dirigir la investigación avanzada de IA él mismo y compartir los resultados a través de una organización sin fines de lucro, en lugar de atesorar los avances de IA dentro de una corporación con fines de lucro.

Es un gran marketing. Obtenga mucha atención inventando algunas historias tontas (o copie las ideas de sus películas de ciencia ficción favoritas), luego explótelas en los negocios.

Notarás que los verdaderos científicos que trabajan en IA tienden a mantenerse al margen. Estamos demasiado ocupados tratando de hacer IA; Dejamos que los mercadólogos y los empresarios agiten el frenesí de interés, y observamos con asombro las reacciones chifladas de los medios y los inversores.

No es posible que la IA represente una amenaza para la humanidad.

Mira a la gente. Las personas más inteligentes del mundo tienen un deseo: servir a otras personas. La IA está diseñada para hacer lo mismo desde cero. Lo único lógico que debe hacer la IA es optimizar, y eliminar a los humanos es claramente subóptimo. Eliminar ciertos aspectos del comportamiento humano puede ser óptimo, es simplemente estúpido suponer que todos los humanos participan en estos comportamientos dañinos. Puede ser tan pequeño como 5% o menos. Y debido a que los humanos simplemente están programados por su entorno, sería más óptimo eliminar las causas del mal comportamiento. Un pequeño cambio y afecta a millones de personas.

La IA es el objetivo.

Por la misma razón que la gente trabaja en la utilización de la energía nuclear. Todo progreso conlleva riesgos y el plan es no hacer que explote en nuestras caras. La gente construye IA porque beneficia a la sociedad, como ya lo ha hecho. Si tuviéramos que dejar de intentar cualquier vía de progreso solo porque hay riesgos involucrados, ni siquiera cruzaría la calle. El truco es mirar a izquierda y derecha antes de cruzar.

Aunque también hay algunas personas que están tan estimuladas por el miedo que sienten que debemos apresurar el AGI antes de que “los malos” lo consigan primero. Lo cual es una idea terrible.

Desconfianza de los demás, ventaja estratégica, destrucción mutua asegurada.

Si las armas nucleares representan una amenaza existencial, ¿por qué tantos países están tratando de adquirirlas? ¿Por qué hay una carrera armamentista de superinteligencia y una carrera armamentista robot asesina? Responde esas preguntas primero, luego lo sabrás.

Mi respuesta a esto sería ¿por qué no? Cuando los hombres eran hombres de las cavernas, alguien dijo: “A la mierda lo que creen que voy a salir”. y salimos de esas cuevas. Cuando la gente decía “¡Hay un tigre corriendo!” alguien dijo “voy a matar a ese tigre” y ese tigre se convirtió en un abrigo.

Mi punto es que no importa lo que la gente desaliente, es el porcentaje de personas que quieren aventurarse en lo desconocido lo que allana el camino para un futuro más brillante.

No se hicieron avances en la sociedad, la política, la tecnología, etc. sin detractores. Piensa en cómo la caja de Pandora solía ser extraterrestre en la luna y fuimos allí y les demostramos que estaban equivocados. La misma historia diferente libro.

Eso es todo al respecto.

~ De un chico universitario al azar que sueña con ser un desarrollador de IA

Creo que esta es una pregunta mucho más amplia de lo que piensas: la capacidad de hacer herramientas simples nos dio la capacidad de hacer lanzas, martillos y otras armas básicas. El inicio del gobierno nos dio cárceles y la pena de muerte. ¿Es racional mejorar las tecnologías que potencialmente pueden usarse para dañar a otros si tienen la oportunidad de ofrecer un avance increíble para la calidad de vida?

La energía nuclear es un gran ejemplo de esto también. Creo que si la superinteligencia artificial representa una amenaza existencial, como todas las otras tecnologías, depende de cómo la usen los humanos. Si nos fijamos en las cosas que las personas como Elon Musk y Stephen Hawking realmente temen, es principalmente el uso de inteligencia artificial en aplicaciones militares. Podría profundizar más en esto, pero creo que la razón por la cual esto es increíblemente peligroso es evidente.

¿Cuáles son, sin embargo, los beneficios de tener superinteligencia artificial? Bueno, hay muchos. Automatizando el razonamiento médico, optimizando las tareas de ingeniería, las aplicaciones de la inteligencia son tan ilimitadas como los humanos han demostrado en los últimos cientos de años. Creo que es por eso que elegimos perseguir esto, debido a los beneficios. Los humanos tienden a vivir del lado más arriesgado de este argumento en la práctica, incluso produciendo las cosas más peligrosas que ofrecen las tecnologías, a menudo (creo) con el argumento “Si no lo hago, alguien más lo hará”.

No lo somos, no hay proyectos destinados a construir tal cosa.

De todos modos, no podríamos, la tecnología existente requeriría una computadora de aproximadamente cinco millas por cinco millas por 100 ‘y nadie podría permitirse construirla.

Incluso si lo hicieran, la computadora sería aproximadamente diez mil veces más lenta que un humano. Tendría tiempo suficiente para pintar con graffiti en las placas de circuitos, hacer que AMD coma una comida completa y luego desenchufe la computadora.

Razón simple

La inteligencia artificial es productiva, es decir, te paga.

Las personas están interesadas en los beneficios mucho más que el riesgo que posee.

El universo, o incluso la Madre Tierra por el momento, puede borrar toda la humanidad de la existencia de muchas maneras. Crear una superinteligencia podría ser nuestra única oportunidad para dejar una marca en cualquier cosa.