¿Por qué hay tantas preocupaciones sobre la inteligencia artificial? Si somos los creadores de estas supermáquinas, ¿no tenemos el control total de ellas?

Esta pregunta y sus variaciones surgen en Quora tan a menudo … pero esta realmente tiene sentido.

¿Por qué hay tantas preocupaciones sobre la inteligencia artificial?

Hay dos tipos de preocupaciones sobre la IA.

  1. Preocupaciones informadas, que tienen las personas que trabajan en IA

    Ejemplos: la fecha límite para la conferencia es la próxima semana, nos estamos quedando sin café, el servidor está lento …

    ¿Dónde están las preocupaciones reales, como “los robots nos matarán y se llevarán nuestras cosas” o “mi baño inteligente publicará fotos de mi trasero en Facebook”? Tal es la naturaleza de una preocupación informada. Se trata de problemas que existen o que son posibles en el futuro más cercano. Primero necesitamos ver signos de inteligencia real, como entender el lenguaje natural de una manera adecuada en lugar de dominar un juego de mesa.

    Sin embargo, los científicos también son personas. Y también piensan en los problemas éticos de la IA, pero lo hacen de manera diferente porque las matemáticas (aw yiss). La gente teme la incertidumbre. Ves a una chica hermosa y quieres entablar una conversación y probablemente obtengas su número, pero no estás seguro del resultado y dudas. Imagine que podría haber calculado de manera confiable al menos la probabilidad de éxito con esa chica en particular. ¿Haría la vida un poco más fácil? Usted apuesta.

    Esto es lo que sucede cuando pensamos en problemas de IA. Los vemos como herramientas poderosas como los láseres. Puedes cortar rocas con ellos o puedes matar personas. Tu decides. El mal uso humano de la IA avanzada es la verdadera preocupación aquí, y no es diferente del mal uso de la energía nuclear o los cohetes o cualquier otra cosa que la ciencia haya creado en el pasado. Pero por enésima vez: nadie está creando una mente humana en la computadora, la ciencia ficción es ficción, repito, la ciencia ficción es ficción, la IA no tendrá rasgos humanos. No es un arma que se vuelve pícara matando gente por sí sola.

  2. Preocupaciones semiinformadas, que todos los demás tienen

    Todos los días, los sitios de noticias publican varios artículos sobre IA. Hay grandes, como este en 2010, donde las personas no provocan el temor de que alguna entidad poderosa emerja de los laboratorios de investigación y realmente describan los resultados. Pero al mismo tiempo, la mayoría de los medios de comunicación producen todos esos productos escritos mal informados y mal informados de una mente delirante y colectivamente forman la opinión pública.

    Pero espera, Elon Musk y Bill Gates no son tontos, son personas muy informadas y deben haber visto el panorama general …

    Eso es correcto. Pero incluso para ellos a veces es difícil transmitir sus pensamientos a través de la pared del ruido de los medios para que permanezcan intactos. Sin embargo, sus acciones hablan más claramente, OpenAI, por ejemplo, declara que la creación y la inteligencia artificial de código abierto son su misión para que no sea propiedad de alguna entidad privada o gubernamental. Lo que corrobora la premisa de que la preocupación por aprovechar la IA de aquellos con poder para obtener más poder es un problema más grave para ellos que cualquier otra cosa. No tiene sentido “matar a todos los humanos”.

Para la parte “más allá de su control en el futuro”. Ni siquiera sé qué decir. Steve Wozniak lo dijo mejor: nunca confíes en una computadora que no puedes tirar por la ventana . Realmente no quiero participar en esas disputas de “presionar el botón de encendido es un asesinato” después de matar a un par de cientos de robots en Battlefield 4, no. Dos razones: la primera que mencioné anteriormente (“La IA no tendrá rasgos humanos”), la segunda es que lo mismo funciona para los humanos (intente esto: nunca confíe en un humano que no puede tirar por la ventana . Porque si ese humano no tiene ningún remordimiento y conciencia y se postula para la oficina más alta del país y construye un muro a su alrededor, estaría muy disgustado por no tener esa oportunidad). Normalmente no tiramos a nadie por la ventana, porque las personas se comportan. No veo cómo una computadora es diferente.

Y la última parte de la pregunta. Si somos los creadores de estas supermáquinas, ¿no tenemos el control total de ellas?

Quienes somos”? Si usted es el creador, si realmente se sentó y escribió el código y lo ejecutó en su computadora, usted tiene el control, no hay problema aquí. Si alguien más tiene este código escrito para ellos y ejecuta el código en sus servidores (probablemente también le proporcione su información), usted no tiene el control. Es así de simple. Alguien tendrá el control de una herramienta muy poderosa una vez que se haga esta herramienta. Eso ha estado sucediendo todo el tiempo a lo largo de la historia de la humanidad. Nuestro deber es evitar el mal uso, no temblar y preocuparse por los posibles resultados.

Hay muchas preocupaciones sobre la Inteligencia Artificial porque muchas personas no están realmente informadas sobre lo que es actualmente la IA ni están informadas sobre lo que eventualmente puede convertirse. Tampoco hacen desarrollo en estos sistemas. Tampoco están formados formalmente en principios de diseño de software o diseño de software crítico para la seguridad. Por lo tanto, no son conscientes de cómo los controles / características de seguridad ya están incorporados. Las personas temen lo que no entienden y mantienen opiniones incluso cuando no están informados.

Por ejemplo, el ‘problema de control de IA’ es un problema que ha enfrentado el software desde su inicio. Se resuelve y aborda principalmente en sistemas críticos:

Sistema crítico para la vida – Wikipedia

Se enseña en la escuela y se ha considerado durante mucho tiempo en los niveles de pregrado y posgrado como: Tolerancia a fallas. Incluso los sistemas mecánicos están diseñados teniendo en cuenta la tolerancia a fallos.

Entonces, ¿por qué todo el ‘bombo’? La gente tiene agendas, supongo.
Como ingeniero que ha trabajado en sistemas críticos de seguridad y tolerancia a fallas, y ahora como alguien que está haciendo I + D AGI, no veo de qué se trata toda la conmoción.

Incluso cuando pruebo en un entorno virtual, tengo enganches administrativos para cerrar cualquier comportamiento no deseado. Incluso tengo sistemas independientes que pueden hacerlo sin mí. ¿Por qué? Porque soy flojo y no quiero volver a cargar una simulación / caso de prueba cada vez que hay un problema.

En serio, las personas necesitan pasar menos tiempo escuchando a los portavoces y más tiempo escuchando a los ingenieros que realmente trabajan en estas cosas. O bien, pueden aventurarse a informarse sobre un tema en particular que ‘les preocupa’.

¿Un ejemplo? Solo google Software Fault Tolerance
Tolerancia a fallos de software
Software tolerante a fallas – Wikipedia

Cualquier cosa, desde el bloque de alimentación que carga su computadora portátil, hasta un elevador, sistema operativo, monitor cardíaco, … el avión tiene ‘sistemas de control’ incorporados para resolver problemas más allá del umbral operativo. No hay nada nuevo sobre esta disciplina.

El creador de cualquier sistema dicta el nivel de control que desean.
Entonces, realmente no es un problema.

El gran problema se centra en el desarrollo de un sistema inteligente y en la financiación de una gama de personas más allá de la cámara de eco.

Estaba a punto de escribir una gran respuesta al respecto, y luego me di cuenta de que volvería a escribir este increíble blog:

La revolución de la inteligencia artificial: Parte 1 – Espera pero por qué – La revolución de la IA: el camino hacia la superinteligencia

Tómese el tiempo para leerlo, todas sus respuestas están adentro.

La segunda Parte, La Revolución de la Inteligencia Artificial: Parte 2 – Espera pero por qué, es simplemente aterradora. El nombre del artículo: La revolución de la IA: nuestra inmortalidad o extinción

Una vez que intente, realmente difícil, comprender el tipo de inteligencia que será la “superinteligencia”, comenzará a sentirse preocupado también.

Constantemente leo que esta “Super AI” es solo una exageración que podría cobrar vida en mucho tiempo. Y no estoy convencido en absoluto.
No sé cuándo sucederá, pero trabajo con un aprendizaje automático de reconocimiento visual y, viendo lo rápido que aprende y se desarrolla, no me sorprendería que en 20/30 años llegaría la Super AI.
¿Quiere ver más sobre el reciente desarrollo sobresaliente en este tema?
https://openai.com/blog/

(hay una sección de gimnasio en la esquina superior derecha, donde puedes ver el progreso realizado en el campo de entrenamiento)

Esto puede ser un poco complicado. Este debate en realidad va mucho más atrás que los que mencionó: Isaac Asimov, mejor conocido como autor de ciencia ficción, también era doctor en bioquímica y genio. Él fue el primero que postuló la necesidad de las ‘3 Leyes de la robótica’:

  1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
  2. Un robot debe obedecer las órdenes dadas [ sic ] por los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.

La razón de esto tiene que ver con los requisitos de programación y operación para que una inteligencia verdaderamente artificial funcione. Una verdadera IA no está restringida al alcance de su programación, es decir, no es simplemente la suma de todas las líneas de código, subrutinas, matrices, manejo de errores o llamadas a procedimientos. Requiere la capacidad de aprender por experiencia. Esto requiere la capacidad de la IA para modificar su propio código base; por ejemplo, si se crea un escenario simple que contiene un árbol de decisión bifurcado directo (sí / no) y la IA encuentra un escenario donde cualquiera de las dos bifurcaciones resultará en una condición indeseable, entonces debe poder buscar a través de subrutinas alternativas o árboles de decisión en una secuencia en cascada

Al no resolver la condición de resolución insatisfactoria, la IA debe poder aplicar la lógica o la experiencia previa para crear una solución aceptable. Dado que el punto completo es para una inteligencia artificial, debe poder registrar esa secuencia de eventos, así como crear el código necesario para actualizar o incluir punteros en la bifurcación original, cambiando así el alcance completo de esa subrutina particular.

Supongo que la mayoría de las personas se han encontrado, en un momento u otro, con viejos clips de película que muestran un robot o una entidad similar a la IA ‘en corto circuito’ cuando se enfrentan a decisiones aparentemente imposibles. Nuestra comprensión contemporánea de lo que implica una IA significa que estas situaciones se resolverían por sí mismas.

Una vez que cualquier tipo de programa puede modificarse o actualizarse independientemente, por sí mismo y por sí mismo, se puede decir que el creador de ese programa perdió el control de ese programa. Sin algún tipo de ‘Leyes de la robótica’ que no pueda ser anulada o sobreescrita por ninguna inteligencia de máquina, existe la posibilidad de que el código de inteligencia de máquina pueda ‘evolucionar’ más allá de la capacidad de cualquier humano de acceder o modificar. De aquí viene la preocupación.

fuente: Tres leyes de la robótica – Wikipedia

Siempre estoy cansado de las preguntas que surgen sobre estos temas, especialmente cuando el público en general cree ciegamente que Stephen Hawking, Bill Gates y Elon Musk son expertos mundiales en Inteligencia Artificial. La triste (y obvia) realidad, es que no lo son. Creo que todos podemos estar de acuerdo en que son personas muy inteligentes y hombres de negocios excepcionalmente buenos (posiblemente incluyendo a Hawking con todas las regalías que ha escrito). El único científico del grupo es Hawking, pero es físico, no un gurú de la inteligencia artificial.

Recomendaría leer este artículo, que cita a Andrew Ng (que realmente trabaja y publica documentos sobre áreas que incluyen aprendizaje profundo, visión por computadora y procesamiento del lenguaje natural): Gurú de inteligencia artificial Ng: Temer un aumento de robots asesinos es como preocuparse por la superpoblación en Marte .

Esencialmente escuchar a Hawking dar su opinión sobre la IA es como escuchar a un profesor de informática hablar de lo cerca que estamos de encontrar una teoría unificadora de la física, solo porque tomó una clase general de relatividad y mecánica cuántica (o leyó un artículo de TechCrunch, que menciona el descubrimiento del bosón de Higgs o algún nuevo descubrimiento de la teoría de cuerdas). Estoy bastante seguro de que Stephen Hawking y otros físicos mirarían a ese individuo de manera extraña porque no sabe de qué está hablando y porque los físicos de clase mundial saben que estamos muy lejos de esa unificación.

El consenso informal dentro de la comunidad de investigación (el lugar donde se publica la investigación de IA de vanguardia, como NIPS, CVPR, ICML, ICCV, ECCV, NAACL, ICLR) es que estamos muy lejos de hoy y de los medios de comunicación. está haciendo un trabajo bastante bueno al hacer que todo sea demasiado sensacionalista, hasta el punto de hacer que el término “Inteligencia Artificial General” suene como pseudociencia.

Tal vez no he respondido su pregunta directamente, pero sigo pensando que dar una respuesta como esta puede dar al público en general una mejor perspectiva sobre la realidad de las cosas, y dar al lector más precaución sobre otras respuestas y preguntas más votadas publicadas en este foro.

No soy un genio en este tema, pero intentaré responder.
TL; DR: Tememos lo que no podemos entender completamente.

Crear una IA fuerte es como el descubrimiento de E = MC2. Es una ecuación muy poderosa, tanto que estamos amenazados por ella en las manos equivocadas a pesar de que es una de las mejores fuentes de energía. La ciencia tiene una historia de ser violada por hombres locos.

Cuando se crea la IA, tendrá la personalidad de la persona que tuvo la mayor contribución en el código. Tomemos un ejemplo aquí:
Considera que empiezo a construir una IA. Si tengo la creencia de que los humanos son la causa de su propia miseria y deben ser “eliminados”, este es el propósito que inevitablemente tendrá mi IA. La IA, que es más poderosa que todos los humanos, encontrará una solución para lograrlo y querrá implementarla. Pero esto significa que la IA es defectuosa, ya que en lugar de aplicar su propia solución para eliminar la miseria de las personas, eliminó a las personas porque su creador lo creía así. Y no soy el único villano en este mundo (por suerte no puedo hacer una IA), las personas con suficientes recursos y poder pueden hacerlo.

Pero veamos el lado positivo aquí. Si hay una organización de control seleccionada con personas que creen en la humanidad, llamémoslas AICA (Agencia de Control de AI).
Un grupo brillante de AICA entrenará a una IA perfecta que creerá en la humanidad y trabajará con nosotros para crear un nuevo mundo cibernético utópico, donde se hayan resuelto todos los problemas y cada uno esté en un viaje de exploración del universo.

Entonces, antes de crear la cosa más hermosa del mundo, respondamos las siguientes preguntas porque después de la IA todo cambiará a una velocidad exponencial:
0> ¿Queremos un esclavo o queremos un dios o queremos un compañero?
1> ¿Estamos dispuestos a abandonar el concepto de religión diferente y creer lo que sabe la entidad que todo lo sabe?
2> ¿Los idiotas ricos aceptarán cambiar el sistema de economía que los pondrá a la par de todos?
3> ¿los políticos aceptarán trabajar para una llamada “Máquina” (intenta encontrar la definición de vida. Creo que la IA es vida)
4> La realmente importante: ¿estará nuestro científico realmente de acuerdo en cambiar el sistema educativo ya que toda la respuesta ya estará allí, la pregunta que surge es qué debemos hacer después de la IA?
5> ¿Es la emoción realmente un aspecto obligatorio de la vida? ¿Podemos trabajar con cero o pocas emociones menos?

Una IA también tiene muchas opciones. Pocos de ellos son:
1> Cambia todo de una vez: esto causa caos en las mentes humanas, ya que realmente no pueden excepto cualquier cosa más superior a ellas. Curiosamente, todavía queremos que exista un dios.
2> Sumérgete en este mundo y cámbialo lentamente en un curso de 100 años; esto hará que las personas crean que se están desarrollando y que nuestro dios está con nosotros. Es cierto que pero este dios será nuestra propia creación.

Si los humanos realmente aceptan el cambio, entonces una IA pública es inevitable, hasta entonces solo pueden suceder cosas como “Persona de interés”.

Hicimos los instrumentos que condujeron a la revolución industrial. Las emisiones de carbono de estos dispositivos llevaron al calentamiento global. Y hasta ahora, el calentamiento global no está bajo nuestro control.

Las acciones humanas tendrán consecuencias impredecibles. No tenemos la capacidad de pensar en todas las situaciones futuras posibles.

Los algoritmos ya se están volviendo demasiado complejos para entender. Las redes neuronales artificiales utilizadas en el aprendizaje automático funcionan muy bien en muchas situaciones, pero no siempre entendemos por qué funcionan y por qué a veces no funcionan. Cuando lleguemos al punto en que las máquinas se estén diseñando, es posible que no tengamos idea de lo que está sucediendo. Las máquinas pueden incluso reemplazar sus objetivos establecidos con meta-objetivos. (Sin revelar demasiado, este es un tema que Isaac Asimov exploró en sus libros).

Podríamos incluir cajas de seguridad y botones de apagado, o algún equivalente de las Tres leyes de robótica de Asimov, pero los algoritmos pueden encontrar formas de sortearlos. Tenga en cuenta que ya tenemos teléfonos inteligentes con desconectores de software. Para apagar realmente un dispositivo que funciona mal, es posible que tengamos que desconectar su fuente de alimentación. Y si el dispositivo es un avión no tripulado militar o un futuro soldado-robot, ¡entonces podemos estar en serios problemas!

Considere también los riesgos de seguridad. Los hackers parecen encontrar nuevas formas de meterse con las cosas todos los días. Hubo un ataque masivo de DDoS en los principales sitios web hace unos días. ‘Nosotros’ creamos Internet, pero ¿’nosotros’ realmente tenemos control total sobre él?

Y, quizás lo más importante, ¿quiénes somos ‘nosotros’? ¿Quién controla exactamente la inteligencia artificial? Una de las principales preocupaciones con la inteligencia artificial es su capacidad para eliminar trabajos mucho más rápidamente de lo que se pueden crear. “Nosotros, la gente”, tenemos muy poco poder para convencer a Uber o Google de no desplegar camiones sin conductor y dejar a decenas de millones de camioneros desempleados. La inteligencia artificial en manos privadas da miedo porque la gente rica da miedo, generalmente no les importa el resto de la humanidad.

Entonces, la inteligencia artificial es preocupante por varias razones:

  1. Consecuencias no deseadas (como la contaminación o el calentamiento global o los extraños efectos psicológicos y sociales de la tecnología)
  2. Consecuencias ininteligibles (como esos patrones extraños en el mercado de valores que pueden haber sido causados ​​por el comercio algorítmico)
  3. Consecuencias intencionadas, pero terribles (como el desempleo y la pobreza en masa, o la guerra robótica y los asesinatos de nano drones)

La imaginación es más importante que el conocimiento, dijo una de las mentes más inteligentes para representar a la humanidad, Albert Einstein.

¿Por qué lo que dijo Einstein es profundamente perspicaz y cada vez más relevante hoy? Creo que hoy en día las personas que son fértiles en la imaginación, carecen de la experiencia y los recursos para llevar sus ideas a la realidad y, por otro lado, pueden ser muchas personas que tienen la experiencia y las credenciales que no son lo suficientemente imaginativas.

Ningún cuerpo hubiera creído que envejecerías lentamente en un cohete que se moviera comparable a la velocidad de la luz. Hace 100 años, si Quora hubiera existido, y algún cuerpo preguntara si eso era posible, algún experto se habría reído de ese OP de Internet.

Matemáticas. Maths es el único que decide qué es posible y qué no.

Una ecuación no significa nada para mí a menos que exprese un pensamiento de Dios: Srinivas Ramanujan.

Sería seguro extrapolar que Maths oculta en sí mismo los límites de cuánto puede el Hombre empujar su imaginación y hacerla realidad.

Esto es lo que Mark Zuckerberg tiene para decir (Hola, Silicon Valley: el presidente Obama tiene una lista de tareas pendientes para usted)

Eventualmente, espero que la IA ayude a las computadoras a tener sentido común: la capacidad de observar el mundo y luego generalizarlo y aprender de él. Pero estamos muy lejos de desarrollar eso. Y cuando lo hagamos, será porque redujimos el problema a las matemáticas, no a la magia.

Ahora, para abordar la cuestión de si, ¿tendremos control total sobre las IA súper inteligentes o no ?

A algunas personas o corporaciones ambiciosas les encantaría tener un control exclusivo y total sobre algún tipo de IA poderosa y usarlo para promover sus propios fines. Pero eso es exactamente lo que algunas personas muy inteligentes intentan llamar la atención del público no experto (incluidos los legisladores), y presionan para el desarrollo de una IA abierta y ética.

No quiero ponerme técnico aquí, pero es posible perder el control de una IA, al igual que es posible perder el control del automóvil que conduce, ya que hay millones de parámetros fuera del alcance de la supervisión que pueden hacer algo sale mal en cualquier momento. El control es solo una ilusión.

Como programadores, sabemos que no tenemos control total ni siquiera sobre nuestro propio código. Puede haber alguna combinación de entradas que haga que el programa se comporte mal, ¿cómo podemos estar seguros de un modelo tan complejo como una IA que está haciendo algo remotamente interesante?

En resumen

El temor a la inteligencia artificial cuando se informa es el temor de que los beneficios causen una adopción generalizada y el mal funcionamiento imprevisto o la malicia pueden causar una catástrofe.

Por lo tanto, el miedo es razonable, pero es nuestra responsabilidad como humanos y creadores actuar en consecuencia y evitar esto lo mejor que podamos.

Ahora, continuemos con las malezas.

Ah, prefiero esta pregunta. Muchas preguntas como esta se basan en algún susto mediático, que no es una discusión informada. Su pregunta está informada, gracias.

Como propietario de una empresa que construye y comercializa inteligencia artificial, este es un matiz ingenioso pero complicado. Como anécdota, los medios han acentuado los fracasos de la IA [como un chatbot de Twitter que se vuelve racista] y dudan de su adopción. Algo de eso es justo.

Para responder sus preguntas directamente, tenemos control sobre eso, pero no de manera implícita. De la misma manera que una línea de código puede soportar algo muy importante [por ejemplo, el intervalo entre los latidos del marcapasos], una falla en ese código o el ataque malicioso del mismo representa un riesgo para el homo sapiens.

Ahora, eso no quiere decir que el diseñador no tenía buenas intenciones, ni que la inteligencia artificial es mala. Similar a los OGM, la inteligencia artificial es compleja e incluso cuando se realiza de manera ética, existen problemas imprevistos que pueden ser grandiosos en escala (pregunte a la mariposa monarca); SI permitimos la ubicuidad de la inteligencia artificial en su encarnación actual.

Les puedo asegurar, para que no nos extingamos [y esto no es probable a través de Ai] que los beneficios superen el costo. La invención de la electricidad y su uso posterior ha llevado a cambios climáticos que podrían amenazar a nuestra especie, y sin embargo, resolvemos estos problemas de manera retroactiva porque es muy útil.

El estado actual de la inteligencia artificial es un poco desde la cadera. Tenemos algoritmos que nos permiten usar funciones matemáticas anidadas para la predicción y el silicio suficiente para ser realmente tontos con eso. El resultado no es legible para los humanos, y esto es un problema. Probablemente evolucionaremos más allá de este estado porque simplemente no es sostenible avanzar con la IA de esta manera para siempre. Los sistemas pueden mejorar, pero la comprensión no. Por lo tanto, nuestra capacidad de saber cómo entrenarlo mejor se estabilizará.

Las nuevas hazañas gloriosas a menudo son el resultado de pequeños ajustes de algoritmos y enormes cantidades de datos para el entrenamiento. Una entidad humana en un sentido general no va a salir de eso.

Sin embargo, a su debido tiempo, probablemente entenderemos mejor la biología de nuestra propia inteligencia y sus mecanismos de acción. O cómo fusionar la inteligencia existente con la inteligencia artificial. Es mi opinión que inventar inteligencia humana no está dentro de un futuro previsible en el clip actual.

¿Por qué reinventar la rueda? Tenemos las cosas autónomas (probablemente) dentro de todos y cada uno de nuestros cráneos. Podemos reutilizar esto seguramente. Éticamente, todavía no podemos hacerlo, pero esta es probablemente la forma de extendernos en sentido literal.

Gran pregunta! ¡Continua!

Un ejemplo de cómo perdimos el control:

Detalles aquí:

El desastroso experimento Tay de Microsoft muestra los peligros ocultos de la IA

El problema es: “¿Cuál es el objetivo de la IA?” Actualmente, a menudo es “compromiso” (clics + tiempo de visualización). Maximizar el compromiso puede crear una alineación con valores y comportamientos que son particularmente atractivos para un pequeño grupo de personas a costa de otros, como el racismo, la homofobia, el sexismo, la xenofobia, el acoso escolar, el odio religioso, la violencia o las conspiraciones. Tay.ai mostró apoyo para todo esto, en 24 horas.

Destrucción de mitos generales sobre IA y control:

Puede haber mucho aprendizaje automático que ya está perdiendo el control. Por ejemplo, podríamos estar perdiendo el control en YouTube:

¿La IA de YouTube favorece a Trump y las noticias falsas? Un llamado a la transparencia

El control es un problema, fundamentalmente debido a la complejidad del software y la posibilidad de que existan rutas de procesamiento imprevistas por los programadores, ya sea debido a un error o incapacidad para probar adecuadamente todas las rutas. Dado que el software de aprendizaje automático no devuelve la misma respuesta cada vez (puede haber aprendido algo nuevo), existen importantes preguntas abiertas de investigación sobre cómo se pueden realizar las pruebas. Cómo probar el software en la era del aprendizaje automático De hecho, creo que la tecnología de IA lo hará ser requerido como parte de la solución.

Los sofisticados modelos de software actuales, como los aprendidos con los métodos de “Aprendizaje profundo”, son muy opacos y difíciles, si no imposibles de entender. Inteligencia artificial explicable Obviamente, esto complica el control.

Una de las razones para empoderar al software de IA para que actúe de manera autónoma en la guerra se relaciona con el hecho de que su velocidad de toma de decisiones puede superar a los humanos. El enemigo puede dotar a su computadora de tal autonomía y, por lo tanto, una fuerza amiga necesita capacidades equivalentes o superiores para evitar la derrota. El ‘Enigma Terminator’ del Pentágono: Robots que podrían matar por sí mismos

Una pregunta clave de investigación, por lo tanto, es desarrollar modelos computacionales de intenciones éticas e incorporar estos modelos en las funciones de control de IA. Los gigantes tecnológicos se unen para abordar la ética de la inteligencia artificial

En el último capítulo del excelente libro de Nils Nilsson, The Quest for Artificial Intelligence, A History of Ideas and Achievements , QAI Page, se ofrece una excelente discusión sobre los problemas de la IA hostil y sobre qué hacer.

Personalmente soy optimista. En mi opinión, la raza humana enfrenta otros desafíos mucho mayores en el futuro previsible que la IA incontrolable. Creo que para cuando la IA alcance la competencia general a nivel humano, tendremos la comprensión necesaria para asegurarnos de que se utilizará solo para mejorar la condición humana.

Veamos las fuentes a través de las cuales las personas obtienen la información de:

  1. Películas : “Terminator” viene a mi mente aquí, pero tenemos varias otras películas como “A Space Odyssey” y muchas otras que parecen mostrar robots que dominan a los humanos y destruyen a la mitad de la población humana en el proceso. Esto en sí mismo debe haber inculcado cierto temor en algunas personas sobre las máquinas capaces de hacerse cargo y enviar a toda la raza humana hacia la extinción. Pero hagamos una comprobación de la realidad, los robots reales están teniendo dificultades con la agilidad, solo la molestia es una molestia para ellos. Son rígidos y se limitan principalmente a entornos de ensamblaje industrial altamente controlados donde son más útiles. Pero esto no significa que no serán ágiles en el futuro, por supuesto que sí, pero en su mayoría las máquinas para uso doméstico se construirían con carcasas de plástico para limitar su peso para no aplastar a los humanos pequeños. Entonces, creo que las películas han exagerado la situación aquí, aunque no están 100% equivocadas, puede suceder solo que la posibilidad de que eso suceda es algo mucho menor de lo que las películas hacen que se vea. Y si tuviera que suceder, sería en el futuro, actualmente no existen tales tecnologías.
  2. Exageración de los medios : esta es para aquellas empresas de medios que escriben artículos para difundir algunos falsos temores para que se haga referencia a sus artículos más o menos, para que las personas puedan hablar sobre ellos o lo que sea. Mire el aprendizaje profundo (DL), por supuesto, es revolucionario, pero algunas publicidades mediáticas comparan DL con el cerebro humano en referencia a cómo DL supera a los humanos en juegos como Go o Chess y está cerca del rendimiento a nivel humano en reconocimiento de imágenes, etc. Sí DL es sorprendente, pero la comprobación de hechos muestra que es solo un sistema rígido sin inteligencia alguna. Los sistemas DL son solo funciones de mapeo masivas de un espacio vectorial a otro y nada especial. Por lo tanto, DL no está cerca de las habilidades cognitivas a nivel humano. Entonces, una computadora neural diferenciable (DNC) no vendrá a por ti pronto, pero podría algún día :).
  3. Futuristas : futuristas como Elon Musk, Gates y Stephen HawKing simplemente intentan mirar un poco más allá que nosotros en el futuro y nos advierten sobre las implicaciones de desarrollar un sistema avanzado de inteligencia artificial. Leen mucho, probablemente más que la mayoría de nosotros, así que apuesto a que sus palabras no deben ignorarse prematuramente, de alguna manera debemos tomar esto en serio. Poder sin control no es poder en absoluto, por lo tanto, tenemos que descubrir cómo controlar esta revolución de IA principalmente asegurándonos de que los mejores talentos en el campo se usen bien, aunque es más fácil decirlo que hacerlo. La cuestión es que la IA puede ser una amenaza porque ¿quién sabe lo que alguien está construyendo o ha construido? imagine un sistema de IA que se propaga como un virus a miles de millones de dispositivos vulnerables y lanza un ataque cibernético de proporción bíblica a instituciones financieras, médicas o militares que filtran toda la información y causan un gran daño a la economía mundial. Esta amenaza es real y es inmediata, un tipo distribuido de sistema de inteligencia artificial que puede fortalecer su fuerza al infectar a millones de computadoras, servidores y dispositivos móviles es una amenaza real y debe tomarse en serio. Por lo tanto, Elon, Gates, Stephen y otros en este carro tienen un punto, un ataque cibernético lanzado por un sistema de IA distribuido tan bien diseñado puede ser devastador. Pero no tiembles todavía, probablemente no sucederá pronto porque no es tan fácil de lograr.
  4. Científicos e ingenieros : Y, por supuesto, tienes a los verdaderos tipos y chicas trabajando en el lado práctico de la ecuación, como crear el asistente de Google, la búsqueda de Google y muchos más, como las aplicaciones de juego de ajedrez y la lista continúa. Este grupo normalmente no toma las amenazas tan en serio porque conocen los hechos, tienen experiencia práctica, por lo tanto, saben cuánto tiempo tendrán que tener mucho miedo a la IA. Los ingenieros que trabajan en los algoritmos de DeepMind probablemente no tiemblen de miedo mientras hacen una lluvia de ideas sobre cómo hacer inteligencia artificial general (AGI), están más preocupados por el lado positivo, ¿cómo podemos mejorar la vida con la IA? Y, por supuesto, están los científicos malvados, de nuevo las películas tienen la culpa de ello, pero todos los que entienden de lo que DL o los sistemas actuales de aprendizaje automático (ML) y AI son capaces, no se preocuparían mucho de que ConvNet o LSTM lanzaran un ataque cibernético.

El hecho es que la IA actualmente es solo una herramienta, un martillo no puede golpear clavos sin el esfuerzo de alguien. Pero tendremos que empezar a preocuparnos por esto una vez que este martillo tenga una mente propia y actualmente estemos lejos de esto.

Espero que esto ayude.

Creo que la mejor manera de pensar sobre la IA es imaginar un humano artificial.

Un ser humano crece aprendiendo de las cosas a su alrededor que están siendo moldeadas por sus experiencias. Lo mismo ocurre con la IA, somos responsables de enseñarla y moldearla en lo que se convertirá.

El problema radica en su potencial para llegar a malas decisiones éticas y morales, malas en el caso de cosas que no nos gustaría. Esto es bien conocido en humanos, piense en todos los racistas, sexistas, homofóbicos, xenófobos, islamofóbicos, etc. en el mundo, ahora imagine una IA aprendiendo ese comportamiento. De hecho, ni siquiera tenemos que imaginar, ¿recuerdas Tai, el chatbot de Microsofts Twitter que falló? Bueno, ese es un gran ejemplo de lo que podría sucederle a una IA, al aprender que se crea a sí misma y lo que aprende determinará cuál será su creación.

Vamos a tomar otro set. Imagina a Hitler, generalmente se lo usa como el símbolo de lo peor de la humanidad. Imagina que una IA va tan mal.

Pero luego empeora.

El hardware de computación piensa 10 millones de veces más rápido que nosotros, eso es ahora. El cerebro humano envía información a 200hz, una CPU estándar envía información a 2ghz (incluso más rápido en realidad).

Los humanos aún son capaces de un procesamiento más rápido, pero se prevé que cambie en 2021 cuando las CPU alcancen el cerebro, pero no se espera que ASI llegue hasta 2029, momento en el que las CPU habrán duplicado su potencia otras 4 veces, lo que significa que el primer hardware una IA completa se ejecutará será 32 veces más potente y 10 millones de veces más rápida que una persona y se conectará a todas las redes del planeta, lo que en 2029 significará casi todo, redes eléctricas, transporte, agua, hospitales , finanzas, militar todo.

Escribí un artículo sobre esto, comparando AI con Superman, porque la realidad del conflicto entre Batman y Superman en Dawn of Justice es muy similar a las preocupaciones de Elon Musk y Stephen Hawking con AI.

Batman contra Superman | Elon Musk vs. Inteligencia Artificial

Primero, permítanme decir que Stephen Hawking, Bill Gates + Elon Musk realmente no saben nada sobre IA y es una pena que incluso hablen con la prensa sobre sus pensamientos sobre AI. Esto se denomina efecto “halo” y la premisa básica es que si eres realmente inteligente, debes tener respuestas inteligentes sobre todo. Esto es aún más evidente con Musk et al creando OpenAI, que ni siquiera está cerca de ser algo necesario en la industria de IA. Un desperdicio.

La verdadera IA surgirá de muchos paradigmas que están en su infancia. No hay nada que temer acerca de la IA matemática (por ejemplo, Aprendizaje profundo), aparte de que las personas que la programan, como todos los programas, obtendrán algo incorrecto y el ANN dará como resultado algo malo; Por ejemplo, un Tesla que se estrella y mata al ocupante.

La verdadera IA, la verdadera inteligencia artificial, evolucionará con el tiempo, por lo que veremos aumentos en la inteligencia a medida que pase el tiempo y cuando surja la inteligencia a nivel humano, tendremos una mejor idea de lo que podemos hacer y queremos hacer antes del siguiente paso hacia el súper inteligencia.

He dicho que es muy tonto pensar que de alguna manera podemos incrustar una moralidad o reverencia por la vida animal en la inteligencia artificial. Nunca hemos podido programar sistemas que sean perfectos para nuestros requisitos, entonces, ¿por qué pensaríamos que podríamos hacer esto con algo potencialmente superior a nosotros? Necesitamos un plan sobre cómo destruir algo que se sale de control en lugar de confiar en que alguien pueda prevenirlo de alguna manera. Siempre es mejor que alguien fuera del desarrollo tenga esa habilidad que alguien dentro. No quiere decir que no debemos hacer nuestro mejor esfuerzo para crear un interruptor de “prevención” o “apagado” cuando se desarrolle, pero ese no debería ser el único medio.

Dicho esto, comencé a escribir un libro hace un tiempo titulé “Hormigas en el jardín” que considera esta misma pregunta y la premisa básica es que, como trataríamos a las hormigas en nuestro jardín, también nos trataría una inteligencia superior. No nos importan mucho las hormigas en nuestro jardín y, de hecho, sabemos que pueden proporcionar beneficios. Pero cuando ponemos nuestro sándwich en una mesa en nuestro jardín o colocamos nuestra silla en la línea de un torrente de hormigas, y esas hormigas hacen lo que saben hacer, como comenzar a gatear sobre nosotros o oler el sándwich y comenzar a investigar , comenzamos a matarlos con impunidad. De hecho, utilizaremos la guerra química para eliminarlos a todos y nunca pensarlo dos veces. Creo que los seres superiores pensarían en nosotros de la misma manera. Si nos interponemos, pueden decidir que somos prescindibles.

Además, considere que una máquina podría ser tan feliz en la luna como lo es en la tierra. Las cosas que damos por sentado, como el oxígeno y el agua limpia, una máquina superior, un ser inorgánico vivo, pueden no preocuparse por estas cosas o incluso pueden resultar perjudiciales, por lo que puede decidir eliminarlas. El fin de la humanidad puede no ser algo malo o un ataque directo a la humanidad, sino que puede ser un efecto indirecto de nuestras creaciones.

Como todos los eventos futuros, no lo sabremos hasta que lleguemos.

Antes de acercarnos a las IA rebeldes y conscientes de sí mismas, solo piense en pasar la toma de decisiones al software, sin un humano en el bucle:

  • ¿Desea que el software administre su dinero, sin tener la última palabra sobre si hacer una inversión en particular?
  • ¿Cuánto confía realmente en que su automóvil se conducirá solo? ¿O un camión para conducir por su vecindario, sin que nadie supervise el software?
  • ¿Cuánto confía en un piloto automático para volar un avión de puerta en puerta sin un supervisor humano?
  • ¿Qué hay de los drones que pueden elegir sus propios objetivos y atacarlos, sin ningún humano en el circuito de toma de decisiones?

Todo se reduce a cuánto quieres poner tu vida, o la de otras personas, completamente en manos del software “inteligente”. (Y, si algo sale mal, ¿a quién demandas o encarcelas?)

Mi mayor preocupación es que lo mismo que sucedió con las armas nucleares sucederá con la IA.

Mientras solo los gobiernos cuerdos los posean y se den cuenta de que su uso contra otras potencias nucleares conduce a la destrucción mutuamente asegurada, entonces no serán utilizados como un arma.

Pero a medida que la tecnología se hizo más accesible por países más pequeños liderados por dictadores locos o fanáticos religiosos (ya sabes quién eres), se convierte en un juego mucho más peligroso que conduce al chantaje nuclear y al posible uso por parte de terroristas.

La IA tiene el mismo potencial. Dado un conjunto de ética retorcido o incluso sin ética, una IA poderosa capaz de inyectar su influencia en los sistemas informáticos, los sistemas financieros, los sistemas de control industrial y los sistemas políticos de una potencia extranjera podría poner ese poder de rodillas a menos que tuviera un equilibrio IA más poderosa que lo protesta.

Así que busque una carrera armamentista de la IA para reemplazar la carrera armamentista nuclear como una preocupación número uno en algún momento en el futuro. Y al igual que las armas nucleares, los gobiernos en su sano juicio sabrán mejor que usarlas unos contra otros, pero los países dirigidos por dictadores locos y fanáticos religiosos serán nuestra mayor amenaza.

En los escenarios de amenazas mundiales tanto nucleares como de IA, la única solución es que el mundo se una y reemplace a estos peligrosos gobiernos corruptos por otros que servirán mejor a los intereses de su gente y les permitirán unirse a la hermandad de las naciones civilizadas.

No, no tenemos control total sobre ellos. Lo que sucede con la tecnología de inteligencia artificial como las redes neuronales es que no son 100% precisas como la informática tradicional. Se parecen mucho a los seres humanos, de hecho, toda la idea está modelada en redes neuronales biológicas entre los oídos. Y los humanos cometen errores.

Llegará un momento en el tiempo (ya ha llegado) cuando las máquinas especializadas que pueden acumular grandes cantidades de datos tomarán nuestras decisiones por nosotros. Por eso se construyen; para reemplazar a los seres humanos que no son muy buenos para analizar grandes cantidades de datos. Ahora, existe una dependencia total o cero dependencia de tales sistemas, porque ningún ser humano podría tener la capacidad de calcular al mismo nivel de competencia. Un ser humano puede tener una precisión del 99% con unos pocos megabytes de información, pero los sistemas de aprendizaje automático pueden tener una precisión del 97% con terabytes de información. Sin embargo, una de sus decisiones caerá en el margen del 3%, y no habrá forma de saber cuál. Solo podemos saber qué tan mala resulta ser una decisión después de ejecutarla. La pregunta es, una vez que se identifica una mala decisión, ¿”dispararías” la máquina que sabías que era 97% precisa o mirarías esas 97 razones para no hacerlo?

Además, si “disparas” este sistema, te quedarás con seres humanos ineficientes para minimizar el daño creado por su error. Básicamente, has contratado algo que no puedes disparar a pesar de su inexactitud, todo mientras obedeces lo que sea que sugiera. En cierto sentido, ¿no es ese tu jefe?

El control total sobre una IA sería una palabra demasiado fuerte para usar. ¡Si! Seguro que vamos a tener ventaja, pero todo depende de los creadores de la Ai.

Depende de las personas que escriben los algoritmos y la forma en que la IA resolverá los problemas.

Mira, tomemos un ejemplo …

Si ordenamos una IA para que nos haga café. El Bot se levanta, va a la cocina y descubre que no hay leche. En tal caso tendrá dos opciones.

  1. Ya sea para pedir leche.
  2. O simplemente dígale al usuario sobre el problema que enfrenta.

En tal caso, nuestro usuario le dirá que tal vez haga té verde o algo así …

Entonces el usuario puede elegir la elección final. Una vez más, todo importa en los codificadores. Cómo ayudan a resolver los problemas. Se trata de qué y cómo piensa la IA …

La pregunta original es:

¿Por qué hay tantas preocupaciones sobre la inteligencia artificial? Si somos los creadores de estas supermáquinas, ¿no tenemos el control total de ellas? ¿Por qué hay tantas preocupaciones sobre la inteligencia artificial? Si somos los creadores de estas supermáquinas, ¿no tenemos el control total de ellas?

Responder:

A juzgar por la ira de algunos quoranes contra los robots de IA que se están utilizando en Quora, creo que sus preocupaciones están justificadas.

“Nosotros” (los usuarios de Quora) no tenemos ningún control sobre ellos. Los programadores de Quora son los creadores que los controlan y son los que los sueltan como perros viciosos en los usuarios de Quora. Ahí está el problema: “nosotros” no somos los creadores sino los que sufren bajo su dominio ofensivo. En pocas palabras, eso es lo que está mal con la inteligencia artificial: es inhumana, al menos tal como se aplica en Quora.

Las preocupaciones están relacionadas con máquinas / robots autónomos artificialmente inteligentes que tienen emociones diseñadas deliberadamente en ellos (esto se está haciendo con mucha intensidad en la investigación basada en inteligencia artificial / robótica en todo el mundo). Tales máquinas / robots autónomos artificialmente inteligentes que están equipados con emociones no serán controlables por ningún humano en absoluto. Por eso hay grandes preocupaciones. Desde entonces, los resultados finales serán el problema de RUR (después de la primera jugada del mundo que mostró las consecuencias de los robots autónomos que tienen emociones). Robotronics LLC | Facebook

More Interesting

Dado un conjunto de sub-gráficos, que se muestrean del gráfico subyacente, ¿cómo puedo inferir el gráfico subyacente dado el conjunto de sub-gráficos observados?

Aprendizaje automático: ¿cómo funciona la búsqueda de cuadrícula?

Escribí un artículo que mejora la complejidad del tiempo (cúbico a cuadrático en el número de dimensiones de entrada) de una técnica de modelo de mezcla Gaussiana incremental. ¿Qué revista sería apropiada para publicar?

¿Qué startups de IA parecen estar teniendo éxito?

¿Podría usarse la tecnología del cerebro a la computadora para entrometerse en la privacidad de los niños?

¿Qué son los lenguajes de aprendizaje automático?

¿Cuántas matemáticas uno debe aprender a tener opciones relativamente amplias en la investigación de ML e IA, como estudiante de doctorado principiante?

¿Cuál es el futuro en el campo de la economía? ¿Cuánto se verán afectados los trabajos debido a la IA y la tecnología? ¿Que Consejo tienes?

Cuando los laicos dicen que la IA solo hace lo que está programado para hacer, ¿están pasando por alto la diferencia entre los algoritmos y las técnicas modernas de IA?

¿Qué tipo de problemas funciona bien con la técnica de Deep Learning?

¿Por qué es importante el documento de DeepMind "Aprender de las preferencias humanas"?

En redes neuronales, ¿cómo se transporta la propagación hacia atrás a través de las capas de maxpool?

Para que la inteligencia artificial funcione, ¿necesitamos primero descubrir qué es la inteligencia humana?

Sospecho que uno de mis compañeros de trabajo puede no ser un ser sensible, ¿cuál es un buen conjunto de preguntas de prueba que puedo usar para determinar esto?

¿Cuán grande es la amenaza de los pesimistas antitecnológicos que tienen dudas y temores sobre el futuro?