¿Deberíamos tener miedo de la IA?

¡Absolutamente no! Incluso con IA, todavía tenemos el control.

  1. No permitiríamos que algún robot aprenda “todo” o sea bueno en “cualquier cosa”. Simplemente les mostraremos un área de la vida para aprender y se los dejaremos. ¿Aprender a empacar comestibles, tal vez? ¡Serán la mejor máquina de ensacado de comestibles que jamás hayas imaginado! “Los huevos van aquí. Las cajas van aquí. Solo 5 libras por bolsa como máximo. ¿Le gustaría este galón de leche que está comprando en una bolsa, señor? Aproximadamente al 50% de la población de este país le gusta, así que le pregunto “, etc. Y cuando Billy Joe dice” Me gustaría que mi comida empacada como un mono en un desfile hispano “, sabrá qué hacer antes que el hombre detrás de Billy Joe lo resuelve. Pero eso es todo lo que será, a menos que le digamos que haga otra cosa. Hay un objetivo en mente. “Gana el juego. Empaque los alimentos de una manera que satisfaga al cliente ”. La máquina aprenderá a lograr su objetivo y nada más.
  2. ¿Quién le diría a algún robot de IA que aprenda a dañar a alguien? Nadie, ese es quien. Esa sería la circunstancia peligrosa. Si alguien alguna vez dijo: “Oye, no solo sé cómo hacer que un robot se enfurezca, sino que también lo voy a hacer ahora”, entonces podríamos estar en problemas. En realidad, le tomaría más tiempo aprender el comportamiento humano en tales circunstancias de lo que suponemos. No es solo salir y comprar películas de lucha. Está poniendo una máquina de IA en un entorno en el que están tratando de lastimar a personas reales, una y otra y otra vez. Pero si de alguna manera estuviera sujeto a todas estas circunstancias y realmente se dispusiera a completar la tarea de lastimar a las personas, tendría un arma bastante peligrosa en manos de alguien obviamente lo suficientemente malvado como para hacer tal cosa. Tomaría tiempo, energía y una buena cantidad de recursos, pero supongo que es posible. Pero también tenga en cuenta que si alguien quisiera hacer algo así, puede hacerlo sin IA. Puede programar un robot sin IA para dañar a las personas, y si bien puede ser un poco más de esfuerzo para la persona terrible que lo hace, sigue siendo lo más posible.
  3. Creo que entendemos el poder de las capacidades que esto nos brinda, y somos muy cuidadosos con lo que creamos. La seguridad de las personas es siempre una prioridad cuando se construye tecnología, ya sea para la NASA, Amazon o AI. La IA simplemente conlleva más riesgos para nosotros, los que construimos y creamos tales máquinas. Somos los que debemos tomar precauciones y garantizar que la seguridad de los demás sea un elemento básico gigante (tal vez incluso dos, solo para estar más seguros) en nuestra tecnología. La IA todavía es creada por personas. No solo aparece en la naturaleza. Los mismos procedimientos en los que se realiza están orientados a garantizar que todo esté seguro y que nadie resulte herido de ninguna manera.

Hay riesgo, claro. Hay riesgos en todo, en todas partes. Yo, personalmente, no estaré preocupado por la IA, y tampoco nadie que yo conozca, porque esta predicción de Robo-Apocolypse como esa película de iRobot simplemente no sucederá.

Una IA que puede ser tan poderosa como Skynet ha tenido al menos unas décadas por venir. Sí, una IA que puede autodidactarse a través del aprendizaje automático y tiene acceso a todos los recursos intelectuales a su disposición es una percepción de Dios. Pero actualmente están ocupados derrotando campeones de juegos de interior, dibujando, escribiendo poesía, automatizando y todo. Con la evolución de la IA, otras tecnologías también evolucionarán (enraizándose para cosas como Neuralink). Es para ver si la tecnología que potencia a las máquinas y a los humanos evolucionará a un ritmo similar o no. Actualmente los humanos tienen una ventaja y las máquinas están saltando. Entonces, para mantenernos relevantes, necesitamos evolucionar con la edición de genes o infundiéndonos en máquinas. Pase lo que pase, todo está sujeto a especulación y una imagen clara no es predecible antes de al menos 10 años más.

Cualquiera que diga que no está loco. Los países, los terroristas y los individuos lo piratearán para hacer el mal. Mira cuánto se han convertido en guerras / ataques más mortales desde que la tecnología ha avanzado. Hemos pasado de lanzas a pistolas a armas nucleares. Y eso ni siquiera está discutiendo capacidades biológicas dañinas y ataques de virus informáticos y drones.

Tal vez ‘asustado’ es una palabra fuerte, pero no descarte los negativos.

More Interesting

¿Es posible tener Inteligencia General Artificial (AGI) a nivel humano y, sin embargo, no tener conciencia?

¿Por qué hay toda esta charla sobre IA? Los robots nunca podrán reemplazar a los humanos, y no tienen alma.

¿Cuáles podrían ser temas interesantes para una disertación en aprendizaje automático?

¿Cuál es el futuro de la investigación de 'reconocimiento de voz'?

¿Qué diferencia hay entre IOT, AI y ML?

¿Quién fue Alan Turing y cuál fue su contribución al campo de la Inteligencia Artificial?

¿Cuáles son los mejores kits robóticos programables para un ingeniero relativamente novato que desea practicar algunas implementaciones de aprendizaje automático utilizando un robot?

¿Qué tan avanzada es la mejor IA en 2017 y qué tan avanzada podría ser la mejor IA en 2037?

¿Cuáles son las mejores técnicas de aprendizaje automático para el reconocimiento de caracteres escritos a mano?

¿Los chinos solo están siendo superiores en materia académica debido a su inteligencia?

Si realmente no podemos saber si otro humano está consciente, entonces ¿cómo podremos saber si una IA se vuelve consciente?

¿Qué tipo de estadísticas usan los programadores de juegos de IA?

¿Cuáles son algunos algoritmos de inteligencia artificial necesarios para los desarrolladores de juegos?

¿Qué empresas que cotizan en el mercado de valores de India se beneficiarán exponencialmente con el aumento de la inteligencia artificial y la tecnología de drones?

¿Qué debería aprender primero si quiero aprender IA con Python? No sé nada de programación.