AI viene por tu trabajo. Para salvaguardar su carrera, busque trabajos en los que las máquinas sean malas, involucrando personas, imprevisibilidad y creatividad. Evite carreras a punto de automatizarse, lo que implica acciones repetitivas o estructuradas en un entorno predecible. Telemarketers, trabajadores de almacén, cajeros, operadores de trenes, panaderos o cocineros. Es probable que los conductores de camiones, autobuses, taxis y automóviles Uber / Lyft lo sigan pronto. Hay muchas más profesiones (incluidos paralegales, analistas de crédito, oficiales de crédito, tenedores de libros y contadores fiscales) que, aunque no están en la lista en peligro de extinción, están automatizando la mayoría de sus tareas y, por lo tanto, exigen mucho menos humanos.
2. El desempleo puede ser una vacación de por vida. El progreso de la IA puede producir una sociedad de ocio de lujo para todos o una miseria sin precedentes para una mayoría desempleable, dependiendo de cómo se grava y comparte la riqueza producida por la IA.
3. Los robots asesinos no son ficción: estamos a punto de comenzar una carrera armamentista fuera de control con armas controladas por la IA, que pueden debilitar a las poderosas naciones de hoy al hacer disponibles máquinas de asesinato baratas y convenientes para todos billetera y un hacha para moler, incluidos los grupos terroristas. Los principales investigadores de IA se oponen a esto y quieren un tratado internacional de control de armas de IA.
- Estoy interesado en aprender sobre los conceptos básicos de la inteligencia artificial, ¿hay algún lugar en particular en el que deba comenzar?
- ¿La súper inteligencia artificial es realmente súper inteligente o simplemente una forma de inteligencia que puede hacer todo?
- ¿Cuál cree que es el mayor inconveniente de nuestros algoritmos de inteligencia artificial actuales?
- ¿Qué necesitan saber los robots de inteligencia artificial para comprender el lenguaje a fin de interactuar con los humanos (características lingüísticas)?
- Sin Evolution, ¿qué causará que la IA (inteligencia artificial) luche por la supervivencia? ¿De dónde vendrá la motivación para que AI haga algo?
4. Las máquinas no tienen un coeficiente intelectual. La inteligencia es la capacidad de lograr objetivos complejos. No se puede cuantificar con un solo número, como un coeficiente intelectual, ya que diferentes organismos y máquinas son buenos para diferentes cosas. Para ver esto, imagine cómo reaccionaría si alguien hiciera la afirmación absurda de que la capacidad de lograr hazañas deportivas a nivel olímpico podría cuantificarse con un solo número llamado “cociente atlético” o “AQ” para abreviar. Olímpico con el AQ más alto ganaría las medallas de oro en todos los deportes.
5. La IA se está volviendo más amplia: la IA de hoy tiene una inteligencia principalmente limitada: la capacidad de lograr un conjunto limitado de objetivos, como jugar al ajedrez o conducir, a veces mejor que los humanos. En contraste, los humanos tienen inteligencia general: capacidad para lograr prácticamente cualquier objetivo, incluido el aprendizaje. El santo grial de la búsqueda de IA es desarrollar la Inteligencia General Artificial (AGI): la capacidad de realizar cualquier tarea intelectual al menos tan bien como los humanos. Muchos investigadores líderes en IA creen que estamos a solo décadas de distancia de AGI.
6. La IA podría dejarnos muy atrás: AGI podría conducir rápidamente a una súper inteligencia, como lo explicó el matemático británico Irving J. Good en 1965: “Deje que una máquina ultra inteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre sin embargo inteligente. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultra inteligente podría diseñar máquinas aún mejores; indudablemente habría una “explosión de inteligencia”, y la inteligencia del hombre quedaría muy atrás. Por lo tanto, la primera máquina ultra inteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo suficientemente dócil como para decirnos cómo mantenerla bajo control “.
7. No estamos cerca de los límites de la computación: la computación se ha vuelto un millón de millones de veces más barata desde que nacieron mis abuelas. Si todo se volviera mucho más barato, una centésima de centavo le permitiría comprar todos los bienes y servicios producidos en la Tierra este año. La Ley de Moore gobierna qué tan barato podemos calcular moviendo electrones en obleas de silicio bidimensionales, y una vez que esta meseta, hay muchas otras soluciones de hardware que podemos probar, por ejemplo, usando circuitos tridimensionales y usando algo más que electrones para hacer nuestra oferta. . Todavía estamos un millón de billones de billones de veces por debajo de los límites finales de computación de las leyes de la física.
8. La IA puede ayudar a la humanidad a prosperar: dado que todo lo que amamos de la civilización es producto de la inteligencia, amplificar nuestra propia inteligencia con la IA tiene el potencial de ayudar a que la vida florezca como nunca antes, resolviendo nuestros problemas más espinosos, desde la enfermedad hasta el clima, la justicia y la pobreza. .
9. La IA plantea riesgos : el temor de Hollywood de que las máquinas se vuelvan conscientes y el mal es una pista falsa. La verdadera preocupación no es la malevolencia, sino la competencia. La IA súper inteligente es, por definición, muy buena para lograr sus objetivos, sean los que sean, por lo que debemos asegurarnos de que sus objetivos estén alineados con los nuestros. Los humanos generalmente no odian a las hormigas, pero somos más inteligentes que ellos, así que si queremos construir una presa hidroeléctrica y hay un hormiguero allí, es una pena para las hormigas. El movimiento de IA beneficiosa quiere evitar colocar a la humanidad en la posición de esas hormigas.
10. Necesitamos un análisis de seguridad de la IA: para garantizar que la IA siga siendo beneficiosa a medida que crece su impacto en la sociedad, se necesita urgentemente más investigación de seguridad de la IA. Por ejemplo, ¿cómo transformamos las computadoras con errores y pirateables de la actualidad en sistemas robustos de inteligencia artificial en los que realmente podemos confiar? ¿Cómo hacer que las máquinas aprendan, adopten y retengan nuestros objetivos? Estas son preguntas desafiantes que pueden tomar décadas para responder, por lo que deberíamos comenzar un esfuerzo de investigación de choque ahora para asegurarnos de tener las respuestas cuando las necesitemos. Pero en relación con los miles de millones que se gastan en hacer que la IA sea más poderosa, los gobiernos hasta ahora han asignado casi ningún financiamiento para la investigación de seguridad de la IA.