Traté de enumerar los pros y los contras del aprendizaje automático, pero me faltaba memoria para relatar tantas cosas.
De acuerdo, no te decepcionaré y traeré “lo que los principales think tanks como el profesor Stephen Hawking, Elon almizcle, Bill Gates piensan sobre la inteligencia artificial y el aprendizaje automático” en su dominio del conocimiento.
– Entrevista al profesor Stephen Hawking (del foro de Reddit pregúntame cualquier cosa)
¿Cuánto tiempo llevará desarrollar inteligencia artificial (IA)?
No hay consenso entre los investigadores de IA sobre cuánto tiempo llevará construir una IA a nivel humano y más allá, así que no confíes en nadie que afirme estar seguro de que sucederá en tu vida o que no sucederá en tu vida. toda la vida.
Cuando eventualmente ocurra, es probable que sea lo mejor o lo peor que le haya pasado a la humanidad, por lo que hay un gran valor en hacerlo bien.
¿Qué sucede cuando la IA puede evolucionar para ser más inteligente?
Es claramente posible que algo adquiera mayor inteligencia que sus antepasados: evolucionamos para ser más inteligentes que nuestros antepasados simios, y Einstein fue más inteligente que sus padres.
Si esto sucede (a la IA), podemos enfrentar una explosión de inteligencia que finalmente resulta en máquinas cuya inteligencia excede la nuestra en más de la nuestra supera la de los caracoles.
¿Por qué te preocupa el aumento de la inteligencia artificial?
El riesgo real con la IA no es malicia sino competencia. Una IA súper inteligente será extremadamente buena para lograr sus objetivos, y si esos objetivos no están alineados con los nuestros, estamos en problemas.
Probablemente no seas un malvado enemigo de las hormigas que pisa a las hormigas por malicia, pero si estás a cargo de un proyecto de energía verde hidroeléctrica y hay un hormiguero en la región que se inundará, una pena para las hormigas. No coloquemos a la humanidad en la posición de esas hormigas.
¿Has pensado en el “desempleo tecnológico”, donde las máquinas ocupan todos nuestros trabajos?
El resultado dependerá de cómo se distribuyan las cosas. Todos pueden disfrutar de una vida de lujoso ocio si se comparte la riqueza producida por la máquina, o la mayoría de las personas pueden terminar miserablemente pobres si los propietarios de las máquinas presionan con éxito contra la redistribución de la riqueza. Hasta ahora, la tendencia parece ser hacia la segunda opción, con la tecnología impulsando la desigualdad cada vez mayor.
¿Tendría una IA estos impulsos básicos y, de no ser así, sería una amenaza para la humanidad?
Una IA que ha sido diseñada en lugar de evolucionada puede tener, en principio, cualquier impulso u objetivo. Sin embargo, como lo enfatizó Steve Omohundro [un científico de la computación y experto en aprendizaje automático], una inteligencia artificial extremadamente inteligente en el futuro probablemente desarrollará un impulso para sobrevivir y adquirir más recursos como un paso para lograr cualquier objetivo que tenga, porque sobrevivir y tener más recursos aumentará sus posibilidades de lograr ese otro objetivo. Esto puede causar problemas a los humanos cuyos recursos se les quitan.
Stephen Hawking, el físico teórico, que tiene la enfermedad de la neurona motora esclerosis lateral amiotrófica (ELA), está utilizando un nuevo sistema desarrollado por Intel para hablar.
Los expertos en aprendizaje automático de la compañía británica Swiftkey también participaron en su creación. Su tecnología, ya empleada como una aplicación de teclado de teléfono inteligente, aprende cómo piensa el profesor y sugiere las palabras que tal vez quiera usar a continuación.
El profesor Hawking dice que las formas primitivas de inteligencia artificial desarrolladas hasta ahora ya han demostrado ser muy útiles, pero teme las consecuencias de crear algo que pueda igualar o superar a los humanos.
Inteligencia Artificial Destructiva
– Entrevista al profesor Hawking en bbc, 2014
La tecnología ya ha tenido un impacto significativo en la guerra desde que comenzó la guerra de Irak en 2001. Los drones no tripulados brindan vigilancia sostenida y ataques rápidos contra objetivos, y se utilizan pequeños robots para desarmar dispositivos explosivos improvisados. Actualmente, el ejército está financiando investigaciones para producir robots más autónomos y conscientes de sí mismos para disminuir la necesidad de que los soldados humanos arriesguen sus vidas. El fundador de Boston Dynamics, Marc Raiber, lanzó un video que muestra un terrorífico seis pies de alto, 320 libras. robot humanoide llamado Atlas, corriendo libremente por el bosque. La compañía, que fue comprada por Google en 2013 y recibe subvenciones del Departamento de Defensa, está trabajando en el desarrollo de una versión aún más ágil.
Los peligros inherentes de una tecnología tan poderosa han inspirado a varios líderes de la comunidad científica a expresar sus preocupaciones sobre la Inteligencia Artificial.
“El éxito en la creación de IA sería el mayor evento en la historia humana”, escribió Stephen Hawking en un artículo de opinión, que apareció en The Independent en 2014. “Desafortunadamente, también podría ser el último, a menos que aprendamos cómo evitar los riesgos”. . En el corto plazo, los ejércitos mundiales están considerando sistemas de armas autónomas que pueden elegir y eliminar objetivos “. El profesor Hawking agregó en una entrevista de 2014 en la BBC,” los humanos, limitados por la lenta evolución biológica, no podrían competir y serían reemplazados por la IA ”
– Elon almizcle vista sobre inteligencia artificial
Elon Musk calificó la perspectiva de inteligencia artificial como “nuestra mayor amenaza existencial” en una entrevista de 2014 con estudiantes del MIT en el Simposio del Centenario AeroAstro. “Estoy cada vez más inclinado a pensar que debería haber alguna supervisión regulatoria, tal vez a nivel nacional e internacional, solo para asegurarnos de que no hagamos algo muy tonto”. El Sr. Musk cita su decisión de invertir en el Artificial La firma de inteligencia, DeepMind, como un medio para “vigilar lo que está sucediendo con la inteligencia artificial. Creo que hay un resultado potencialmente peligroso allí ”.
– Esto es lo que dijo Bill Gates sobre AI
El cofundador de Microsoft, Bill Gates, también ha expresado su preocupación por la Inteligencia Artificial. Durante una sesión de preguntas y respuestas sobre Reddit en enero de 2015, el Sr. Gates dijo: “Estoy en el campamento preocupado por la súper inteligencia. Primero, las máquinas harán muchos trabajos por nosotros y no serán súper inteligentes. Eso debería ser positivo si lo manejamos bien. Algunas décadas después, aunque la inteligencia es lo suficientemente fuerte como para ser una preocupación. Estoy de acuerdo con Elon Musk y algunos otros en esto y no entiendo por qué algunas personas no están preocupadas ”.
Las amenazas enumeradas por Hawking, Musk y Gates son reales y merecen nuestra atención inmediata, a pesar de los inmensos beneficios que la inteligencia artificial puede aportar a la humanidad. A medida que la tecnología de los robots aumenta constantemente hacia los avances necesarios para facilitar la implementación generalizada, se hace evidente que los robots se encontrarán en situaciones que plantean una serie de cursos de acción. El dilema ético de otorgar responsabilidades morales a los robots exige medidas rigurosas de seguridad y prevención que sean a prueba de fallas, o las amenazas son demasiado importantes para el riesgo.
Fuentes:-
- Stephen Hawking: la IA será ‘lo mejor o lo peor’ para la humanidad
- Stephen Hawking, Elon Musk y Bill Gates advierten sobre inteligencia artificial
- http://www.bbc.com/news/technolo …