¡Definitivamente, estamos en el punto más crucial de toda la Historia Humana !
¡Sin contar mi propia versión, presentaré algunas predicciones de algunas de las mejores mentes !
“La paciencia es virtud” 🙂
- ¿Qué nuevos campos matemáticos son más prometedores para la inteligencia artificial?
- ¿Son los bucles infinitos ocultos un problema importante en el desarrollo de AGI?
- ¿Es mejor tomar una maestría o un doctorado en matemáticas o física en lugar de ciencias de la computación cuando quieres investigar en inteligencia artificial?
- ¿Qué es realmente tan diferente sobre la inteligencia artificial en comparación con los buenos algoritmos antiguos?
- ¿Es posible enseñarle a AI qué es el amor?
Espero que lo encuentres interesante !
Predicciones de IA:
- Profesor Stephen Hawking
Hablando en la apertura del Centro Leverhulme para el Futuro de la Inteligencia en la Universidad de Cambridge, Hawking describió los peligros potencialmente devastadores de la inteligencia artificial.
“Creo que no hay una gran diferencia entre lo que puede lograr un cerebro biológico y lo que puede lograr una computadora. Por lo tanto, las computadoras pueden, en teoría, emular la inteligencia humana y superarla”.
Hawking continuó describiendo dos caminos posibles, uno de erradicación de enfermedades y pobreza y el otro de armas y máquinas autónomas que los humanos no pueden controlar.
“En resumen, el surgimiento de una poderosa IA será lo mejor o lo peor que le sucederá a la humanidad. Todavía no sabemos cuál”.
El profesor Stephen Hawking advirtió por primera vez sobre el impacto del crecimiento no regulado de la inteligencia artificial durante una entrevista de la BBC en 2014, alegando que la inteligencia artificial podría acabar con la humanidad.
“El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana.
“Despegaría por sí solo y se rediseñaría a un ritmo cada vez mayor. Los humanos, que están limitados por la lenta evolución biológica, no podrían competir y serían reemplazados” , agregó.
Solo un año después, hablar en el Zeitgeist Hawking proporcionó una línea de tiempo del crecimiento potencial rápido de la IA.
“Las computadoras superarán a los humanos con IA en algunos dentro de los próximos 100 años. Cuando eso suceda, debemos asegurarnos de que las computadoras tengan objetivos alineados con los nuestros ”.
- El cofundador de PayPal, Elon Musk
En una extensa pieza en la edición de abril de 2017 de Vanity Fair, Elon Musk expuso sus muchas preocupaciones con respecto a la IA, incluido el escenario de recolección de fresas.
“Digamos que creas una IA que se mejora a sí misma para recoger fresas y cada vez mejora más y más y más, y se mejora por sí misma, por lo que todo lo que realmente quiere hacer es recoger fresas. Entonces habría todo el mundo sea campos de fresas. Campos de fresas para siempre “. No hay espacio para los seres humanos.
Además, durante una entrevista en el Simposio del Centenario AeroAstro en 2014, Musk dijo:
“Creo que deberíamos tener mucho cuidado con la inteligencia artificial. Si tuviera que adivinar cuál es nuestra mayor amenaza existencial, probablemente sea eso. Entonces debemos ser muy cuidadosos. Estoy cada vez más inclinado a pensar que debería haber alguna supervisión regulatoria, tal vez a nivel nacional e internacional, solo para asegurarme de que no hagamos algo muy tonto ”.
- El presidente de Google, Eric Schmidt
Reportado en el Washington Post, Schmidt dijo: “Creo que esta tecnología será en última instancia una de las mayores fuerzas para el bien en la historia de la humanidad simplemente porque hace a las personas más inteligentes”.
“Ciertamente no estoy preocupado en los próximos 10 a 20 años por eso. Todavía estamos en el pequeño paso de entender las cosas. Hemos progresado enormemente con respecto a [la inteligencia artificial] “.
- Cofundador de Microsoft Bill Gates
El año pasado, en una entrevista con la BBC, Bill Gate reveló sus pensamientos sobre las posibles amenazas planteadas por la inteligencia artificial.
“Estoy en el campo preocupado por la súper inteligencia. Primero, las máquinas harán mucho trabajo por nosotros y no serán súper inteligentes. Eso debería ser positivo si lo manejamos bien”.
“Unas décadas después de eso, aunque la inteligencia es lo suficientemente fuerte como para ser una preocupación. Estoy de acuerdo con Elon Musk y algunos otros en esto y no entiendo por qué algunas personas no están preocupadas”.
- El cofundador de Apple, Steve Wozniak
Esta vez el año pasado, Steve Wozniak habló sobre el impacto que la IA tendrá en la raza humana, y afirmó que “los humanos serán las mascotas de los robots”.
En declaraciones a la Revisión Financiera de Australia, Wozniak dijo: “Estoy de acuerdo en que el futuro da miedo y es muy malo para las personas. Si construimos estos dispositivos para encargarse de todo por nosotros, eventualmente pensarán más rápido que nosotros y obtendrán deshacerse de los lentos humanos para dirigir empresas de manera más eficiente “.
Sin embargo, debe tenerse en cuenta que Wozniak ha dado un giro en U, afirmando en el foro de tecnología Freescale en Austin en junio de 2015, que “serán más inteligentes que nosotros y si son más inteligentes que nosotros, entonces lo harán”. darse cuenta de que nos necesitan “.
- Cofundador de Skype, Jaan Tallinn
Hablando con Techworld, Tallinn dijo:
“Hay algo muy diferente en este verano de IA. Hay formas rápidas de ganar dinero con avances marginales en IA. Una vez que hace un algoritmo de clasificación un por ciento mejor, eso significa inmediatamente unos cientos de millones de dólares para Google.
“Creo que es demasiado pronto para pensar en mecanismos de monitoreo [AI] muy concretos. En este momento es más importante construir un consenso en la industria y la academia sobre cuáles son las cosas que tendrían un efecto escalofriante”.
- Sir Time Berners-Lee
Expuso el escenario en el que AI podría decidir qué compañías adquirir y llevó esto a su conclusión lógica: “Entonces, cuando AI comienza a tomar decisiones como quién obtiene una hipoteca, esa es una gran decisión. O qué compañías adquirir y cuándo comienza AI creando sus propias compañías, creando compañías holding, generando nuevas versiones de sí mismo para administrar estas compañías.
“Así que tienes la supervivencia del más apto entre estas compañías de inteligencia artificial hasta que llegas al punto en que te preguntas si es posible entender cómo garantizar que sean justos, y cómo describirías a una computadora lo que eso significa de todos modos”.
Y, allí, ¡la lista o el debate nunca terminarán!
Continuará.
Aunque , es bastante simple hacer observaciones de todas las charlas anteriores.
La inteligencia artificial es peligrosa , ¡ no hay dudas al respecto!
¡Pero está en nuestras manos si podemos controlarlo o si perdemos el control sobre él!
Pero, personalmente estoy de acuerdo con la línea,
“Ciertamente no estoy preocupado en los próximos 10 a 20 años por eso. Todavía estamos en el pequeño paso de entender las cosas. “-El presidente de Google Eric Schmidt
Puedo estar equivocado! 🙂
Veamos !
Gracias.