¿Qué opinas sobre IA, también conocida como inteligencia artificial?

¡Definitivamente, estamos en el punto más crucial de toda la Historia Humana !

¡Sin contar mi propia versión, presentaré algunas predicciones de algunas de las mejores mentes !

“La paciencia es virtud” 🙂

Espero que lo encuentres interesante !

Predicciones de IA:

  • Profesor Stephen Hawking

Hablando en la apertura del Centro Leverhulme para el Futuro de la Inteligencia en la Universidad de Cambridge, Hawking describió los peligros potencialmente devastadores de la inteligencia artificial.

“Creo que no hay una gran diferencia entre lo que puede lograr un cerebro biológico y lo que puede lograr una computadora. Por lo tanto, las computadoras pueden, en teoría, emular la inteligencia humana y superarla”.

Hawking continuó describiendo dos caminos posibles, uno de erradicación de enfermedades y pobreza y el otro de armas y máquinas autónomas que los humanos no pueden controlar.

“En resumen, el surgimiento de una poderosa IA será lo mejor o lo peor que le sucederá a la humanidad. Todavía no sabemos cuál”.

El profesor Stephen Hawking advirtió por primera vez sobre el impacto del crecimiento no regulado de la inteligencia artificial durante una entrevista de la BBC en 2014, alegando que la inteligencia artificial podría acabar con la humanidad.

“El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana.

“Despegaría por sí solo y se rediseñaría a un ritmo cada vez mayor. Los humanos, que están limitados por la lenta evolución biológica, no podrían competir y serían reemplazados” , agregó.

Solo un año después, hablar en el Zeitgeist Hawking proporcionó una línea de tiempo del crecimiento potencial rápido de la IA.

“Las computadoras superarán a los humanos con IA en algunos dentro de los próximos 100 años. Cuando eso suceda, debemos asegurarnos de que las computadoras tengan objetivos alineados con los nuestros ”.

  • El cofundador de PayPal, Elon Musk

En una extensa pieza en la edición de abril de 2017 de Vanity Fair, Elon Musk expuso sus muchas preocupaciones con respecto a la IA, incluido el escenario de recolección de fresas.

“Digamos que creas una IA que se mejora a sí misma para recoger fresas y cada vez mejora más y más y más, y se mejora por sí misma, por lo que todo lo que realmente quiere hacer es recoger fresas. Entonces habría todo el mundo sea campos de fresas. Campos de fresas para siempre “. No hay espacio para los seres humanos.

Además, durante una entrevista en el Simposio del Centenario AeroAstro en 2014, Musk dijo:

“Creo que deberíamos tener mucho cuidado con la inteligencia artificial. Si tuviera que adivinar cuál es nuestra mayor amenaza existencial, probablemente sea eso. Entonces debemos ser muy cuidadosos. Estoy cada vez más inclinado a pensar que debería haber alguna supervisión regulatoria, tal vez a nivel nacional e internacional, solo para asegurarme de que no hagamos algo muy tonto ”.

  • El presidente de Google, Eric Schmidt

Reportado en el Washington Post, Schmidt dijo: “Creo que esta tecnología será en última instancia una de las mayores fuerzas para el bien en la historia de la humanidad simplemente porque hace a las personas más inteligentes”.

“Ciertamente no estoy preocupado en los próximos 10 a 20 años por eso. Todavía estamos en el pequeño paso de entender las cosas. Hemos progresado enormemente con respecto a [la inteligencia artificial] “.

  • Cofundador de Microsoft Bill Gates

El año pasado, en una entrevista con la BBC, Bill Gate reveló sus pensamientos sobre las posibles amenazas planteadas por la inteligencia artificial.

“Estoy en el campo preocupado por la súper inteligencia. Primero, las máquinas harán mucho trabajo por nosotros y no serán súper inteligentes. Eso debería ser positivo si lo manejamos bien”.

“Unas décadas después de eso, aunque la inteligencia es lo suficientemente fuerte como para ser una preocupación. Estoy de acuerdo con Elon Musk y algunos otros en esto y no entiendo por qué algunas personas no están preocupadas”.

  • El cofundador de Apple, Steve Wozniak

Esta vez el año pasado, Steve Wozniak habló sobre el impacto que la IA tendrá en la raza humana, y afirmó que “los humanos serán las mascotas de los robots”.

En declaraciones a la Revisión Financiera de Australia, Wozniak dijo: “Estoy de acuerdo en que el futuro da miedo y es muy malo para las personas. Si construimos estos dispositivos para encargarse de todo por nosotros, eventualmente pensarán más rápido que nosotros y obtendrán deshacerse de los lentos humanos para dirigir empresas de manera más eficiente “.

Sin embargo, debe tenerse en cuenta que Wozniak ha dado un giro en U, afirmando en el foro de tecnología Freescale en Austin en junio de 2015, que “serán más inteligentes que nosotros y si son más inteligentes que nosotros, entonces lo harán”. darse cuenta de que nos necesitan “.

  • Cofundador de Skype, Jaan Tallinn

Hablando con Techworld, Tallinn dijo:

“Hay algo muy diferente en este verano de IA. Hay formas rápidas de ganar dinero con avances marginales en IA. Una vez que hace un algoritmo de clasificación un por ciento mejor, eso significa inmediatamente unos cientos de millones de dólares para Google.

“Creo que es demasiado pronto para pensar en mecanismos de monitoreo [AI] muy concretos. En este momento es más importante construir un consenso en la industria y la academia sobre cuáles son las cosas que tendrían un efecto escalofriante”.

  • Sir Time Berners-Lee

Expuso el escenario en el que AI podría decidir qué compañías adquirir y llevó esto a su conclusión lógica: “Entonces, cuando AI comienza a tomar decisiones como quién obtiene una hipoteca, esa es una gran decisión. O qué compañías adquirir y cuándo comienza AI creando sus propias compañías, creando compañías holding, generando nuevas versiones de sí mismo para administrar estas compañías.

“Así que tienes la supervivencia del más apto entre estas compañías de inteligencia artificial hasta que llegas al punto en que te preguntas si es posible entender cómo garantizar que sean justos, y cómo describirías a una computadora lo que eso significa de todos modos”.

Y, allí, ¡la lista o el debate nunca terminarán!
Continuará.

Aunque , es bastante simple hacer observaciones de todas las charlas anteriores.

La inteligencia artificial es peligrosa , ¡ no hay dudas al respecto!

¡Pero está en nuestras manos si podemos controlarlo o si perdemos el control sobre él!

Pero, personalmente estoy de acuerdo con la línea,

“Ciertamente no estoy preocupado en los próximos 10 a 20 años por eso. Todavía estamos en el pequeño paso de entender las cosas. “-El presidente de Google Eric Schmidt

Puedo estar equivocado! 🙂

Veamos !

Gracias.

Creo que la respuesta a la inteligencia está a nuestro alrededor y si no podemos discernir entre inteligencia natural e inteligencia artificial, entonces no hay diferencia entre los dos.

Hay un caso pequeño (muy grande) para lograr una verdadera IA desde un enfoque mío. Básicamente es el análisis de los seres humanos desde su nacimiento hasta alrededor de los 10-12 años de edad, todos los días, cada sonido y cada visión se registra. Luego, esto se hace en todo el mundo para obtener una comprensión más completa de las asociaciones de palabras y los significados que los humanos comienzan a acumular lentamente. Luego, los próximos diez años (hasta 22 años) podrían considerarse como especializados en cualquier campo en particular. Nosotros, los humanos, practicamos lo mismo durante los próximos 40 años. Básicamente, estamos imitando la forma en que trabajamos. De esta manera, la base de 12 años se puede clasificar como Inteligencia general y se puede utilizar para actividades basales y la especialización se puede proporcionar como un complemento para diversas aplicaciones como Contabilidad, Limpieza, Cuidado, Ingeniería, etc. También tendremos que entrene estos cerebros al igual que los niños en edad escolar y les damos un propósito / razón para trabajar para nosotros. Estos serían reiniciables y para una generación en el futuro, estas IA podrían manifestarse literalmente como humanoides o simplemente como un software que interactúa con nosotros a través de llamadas / mensajes / video / VR, etc., como Man Friday / JARVIS / Veronica / whatnot.

La IA es una cosa poderosa. Pero tiene mucho camino por recorrer antes de alcanzar cualquier nivel de generalidad en el sentido editorial. Es una forma poderosa de desarrollar soluciones complejas para problemas difíciles, pero aún se necesita experiencia para guiarlo.

Esa publicación, no soy fan. Facebook probablemente lo cerró porque estaba haciendo cosas ridículas y porque escupía palabras que los humanos no podían usar, no estaba funcionando.

Todo lo que hace una IA tiene significado para la IA, pero eso no significa que sea útil. Te voy a dar un ejemplo.

Supongamos que construyo una red simple de aprendizaje profundo y utilizo un microcontrolador para conectarlo al gatillo de una pistola. Luego establecí la función objetivo para maximizar el número de rondas disparadas en función del número de historias secuenciales en CNN sobre el mismo tema. Pero, solo yo sabía esto.

Entonces, como estaba disparando a la tierra en mi patio trasero, para el observador casual parecería estar muy en sintonía con los eventos del mundo, ¡e incluso parece tener preferencias con un tono de violencia!

Esta IA profética sin duda encontrará su camino hacia los medios. En medio de gritos de que AI tiene violencia hacia x país, etc. Peligro peligro.

Sin embargo, no tenía idea de qué lo desencadenaría porque no sabía el futuro. No tiene preferencia y no tiene violencia, es una cosa muy simple que pintamos con este pincel que todo lo sabe.

Los humanos buscan patrones cuando no hay ninguno o ninguno de significado. La IA nos ayuda en esta tarea, para encontrar que existe. Pero por golly, apuesto a que estamos equivocados sobre lo que el patrón significa en realidad el 99% del tiempo. Es una herramienta, eso es todo.

Gran pregunta