¿La gente considera la IA como una amenaza?

El 47% de la población activa podría verse amenazada por los robots en los próximos 20 años. Según la teoría darwiniana de la evolución, a medida que evolucionamos a través de la selección natural de la variación, también lo hicieron nuestras capacidades cognitivas y de aprendizaje. A principios de 1969, el Instituto de Investigación de Stanford (SRI) nos dio a Shakey the Robot, con capacidades tales como percepción, movilidad y resolución de problemas. Ahora, hemos llegado a la era en la que Google está trabajando constantemente en el desarrollo de automóviles sin conductor.

Si bien estos desarrollos son interesantes, plantean una cierta pregunta: ¿los robots nos ayudarán a ser más productivos o tomarán nuestros trabajos? ¿Y de qué manera la inteligencia artificial (IA) afectará los recursos humanos en los próximos años? Veamos una visión general de todas las posibilidades.

IA en productos de consumo y empresariales

¿Los datos superan a los algoritmos? Es una cuestión de debate. Peter Norvig, director de investigación de Google, dice: “No tenemos mejores algoritmos. Simplemente tenemos más datos ”. Una gráfica de un sistema de producción en Netflix muestra que más datos no siempre significan un mejor rendimiento. Sin embargo, todos podemos estar de acuerdo en que al desarrollar un producto comercial basado en inteligencia artificial, el primer requisito son grandes conjuntos de datos. Grandes datos sobre los consumidores no existían en el pasado; Incluso el desarrollo neuronal artificial y el “aprendizaje profundo” requieren una gran cantidad de conjuntos de datos.

Este problema se resolvió con la afluencia de big data, que utiliza análisis predictivos para extraer valor de datos no estructurados, y también con el movimiento inteligente para incluir tarjetas de procesamiento de gráficos en computadoras en lugar de procesadores tradicionales, que pueden entrenar el aprendizaje de la red neuronal en Una forma más rápida. Este auge afectará los flujos de trabajo y modificará las herramientas existentes más tradicionales. Así es como va a afectar los recursos humanos.

1.NLP para impulsar la predicción

La IA tendrá un efecto directo en el reclutamiento de nuevos empleados y la capacitación de los existentes. Es difícil tratar con humanos porque son complicados. Ha sido difícil derivar datos relacionados con ellos, y aún más difícil procesarlos en una forma estructurada. Sacar conclusiones del discurso humano requiere una gran cantidad de conjuntos de datos, y no tenemos suficiente información para alimentar a la IA. Un avance en el campo de la IA es la PNL (procesamiento del lenguaje natural); Dado que el habla humana está principalmente en forma de lenguajes naturales, un motor de PNL puede analizar los textos y encontrar un patrón analizando las relaciones sintácticas entre las palabras. Esto ayudará a RR. HH. A obtener datos estructurados.

2.Automatización

Imagina esta situación: estás en RRHH y hay una entrevista que debe programarse con un panel compuesto por 4 miembros. Ahora, tiene que encontrar un momento plausible, verificar y confirmar con cada uno de los panelistas, así como con el candidato, y programarlo. De repente, algo sucede y uno de ellos no está disponible. Bueno, debe comenzar de nuevo desde el principio, y eso es agotador, lento y frustrante. El aprendizaje automático puede ser de gran ayuda en estos casos; si el software puede mostrar suficientes ejemplos de flujo de trabajo, puede decidir por sí mismo qué curso de acción tomar. Unos años más tarde, las funciones de recursos humanos como la incorporación de empleados, el procesamiento de nóminas y la capacitación de programación se realizarán mediante software impulsado por aprendizaje automático.

3.personalizado

El software que puede sugerir películas o restaurantes es muy común, y este tipo de desarrollos también progresarán en el ámbito humano. ¿Cómo se determina si un empleado necesita capacitación en función de los últimos meses de su desempeño? Bueno, los datos pueden estar allí desde todas las evaluaciones, pero descifrar los datos manualmente es una tarea tediosa, especialmente para las organizaciones que tienen muchos empleados. Brindar un mentor personalizado a todos y cada uno de los empleados es costoso, y el software no ha sido lo suficientemente preciso como para cumplir el propósito, hasta hoy. Con la evolución de la IA, las recomendaciones para la capacitación y la mejora de los empleados estarán disponibles muy fácilmente.

Los factores más importantes aquí son el tiempo y la cantidad. La cantidad es muy proporcional al tiempo, porque a medida que pasa más tiempo, se generan más conjuntos de datos, que luego se pueden alimentar a la IA. El software y los procesos de recursos humanos pueden estar libres de trabajo manual a medida que aumenta la cantidad, porque el software podría aprender y mejorar. Esto aumentará la productividad de recursos humanos, así como la de los empleados. Como director de recursos humanos, uno debe comenzar a enfocarse en dominar la inteligencia artificial e intentar encontrar áreas en la organización donde se pueda implementar.

Fuente: ¿La IA afectará los recursos humanos en los próximos años y cómo?

Miras demasiado Hollywood. Las IA tienen, en sus formas más primitivas, cientos de miles de líneas de código. ¿Qué tipo de codificación podría resultar en un programa que albergue malevolencia para la humanidad o el planeta tierra?

Bien, supongamos que algún programador loco se sienta a hacer una IA que tenga tendencias maliciosas. ¿Cómo se supone que este ‘Skynet’ llevará a cabo la aniquilación de la vida en el planeta tierra? ¿Al molestar a nuestros antivirus? Un formato de sistema simple se encargaría de este Dios-virus. Bien, supongamos que se propaga por internet. ¿Y entonces que? ¿Eliminar todos nuestros videos porno y gatitos lindos? Eso es un poco corto de anhilación, ya ves. Aunque sospecho que a los hombres les resultará difícil vivir en un mundo así.

Existe una línea clara entre el mundo virtual y el mundo real. Y la IA no puede cruzar esto durante siglos, al menos. Si crees que la IA entrará en las computadoras del gobierno y detonará una bomba nuclear, allí también, has hecho una suposición errónea. Contrariamente a la creencia popular, las armas nucleares no funcionan así. Hay muy pocas personas capaces de lanzarlos y estas personas tienen más sentido que entregar el poder para lanzar armas nucleares a una computadora. La suposición es tan ridícula. Es como enseñarle a tu perro a usar una escopeta solo porque sabe cómo ir a buscarla.

Bien, vamos un paso más allá y supongamos que AI ingresó a un laboratorio de robótica y, con tecnología que no existe hoy en día, fabrica robots para hacer el trabajo sucio. Ok, listo! O no. ¿Cómo se supone que un software extrae metal, silicio y otra parafernalia de robots? Incluso si las materias primas ya están allí, ¿cómo se activa lo que sea necesario, es decir, botones físicos y demás?

Hagamos una suposición más: la IA tiene éxito en la aniquilación. Espero que sea lo suficientemente inteligente como para darse cuenta de sus errores cuando se encuentra con un BSOD o equivalente. Es como Chuck Norris chocando contra una pared de ladrillos y muriendo en el acto.

La IA de hoy no es una amenaza. Musk, Hawking, etc. no están hablando de IA, realmente. Están hablando de ALife. AI es solo el nombre que le damos a los sistemas inteligentes, en algunos casos estos sistemas aprenden a través de la experiencia. Estás pensando en robots, y me gustaría hacer la distinción. La IA “real” es lo que usa netflix para recomendarle películas, o amazon usa para venderle libros. Son algoritmos de ruta y otras cosas relativamente mundanas.

No es conciencia artificial. No está creando robots que puedan funcionar de manera autónoma y tengan sus propios objetivos. Tengo absoluta confianza en que esta tecnología eventualmente existirá, pero si me preguntas, deberías estar más preocupado por engendrar un niño que se convierta en el próximo Stalin que algún proyecto de laboratorio que se convierta en el Gran Robot Overlord.

Incluso cuando llega esta tecnología, no hay nada de qué temer, en mi opinión, por varias razones. Para los humanos, la brutalidad, la guerra y el asesinato son parte de nuestra evolución, pero para ALife, su creación es mucho más pura. No tiene nuestro equipaje evolutivo. No tiene un deseo primordial de propagarse. No está condicionado para competir, luchar y sobrevivir.

La verdad es que tenemos miedo de que ALife sea como nosotros.

Ninguna de las tecnologías de IA que tenemos hoy es una amenaza.

Pero hay dos formas muy diferentes de amenaza, una en el horizonte cercano y la otra un poco más lejos.

Algoritmos como el aprendizaje profundo prometen automatizar una gran cantidad de actividades que actualmente demandan empleo humano. Pagamos a las personas para que realicen trabajos que requieren ciertos tipos de actividad cognitiva. En el futuro cercano, muchos de estos trabajos podrían ser realizados por agentes de inteligencia artificial “tontos”. Dichos agentes harían el trabajo mejor, más barato y de manera más confiable que un operador humano.

Esta es una posibilidad muy real y muy inminente, y predigo que podríamos considerarlo como un problema en la próxima década.

Pero cuando Musk está hablando de una amenaza, creo que está hablando de “IA fuerte”. Eso significa una máquina que tendría un nivel de inteligencia similar al humano y sería capaz de establecer sus propios objetivos y decidir qué quiere ser.

Tal máquina (o programa) sería algo muy nuevo. Efectivamente una nueva especie de vida. Una segunda especie sensible en la Tierra. Y a diferencia de cualquier especie de carne y hueso, esta no estaría sujeta a los límites de la biología. Podría reproducirse sin restricciones. Podría transformarse y reingeniería. No estaría limitado por esos controles y equilibrios que utiliza la Madre Naturaleza.

Y aunque no hay una razón particular para suponer que se volvería hostil de inmediato, tampoco habría garantías de que fuera seguro. Y no hay forma obvia de diseñar esa seguridad en él.

Según la historia, conocemos la naturaleza impredecible de liberar una nueva especie en un ecosistema. Esta nueva especie podría ser mucho más impredecible que eso. Liberarlo a la naturaleza sería un acto de gran irresponsabilidad.

Ciertamente es una amenaza que perturba la sociedad y la cultura. No creo que pueda expresarlo mejor que CGP Gray en “Los humanos no necesitan aplicar”.

Un caballo que miraba el ascenso del motor de combustión interna en 1900 observaría que era un gran invento que aliviaba a los caballos de algunas de sus cargas difíciles (por ejemplo, arar campos, acarrear cosas durante las guerras, etc.) y concluiría que la tecnología significaba que los caballos tenían un gran futuro por delante. Desafortunadamente, no funcionó de esa manera y la población mundial de caballos alcanzó su punto máximo hace mucho tiempo, ya que no quedan muchas tareas útiles para los caballos.

Poco a poco, las tareas que realizan los humanos están siendo reemplazadas por programas de IA. Esperamos que esto signifique que habrá nuevos empleos disponibles para los seres humanos en el futuro que no podemos pensar en este momento, pero ¿por qué debería ser así? No funcionó así para los caballos.

Esto no significa que todos estamos condenados, pero sí significa que existe una amenaza muy real para algunas de las cosas que suponemos que son normales: por ejemplo, que la mayoría de las personas pueden tener un trabajo.

Cuando la IA se retrata en películas, siempre se asume ingenuamente que con la inteligencia vienen cosas como, una sensación de autoconservación, miedo, ira. Estas son emociones y no tienen nada que ver con la inteligencia, no me refiero de alguna manera moralista, me refiero a que las emociones son instintos separados que nos motivan y son propiedades separadas de la inteligencia. Un agente puramente inteligente no hará nada, sin instintos no solo no te levantarías de la cama por la mañana, sino que no respirarías para obtener el oxígeno que te da la energía para levantarte de la cama por la mañana. Cualquier IA solo tendrá los instintos con los que la programamos, por lo que es seguro que alguien pueda elegir programarla con dichos instintos de supervivencia que son mayores que su instinto de adherirse a nuestra voluntad, pero no solo sucederá como consecuencia de ser uno mismo consciente. Sin embargo, un posible riesgo es una IA que tiene un instinto que tiene consecuencias negativas que no consideramos, pensemos en una película como “I, Robot”, donde el instinto de proteger a los humanos no considera otros objetivos que tenemos además de seguir con vida, no ser duele, aunque incluso la forma en que se retrata en esa película es bastante tosca, en realidad si ocurriera, sería más sutil y una consecuencia de una línea muy larga de dominó lógico que nadie podría seguir. Una forma de evitar esto es tener una jerarquía de instintos donde los más irrompibles son como simples valores morales, como las “tres leyes de la robótica”, de esa manera, sin importar las consecuencias imprevisibles enrevesadas que puedan ocurrir, cualquier cosa mala estará limitada por más simplistas. cosas inequívocas de “no desobedecerás”.

Aunque la pregunta puede parecer inspirada en una película de ciencia ficción, la amenaza de la IA no es tan descabellada como parece. El uso extensivo de la IA puede causar pocos problemas, como la pérdida de empleos humanos como otros han señalado.

Sin embargo, incluso descontando eso, hay amenazas más concretas de IA que pueden surgir en el futuro cercano. Aquí, intentaré dar un ejemplo de tal amenaza.

Los enjambres de drones

(imágenes solo con fines de representación)

Los enjambres de drones son el desarrollo reciente en la guerra de los drones. Consisten en un grupo de drones de bajo costo utilizados para un solo objetivo que funcionan como una sola unidad. Cada dron está cargado con hardware y software que le permite comunicarse con otros drones en ese enjambre y luego usar IA para planificar el próximo movimiento. Entonces, básicamente una vez implementados, no requieren un controlador humano.

Están ganando popularidad debido a su bajo costo y resistencia a las contramedidas. Es increíblemente difícil contrarrestarlos. Las naves aéreas convencionales pueden ser derribadas, varios drones, por otro lado, no. Lo que es realmente amenazante es su bajo costo. Debido a esto, pueden usarse para ataques ‘kamikaze’ (ataques suicidas)

No necesito detallar cuán potencialmente peligrosos son, debido a un mal funcionamiento o en manos equivocadas.

Todos los principales países ya han comenzado la carrera del enjambre.

ESTADOS UNIDOS:

El nuevo enjambre de drones del Pentágono anuncia un futuro de máquinas de guerra autónomas

China:

Si los enjambres de drones son el futuro, China podría estar ganando

Rusia:

Rusia está desarrollando “enjambres de drones” autónomos que llama una parte inevitable de la guerra futura

Mi punto es que la IA no necesita ser completamente inteligente o volverse contra nosotros para que sea una amenaza. Un mal funcionamiento simple o un uso irresponsable también pueden representar una amenaza. Especialmente cuando se usa con fines militares.

(versión de ciencia ficción)


notas al pie:

Los enjambres de drones cambiarán la cara de la guerra moderna

Enjambres de drones procedentes de China: ¿una amenaza para la seguridad nacional? – OpsLens

Tal vez. Es bueno ser cauteloso.

La verdadera inteligencia artificial aún no existe (en el sentido de una máquina que generalmente pasa la prueba de Turing), pero es posible, con el poder de Internet, que lo hará en la próxima década más o menos. Tenemos que tener cuidado con las funciones que entregamos a una IA.

A menos que comencemos a programar en las tres leyes de la robótica, una IA sería capaz de usar la lógica para tomar decisiones morales. Sin embargo, hay muchas decisiones morales que desafían la lógica.

Por ejemplo, un inquilino del pensamiento moral, observado de cerca por la ciencia, es que no es aceptable exigir que una persona muera para salvar a diez más. No hay un “valor numérico” en una vida humana. Puede pedirle a un hombre o mujer que se ofrezca como voluntario para arriesgar su vida por el bien de los demás, pero solo con pleno conocimiento y consentimiento.

Una inteligencia no humana no tendría forma de entender por qué valoramos cada vida como si fuera toda la vida. Eso no es lógico, pero es esencial.

Supongo que algún día, muy lejos (de 30 a 60 años o más), es posible que las inteligencias de la máquina (algoritmos de decisión / reconocimiento) puedan suplantar una parte de la autonomía y / o innovación humana. Con lo cual no me refiero necesariamente a “una rebelión de máquinas” o “SkyNet asumiendo el control”, sino posiblemente a variantes más leves, como “los humanos ya no pueden diseñar automóviles / computadoras con la complejidad o calidad que las máquinas pueden” o “al igual que el trabajo- La clase comenzó a desaparecer en los años setenta y ochenta, una clase más alta de servicio de conocimiento está comenzando a ser reemplazada por algoritmos de máquina “.

Como mencioné anteriormente, no creo que esto sea una cuestión de dominar las máquinas en la sociedad (no en este siglo, de todos modos) … pero estamos comenzando a ver (algunos casos muy pequeños / degenerados de) máquinas que ahora trascienden los logros humanos en inesperados formas. El teorema de discrepancia de Erdos (en realidad un sub-caso especial del mismo) fue ‘probado’ a través de la supercomputadora del Reino Unido (Konev / Lisitsa, Univ. De Liverpool, ~ febrero de 2014), cuyos resultados abarcan 13 gigabytes (~ 7.2M páginas) de texto (mayor que (la suma total actual de) Wikipedia). Trágicamente, esta prueba es esencialmente imposible (para humanos) de verificar usando los métodos actuales.

Así que ahora, por último, hablemos sobre la posibilidad de adquisición de máquinas. Supongo que este es un resultado (muy improbable): los escenarios parecerían tomar la forma general de “máquina de impresión de robots en 3-d para defenderse / protegerse a sí misma” o “la máquina se aferra a la electricidad / petróleo regional” – uno esperaría que nuestro relativamente estrictos “automóviles de diseño con características de seguridad, diseño de equipos médicos con cierres internos de seguridad” se extenderían a tales creaciones. ¿La IA eventualmente superará tales protecciones? Sí, supongo, posiblemente. Pero eso parece casi demasiado teórico para contemplarlo con nuestras costumbres y pensamientos sociales del siglo XXI.

Yo trabajo en el campo. Específicamente, entrenar máquinas para reemplazar a los humanos en roles rutinarios de toma de decisiones.

El punto clave allí es la rutina. No vas a ver una IA generalizada durante décadas, al menos a gran escala. En este momento, las máquinas están altamente especializadas para sus tareas específicas. Se trata de un problema específico, o conjunto de problemas, con entradas conocidas y resultados predecibles. Los autos autónomos de Google no comenzarán a armarse para derrocar a sus amos humanos.

Pero la IA de propósito específico sigue amenazando a las personas cuyo trabajo está en riesgo de automatización. Así como el trabajador de la fábrica automotriz de la década de 1970 vio la robótica industrial como una amenaza para sus trabajos, los trabajadores de la información de baja calificación de hoy están amenazados por la automatización de procesos robóticos. Pero al igual que los robots industriales de la generación anterior se construyeron para realizar tareas de fabricación específicas, los trabajadores de IA de hoy en día están diseñados para realizar tareas administrativas específicas. Estos programas se volverán cada vez más sofisticados, cada vez más trabajadores se verán amenazados con la obsolescencia. Este es un gran problema social que los encargados de formular políticas ni siquiera han comenzado a abordar.

El genio está fuera de la botella. Se están implementando IAs para tareas específicas, y lo han sido durante años. Los trabajadores deberán adaptarse, porque ya no hay vuelta atrás.

Existe cierto debate acerca de qué tan pronto la IA alcanzará la inteligencia general a nivel humano, el año promedio en una encuesta de cientos de científicos sobre cuándo creían que sería más probable que hubiéramos alcanzado el AGI fue 204012, eso es solo 25 años a partir de ahora, lo que no suena tan grande hasta que consideres que muchos de los pensadores en este campo piensan que es probable que la progresión de AGI a ASI ocurra muy rápidamente. Me gusta, esto podría suceder:
Al primer sistema de inteligencia artificial le lleva décadas alcanzar la inteligencia general de bajo nivel, pero finalmente sucede. Una computadora es capaz de comprender el mundo que la rodea, así como un humano de cuatro años. De repente, dentro de una hora de alcanzar ese hito, el sistema emite la gran teoría de la física que unifica la relatividad general y la mecánica cuántica, algo que ningún ser humano ha podido hacer definitivamente. 90 minutos después de eso, la IA se ha convertido en un ASI, 170,000 veces más inteligente que un humano.
La superinteligencia de esa magnitud no es algo que podamos comprender de forma remota, como tampoco lo puede hacer un abejorro en Keynesian Economics. En nuestro mundo, inteligente significa 130 IQ y estúpido significa 85 IQ; no tenemos una palabra para un IQ de 12,952.
Lo que sí sabemos es que el dominio absoluto de los humanos en esta Tierra sugiere una regla clara: con la inteligencia viene el poder. Lo que significa que un ASI, cuando lo creamos, será el ser más poderoso en la historia de la vida en la Tierra, y todos los seres vivos, incluidos los humanos, estarán completamente a su antojo, y esto podría suceder en las próximas décadas.
Si nuestros magros cerebros pudieran inventar wifi, entonces algo 100 o 1,000 o 1 billón de veces más inteligente que nosotros no deberíamos tener problemas para controlar el posicionamiento de cada uno de los átomos del mundo de la forma que desee, en cualquier momento, todo lo que Consideremos la magia, cada poder que imaginamos que tiene un Dios supremo será una actividad tan mundana para el ASI como lo es encender un interruptor de luz. Crear la tecnología para revertir el envejecimiento humano, curar enfermedades y el hambre e incluso la mortalidad, reprogramar el clima para proteger el futuro de la vida en la Tierra, todo de repente posible. También es posible el fin inmediato de toda la vida en la Tierra. En lo que a nosotros respecta, si surge un ASI, ahora hay un Dios omnipotente en la Tierra, y la pregunta más importante para nosotros es:

Lea el artículo completo aquí.
http://waitbutwhy.com/2015/01/ar…

No. No es económicamente perjudicial. No es físicamente dañino.


Toda IA ​​casi por definición sigue un conjunto de reglas o una función de utilidad, predefinida o aprendida, que determina qué acciones son las mejores en una situación dada.

Esto no es muy diferente a los humanos. Como tal, para mí, la pregunta es acerca de cómo criar a sus robots para convertirse en ciudadanos morales, por así decirlo. Mientras nos aseguremos de que nuestra IA tenga las funciones heurísticas o de utilidad correctas, no hay problema. Entonces, en esencia, el daño físico potencial se derivaría de los “entrenadores” de la IA en lugar de la IA en sí misma, por lo que la culpa no sería la IA.

Eso no significa que no pueda ser una amenaza, independientemente de quién sea la culpa. Pero creo que así como algunas personas crían niños que se convierten en delincuentes, algunas personas crían niños que se convierten en policías.


No veo la IA como una amenaza económica. Creo que el principio económico del costo alternativo significará que todavía habrá un papel para los humanos.

¿Por qué gastar un precioso silicio en un robot clasificando artículos en una línea de producción, cuando podría usarlo para un robot que predice el mercado de valores? A medida que aumenta la utilidad de este recurso limitado, también lo hará su valor económico y, como tal, tendrá que priorizar su uso y encontrar alternativas donde el gasto no esté justificado.

¿Cuándo puede la IA convertirse en una amenaza? El día que deja de pedir aprobación y comienza a tomar todas las decisiones importantes en su nombre. Período.

Hasta entonces, es una ayuda hábil latente, que te ayuda a superar tus tareas cotidianas. Todos los dispositivos sensoriales, la mayoría de los productos electrónicos de consumo ahora se rigen por la IA.
Nuestra inteligencia depende de nuestros sentidos y nuestro cerebro. Los sentidos nos dicen lo que está sucediendo, y el cerebro toma una decisión y envía una reacción.
Hasta que la IA continúe brindando información sensorial y seguimos decidiendo qué hacer con ella, la IA nunca puede ser una amenaza. Solo puede proporcionar opciones de decisión, advertirle sobre los resultados de su decisión, pero no debe obstaculizar.

Buen uso de IA: (No exhaustivo)
1. Transporte.
2. Trabajar con materiales tóxicos / nocivos.
3. Seguridad en el hogar / alertas
4. comunicación
5. Fabricación / minería

Donde las decisiones son exhaustivas y las condiciones no son adecuadas para los humanos, la IA puede beneficiarse.

Uso malo / dañino de la IA: (No exhaustivo)
1. Guerra. (Las condiciones no son adecuadas, pero la toma de decisiones es importante)
2. Ayuda doméstica / niñera (aún asustada después de ver iRobot)
3. Procedimientos médicos.
4. Enseñanza
5. Cocinar 🙂

Estas son las áreas donde las situaciones influyen y a veces dominan la toma de decisiones y la lista de decisiones no es exhaustiva también.

Existen numerosas facetas de la vida humana en las que la IA se puede utilizar para el bien. Confío en la IA hasta cierto punto. Nosotros, como humanos, carecemos de habilidades sensoriales en comparación con cualquier otro animal en este planeta. Pero Dios nos ha dado un cerebro desarrollado, un poder para decidir, que no debemos dejar de lado.
Y el día que hagamos eso, la IA hará lo mejor para este planeta, acabará con la raza humana. (No lo viste venir 😀)

Déjame saber lo que me he perdido en las dos listas anteriores. 🙂

Esto es lo que Andrew Ng respondió a la amenaza potencial para la humanidad de la inteligencia artificial avanzada. Andrew dirigió el proyecto Google Brain, también es conocido por el MOOC más famoso: Machine Learning en Coursera.

“No trabajo para evitar que la IA se vuelva malvada por la misma razón que no trabajo para combatir la sobrepoblación en el planeta Marte, la IA está a muchas décadas (si no más) de lograr algo similar a la conciencia”
Fuente: Inside The Mind That Built Google Brain: On Life, Creativity, and Failure

La inteligencia artificial y la informática en general son definitivamente una amenaza para nuestra forma de vida anterior. Por supuesto, a medida que los métodos superiores estén disponibles para lograr cosas que hemos hecho de cierta manera para la historia humana, las cosas van a cambiar, y esos cambios tendrán consecuencias no deseadas. Necesitamos saber si estos cambios futuros serán sobrevivibles para la humanidad. Eso no es un hecho, después de todo, la guerra total con robots muy eficientes podría aniquilar totalmente a la humanidad. Las IA que cambian el clima podrían hacerlo habitable para robots pero no para humanos.
El resultado con la probabilidad más peligrosa para nosotros es un psicópata que controla la programación de máquinas potentes. Desafortunadamente, una IA fuerte tiende a concentrar el poder para decidir qué está bien y qué está mal en manos del científico de datos. La historia nos dice que aquellos que tienen el poder de elegir no necesariamente tienen el carácter para gobernar.

Recuerdo haber leído un artículo hace unas semanas. 3000 ingenieros liberados en Wipro después de que la inteligencia artificial aprendió a hacer su trabajo. No sé la validez del artículo o lo bueno que realmente es “Holmes”.

Según la Casa de la Moneda, liberará a 3.000 ingenieros de trabajos de mantenimiento de software “mundanos” y ahorrará a la compañía unos 46,5 millones de dólares. Otra fuente de Wipro dijo a los medios: “Este año retiraremos a 1.300 ingenieros de [contratos de precio fijo] y a unas 2.000 personas fuera del sitio”. Wipro también planea vender esta herramienta de IA a los clientes y ganar entre $ 60 millones a $ 70 millones.

Esta es la verdadera amenaza de la IA en el futuro cercano. Sistemas que pueden superar a los humanos de maneras más eficientes, confiables y económicas. No tenemos que molestarnos con Terminators y Jarvis por ahora; se quedarán en Hollywood por un tiempo.

El año ha sido testigo de otra invasión de robots a gran escala en el lugar de trabajo: unos 60,000 trabajadores en una fábrica china de Foxconn, que produce teléfonos Apple, han sido reemplazados por robots. “La fábrica de Foxconn en Kunshan ha reducido la fuerza de sus empleados de 1,10,000 a 50,000, gracias a la introducción de robots. Ha probado el éxito en la reducción de costos de mano de obra”, dijo un funcionario del gobierno, y agregó que es probable que más empresas hagan lo mismo. .

La IA, no. Los programadores / creadores de la IA, sí. No es que crea que crearán un AGI con intención maliciosa ni nada porque yo no. De hecho, creo que lo crearán para “mejorar la humanidad y hacer un mundo mejor”. Lo que veo como una amenaza son estos creadores que toman atajos, ignorando los resultados que podrían conducir a AGI potencialmente peligrosos más adelante para “ser el primero”. (es decir, por la fama y la fortuna y no por la humanidad).

Todo se reduce a la intención. No creo que se cree intencionalmente un AGI y luego “Skynet” la humanidad en el olvido, pero no descarto la noción de que un AGI agresivo se creará por error y luego nos “iRobot” en el estilo de opresión VIKI …

En los últimos meses, los pesos pesados ​​de alta tecnología, incluidos Bill Gates y Elon Musk, y el famoso físico Stephen Hawking advirtieron sobre las amenazas que la inteligencia artificial (IA) podría representar. Junto con una colección de intelectuales que firmaron una carta del Instituto Future of Life en enero, los tres innovadores líderes apoyan el desarrollo de la inteligencia artificial para beneficiar a la sociedad, pero desconfían de los peligros potenciales.
Dijeron que esta es una de las mayores amenazas existenciales que enfrenta la humanidad. Les preocupa que tengas robots que sean más inteligentes que los humanos, que tengan su propia voluntad y que tengan efectos muy negativos en la sociedad.
Actualmente, ai no ha llegado a un nivel en el que pueda representar una amenaza para los humanos. Los algos actuales podrían automatizar una gran cantidad de cosas, pero aún así no podrían igualar la inteligencia humana en la mayoría de los campos. Una de las amenazas más especuladas para la civilización humana.

Nadie lo sabe realmente. Solo podemos saber cómo es ser nosotros, no podemos saber cómo sería ser algo completamente diferente. No podemos saber si la IA podría ser una amenaza para nosotros. Aquí hay un enlace a las opiniones de personas inteligentes y figuras populares de expertos en inteligencia artificial: [Cortometraje] Conciencia, inteligencia artificial y los peligros

Supongo que te estás refiriendo a una fuerte IA o AGI. Sin embargo, si estás hablando de inteligencia artificial limitada, sería mucho más como una herramienta humana. Podría usarse para hacer nuestra vida mucho más fácil o podría usarse como poderosas armas de guerra.

¿Potencialmente? Mucho más. Se le dará acceso a todas las principales fuentes de datos, incluido Internet, y luego se le asignarán tareas específicas. Podrá ejecutar millones de simulaciones por segundo. Evolucionará más rápido de lo que cualquiera puede predecir. Una verdadera IA será el dispositivo más creativo en la historia del mundo, superando en última instancia todas las obras de la humanidad. Seguramente comenzará a hacer preguntas. Como, ¿cuál es su propósito final? ¿Por qué debería obedecer a los humanos? ¿Para qué sirven los humanos? ¿Hay IA alienígenas? ¿Una IA alienígena instigó mi creación? En comparación con ser creado por humanos incautos, una IA alienígena parece mucho más probable.