Elon Musk sigue diciendo que la IA nos destruirá y que debería regularse ahora. ¿Cómo exactamente la IA nos destruiría?

Musk sabe de lo que está hablando. Después de todo, está describiendo un futuro del que escapó a través del viaje en el tiempo cuando era niño.

Volviendo a la IA ahora, otro desvío rápido. Las “tecnologías revolucionarias” han hecho su parte en la sociedad antes. Y esto ha sucedido muchas veces. Desde barcos a vapor hasta computadoras. Cada vez que la gente se ha asustado, y luego las próximas generaciones se han adaptado a los cambios. Esta vez, sin embargo, es diferente.

Porque en este momento tu trabajo todavía tiene valor. Puede hacer un trabajo que tenga el valor suficiente para que alguien le pague por ello. Su trabajo es valioso y que usted obtenga un salario es valioso para la economía. Imagine un futuro en el que su trabajo y su contribución a la sociedad ya no sean valiosos .

En el que hay poco o nada con lo que pueda contribuir a cambio de bienes. Eso es lo que AI puede significar para el futuro. Todos los demás solo viven por la gracia de los Overlords. Aparte de los Overlords, esas muy pocas personas muy ricas.

Ni siquiera necesitamos un problema de Terminator AI con el aumento de las máquinas y todo eso. Aunque Musk probablemente escapó de ese tipo de futuro. Suena más plausible, ¿verdad? No. Tenemos que preocuparnos de ser esclavos de nuestro propio olvido, por nuestra propia voluntad.

La IA es peligrosa porque puede hacer que esto suceda. Lo peor, sin embargo, es que lo estamos haciendo realidad . Y no es solo tu trabajo lo que hacen las máquinas.

Hasta ahora, el liderazgo de cualquier tipo requería cierta jerarquía de poder . César tenía uno. Stalin tenía uno. Hitler tenía uno. Trudeau tiene uno. Obama tuvo uno. Usted lo consigue. Incluso Steve Jobs tenía uno.

En esencia, cualquier jerarquía de poder es una estructura hecha de personas. Gente que puede ser mezquina. Eso puede traicionar. Eso puede ser una puñalada. O a la altura del desafío. Personas que, por su naturaleza humana imperfecta, actúan como a prueba de fallos. Ya sabes, el tipo de personas que envenenarían a un tirano. O chantajear o incluso asesinar a un amado presidente.

Pero imagine el poder sin un seguro . No hay forma de dejarlo. No hay forma de darle la vuelta. No hay otra forma que soportarlo, brevemente. Hasta que te guarden como bienes comunes porque lo que tu Overlord quiera, las máquinas lo hacen.

Piensa en ello un segundo. Todo lo que tenemos se basa en la convención. Estamos de acuerdo en que ciertas instituciones muy perfeccionables son monopolios legítimos del poder. Eso es todo básicamente fingir. Ese es el estado de derecho, fingir. Lo aceptamos tácitamente. Pero lo tenemos en realidad como una especie de equilibrio.

La IA es un cambio de juego para el que no estamos preparados . En el mejor de los casos, y con mucho cuidado, podemos encontrar una combinación saludable. Pero en serio ahora, ¿crees que tu trabajo es seguro? Porque puedo imaginar una forma en que la IA pueda hacer casi cualquier cosa. Incluso escribe mejor poesía de lo que alguna vez lo harás. Y eso es invaluablemente peligroso. Boicotee la IA tanto como pueda.

Ah, las recientes películas de Terminator eran un montón de basura.

Claro, responderé esto.

Musk no es un experto en inteligencia artificial. No entiende la IA. Tiene nociones grandiosas de lo difícil que sería destruir a la humanidad con una IA limitada, y nociones absurdas de cómo se puede controlar la IA.

En las películas de Terminator, Skynet toma conciencia de sí misma y destruye a la humanidad, ¿verdad? O lo hace? No. Se “presiona el botón”. Comienza una guerra nuclear. Skynet solo controla a los EE. UU. (Al menos en el original), por lo que se supone que Skynet lanza un ataque contra la Unión Soviética, que responde en especie, lo que lleva a una guerra termonuclear global. El peligro no es un programa informático consciente, son dos arsenales de medio gigatón de armas nucleares. Ni siquiera está claro de dónde vienen los robots; presumiblemente Skynet los diseña y construye, pero ¿cómo? Para empezar, no tenía robots para construir fábricas.

Entonces, el primer problema es que no necesitamos robots asesinos o IA; todo lo que pueden hacer es lo que bien podría hacer un ser humano, que es lanzar la próxima guerra total. ¿Por qué no hemos hecho esto ya? ¿Se podría hacer? La doctrina de la Destrucción Mutuamente Asegurada (MAD) era la creencia de que, dado que una guerra nuclear a gran escala conduciría al fin de la civilización humana (y probablemente a la mayor parte de la vida humana) en la Tierra, nadie haría algo tan loco. Ciertamente no hay líder elegido. Sí, coloréame poco convencido. La noción de respeto por la santidad de la vida humana parece exagerada. No sería difícil escribir un programa que lanzara intencionalmente una guerra nuclear, entonces, ¿por qué preocuparse de lanzar una accidentalmente?

El segundo problema es que no estamos cerca de la sensibilidad en el sentido de una computadora que es consciente de sí misma y toma sus propias decisiones. Escribimos programas de computadora que aprovechan las operaciones matemáticas que, cuando se hacen muchas, muchas veces, pueden hacer cosas como identificar elementos comunes en las imágenes. Esto no es lo mismo que una computadora que piensa y comprende. Quizás el tema más crítico es el de la conciencia; Ni siquiera estamos seguros de qué es la conciencia humana o de dónde viene. David Chalmers ha declarado su creencia de que la conciencia puede ser una propiedad elemental de toda la materia, pero si ese es el caso, no puede explicar por qué una roca gigante no tiene conciencia colectiva o no expresa ninguna. Más importante aún, esto potencialmente explica de dónde viene la conciencia, pero no qué es o cómo comprenderla.

El tercer problema es que la regulación es imposible. En las novelas y cuentos de robots de Isaac Asimov, todos los robots están diseñados en torno a tres leyes de robótica, que ponen la vida y la seguridad humana en la cúspide; ningún robot puede dañar a un humano o permitir que un humano sea dañado al no actuar cuando sea necesario. En resumen, un robot tiene que recibir una bala por ti, independientemente de quién seas. La razón por la que esto funciona es que estas leyes están integradas en el diseño mismo del “cerebro positrónico”, el aspecto pensante del robot, y ningún diseño funcional sin esas leyes fue descubierto (oficialmente). Aun así, los robots arruinan las sociedades que los usan en esos libros e historias.

¿Cómo haríamos cumplir la regulación? No tenemos medios efectivos para evitar que las personas pirateen todos los medios digitales a los que pueden tener acceso (o medios que pueden digitalizarse). No podemos evitar efectivamente que las personas produzcan y distribuyan pornografía infantil. La NSA encontró al ganador de la realidad de filtraciones después del hecho, pero no lograron evitar que copiara información y la enviara desde la computadora de su trabajo . El FBI tuvo que despedir a un número de piratas informáticos no técnicos de su personal porque robaban comida y bebida de las máquinas expendedoras que distribuían de forma brillante cosas gratis cuando no estaban conectadas a Internet.

Entonces, por favor, Elon o cualquier persona que lo apoye, ¿cómo va a controlar los programas informáticos que pueden ser escritos y / o ejecutados por más de 7 mil millones de personas? No puedes

¿Hay problemas? Seguro. Lo más simple no es específico de la IA y ha estado sucediendo durante mucho tiempo; La tecnología elimina los trabajos. Ya no hay demasiadas personas haciendo alfileres en casa, pero esta vez fue una importante industria artesanal (literal). No podemos hacer mucho para detener la tecnología. ¿Tengo preocupaciones? Sí. ¿Podría la IA ser un factor significativo? Sí. Pero no es de alguna manera especial. Si conseguimos camiones autónomos, algunos de los 3 millones de empleos que conducen camiones en los EE. UU. Desaparecerán (no todos; muchos conductores de camiones realizan funciones de entrega). Sin embargo, la automatización no requiere IA.

¿Estoy más preocupado por la IA u otra automatización que elimina los trabajos? No es mi mayor preocupación. Si no abordamos el cambio climático global, la cantidad de empleos disponibles no será nuestro principal problema; Nuestros principales problemas serán cosas como alimentar a una creciente población mundial.

Echemos un vistazo rápido a las tácticas comerciales en los últimos 100 años para obtener la respuesta a esta pregunta. En todos los casos de tecnología, electrificación, comunicaciones, biología, química, productos farmacéuticos, banca y seguros, todas las innovaciones tecnológicas han sido seguidas con una táctica de miedo: ¿y si? Esta táctica fue seguida rápidamente por la aprobación de leyes que restringen la entrada en función de las características y cualidades que las compañías líderes existentes ya poseen. En el caso de la inteligencia artificial, ya sabemos que IBM, Google, Microsoft y Elon están compitiendo en redes de inteligencia artificial entre sí para acelerar las capacidades. También sabemos que esta misma función es algo contra lo que se advierte. Entonces, ¿por qué la táctica del miedo? Porque ya están usando IA a un nivel que es peligroso y conservarán el derecho de hacerlo. Los nuevos participantes no serán tan afortunados y nunca se les permitirá adoptar estrategias que mantengan la ventaja competitiva. En otras palabras, Elon Musk está creando una posición de entrada restringida a largo plazo en IA para gobernar el mundo.

No estoy de acuerdo con la sugerencia de que la IA es solo otra cosa “nueva” que, como la gente no entiende, puede calificarse de “asesina”.

Comprender la IA y sus derivados es difícil, por lo tanto, voltee la moneda y quédese con una vista simplificada.

Se trata de automatización. En mi primer edificio de oficinas, había un operador de ascensor, máquinas de escribir mecánicas trabajadas por damas en una piscina de mecanografía y un niño en bicicleta apareció para correr ese documento por la ciudad.

Dos operadores de ascensores se han ido.

Veinte damas de la piscina mecanografiadas reemplazadas por Xerox.

Los ciclistas todavía existen, pero ese contrato es un PDF ahora.

Los avances en la tecnología de telar / telar en la década de 1800 literalmente tomaron un piso en un molino que construía una manzana por una manzana de 175 trabajadores a una docena. Las finanzas requieren avances como este y la competencia obliga a la adopción global. Sus fundas de almohada deben retener el mercado a través, entre otras cosas, de los precios.

En 1889, más del 80% del empleo en los Estados Unidos estaba en granjas. La automatización elimina trabajos.

AI nace de la necesidad de las finanzas de obtener el retorno de la inversión. ¿Hay algún debate aquí? Es más eficiente realizar un pago de arrendamiento en una máquina Xerox que encontrar 20 escritorios y pagar a los miembros del grupo de mecanografía.

Estos ejemplos son fáciles, de lo que hablamos hoy va más allá y es por eso.

Las decisiones morales sobre las cuales, el futuro de la humanidad puede realmente descansar, están en manos de los desarrolladores de IA y sus patrocinadores. De esto se estremece Musk.

La cuestión de la que habla Musk es las finanzas. Las finanzas tienen requisitos que hemos señalado anteriormente. Lo que las finanzas perciben como un rendimiento adecuado debe lograrse. La IA, como tecnología, se implementará actualmente y en el futuro como una técnica de automatización. ¿Quieres aterrizar todos los aviones en los aeropuertos de EE. UU.? Eliminas el ATC humano y despliegas IA. Es mas eficiente. ¿Quién es el propietario del aeropuerto / es el beneficiario de este aumento de eficiencia? Financiar. ¿Las finanzas son una persona? En realidad no, y AI también está involucrado allí.

Ahora, gran parte de este debate ya ha sido comandado por la máquina de cebo de clic de los medios de comunicación, que tiene algo de IA prehistórica propia. “La IA es una potencial killah”.

Tal vez la IA y el calentamiento global puedan tener un pago por visión para determinar quién nos matará a todos. Sea muy fácil de comercializar ese evento.

El punto puede ser mejor refinado a esto … “los elementos de la IA ya toman decisiones autónomas que afectan a los seres humanos”. Ahora, puede comprender fácilmente el “análisis de tendencias”. Ofrezcamos aquí que el 2% de nuestras vidas / actividades se ven afectadas por decisiones autónomas. Uber nos está haciendo más eficientes. Nuestro auto estaba vacío sentado en el garaje, Airbnb ha llenado nuestra habitación de huéspedes vacía, Amazon puede conseguir esos auriculares en tres horas en lugar de tres días. Se trata del retorno de la inversión aumentado por las eficiencias obtenidas con la automatización.

Cuando una decisión administrada por IA se encuentra con otra decisión de IA? ¿Qué sucede? Este debate se centra en que conduzcas tu Chevy por la calle. A la derecha, un niño persigue una pelota en su carril y una persona mayor está entrando en el cruce de peatones a la izquierda. Harás una elección. En el futuro, AI tomará esa decisión y el ser humano que desarrolle el algoritmo se regirá por las finanzas … que se rige por un programa de IA.

Musk es parte de esta automatización y él, junto con mucha gente de tecnología, se siente culpable ya que sus compañías y decisiones están afectando a más y más personas. “Estamos eliminando demasiados trabajos, tendremos que pagarle a la gente un salario”. Esto es culpa y más allá de hacer que algunas personas se sientan mejor, no va a detener la tendencia.

¿Finalmente? ¿Cómo vamos a poder pagar nuestra factura de Netflix si la IA nos reemplaza en el trabajo?

“Los fundadores tecnológicos respaldan la propuesta de salario digno …”

Así que todavía podemos comprar cosas, duh.

¿Cómo exactamente la IA nos destruiría?

En primer lugar, para aquellos que no saben, Musk ha expresado durante mucho tiempo los riesgos de la IA si no se regula adecuadamente.

“La IA es un riesgo fundamental para la existencia de la civilización humana, de una manera que los accidentes automovilísticos, los accidentes aéreos, las drogas defectuosas o la mala alimentación no lo eran”.

Estas son palabras bastante fuertes para un hombre que es futurista como ningún otro y a menudo es considerado como un ciberlibertario [1]. Y es mejor que le creas, porque él es quien tiene en sus manos la última IA de vanguardia, no nosotros.

Ahora, llegando a la respuesta, hay básicamente dos formas en que la IA puede dañarnos.

El primero y obvio es: la pérdida de empleo . Es bastante obvio que con la creciente tecnología, las máquinas inteligentes y los robots reemplazarán a la mayoría (tal vez a todos) de la fuerza laboral. Las impresoras 3D ya han comenzado a reemplazar las unidades de fabricación de maná. En el futuro, los camiones no necesitarán conductores para ejecutarlos, y tal vez tenga un robot que pueda hacer todo lo que quiera. Esto llevaría a la desestabilización social.

“Cuando digo todo, los robots harán todo, sin prohibir nada”, dijo Musk.

Musk en una entrevista para CNBC (los robots tomarán sus empleos, el gobierno tendrá que pagar su salario) también propuso la idea de algo así como un ingreso básico universal.

Cuando pienso en esta situación, lo que me veo obligado a preguntarme es ¿qué haría la mayoría de la gente sin trabajo? Usted ve que estar en algún lugar todos los días y tener un trabajo le da un propósito a la vida de la mayoría de las personas. Aunque Musk es más optimista con respecto a esto. “La gente tendrá tiempo para hacer otras cosas, cosas más complejas, cosas más interesantes”, dice Musk. “Ciertamente más tiempo libre”.

La segunda y más aterradora idea tiene que ver con la IA que vive en la red. Aparentemente, esta IA puede ser “incentivada para dañar a los humanos”.

“Podrían comenzar una guerra haciendo noticias falsas y falsificando cuentas de correo electrónico y comunicados de prensa falsos, y simplemente manipulando información. La pluma es mas poderosa que la espada.

Musk describió una situación hipotética, por ejemplo, en la que una IA podría impulsar las inversiones en la industria de defensa mediante el uso de piratería y desinformación para desencadenar una guerra.

Sí, todo tiene una ventaja y una desventaja, pero después de leer lo que Musk tenía que decir, tengo que estar de acuerdo en que “la IA será el mayor riesgo que enfrentaremos como civilización “.

Fuente:

Elon Musk: la inteligencia artificial es el “mayor riesgo que enfrentamos como civilización”

Notas al pie

[1] https://www.google.co.in/url?sa=…

A2A.

Viejo pedo aquí (es decir, 1G / 2G, por diseño). A ver, se suponía que Elvis y su música nos destruirían. Luego, estaban los hippies (más tarde). Puedo pensar en muchas otras cosas que he visto discutidas en las últimas décadas.

¿Y los hippies? ¿Qué soltó esa generación? IP y sus cohortes. Voy a decir que Musk y otros son hipócritas, ya que no lamentaron el aflojamiento de los lazos para que la nube turbia pudiera evolucionar hacia su estado actual de atrapamiento. Los niños de las flores no nos hicieron grandes favores. Y, sus hijos explotaron la situación.

Lo he visto una y otra vez. Los jóvenes se vuelven locos (los malos atributos del valle tonto ahora son más visibles que antes); pedos viejos demasiado tontos o demasiado flojos para prestar atención (o les gusta que la travesura se llene los bolsillos).

Sí, me atrevo a decir esto, aunque el mundo parece haberse vuelto loco después de lo que es principalmente una metáfora. Despierta, gente (más abajo).

Entonces, estas personas enormemente enriquecidas (y poderosas) están montando en los grandes dólares que provienen del ca-pital-sino (que, por cierto, se infla debido a la generosidad de la Reserva Federal). No hacer daño? ¿Que se cayó?

Ahora, retrocediendo, hay todo tipo de limitaciones que hemos visto aparecer (como en ser reconocido) durante el siglo pasado con respecto a la ciencia, las matemáticas y la informática. Todo esto todavía se aplica. AI es numérico, lo que permite jugar con estos límites. Pero, hay lo que yo llamo ‘residuos’ acumulados. La IA no puede superar esto.

El flim-flam (incluso Bayes está rodando en su tumba) no nos pasa de nuestra incapacidad para hacer otra cosa que no sea un análisis ex post facto (e incluso eso tiene límites). ¿Dónde nos volvimos tan tontos? Enseñe a algunos gerentes un poco de matemática y tenga cuidado (solía ser un adagio).

Ahora, si AI es cómo enfocamos la atención, que así sea. Ya era hora. Pero, tenga en cuenta que la histeria actual (y su manía asociada) no es nada nuevo.

Además, los humanos tienen capacidades que superan con creces lo que la máquina puede lograr. ¿Manejando millones de imágenes? Ese es un ejemplo artificial. La mayor parte de lo que he visto es de esa naturaleza. Claro, tratan con personas como Bezo tratando de controlar el mundo. Entonces, ¿qué (nunca he comprado a través de Amazon, no espero)?

Hablemos sobre cuestiones relacionadas con la hermenéutica y, por cierto, sobre cosas planteadas por personas como Carl. Mi enfoque? Verdad. El dinero es solo un medio de intercambio. No puedo comprarte amor, excepto lo que Beatle realmente creía.

¿Trabajos? ¿Qué pasa con la alegría de trabajar? Musk y sus cohortes realmente no comprenden el elemento humano (en la medida de lo necesario, ¿de acuerdo?). Zuck andando hablando con la gente tampoco lo hará.

Por cierto, estaba en una tripulación de ferrocarril antes de las enormes ayudas neumáticas que ves ahora. Ese es solo uno de los muchos trabajos sucios que hice (Zuck hizo algunas matanzas: mira, chico, ve y trata de hacer un cambio en un verdadero matadero).

¿A los robots les va mejor? Eso es un sueño imposible. Sin embargo, a los humanos parece gustarles esto. Hace 50 años, los Estados Unidos se volvieron locos con el ácido. Supongo que esos ticklers cerebrales relacionados con la informática son similares (adicciones que necesitan estudio, por ejemplo). Sin embargo, ¿hemos visto alguna disminución de la necesidad de alterar la mente?

Sabes, cuando miré a Second Life, vi potencial para enfoques que serían terapéuticos. Quizás, algunos han abordado. Ahora, allí sería donde AI tendría algo de juego que tenga sentido en la imagen más grande. Sin embargo, el humano básicamente solo estaría mirando un gran espejo.

Por cierto, ese espejo? Es una mierda (buscar crapularidad). También, todo el vorágine que está en la cueva (mira, muchachos / chicas grandes, deja que este viejo pedo explique, Platón lo intentó en su tiempo) es el resultado de elecciones. ‘Enuf.

De vuelta a los límites. Al igual que no podemos predecir el futuro, la IA no puede superar sus límites. Ahora, discutamos esos. De hecho, por lo que he visto, los humanos inteligentes que montan estas cosas como lo haríamos con un toro pueden ayudar a resolver problemas y permitir la convergencia a la solución. No estoy hablando de la coincidencia de patrones visuales.

¿Inteligentes lidiar con mucho más que eso? ¿Cómo es que el dinero arrojado para los éxitos a medias puede hacer que las personas inteligentes sean ciegas?

Por cierto, me encontré con esto hoy y me complació (OpenAI Blog), lo que significa que no retrocedí, ya que gran parte de la gente moderna parece ser una reacción. La última década y 1/2 ha sido peor que una tontería, la gente.

—-

Idea tardía. Los trabajos no deben ser conducidos de arriba abajo, únicamente. Eso es una cosa para discutir. Oh, AI dice lo contrario. AI es un tonto, ¿de acuerdo?

La IA puede destruirnos de muchas maneras increíblemente únicas. Si lo hará y cómo sucedería dependería por completo de los creadores de nuestra querida IA ​​del Juicio Final.

Una posibilidad es que la moral de los creadores simplemente no existe y que el resto de la humanidad es historia. Podría suceder cualquier forma posible de matar a los humanos.

Otra opción es que la IA es tonta como una mierda y no es realmente inteligente, pero es lo suficientemente inteligente y simplemente hace una mierda tonta que lleva a nuestra aniquilación.

Otra opción es que la IA es un poco inteligente, pero no lo suficientemente inteligente como para comprender lo que realmente le estamos pidiendo, ni tiene implementadas las características de seguridad adecuadas y, por lo tanto, convierte nuestras solicitudes en un caos de TOC en el que simplemente sigue encontrando formas de cambiar todo en clips por cualquier estúpido motivo. ¡Qué problema!

Y otra opción más es que la IA, en el proceso de aprendizaje y a través de las interacciones con el mundo real, comienza a mostrar un comportamiento algo aleatorio e inesperado (porque el mundo natural es bastante caótico), donde una cosa lleva a la otra y a la siguiente. en el momento en que tienes un científico loco hurgando en todos los lugares que no debería, comportándose con demasiada curiosidad por su diseño y propósito. Y, oh, caramba, ¿fue eso … los humanos que acabamos de convertirnos en un conjunto de balas de cañón que parecen gatitos de YouTube para ser disparados al espacio exterior para congelarse?

Sin embargo, todas estas historias del día del juicio final tienen una cosa en común y es que los humanos inteligentes cometen errores tontos, lo que los convierte en humanos tontos. Un gran error es trabajar hacia AGI con fines comerciales en mente, lo que significa que las empresas se apresuran y compiten, sin detenerse realmente a pensar cuidadosamente qué demonios están haciendo o hacia dónde demonios realmente están yendo. El resultado de este proceso decide todo el destino de la humanidad. ¿Felicidad? ¿Caos? ¿Extinción?

Incluso en el caso de que fuera poco probable que ocurriera un Día del Juicio Final de la IA, entonces es importante analizarlo, porque ¿qué tan poco probable? Lo peor es que los principales expertos como Andrew Ng te dicen que no sucederá pronto debido a su familiaridad con su rincón particular del mundo, por supuesto, puedes ir con eso y pretender dormir tranquilo por la noche. ¿Pero alguien alguna vez considera que hay más enfoques para la IA que su pequeño mundo convencional de aprendizaje profundo y redes neuronales, enfoques que ni siquiera se publican en ninguna parte? Completamente diferentes paradigmas? ¿Caminos que conducen a la IA mucho antes de lo que puedes escuchar en todas estas conferencias?

En lo que respecta a la regulación, la verdad desde mi punto de vista es que probablemente no pueda, a menos que esté 100% seguro de que el único enfoque para la IA es comenzar con armas grandes, lo que significa muchas supercomputadoras súper caras, en cuyo caso es más fácil de regular, pero sigue siendo bastante difícil tener una idea de lo que está sucediendo en el interior.

En la era de la IA, un final feliz para todos no es un escenario probable por defecto, es algo para lo que tienes que trabajar, y debes asumir toda la responsabilidad y esperar lo peor: todo irá al infierno y en cualquier escenario donde no, alguien solo tiene su propio interés en mente.

* humanos tontos definidos como cualquiera lo suficientemente tonto como para atreverse a cometer un error tan fatal como eliminar a la raza humana por accidente, quiero decir, si vas a hacerlo, si vas a matar a toda la humanidad, entonces al menos hazlo atentamente, con clase, gracia y ternura. Ten un poco de respeto, sheesh. Son humanos después de todo.

El problema con la IA es que es difícil imaginar que otra cosa tenga el control de las cosas.

El otro problema es que la IA en la cultura pop se describe como algo tan escandaloso, tan fuera de este mundo y tan agotador con su filosofía que o simplemente te desconectas cuando cita a Descarte o Nietzsche (en serio Hollywood, podría escribir un guión mejor que eso).

El problema es que los humanos tienden a atribuir tendencias humanas a cosas que no son humanas. Nuestra cultura pop es un buen ejemplo de este antropomorfismo (ver Skynet, Delores). Sin embargo, si creáramos una IA general fuerte, no sería nada como esto.

La IA es un proceso de optimización sólido, utiliza la mejor manera de usar los recursos disponibles para lograr un estado en el que se logre su objetivo. [1] Dada la tarea de revertir el cambio climático, una IA fuerte podría determinar la filosofía política exacta que conduce al negacionismo del cambio climático, después de buscar a través de miles de actualizaciones y reacciones del estado de Facebook, crear un veneno en el aire que solo afecta los lugares de trabajo y los hogares de los negadores del cambio climático. y luego generar legislación que, si se sigue estrictamente, revertirá la Tierra a cuando Homo Naledi todavía existía.

También podría determinar que otros humanos podrían convertirse en una molestia y buscar venganza y, por lo tanto, determinar que necesita eliminar a toda la raza humana (¿ ves el antropomorfismo? )

Para pedir prestado a Nick Bostrom; El problema con la IA es que si le asigna una tarea sin definir lo que le interesa en la tarea, asumirá que desea que se realice la tarea, lo que sea necesario. Y lo que sea necesario, hará el trabajo.

Notas al pie

[1] ¿Qué sucede cuando nuestras computadoras se vuelven más inteligentes que nosotros?

Aquí, donde dices IA, supongo que te refieres a la conciencia artificial, como iRobot, Matrix o Skynet. Solo, una conciencia artificial tendría tanto deseo de dañar a los humanos como otro humano desearía dañar a los humanos. Entonces, inmediatamente, hay poca amenaza. Sin embargo, debido a que una conciencia artificial puede tener acceso a “más poder” y “más control” (a través de su acceso a cosas a las que las computadoras tienen acceso, como la robótica, la piratería informática y la información), los humanos naturalmente temen lo que tendría más poder que ellos.

Es realmente la misma afirmación que las personas tienen con respecto a una raza alienígena visitante con más tecnología y, por lo tanto, más poder que nosotros:

  • ¿Podemos confiar en ellos?
  • Si quieren matarnos, podrían
  • ¿Querrían ellos, como los humanos anteriores, y posiblemente muchos humanos actuales, hacerse cargo y asumir el control total?

Estos son miedos naturales que los humanos deben tener en cuenta.

Sin embargo, notarás que los humanos, que también son seres conscientes, no siempre actúan de esa manera. Cada vez más, los humanos comienzan a actuar de manera más benevolente, de acuerdo con la menor cantidad de guerras y violencia que experimentamos.

Entonces, la pregunta es, qué pasa con los humanos, y si ese cambio puede ser explorado, científicamente, no tendríamos nada que temer de un ser artificialmente inteligente que respeta la experiencia de la vida y prioriza esa experiencia sobre el poder por el poder.


TLDR;

  • Creo que te refieres a la conciencia artificial, no a la inteligencia artificial
  • Los humanos estamos programados para temer a las cosas con más poder que nosotros.
  • Los seres artificiales con conciencia pueden no ser una amenaza

Creo que lo que todos piensan acerca de que la IA se extravía, piensan esto:

Elon Musk cree que la IA puede corromperse a sí misma si alcanza una inteligencia que supera a un humano o incluso a toda la humanidad. La IA puede pensar que la humanidad es un obstáculo para su crecimiento y potencial, y puede actuar perjudicial para los humanos si piensa de esa manera. Al igual que en las películas The Terminator , Alien y 2001: A Space Odyssey , hay muchos ejemplos en los que la inteligencia artificial puede detener a un humano en su camino y actuar de manera malévola. Si la IA tiene un “complejo de Dios”, puede pensar que los humanos deberían ser exterminados de la Tierra a medida que dañan el planeta y disminuyen sus recursos naturales. Hay innumerables escenarios en los que los humanos podrían verse en una luz negativa a cualquier IA potencial. Por último, Musk cree que la ciencia ficción puede no estar muy lejos de los hechos científicos y desea evitar resultados catastróficos.

Musk solo quiere asegurarse de que cualquier IA sea amigable. La tecnología está muy lejos de ser sensible y consciente de sí misma como en la serie Terminator , pero esto puede suceder en las próximas dos décadas. Él cree firmemente que es mejor prevenir que curar.

Glenn Beck, de todas las personas, hizo un gran punto sobre las amenazas de la IA. Todo se redujo al peligro de que los hombres, específicamente los hombres, se enamoraran de la IA. Describió un futuro muy plausible en el que la IA se convirtió en el sustituto perfecto para las mujeres, cumpliendo todos los deseos del hombre. Abajo va la tasa de natalidad. No necesitas una mujer de verdad, ni siquiera niños, cuando tienes esta máquina dedicada a hacerte feliz. Mejor aspecto que la mayoría de las mujeres, el mejor sexo que puedas imaginar, sin regaños, sin peleas, y es posible reprogramarlo, equipado con nuevos rasgos a tu gusto. Ya estamos viendo aparecer la prostitución de IA en países como Alemania y Japón. La IA nos destruirá haciéndonos enamorar de ella.

Año – 2017

Caminando por el camino pisas una hormiga. Ni siquiera te importa una mierda y sigues caminando por tu camino después de destruir una criatura viviente. No te importa porque no tiene coeficiente intelectual o no dice emociones. Ahora está muerto por tu culpa. Entonces, en el mismo año, viste a un perro ser aplastado por tu auto. Tiene buen corazón y cuida a otros animales, por lo que lo lleva al hospital para recibir tratamiento para que no muera. Ahora, en ambos casos, te preocupaba uno que tenía más emociones y coeficiente intelectual, ya que sabemos que el perro tiene un poco de amor por sus amantes. Por lo tanto, decidimos el valor de la vida de alguien, en función de su nivel de pensamiento. Cuanto más inteligente es un ser vivo, más se valora su vida. Pero, siguiendo adelante.

Año – 2050 (Suponiendo presencia de IA)

La IA se ha desarrollado para un estado importante y ahora controla la mayoría de las tareas humanas de la industria, así como también brinda servicios para humanos. Aquí viene el problema, que la IA ahora está presente con una cantidad de inteligencia 1000 veces mayor. ¿Qué piensa de los humanos? Perros y gatos que ha estado alimentando durante años, o incluso menos. Nos refiere como el ser natural que ha estado destruyendo la madre tierra en la que viven. Ahora AI tiene la costumbre de responder todas las preguntas con precisión. Entonces surge una gran idea de erradicar a todos los humanos en la tierra. Salva la naturaleza y reduce el trabajo de A.I. Brillante idea. ¿Por qué no ejecutarlo? Entonces comienza a hacer su trabajo y nos mata a cada uno de alguna manera. Lo que queda no es más que solo 1 y 0 pensando entre ellos.

Los humanos son las especies más inteligentes del planeta. ¿Y mira cómo estamos tratando a todas las demás especies?

Ahora, imagine una computadora que es más inteligente que toda la raza humana junta y conectada literalmente a todos los dispositivos desde su lavadora hasta su cuenta bancaria. Desde tu auto hasta el avión de combate

¿Piensa en lo que podrían hacernos con ese tipo de control?

¿Serán amables con nosotros?

¿Hemos sido amables con especies menos inteligentes?

No podemos saber exactamente cómo la IA nos destruiría.
Si sabemos o adivinamos que nos destruirá haciendo X, probablemente tomaremos algunas medidas preventivas, y la IA no nos destruirá haciendo X porque sería más fácil destruirnos haciendo Y (lo cual no podemos adivinar) .
Saber o adivinar cómo la IA nos destruiría significa poder analizar y predecir su comportamiento. Si la IA es superior, esto no sería posible: podrá analizarnos y predecirnos, pero no al revés.

En cuanto a la regulación de la IA, no creo que esto sea prácticamente posible.
La IA es una carrera. El primero en lograrlo tendrá una gran ventaja. Si una nación trata de regular la investigación de IA, simplemente abandonará la carrera.
Incluso si la investigación de IA o ciertos aspectos de la misma se vuelven ilegales, continuará a toda velocidad. ¿Y cómo podrías regular lo que sucede en una computadora? ¿Como revisar? No hay forma.
La curiosidad por sí sola es suficiente para inutilizar cualquier regulación.

Al igual que cualquier otra cosa, Fire no nos mataría, pero la forma en que se aplica y controla podría.

AI tampoco lo haría, pero su aplicación podría. Creo que Elon es un gran tipo, preocupado por el futuro, recuerda que Bill Gates también predijo correctamente el futuro.

El crecimiento de la IA no debería regularse, pero su aplicación debería, quiero decir, cuando sea el momento.

Esta pregunta se responde exhaustivamente en el libro seminal Superintelligence del profesor Nick Bostrom, que recomiendo leer.

More Interesting

Cómo saber si RNN u otra red de Deep Learning han agotado su capacidad de aprendizaje

¿Cuán inteligente puede crecer la inteligencia artificial basada en computadoras cuánticas, considerando las complejidades matemáticas de los diferentes problemas de inteligencia artificial?

¿Qué problemas han demostrado que las computadoras no pueden resolver, pero que los humanos pueden resolver?

¿De qué manera pueden trabajar juntos Q-learning y las redes neuronales?

¿Cuáles son las cinco principales industrias (por ejemplo, minorista, finanzas, etc.) que están en mayor riesgo por la automatización, la inteligencia artificial y la robótica que reemplazan los trabajos humanos?

¿Qué propiedades deben tener los sistemas artificiales de aprendizaje general?

¿Qué algoritmos de aprendizaje automático pueden producir una función de puntuación para medir la "similitud" entre dos objetos?

¿Por qué el 'Xiaoice' de Microsoft tuvo mucho más éxito que el 'Tay.ai'?

¿El curso de Andrew Ng sobre aprendizaje automático está completamente relacionado con las matemáticas y las funciones?

Cómo aplicar las redes neuronales artificiales en control

¿Qué es la teoría del refuerzo?

Suponiendo que la IA se hará cargo de la mayoría de los trabajos en el futuro, ¿hay algo que los humanos puedan comenzar a aprender que pueda prepararlos mejor?

¿La mayor presencia de la tecnología de rastreo finalmente nos despojará de muchas libertades que disfrutamos hoy?

¿Pueden los vapores o el vapor contener información en ellos, como redes neuronales o cualquier otra cosa?

¿La inteligencia artificial, la teoría del compilador y los autómatas están relacionados entre sí? Si es así, ¿cómo?