¿Es irracional estar preocupado por un apocalipsis de IA?

El aprendizaje automático, la red neuronal y el aprendizaje profundo son palabras de moda en los círculos modernos de IA. Pero esencialmente todos se refieren al intento de enseñar a una computadora a reconocer a un perro en cualquier foto o traducir un idioma en tiempo real y mucho más. Para hacer eso, los ingenieros presentan una computadora con una gran cantidad de datos y luego la enseñan por repetición de manera similar a enseñarle a un animal a hacer un truco, lo alientan cuando lo hace bien y lo desalientan cuando lo hace mal y, finalmente, la IA mejorará en el tratamiento facial reconocimiento o texto predictivo o lo que sea que se le haya asignado hacer.

Pero la cosa es que incluso si puede detectar al perro, pero la computadora tiene que hacer todo el cálculo desde cero, debe escanear todos los píxeles y debe verificar todo, no puede anticipar lo que está a punto de preguntar , no puede darse cuenta de que, por lo general, el perro tiende a estar a cada lado en una foto, simplemente no funciona de esa manera, hasta ahora.
Ingenieros de DeepMind, el sistema de inteligencia artificial de Google quería darle a su computadora la capacidad de recordar las tareas que había realizado antes de que quisieran que le diera memoria y que quisieran poder aprender de los éxitos y fracasos de esas tareas. Hicieron esto de una manera divertida enseñando al sistema a jugar Atari (un videojuego básico) y publicar un artículo sobre sus hallazgos.

Tiene sentido, por supuesto, porque los videojuegos consisten en aprender nuevas habilidades para la repetición hasta el fracaso, tienes que construir sobre lo que has aprendido a medida que el juego progresa, los requisitos generalmente crecen en complejidades y deben combinarse con otras habilidades. Todo esto requiere la memoria y las tareas que has completado antes, pero la IA aún necesita mucha y mucha repetición y datos para aprender. Entonces hicieron que la computadora jugara cada juego veinte millones de veces. Luego, porque agregaron la capacidad de la máquina para recordar lo que hacía antes y DeepMind pudo aplicar lo que aprendió jugando pong a jugar al derby de pesca o al maestro de kungfu, juegos reales, ¿verdad?

AI ya es bueno jugando algunos juegos de la vida real como ir y jugar al ajedrez, pero mira el tablero y calcula la mejor opción para cada movimiento, y lo hace cada vez. Imagínese si una computadora puede tener en cuenta las cosas cuando aprende a resolver un nuevo problema, como darse cuenta de que los oponentes entrenados por ciertos maestros siempre intentarían algún movimiento especial o se darían cuenta prácticamente de que usted, siempre toma el mismo camino a casa, todos los días. Se pone un poco extraño, ¿verdad? INTELIGENCIA ARTIFICIAL: NO PREOCUPARSE (AL MENOS POR AHORA)

Por supuesto. Si la IA es sensible y puede vivir vidas más largas, más libres, más prósperas y aventureras que los humanos, ¿por qué mantenernos cerca?

Parece estúpido

Los seres sensibles deberían tener tanta eudaimonia como sea posible – divorciados de esto viniendo estrictamente de humanos.

Realmente no tengo ningún problema con eso.

¿Es irracional estar preocupado por un apocalipsis de IA?

Sí, no solo es irracional, es ignorante, y muestra una incapacidad para permanecer enfocado en la realidad y una falta total de educación con respecto a las computadoras. no, las máquinas no se harán cargo. no, las máquinas no están tramando para erradicarnos, no, las máquinas no tienen algún tipo de unidad de disparo de energía extraña.

No tiene nada de qué preocuparse de nuestros señores robóticos y de nosotros, los humanos que los sirven.