Bueno, simular todo el cerebro es plausible, pero se necesita más que eso para “dominar el mundo”.
Pocos problemas
- Actualmente, la IA no puede realizar el 60% de los trabajos humanos, tiene problemas para caminar y tiene una inteligencia inferior.
- El automóvil de Google, incluso si ganara sensibilidad, solo podría alborotarse hasta que se quede sin combustible.
- No hay razón para pensar que AI tenga el deseo de dominar el mundo.
Las máquinas no pueden repararse a sí mismas, no pueden reproducirse y requieren minerales excavados. La vida orgánica no tiene ese tipo de problema. Lo que significa que el levantamiento exitoso de robots requiere un país completo (con recursos y fábricas) bajo control de IA, o algún tipo de tecnología de ciencia ficción, como los fabricantes basados en nanomáquinas. La fabricación de componentes informáticos requiere materiales raros que deben enviarse desde otros países. Entonces, si la IA comienza a comportarse mal, la gente la cerrará rápidamente al cortar el suministro de recursos … o simplemente bombardearlo.
- ¿Qué piensas sobre la seguridad de la IA? ¿Crees que los gobiernos deberían regular la investigación de IA?
- ¿Cómo puede un estudiante de secundaria con experiencia en codificación involucrarse con la investigación en inteligencia artificial?
- ¿Qué campo es más desafiante: robótica (inteligencia artificial) o aeroespacial?
- ¿Puede AI ser mi terapeuta en 4 años?
- ¿Es posible crear inteligencia artificial que realmente piense como un humano?
Además, la máquina no tiene razón para querer el mundo. El deseo humano de conquistar puede provenir de viejos instintos biológicos (deseo de reproducirse y miedo a la muerte). Ai no tendría esos instintos. Si bien no puede repararse a sí mismo, una máquina puede hacerse efectivamente inmortal y puede duplicarse. Ai apático que hace las órdenes de su maestro es el escenario más probable, en mi opinión.