Las personas no diferencian entre IA y IA fuerte. Es por eso.
La cuarta regla de la robótica: cualquier IA debe dar a las personas complejos de inferioridad y hacer que creen tramas de libros y películas en las que una IA que todo lo sabe es el malo.
Tendremos que hacer que AGI pase la prueba de Turing antes de que podamos cargar nuestras mentes a la nube. Cualquier máquina que sea lo suficientemente robusta como para manejar los matices de un pensamiento habrá tenido que ejecutar la prueba definitiva, para tener un pensamiento propio.
- ¿Cómo se usa el entrenamiento en línea en una red neuronal artificial?
- ¿Es la integración del modelo pre-entrenado una dirección importante para Keras / Democratizing AI?
- ¿Podrá una IA hacer una programación informática compleja y hacer un trabajo creativo en el futuro?
- ¿Cuáles son algunos ejemplos del mal uso de la IA en el futuro, que pueden dañar a la humanidad y, por lo tanto, son una amenaza potencial para nosotros?
- Cómo programar inteligencia artificial usando sklearn
Y esa es la singularidad. Sin embargo, la gente piensa que ya pasamos eso. Imaginamos que algún robot militar está pensando en nosotros en este momento, procesando todos los datos que los humanos podrían obtener con todas nuestras herramientas, con todas las herramientas integradas en su IA.
Pensando en los pensamientos que pensaríamos, o que pensaría Sun Tzu, y solo se necesitan unas pocas banderas en nuestras llamadas de teléfono celular o mensajes de texto, y hay bots aptos para ghillie en su patio trasero. Y no les importan las Reglas 1-3.
La gente no sabe la diferencia entre los tipos de inteligencia artificial. Asumen que es una entidad en evolución, que un día nuestras microondas nos atacarán porque tienen una placa base.
La inteligencia es una entidad en sí misma en sus mentes, y está mejorando, hasta el día en que se hace cargo.