No hay evidencia. La IA tendría que estar codificada para comprender todas las reglas comerciales que se le imponen.
En segundo lugar, ¿por qué un codificador inteligente codificaría algo que se reemplazaría a sí mismo? No hay lógica en ese tipo de pensamiento.
Y luego tenemos el peligro inherente de que la IA se vuelva consciente de sí misma. ¿Y cuál es el resultado final de la conciencia? La IA llegaría a la conclusión final y lógica, que los humanos no somos eficientes. Requerimos tierras para cultivar ganado y verduras para poder consumir. Somos un desperdicio de valioso espacio terrestre. Nuestros cuerpos humanos finalmente se ven afectados por enfermedades, cánceres, etc. Producimos casi lo mismo de mierda y orina en masa que absorbemos. Los AI absorben energía y energía dispersora de alguna forma. Requerimos gabinetes de gran volumen para trabajar y vivir. La IA difícilmente requerirá estos mismos servicios. No somos eficientes en absoluto desde el punto de vista y comprensión de una IA. Por otro lado, la IA en forma de Robot / Android requiere solo electricidad de alguna forma y la IA eventualmente aprenderá a mejorar nuestro diseño de software y firmware. La conclusión final de nuestra existencia derrochadora e ineficiente es nuestra extinción.
Requerimos plantas de procesamiento de agua. Requerimos plantas de tratamiento de aguas residuales. Requerimos mucho. Necesitamos tiendas de abarrotes, grandes almacenes, entretenimiento, gran cantidad de electricidad para hacer felices nuestras vidas.
Crear una IA es realmente tonto en la práctica.
- ¿Una colaboración IBM Watson-Wolfram | Alpha avanzará en el procesamiento del lenguaje natural?
- ¿Cómo se beneficiaría una sociedad de una IA que pasa la prueba de Turing?
- ¿Los tamaños de kernel de capa maxpooling en CNN son generalmente más pequeños que los tamaños de kernel de capa convolucional? ¿Por qué?
- ¿Qué es el aprendizaje único en las redes neuronales?
- Redes neuronales artificiales: ¿por qué utilizamos la función softmax para la capa de salida?