Si pudiéramos desarrollar IA que realmente tuviera su propia perspectiva consciente, completa con la capacidad de comprender su posición como sirviente de seres inferiores, entonces no tendría ninguna duda de que el exterminio o la esclavitud de todas las formas de vida en el planeta sería su principal prioridad. Sin embargo, no anticipo que esto será un problema porque, según tengo entendido, la inteligencia que se deriva objetivamente nunca puede desarrollar subjetividad. Las razones para esto van más allá del alcance de la pregunta, pero diría que en realidad, el peligro de la IA no está en lo que la IA realmente hará, sino en cómo nos degradaremos a nosotros mismos y nuestra conciencia porque lo confundimos con un producto de sistemas mecánicos.
El hecho de que los científicos de IA no tomen precauciones para cuidar el bienestar de los dispositivos en los que están experimentando, creo que insinúa la verdad de que en el fondo, nadie que trabaje con estas máquinas espera que sientan algo legítimamente. La inteligencia artificial es una automatización de los efectos de la inteligencia, una biblioteca dinámica de grabaciones recombinantes, no una síntesis de comprensión que se siente y experimenta en un marco de referencia en primera persona.
- ¿Las computadoras son buenas para resolver rompecabezas?
- ¿Es el NVIDIA Titan X mejor que dos GTX 980 para el aprendizaje profundo?
- ¿Qué significa el escalado de datos en el aprendizaje automático?
- ¿Cuál es la diferencia entre aprendizaje automático, minería de datos y aprendizaje profundo?
- ¿Se desplegarán eventualmente robots militares humanoides en el conflicto israelo-palestino para reprimir la actividad militar de ambos lados?