Hay partes que me gustan:
- La observación de que a menudo estamos más fascinados que alarmados por el desarrollo de la IA.
Hay partes que me gustan pero las he escuchado antes:
- La idea de que el desarrollo de la IA general traerá cambios impredecibles y de largo alcance. Esta es la idea de la singularidad tecnológica.
Y luego hay partes que me faltan, o que no me gustan:
- ¿Cuáles son las cinco (5) razones por las cuales una computadora no puede tomar decisiones como los humanos?
- ¿Qué universidades ofrecen cursos de aprendizaje automático e inteligencia artificial en India?
- ¿Dónde ves drones en un futuro militar? ¿Qué roles ve que cumplirán en los próximos 50 años con los desarrollos en las redes neuronales?
- ¿Qué dicen los profesores universitarios sobre las técnicas de aprendizaje automático aplicadas en sus campos?
- ¿Cuál es la diferencia entre el reconocimiento de emociones y el análisis de sentimientos?
- Harris dice que la velocidad a la que progresa la tecnología no importa: mientras progrese, eventualmente se desarrollará IA general. No veo por qué ese debería ser el caso. Podríamos seguir progresando muy rápidamente en algunas direcciones (más rápido, más memoria, etc.) sin desarrollar un avance clave necesario para desarrollar IA general.
- La inteligencia humana requiere años de entrenamiento para desarrollarse. Somos malos resolviendo problemas del mundo real hasta que hemos tenido años y años de escolaridad y práctica. Las IA generales tempranas pueden requerir períodos de entrenamiento similares, lo que significaría que el ciclo de desarrollo podría ser bastante lento durante bastante tiempo; tiempo suficiente para desarrollar una perspectiva mucho más informada sobre estos temas, donde tendríamos más información sobre la naturaleza de estas IA.
- Existe una diferencia entre la IA y la cognición humana: el cerebro humano evolucionó a través de un proceso de selección natural y, como tal, necesariamente alberga mecanismos de autoconservación, incluidas emociones como el miedo y la ira. No hay ninguna razón por la que construiríamos IA con estos mismos instintos. No hay razón para pensar que querer sobrevivir es una característica clave de la inteligencia, esa es una noción muy antropocéntrica. No hay razón para creer que no tendríamos las motivaciones de una IA bajo control. Presumiblemente, lo que una IA quiere es lo que programamos para que quieran.