Con respecto a la creación de IA, ¿sería mejor si una IA tuviera que ser enseñada o si todas sus capacidades de pensamiento / personalidad salieran de la caja?

En un mundo ideal, una IA aprendería de cero. Pero eso no sucede. Incluso nuestros propios hijos tienen que ser enseñados. Pasamos hasta 16 años y más enseñando a nuestros hijos todo, desde cómo hablar hasta cómo resolver ecuaciones simultáneas. Entre esto está el concepto de lo correcto y lo incorrecto, la etiqueta, la religión, etc.

Como realmente no queremos pasar 16 años enseñando a nuestra IA sobre cómo vivir en este mundo, sería mucho más fácil si salieran de la caja con algo de aprendizaje. Al menos las reglas de Asimov. Lo ideal es hablar y cómo interactuar con humanos, animales, objetos inanimados y otras IA. Tenemos la ventaja de que, si todo el aprendizaje se puede poner en un chip de memoria, la IA podría hablar todos los idiomas, realizar operaciones médicas complejas, aconsejar a las personas y desactivar bombas desde el primer momento. Los matices de la vida y temas como la política, la religión y las relaciones que tendría que aprender.

Una IA debe poder aprender o, de lo contrario, no es mejor que una computadora normal. Pero no podemos hablar sys.language.

La regla básica de la IA debería ser, por ejemplo, si algún tipo de cambio = el programa se ejecuta regularmente pero el desarrollo se detiene hasta que un ser humano confirme y autorice todos los cambios (¿retina + ADN?). De lo contrario, corre como siempre. Esto es realmente complicado, no estoy seguro si es suficiente.

¿Personalidad para una IA? No puedo creerlo, es como si dijeras que Siri es una mujer divertida y divertida, porque puede contar chistes relacionados con montañas rusas con voz de niña. Con las personas hay muchos signos de emociones, no puedes confiar en las máquinas de la misma manera.

Enseñar una IA desde cero sería como enseñarle a un bebé: mucho esfuerzo y tiempo. Mucho más conveniente para que la IA se forme al menos en parte.