Como alguien (no recuerdo el nombre) ha comentado correctamente, preocuparse por los robots y la IA es como preocuparse por la sobrepoblación en Marte. Aún no hemos pisado Marte, y la gente discute sobre su colonización y sobre la población.
Incluso si tuviéramos que pasar por alto este hecho y dar una opinión, no creo que los robots requieran derechos como los humanos. Seguramente habría muchas reglas y regulaciones que se pondrían en práctica, pero eso sería todo. Es como tener autos en la carretera. Cuando no había automóviles, no había reglas de manejo o requisitos de licencia. El hombre inventó los autos para facilitarle la vida. Se establecieron normas de tráfico para un funcionamiento y seguridad sin problemas (principalmente seguridad humana). Del mismo modo, los robots con IA serían máquinas avanzadas destinadas a facilitar la vida humana. La intención aquí es reemplazar el trabajo / esfuerzo humano, no la vida humana misma. Entonces, no veo la cuestión de que los derechos de los robots lleguen en primer lugar.
- ¿Cuáles son algunas definiciones breves y funcionales del concepto de "concepto" en varios campos?
- ¿Cuándo será la IA realidad?
- ¿Pueden las sociedades ser redes neuronales donde las personas individuales son nodos?
- ¿Qué algoritmos de aprendizaje automático son prometedores además del aprendizaje profundo?
- ¿Es posible convertir un documento electrónico (en lenguaje natural) en una representación comprensible de la máquina?