El concepto específico de la singularidad tecnológica según lo definido por Ray Kurzweil, el creador del concepto, es el punto en el que una computadora tendrá la complejidad suficiente para simular un cerebro humano en pleno funcionamiento.
Suponiendo que una computadora así se utilizará, entonces sí; El cerebro simulado tendrá una personalidad.
Hay otros escenarios que involucran el desarrollo de inteligencia artificial que no tienen requisitos de complejidad específicos, pero las IA en un futuro tal vez no sean lo suficientemente similares a los humanos como para tener una personalidad que podamos identificar como tal.
- Cómo construir un robot portador
- ¿Por qué el aprendizaje profundo funciona tan bien en el mundo real?
- ¿Pueden los conceptos de (como ROT13, no programación) estar relacionados de alguna manera con los fundamentos del aprendizaje automático o la IA?
- Después de aprender Python, ¿cómo aprendo el aprendizaje automático / IA?
- ¿Alguna vez vamos a tener robots conscientes? En caso afirmativo, ¿cuándo y cuáles serán los pros y los contras de tenerlos?
Considere: La ‘prueba de Turing’ es solo una prueba de la capacidad de comunicarse como un humano. El sistema AlphaGo es capaz de jugar Go mejor que el mejor humano del mundo, pero no se comunica a través del lenguaje natural. Y su hardware no está cerca de la complejidad de un cerebro humano.