Su teléfono puede ver y escuchar. Tiene GPS para saber dónde está. Tiene un acelerómetro para que sepa si lo está sosteniendo horizontal o verticalmente. Puede detectar torres celulares, enrutadores inalámbricos y dispositivos Bluetooth en sus proximidades. En cierto modo, es más consciente de ti mismo que tú.
Pero eso probablemente no es lo que quieres decir con autoconciencia. Probablemente te refieres a cuándo la IA estará consciente de sus propios pensamientos en el mismo sentido que los humanos. Dado que no existe una buena prueba para distinguir la conciencia consciente de la falsificación de la conciencia consciente al actuar como un humano, podría ser más sensato preguntar cuándo la IA estará lo suficientemente avanzada como para pasar por humana. Esto, por supuesto, es la base de la prueba de Turing.
En 1950, Turing predijo que una computadora ganaría el “juego de imitación” para el año 2000. El Premio Loebner y más tarde el AISB han estado llevando a cabo pruebas de Turing todos los años desde 1991. Hasta el último concurso en 2015, ninguna computadora se comunicó a través de mensajes de texto. Sin embargo, he podido convencer a un panel de jueces de que es humano.
- ¿Cuáles son algunos proyectos simples de PNL basados en un documento de conferencia (no demasiado complejo) que un estudiante de informática puede probar? Necesito hacer un proyecto de compilador basado en PNL como parte de mi curso.
- ¿Qué consejo le darías a un estudiante universitario de CS?
- ¿Cuál es el procedimiento completo de cómo un dispositivo envía datos a otro a través de una conexión wifi?
- ¿Dónde está la fruta de bajo perfil en Machine Learning?
- ¿Ha mejorado la experiencia de usar la seguridad de Comcast para la automatización del hogar desde que la introdujeron hace unos años?
Pero este realmente no es el objetivo de la IA. La gran proporción de los fondos de investigación se dirige hacia el problema de $ 75 billones por año de tener que pagarle a la gente de todo el mundo para hacer el trabajo que las máquinas no son lo suficientemente inteligentes. Esto requiere resolver problemas difíciles de IA como la visión, el lenguaje, la robótica y el modelado del comportamiento humano. Pero a diferencia de la prueba de Turing, no requiere duplicar las debilidades humanas, como la mala memoria a corto plazo. Las entradas de premios Loebner a menudo ralentizan deliberadamente sus respuestas e insertan errores aleatorios para engañar a los jueces. Turing se dio cuenta de este problema en 1950 cuando dio un ejemplo de una computadora que tardó 30 segundos en dar la respuesta incorrecta a un problema aritmético.
Entonces, para responder a su pregunta, la IA nunca se volverá consciente de sí misma siempre que no haya una buena razón para que la programemos de esa manera.