Esto depende en gran medida del papel de la máquina, pero probablemente implicaría un equipo mínimo por parte del ser humano.
Debe recordar que en realidad hay dos interfaces separadas que deben considerarse. Uno de ellos transfiere información de la persona a la computadora, el otro transfiere información de la computadora al humano. La interfaz de persona a computadora más avanzada que puedo imaginar involucra cámaras que miran a los humanos y micrófonos que lo escuchan. Dada una interpretación artificialmente inteligente de esto, eso cubre la gama de formas en que un humano es capaz de transmitir significado. Todavía se puede usar un teclado porque nos permite ser muy precisos con las palabras que usamos (y la palabra escrita es asombrosamente diferente de la palabra hablada), pero el mouse seguirá el camino del dodo tan pronto como podamos señalar Un lugar en la pantalla.
Hablando de pantallas, la parte de la interfaz de computadora a humano sería considerablemente más compleja. No habría una representación única de la máquina, pero podríamos crear un simulacro para que la máquina pudiera transmitir significado a través del lenguaje corporal. No solo las cabezas parlantes de estilo “Max Headroom”. Los brazos son increíblemente importantes en una conversación normal, aunque solo sea para señalar cosas. Estos simulacros pueden ser imágenes proyectadas, hologramas, imágenes en una pantalla o robots reales. Además, sería un desperdicio de nuestros avances actuales no incluir la capacidad de hacer uso de un monitor o proyector para mostrar imágenes y texto, y definitivamente habría un componente de audio.
- ¿Cuáles podrían ser las propiedades psicológicas esenciales que necesita una IA fuerte?
- ¿Qué gigante tecnológico será el primero en crear una fuerte inteligencia artificial?
- ¿Cómo podemos comenzar a explorar la IA y disfrutarla?
- En redes neuronales artificiales, ¿a qué se refiere la 'señal' en el contexto de los gradientes?
- ¿Cómo se debe medir la inteligencia artificial? ¿Qué es lo más importante que puede hacer y cómo lo medirías?
Hay una fuerte sugerencia de que el usuario podría interactuar con el resultado de la inteligencia de la máquina de manera Minoritaria, pero probablemente lo harían mientras mantienen un flujo continuo de conversación.
Aunque tenemos muchos sentidos además de la vista y el sonido (p. Ej., Tacto, olfato, gusto, equilibrio y propiocepción), en realidad no los usamos para comunicarnos si tenemos otra opción. Inevitablemente habrá extensiones para las personas que lo necesitan, pero, como ahora, no vendrán como un paquete estándar.
Como comentario adicional, se puede esperar que lo que he descrito sea una interfaz de usuario maximizada. Varias partes de él se utilizarían por varias razones. Por ejemplo, una interfaz verbal no sería práctica para un entorno de oficina. Tal vez se configuraría para que la persona pudiera susurrar, o la máquina pudiera leer los labios. La parte donde se interpretaron los gestos de una persona podría no ser útil en un entorno apretado como un automóvil. Además, tendríamos que elaborar un protocolo en el que la máquina supiera a quién prestar atención si varias personas proporcionaran información.