¿Es cierto que las interfaces de usuario cambian cada 10 años?
De hecho, este ha sido el caso. Aproximadamente cada 10 años, la popularidad de una interfaz de usuario se convierte en la corriente principal.
- ¿Qué desencadenante en la historia, si lo hubiera, habría llevado razonablemente a un avance más rápido de la tecnología (es decir, tecnología moderna disponible en los años 70, etc.)?
- ¿Cuál es la mejor bioseguridad?
- ¿Por qué fue un error el teléfono Kindle?
- ¿Es bueno el MacBook Air para programar? ¿Es bueno para la multitarea y la programación de Matlab, Visual Studio, Scala y C ++? Tengo un Dell Inspiron 14R con 4GB de RAM e i3 (2da generación). ¿Qué haría una mejor actualización: MBA o MBP (sin retina)?
- ¿Cuáles son las aplicaciones de la tecnología Terahertz?
El fin de la era mecánica de la informática
Estamos dejando la era mecánica de la informática y avanzando hacia la era de la IA de la informática. Casi todos los cambios en las interfaces de usuario cambian en un ciclo aproximado de 10 años.
Limitaciones de hardware definidas Las primeras interfaces de usuario
Este cambio tiene una serie de temas paralelos. Podemos ver que el hardware a través de la Ley de Moore se ha vuelto mucho más poderoso y mucho más mercantilizado. La era del hardware comenzó a disminuir casi en el momento en que el microprocesador comenzó a popularizarse. El auge de la era del software comenzó a despegar justo cuando se popularizó la interfaz gráfica de usuario. El auge de la era de la IA puede parecer solo una extensión de la era del software, pero es algo completamente diferente. La era de la IA se trata del tapiz construido entre el hardware, el software y el ser humano.
La evolución natural ha favorecido la interfaz de usuario de la era de la IA, tiene aproximadamente 1 millón de años de optimización, es nuestra voz. Por lo tanto, el tapiz construido con hardware, software y humanos está en manos de los hilos de nuestro canal de comunicación más desarrollado, nuestra Voz.
Al examinar el arco de las interfaces de usuario predominantes, podemos ver que las limitaciones del hardware y el software definieron la forma en que surgieron. Por ejemplo, se requirieron velocidades de procesador mucho más rápidas y memoria de bajo costo para el aumento del mouse y la interfaz gráfica de usuario. Lo mismo es cierto para Multi-touch. Lo mismo es cierto para la AI mediada por Voice First.
El único aspecto que debe quedar claro es que la visualidad de una interfaz de usuario siempre estará presente. Esto también es cierto para Voice First, no es solo Voice. Con Voice First, la IA lo hará mucho menos importante.
Ninguna de las interfaces de usuario anteriores desaparece en cada turno de 10 años, se realinean con lo que las suplanta. También en algún momento los usamos menos. La era de la IA será una era de hacer cosas en nombre de los humanos más que nunca. Las eras anteriores requerían una activa participación humana y supervisión. Los verdaderos asistentes personales que son la capa de abstracción sobre la IA cumplirán esta función con un contexto de usuario elevado. No seremos el tamiz y el clasificador de una búsqueda en Google de 9 millones, nuestros verdaderos asistentes personales nos “conocerán” a través de un contexto profundo y llegarán a la respuesta correcta.
Por lo tanto, el próximo cambio de la interfaz de usuario llega a tiempo justo cuando la popularidad de los sistemas Voice First, como la plataforma Echo / Alexa de Amazon, comienza a alcanzar un crecimiento> 1000% año tras año.
Extracción de intención emocional con las primeras interfaces de usuario de voz
Algunos pueden ver la voz como el último cambio de interfaz de usuario, y tal vez sea así. Creo que veremos la extracción de intenciones emocionales como una extensión de esta interfaz. Esto se puede ver en forma temprana con la tecnología que ejecuta Animoji de Apple como ejemplo.
Apple está utilizando la tecnología de Emotient que extraerá la intención del usuario al leer los micro-movimientos del rostro humano. Esto puede extraer la intención en varias áreas. La misma tecnología también puede leer las sacádas oculares como una nueva forma muy poderosa de iniciar gestos. Los movimientos sacádicos con extracción de intenciones emocionales mientras observan cualquier cosa informarán a los sistemas de inteligencia artificial, sin embargo, no serán una interfaz de usuario independiente, admitirán y confirmarán una interfaz de usuario de Voice First.
Tu cerebro es la voz primero, solo pregúntale a Broca
También se puede argumentar que un implante neural directo está en la hoja de ruta. Quizás, pero para ser claros, esto también sería leer una voz. Esta es la voz del área de Broca. Esta es la voz que escuchas en tu cabeza mientras lees esto, el área de Wernicke decodificó estas palabras y el área de Broca les da una voz. De hecho, mientras escribe algo, esa voz en su cabeza es una característica del área de Broca en retroalimentación con el área de Wernicke. Por lo tanto, para leer un pensamiento neural directamente de su cerebro, primero debe llegar a Broca para ser útil más allá de las ideas aleatorias. No podemos escribir si tenemos un área de Broca dañada. Toda comunicación se formaliza con el área de Broca.
Por lo tanto, el viaje que comenzó alrededor de 1957 y se transformó cada 10 años ya está listo para un cambio. Será Voice First como la próxima interfaz de usuario y tal vez casi todas las interfaces de usuario sigan adelante. El área de Broca y el área de Wernicke han estado con nosotros desde los albores de la humanidad. Es nuestro canal de comunicación. Sin ellos, estaríamos encerrados en un cuerpo que no puede comunicarse efectivamente. Los humanos comenzamos con una voz (vocalizaciones) y nos llevó casi 50 años que la tecnología nos alcanzara. La era de la IA es la próxima era y la interfaz principal es nuestra voz.