¿Cómo sería la infraestructura de la nube si el lenguaje natural a través del habla y los chatbots se convirtiera en la interfaz dominante para las aplicaciones?

Gestión de la información del producto para texto y audio en lugar de una experiencia visual del usuario

Solo hablaré de un aspecto de esto que solo está vagamente relacionado con la nube. La web está actualmente optimizada para una interfaz de usuario muy visual. Por lo tanto, todo el contenido de los CMS que sirve a la web es texto e imágenes pesadas.

Como humanos cuando vemos una pantalla que contiene texto e imágenes, podemos ser selectivos sobre dónde nos enfocamos y qué nos molestamos en consumir.

Y generalmente nos ahorramos lo que va debajo del pliegue.

Si ejecuta un lector de texto (como: ¡Haga que cualquier sitio web hable!) Sobre esta página, no tendrá más remedio que leer toda la página de forma secuencial.

Es un poco como una unidad de cinta de acceso secuencial versus discos de acceso aleatorio. Por lo tanto, la web no está diseñada para interfaces de voz.

La mayoría de las experiencias de chatbot no son tan ricas, al menos las de comercio electrónico que vimos. Sin embargo, Amazon Alexa y Google Home tienen experiencias muy fuertes que están mejorando rápidamente. Entonces, si está construyendo chatbots ahora, entonces debería estar construyendo la infraestructura para admitirlos para que también admitan voz y texto.

Por ejemplo, ¿cómo con una interfaz de voz navegarías por esta página?

Hay 25 artículos en dos páginas, cada uno tiene una descripción larga con un precio y una imagen. Al escuchar a un agente automatizado leer los primeros 5 y probablemente haya perdido la noción.

Hay un nuevo paradigma de VUI para los datos donde el marcado en el CMS debe optimizarse para una forma diferente de consumo. Vuelva al vendedor detrás de un mostrador haciendo preguntas y utilizando esas preguntas para refinar los pocos artículos que traen.

En el caso de los velocímetros, comenzarían con el atributo más importante y lo usarían para refinar. Al final de las preguntas, presentarían 2–3 opciones que podría comparar sin sobrecarga cognitiva

Volviendo a la pregunta … realmente se debe a la reestructuración del CMS para dejar en claro a un sistema basado en voz qué contenido se debe servir en una estructura de consultas muy diferente. También hacer que los creadores de contenido creen contenido que ahora está marcado para robots de ojos humanos (en texto e imagen) (SEO) y ahora para oídos humanos, no es una tarea trivial.