¿Por qué http es el protocolo estándar en la web?

HTTP fue desarrollado específicamente para transportar tráfico HTML e imágenes simples. Debido a que estaba siendo utilizado por el servidor web del CERN, fue utilizado por el servidor web de NCSA. Después de eso, se convirtió en el estándar de facto.

Si NCSA hubiera elegido entregar contenido web en lugar de una adaptación del protocolo Gopher, ya que Gopher ya estaba ampliamente implementado para el tráfico de hipertexto, es probable que un Gopher actualizado hubiera sido el estándar hoy. WAIS fue otro protocolo de hipertexto que se implementó en ese momento.

La gran ventaja que HTTP tiene sobre otros protocolos es que está diseñado para hacer todo lo que Gopher y WAIS podrían hacer, además de entregar contenido binario de una manera que el receptor podría digerir a través de tipos MIME. Con la llegada de los rastreadores, también suplantó a Archie.

Nada detuvo ninguno de estos sistemas de hipertexto anteriores que admitían tipos MIME como modo extendido, para admitir imágenes en línea y admitir HTML como una estructura de datos aceptada. No lo hicieron porque la filosofía de Unix siempre había sido “hacer una cosa y hacerlo bien”, que es exactamente lo que hicieron Gopher y WAIS.

HTTP fue el primer protocolo de datos abstractos. También hizo una cosa y lo hizo bien, pero lo único que hizo fue totalmente genérico. Cuento los datos POST como lo mismo que los datos GETting, solo en la dirección opuesta. El tipo MIME especificó el controlador y el controlador manejó una cosa bien. Gopher tenía dos controladores, datos de Gopher y algo que guardaba todo lo demás. No fue genérico.

Ayudó a que los primeros navegadores web tuvieran soporte incorporado para los otros protocolos o tenían medios para llamar al software apropiado. Significaba que había una necesidad reducida de salir de un entorno común. Con soporte para ftp también, el desorden de diferentes herramientas estaba siendo reemplazado (desde la perspectiva del usuario) con un único punto de entrada.

Otras cosas interesantes estaban sucediendo. Algunas variantes de mosaico tenían soporte para multidifusión. Esto significaba que podía realizar videoconferencias, vincular navegadores web y hacer todo tipo de otras cosas ingeniosas. Debido a que los ISP se opusieron vehementemente a que los usuarios domésticos tuvieran multidifusión, estos desarrollos ya no existen. Una pena, CU-SeeMe se limitó a 320 × 200, escala de grises, y las conexiones se limitaron a uno a uno directamente o uno a cinco a través de un reflector. NV, que existía al mismo tiempo, podía manejar la resolución NTSC o PAL, a todo color, para destinatarios ilimitados para el mismo ancho de banda que CU-SeeMe. (Necesitaba un flujo de datos para cualquier número de usuarios. El reflector de CU-SeeMe necesitaba seis flujos de datos para cinco destinatarios. Seis veces 320 × 200, escala de grises, es igual a un flujo de PAL en color, pero con multidifusión sin punto en el sistema alguna vez excede una copia de un flujo de datos).

Entonces las universidades estaban teniendo una explosión. Todos los datos y la videoconferencia y colaboración de escritorio, todo en un solo sistema. Por lo tanto, la curva de aprendizaje fue menos profunda y los resultados fueron más ricos.

Un año más tarde, SGI amplió las cosas aún más al agregar un controlador para un sistema de gráficos 3D que llamaron VRML. Sin embargo, nunca despegó en el mismo grado. También en ese momento, NCSA (creo) desarrolló el caché Squid y el sistema de indexación Glimpse bajo el nombre de Harvest. Esto significaba que todos podían ejecutar un motor de búsqueda y un acelerador. Gopher tenía a Veronica, pero creo que eso era central. Nunca vi la fuente para ello.

En este punto, la cantidad de complementos basados ​​en HTTP significaba que probablemente no surgiría ningún protocolo alternativo. Las personas tenían demasiada flexibilidad.

Desde entonces, los derechos de autor se han hecho en las redes del servidor de almacenamiento en caché y todos usan Google en lugar de un motor personalizado diseñado para satisfacer las necesidades personales. La multidifusión sigue siendo rara, a pesar de la banda ancha. VRML todavía no va a ninguna parte. Como resultado, HTTP es vulnerable si alguien puede mejorar algo. Todavía estoy esperando a Ted Nielsen por eso.

La pregunta es un poco absurda. La persona que creó HTTP lo nombró así porque describió el rol que desempeñó. Se puso bastante de moda, hasta el punto de que se convirtió en un estándar internacional, pero sonó un poco nerd, por lo que alguien más llamó al sistema que usa HTTP la ‘World Wide Web’. Los dos fueron esencialmente lo mismo durante bastante tiempo. Con el tiempo, se agregaron otros protocolos y sistemas a la WWW, pero HTTP siempre estuvo allí, y todavía lo está hoy. La WWW no es realmente ningún estándar o protocolo oficial; es más comercial, por lo que los no nerds no tienen que decir HTTP y otras siglas de protocolo.