En primer lugar, no deberías hacer esto. Tuve la misma idea, pero los contenedores son bastante livianos y con los recursos de la nube hoy (a menos que te interesen los kb en memoria): echa un vistazo aquí para ver cuál es el costo de rendimiento de tiempo de ejecución de un contenedor Docker
Cuando se trata de escalar una aplicación específica o garantizar que los recursos estén disponibles para las necesidades de sus aplicaciones, un contenedor por aplicación es el camino y la OMI debería ser un principio de microservicio.
Ahora, si está intentando ejecutar una prueba rápida de concepto. Esto es posible con Kubernetes si planeas usarlo.
- ¿Cuál es la importancia de las redes de entrega de contenido?
- ¿Qué podemos aprender de los patrones de vuelo sin colisión de cómo vuelan las abejas o las langostas con respecto al tráfico de red muy mallado?
- ¿Cuáles son las diferentes carreras profesionales para un ingeniero de redes?
- ¿Qué tan fácil es parchear una vulnerabilidad típica de software de día cero?
- Cómo reiniciar el switch Cisco físicamente
- Cree una definición de implementación e implemente su contenedor, pero dentro de su contenedor, ejecute cada aplicación con un puerto único .
- Cree un servicio K8s por aplicación y que se asigne al puerto específico de esa aplicación. Asegúrese de que su servicio tenga su propia IP o nombre de dominio asignado al ingreso.
Ahora lo anterior puede sonarle extremadamente extraño si no está usando k8s. Pero hojeé la parte de la ventana acoplable y pasé 10 horas en microservicios escalables con Kubernetes | Udacity que te ayudará a entender lo anterior.
De lo contrario, recomiendo usar una configuración de DNS local junto con docker-compose con un amor de una aplicación por contenedor.