Bueno, esta no es una tarea menor. Básicamente, debe crear un servidor de transmisión que admita RTP y también RTSP si desea opciones de reproducción, o usar una solución de transmisión existente; ffmpeg tiene uno, pero desafortunadamente no funciona en Windows. Si planea usar ffmpeg, también debe hacer que Unity se conecte con las bibliotecas dinámicas de código nativo, que no estoy seguro de si todas las versiones lo admiten.
Bueno, si eso suena demasiado trabajo, hay una biblioteca de código abierto que lo hace por usted, se llama live555, tenga en cuenta que no sé mucho al respecto, pero puede hacer el trabajo.
Una vez que tenga la carga útil RSTP de RaspiCam , puede pasarla a un decodificador ffmpeg que devolverá una imagen decodificada, generalmente codificada como RGBA, una vez que llegue allí, debe llevar sus datos de imagen al código administrado de Unity y pasarlos a una textura.
- ¿Qué conocimientos de codificación / circuito debo saber si quiero aprender Arduino o Raspberry Pi?
- ¿Cuál es la principal diferencia entre las diferentes versiones de Raspberry Pi?
- ¿Es Raspberry Pi una buena opción para desarrollar un sistema de vigilancia doméstica, o puedo desarrollar el sistema a menor costo con otras tecnologías?
- ¿Por qué se cuelga Raspberry Pi cada vez que conecto el cable de Ethernet?
- Quiero usar una Raspberry Pi 3 para hacer mi propia IA personal (asistente). ¿Cómo empiezo? Tengo un MacBook Pro y C ++ como mi idioma de elección.
Puede transmitir video desde un servidor de lo que puede usar la codificación Ogg + WWW.movie para asignarlo a una textura. Suponiendo que tiene una licencia Pro, ya que creo que esta es una característica exclusiva de Pro.
Bueno, supongo que el complemento de captura de Live Camera que podría satisfacer sus necesidades. Puede comprar en la tienda de activos de Unity Prueba gratuita .unitypackage
Gracias por A2A Omkar Patil Espero que esto ayude.