Terminé mi trabajo en CMU LTI hace unos seis años, y ya no sigo mucho el audio computacional. Pero he enumerado algunos temas de investigación de música de computadora que recuerdo:
- La transcripción automática de música y la categorización / clasificación automatizada siguen siendo un problema abierto. Esto incluye la segmentación multicanal (voz / instrumento) en diferentes entornos acústicos.
- Emoción / expresión – Síntesis y transcripción en audio
- Automatizado / acompañamiento de la máquina / corrección de errores en tiempo real (actuaciones en vivo)
- La restauración de fidelidad / eliminación de ruido / compresión son otros proyectos en el área de procesamiento de señales estadísticas
- Las personas mezclan y combinan modalidades adicionales (señales EEG o actuadores electromecánicos o luces …) con procesamiento de música para crear artefactos interesantes
- Herramientas para el procesamiento de audio en tiempo real para ayudar en MOOC. Por ejemplo, generación automatizada de hipervínculos / disparadores de audio
- Instrumento modelos acústicos / síntesis y optimización de diseño
- También están los proyectos estándar sobre algos escalables de escucha / transcripción. Hacer que sea en tiempo real es otro desafío sobre el que todavía pienso que la gente sigue.
- Hubo muchos proyectos de investigación basados en hardware basados en técnicas de formación en fase y síntesis de apertura / formación de haces para la clasificación / identificación / segmentación del habla también.
Aquí hay algunos enlaces.
https://www.lti.cs.cmu.edu/rsrch…
http://www.cs.cmu.edu/~rbd/
Gracias por la A2A
- ¿Cómo entrenamos redes neuronales en datos numéricos?
- ¿Qué IIT en India tiene el mejor programa de CS para el aprendizaje automático?
- ¿Qué distingue una capa de una red neuronal de otras capas?
- ¿Qué es este aprendizaje automático y big data?
- ¿Cómo ganan dinero las startups de aprendizaje profundo o aprendizaje automático?