Buenas tardes a todos. Me gustaría conocer vuestra opinión acerca de un proyecto que estoy intentando llevar a cabo, y que me digáis si es viable o no.
Estoy haciendo un sistema de reconocimiento de voz, basado en CUDA. Como sabréis, la mayoría de sistemas de reconocimiento de voz están basados en los modelos ocultos de Markov (HMM).
Por un lado, tengo un código en CUDA que me calcula tanto Viterbi, como Baunch-Well.
Por otro lado, he hecho un código en C que saca las "muestras" discretas de un .wav.
Mi problema es el siguiente: ¿Qué debo hacer con esas muestras ahora? No soy capaz de dar el siguiente paso. No quiero un rendimiento elevado, por lo que no se si sería necesario o no el uso de un modelo acústico...
Espero haberme explicado. Gracias
Estoy haciendo un sistema de reconocimiento de voz, basado en CUDA. Como sabréis, la mayoría de sistemas de reconocimiento de voz están basados en los modelos ocultos de Markov (HMM).
Por un lado, tengo un código en CUDA que me calcula tanto Viterbi, como Baunch-Well.
Por otro lado, he hecho un código en C que saca las "muestras" discretas de un .wav.
Mi problema es el siguiente: ¿Qué debo hacer con esas muestras ahora? No soy capaz de dar el siguiente paso. No quiero un rendimiento elevado, por lo que no se si sería necesario o no el uso de un modelo acústico...
Espero haberme explicado. Gracias