Я разрабатываю приложение для идентификации говорящего в Android, и я хотел обработать аудиовход с микрофона, прежде чем анализировать его с помощью алгоритма идентификации говорящего. Наткнулся на модуль шумоподавления в WebRTC. Я уже настроил его в Android с помощью JNI.
У меня есть вопрос о функции WebRtcNs_Process в модуле. В заголовочном файле указано int WebRtcNs_Process(NsHandle* NS_inst, short* spframe, short* spframe_H, short* outframe, short* outframe_H);
Согласно заголовочному файлу,
spframe : указатель на буфер речевого кадра для диапазона L
spframe_H : указатель на речевой буфер кадра для диапазона H
outframe : Указатель на выходной кадр для диапазона L
outframe_H > : Указатель на выходной кадр для диапазона H
Кто-нибудь знает, к чему относятся эти аргументы? также Что такое полоса L и полоса H? В чем разница между буфером речевого кадра для L-диапазона и для H-диапазона?
СПАСИБО!!