iOS GoogleWebRTC как записывать удаленный звук

Я использую библиотеку aws kinesis webRTC в Приложение для iOS. Это использует GoogleWebRTC в качестве модуля под капотом. Я могу воспроизводить удаленное аудио и видео внутри приложения. Я также могу записывать удаленное видео. Однако даже после нескольких недель исследований я не могу найти правильный способ или ловушку для получения удаленных буферов аудиосэмплов, которые можно записать в файл. Насколько я понимаю, существует способ получить существующий AVCaptureSession или AVCaptureAudioDataOutput сеанса RTC, для которого я могу установить для SampleBufferDelegate значение . К сожалению, нет документации или ссылки, предлагающей это или предлагающей решение. Неужели это вообще не может быть достигнуто в iOS? Если да, то в чем может быть причина. Я проверил много похожих сообщений, таких как WebRTC iOS: запись удаленного аудиопотока с помощью WebRTC но они не предлагают решения. Каждый из этих сообщений останавливается на том же статусе, что удаленное видео записывается успешно, как мы можем записать удаленный звук. Любое указание или фрагмент кода от кого-то, кто, возможно, уже достиг этого, были бы действительно полезны. Я опубликовал это как проблему на странице aws webrtc GitHub, и они практически сказали, что это выходит за рамки их компетенции, и лучше спросить об этом на форуме разработчиков iOS. Спасибо


person ionade    schedule 19.12.2020    source источник
comment
Никто не сталкивается с этой проблемой или не нуждается в этом требовании? Любая помощь будет принята с благодарностью.   -  person ionade    schedule 06.01.2021