Мне интересно, возможно ли, чтобы экземпляры AVCaptureSession
и UIImagePicker
одновременно обращались к камере.
Я хочу создать приложение, которое показывает измеритель/индикатор внешней освещенности в виде наложения UIImagePicker
, когда камера активна. Ранее я реализовал это с помощью UIGetScreenImage()
, но теперь Apple запрещает использование этого частного API в пользу AVCaptureSession
. В моем эксперименте AVCaptureSession
, кажется, приостанавливается, когда UIImagePicker
отображает вид с камеры. Любые идеи? Спасибо!