Уже 4 месяца я работаю над проектом с использованием Mobile Vision Android [MVA]. Для этого требуется только использование сервиса воспроизведения и этого руководства Codelab. Однако с начала месяца компания Google выпустила новую версию Machine Learning Kit [MLK]. с :
с новыми возможностями.
И они :
настоятельно рекомендуем нам попробовать
Моя проблема в том, что новый MLK является базой Firebase. То есть мы должны использовать учетную запись разработчика Google с этой Setup и много всего, что тесно связывает наш проект с Google (на мой взгляд, скажите, если я ошибаюсь).
Мой первый вопрос [ответил @Ian Barber]: есть ли способ использовать MLK без всей этой настройки с firebase? Или использовать его так же, как я использую MVA, просто реализовать зависимости и все?
EDIT: Мое приложение использовало Codelab из [MVA]. Это означает, что я смог обнаружить текст в видеопотоке (с камеры). Вся оптимизация захвата кадров, обработки и т. д. учитывалась несколькими хорошо построенными потоками. Но сейчас нет примера обработки видео с помощью [MLK]. Реализация Camera Source и Preview выглядят почти невозможными без работы возможностей MVA, только с MLK.
Мой второй вопрос (в соответствии с миграцией): как использовать CameraSource, CameraSourcePreview. Как мы использовали в MVA для работы с источником камеры для обнаружения текста.