это больше вопрос к команде Firebase/MLKit.
При использовании одного и того же изображения в качестве входных данных для iOS и Android-версий MLKit Text Recognition On-Device API я получаю разные результаты для информации о ограничивающих прямоугольниках (x, y, ширина, высота), предоставляемой каждым решением.
См. ниже исходное входное изображение, которое я использовал для своих тестов, и другое изображение, на котором показаны ограничивающие рамки результирующего текстового блока, которые были нарисованы на основе информации, предоставленной обоими API распознавания текста на устройстве (синим цветом показан результат iOS). а красным — Android):
Кто-нибудь знает, что могло вызвать такие различия между результатами для версий API для iOS и Android? Я подозреваю, что они используют разные модели ML для распознавания текста/извлечения ограничивающих рамок. Если да, есть ли шанс, что оба решения будут работать на одной и той же модели в ближайшем будущем, поскольку они все еще находятся в стадии бета-версии?
Любые мысли приветствуются!
ImageView
), то я могу представить, что это проблема разрешения экрана. - person Barns   schedule 08.08.2018