Я новичок в TF serving
, и в настоящее время у меня такая проблема. Я запускаю серверную часть, используя bert_en_uncased из TF HUB
, но я не понять, как правильно реализовать клиентскую часть. Я столкнулся с парой статей, но каждая из них предполагает, что у меня есть готовая отлаженная модель с заранее назначенными обработчиками запросов. Может ли кто-нибудь поделиться некоторыми репетиторами или, возможно, ссылками на API, чтобы облегчить мою задачу?
Некоторые из прочитанных мною статей:
- Разверните обслуживаемую модель ответа на вопрос, используя Обслуживание TensorFlow
- 3 способа оптимизации и экспорта Модель BERT для онлайн-обслуживания
- Использование тонко настроенной модели BERT для обслуживания Tensorflow (проблема GitHub)
PS. Я не пытаюсь создать модель QA или что-то в этом роде, мне просто нужны вложения BERT из этой конкретной модели.