Могу ли я использовать ненастроенную модель BERT от TF HUB, чтобы обслуживать ее с обслуживанием TF?

Я новичок в TF serving, и в настоящее время у меня такая проблема. Я запускаю серверную часть, используя bert_en_uncased из TF HUB, но я не понять, как правильно реализовать клиентскую часть. Я столкнулся с парой статей, но каждая из них предполагает, что у меня есть готовая отлаженная модель с заранее назначенными обработчиками запросов. Может ли кто-нибудь поделиться некоторыми репетиторами или, возможно, ссылками на API, чтобы облегчить мою задачу?

Некоторые из прочитанных мною статей:

PS. Я не пытаюсь создать модель QA или что-то в этом роде, мне просто нужны вложения BERT из этой конкретной модели.


person tmwstw    schedule 23.03.2020    source источник


Ответы (1)


UPD: уже решил эту проблему. Главное, что у модели TF.HUB нет списка спецификаций или чего-то в этом роде, только некоторая документация о том, как вы можете использовать ее с tf.hub. Если вы столкнулись с подобной проблемой, я рекомендую сделать следующее: 1) Установить / скомпилировать из исходного кода SavedModelCli, это инструмент TensorFlow, который, скажем, распаковывает сохраненные модели и получает их спецификации; 2) Найдите руководства по TF Serving, просто измените некоторые фрагменты кода, почти все реализации одинаковы; 3) Вероятно, вы можете (и вы БУДЕТЕ, поверьте мне) столкнуться с предупреждениями об устаревании. Не пытайтесь искать документацию, решение было здесь :) Удачи в обслуживании ваших моделей!

person tmwstw    schedule 15.04.2020