Я вручную скручивал аугментеры с помощью imgaug, так как мне очень нравятся некоторые из параметры, которые недоступны в API обнаружения объектов tf < / а>. Например, я использую размытие в движении, потому что большая часть моих данных содержит быстро движущиеся размытые объекты.
Как мне лучше всего интегрировать мою последовательность аугментации с API для обучения на лету?
Например, скажем, у меня есть аугментер:
aug = iaa.SomeOf((0, 2),
[iaa.Fliplr(0.5), iaa.Flipud(0.5), iaa.Affine(rotate=(-10, 10))])
Есть ли способ настроить api обнаружения объектов для работы с этим?
В настоящее время я использую imgaug
для генерации (дополненных) обучающих данных, а затем создаю файлы tfrecord
на каждой итерации этого конвейера дополнений. Это очень неэффективно, поскольку я сохраняю большие объемы данных на диск, а не выполняю дополнения на лету, во время обучения.
tf.py_func
, что может быть не очень эффективно. - person jdehesa   schedule 18.09.2019preprocessing.py
, возможно, это то место, где можно это протолкнуть., - person eric   schedule 19.09.2019preprocessing.py
. Честно говоря, я ожидал, что интеграция imgaug с TF api будет простой, подумал, что просто упустил какой-то стандартный трюк. - person eric   schedule 24.09.2019