Мы пытаемся использовать модель TensorFlow Face Mesh в нашем приложении для iOS. Сведения о модели: https://drive.google.com/file/d/1VFC_wIpw4O7xBOiTgUldl79d9LA-LsnA/view.
Я следовал официальному руководству TS по настройке модели: https://firebase.google.com/docs/ml-kit/ios/use-custom-models, а также распечатал ввод-вывод модели с помощью скрипта Python в учебнике и получил это:
INPUT
[ 1 192 192 3]
<class 'numpy.float32'>
OUTPUT
[ 1 1 1 1404]
<class 'numpy.float32'>
На данный момент я совершенно потерялся, пытаясь понять, что означают эти числа и как мне передать входное изображение и получить выходные точки сетки лица, используя модель Interpreter
. Вот мой код Swift на данный момент:
let coreMLDelegate = CoreMLDelegate()
var interpreter: Interpreter
// Core ML delegate will only be created for devices with Neural Engine
if coreMLDelegate != nil {
interpreter = try Interpreter(modelPath: modelPath,
delegates: [coreMLDelegate!])
} else {
interpreter = try Interpreter(modelPath: modelPath)
}
Любая помощь будет высоко оценена!