Я создал и обучил пользовательскую модель визуального распознавания в IBM Cloud. Я хочу подключить его к своему приложению, которое я создаю с помощью Flutter. Я просмотрел ссылку на документ IBM API ниже, и все работало хорошо, но не говорится о подключении его к вашему приложению.
https://cloud.ibm.com/apidocs/visual-recognition/visual-recognition-v3#classify-images
Я пробовал использовать пакет flutter_ibm_watson из pub.dev (пакет сильно устарел и имеет много проблем, но я все равно попробовал). Я подключил свой ключ API и URL-адрес, но он даже не выводил результат изображения из классификаторов. Он просто определил, что это за изображение (например, изображение небоскреба вернулось как «небоскреб»).
IamOptions options = await IamOptions(iamApiKey: "NRDjngCby2d-pSHOPyWQJxhuB6vOY2uOTCX6KV2BCfwB", url: "https://api.us-south.visual-recognition.watson.cloud.ibm.com/instances/ef286f4e-84c7-44e0-b63d-a6a49a142a30").build();
VisualRecognition visualRecognition = new VisualRecognition(iamOptions: options, language: Language.ENGLISH); // Language.ENGLISH is language response
ClassifiedImages classifiedImages = await visualRecognition.classifyImageUrl("https://starindojaya.com/images/products/PAPER_CUP_PAPERCUP_2_OZ.jpg");
print(classifiedImages.getImages()[0].getClassifiers()[0].getClasses()[0].className);
Я также загрузил файл CoreML, как указано в документации по API, но не знаю, что с ним делать. Кстати, я заставил свое приложение подключаться к моей пользовательской модели визуального распознавания через класс StreamMyClassifier во Flutter, и это сработало очень хорошо. Тем не менее, я также хотел, чтобы оценка уверенности также отображалась пользователю. Я был бы признателен, если бы вы могли помочь. Все помогает. Спасибо.