Вопросы по теме 'precision-recall'

Средние значения точности, отзыва и fscore для каждой метки
Я проверяю модель классификатора sklearn и хочу быстро получить средние значения точности, отзыва и f-показателя. Как я могу получить эти значения? Я не хочу самостоятельно кодировать перекрестную проверку, вместо этого я использую функцию...
820 просмотров

Как нарисовать кривую точности-отзыва с интерполяцией в Python?
Я нарисовал кривую точности-отзыва, используя sklearn precision_recall_curve function и matplotlib package. Те из вас, кто знаком с кривой точности-отзыва, знают, что некоторые научные сообщества принимают ее только тогда, когда она...
9647 просмотров

h2o ValueError: нет метрики tpr
При попытке получить оценку отзыва с помощью, например, rf_model.recall() Я получаю сообщение об ошибке: h2o ValueError: No metric tpr Я могу получить другие показатели, такие как точность, AUC, точность и F1, но не могу вспомнить...
442 просмотров

Область под кривой точности-отзыва для DecisionTreeClassifier представляет собой квадрат.
Я использую DecisionTreeClassifier из scikit-learn для классификации некоторых данных. Я также использую другие алгоритмы и для их сравнения использую площадь под метрикой точности-отзыва. Проблема в том, что форма AUPRC для DecisionTreeClassifier...
1922 просмотров

Как понять кривую auc_precision_recall в тензорной доске?
Версии: TensorFlow: 1.6.0 TensorBoard: 1.6.0 Чем я занимаюсь и с чем знаком: Использование готового Estimator tf.estimator.DNNClassifier для обучения модели двоичной классификации с largely skewed dataset (а именно...
1535 просмотров

Подсчет количества истинных положительных результатов по кривой точности-отзыва
Используя приведенный ниже график точности отзыва, где отзыв находится по оси x, а точность - по оси y, могу ли я использовать эту формулу для расчета количества прогнозов для заданной точности, порога отзыва? Эти расчеты основаны на...
1155 просмотров

Оценка результатов поискового запроса в python: ранжированный список против одного правильного документа, помеченного вручную
Учитывая следующий прогнозируемый ранжированный список документов: query1_predicted = [1381, 1637, 646, 1623, 774, 1764, 92, 12, 642, 463, 613, ...] и этот отмеченный вручную лучший выбор: query1_manual = 646 Есть ли какая-либо...
497 просмотров

Как построить точность и отзывчивость мультиклассового классификатора?
Я использую scikit learn и хочу построить кривые точности и запоминания. я использую классификатор RandomForestClassifier . Все ресурсы в документации scikit learn используют двоичную классификацию. Кроме того, могу ли я построить кривую ROC для...
14507 просмотров

вычислить максимальный балл f1, используя precision_recall_curve?
Для простой задачи бинарной классификации я хотел бы найти, какое пороговое значение максимизирует показатель f1, который является гармоническим средним значением точности и полноты. Есть ли встроенный в scikit урок, который делает это? Прямо сейчас...
2477 просмотров

точность как функция точности и отзыва
Я знаю это: Accuracy = TP+TN/TP+FP+FN+TN Precision = TP/TP+FP Recall = TP/TP+FN Но я хочу знать, есть ли способ вычислить точность с учетом только значений precision и вспомнить .
95 просмотров

То же значение для метрик Keras 2.3.0: точность, точность и отзывчивость
Я пытаюсь получить метрики keras для точности, точности и отзывчивости, но все три из них показывают одно и то же значение, которое на самом деле является точностью. Я использую список показателей, приведенный в примере документации TensorFlow:...
1781 просмотров

Обучение и проверка Вопрос LSTM: проблема точности и отзыва
У меня есть модель LSTM Encoder-Decoder, которую я разработал для классификации движения цен на основе модели Jump-Diffusion (по сути, проблема двоичной классификации). Моя модель разделена на 75/25 между обучением и проверкой. Моя проблема...
423 просмотров

Высокая AUC, умеренная точность и полнота в соотношении ~1:1: лучшая модель, сочетающая точность и полноту?
Я обучил нейронную сеть с прямой связью для классификации несбалансированного набора данных (pos:neg=67:1) со следующей производительностью: Высокий AUC: 0,964 Средняя точность: 0,592 Умеренный отзыв: 0,569 Точность и полнота более или менее...
19 просмотров
schedule 24.10.2023

В двоичной классификации кодирование целевой переменной из yes=1, no=0 дает результаты, отличные от yes=0, no=1 в XGboosting.
Я новичок в машинном обучении. В задаче бинарной классификации мы кодируем/преобразуем целевую переменную, такую ​​как yes=1 и No=0 (непосредственно в наборе данных), это дает следующие результаты. Точность:95 Напомним: 90 Точность: 94...
92 просмотров