Вопросы по теме 'huggingface-transformers'

Не удалось сохранить модель tf.keras с классификатором Bert (huggingface)
Я обучаю бинарный классификатор, который использует Берта (обнимающее лицо). Модель выглядит так: def get_model(lr=0.00001): inp_bert = Input(shape=(512), dtype="int32") bert =...
1050 просмотров

Токенизатор BERT и загрузка модели
Я новичок .. Я работаю с Бертом. Однако из-за безопасности сети компании следующий код не получает напрямую модель bert. tokenizer = BertTokenizer.from_pretrained('bert-base-multilingual-cased', do_lower_case=False) model =...
11948 просмотров

получение кодировок на уровне слов из кодировок токенов вложенных слов
Я изучаю использование предварительно обученной модели BERT ('bert-base-uncased') для извлечения контекстуализированных кодировок на уровне слов из группы предложений. Обозначение словесных элементов разбивает некоторые слова в моем вводе на...
243 просмотров

Как именно должен быть отформатирован входной файл для тонкой настройки языковой модели (BERT через Huggingface Transformers)?
Я хотел использовать examples/run_lm_finetuning.py из репозитория Huggingface Transformers на предварительно обученной модели Берта. Однако из документации не очевидно, как должен быть структурирован файл корпуса (кроме ссылки на набор данных...
4125 просмотров

Как я могу реализовать простой ответ на вопросы с помощью обнимающего лица?
У меня есть: from transformers import XLNetTokenizer, XLNetForQuestionAnswering import torch tokenizer = XLNetTokenizer.from_pretrained('xlnet-base-cased') model = XLNetForQuestionAnswering.from_pretrained('xlnet-base-cased') input_ids =...
231 просмотров

Запутался в документации трансформаторов
Я читаю документацию библиотеки трансформатора из huggingface, и меня немного смущает прямой вывод BertModel. В документах указано, что есть два вывода (и два дополнительных), которые: последнее скрытое состояние объединенный вывод и в...
85 просмотров
schedule 24.05.2022

Тонкая настройка предварительно обученной языковой модели с помощью Simple Transformers
В своей статье «Тонкая настройка языковой модели для предварительно обученных трансформеров» Тилина Раджапаксе ( https://medium.com/skilai/language-model-fine-tuning-for-pre-trained-transformers-b7262774a7ee)rel= ) предоставляет следующий фрагмент...
873 просмотров

HuggingFace BERT `inputs_embeds` дает неожиданный результат
Реализация TensorFlow HuggingFace BERT позволяет нам использовать предварительно вычисленное встраивание вместо встроенный поиск, свойственный BERT. Это делается с помощью необязательного параметра inputs_embeds метода call модели (вместо...
863 просмотров

Как получить вероятность конкретного токена (слова) в предложении с учетом контекста
Я пытаюсь вычислить вероятность или любой тип оценки слов в предложении с помощью НЛП. Я пробовал этот подход с моделью GPT2, используя библиотеку Huggingface Transformers, но я не смог получить удовлетворительных результатов из-за однонаправленного...
1489 просмотров

Что означает файл merge.txt в моделях на основе BERT в библиотеке HuggingFace?
Я пытаюсь понять, что означает файл merge.txt в токенизаторах для модели RoBERTa в библиотеке HuggingFace. Однако на их сайте об этом ничего не говорится. Любая помощь приветствуется.
349 просмотров

Как с помощью преобразователя HuggingFace я могу вернуть несколько образцов при генерации текста?
Я ухожу с https://github.com/cortexlabs/cortex/blob/master/examples/pytorch/text-generator/predictor.py Но если я прохожу num_samples=5 , я получаю: generated = torch.cat((generated, next_token.unsqueeze(0)), dim=1) RuntimeError: Sizes...
620 просмотров

Сохраняйте только лучшие веса с трансформаторами huggingface
В настоящее время я создаю новую модель на основе трансформатора с huggingface-transformers, где уровень внимания отличается от исходного. Я использовал run_glue.py , чтобы проверить производительность моей модели на тесте GLUE. Тем не менее, я...
2534 просмотров

Ошибка Pytorch RuntimeError: индекс вне диапазона: попытка доступа к индексу 512 вне таблицы с 511 строками
У меня есть предложения, которые я векторизую с помощью метода scheme_vector () модуля Python BiobertEmbedding ( https://pypi.org/project/biobert-embedding/ ). Для некоторых групп предложений у меня нет проблем, но для некоторых других у меня...
1841 просмотров

ImportError: невозможно импортировать имя hf_bucket_url в HuggingFace Transformers
Итак, я установил последнюю версию трансформеров на Google Colab. !pip install transformers При попытке вызвать файл преобразования с помощью !python /usr/local/lib/python3.6/dist-packages/transformers/convert_pytorch_checkpoint_to_tf2.py...
412 просмотров

Tensorflow BERT для классификации токенов - исключите токены падов из точности при обучении и тестировании
Я делаю классификацию на основе токенов, используя предварительно обученную BERT-модель для tenorflow, чтобы автоматически отмечать причины и следствия в предложениях. Для доступа к BERT я использую интерфейс TFBertForTokenClassification из...
1834 просмотров

Как я могу получить оценку в конвейере вопросов и ответов? Есть ли ошибка при использовании конвейера вопрос-ответ?
Когда я запускаю следующий код from transformers import AutoTokenizer, AutoModelForQuestionAnswering import torch tokenizer = AutoTokenizer.from_pretrained("bert-large-uncased-whole-word-masking-finetuned-squad") model =...
301 просмотров
schedule 21.08.2022

Как обучить модель Huggingface TFT5ForConditionalGeneration?
Мой код выглядит следующим образом: batch_size=8 sequence_length=25 vocab_size=100 import tensorflow as tf from transformers import T5Config, TFT5ForConditionalGeneration configT5 = T5Config( vocab_size=vocab_size, d_ff =512, ) model =...
140 просмотров
schedule 08.06.2022

Токены, возвращенные в трансформаторной модели Берта из encode ()
У меня есть небольшой набор данных для анализа настроений. Классификатор будет простым KNN, но я хотел получить слово «встраивание» с моделью Bert из библиотеки transformers . Обратите внимание, что я только что узнал об этой библиотеке - я все...
1026 просмотров

Последние слои лонгформера для встраивания документов
Как правильно вернуть ограниченное количество слоев с помощью API longformer? В отличие от этого случая в базовом BERT мне не ясно из возвращаемого типа, как получить только последние N слоев. Итак, я запускаю это: from transformers import...
529 просмотров

Каталог моделей трубопроводов трансформаторов
Я использую функцию конвейера Transformers Huggingface, чтобы загрузить модель и токенизатор, мой ПК с Windows загрузил их, но я не знаю, где они хранятся на моем ПК. Не могли бы вы мне помочь? from transformers import pipeline qa_pipeline =...
170 просмотров