Публикации по теме 'deep-neural-networks'
Критерии функции потери глубокой нейронной сети
В нашей модели глубокого обучения, в зависимости от того, выполняем ли мы задачи классификации или регрессии, мы должны определить функцию потерь, которая сравнивает прогнозируемый результат с ожидаемым результатом (помеченные данные).
Классификация
В задачах классификации функция потерь вычисляет потери при неправильной классификации. Наиболее часто используемые функции потерь для классификаций: кросс-энтропийные потери, потери шарнира и Кульбак-Лейблер.
Cross-Entropy Loss..
USI от Alibaba: унифицированная схема обучения любой магистрали в ImageNet, обеспечивающая наилучшие результаты…
Десять лет назад команда Джеффри Хинтона положила начало современным исследованиям в области искусственного интеллекта благодаря выдающимся результатам AlexNet CNN в конкурсе ImageNet Large Scale Visual Recognition Challenge. В то время как набор данных ImageNet остается основным эталоном для вех в архитектуре моделей на…
Практическое использование глубоких нейронных сетей в здравоохранении
Рэй Курцвейл предположил, что скорость изменений в самых разнообразных эволюционных системах имеет тенденцию к экспоненциальному увеличению. Особенно это актуально в сфере информационных технологий. Эти технологии в отдельности делают впечатляющие успехи по-своему, проходя этот скачок роста, но когда они объединяются, происходит нечто захватывающее и волшебное - это приводит к сбоям в отрасли. Тема этой статьи - взглянуть на то, как достижения в области больших данных, машинного обучения,..
Методы инициализации весов нейронной сети.
Для обучения нейронной сети необходимо указать начальное значение весов. Правильно подобранный метод инициализации поможет в обучении.
Понимание различных методов инициализации ваших весов жизненно важно для успеха вашей нейронной сети.
В глубоком обучении есть три типа инициализации веса:
1- Инициализация нуля: есть два типа матриц, которые вам нужно инициализировать.
весовые матрицы (W [1], W [2], W [3],…, W [L − 1], W [L]) (W [1], W [2], W [3],… , W [L − 1], W [L]) векторы..
Эффективные трансформаторы: обзор последних работ
От Доктор. Виджай Шринивас Агнисваран и Dr. Бадри Нараяна Патро
Преобразователи, такие как Двунаправленные представления кодировщика от преобразователей (BERT) и Генерация естественного языка Тьюринга (T-NLG) от Microsoft , недавно стали популярными в мире машинного обучения для задач обработки естественного языка (NLP), таких как машинный перевод, текст обобщение, ответы на вопросы, предсказание белковой складки и даже задачи обработки изображений.
В этой статье мы..
Когда предполагать, что нейронные сети могут решить проблему
Прагматичное руководство
Вопрос: «Какие проблемы, как мы должны предположить, можно решить с помощью машинного обучения?», Или даже более узкий и более сфокусированный на текущих разработках «Какие проблемы, которые, как мы должны предположить, может решить нейронная сеть?», - это один из моих вопросов. не видел много адресовано.
Существуют теории, такие как обучение PAC и AIX, которые на первый взгляд, кажется, вращаются вокруг этого, поскольку они относятся к машинному обучению в..
Лучший способ? Прогнозирование с использованием вложений
Лучший способ? Прогнозирование с использованием вложений
Авторы Винс Ф , Эмилио Лапиелло и Эндрю Фаулер
Существует широкий спектр моделей и инструментов, предназначенных для решения задач прогнозирования временных рядов: ARIMAX, экспоненциальное сглаживание, фильтры Калмана, RNN и LSTM, и это лишь некоторые из них. Но методы прогнозирования временных рядов, которые большинство специалистов по данным обычно используют для использования исторических данных, не всегда..