Публикации по теме 'deep-neural-networks'


Критерии функции потери глубокой нейронной сети
В нашей модели глубокого обучения, в зависимости от того, выполняем ли мы задачи классификации или регрессии, мы должны определить функцию потерь, которая сравнивает прогнозируемый результат с ожидаемым результатом (помеченные данные). Классификация В задачах классификации функция потерь вычисляет потери при неправильной классификации. Наиболее часто используемые функции потерь для классификаций: кросс-энтропийные потери, потери шарнира и Кульбак-Лейблер. Cross-Entropy Loss..

USI от Alibaba: унифицированная схема обучения любой магистрали в ImageNet, обеспечивающая наилучшие результаты…
Десять лет назад команда Джеффри Хинтона положила начало современным исследованиям в области искусственного интеллекта благодаря выдающимся результатам AlexNet CNN в конкурсе ImageNet Large Scale Visual Recognition Challenge. В то время как набор данных ImageNet остается основным эталоном для вех в архитектуре моделей на…

Практическое использование глубоких нейронных сетей в здравоохранении
Рэй Курцвейл предположил, что скорость изменений в самых разнообразных эволюционных системах имеет тенденцию к экспоненциальному увеличению. Особенно это актуально в сфере информационных технологий. Эти технологии в отдельности делают впечатляющие успехи по-своему, проходя этот скачок роста, но когда они объединяются, происходит нечто захватывающее и волшебное - это приводит к сбоям в отрасли. Тема этой статьи - взглянуть на то, как достижения в области больших данных, машинного обучения,..

Методы инициализации весов нейронной сети.
Для обучения нейронной сети необходимо указать начальное значение весов. Правильно подобранный метод инициализации поможет в обучении. Понимание различных методов инициализации ваших весов жизненно важно для успеха вашей нейронной сети. В глубоком обучении есть три типа инициализации веса: 1- Инициализация нуля: есть два типа матриц, которые вам нужно инициализировать. весовые матрицы (W [1], W [2], W [3],…, W [L − 1], W [L]) (W [1], W [2], W [3],… , W [L − 1], W [L]) векторы..

Эффективные трансформаторы: обзор последних работ
От Доктор. Виджай Шринивас Агнисваран и Dr. Бадри Нараяна Патро Преобразователи, такие как Двунаправленные представления кодировщика от преобразователей (BERT) и Генерация естественного языка Тьюринга (T-NLG) от Microsoft , недавно стали популярными в мире машинного обучения для задач обработки естественного языка (NLP), таких как машинный перевод, текст обобщение, ответы на вопросы, предсказание белковой складки и даже задачи обработки изображений. В этой статье мы..

Когда предполагать, что нейронные сети могут решить проблему
Прагматичное руководство Вопрос: «Какие проблемы, как мы должны предположить, можно решить с помощью машинного обучения?», Или даже более узкий и более сфокусированный на текущих разработках «Какие проблемы, которые, как мы должны предположить, может решить нейронная сеть?», - это один из моих вопросов. не видел много адресовано. Существуют теории, такие как обучение PAC и AIX, которые на первый взгляд, кажется, вращаются вокруг этого, поскольку они относятся к машинному обучению в..

Лучший способ? Прогнозирование с использованием вложений
Лучший способ? Прогнозирование с использованием вложений Авторы Винс Ф , Эмилио Лапиелло и Эндрю Фаулер Существует широкий спектр моделей и инструментов, предназначенных для решения задач прогнозирования временных рядов: ARIMAX, экспоненциальное сглаживание, фильтры Калмана, RNN и LSTM, и это лишь некоторые из них. Но методы прогнозирования временных рядов, которые большинство специалистов по данным обычно используют для использования исторических данных, не всегда..