![MQL5 - Язык торговых стратегий для клиентского терминала MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
CS 198-126: Лекция 3 - Введение в глубокое обучение, часть 2
CS 198-126: Лекция 3 - Введение в глубокое обучение, часть 2
В этом разделе лекции объясняется концепция обратного распространения, которая представляет собой более быстрый способ получить все частные производные, необходимые для алгоритма градиентного спуска, без выполнения избыточных операций. Лектор также обсуждает, как улучшить ванильный градиентный спуск для оптимизации глубокого обучения, и представляет импульс, RMSprop и Adam в качестве методов оптимизации. Также обсуждаются важность отслеживания истории обучения модели, использование пакетной нормализации и сборки в качестве метода повышения производительности модели, а также методы, обычно используемые в глубоком обучении для уменьшения переобучения, такого как отсев и пропуск соединений. Наконец, лектор кратко затрагивает простоту использования PyTorch и задает вопросы.
CS 198-126: Лекция 4 - Введение в предварительную подготовку и аугментации
CS 198-126: Лекция 4 - Введение в предварительную подготовку и аугментации
В этой лекции спикер объясняет эволюцию извлечения признаков в машинном обучении, преимущества глубокого обучения и то, как можно использовать трансферное обучение для повышения точности и скорости моделей. Они также обсуждают концепцию замораживания и точной настройки слоев в нейронных сетях и важность вложений для уменьшения размерности категориальных переменных. Лекция знакомит с самоконтролируемым обучением и его различными задачами, в том числе задачами головоломки, поворота и предсказания слов по маске, которые можно использовать для предварительной подготовки моделей и переноса изученных представлений в последующие задачи. Наконец, обсуждается возродившийся интерес к самостоятельному обучению компьютерному зрению, и лекция побуждает студентов выполнять домашнее задание на высокой тетради Crush.
простой для табличных данных, но сложный для таких данных, как текст, аудио или изображения. Однако для изображений в классическом компьютерном зрении доступны специализированные экстракторы признаков.
CS 198-126: Лекция 5 - Введение в компьютерное зрение
CS 198-126: Лекция 5 - Введение в компьютерное зрение
Эта лекция по компьютерному зрению охватывает различные темы, в том числе историю компьютерного зрения и его развитие на протяжении многих лет. Преподаватель также объясняет глубокое обучение и то, как оно улучшает классические методы компьютерного зрения. В лекции рассматривается концепция сверток и то, как они используются в качестве экстракторов признаков в компьютерном зрении, что приводит к созданию сверточных нейронных сетей (CNN). Кроме того, в лекции обсуждается роль рецептивных полей и вводятся объединяющие слои как метод увеличения рецептивного поля CNN. В целом лекция представляет собой обзор компьютерного зрения как области и методов, используемых для извлечения информации из изображений. Во второй части лекции обсуждаются различные техники сохранения размера изображения при свертках, в том числе padding и same padding. Также рассматривается концепция шага в сверточных слоях, демонстрирующая, как она может имитировать эффект объединяющего слоя. Объясняется анатомия CNN и ее гиперпараметры, включая размер ядра, шаг, отступы и слои объединения, с акцентом на то, как сверточный слой действует как экстрактор признаков, который передает низкоразмерные блоки признаков в полносвязную сеть. сеть для классификации. В лекциях также рассматривается архитектура сети LeNet для классификации рукописных цифр и важность нормализации данных изображения перед их передачей через нейронную сеть. Наконец, аугментация данных обсуждается как метод создания дополнительных обучающих данных, и подчеркивается важность контрольных точек модели во время обучения.
CS 198-126: Лекция 6 - Расширенные архитектуры компьютерного зрения
CS 198-126: Лекция 6 - Расширенные архитектуры компьютерного зрения
Эта лекция о передовых архитектурах компьютерного зрения посвящена сверточным нейронным сетям (CNN) и их различным методам. Лектор объясняет архитектуру AlexNet и VGG, а затем углубляется в передовые методы, такие как остаточные значения для поддержания остаточных значений для более высокой точности и более простых архитектур. Обсуждается использование узких мест и сверток один за другим, а также важность возможности изучения идентичности в архитектурах компьютерного зрения. В лекции также рассматриваются проблемы исчезающих градиентов в нейронных сетях и то, как их можно облегчить с помощью пакетной нормализации и остаточных сетей. Подробно объясняются такие методы, как глобальное среднее пулирование и свертка с разделением по глубине, после чего следует обсуждение архитектуры мобильной сети и ее преимуществ.
Также лектор исследует передовые архитектуры компьютерного зрения и фокусируется на оптимизации моделей сверточных нейронных сетей с использованием пошаговых локальных сверток и сверток один за другим. Он подчеркивает важность понимания этих оптимизаций и проблем, которые могут возникнуть с некоторыми оптимизациями при эффективном построении будущих сетей. Лекция завершается обсуждением компромисса между точностью, производительностью и размером модели, выделенного сравнением эффективной сетевой модели с другими сетями. Учащихся уведомляют о предстоящей викторине и домашнем задании, которое нужно выполнить в следующую пятницу.
CS 198-126: Лекция 7 - Обнаружение объектов
CS 198-126: Лекция 7 - Обнаружение объектов
В лекции обсуждается обнаружение объектов, в частности добавление локализации к простой классификации CNN, метод IOU для обнаружения объектов, система R-CNN и оптимизация алгоритмов обнаружения объектов для минимизации времени обработки с помощью YOLO. Видео объясняет YOLO, нарезая изображение, и обсуждает проблемы с обнаружением объектов YOLO, в том числе использование блоков привязки для устранения двусмысленности. Наконец, исследуется архитектура YOLO, которая представляет собой полностью сверточную нейронную сеть для обнаружения объектов, а хранение большого количества классов для классификации представлено как постоянный исследовательский вопрос. Спикер рекомендует прочитать «Желтую газету», но не советует RCNN из-за нечитабельности.
CS 198-126: Лекция 8 - Семантическая сегментация
CS 198-126: Лекция 8 - Семантическая сегментация
В лекции обсуждается сегментация изображений, в том числе семантическая сегментация и сегментация экземпляров. Основная цель сегментации — обнаружить все объекты на изображении и выделить их. Лектор объясняет, как сверточная нейронная сеть (CNN) может использоваться для семантической сегментации и как субдискретизация может помочь с дорогостоящими в вычислительном отношении изображениями с полным разрешением. Также обсуждаются различные подходы к преобразованию небольшого объема обратно в размер изображения. Лекция представляет U-Net, модель семантической сегментации, которая сочетает в себе предыдущие улучшения с пропуском соединений, и объясняет, как ее можно расширить до сегментации экземпляров с использованием подхода Mask R-CNN. Демонстрируется предварительно обученная модель семантической сегментации, а спикер рассказывает о предобучении и предстоящих заданиях курса.
CS 198-126: Лекция 9 - Автоэнкодеры, VAE, генеративное моделирование
CS 198-126: Лекция 9 - Автоэнкодеры, VAE, генеративное моделирование
В этой лекции представлена концепция генеративного моделирования, которая включает использование машинного обучения для создания новых изображений на основе набора данных. Объясняются автоэнкодеры, тип нейронной сети, используемый для изучения признаков, с акцентом на их структуру и то, как они могут изучать свойства входных данных посредством сжатия и реконструкции. В лекции также рассматриваются вариационные автоэнкодеры и их преимущества, а также использование структурированных скрытых пространств в автоэнкодерах для интерполяции между изображениями. Обсуждается важность векторного квантования для работы с дискретными данными и объясняется функция потерь для вариационного автоэнкодера, которая включает в себя потери при реконструкции и потери фиксации для предотвращения жесткого кодирования входных данных. Лекция заканчивается подведением итогов затронутых тем.
CS 198-126: Лекция 10 - GAN
CS 198-126: Лекция 10 - GAN
Лекция о GAN знакомит с концепцией двух сетей, дискриминатора и генератора, конкурирующих друг с другом в настройке, похожей на теорию игр. На вход генератора поступает случайный шум, которому он присваивает значение для создания реалистичных изображений, а работа дискриминатора состоит в том, чтобы определить, является ли изображение реальным или поддельным. GAN используют функцию потерь, которая соответствует отрицательной кросс-энтропийной потере, при этом генератор хочет минимизировать, а дискриминатор хочет максимизировать ее. Функция значения показывает, насколько хорошо работает генератор, и должна быть максимизирована дискриминатором путем правильной классификации поддельных и реальных данных. В лекции также рассматриваются вопросы обучения GAN и ненасыщающих потерь, которые позволяют генератору иметь больше возможностей для изменений.
CS 198-126: Лекция 11 — Продвинутые GAN
CS 198-126: Лекция 11 — Продвинутые GAN
В этой лекции по продвинутым GAN рассматриваются различные методы повышения стабильности и качества моделей GAN, включая билинейную повышающую дискретизацию, транспонированную свертка, условные GAN, StyleGAN и CycleGAN. В лекции также обсуждается использование контролируемого случайного шума, адаптивная нормализация экземпляров и обработка видео в GAN. Для достижения большей стабильности и результатов лектор рекомендует использовать большие размеры пакетов и обрезать диапазон случайного шума во время тестирования, предостерегая при этом от чрезмерного ослабления дискриминатора. Кроме того, предлагается начать с широкого распределения различных размеров скрытого пространства для создания различных изображений. Наконец, лекция касается Big Gan, который помогает генерировать GAN в очень больших масштабах.
CS 198-126: Лекция 12 - Диффузные модели
CS 198-126: Лекция 12 - Диффузные модели
В этой лекции о моделях диффузии спикер обсуждает интуицию, стоящую за моделями диффузии — предсказание шума, добавляемого к изображению, и его устранение для получения исходного изображения. Лекция охватывает процесс обучения, расширенную архитектуру и примеры моделей распространения при создании изображений и видео. Кроме того, в лекции подробно рассматриваются модели скрытой диффузии, которые сжимают модель в скрытое пространство, чтобы запустить диффузию в семантической части изображения. Докладчик также представляет обзор связанных моделей, таких как Dolly Q, модель Google Imagine и Make a Video от Facebook, а также их способность создавать 3D-модели с использованием текста.