Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
AlphaZero с нуля — учебник по машинному обучению
AlphaZero с нуля — учебник по машинному обучению
00:00:00 - 01:00:00 Видео «AlphaZero с нуля — Учебное пособие по машинному обучению» учит пользователей, как создавать и обучать алгоритм AlphaZero с использованием Python и PyTorch, чтобы играть в сложные настольные игры на сверхчеловеческих уровнях, с примерами, приведенными для Tic-tac-toe (крестики-нолики) и Connect 4. Одним из ключевых компонентов алгоритма является поиск по дереву Монте-Карло, который включает в себя выбор наиболее многообещающего действия, расширение дерева и моделирование игры, а результаты используются для обучения. В учебном пособии демонстрируется расширение узлов во время алгоритма исследования Монте-Карло, процесс самостоятельной игры и обучение модели с использованием функций потерь, которые минимизируют разницу между политикой и распределением MCTS, а также значением и окончательным вознаграждением. Видео заканчивается созданием игры в крестики-нолики и ее тестированием в цикле while.
01:00:00 - 02:00:00 В этом разделе руководства по сборке AlphaZero с нуля инструктор демонстрирует реализацию алгоритма поиска по дереву Монте-Карло (MCTS) для игры Крестики-нолики. Алгоритм реализуется через новый класс для MCTS, который включает метод поиска, определяющий цикл повторяющихся итераций для фаз выбора, расширения, моделирования и обратного распространения. В видео также рассказывается о реализации архитектуры нейронной сети AlphaZero, которая включает в себя две головки, одну для политики и одну для значения, и использует остаточную сеть с пропуском соединений. Заголовок политики использует функцию softmax, чтобы указать наиболее многообещающее действие, а заголовок значения дает оценку того, насколько хорошим является текущее состояние. Спикер также обсуждает реализацию стартового блока и магистрали для класса ResNet и объясняет, как использовать модель AlphaZero для получения политики и значения для заданного состояния в крестики-нолики.
02:00:00 - 03:00:00 Учебник "AlphaZero с нуля" демонстрирует построение алгоритма AlphaZero с помощью машинного обучения. Докладчик затрагивает широкий круг тем: от обновления алгоритма MCTS, самостоятельных игр и методов обучения до таких улучшений, как добавление температуры в распределение вероятностей, снижение веса и поддержка графического процессора в модели, а также добавление шума в корневой узел. Учебное пособие шаг за шагом проводит зрителя через реализацию этих функций, показывая, как кодировать состояние узла, получать политику и выходные данные значений, а также настраивать политику с помощью softmax, действительных перемещений и случайного шума Дирихле, чтобы добавить исследование, обеспечивая при этом многообещающие действия не пропускаются.
03:00:00 - 04:05:00 В этом учебном пособии YouTube по созданию AlphaZero с нуля с использованием машинного обучения инструктор охватывает различные темы, такие как добавление исследования в политику с коэффициентом шума, включение поддержки ЦП и ГП для обучения моделей на более сложные игры, обновление исходного кода для создания игры Connect Four, повышение эффективности реализации AlphaZero за счет распараллеливания, создание двух новых классов на Python для самостоятельных игр, кодирование состояний для повышения эффективности, реализация алгоритма поиска по дереву Монте-Карло для AlphaZero и обучение модели для Connect Four с использованием распараллеленного fs0. Учебное пособие содержит пошаговые инструкции по каждой теме с упором на создание эффективной и действенной реализации AlphaZero. Ведущий демонстрирует, как создать среду Connect Four с помощью пакета окружений Кегеля, затем запускает и визуализирует игру с двумя агентами, использующими алгоритм поиска MCTS на основе обученной модели AlphaZero. Ведущий также вносит небольшие исправления в код и определяет первого игрока как агента, используя алгоритм MCTS для прогнозов на основе обученной модели. Учебное пособие заканчивается тем, что ведущий предоставляет репозиторий GitHub с блокнотами Jupyter для каждой контрольной точки и папку с весами с последней моделью для крестиков-ноликов и Connect Four, выражая заинтересованность в создании дополнительного видео о Mu Zero, если таковое имеется. интерес к этому.
Часть 1
Часть 2
Часть 3
Часть 4
Google в панике из-за ChatGPT [Войны ИИ начались]
Google в панике из-за ChatGPT [Войны ИИ начались]
В видео рассказывается, как Google готовится к тому, что чат-боты станут более мощными, и как это может повлиять на их бизнес-модель. Сообщается, что Microsoft работает над чат-ботом, который позволит пользователям общаться с Bing более по-человечески, и эта функция будет полезна для поиска, где изображений в настоящее время не существует. Microsoft заявила, что они тесно сотрудничают с открытым ИИ, поэтому эта функция не создает явных или неуместных визуальных эффектов. Итак, похоже, что Bing претерпевает капитальный ремонт с интегрированными функциями чата GPT и Dali 2.
КОНФЕРЕНЦИЯ ДЖЕНСЕН ХУАНГ (NVIDIA) и ИЛЬЯ СУЦКЕВЕР (OPEN AI).AI СЕГОДНЯ И ВИДЕНИЕ БУДУЩЕГО
КОНФЕРЕНЦИЯ ДЖЕНСЕН ХУАНГ (NVIDIA) и ИЛЬЯ СУЦКЕВЕР (OPEN AI).AI СЕГОДНЯ И ВИДЕНИЕ БУДУЩЕГО
Генеральный директор NVIDIA Дженсен Хуанг и соучредитель OpenAI Илья Суцкевер обсуждают на конференции происхождение и достижения искусственного интеллекта (ИИ). Суцкевер объясняет, как глубокое обучение стало для него понятным, как неконтролируемое обучение посредством сжатия привело к открытию нейрона, соответствующего чувствам, и как предварительное обучение нейронной сети привело к обучению и совершенствованию в сотрудничестве с человеком и ИИ. Они также обсуждают достижения и ограничения GPT-4 и многомодального обучения, а также роль создания синтетических данных и повышения надежности систем ИИ. Несмотря на то, что это одна и та же концепция 20-летней давности, они оба восхищаются прогрессом, достигнутым в исследованиях ИИ.
Пришло время обратить внимание на ИИ (ChatGPT и не только)
Пришло время обратить внимание на ИИ (ChatGPT и не только)
В видео обсуждается развитие искусственного интеллекта (ИИ) и то, как он меняет то, как мы работаем и живем. Некоторые люди в восторге от потенциала ИИ, в то время как другие обеспокоены его потенциальными последствиями. Спикер также дает краткое изложение недавнего эпизода подкаста.
История удивительного потенциала ChatGPT | Грег Брокман | ТЕД
История удивительного потенциала ChatGPT | Грег Брокман | ТЕД
В этом разделе видео Грег Брокман обсуждает роль ИИ в улучшении образования. Он утверждает, что традиционные методы обучения часто бывают неэффективными и неэффективными, поскольку ученики изо всех сил стараются сохранить знания, а учителя изо всех сил пытаются преподавать таким образом, чтобы вовлечь каждого ученика. Брокман предполагает, что ИИ может помочь решить эти проблемы, предоставляя каждому учащемуся персонализированный опыт обучения. С помощью инструментов ИИ можно отслеживать успеваемость учащихся в режиме реального времени, корректируя учебную программу в соответствии с их потребностями и предпочтениями. Это может привести к более увлекательному и эффективному обучению, позволяя учащимся сохранить больше знаний, а учителям сосредоточиться на более важных задачах. Брокман также подчеркивает важность разработки инструментов ИИ с учетом конфиденциальности, гарантируя, что данные учащихся защищены и используются только в образовательных целях.
Deep Learning в науках о жизни — весна 2021 г.
Массачусетский технологический институт глубокое обучение в науках о жизни — весна 2021 г.
Курс «Глубокое обучение в науках о жизни» применяет машинное обучение к различным задачам наук о жизни и преподается исследователем в области машинного обучения и геномики с преподавательским составом, состоящим из аспирантов и студентов Массачусетского технологического института. Курс охватывает основы машинного обучения, схемы регуляции генов, вариации заболеваний, взаимодействие белков и их укладку, а также визуализацию с использованием TensorFlow через Python на платформе Google Cloud. Курс будет состоять из четырех наборов задач, викторины и командного проекта с чередующимися сеансами наставничества, чтобы помочь студентам в разработке собственных проектов. Преподаватель подчеркивает важность создания команды с взаимодополняющими навыками и интересами и предоставляет различные вехи и результаты на протяжении всего семестра. Курс направлен на предоставление реального опыта, включая написание заявок на гранты и стипендии, экспертную оценку, годовые отчеты и развитие навыков общения и сотрудничества. Докладчик обсуждает различия между традиционным ИИ и глубоким обучением, которое строит внутреннее представление сцены на основе наблюдаемых стимулов, и подчеркивает важность глубокого обучения в науках о жизни из-за конвергенции обучающих данных, вычислительной мощности и новых алгоритмов. .
Видео представляет собой вводную лекцию о глубоком обучении в науках о жизни, объясняющую важность машинного обучения и глубокого обучения в исследовании сложности мира. Доклад посвящен концепции байесовского вывода и тому, как он играет решающую роль в классическом и глубоком машинном обучении, а также различиям между генеративным и дискриминативным подходами к обучению. В лекции также освещаются возможности машин опорных векторов, производительность классификации и линейная алгебра для понимания сетей в биологических системах. Спикер отмечает, что курс будет охватывать различные темы глубокого обучения, в том числе регуляризацию, предотвращение переобучения и обучающие наборы. Лекция завершается рассмотрением вопросов, связанных с интерпретируемостью искусственных нейронов и глубоких сетей для будущих лекций.
Основы машинного обучения — Лекция 02 (весна 2021 г.)
Основы машинного обучения — глубокое обучение в науках о жизни, лекция 02 (весна 2021 г.)
В этой лекции рассматриваются основы машинного обучения, вводятся такие понятия, как обучающие и тестовые наборы, типы моделей, такие как дискриминационные и генеративные, оценка функций потерь, регуляризация и переобучение, а также нейронные сети. Лектор продолжает объяснять важность гиперпараметров, оценки точности в науках о жизни, корреляционного тестирования и расчетов вероятности для тестирования моделей. Наконец, обсуждаются основы глубоких нейронных сетей и структура нейрона, подчеркивая роль нелинейности в изучении сложных функций.
Во втором разделе лекции объясняется концепция функций активации в глубоком обучении, а также процесс обучения корректировке весов в соответствии с выходной функцией с использованием частных производных при настройке обновлений весов для минимизации ошибок, что является основой градиента. обучение на основе. Понятие обратного распространения вводится как метод распространения производных через нейронную сеть для корректировки весов. Обсуждаются различные методы оптимизации весов в нескольких слоях моделей глубокого обучения, включая стохастический градиентный спуск и концепцию емкости модели и размерности VC. Также обсуждаются эффективность емкости модели на графике, а также смещение и дисперсия, а также различные методы регуляризации, такие как ранняя остановка и уменьшение веса. Подчеркивается важность нахождения правильного баланса сложности, и учащимся предлагается позитивно представиться своим одноклассникам.
Сверточные нейронные сети CNN - Лекция 03 (весна 2021 г.)
Сверточные нейронные сети CNN - Глубокое обучение в науках о жизни - Лекция 03 (весна 2021 г.)
Эта видеолекция посвящена теме сверточных нейронных сетей (CNN) в глубоком обучении для наук о жизни. Докладчик обсуждает принципы зрительной коры и то, как они связаны с CNN, включая строительные блоки зрительных систем человека и животных, такие как основные строительные блоки суммирования и взвешивания и порог активации смещения нейрона. Они объясняют, что CNN используют специализированные нейроны для низкоуровневых операций обнаружения и слои скрытых единиц для изучения абстрактных понятий. В лекции также рассматривается роль слоев свертки и объединения, использование нескольких фильтров для извлечения нескольких функций и концепция трансферного обучения. Наконец, также обсуждаются нелинейности и использование заполнения для решения пограничных случаев в свертке. В целом, лекция подчеркивает силу и потенциал CNN в различных приложениях наук о жизни.
Вторая часть лекции посвящена различным концепциям, связанным со сверточными нейронными сетями (CNN). В лекции спикер рассказывает о важности сохранения размера входных данных в CNN, увеличении данных как средстве достижения инвариантности к преобразованиям, а также о различных архитектурах CNN и их приложениях. В лекции также рассматриваются проблемы, связанные с изучением глубоких CNN, гиперпараметров и их влияния на общую производительность, а также подходы к настройке гиперпараметров. Докладчик подчеркивает важность понимания фундаментальных принципов, лежащих в основе CNN, и подчеркивает их универсальность как метода, применимого в различных условиях.
Рекуррентные нейронные сети RNN, GNN графовые нейронные сети, LSTM с долговременной кратковременной памятью — лекция 04 (весна 2021 г.)
Рекуррентные нейронные сети RNN, GNN графовые нейронные сети, LSTM с долговременной кратковременной памятью
Это видео охватывает ряд тем, начиная с рекуррентных нейронных сетей (RNN) и их способности кодировать временной контекст, что имеет решающее значение для обучения последовательности. Докладчик представляет концепцию скрытых марковских моделей и их ограничения, что приводит к обсуждению модулей долговременной кратковременной памяти (LSTM) как мощного подхода к работе с длинными последовательностями. В видео также обсуждается модуль преобразования, который изучает временные отношения без развертывания или использования RNN. Представлены графовые нейронные сети и их потенциальные приложения для решения классических сетевых задач и в вычислительной биологии. Доклад завершается обсуждением границ исследований в области графовых нейронных сетей, таких как их применение в моделях дегенеративных графов и латентном выводе графов.
Во второй части видео обсуждаются рекуррентные нейронные сети (RNN), графовые нейронные сети (GNN) и модули долговременной кратковременной памяти (LSTM). Это объясняет, как традиционные нейронные сети с прямой связью имеют ограничения при работе с данными на основе графа, но GNN могут обрабатывать широкий спектр инвариантностей и распространять информацию по графу. Спикеры также обсуждают графовые сверточные сети (GCN), их преимущества и проблемы. Кроме того, в видео описывается важность функций внимания для повышения мощности и гибкости GNN.
Интерпретируемое глубокое обучение - Глубокое обучение в науках о жизни - Лекция 05 (весна 2021 г.)
Интерпретируемое глубокое обучение - Глубокое обучение в науках о жизни - Лекция 05 (весна 2021 г.)
В этом видео обсуждается важность интерпретируемости в моделях глубокого обучения, особенно в области наук о жизни, где решения могут иметь тяжелые последствия. Докладчик объясняет два типа интерпретируемости: встраивание ее в дизайн модели с самого начала и разработка методов постфактум интерпретируемости для уже построенных моделей. Далее они исследуют различные методы интерпретации моделей, включая визуализацию веса, построение суррогатной модели и максимизацию активации, а также обсуждают важность понимания внутренних представлений модели. Лектор также объясняет несколько методов интерпретации индивидуальных решений, таких как методы, основанные на примерах, и методы атрибуции. Кроме того, спикер обсуждает проблему интерпретации сложных концепций и ограничения интерпретации модели нейронной сети, а также исследует гипотезы, связанные с разрывом градиентов в нейронных сетях глубокого обучения.
Во второй части лекции спикер затронул проблемы прерывистых градиентов и насыщенных функций в моделях глубокого обучения в области наук о жизни. Они предложили такие методы, как усреднение небольших отклонений входных данных по нескольким образцам для получения более плавного градиента, использование случайного шума для выделения существенных признаков в классификации изображений, а также методы обратного распространения, такие как деконволюционные нейронные сети и управляемое обратное распространение для интерпретации моделей регуляции генов. Спикер также обсудил количественную оценку методов атрибуции, включая процедуру переворачивания пикселей и подход удаления и замены баллов. Наконец, они подчеркнули необходимость интерпретируемости моделей глубокого обучения и различных методов ее достижения.