Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Tensorflow для исследований глубокого обучения — Лекция 1
Tensorflow для исследований глубокого обучения — Лекция 1
Видео «Tensorflow для исследования глубокого обучения — лекция 1» знакомит с учебным пособием по TensorFlow, рассказывая о необходимости подробного руководства, объясняя основы библиотеки и практические приложения. В лекции рассказывается, как создавать и структурировать модели с использованием TensorFlow с точки зрения глубокого обучения. В учебнике также рассматриваются инструменты, используемые в TensorBoard для визуализации модели вычислительного графа, в том числе способы работы с узлами, ребрами и сеансами, которые обеспечивают эффективные параметры вычислений за счет запуска подграфов. Лектор рекомендует изучить TensorFlow с нуля, чтобы создавать собственные модели и эффективно обрабатывать ресурсы, с возможностью запуска на процессоре, графическом процессоре, Android или iOS, обеспечивая при этом возможность развертывания моделей.
Tensorflow для исследований глубокого обучения — Лекция 2
Tensorflow для исследований глубокого обучения — Лекция 2
Лекция о TensorFlow для исследований глубокого обучения охватывает широкий круг тем, включая основные операции, типы тензоров, заполнители и отложенную загрузку. Подчеркивается важность использования TensorBoard для визуализации выполняемого графика и обсуждаются различные функции из TensorFlow API, включая случайное перемешивание, случайную обрезку, многочлен TF.dot и функцию случайной гаммы. В видео также рассматриваются концепции определения нулевой принадлежности для различных типов данных, инициализации переменных, присвоения им значений и преимуществ использования интерактивного сеанса TensorFlow. Наконец, подробно рассматривается использование заполнителей в TensorFlow и обсуждаются потенциальные проблемы при использовании заполнителей с неопределенными формами.
Спикер также обсуждает использование заполнителей в TensorFlow, в том числе то, как передавать несколько точек данных и использовать бесплатные словари. Затем лекция переходит к ленивой загрузке, при которой вычисления откладываются до времени выполнения, чтобы избежать раздувания графа, вызванного несколькими узлами одной и той же операции в циклах. Отделение определения объектов операций от вычислений и структурирование кода для определений переменных и вычислительных функций помогает избежать проблем с вызовом функций в TensorFlow. Докладчик также рассказывает, как оптимизатор минимизирует перекрестную энтропию и обновляет веса и смещения, используя свойства для эффективного структурирования кода TensorFlow.
Tensorflow для исследований глубокого обучения — Лекция 3
Tensorflow для исследований глубокого обучения — Лекция 3
Третья лекция о TensorFlow для исследований в области глубокого обучения посвящена линейной регрессии и логистической регрессии с использованием набора данных MNIST. Лектор показывает, как обучать модель линейной регрессии в TensorFlow, создавая заполнители для входных данных, инициализируя обучаемые переменные для весов и смещения, делая прогнозы, вычисляя потери и определяя оптимизатор как градиентный спуск с определенной скоростью обучения. В лекции также объясняется мини-пакетный стохастический градиентный спуск и важность запоминания формы переменных. Точность модели рассчитывается путем сравнения индекса максимального значения, полученного из функции argmax TF, с целевой переменной y, вычисления количества правильных прогнозов с использованием TF reduce sum и TF float и деления его на общее количество тестов. Примеры. Наконец, лектор отмечает, что эта модель не считается мощной, и существуют более надежные модели, такие как сверточные слои, которые обеспечивают более высокую точность.
Tensorflow для исследований глубокого обучения — Лекция 4
Tensorflow для исследований глубокого обучения — Лекция 4
В лекции 4 из серии TensorFlow for Deep Learning Research спикер углубляется в встраивание слов в обработку естественного языка на основе глубокого обучения. В лекции объясняется концепция изучения встраивания слов для задач НЛП и описывается процесс представления слов в виде числовых векторов в нейронных сетях. В лекции обсуждаются различные методы генерации векторов слов с использованием CBOW и скип-грамм на основе ИИ, а также решение проблемы вычислительной сложности в softmax с использованием отрицательной выборки и NCE. Кроме того, лектор освещает процесс внедрения переменных в TensorFlow и использование t-SNE для визуализации многомерных векторов слов в уменьшенных размерах. Наконец, лекция завершается кратким изложением рассмотренных концепций и кратким изложением следующей лекции, которая будет посвящена построению словесных моделей.
Tensorflow для исследований в области глубокого обучения — Лекция 5_1
Tensorflow для исследований в области глубокого обучения — Лекция 5_1
Пятая лекция из серии TensorFlow for Deep Learning Research охватывает несколько тем, в том числе эффективное управление экспериментами по глубокому обучению, важность автоматической дифференциации в TensorFlow, а также процесс обучения моделей и сохранения переменных. Спикер объясняет, что в таких средах глубокого обучения, как TensorFlow, предусмотрена автоматическая дифференциация, что упрощает для пользователей кодирование своих моделей, не имея дело с градиентами. Хотя нет необходимости вычислять градиенты вручную, все же полезно вычислить их для простых функций и сетей. Также рассматривается создание модели распознавания именованных объектов с подклассами и необходимыми заполнителями и методами подачи, а также сохранение и восстановление переменных в TensorFlow и процесс сохранения моделей в разных сеансах и на разных машинах.
Tensorflow для исследований глубокого обучения — Лекция 5_2
Tensorflow для исследований глубокого обучения — Лекция 5_2
В видеоруководстве обсуждается реализация сводных операций TF, которые позволяют визуализировать данные в TensorBoard. В руководстве рассматриваются три типа сводных операций — TF.summary.scalar, TF.summary.histogram и TF.summary.image — и объясняется, как объединить их в один и записать в файл событий с помощью класса FileWriter. Лектор демонстрирует, как использовать области имен для визуализации графа в TensorBoard, и определяет автора тестов и обученного автора для записи сводок в отдельные файлы. Они подчеркивают важность использования возможностей визуализации TensorBoard для лучшего понимания производительности своей модели. В целом, TensorBoard — важный инструмент для отслеживания прогресса обучения, а API для добавления операций и их объединения прост.
Интуитивное понимание обратного распространения как вычислительного графа
Интуитивное понимание обратного распространения как вычислительного графа
Интуиция обратного распространения как вычислительного графа объясняется в этом видео. Докладчик обсуждает, как суррогатная функция используется для оценки эмпирической функции, которая отображает входные данные в выходные, и что цель состоит в том, чтобы найти параметры, которые минимизируют функцию потерь. Обратное распространение позволяет вычислить градиент функции потерь по каждому параметру посредством обратного прохода графика. Рассчитываются локальные градиенты для каждого элемента на графике, и их можно использовать для расчета градиента конечного результата по отношению к каждому входу. Докладчик также объясняет, как обрабатывать градиенты для операций ветвления и векторизации и как обеспечить правильность размерности при вычислении производных.
Производство глубокого обучения для компьютерного зрения
Производство глубокого обучения для компьютерного зрения
Технический директор и главный научный сотрудник Jumio Лаваш Патель рассказывает, как их компания использует сочетание экспертов по искусственному интеллекту и идентификации для установления доверия в Интернете и проверки подлинности документов, удостоверяющих личность. Процесс проверки личности затруднен из-за разнообразия идентификаторов и подтипов, а также необходимости исправления и отклонения нечитаемых изображений. Для поддержания точности используется подход «человек в цикле», когда модели ИИ обнаруживают проблемы, а человек проверяет результаты на работоспособность. Патель также обсуждает, как Jumio реализует глубокое обучение с помощью гибридного алгоритма активного обучения, который адаптируется к новым подтипам и совершенствуется путем самообучения. Кроме того, он подчеркивает важность чистых данных при распознавании лиц и соблюдении требований PCI при работе с конфиденциальными данными для целей машинного обучения.
Гейл Вайс: Мыслить как трансформеры
Гейл Вайс: Мыслить как трансформеры
В этом видео Гейл Вайс обсуждает концепцию кодировщиков-преобразователей, объясняя их способность обрабатывать последовательности и кодировать их в векторы. Вайс выделяет несколько исследований, изучающих сильные стороны и ограничения кодировщиков-преобразователей, и представляет язык программирования, называемый языком обработки последовательности с ограниченным доступом (RASP), для представления возможностей кодировщиков-преобразователей. Она также обсуждает многоголовое внимание, шаблоны выбора и проблемы softmax при определенных условиях, прежде чем углубиться в использование операторов последовательности и библиотечных функций для вычисления обратного и флип-селектора. Вайс дает представление о создании оптимальной программы для преобразователя, а также о выводах универсального и сэндвич-преобразователей, в конечном итоге обсуждая предикат выбора и отношения двоичного и третьего порядка.
Он также говорит о потенциальных преимуществах и недостатках использования внимания более высокого порядка в моделях трансформаторов, а также о важности остаточных связей для сохранения информации на всех уровнях. Она также обсуждает потенциальные проблемы с очень глубокими преобразователями, отклоняющимися от модели RASP, и предлагает использовать более длинные вложения для преодоления нечеткости информации.
Визуализация и понимание глубоких нейронных сетей, Мэтт Зейлер
Визуализация и понимание глубоких нейронных сетей, Мэтт Зейлер
Мэтт Зейлер обсуждает визуализацию и понимание сверточных нейронных сетей (CNN) для распознавания объектов в изображениях и видео. Он описывает, как глубокие нейронные сети распознают объекты по сравнению с людьми и приматами, и показывает, как CNN учатся идентифицировать объекты, проходя через слои. Зейлер объясняет процесс улучшения архитектуры CNN и обсуждает ограничения при обучении с ограниченными данными. Наконец, он отвечает на вопросы об использовании нижних слоев в более высоких слоях и применении сверток в нейронных сетях.