Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Как обучали ChatGPT
Как обучали ChatGPT
ChatGPT — это система машинного обучения, предназначенная для имитации человеческого разговора. Сначала он обучается с использованием генеративного подхода к предварительному обучению, который опирается на огромное количество неструктурированных текстовых данных, а затем настраивается с помощью обучения с подкреплением, чтобы лучше адаптироваться к предпочтениям пользователя.
Реальный потенциал генеративного ИИ
Реальный потенциал генеративного ИИ
Генеративный ИИ может революционизировать способы создания продуктов, помогая разработчикам создавать прототипы, оценивать и настраивать их. Тем не менее, технология все еще находится на ранних стадиях, и необходимы дополнительные исследования, чтобы гарантировать ее этичное и безопасное использование.
Vrije Universiteit Amsterdam Machine Learning 2019 — 1 Введение в машинное обучение (MLVU2019)
Vrije Universiteit Amsterdam Machine Learning 2019 — 1 Введение в машинное обучение (MLVU2019)
Это видео представляет собой введение в машинное обучение и охватывает различные темы, связанные с ним. Преподаватель объясняет, как подготовиться к курсу, и отвечает на распространенные опасения по поводу машинного обучения. Он знакомит с различными типами машинного обучения и отличает его от традиционного программирования на основе правил. В видео также рассматриваются основы обучения с учителем и приводятся примеры того, как машинное обучение можно использовать для задач классификации и регрессии. Также объясняются концепции пространства признаков, функции потерь и остатков.
Вторая часть видео представляет собой введение в машинное обучение и объясняет его основную цель — поиск закономерностей и создание точных моделей для прогнозирования результатов на основе набора данных. Докладчик обсуждает важность использования конкретных алгоритмов и разделения данных, чтобы избежать переобучения и добиться обобщения. Он также вводит концепцию оценки плотности и ее трудности со сложными данными. Докладчик разъясняет разницу между машинным обучением и другими областями и намекает на стратегию разбивки больших наборов данных, чтобы делать точные прогнозы. В видео также упоминается об увеличении числа людей, работающих в области машинного обучения, с развитием глубокого обучения, и даются советы новичкам, чтобы начать работу в этой области.
2 Линейные модели 1: гиперплоскости, случайный поиск, градиентный спуск (MLVU2019)
2 Линейные модели 1: гиперплоскости, случайный поиск, градиентный спуск (MLVU2019)
В этом видео рассматриваются основы линейных моделей, методов поиска и алгоритмов оптимизации. Линейные модели объясняются как в двух измерениях, так и в нескольких измерениях, и обсуждается процесс поиска хорошей модели с помощью таких методов, как случайный поиск и градиентный спуск. Объясняется важность выпуклости в машинном обучении и рассматриваются недостатки случайного поиска в невыпуклых ландшафтах. Видео также представляет эволюционные методы и ветвящийся поиск в качестве методов поиска. Наконец, объясняется использование исчисления и градиентного спуска для оптимизации функции потерь, включая процесс нахождения направления наискорейшего спуска для гиперплоскости.
Во второй части обсуждается градиентный спуск и его применение к линейным моделям, где алгоритм обновляет параметры, делая шаги в направлении отрицательного градиента функции потерь. Скорость обучения имеет решающее значение для определения того, насколько быстро алгоритм сходится к минимуму, а линейные функции позволяют разработать оптимальную модель без необходимости поиска. Однако более сложные модели требуют использования градиентного спуска. Видео также представляет классификацию и границы решений, где цель состоит в том, чтобы отделить синие точки от красных точек, найдя линию, которая делает это оптимально. Ограничения линейных моделей включают их неспособность классифицировать нелинейно разделимые наборы данных, но они дешевы в вычислительном отношении и хорошо работают в многомерных пространствах признаков. Преподаватель также анонсирует будущие темы, которые будут обсуждаться, например методологию машинного обучения.
3 Методология 1: площадь под кривой, смещение и дисперсия, отсутствие бесплатного обеда (MLVU2019)
3 Методология 1: площадь под кривой, смещение и дисперсия, отсутствие бесплатного обеда (MLVU2019)
В видео рассказывается об использовании метрики площади под кривой (AUC) при оценке моделей машинного обучения, а также вводятся понятия смещения и дисперсии, а также теорема «бесплатных обедов не бывает». Метрика AUC измеряет производительность модели классификации, вычисляя площадь под ROC-кривой. Кроме того, обсуждаются систематическая ошибка и дисперсия, поскольку они играют решающую роль в том, насколько хорошо модель соответствует обучающим данным и обобщает новые данные. Кроме того, теорема «бесплатных обедов не бывает» подчеркивает необходимость выбора подходящего алгоритма для каждой конкретной задачи, поскольку не существует универсально применимого алгоритма для всех задач машинного обучения.
В этом видео рассматриваются три важные концепции машинного обучения: AUC (площадь под кривой), предвзятость и дисперсия, а также теорема «бесплатных обедов не бывает». AUC — это метрика, используемая для оценки моделей бинарной классификации, тогда как смещение и дисперсия относятся к различиям между предсказанными значениями модели и истинными значениями в наборе данных. Теорема «бесплатного обеда не бывает» подчеркивает важность выбора подходящего алгоритма для данной задачи, поскольку не существует единого алгоритма, который мог бы оптимально работать со всеми возможными задачами и наборами данных.
4 Методология 2: очистка данных, анализ главных компонентов, собственные грани (MLVU2019)
4 Методология 2: очистка данных, анализ главных компонентов, собственные грани (MLVU2019)
Эта первая часть видео охватывает различные важные аспекты предварительной обработки и очистки данных перед применением алгоритмов машинного обучения, начиная с решающей важности понимания предвзятости и перекоса данных. Затем докладчик обсуждает методы работы с отсутствующими данными, выбросами, дисбалансом классов, выбором функций и нормализацией. Далее в видео обсуждается концепция базиса и распределения MVN, объясняется, как использовать отбеливание для преобразования данных в нормальное распределение для нормализации, и завершается использованием анализа основных компонентов (PCA) для уменьшения размерности. От манипулирования обучающим набором до использования методов вменения, PCA проецирует данные в пространство более низкого измерения, сохраняя при этом информацию из исходных данных.
Во второй части видео обсуждается использование анализа основных компонентов (PCA) для очистки данных и уменьшения размерности для машинного обучения. Этот метод включает центрирование данных по среднему значению, вычисление выборочной ковариации и ее разложение с использованием собственного разложения для получения собственных векторов, выровненных с осью, которые охватывают наибольшую дисперсию. Использование первых K основных компонентов обеспечивает хорошую реконструкцию данных, что позволяет повысить производительность машинного обучения. Также представлена концепция Eigenfaces, и показано, что PCA эффективно сжимает данные до 30 измерений, сохраняя при этом большую часть необходимой информации для машинного обучения. Обсуждаются различные приложения PCA, в том числе его использование в антропологии и при изучении сложных наборов данных, таких как ДНК и лица.
Лекция 5 Вероятность 1: Энтропия, (Наивный) Байес, Кросс-энтропийная потеря (MLVU2019)
5 Вероятность 1: энтропия, (наивный) Байес, кросс-энтропийная потеря (MLVU2019)
Видео охватывает различные аспекты теории вероятности и ее применение в машинном обучении. Докладчик представляет энтропию, которая измеряет степень неопределенности в системе, и объясняет, как она связана с наивным Байесом и перекрестной энтропийной потерей. Также обсуждаются концепции выборочного пространства, пространства событий, случайных величин и условной вероятности. Теорема Байеса объясняется и считается фундаментальной концепцией машинного обучения. Видео также охватывает принцип оценки максимального правдоподобия и байесовскую вероятность, а также использование кода без префиксов для моделирования вероятностных распределений. Наконец, спикер обсуждает дискриминационные и генеративные классификаторы для бинарной классификации, включая наивный байесовский классификатор.
Во второй части объясняется концепция вычисления вероятностей для новой точки, принадлежащей определенному классу, с использованием модели многомерного нормального распределения. В нем обсуждается условная независимость признаков для эффективного соответствия распределениям вероятностей для классификатора, а также необходимость сглаживания или настройки псевдонаблюдений для обработки нулевых экземпляров. Докладчик также представляет энтропийные потери как более эффективную функцию потерь для линейных классификаторов, чем точность, и обсуждает способность функции кросс-энтропийных потерь измерять разницу между прогнозируемыми и фактическими данными, при этом сигмоидальная функция разрушает симметрии функции для ее упрощения. Наконец, видео намекает, что следующая лекция будет посвящена потере SVM в качестве окончательной функции потерь.
Лекция 6 Линейные модели 2: нейронные сети, обратное распространение ошибки, SVM и методы ядра (MLVU2019)
6 Линейные модели 2: нейронные сети, обратное распространение, SVM и методы ядра (MLVU2019)
Эта первая часть видео о линейных моделях посвящена введению нелинейности в линейные модели и исследует две модели, которые полагаются на расширение пространства признаков: нейронные сети и машины опорных векторов (SVM). Для нейронных сетей спикер объясняет, как настроить сеть для задач регрессии и классификации с использованием функций активации, таких как сигмоид или softmax. Затем лекция углубляется в обратное распространение, метод, используемый для вычисления градиентов, используемых в нейронных сетях. Для SVM спикер вводит концепцию максимизации поля до ближайших точек каждого класса и демонстрирует, как это может быть выражено в виде задачи оптимизации с ограничениями. Видео представляет собой четкое введение в принципы нейронных сетей и SVM, рекомендуя студентам сосредоточиться на первой половине лекции в качестве отправной точки для остальной части курса.
Вторая часть видео охватывает темы машин опорных векторов (SVM), SVM с мягким запасом, приемы ядра и различия между SVM и нейронными сетями. SVM с мягкими границами введены как способ обработки нелинейно разделимых данных, позволяющий добавлять штрафное значение к точкам, которые не соответствуют ограничениям классификации. Хитрость ядра позволяет вычислять скалярное произведение в многомерном пространстве, расширяя пространство признаков, чтобы значительно увеличить мощность модели. Объясняются различия между SVM и нейронными сетями, а также обсуждается переход к нейронным сетям из-за их способности выполнять более сложные типы классификации, даже если они не полностью поняты.
Глубокое обучение 1: обратное распространение для тензоров, сверточные нейронные сети (MLVU2019)
7 Глубокое обучение 1: обратное распространение для тензоров, сверточные нейронные сети (MLVU2019)
Эта первая часть видео о глубоком обучении и обратном распространении охватывает несколько тем, включая основы структуры глубокого обучения, тензоры, алгоритм обратного распространения и проблему исчезающего градиента. Докладчик объясняет, как можно реализовать нейронные сети, используя последовательность операций линейной алгебры, и как можно использовать алгоритм обратного распространения ошибки для определения модели как композиции функций. В видео также рассказывается, как вычислять производные с помощью матричных операций, и исследуются решения проблемы исчезающего градиента, такие как инициализация веса и использование ReLU в качестве функции активации. Наконец, видео затрагивает мини-пакетный градиентный спуск и различные оптимизаторы, которые можно использовать в сложной нейронной сети.
Эта вторая часть охватывает ряд тем, связанных с глубоким обучением, включая алгоритмы оптимизации и методы регуляризации. Оптимизация Адама объясняется как популярный алгоритм глубокого обучения, а регуляризация L1 и L2 исследуется как методы предотвращения переобучения. Также обсуждается потенциал нейронных сетей в обработке изображений, при этом сверточные нейронные сети выделяются как мощный инструмент для задач распознавания изображений. В видео также рассказывается о работе этих сетей и о том, как они создают функции для распознавания сложных изображений, а также о концепции сквозного обучения как способа преодоления ограничений, связанных с объединением нескольких модулей в цепочку.
8 Вероятность 2: максимальное правдоподобие, смешанные модели Гаусса и максимизация ожидания (MLVU2019)
8 Вероятность 2: максимальное правдоподобие, смешанные модели Гаусса и максимизация ожидания (MLVU2019)
Этот раздел видео посвящен вероятностным моделям для оценки плотности с использованием оценки максимального правдоподобия, нормальных распределений, смешанных моделей Гаусса и алгоритма максимизации ожидания. Докладчик объяснил принцип максимального правдоподобия и показал его применение при выборе наилучшей вероятностной модели. Они исследовали нормальное распределение, объяснили разницу между функциями вероятности и плотности вероятности и представили модели гауссовой смеси. Докладчик также обсудил метод выборки из одномерного и многомерного нормального распределения и то, как модель гауссовой смеси помогает идентифицировать различные кластеры в популяции. Кроме того, был представлен алгоритм максимизации ожиданий, чтобы подогнать гауссовские смешанные модели к наборам данных. Докладчик также объяснил, как формализовать подход максимизации ожидания с использованием аппроксимации функции Q, и доказал, что он сходится к локальному оптимуму.
В этом видео рассматриваются темы максимального правдоподобия, гауссовых смешанных моделей и максимизации ожидания (EM). Докладчик объясняет алгоритм EM, его доказательство и почему он сходится. Они также обсуждают М-шаг, где они максимизируют L, выбирая тета, сохраняя Q фиксированным. Подгонка смешанной модели Гаусса к данным требует использования алгоритма EM, и докладчик объясняет его приложения, такие как кластеризация и исследовательский анализ, а также то, как его можно использовать для классификации путем подгонки смешанной модели Гаусса к каждому классу. В видео также упоминается предстоящая лекция о подгонке вероятностных моделей к сложным нейронным сетям.