Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Курс машинного обучения Калифорнийского технологического института - CS 156: Лекция 1 - Проблема обучения
Caltech's Machine Learning Course - CS 156. Lecture 01 - The Learning ProblemПервая лекция курса машинного обучения Ясера Абу-Мостафы знакомит с проблемой обучения, которая представляет собой процесс поиска закономерностей в данных для прогнозирования без вмешательства человека. Он объясняет необходимость математической формализации для абстрагирования практических задач обучения и представляет первый в курсе алгоритм машинного обучения — модель персептрона, которая использует весовой вектор для классификации точек данных по бинарным категориям. Лекция также охватывает различные виды обучения, включая обучение с учителем, обучение без учителя и обучение с подкреплением, и представляет аудитории проблему обучения с учителем для решения вопроса определения целевой функции обучения. Профессор затрагивает различные темы, связанные с машинным обучением. Он подчеркивает необходимость избегать предвзятости при выборе наборов данных, а также важность сбора достаточного количества данных. Профессор также обсуждает роль набора гипотез в машинном обучении и влияние выбора функции ошибки на метод оптимизации. Он также затрагивает критерии включения методов машинного обучения в курс и акцентирует внимание на предоставлении практических знаний, а не чистой теории.
Лекция 2 - Возможно ли обучение?
Caltech's Machine Learning Course - CS 156. Lecture 02 - Is Learning Feasible?
В лекции обсуждается возможность обучения, в частности, использование машинного обучения для определения закономерностей на основе имеющихся данных. Лектор вводит понятие ню и мю в вероятности и то, как оно связано с проблемой обучения. Исследуется добавление вероятности, что позволяет осуществить обучение без ущерба для целевой функции, а это означает, что не нужно делать никаких предположений о функции, которая будет изучена. Обсуждается концепция переобучения и то, как она связана со сложностью модели, при этом большее количество гипотез приводит к худшему обобщению. В конце концов, лекция завершается просьбой просмотреть слайд о значении ню равно мю.
Лекция 3: Линейная модель I
Caltech's Machine Learning Course - CS 156. Lecture 03 -The Linear Model I
В этой лекции рассматриваются темы линейных моделей в машинном обучении, представления входных данных, алгоритма персептрона, карманного алгоритма и линейной регрессии, включая ее использование в классификации. Профессор подчеркивает важность использования реальных данных для опробования различных идей и вводит понятие признаков для упрощения жизни алгоритма обучения. В лекции также обсуждаются вычислительные аспекты псевдоинверсии в линейной регрессии и проблемы, которые могут возникнуть при использовании линейной регрессии для классификации неразделимых данных. Наконец, представлена концепция использования нелинейных преобразований для того, чтобы сделать данные более линейными, с примером, демонстрирующим, как получить разделяемые данные с помощью преобразования x1² и x2² из исходной точки.
Также профессор освещает различные темы, связанные с линейной моделью в машинном обучении. Он обсуждает нелинейные преобразования и рекомендации по их выбору, ошибки в выборке и вне выборки в бинарной классификации, использование линейной регрессии для корреляционного анализа и получение значимых признаков из входных данных. Профессор также подчеркивает важность понимания различий между E_in и E_out и того, как они влияют на производительность модели. Наконец, он затрагивает взаимосвязь между линейной регрессией и оценкой максимального правдоподобия, использование нелинейных преобразований и роль теории в понимании концепций машинного обучения.
Лекция 4: Ошибка и шум
Caltech's Machine Learning Course - CS 156. Lecture 04 - Error and Noise
В лекции 04 курса машинного обучения профессор Абу-Мостафа обсуждает важность ошибок и шума в реальных задачах машинного обучения. Он объясняет концепцию нелинейного преобразования, используя пространство признаков Z, которое необходимо для сохранения линейности в обучении. В лекции также рассматриваются компоненты диаграммы обучения с учителем, подчеркивая важность измерения ошибок в количественной оценке эффективности гипотезы. Шумные цели вводятся как типичный компонент реальных проблем обучения, который необходимо учитывать при минимизации ошибки в выборке. Лекция заканчивается обсуждением теории обучения и ее значения для оценки ошибок внутри выборки, ошибок вне выборки и сложности модели.
Профессор объясняет, как изменения в распределении вероятностей могут повлиять на алгоритм обучения и как могут различаться меры погрешности для разных приложений. Он также обсуждает алгоритм линейной регрессии, использование квадрата ошибки по сравнению с абсолютным значением для измерения ошибки в оптимизации и компромисс между сложностью и производительностью в моделях машинного обучения. Профессор разъясняет разницу между входным пространством и извлечением признаков и отмечает, что теория того, как одновременно улучшить обобщение и минимизировать ошибку, будет рассмотрена в следующих лекциях.
Лекция 5 - Обучение vs тестирование
Caltech's Machine Learning Course - CS 156. Lecture 05 - Training Versus Testing
В лекции 5 своего курса «Обучение на основе данных» профессор Абу-Мостафа обсуждает концепции ошибок и шума в машинном обучении, разницу между обучением и тестированием, а также функцию роста, которая измеряет максимальное количество дихотомий, которые могут быть получены с помощью набор гипотез для заданного количества точек. Он также вводит точку разрыва, которая соответствует сложности набора гипотез и гарантирует полиномиальную скорость роста в N, если она существует, и обсуждает различные примеры наборов гипотез, таких как положительные лучи, интервалы и выпуклые множества. В лекции подчеркивается важность понимания этих концепций и их математических основ, чтобы полностью понять сложность наборов гипотез и их потенциал для возможного обучения.
Профессор затронул различные темы, связанные с обучением и тестированием. Он ответил на вопросы аудитории о небинарных целевых функциях и функциях гипотез, а также о компромиссе точек разрушения. Профессор объяснил важность нахождения функции роста и почему она предпочтительнее использования 2 в степени N для измерения вероятности того, что обобщение будет высоким. Кроме того, он обсудил взаимосвязь между точкой останова и ситуацией обучения, отметив, что наличие точки останова означает, что обучение возможно, а значение точки останова говорит нам о ресурсах, необходимых для достижения определенной производительности. Наконец, профессор объяснил альтернативы Хефдингу и почему он придерживается его, чтобы люди были знакомы с ним.
Лекция 6 - Теория обобщения
Caltech's Machine Learning Course - CS 156. Lecture 06 - Theory of Generalization
В лекции обсуждается теория обобщения и функция роста как количество дихотомий, которые могут быть порождены гипотезой, заданной на наборе N точек, с целью охарактеризовать всю функцию роста и обобщить для каждого N, характеризуя разрыв точка. Докладчик демонстрирует процесс вычисления функции роста для различных наборов гипотез и доказывает верхнюю границу функции роста с использованием комбинаторного тождества. Обсуждение также касается использования функции роста в неравенстве Хёффдинга, VC, связанного с перекрытием между гипотезами, и неравенства Вапника-Червоненкиса, которое является полиномиальным по N, причем порядок полинома определяется точкой излома.
Профессор обсуждает теорию обобщения, разъясняя предыдущие моменты и объясняя концепцию точки останова, которая используется для расчета ресурсов, необходимых для обучения. Основное внимание в обучении уделяется приближению к E_out, а не к E_in, что позволяет учащемуся работать со знакомыми величинами. Профессор также объясняет причину замены M функцией роста и то, как это связано с комбинаторной величиной B N и k. Обсуждая функции регрессии, профессор подчеркивает компромисс между смещением и дисперсией и то, как обучаемость не зависит от целевой функции. Наконец, профессор отмечает, что одни и те же принципы применимы ко всем типам функций.
Лекция 7 - Размерность VC (Vapnik–Chervonenkis)
Caltech's Machine Learning Course - CS 156. Lecture 07 - The VC Dimension
Лекция знакомит с понятием размерности VC, которое представляет собой максимальное количество точек, которые могут быть разрушены набором гипотез, и объясняет его практическое применение. Размерность VC представляет степени свободы модели, и обсуждается ее связь с количеством параметров в модели. Приведены примеры, демонстрирующие, как вычислить размерность VC для различных наборов гипотез. Исследуется взаимосвязь между количеством необходимых примеров и параметром VC, и отмечается, что между ними существует пропорциональная связь. Также обсуждаются последствия увеличения размерности VC для производительности алгоритма обучения. В целом, лекция дает представление о теории VC и ее практическом применении для машинного обучения.
Также видео охватывает концепцию обобщения и границы обобщения, что является положительным утверждением, показывающим компромисс между размером набора гипотез и хорошим обобщением в машинном обучении. Профессор объясняет размер VC, который является наибольшим значением до первой точки останова, и как его можно использовать для аппроксимации количества необходимых примеров. Он отмечает важность выбора правильной меры ошибки и поясняет, что оценка размерности VC является неточной оценкой, которую можно использовать для сравнения моделей и приблизительного количества необходимых примеров. Лекция заканчивается выделением общих черт между этим материалом и темой планирования экспериментов и тем, как принципы обучения распространяются на другие ситуации, выходящие за рамки строгих сценариев обучения.
Лекция 8: Компромис смещения и дисперсии
Caltech's Machine Learning Course - CS 156. Lecture 08 - Bias-Variance Tradeoff
Профессор обсуждает компромисс между смещением и дисперсией в машинном обучении, объясняя, как сложность набора гипотез влияет на компромисс между обобщением и приближением. Лектор вводит понятие систематической ошибки и дисперсии, которые измеряют отклонение между средним значением гипотез, создаваемых алгоритмом машинного обучения, и фактической целевой функцией, а также насколько распределение гипотез данной модели варьируется в зависимости от различных наборов данных, соответственно. Компромисс приводит к тому, что больший набор гипотез имеет меньшее смещение, но большую дисперсию, в то время как меньший набор гипотез будет иметь большее смещение, но меньшую дисперсию. Лектор подчеркивает важность наличия достаточных ресурсов данных для эффективной навигации по набору гипотез и подчеркивает разницу в масштабе между анализом смещения-дисперсии и анализом VC.
Также он обсуждает компромисс между простыми и сложными моделями с точки зрения их способности аппроксимировать и обобщать, с меньшим количеством примеров, требующих простых моделей, и большим количеством примеров, требующих более сложных моделей. Анализ смещения-дисперсии специфичен для линейной регрессии и предполагает знание целевой функции, а проверка является золотым стандартом для выбора модели. Ансамблевое обучение обсуждается с помощью бэггинга, который использует бутстреп для усреднения нескольких наборов данных, уменьшая дисперсию. Также объясняется баланс между дисперсией и ковариацией в ансамблевом обучении, а линейная регрессия классифицируется как метод обучения с подбором в качестве первой части обучения, в то время как теория подчеркивает хорошую производительность вне выборки.
Лекция 9: Линейная модель II
Caltech's Machine Learning Course - CS 156. Lecture 09 - The Linear Model II
В этой лекции рассматриваются различные аспекты линейной модели, включая декомпозицию смещения и дисперсии, кривые обучения и методы для линейных моделей, таких как перцептроны, линейная регрессия и логистическая регрессия. Докладчик подчеркивает компромисс между сложностью и производительностью обобщения, предостерегая от переобучения и подчеркивая важность правильной зарядки измерения VC пространства гипотез для действительных гарантий. Также обсуждается использование нелинейных преобразований и их влияние на поведение обобщения. В лекции также рассматриваются логистическая функция и ее приложения для оценки вероятностей, а также вводятся понятия вероятности и меры кросс-энтропийной ошибки в контексте логистической регрессии. Наконец, объясняются итерационные методы оптимизации функции ошибок, такие как градиентный спуск.
Также лекция охватывает ряд тем, связанных с линейными моделями и алгоритмами оптимизации в машинном обучении. Профессор объясняет компромисс между скоростью обучения и скоростью в оптимизации градиентного спуска, представляя алгоритм логистической регрессии и обсуждая его меры ошибок и алгоритм обучения. Также рассматриваются проблемы завершения в градиентном спуске и классификации нескольких классов. Роль получения и выбора функций в машинном обучении подчеркивается и обсуждается как искусство в предметных областях, оцениваемых с точки зрения измерения VC. В целом, эта лекция представляет собой всесторонний обзор линейных моделей и алгоритмов оптимизации для машинного обучения.