Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Лекция 10 - Нейронные сети
Caltech's Machine Learning Course - CS 156. Lecture 10 - Neural Networks
Ясер Абу-Мостафа, профессор Калифорнийского технологического института, обсуждает в этой лекции логистическую регрессию и нейронные сети. Логистическая регрессия — это линейная модель, которая вычисляет вероятностную интерпретацию ограниченной действительной функции. Он не может оптимизировать свою меру ошибки напрямую, поэтому для минимизации произвольной нелинейной функции, достаточно гладкой и дважды дифференцируемой, вводится метод градиентного спуска. Хотя решения в закрытой форме не существует, мера ошибки представляет собой выпуклую функцию, что позволяет относительно легко оптимизировать ее с помощью градиентного спуска.
Стохастический градиентный спуск — это расширение градиентного спуска, которое используется в нейронных сетях. Нейронные сети — это модель, реализующая гипотезу, основанную на биологической точке зрения и связанную с персептронами. Алгоритм обратного распространения — это эффективный алгоритм, который работает с нейронными сетями и делает модель особенно практичной. Модель имеет биологическую связь, которая взбудоражила людей, и ее было легко реализовать с помощью алгоритма. Хотя в настоящее время это не модель выбора, нейронные сети успешно применяются на практике и до сих пор используются в качестве стандарта во многих отраслях, таких как банковское дело и одобрение кредитов.
Краткое содержание:
Лекция 11 - Переобучение
Caltech's Machine Learning Course - CS 156. Lecture 11 - Overfitting
Эта лекция знакомит с концепцией и важностью переобучения в машинном обучении. Переобучение происходит, когда модель обучается на шуме, а не на сигнале, что приводит к плохой подгонке вне выборки. Лекция включает в себя различные эксперименты, иллюстрирующие влияние различных параметров, таких как уровень шума и сложность цели, на переоснащение. Лектор подчеркивает важность раннего обнаружения переобучения и использования методов регуляризации и проверки для его предотвращения. Также обсуждается влияние детерминированного и стохастического шума на переобучение, и лекция завершается введением следующих двух лекций о том, как избежать переобучения с помощью регуляризации и проверки.
Обсуждается концепция переобучения и подчеркивается важность регуляризации для его предотвращения. Профессор подчеркивает компромисс между переоснащением и недообучением и объясняет роль измерения VC в переоснащении, когда несоответствие в измерении VC при одинаковом количестве примеров приводит к расхождениям в ошибках вне выборки и внутри выборки. Также рассматривается практический вопрос проверки модели и то, как она может повлиять на переоснащение и выбор модели. Кроме того, профессор подчеркивает роль кусочно-линейных функций в предотвращении переобучения и подчеркивает важность учета количества степеней свободы в модели и их ограничения посредством регуляризации.
Лекция 12 - Регуляризация
Caltech's Machine Learning Course - CS 156. Lecture 12 - Regularization
Эта лекция о регуляризации начинается с объяснения переобучения и его негативного влияния на обобщение моделей машинного обучения. Обсуждаются два подхода к регуляризации: математический и эвристический. Затем в лекции рассматривается влияние регуляризации на смещение и дисперсию в линейных моделях на примере полиномов Лежандра в качестве расширяющихся компонентов. Также рассматривается взаимосвязь между C и лямбда в регуляризации, с введением в расширенную ошибку и ее роль в обосновании регуляризации для обобщения. Также обсуждаются методы уменьшения/роста веса и важность выбора правильного регуляризатора, чтобы избежать переобучения. Лекция заканчивается акцентом на выборе хорошей омеги в качестве эвристического упражнения и надеждой на то, что лямбда послужит спасением для регуляризации.
Во второй части обсуждается снижение веса как способ сбалансировать простоту сети с ее функциональностью. Лектор предостерегает от чрезмерной регуляризации и неоптимальной производительности, подчеркивая необходимость использования проверки для определения оптимальных параметров регуляризации для различных уровней шума. Регуляризация обсуждается как экспериментальная с теоретической и практической основой. Вводятся общие типы регуляризации, такие как L1/L2, ранняя остановка и отсев, а также способы определения подходящего метода регуляризации для различных задач. Также обсуждаются общие гиперпараметры, связанные с реализацией регуляризации.
Лекция 13 - Валидация
Caltech's Machine Learning Course - CS 156. Lecture 13 - Validation
В лекции 13 основное внимание уделяется проверке как важному методу машинного обучения для выбора модели. Лекция посвящена особенностям валидации, в том числе тому, почему она называется валидацией и почему она важна для выбора модели. Перекрестная проверка также обсуждается как тип проверки, который позволяет использовать все доступные примеры для обучения и проверки. Лектор объясняет, как оценить вневыборочную ошибку с помощью случайной величины, которая берет вневыборочную точку и вычисляет разницу между гипотезой и целевым значением. В лекции также обсуждается предвзятость, возникающая при использовании оценки для выбора конкретной модели, поскольку она больше не является надежной, поскольку она была выбрана на основе проверочного набора. Вводится понятие перекрестной проверки как метода оценки вневыборочной ошибки для различных гипотез.
Также он описывает использование перекрестной проверки для выбора модели и проверки для предотвращения переобучения, уделяя особое внимание «исключению одного» и 10-кратной перекрестной проверке. Профессор демонстрирует важность учета несоответствия вне выборки и отслеживания данных и предлагает использовать методы рандомизации, чтобы избежать систематической ошибки выборки. Он объясняет, что хотя перекрестная проверка может добавить сложности, ее сочетание с регуляризацией позволяет выбрать лучшую модель, а поскольку проверка не требует предположений, она уникальна. Профессор далее объясняет, как перекрестная проверка может помочь сделать принципиальный выбор даже при сравнении различных сценариев и моделей, и как общее количество баллов проверки определяет планку погрешностей и систематическую ошибку.
Лекция 14 - Машины опорных векторов (Support Vector Machines)
Caltech's Machine Learning Course - CS 156. Lecture 14 - Support Vector Machines
В лекции рассказывается о важности проверки и ее использовании в машинном обучении, а также о преимуществах перекрестной проверки перед проверкой. В центре внимания лекции находятся машины опорных векторов (SVM) как наиболее эффективная модель обучения для классификации, с подробным описанием раздела, который включает в себя максимизацию поля, формулировку и аналитические решения посредством представленной оптимизации с ограничениями. Лекция охватывает ряд технических вопросов, в том числе, как вычислить расстояние между точкой и гиперплоскостью в SVM, как решить задачу оптимизации для SVM и как сформулировать задачу оптимизации SVM в ее двойственной формулировке. Лектор также обсуждает практические аспекты использования квадратичного программирования для решения задачи оптимизации и важность определения опорных векторов. Лекция завершается кратким обсуждением использования нелинейных преобразований в SVM.
Во второй части этой лекции о машинах опорных векторов (SVM) лектор объясняет, как количество опорных векторов, деленное на количество примеров, дает верхнюю границу вероятности ошибки при классификации точки вне выборки, делая возможно использование опорных векторов с нелинейным преобразованием. Профессор также обсуждает нормализацию w, транспонированного x плюс b, до 1 и его необходимость для оптимизации, а также версию SVM с мягкой маржой, которая допускает ошибки и наказывает их. Кроме того, объясняется взаимосвязь между количеством опорных векторов и размерностью VC, а также упоминается устойчивость метода к шуму, а мягкая версия метода используется в случаях зашумленных данных.
Лекция 15 - Kernel methods
Caltech's Machine Learning Course - CS 156. Lecture 15 - Kernel Methods
В этой лекции о методах ядра представлены машины опорных векторов (SVM) как линейная модель, которая более ориентирована на производительность, чем традиционные модели линейной регрессии, из-за концепции максимизации запаса. Если данные не являются линейно разделимыми, нелинейные преобразования могут использоваться для создания волнистых поверхностей, которые по-прежнему позволяют выдвигать сложные гипотезы, не платя при этом высокой сложностью. Видео объясняет методы ядра, которые обращаются к многомерному пространству Z, объясняя, как вычислить внутренний продукт без вычисления отдельных векторов. В видео также описываются различные подходы к получению действительного ядра для задач классификации и объясняется, как применять SVM к неразделимым данным. Наконец, в видео объясняется концепция резерва и количественная оценка нарушения маржи в SVM, вводится переменная xi для штрафа за нарушение маржи и рассматривается лагранжева формулировка для решения для альфы.
Вторая часть охватывает практические аспекты использования машин опорных векторов (SVM) и методов ядра. Он объясняет концепцию векторных машин поддержки мягких полей и то, как они допускают некоторую неправильную классификацию при сохранении широкого поля. Он говорит о важности параметра C, определяющего, насколько может произойти нарушение, и предлагает использовать перекрестную проверку для определения его значения. Он также решает проблемы, связанные с постоянной координатой в преобразованных данных, и уверяет пользователей, что она играет ту же роль, что и член смещения. Кроме того, он обсуждает возможность объединения ядер для создания новых ядер и предлагает эвристические методы, которые можно использовать, когда квадратичное программирование терпит неудачу при решении SVM со слишком большим количеством точек данных.
Лекция 16 - Радиальные базисные функции
Caltech's Machine Learning Course - CS 156. Lecture 16 - Radial Basis Functions
В этой лекции о радиальных базисных функциях профессор Ясер Абу-Мостафа охватывает ряд тем, от SVM до кластеризации, неконтролируемого обучения и аппроксимации функций с использованием RBF. В лекции обсуждается процесс обучения параметров для RBF, влияние гаммы на результат гауссовой модели в RBF-моделях и использование RBF для классификации. Вводится понятие кластеризации для неконтролируемого обучения, при этом подробно обсуждаются алгоритм Ллойда и кластеризация K-средних. Он также описывает модификацию RBF, в которой для данных выбираются определенные репрезентативные центры, чтобы влиять на окрестности вокруг них, и для выбора этих центров используется алгоритм K-средних. Также обсуждается важность выбора подходящего значения параметра гаммы при реализации RBF для аппроксимации функции, а также использование нескольких гамм для разных наборов данных и связь RBF с регуляризацией.
Во второй части Ясер Абу-Мостафа обсуждает радиальные базисные функции (РБФ) и способы их получения на основе регуляризации. Профессор представляет подход ограничения гладкости с использованием производных для достижения гладкой функции и представляет проблемы выбора количества кластеров и гаммы при работе с многомерными пространствами. Кроме того, профессор объясняет, что использование RBF предполагает, что целевая функция является гладкой, и учитывает входной шум в наборе данных. Также обсуждаются ограничения кластеризации, но может быть полезно получить репрезентативные точки для контролируемого обучения. Наконец, профессор упоминает, что в некоторых случаях RBF могут превзойти машины опорных векторов (SVM), если данные сгруппированы определенным образом и кластеры имеют общее значение.
решение просто w равно обратному числу phi, умноженному на y. При использовании ядра Гаусса интерполяция между точками является точной, и анализируется эффект фиксирования параметра гамма.
Лекция 17 - Три принципа обучения
Caltech's Machine Learning Course - CS 156. Lecture 17 - Three Learning Principles
В этой лекции о трех принципах обучения рассказывается о бритве Оккама, предвзятости выборки и отслеживании данных в машинном обучении. Подробно обсуждается принцип бритвы Оккама, а также сложность объекта и набора объектов, которые можно измерить разными способами. В лекции объясняется, почему более простые модели часто бывают лучше, поскольку они снижают сложность и улучшают производительность вне выборки. Также вводятся понятия фальсифицируемости и нефальсифицируемости. Смещение выборки — еще одна обсуждаемая ключевая концепция, наряду с методами борьбы с ней, такими как сопоставление распределений входных и тестовых данных. Также рассматривается отслеживание данных с примерами того, как оно может повлиять на достоверность модели, в том числе за счет нормализации и повторного использования одного и того же набора данных для нескольких моделей.
Вторая часть посвящена отслеживанию данных и его опасностям в машинном обучении, особенно в финансовых приложениях, где переобучение из-за отслеживания данных может быть особенно рискованным. Профессор предлагает два средства борьбы с отслеживанием данных: избегать его или учитывать его. В лекции также затрагивается важность масштабирования и нормализации входных данных, а также принцип бритвы Оккама в машинном обучении. Кроме того, в видео обсуждается, как правильно скорректировать систематическую ошибку выборки в приложениях компьютерного зрения, и завершается кратким изложением всех затронутых тем.
Курс машинного обучения Калифорнийского технологического института - CS 156: Лекция 18 - Эпилог
Caltech's Machine Learning Course - CS 156. Lecture 18 - Epilogue
В этой заключительной лекции курса профессор Ясер Абу-Мостафа резюмирует различные области машинного обучения, охватывая теории, методы и парадигмы. Он обсуждает важные модели и методы, такие как линейные модели, нейронные сети, машины опорных векторов, ядерные методы и байесовское обучение. Докладчик объясняет преимущества и недостатки байесовского обучения, предупреждая, что предварительные предположения должны быть действительными или нерелевантными, чтобы подход был ценным. Он также обсуждает методы агрегации, в том числе агрегацию «постфактум» и «до факта», и особенно описывает алгоритм AdaBoost. Наконец, спикер благодарит тех, кто внес свой вклад в курс, и призывает своих студентов продолжать изучение и изучение разнообразной области машинного обучения.
Во второй части обсуждаются потенциальные преимущества отрицательных весов в решении алгоритма машинного обучения и рассказывается о практической проблеме, с которой он столкнулся при измерении ценности гипотезы в соревновании. Он также выражает благодарность своим коллегам и персоналу курса, особенно Карлосу Гонсалесу, и признателен сторонникам, которые сделали курс возможным и бесплатным для всех. Абу-Мостафа посвящает курс своему лучшему другу и надеется, что он стал ценным опытом для всех участников.
LINX105: Когда ИИ станет сверхинтеллектуальным (Ричард Танг, Zen Internet)
Can artificial intelligence become sentient, or smarter than we are - and then what? | Techtopia
Ричард Танг, основатель Zen Internet, обсуждает потенциал создания высокоуровневого машинного интеллекта, который будет воспроизводить реальность и превосходить людей во всех задачах. Он исследует последствия того, что ИИ превосходит человеческий интеллект, в том числе возможность разработки ИИ собственных целей и ценностей, которые могут не совпадать с человеческими целями и ценностями.
Разработка высокоуровневого машинного интеллекта потребует серьезных исследований ИИ в ближайшие годы, но есть опасения, связанные с глубоко укоренившимися ценностями, предрассудками и предубеждениями, влияющими на развитие ИИ и его способность управлять людьми. Тан подчеркивает важность обеспечения соответствия целей ИИ ценностям человечества и необходимость обучать ИИ разным вещам, если мы хотим, чтобы он вел себя по-другому. Несмотря на споры о том, могут ли машины обрести сознание, спикер считает, что важнее то, как они думают и взаимодействуют с людьми и другими существами на Земле.