![MQL5 - Язык торговых стратегий для клиентского терминала MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
CS480/680 Лекция 3: Линейная регрессия
CS480/680 Лекция 3: Линейная регрессия
Лекция по линейной регрессии начинается с введения в проблему поиска наилучшей линии, максимально близкой к заданному набору точек. Лектор объясняет, что линейные функции могут быть представлены комбинацией взвешенных входных данных. Линейную регрессию можно решить с помощью оптимизации с целью минимизации евклидовых потерь за счет изменения вектора весов, что можно эффективно выполнить с помощью задач выпуклой оптимизации. Процесс решения уравнения линейной регрессии включает в себя поиск переменной W или весов, которые дадут глобальный минимум для целевой функции, что можно сделать с использованием таких методов, как обращение матрицы или итерационные методы. Также обсуждается важность регуляризации в предотвращении переобучения с добавлением к целевой функции штрафного члена, чтобы ограничить величину весов и заставить их быть как можно меньше. Лекция заканчивается обсуждением важности решения проблемы переобучения в линейной регрессии.
CS480/680 Лекция 4: Статистическое обучение
CS480/680 Лекция 4: Статистическое обучение
В этой лекции о статистическом обучении профессор объясняет различные концепции, такие как правило маргинализации, условная вероятность, совместная вероятность, правило Байеса и байесовское обучение. Эти концепции включают использование распределений вероятностей и их обновление для уменьшения неопределенности при обучении. В лекции подчеркивается важность понимания этих концепций для обоснования и объяснения различных алгоритмов. В лекции также подчеркивается ограниченность этих концепций, особенно при работе с большими пространствами гипотез. Несмотря на это ограничение, байесовское обучение считается оптимальным, если априорное значение является правильным и предоставляет пользователям значимую информацию.
В этой лекции инструктор объясняет концепцию приближенного байесовского обучения как решение проблемы управляемости при байесовском обучении. Максимальное правдоподобие и максимальное апостериорное приближение обычно используются в статистическом обучении, но они имеют свой собственный набор недостатков, таких как переобучение и менее точные прогнозы, чем байесовское обучение. Лекция также охватывает проблему оптимизации, возникающую из-за максимизации правдоподобия, объем данных, необходимых для различных задач, и важность следующих нескольких слайдов для задания курса. В заключение инструктор подчеркивает, что алгоритм будет сходиться к наилучшей гипотезе в заданном пространстве, даже если некоторые отношения не реализуемы.
CS480/680 Лекция 5: Статистическая линейная регрессия
CS480/680 Лекция 5: Статистическая линейная регрессия
В этой лекции по статистической линейной регрессии профессор охватывает множество тем, начиная с концепции максимального правдоподобия и гауссовского распределения правдоподобия для зашумленных, искаженных данных. Они объясняют использование методов максимального правдоподобия для нахождения весов, дающих максимальную вероятность для всех точек данных в наборе данных. Затем лекция углубляется в идею максимального апостериорного (MAP), сферического гауссиана и ковариационной матрицы. Спикер также обсуждает использование априорной информации и регуляризации. Затем ожидаемая ошибка в линейной регрессии разбивается на два члена: один учитывает шум, а другой зависит от вектора весов W, который далее можно разбить на смещение и дисперсию. Лекция заканчивается обсуждением использования байесовского обучения для вычисления апостериорного распределения. В целом лекция охватывает широкий круг тем, связанных со статистической линейной регрессией, и дает ценную информацию об оптимизации моделей для уменьшения ошибки прогнозирования.
Лекция посвящена байесовской регрессии, которая оценивает апостериорное распределение, которое сходится к истинному набору весов по мере наблюдения большего количества точек данных. Показано, что априорное распределение представляет собой распределение по парам W naught и W1 и является распределением линий. После наблюдения за точкой данных апостериорное распределение рассчитывается с использованием априорного распределения и распределения правдоподобия, что приводит к обновленному мнению о положении линии. Чтобы делать прогнозы, берется взвешенная комбинация прогнозов гипотез на основе апостериорного распределения, что приводит к гауссовскому прогнозу со средним значением и дисперсией, задаваемыми конкретными формулами. Хитрость для получения фактического точечного прогноза состоит в том, чтобы взять среднее значение гауссовского прогноза.
CS480/680 Лекция 6: Инструменты для опросов (Пауло Пачеко)
CS480/680 Лекция 6: Инструменты для опросов (Пауло Пачеко)
В этом видео Пауло Пачеко представляет два академических инструмента для проведения опросов: Google Scholar и RefWorks. Он объясняет, как искать научные статьи и сортировать их по цитированию с помощью Google Scholar, а также предлагает отфильтровывать старые статьи в пользу более свежих. Пачеко подчеркивает важность экспорта и управления цитатами и представляет RefWorks как инструмент для решения этой задачи. Он также дает советы по доступу к академическим публикациям, включая творческий поиск по ключевым словам и потенциально требующий доступа к университетской сети или VPN.
CS480/680 Лекция 6: Неконтролируемый перевод слов (Кира Селби)
CS480/680 Лекция 6: Неконтролируемый перевод слов (Кира Селби)
В видео обсуждается неконтролируемый перевод слов, который включает в себя обучение модели машинного обучения переводу на язык и с языка без какой-либо межъязыковой информации или сопоставления словаря. Модель Muse представлена как подход, который позволяет достичь высочайшей точности на сотнях языков без какой-либо межъязыковой информации и приближается по производительности к контролируемым моделям. В процессе неконтролируемого перевода слов используется матрица, которая переводит пространства встраивания слов разных языков с использованием GAN или генеративно-состязательных сетей. Путем обучения этих двух моделей друг другу создается способ сопоставления двух дистрибутивов с одним пространством, обеспечивающий лучшие результаты преобразования. Модели могут достигать точности 82,3% в пословном переводе.
CS480/680 Лекция 6: Наборы данных Kaggle и соревнования
CS480/680 Лекция 6: Наборы данных Kaggle и соревнования
В лекции рассказывается о Kaggle, сообществе специалистов по обработке и анализу данных, которые участвуют в спонсируемых соревнованиях, используя предоставленные наборы данных за денежный приз, предлагая ядра для обучения моделей машинного обучения и извлечения признаков данных, а также широкий выбор из почти 17 000 наборов данных для использования при разработке алгоритмов. Лектор также отмечает, что репозитории GitHub компании могут предоставить ценные наборы данных, коды и опубликованные статьи для конкурсов.
CS480/680 Лекция 6: Нормализация потоков (Приянк Джайни)
CS480/680 Лекция 6: Нормализация потоков (Приянк Джайни)
Видео представляет собой введение в нормализацию потоков в глубоких генеративных моделях, метод, который изучает функцию для преобразования одного распределения в другое с целью преобразования известного распределения в неизвестное интересующее распределение. В видео также обсуждаются возможные исследовательские проекты, связанные с нормализацией потоков, в том числе проведение обзора различных статей и достижений, связанных с нормализацией потоков и анализом преобразования одного гауссиана в смесь гауссианов. Лектор поощряет изучение многих различных приложений нормализующих потоков.
CS480/680 Лекция 6: Проверка фактов и обучение с подкреплением (Вик Гоэл)
CS480/680 Лекция 6: Проверка фактов и обучение с подкреплением (Вик Гоэл)
Ученый-компьютерщик Вик Гоэл обсуждает применение обучения с подкреплением при проверке онлайн-новостей и предлагает использовать систему рекомендаций для вставки подтверждающих доказательств в режиме реального времени. Он предлагает использовать большой корпус академических статей в качестве источника данных, чтобы научить классификатор предсказывать, где требуется цитирование. Кроме того, Гоэл объясняет, как исследователи начали кодировать человеческие априорные данные в модели обучения с подкреплением, чтобы ускорить процесс и распознавать различные объекты в видеоиграх. Это представляет собой многообещающую область исследований, в которой дополнительные априорные данные могут улучшить процесс обучения.
CS480/680 Лекция 6: Сети сумм-произведений (Пранав Субрамани)
CS480/680 Лекция 6: Сети сумм-произведений (Пранав Субрамани)
В лекции обсуждаются концепции сетей суммы-произведения (SPN), которые представляют собой сети, состоящие из сумм и произведений, используемые для удобного вероятностного моделирования, которое дает неэкспоненциальное время выполнения и имеет множество приложений, таких как интерпретируемость и простое вычисление предельной плотности. В видео также упоминается превосходная производительность SPN со сверточными нейронными сетями, его потенциал в создании более качественных генеративных моделей в сочетании с такими моделями, как GAN и вариационные кодировщики воды, а также неиспользованные потенциальные области исследований для SPN, включая устойчивость к состязаниям, сценарии обучения с подкреплением и моделирование ожидаемых полезностей. в играх. Также были подчеркнуты теоретическая гарантия интерпретации модели и возможность ученых внести значительный вклад в области машинного обучения.
CS480/680 Лекция 6: ЭМ и смешанные модели (Гоцзюнь Чжан)
CS480/680 Лекция 6: ЭМ и смешанные модели (Гоцзюнь Чжан)
В лекции 6 CS480/680 профессор Гоцзюнь Чжан обсуждает основы неконтролируемого обучения и кластеризации, уделяя особое внимание смешанным моделям и их использованию для кластеризации данных. Лекция посвящена алгоритму максимизации ожидания и его процессам Estep и Mstep, а также градиентному спуску как методу оптимизации. Предлагаемый потенциальный проект включает в себя изучение того, как EM и градиентный спуск ведут себя в моделях обучающей смеси, с конечной целью — предложить лучший алгоритм, позволяющий избежать плохих локальных минимумов. Математическая подготовка отмечается как необходимая для проекта.