Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
12. Вычисление собственных и сингулярных значений
12. Вычисление собственных и сингулярных значений
В этом видео представлен метод QR для вычисления собственных и сингулярных значений. Процесс включает в себя начало с желаемой матрицы и разложение ее на QR, создавая верхнюю треугольную матрицу R, которая соединяет неортогональный базис с ортогональным базисом. Процесс повторяется до тех пор, пока диагональные элементы не станут маленькими, после чего их можно использовать для аппроксимации собственных значений. Докладчик также обсуждает метод сдвига для вычисления собственных векторов для ускорения процесса. Также подчеркнуты преимущества использования MATLAB для симметричных матриц. В видео также затрагивается концепция векторов Крылова для решения задач на собственные значения для больших матриц.
Лекция 13: Рандомизированное матричное умножение
Лекция 13: Рандомизированное матричное умножение
В этой видеолекции обсуждается концепция рандомизированного умножения матриц, которая включает в себя выборку столбцов матрицы A и соответствующих строк матрицы B с вероятностью, которая в сумме равна единице. Чтобы получить правильный ответ, можно вычислить среднее значение случайных выборок, но дисперсия все равно будет. Далее в лекции обсуждаются концепции среднего значения и дисперсии, а также способы выбора наилучших вероятностей, минимизирующих дисперсию. Процесс включает в себя введение неизвестной переменной, называемой лямбда, и взятие производных по ней для нахождения наилучшего PJ. Затем внимание смещается на вопрос о том, как взвешивать вероятности при просмотре того, какие столбцы в матрице больше или меньше. Лектор предлагает две возможности: взвесить вероятности по норме в квадрате или смешать столбцы матрицы и использовать равные вероятности. В целом, видео содержит подробное объяснение умножения рандомизированных матриц и процесса оптимизации вероятностей для получения наименьшей дисперсии.
Лекция 14. Низкоранговые изменения в A и обратная матрица
14. Низкоранговые изменения в A и обратная матрица
В видео обсуждается концепция матриц низкого ранга и их важность в функциональных матрицах, в частности, формула обращения матриц, которая находит обратную матрицу N на n с точки зрения более простой матрицы 1 на 1. Формула полезна при нахождении обратной матрицы с возмущениями низкого ранга и может упростить процесс нахождения обратной. Докладчик демонстрирует, как работает формула, представляя формулу для второй матрицы, и показывает, как та же логика применялась для получения ответа. В видео также обсуждаются практические применения этой формулы, особенно в задачах наименьших квадратов и фильтре Калмана.
Лекция 15. Матрицы A(t) в зависимости от t, производная = dA/dt
15. Матрицы A(t) в зависимости от t, производная = dA/dt
В этом видео рассматриваются различные темы, связанные с матрицами, в том числе изменения матриц и их обратных, а также изменения собственных значений и сингулярных значений с течением времени. Докладчик объясняет ключевые формулы для расчета этих изменений и подчеркивает важность понимания исчисления в линейной алгебре. Кроме того, в лекции обсуждается важность нормализации и исследуются теоремы чередования для собственных значений как в симметричных матрицах, так и в матрицах ранга 1. Наконец, видео завершается обзором затронутых тем и обещанием расширить их в будущих лекциях.
возможно, они все еще могут вывести неравенства, чтобы понять, насколько большими могут быть изменения. В лекции также рассматривается настройка матрицы A, которая зависит от времени (T) и обратной матрицы A.
Лекция 16. Производные обратных и сингулярных значений
16. Производные обратных и сингулярных значений
Это видео охватывает множество тем, включая производную от обратных и сингулярных значений матрицы, чересстрочную развертку и ядерную норму матрицы. Докладчик представляет формулу для производной сингулярных значений с использованием SVD, чтобы понять, как матрица изменяется во времени, и установить границы для изменений собственных значений в симметричных матрицах. Неравенство Виала вводится как способ оценки лямбда-значений матрицы, а поиск базиса используется в задачах завершения матрицы. Докладчик также обсуждает идею о том, что ядерная норма матрицы происходит от нормы, которая не совсем является нормой, и вводит понятие Лассо и сжатого восприятия, которые будут обсуждаться в следующей лекции.
Лекция 17: Быстро убывающие сингулярные значения
Лекция 17: Быстро убывающие сингулярные значения
Лекция посвящена матрицам и их рангам, а также тому, как быстро уменьшающиеся сингулярные числа преобладают в вычислительной математике. Лектор исследует матрицы низкого ранга и демонстрирует, как в их последовательности сингулярных значений много нулей, что делает более эффективной отправку матрицы другу в форме низкого ранга, чем в форме полного ранга. Они также вводят числовой ранг матрицы, который определяется предоставлением некоторого пространства для маневра для определения допуска сингулярных значений матрицы. Путем выборки гладких функций, которые могут быть хорошо аппроксимированы полиномами, числовой ранг может быть низким, что приводит к низкоранговой аппроксимации матрицы X. В лекцию также включены примеры матриц Гаусса и Вандермонда, чтобы объяснить, как они могут привести к матриц низкого ранга и обсуждает полезность чисел Золотарёва в ограничивающих сингулярных значениях.
Лекция 18: Подсчет параметров в SVD, LU, QR, седловых точках
Лекция 18: Подсчет параметров в SVD, LU, QR, седловых точках
В этой лекции докладчик рассматривает различные матричные факторизации, такие как L&U, Q&R и матрицы собственных векторов, и подсчитывает количество свободных параметров в каждой из этих матриц. Они также обсуждают вычисление Qs по сравнению с SVD и подсчитывают количество параметров в SVD для матрицы ранга R. Лектор также объясняет концепцию седловых точек в матрицах и способы их нахождения с использованием методов оптимизации и множителей Лагранжа. Наконец, лектор обсуждает знак собственных значений симметричной матрицы и то, как частное Рэлея может помочь определить максимальное значение и соответствующий собственный вектор матрицы.
Лекция 19. Продолжение седловых точек, принцип Максмина
19. Продолжение седловых точек, принцип Максмина
В этом видео спикер продолжает обсуждение седловых точек и того, как найти минимальное и максимальное значения, используя коэффициент Рэлея в двумерном пространстве. Объясняется теорема чередования, которая включает в себя запись седловых точек как максимума минимума для быстрого нахождения максимумов и минимумов. Докладчик также предостерегает от переобучения при подборе данных полиномом высокой степени и обсуждает две открытые лабораторные работы для класса, включающие седловые точки и простую нейронную сеть. Объясняются концепции среднего значения и дисперсии в статистике, а также выборочной дисперсии и ковариации, при этом выступающий отмечает, что ковариационная матрица для полностью зависимых результатов не будет обратимой, а для сценариев опроса с несколькими людьми, проживающими в одном доме, ожидается некоторая ковариация, но не совсем самостоятельный.
Лекция 20. Определения и неравенства
20. Определения и неравенства
В этом разделе видео спикер обсуждает различные концепции теории вероятностей, включая матрицы ожидаемого значения, дисперсии и ковариации. Неравенство Маркова и неравенство Чебышева также были введены в качестве основных инструментов для оценки вероятностей. Затем оратор переходит к объяснению связи между неравенством Маркова и неравенством Чебычева, показывая, как они приводят к одному и тому же результату. Также были введены понятие ковариации и ковариационной матрицы, фундаментальный инструмент теории вероятностей. Видео также исследует идею совместных вероятностей и тензоров, объясняя, как склеивание монет добавляет зависимость и изменяет вероятности. Наконец, спикер обсуждает свойства ковариационной матрицы, подчеркивая, что она всегда является положительно-полуопределенной и представляет собой комбинацию положительно-полуопределенных матриц ранга 1.
Лекция 21: Минимизация функции шаг за шагом
Лекция 21: Минимизация функции шаг за шагом
В этой видеолекции обсуждаются основные алгоритмы, используемые для минимизации функции, и скорости их сходимости, в частности метод Ньютона и метод наискорейшего спуска. Он также подчеркивает важность выпуклости, которая гарантирует, что функция имеет один минимум, и вводит понятие выпуклых множеств и выпуклых функций. Лектор объясняет, как проверить функцию на выпуклость, которая определяет наличие у нее седловых точек или локальных минимумов, а не глобального минимума. Видео заканчивается обсуждением Левенберга Марквардта, более дешевой версии метода Ньютона, которая не является полностью вторым порядком.