Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Лекция 6. Моделирование Монте-Карло
6. Моделирование Монте-Карло
Видео объясняет, как работает моделирование Монте-Карло и как его можно использовать для оценки значений неизвестной величины. В видео обсуждается, как работает метод и как на него влияют различные размеры выборки.
Лекция 7. Доверительные интервалы
7. Доверительные интервалы
В этом видео рассматриваются различные темы, связанные со статистикой, в том числе нормальные распределения, центральная предельная теорема и оценка значения числа пи с помощью моделирования. Лектор использует Python, чтобы продемонстрировать, как строить гистограммы и функции плотности вероятности для нормальных распределений, а также как использовать метод квадратур для аппроксимации интегралов. Кроме того, спикер подчеркивает важность понимания предположений, лежащих в основе статистических методов, и необходимость проверки точности для обеспечения достоверности моделирования. Хотя доверительные интервалы могут обеспечить статистически достоверные утверждения, они могут не обязательно отражать реальность, и очень важно иметь основания полагать, что результаты моделирования близки к фактическим значениям.
Лекция 8. Выборка и стандартная ошибка
8. Выборка и стандартная ошибка
В этом видеоролике «Выборка и стандартная ошибка» рассматриваются различные концепции логической статистики с акцентом на методы выборки для оценки параметров совокупности. В видео рассматривается вероятностная выборка и простая случайная выборка, а также стратифицированная выборка, а также обсуждается центральная предельная теорема, которая касается согласованности средних значений и стандартных отклонений для случайных выборок из совокупности. В видео также рассматриваются такие темы, как планки погрешностей, доверительные интервалы, стандартное отклонение и стандартная ошибка, выбор соответствующего размера выборки и типы распределения. Докладчик подчеркивает важность понимания стандартной ошибки, поскольку она помогает оценить стандартное отклонение совокупности без изучения всей совокупности, а также то, что это понятие широко обсуждается в разных отделах.
Лекция 9. Понимание экспериментальных данных
9. Понимание экспериментальных данных
В этой лекции профессор Эрик Гримсон обсуждает процесс понимания экспериментальных данных, от сбора данных до использования моделей для прогнозирования. Он использует пример пружины, чтобы продемонстрировать важность измерения точности при прогнозировании линейных отношений, и исследует различные методы измерения качества подгонки. Гримсон вводит концепцию линейной регрессии и подбора полиномов, подчеркивая, что высокое значение r-квадрата не обязательно означает, что полином более высокого порядка является лучшим выбором. Гримсон использует код для оптимизации в 16-мерном пространстве, оставляя выбор, использовать или не использовать этот полином для следующей лекции.
Лекция 10. Понимание экспериментальных данных (продолжение)
10. Понимание экспериментальных данных (продолжение)
В этом разделе видео ведущий подчеркивает важность поиска правильной модели для соответствия экспериментальным данным, а также избегания переобучения. Обсуждаются несколько методов, таких как использование перекрестной проверки для определения правильного баланса между сложностью модели и эффективностью при прогнозировании новых данных. Докладчик приводит примеры подгонки моделей разного порядка к экспериментальным данным и демонстрирует эффекты переобучения путем добавления шума к наборам данных. Значение R-квадрата также введено как инструмент для определения того, насколько хорошо модель соответствует данным. В целом подчеркивается важность баланса между сложностью и эффективностью модели при прогнозировании новых данных.
Лекция 11. Введение в машинное обучение
11. Введение в машинное обучение
В видео обсуждается концепция машинного обучения, принцип его работы и два распространенных способа его выполнения — обучение с учителем и обучение без учителя. Затем он демонстрирует пример контролируемого обучения — обучения машины прогнозированию положения новых футболистов на основе их роста и веса.
Лекция 12. Кластеризация
12. Кластеризация
В этом видео рассматривается концепция кластеризации точек данных в группы. В нем объясняется, как выполнить кластеризацию с использованием алгоритма k-средних и как оптимизировать алгоритм по скорости. Также обсуждается, как использовать кластеризацию для диагностики проблем с данными.
Лекция 13. Классификация
13. Классификация
В этом видео рассказывается о нескольких методах классификации, включая метод ближайших соседей, K-ближайших соседей (KNN) и логистическую регрессию. Докладчик демонстрирует KNN, используя классификацию животных и примеры распознавания рукописного ввода, и объясняет, как он избегает зашумленных данных, чтобы обеспечить более надежные результаты. Они знакомят с набором данных Titanic и объясняют важность поиска правильного баланса при использовании таких показателей, как чувствительность и специфичность, для оценки эффективности модели классификации. Кроме того, в видео обсуждаются два метода тестирования: исключение одного и повторная случайная подвыборка, а также способы их применения к классификации KNN. Наконец, докладчик объясняет, почему логистическая регрессия предпочтительнее линейной регрессии для задач классификации, подчеркивая ее способность присваивать разные веса разным переменным и давать представление о переменных с помощью весов признаков.
Лекция 14. Классификация и статистические ошибки
14. Классификация и статистические ошибки
В этом видео на YouTube обсуждаются различные классификации и статистические ошибки, которые могут привести к неверным выводам. Одним из ключевых выводов является важность понимания идей, которые можно получить при изучении моделей машинного обучения, поскольку интерпретация весов переменных в логистической регрессии может вводить в заблуждение, особенно когда признаки коррелируют. В видео также подчеркивается важность оценки эффективности классификаторов с использованием площади под кривой рабочей характеристики приемника (AUROC) и недопущения соблазна неправильного использования чисел. Кроме того, подчеркивается важность тщательного изучения данных и избегания нерепрезентативной выборки, поскольку это может привести к статистическим ошибкам, таким как «мусор на входе», «мусор на выходе» (GIGO) и предвзятость выживших.
MIT 6.0002 Введение в вычислительное мышление и науку о данных, осень 2016 г. Лекция 15. Статистические ошибки и подведение итогов
15. Статистические ошибки и подведение итогов
В этом видео Джон Гуттаг обсуждает три основных типа статистических ошибок и приводит пример того, как каждый из них может привести к ложным выводам. Он призывает студентов осознавать тип данных, на которые они смотрят, и использовать соответствующий интервал, чтобы убедиться, что их выводы точны.