Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
CS480/680 Лекция 17: Скрытые марковские модели
CS480/680 Лекция 17: Скрытые марковские модели
Лекция знакомит со скрытыми марковскими моделями (HMM), типом вероятностной графической модели, используемой для использования корреляций в данных последовательности, которые могут повысить точность. Предположения модели включают стационарный процесс и марковский процесс, при котором скрытое состояние зависит только от предыдущего состояния. Три распределения в HMM - это распределение начального состояния, распределение перехода и распределение излучения, причем последний тип используется в зависимости от типа данных. Алгоритм можно использовать для мониторинга, прогнозирования, фильтрации, сглаживания и, скорее всего, задач объяснения. HMM использовался для распознавания речи и машинного обучения, например, для прогнозирования наиболее вероятной последовательности выходных данных на основе последовательности входных данных и скрытых состояний для пожилых людей, использующих ходунки для корреляции стабильности. Был проведен эксперимент с модифицированными датчиками и камерами на ходунках для автоматического распознавания деятельности пожилых людей на основе сбора данных о деятельности пожилых людей в учреждении для престарелых. Также обсуждалась демонстрация контролируемого и неконтролируемого обучения в контексте распознавания деятельности.
Лекция посвящена использованию гауссовых распределений излучения в скрытых марковских моделях (HMM), которые обычно используются в практических приложениях, где собранные данные непрерывны. Лектор объясняет, что этот метод включает в себя вычисление параметров среднего и дисперсии, которые соответствуют эмпирическому среднему и дисперсии данных, и их использование для расчета решения для начального и переходного распределений. Распределение переходов соответствует подсчетам относительных частот, и для получения решений используется максимальное правдоподобие. Этот подход аналогичен решению для смесей гауссиан, где также используются начальное и эмиссионное распределения.
CS480/680 Лекция 18: Рекуррентные и рекурсивные нейронные сети
CS480/680 Лекция 18: Рекуррентные и рекурсивные нейронные сети
В этой лекции докладчик представляет рекуррентные и рекурсивные нейронные сети как модели, подходящие для последовательных данных без фиксированной длины. Рекуррентные нейронные сети могут обрабатывать последовательности любой длины из-за определенных узлов с выходными данными, возвращаемыми в качестве входных данных, а способ вычисления H на каждом временном шаге заключается в использовании одной и той же функции f, которая включает распределение веса. Однако они могут страдать от таких ограничений, как забвение информации из первых входных данных и дрейф прогноза. Лектор также объясняет архитектуру двунаправленной рекуррентной нейронной сети (BRNN) и модель кодер-декодер, в которой используются две RNN — кодер и декодер, для приложений, в которых входные и выходные последовательности не совпадают естественным образом. Кроме того, лектор описывает преимущества блоков долговременной кратковременной памяти (LSTM), которые могут смягчить проблему исчезающего градиента, упростить долгосрочные зависимости и выборочно разрешать или блокировать поток информации.
Эта лекция о рекуррентных и рекурсивных нейронных сетях охватывает ряд тем, в том числе использование долговременной кратковременной памяти (LSTM) и Gated Recurrent Unit (GRU) для предотвращения проблем с градиентом, а также важность механизмов внимания в машинном переводе. для сохранения смысла предложения и выравнивания слов. Лектор также обсуждает, как рекуррентные нейронные сети можно обобщить до рекурсивных нейронных сетей для последовательностей, графов и деревьев, а также как анализировать предложения и создавать вложения предложений с использованием деревьев разбора.
делается. Скрытое состояние вычисляется с помощью функции, которая принимает предыдущее скрытое состояние и входные данные, а выходные данные получаются с помощью другой функции, которая принимает скрытое состояние в качестве входных данных. В конечном счете, цель состоит в том, чтобы использовать это вычисление для вычисления вероятностей или распознавания действий.
CS480/680 Лекция 19: Сети Attention and Transformer
CS480/680 Лекция 19: Сети Attention and Transformer
В этой лекции вводится понятие внимания в нейронных сетях и обсуждается его роль в развитии сетей-преобразователей. Первоначально внимание изучалось с помощью компьютерного зрения, что позволяло идентифицировать важные области, подобно тому, как люди естественным образом фокусируются на определенных областях. Применение машинного перевода привело к созданию сетей-преобразователей, которые используют исключительно механизмы внимания и дают такие же хорошие результаты, как и традиционные нейронные сети. Сети-трансформеры имеют преимущества перед рекуррентными нейронными сетями, решая проблемы, связанные с дальнодействующими зависимостями, исчезающими и взрывающимися градиентами и параллельными вычислениями. В лекции исследуется внимание с несколькими головками в трансформаторных сетях, которое гарантирует, что каждая выходная позиция обращает внимание на вход. Обсуждается использование масок, слоев нормализации и слоя Donora в трансформаторных сетях, а также исследуется концепция использования внимания в качестве строительного блока.
В этой лекции о сетях внимания и трансформаторах спикер объясняет важность нормализации для разделения градиентов в разных слоях, а также важность позиционного встраивания для сохранения порядка слов в предложениях. Докладчик сравнивает оценки сложности сетей-преобразователей с рекуррентными и свёрточными нейронными сетями, подчёркивая способность сети-преобразователя захватывать долгосрочные зависимости и одновременно обрабатывать слова. Также обсуждаются преимущества сетей-преобразователей в улучшении масштабируемости и снижении конкуренции, а также внедрение сетей-преобразователей, таких как GPT, BERT и XLNet, которые показали впечатляющие показатели точности и скорости, что поднимает вопросы о будущем рекуррентных нейронных сетей.
CS480/680 Лекция 20: Автоэнкодеры
CS480/680 Лекция 20: Автоэнкодеры
Автокодировщики относятся к семейству сетей, тесно связанных с кодировщиками-декодерами, с той разницей, что автокодировщики принимают входные данные и производят один и тот же вывод. Они важны для сжатия, шумоподавления, получения разреженного представления и генерации данных. Линейные автоэнкодеры обеспечивают сжатие путем сопоставления векторов большой размерности с меньшими представлениями, гарантируя при этом отсутствие потери информации, и используют весовые матрицы для вычисления линейного преобразования от входных данных к сжатым представлениям и обратно. Кроме того, глубинные автоэнкодеры допускают сложные отображения, в то время как вероятностные автоэнкодеры создают условные распределения по промежуточному представлению и входным данным, которые можно использовать для генерации данных. Использование нелинейных функций автоэнкодерами использует преимущество нелинейного многообразия, проекции на пространство более низкого измерения, которое фиксирует внутреннюю размерность данных, что приводит к сжатию входных данных без потерь.
CS480/680 Лекция 21: Генеративные сети (вариационные автоэнкодеры и GAN)
CS480/680 Лекция 21: Генеративные сети (вариационные автоэнкодеры и GAN)
Эта лекция посвящена генеративным сетям, которые позволяют производить выходные данные через такие сети, как вариационные автоэнкодеры (VAE) и генеративно-состязательные сети (GAN). VAE используют кодировщик для отображения данных из исходного пространства в новое пространство, а затем декодер для восстановления исходного пространства. Лектор объясняет концепцию VAE и проблемы с вычислением интеграла распределений, необходимых для обучения. GAN состоят из двух сетей — генератора и дискриминатора — где сеть генератора создает новые точки данных, а сеть дискриминатора пытается отличить сгенерированные от реальных. Обсуждаются проблемы реализации GAN, в том числе обеспечение баланса между сильными сторонами сетей и достижение глобальной конвергенции. Лекция заканчивается примерами сгенерированных изображений и предварительным просмотром следующей лекции.
CS480/680 Лекция 22: Обучение ансамблю (бэггинг и бустинг)
CS480/680 Лекция 22: Обучение ансамблю (бэггинг и бустинг)
В лекции обсуждается ансамблевое обучение, при котором несколько алгоритмов объединяются для улучшения результатов обучения. Два основных рассмотренных метода — бэггинг и бустинг, и докладчик подчеркивает важность объединения гипотез для получения более богатой гипотезы. В лекции рассматривается процесс голосования взвешенным большинством и его вероятность ошибки, а также то, как работает бустинг для повышения точности классификации. Докладчик также рассказывает о преимуществах бустинга и ансамблевого обучения, отмечая применимость ансамблевого обучения ко многим типам задач. Наконец, видео следует примеру задачи Netflix, чтобы продемонстрировать использование ансамблевого обучения в соревнованиях по науке о данных.
В этой лекции по ансамблевому обучению спикер подчеркивает ценность объединения гипотез из разных моделей для повышения точности — подход, который может быть особенно полезен, когда вы начинаете с уже достаточно хороших решений. Он обсуждает важность взвешенной комбинации прогнозов, отмечая, что необходимо соблюдать осторожность, поскольку среднее значение двух гипотез иногда может быть хуже, чем отдельные гипотезы по отдельности. Спикер также объясняет, что нормализация весов может понадобиться в зависимости от того, является ли задача классификацией или регрессией.
CS480/680 Лекция 23: Нормализация потоков (Приянк Джайни)
CS480/680 Лекция 23: Нормализация потоков (Приянк Джайни)
В этой лекции Приянк Джайни обсуждает нормализацию потоков как метод оценки плотности и рассказывает, чем они отличаются от других генеративных моделей, таких как GAN и VAE. Джайни объясняет концепцию сохранения вероятностной массы и то, как она используется для вывода формулы замены переменных в нормализующих потоках. Далее он объясняет процесс построения треугольной структуры при нормализации потоков с помощью семейств преобразований и концепции матриц перестановок. Джайни также вводит концепцию потоков суммы квадратов (SOS), которые используют полиномы более высокого порядка и могут охватывать любую целевую плотность, что делает их универсальными. Наконец, Джайни обсуждает скрытое пространство и его преимущества в методах создания изображений на основе потоков и просит аудиторию задуматься о потенциальных недостатках моделей на основе потоков.
В этой лекции Приянка Джайни о нормализации потоков он обсуждает проблемы захвата многомерных преобразований с большим количеством параметров. Нормализация потоков требует, чтобы оба измерения были одинаковыми для достижения точного представления, в отличие от GAN, которые используют узкие места для преодоления таких проблем. Джайни подчеркивает, что изучение связанных параметров с многомерными наборами данных в экспериментах по нормализации потоков может быть затруднено. Он также отвечает на вопросы о том, как нормализующие потоки могут фиксировать мультимодальные распределения, и предлагает код для реализации линейных аффинных преобразований.
CS480/680 Лекция 24: Повышение градиента, бэггинг, леса решений
CS480/680 Лекция 24: Повышение градиента, бэггинг, леса решений
Эта лекция посвящена бустингу градиентов, бэггингу и лесам решений в машинном обучении. Повышение градиента включает добавление новых предикторов на основе отрицательного градиента функции потерь к предыдущему предиктору, что приводит к повышению точности в задачах регрессии. В лекции также рассматривается, как предотвратить переобучение и оптимизировать производительность с помощью регуляризации и ранней остановки тренировочных процессов. Кроме того, лекция посвящена бэггингу, который включает в себя подвыборку и объединение различных базовых обучающихся для получения окончательного прогноза. Также обсуждается использование деревьев решений в качестве базовых обучающих программ и создание случайных лесов, а также приводится реальный пример Microsoft Kinect, использующий случайные леса для распознавания движения. Обсуждаются преимущества ансамблевых методов для параллельных вычислений и подчеркивается важность понимания обновлений веса в системах машинного обучения. В этой лекции рассматриваются потенциальные проблемы с усреднением весов при комбинировании предикторов в нейронных сетях или скрытых марковских моделях, вместо этого рекомендуется объединение прогнозов с помощью метода большинства голосов или усреднения. Профессор также предлагает различные связанные курсы, доступные в Университете Ватерлоо, несколько курсов для выпускников по оптимизации и линейной алгебре, а также программу бакалавриата по науке о данных, посвященную ИИ, машинному обучению, системам данных, статистике и темам оптимизации. В лекции подчеркивается важность алгоритмических подходов по сравнению со статистикой и специализации в темах науки о данных по сравнению с общими степенями компьютерных наук.
Стоит ли бояться искусственного интеллекта? с Эмадом Мостаком, Александром Ваном и Эндрю Нг | 39
Стоит ли бояться искусственного интеллекта? с Эмадом Мостаком, Александром Ваном и Эндрю Нг | 39
Гости этого видео на YouTube обсуждают различные аспекты искусственного интеллекта (ИИ), в том числе его потенциальные опасности, сбои в различных отраслях и важность переквалификации работников, чтобы оставаться актуальными. Участники дискуссии также обсуждают удобство использования инструментов ИИ, внедрение ИИ в здравоохранение, стандартизацию систем распространения информации, потенциал создания богатства с помощью ИИ и использование языковых моделей в здравоохранении и образовании. Кроме того, они подчеркнули необходимость ответственного развертывания моделей ИИ, прозрачности и этических соображений в управлении. Наконец, участники дискуссии кратко ответят на некоторые вопросы аудитории по таким темам, как конфиденциальность в ИИ для здравоохранения и образования.
«Крестный отец ИИ» Джеффри Хинтон предупреждает о «экзистенциальной угрозе» ИИ | Аманпур и компания
«Крестный отец ИИ» Джеффри Хинтон предупреждает о «экзистенциальной угрозе» ИИ | Аманпур и компания
Джеффри Хинтон, известный как «Крестный отец ИИ», исследует последствия быстро развивающегося цифрового интеллекта и его потенциал превзойти способности человека к обучению. Он выражает обеспокоенность по поводу экзистенциальной угрозы, которую представляют эти системы ИИ, предупреждая, что они могут превзойти человеческий мозг в различных аспектах. Несмотря на значительно меньшую емкость памяти, чем у мозга, цифровой интеллект обладает обилием знаний здравого смысла, которые превосходят человеческие в тысячи раз. Кроме того, они демонстрируют более быстрые способности к обучению и общению, используя более совершенные алгоритмы по сравнению с мозгом.
Хинтон делится интригующим открытием, которое он сделал с помощью системы Google Palm, где искусственный интеллект смог объяснить, почему шутки были смешными, предполагая более глубокое понимание определенных концепций по сравнению с людьми. Это подчеркивает их замечательную способность устанавливать связи и получать информацию. Он подчеркивает, что человеческая интуиция и предубеждения заложены в нашей нервной деятельности, что позволяет нам приписывать животным гендерные качества. Однако эти мыслительные процессы также проливают свет на потенциальные угрозы, исходящие от ИИ в будущем.
Отвечая на опасения по поводу разумности ИИ, Хинтон признает двусмысленность его определения и неопределенность, связанную с его развитием. Он поднимает несколько проблем, которые представляет ИИ, в том числе увольнение с работы, сложность установления истины и возможность усугубления социально-экономического неравенства. Чтобы снизить эти риски, Хинтон предлагает ввести строгие правила, аналогичные тем, которые регулируют фальшивые деньги, криминализируя производство поддельных видео и изображений, созданных ИИ.
Подчеркивая важность международного сотрудничества, Хинтон подчеркивает, что китайцы, американцы и европейцы кровно заинтересованы в предотвращении появления неконтролируемого ИИ. Он признает ответственный подход Google к разработке ИИ, но подчеркивает необходимость обширных экспериментов, чтобы исследователи могли сохранить контроль над этими интеллектуальными системами.
Признавая ценный вклад цифрового интеллекта в такие области, как медицина, предсказание стихийных бедствий и понимание изменения климата, Хинтон не согласен с идеей полной остановки развития ИИ. Вместо этого он выступает за выделение ресурсов для понимания и смягчения потенциальных негативных последствий ИИ. Хинтон признает неопределенность, связанную с развитием сверхразумного ИИ, и подчеркивает необходимость коллективных человеческих усилий для формирования будущего, оптимизированного для улучшения общества.