Машинное обучение и нейронные сети - страница 19

 

Лекция 13. Обучение: генетические алгоритмы



13. Обучение: генетические алгоритмы

В этом видео обсуждается концепция генетических алгоритмов, которые имитируют эволюцию и позволяют решать сложные задачи. Процесс генетического наследования через хромосомы разбивается и моделируется с использованием бинарных хромосом с выбором мутаций и кроссоверов. Вероятность выживания и ранжирование кандидатов объясняются на примере, показывающем эффективность при правильном выполнении. Обсуждается проблема преодоления локальных максимумов и введение метода имитации отжига. Демонстрируются практические применения генетических алгоритмов, в том числе проект по построению экспертной системы на основе правил и эволюции существ, состоящих из блочных объектов. Лектор размышляет о происхождении и успехе генетических алгоритмов, отмечая, что разнообразие является ключевым компонентом их успеха.

  • 00:00:00 В этом разделе профессор Патрик Уинстон из Массачусетского технологического института рассказывает об имитации эволюции с помощью генетических алгоритмов. Он начинает с рассказа об основах митоза и размножения. Затем он вводит концепцию генетических алгоритмов, которые представляют собой наивные попытки имитировать эволюцию. Эти алгоритмы позволяют нам решать сложные вопросы, имитируя модель эволюции. Он говорит, что студенты не увидят этого в своей следующей викторине, но у них будут вопросы, связанные с этим, на выпускном экзамене, чтобы проверить, присутствовали ли они в классе и бодрствовали ли они.

  • 00:05:00 В этом разделе видео спикер объясняет основы генетических алгоритмов, разбирая процесс генетической наследственности через хромосомы. Он сравнивает процесс генетического наследования с генетическими алгоритмами и объясняет, как он упрощает и моделирует хромосомы с целью построения системы, имитирующей процесс генетического наследования с использованием бинарных хромосом. Далее он объясняет, как в этом процессе может быть сделан выбор, например, сколько мутаций или кроссоверов разрешено на хромосому, что приводит к популяции модифицированных хромосом. Следующий шаг — переход от генотипа к фенотипу.

  • 00:10:00 В этом разделе мы узнаем о том, как генотип определяет фенотип и различную приспособленность, присущую каждому человеку. Как только приспособленность подсчитана, ученые-компьютерщики могут использовать числа для расчета вероятности выживания в следующем поколении. Чтобы гарантировать, что вероятности в сумме равны единице, нам нужна вероятностная мера, полученная из пригодности. При построении генетического алгоритма, который ищет оптимальные значения в пространстве с функцией x и y, приспособленность определяется синусом некоторой константы, умноженной на x, квадрат количества, умноженный на синус некоторой константы y, квадрат количества, e на плюс х плюс у, деленное на некоторую константу.

  • 00:15:00 В этом разделе Патрик Уинстон объясняет, как работают генетические алгоритмы и как они развиваются. Он описывает процесс мутации и кроссовера и то, как их можно использовать для развития популяций вверх по графику пригодности. На примере он демонстрирует, как генетические алгоритмы могут застрять на локальных максимумах из-за их фундаментального механизма восхождения на холм. Студенты предлагают использовать кроссовер, но даже это не работает. Несмотря на это, Уинстон отмечает важность непредвзятости к идеям, которые на первый взгляд могут показаться неэффективными.

  • 00:20:00 В этом разделе лектор исследует концепцию перевода пригодности в вероятность выживания, подчеркивая, что использование фактической характеристики приспособленности не обязательно может быть эффективным. Поэтому он предлагает ранжировать кандидатов на основе их уровня физической подготовки, что может быть лучшим подходом. Он подробно объясняет этот механизм, утверждая, что вероятность того, что особь самого высокого ранга попадет в следующее поколение, определяется константой. Кроме того, он запускает 100 поколений, чтобы проверить этот метод, и объясняет результаты, показывая эффективность стратегии при правильном выполнении.

  • 00:25:00 В этом разделе видео обсуждается, как генетические алгоритмы иногда застревают в локальных максимумах и нуждаются в способе увеличения разнообразия, чтобы найти лучшее решение. Это похоже на то, как некоторые виды застревают без развития на миллионы лет. Затем вводится метод имитации отжига, чтобы постепенно уменьшить размер шага и найти решение. Однако видео демонстрирует, что иногда имитации отжига недостаточно, чтобы избежать локального максимума, и необходим новый механизм для увеличения разнообразия внутри популяции. Видео предлагает измерить разнообразие популяции и отобрать особей не только на основе их пригодности, но и их уникальности среди других уже отобранных особей.

  • 00:30:00 В этом разделе спикер использует комбинацию рейтинга пригодности и рейтинга разнообразия, чтобы продемонстрировать, как работают генетические алгоритмы, используя небольшой размер шага и запуская его для 100 поколений. Подползая к верхнему правому углу, часть разнообразия удерживает вещи разбросанными, обнаруживая при этом высокую пригодность. Когда разнообразие выключено, это занимает 600 миллионов лет. Тем не менее, он хорошо работает при решении проблемы рва, поскольку у него есть перекрестный механизм, объединяющий лучшее из x и y. Спикер объясняет, как мутация в основном влияет на восхождение на холм, и что есть выбор того, как с этим справиться, в том числе, сколько кроссоверов нужно делать. Но спикер отмечает, что генетические алгоритмы отражают лишь очень наивное представление об эволюции, что в переходе от генотипа к фенотипу все еще есть много волшебства, которое никто полностью не понимает, что оставляет большую часть вмешательства дизайнерам.

  • 00:35:00 В этом разделе спикер обсуждает некоторые практические применения генетических алгоритмов. Одним из примеров является планирование, когда два набора шагов могут быть объединены для создания нового плана. Другим примером является студенческий проект по созданию основанной на правилах экспертной системы, которая предсказывает победителей скачек, используя мутации и кроссоверы для развития правил. Спикер также демонстрирует эволюцию существ, состоящих из блочных объектов, где разные биты в хромосоме интерпретируются как количество, размер, структура и контроль над объектами. Разнообразие существ измеряется путем расчета метрического расстояния между всеми кандидатами в следующее поколение.

  • 00:40:00 В этом разделе Патрик Уинстон объясняет, как работают генетические алгоритмы, комбинируя вероятность выживания и вероятность ранжирования на основе того, насколько они отличаются от людей в следующем поколении. Затем он демонстрирует пример этих алгоритмов на видео плавающих существ, эволюционировавших в зависимости от того, насколько быстро они могут двигаться и как они передвигаются по суше. Видео показывает, как существа развиваются вместе и конкурируют за пищу. Некоторым существам удалось выработать экзотические методы, а другие запутались и забыли о еде. Видео является примером того, чего можно достичь с помощью сверхмощных компьютеров, подобных тем, которые использует компания, создавшая видео.

  • 00:45:00 В этом разделе лектор размышляет о происхождении генетических алгоритмов и их успехах в поиске решений различных задач. Он отмечает, что, хотя алгоритмы впечатляют, настоящая заслуга может заключаться в богатстве пространства решений и изобретательности программиста. Разнообразие также выделяется как ключевой компонент успешных расчетов генетических алгоритмов.
 

Лекция 14. Обучение: разреженные пространства, фонология



14. Обучение: разреженные пространства, фонология

В этом разделе видео профессор Уинстон представляет концепцию разреженных пространств и фонологии как механизмов, связанных с исследованием того, как люди учатся. Он обсуждает взаимодействие между тем, что мы видим, и тем, что мы слышим, когда дело доходит до изучения языка, используя примеры, иллюстрирующие, как визуальные подсказки могут влиять на то, что мы воспринимаем в языке. Докладчик объясняет элементы и связи машины, предназначенной для распознавания и воспроизведения звуков речи, включая регистры, набор слов, ограничения и буфер для фонем. Он также объясняет технику обобщения шаблонов в фонологии, используя положительные и отрицательные примеры, на которых можно учиться, используя пример изучения в классе отличительных черт, связанных со словами «кошки» и «собаки». Наконец, он обсуждает важность создания ограничений, соответствующих функции механизма, и включения визуального представления для лучшего понимания и решения проблемы.

  • 00:00:00 В этом разделе видео профессор Уинстон представляет два механизма или идеи, связанные с обучением: разреженные пространства и фонология. Прежде чем обсуждать их, он кратко рассматривает некоторые основные методы, в том числе ближайших соседей и деревья идентификации, а также некоторые биологические имитации, такие как нейронные сети и генетические алгоритмы. Он объясняет, что, хотя последние не всегда эффективны, о них все же стоит узнать. Затем профессор Уинстон сосредотачивается на механизмах, связанных с исследованиями того, как люди учатся, и, в частности, на том, как мы можем идентифицировать и создавать слова во множественном числе в языках, которые мы выучили в более позднем возрасте. Он использует примеры, чтобы проиллюстрировать, что такие люди, как Кришна, могут ставить слова во множественное число в английском языке, даже не осознавая, что они делают это правильно, а затем он говорит о том, как можно подойти к таким явлениям с инженерной точки зрения.

  • 00:05:00 В этом разделе мы узнаем о фонологических правилах и о том, как они усваиваются машиной. Фонология имеет дело со слоговыми и субсложными звуками, а фонологические правила определяют, какой телефон или комбинацию бинарных признаков произносит человек. Существует около 14 отличительных признаков, по которым можно определить, о каком телефоне идет речь, что дает примерно 16 000 возможных комбинаций на языке. Тем не менее, ни один язык не имеет более 100 телефонов, а некоторые варианты исключены по физическим причинам, что странно, поскольку большинство из них таковыми не являются. Удивительно видеть, как многие из этих отличительных черт являются галлюцинациями или внедряются в петлю обратной связи из других модальностей, а эффект Мак-Гурка показывает, как часто возникает разрыв между речью и видео.

  • 00:10:00 В этом разделе спикер объясняет взаимосвязь между тем, что мы видим, и тем, что мы слышим, когда дело доходит до изучения языка. Он обсуждает, как визуальные сигналы могут влиять на то, что мы воспринимаем, используя примеры звуков немецких и английских коров. Затем он дает представление о том, что фонологи знают об отличительных чертах, образующих фонематические последовательности для таких слов, как «яблоки». Внизу по столбцам он содержит такие признаки, как звонкий, слоговый или резкий, и переходя по ним, мы успеваем. Спикер также рассказывает о машине, которая интерпретирует звук, и о вещах, которые люди видят, чтобы воспроизводить звуки языка, которая решит, что есть два яблока, хранящиеся в регистрах, которые содержат значения для таких понятий, как существительное, глагол и множественное число.

  • 00:15:00 В этом разделе спикер объясняет элементы и соединения машины, предназначенной для распознавания и воспроизведения звуков речи. Машина состоит из регистров, набора слов, ограничений и буфера для фонем. Множественное ограничение является основным фокусом, способным срабатывать при наблюдении за множественными вещами. Информация может течь в нескольких направлениях через порты, соединяющие элементы. Затем спикер демонстрирует, как машина реагирует на представление «двух яблок», описывая поток информации от системы зрения к словарному запасу и регистру множественного числа.

  • 00:20:00 В этом разделе видео спикер объясняет, как машина может использовать фонологические правила, чтобы выразить идею о том, что в поле зрения находятся яблоки. Машина использует обратимые соединения и пропагаторы, выраженные в ограничениях, что позволяет информации течь в любом направлении. Однако большой вопрос заключается в том, как выучить эти правила. Для этого спикер предлагает простой пример изучения в классе отличительных черт, связанных со словами «кошки» и «собаки», таких как слоговые, звонкие, продолжительные и резкие, чтобы предоставить положительные и отрицательные примеры для изучения этих правил.

  • 00:25:00 В этом разделе видео обсуждается образование слов во множественном числе в английском языке, исследуется, почему одни слова имеют звук «с», а другие — звук «з». В видео объясняется, что это связано с разреженностью фонемного пространства: всего 40 возможных фонем из 14 000 возможных вариантов. Кроме того, видео объясняет, как к проблеме подошли с помощью вычислений и в конечном итоге свели к алгоритму, который включал сбор положительных и отрицательных примеров для обучения.

  • 00:30:00 В этом разделе спикер объясняет метод обобщения паттернов в фонологии, используя положительный пример, называемый начальным числом, и постепенно превращая некоторые элементы в безразличные символы, пока не будет покрыт отрицательный пример. Техника заключается в том, чтобы выбрать места в матрице фонем, которые не имеют значения и которые с наименьшей вероятностью повлияют на результат множественного числа. Чтобы решить, какое из этих обобщений сделать, используется метод поиска, при этом смежные фонемы оказывают наибольшее влияние. Приводится фонологический пример с использованием матрицы с 14 отличительными признаками, где определяющим признаком, разделяющим положительные и отрицательные примеры, является глухой и нерезкий признак последнего звука в слове, образуемом во множественном числе, в результате чего получается «сс». звук.

  • 00:35:00 В этом разделе спикер обсуждает дальнейшие эксперименты с системой и объясняет, что, используя поиск луча, она контролирует многомерное разреженное пространство. Этот метод используется для отделения наборов положительных примеров от отрицательных и обучения системы работе с различными сценариями множественного числа в фонетике. Этот подход объясняется использованием различных примеров, таких как одно-, двух- и трехмерные пространства, и тем, как гиперплоскость в таких примерах может использоваться для разделения различных наборов данных.

  • 00:40:00 В этом разделе Сассман и Йип предполагают, что человеческий язык использует разреженное фонемное пространство. Это связано с тем, что это повышает обучаемость, а когда язык равномерно расположен случайным образом, это обеспечивает легкое разделение фонем. Однако гласные трудно отделить, потому что они имеют только одну отличительную черту по сравнению с постоянными звуками. Этот пример показывает, как реализовать ИИ в соответствии с катехизисом Марра, начав с проблемы, привнеся в нее уникальные черты, разработав подход, написав алгоритм и, наконец, проведя эксперимент.

  • 00:45:00 В этом разделе видео спикер объясняет, как заставить такой механизм, как нейронные сети, решать конкретную проблему, которая не соответствует его функции, не получится. Ключом к нахождению хорошего представления является создание ограничений, выставленных представлением, что позволяет улучшить обработку и более ясный путь к решению. Кроме того, важно иметь представление, включающее критерии локальности, а это означает, что описание ответа видно через соломинку с газировкой, что облегчает понимание проблемы. В конечном счете, наличие хорошего представления делает человека более умным инженером и ученым, позволяя ему избежать наивного изучения механизмов, что никогда не приведет к удовлетворительным решениям.
14. Learning: Sparse Spaces, Phonology
14. Learning: Sparse Spaces, Phonology
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonWhy do "cats" and "dogs" end with...
 

Лекция 15. Обучение: промахи, условия счастья



15. Обучение: промахи, условия счастья

В этом видео профессор Патрик Уинстон обсуждает концепцию обучения на промахах и состояниях счастья. Он использует различные примеры, в том числе построение арки и определение конкретных ограничений, необходимых для того, чтобы ее можно было считать аркой. Он также объясняет, как компьютерная программа может определить ключевые особенности поезда, используя эвристическое обучение. Спикер подчеркивает важность самообъяснения и рассказывания историй, особенно того, как включение того и другого в презентации может сделать идею заметной и известной. В конечном счете, он считает, что идеи упаковки связаны не только с ИИ, но и с тем, чтобы заниматься наукой, становиться умнее и становиться более известным.

  • 00:00:00 В этом разделе профессор Патрик Уинстон объясняет новый способ обучения на одном примере за один раз. Пример арки в классе используется, чтобы продемонстрировать, как можно узнать что-то определенное из каждого примера, используя модель, и то, что он называет «близким промахом». Этот процесс включает в себя абстрагирование от всех несущественных деталей, таких как высота и материал, чтобы подавить информацию о дефектах на поверхности и сделать структуру явной. Этот подход в конечном итоге приводит к более эффективному обучению и имеет значение для обучения человека и его умственного развития.

  • 00:05:00 В этом разделе обсуждается концепция обучения на промахах и условиях счастья. Спикер использует пример построения арки, чтобы проиллюстрировать это. По мере того, как они рассматривают различные примеры арок и возможных промахов, они начинают определять конкретные ограничения, необходимые для того, чтобы что-то действительно считалось аркой. От наличия поддерживающих отношений до запрета осязательных отношений спикер выделяет ключевые элементы аркостроительства. Кроме того, цвет верхней части арки определяется как императив. Благодаря этому процессу определения того, что необходимо, а что нет, спикер подчеркивает, как ограничения могут быть изучены за несколько шагов, а не через бесчисленные испытания.

  • 00:10:00 В этом разделе спикер объясняет, как создать новую модель, учитывая природу мира, в котором он работает. Например, в мире флагов, где доступны только три цвета, если все цвета были видно, развивающаяся модель корректируется соответствующим образом. Докладчик приводит примеры детских блоков и объясняет, как можно представить иерархию частей, чтобы сделать консервативное обобщение. Затем спикер сравнивает этот тип обучения с нейронными сетями и представляет пример задачи для людей, которая включает в себя описание верхних поездов, которое отличает и отделяет их от поездов внизу.

  • 00:15:00 В этом разделе спикер объясняет, как компьютерная программа может идентифицировать ключевые особенности поезда с закрытым верхом посредством процесса эвристического обучения. Программе дается набор положительных и отрицательных примеров, и выбирается «исходный» пример, чтобы начать построение описания, которое охватывает как можно больше положительных примеров, исключая отрицательные. Эвристики или правила, применяемые к начальному числу, можно комбинировать различными способами, чтобы сформировать большое дерево возможных решений, которое необходимо держать под контролем с помощью таких методов, как поиск луча. Выступающий также представляет словарь эвристик, разработанных его другом, в том числе эвристику «требуется ссылка», которая помогает определить основные характеристики модели.

  • 00:20:00 В этом разделе профессор Патрик Уинстон объясняет, как различные эвристики, такие как «запретить ссылку», «расширить набор», «отбросить ссылку» и «лазать по дереву», можно использовать для специализации или обобщения в обучении. . Он также затрагивает идею промахов и примеров и то, как они связаны с обобщением и специализацией. Использование этих эвристик может помочь в сопоставлении меньшего или большего количества вещей и, в зависимости от проблемы, может лучше подходить для людей или для компьютеров с большей памятью. Способ определить, какой метод лучше, будет зависеть от конкретной проблемы, которую вы пытаетесь решить.

  • 00:25:00 важность предпромахов и условий удачи в процессе обучения. В этом разделе профессор Патрик Уинстон объясняет, как учитель и ученик должны установить заветы, которые действуют между ними, чтобы преобразовать исходное состояние знаний ученика в новое состояние знаний. Используя сетевую модель, которая представляет уровень знаний учащегося, учитель может определить типы ошибок, допущенных учащимся, и предоставить соответствующую обратную связь. Поступая таким образом, учитель может эффективно вытеснить волну знаний ученика и повысить его способность учиться и применять новую информацию.

  • 00:30:00 В этом разделе спикер обсуждает, насколько важно понимание вычислительных возможностей ученика при его обучении. Это включает в себя учет ограниченных возможностей третьеклассника по хранению информации по сравнению с компьютером. Они также говорят о том, что заветы, такие как доверие и понимание стиля учителя, необходимы для эффективного обучения ученика. Далее спикер объясняет, как разговор с самим собой или построение описаний имеет решающее значение для обучения. Эксперимент, проведенный Мишелен Чи, показал преимущества разговора с самим собой, когда дело доходит до изучения элементарной физики.

  • 00:35:00 В этом разделе основное внимание уделяется тому, как самообъяснение может повлиять на способность решать проблемы. Самые умные люди, набравшие в два раза больше баллов, чем менее умные, разговаривали сами с собой в три раза больше, чем участники из группы с более низкими баллами. Самообъяснение можно разделить на две категории: связанные с физикой и другие, связанные с мониторингом, а не с физикой. Чем больше человек говорит сам с собой, тем лучше он справляется с решением проблем. Хотя нет четких указаний на то, что общение с самим собой для поощрения лучших результатов работает, неподтвержденные данные свидетельствуют о том, что больше общения с самим собой может помочь. Наконец, обсуждение переходит к идеям упаковки, особенно полезным, если вы хотите, чтобы ваша идея была широко известна, и пяти качествам, которые помогают процессу, начиная с необходимости символа или визуального маркера, связанного с вашей работой.

  • 00:40:00 В этом разделе профессор Патрик Уинстон обсуждает важность сюрприза и важного момента в распространении идеи. Он объясняет, что хорошая идея должна иметь что-то яркое, чтобы стать известной, и очень важно включить в презентацию историю, которая понравится аудитории. Более того, он разъясняет термин «выдающийся», заявляя, что, хотя он указывает на важность, он явно означает «выступающий». Он предполагает, что образование в основном связано с рассказыванием историй, и призывает людей подумать о включении этих качеств в свои презентации, чтобы сделать их более эффективными. В конечном счете, он считает, что известность не является аморальной, если идеи хорошо упакованы, чтобы иметь наилучшие шансы на успех.

  • 00:45:00 В этом разделе спикер рассказывает историю о том, как он сидел рядом с Джулией Чайлд и спрашивал ее о том, как стать знаменитым. Чайлд ответил, что к этому привыкаешь, что заставило говорящего задуматься о противоположном опыте игнорирования. Он подчеркивает важность упаковки идей и то, что речь идет не только об искусственном интеллекте, но и о том, чтобы заниматься наукой, делать себя умнее и известнее.
 

Лекция 16. Обучение: машины опорных векторов



16. Обучение: машины опорных векторов

В видео Патрик Уинстон обсуждает, как работают машины опорных векторов (SVM) и как их можно использовать для оптимизации правила принятия решений. Он объясняет, что алгоритм SVM использует преобразование Phi для перемещения входного вектора x в новое пространство, где легче разделить два похожих вектора. Функция ядра, k, обеспечивает скалярное произведение x sub i и x sub j. Все, что нужно, — это функция k, которая является функцией ядра. Вапнику, советскому иммигранту, работавшему над SVM в начале 1990-х, приписывают возрождение идеи ядра и превращение ее в неотъемлемую часть подхода SVM.

  • 00:00:00 Машины опорных векторов — это сложный способ разделения пространства для определения границ решений. Они были разработаны Владимиром Вапником и имеют большое значение, поскольку позволяют принимать более точные решения.

  • 00:05:00 В видео обсуждается, как работают машины опорных векторов, и приводится правило принятия решения, когда образец положительный или отрицательный.

  • 00:10:00 В этом видео Патрик Уинстон представляет концепцию машины опорных векторов (SVM), которая представляет собой алгоритм машинного обучения, помогающий найти оптимальное решение проблемы. Первое уравнение в SVM — это функция стоимости, которая представляет собой функцию, которая принимает вектор переменных и выводит число. Функция стоимости умножается на вектор веса, который представляет собой вектор, соответствующий важности каждой переменной в функции стоимости. Второе уравнение в SVM — это задача оптимизации, представляющая собой функцию, которая принимает функцию стоимости и вектор весов и пытается найти наилучшее решение. Задача оптимизации решается путем минимизации функции стоимости. Последнее уравнение в SVM — это выходной вектор, который является выходом SVM.

  • 00:15:00 В видео обсуждается использование метода опорных векторов (SVM) для решения задач и демонстрируется, как рассчитать ширину улицы с помощью этого метода.

  • 00:20:00 В этом видео Патрик Уинстон обсуждает, как работают множители Лагранжа для оптимизации функции с ограничениями. В видео также показано, как множители Лагранжа используются для нахождения экстремума функции с ограничениями.

  • 00:25:00 В этом видео обнаружено, что линейная сумма отсчетов равна линейной сумме компонентов отсчетов. Кроме того, производные лагранжиана по разным переменным дифференцируются, и показано, что сумма альфа i, умноженная на y sub i, равна 0, что означает, что вектор w равен сумме некоторого альфа i, некоторые скаляры, умноженные на эту минус 1 или плюс 1 переменная, умноженная на x sub i над i.

  • 00:30:00 В этом видео он объясняет, как решить задачу квадратичной оптимизации с помощью метода опорных векторов. Объясняется, что вектор решений представляет собой линейную сумму выборок и что алгебра проста. Ученик объясняет, что для каждого термина в задаче алгебра упрощается, если взять сумму альфа i, умноженную на y sub i, умноженную на x sub i.

  • 00:35:00 В этом видео математик объясняет, как оптимизация решающего правила зависит только от скалярного произведения пар выборок. Это показывает, что математический анализ возможен и что алгоритм оптимизации найдет прямую линию, разделяющую два оптимальных решения.

  • 00:40:00 В машинах опорных векторов преобразование Phi используется для перемещения входного вектора x в новое пространство, где легче разделить два похожих вектора. Функция ядра, k, обеспечивает скалярное произведение x sub i и x sub j. Все, что нужно, — это функция k, которая является функцией ядра.

  • 00:45:00 В видео обсуждается, как работают машины опорных векторов (SVM) и как можно использовать ядро для повышения производительности SVM. Вапнику, советскому иммигранту, работавшему над SVM в начале 1990-х, приписывают возрождение идеи ядра и превращение ее в неотъемлемую часть подхода SVM.
16. Learning: Support Vector Machines
16. Learning: Support Vector Machines
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonIn this lecture, we explore suppo...
 

Лекция 17. Обучение: Бустинг



17. Обучение: Бустинг

В видео обсуждается идея бустинга, которая заключается в объединении нескольких слабых классификаторов для создания сильного классификатора. Идея состоит в том, что слабые классификаторы голосуют, а сильный классификатор набирает наибольшее количество голосов. В видео объясняется, как использовать алгоритм повышения для повышения производительности отдельных классификаторов.

  • 00:00:00 В видео обсуждается идея бустинга, которая заключается в объединении нескольких слабых классификаторов для создания сильного классификатора. Идея состоит в том, что слабые классификаторы голосуют, а сильный классификатор набирает наибольшее количество голосов.

  • 00:05:00 Видео на YouTube объясняет, как использовать алгоритм повышения для повышения производительности отдельных классификаторов. Алгоритм включает в себя обучение каждого классификатора на разных наборах данных, а затем объединение результатов. В видео также объясняется, как избежать переобучения при использовании этого алгоритма.

  • 00:10:00 В ролике спикер рассказывает о том, как повысить точность алгоритма машинного обучения, «повысив» его. Повышение включает в себя просмотр искаженного набора образцов, где те, которые алгоритм ошибается, оказывают преувеличенное влияние на результат. Это позволяет алгоритму учиться на своих ошибках и повышать точность.

  • 00:15:00 В ролике на YouTube спикер объясняет, как можно использовать бустинг для создания партии тестов. Он также объясняет, как рассчитывается частота ошибок и как можно использовать веса для преувеличения влияния некоторых ошибок.

  • 00:20:00 Спикер объясняет, как построить классификатор, объединив несколько классификаторов, каждый со своим весом. Он объясняет, что это современное состояние классификаторов, и что это более эффективно, чем простое сложение классификаторов вместе.

  • 00:25:00 В видео обсуждаются различные этапы алгоритма повышения квалификации. Эти шаги включают в себя выбор классификатора, который минимизирует частоту ошибок, вычисление альфа-значения и использование классификатора для получения пересмотренных весов. Общая цель алгоритма состоит в том, чтобы создать классификатор, который дает идеальный набор выводов по всем выборочным данным.

  • 00:30:00 В видео обсуждается, как можно научить машину повышать производительность за счет минимизации количества ошибок. Это демонстрируется серией примеров, показывающих, как можно экспоненциально уменьшить частоту ошибок.

  • 00:35:00 В этом видео спикер объясняет, как использовать альфа-значение для вычисления новых весов. Он рассказывает о том, как работает программа, и о том, как необходимо уметь выполнять математические операции, чтобы найти лучшие способы выполнения подобных действий. Он также объясняет, как квадратный корень из частоты ошибок, деленный на 1 минус частота ошибок, является множителем для веса, если ответ правильный, а квадратный корень из 1 минус частота ошибок, деленная на частоту ошибок, является множителем для веса. вес, если ответ неверный.

  • 00:40:00 Сумма весов правильно классифицированных выборок равна 1/2, а сумма весов неправильно классифицированных выборок равна 1/2.

  • 00:45:00 Повышение — это метод, используемый для повышения производительности моделей машинного обучения. Он работает путем объединения нескольких слабых моделей для создания более сильной модели. Повышение эффективно для уменьшения переобучения и часто используется в таких областях, как распознавание рукописного ввода и понимание речи.

  • 00:50:00 В этом видео обсуждается концепция «повышения», которая представляет собой метод повышения производительности алгоритмов машинного обучения. Повышение включает в себя обучение ряда слабых классификаторов, а затем объединение их прогнозов. Обычно это приводит к значительному повышению производительности по сравнению с использованием одного сильного классификатора.
17. Learning: Boosting
17. Learning: Boosting
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonCan multiple weak classifiers be ...
 

Лекция 18. Представления: классы, траектории, переходы



18. Представления: классы, траектории, переходы.

В этом видео профессор Патрик Уинстон обсуждает концепцию человеческого интеллекта, способность формировать символические представления и ее связь с языком, а также использование семантических сетей для представления внутреннего языка и мыслей. Уинстон подчеркивает важность понимания фундаментальных паттернов и разработки словаря изменений, чтобы помочь понять различные объекты и их поведение. Кроме того, он обсуждает использование фреймов траектории для описания действий, связанных с движением от источника к месту назначения, и важность множественных представлений для лучшего понимания предложения. Наконец, Уинстон предлагает советы о том, как улучшить техническое письмо, особенно для тех, для кого английский язык не является родным, избегая двусмысленности, путаных местоимений и переключения слов.

  • 00:00:00 В этом разделе Патрик Уинстон начинает с размышлений о природе человеческого интеллекта по сравнению с машинным. Он объясняет, что, хотя машины могут выполнять интеллектуальные задачи с помощью таких методов, как машины опорных векторов и бустинг, им не хватает понимания того, что они делают, и они не дают представления о человеческом интеллекте. Затем Уинстон обсуждает эволюционную перспективу человеческого интеллекта, подчеркивая увеличение размера мозга в нашем генеалогическом древе. Однако он отмечает, что размера мозга недостаточно для объяснения человеческого интеллекта, поскольку неандертальцы, у которых мозг был больше, чем у современных людей, не имели большого влияния. Вместо этого это была группа Homo Sapiens в Южной Африке, которая разработала то, чего не было ни у кого другого, и быстро взяла верх, о чем свидетельствуют инструменты и произведения искусства.

  • 00:05:00 В этом разделе спикер обсуждает идею о том, что способность формировать символические представления позволяет людям рассказывать и понимать истории. Эта способность, которая была связана с развитием языка, позволила нашему виду стать особенным, поскольку мы могли взять два понятия и соединить их вместе, чтобы сформировать третье, без ограничений. Он также обсуждает концепцию «внутреннего языка» — языка, на котором мы думаем, который может не совпадать с языком, на котором мы общаемся. Спикер предлагает использовать семантические сети, которые представляют собой сети узлов и связей, передающих смысл, для представления внутреннего языка и мыслей. Он приводит примеры семантических сетей, например, одну, которая отмечает отношения поддержки, и другую, которая отслеживает события в «Макбете».

  • 00:10:00 В этом разделе спикер обсуждает понятие семантических сетей, их элементы и их применение в искусственном интеллекте. Семантические сети — это способ представления информации с помощью узлов и связей, при этом узлы соединяются связями. Они позволяют рассматривать связи между ссылками как объекты, которые могут быть субъектом или объектом других ссылок. Другая концепция — «овеществление», то есть процесс обращения со ссылками как с объектами. Докладчик подчеркивает важность добавления слоя локализации поверх концепции сетей-комбинаторов. Использование классификации — один из самых полезных элементов внутреннего языка семантических сетей, применимых к таким вещам, как пианино, инструменты и карты. Существует также риск паразитической семантики, когда мы проецируем наше понимание на машину, которая не имеет никакого контакта с физическим миром.

  • 00:15:00 В этом разделе профессор Патрик Уинстон обсуждает концепцию уровней в нашем понимании объектов. Он подчеркивает, что мы знаем о разных вещах на разных уровнях, и некоторые объекты легче визуализировать, чем другие, исходя из специфики их категоризации. Например, трудно составить представление об инструменте, но молоток с шариковым бойком более конкретен и, следовательно, его легче визуализировать. Уинстон также отмечает, что мы используем элементы в иерархии, чтобы подвешивать знания об объектах, а базовый уровень иерархии — это место, где мы подвешиваем большую часть наших знаний, например, слово «фортепиано». Кроме того, Уинстон обсуждает, как мы говорим об объектах на разных уровнях иерархии, используя пример автомобиля, врезающегося в стену, что включает в себя размышления о различных вещах, таких как скорость автомобиля, расстояние до стены и состояние поверхности. машина.

  • 00:20:00 В этом разделе спикер обсуждает, как словарь изменений можно использовать для понимания объектов в разные периоды времени, например, до, во время и после такого события, как автомобильная авария. Словарь включает в себя такие элементы, как уменьшение, увеличение, изменение, появление и исчезновение, которые тесно связаны со зрением. Аналогии также используются, чтобы помочь понять различные концепции, например, как работает камера. Оратор также вводит траекторию как третий элемент репрезентации, который включает в себя объекты, движущиеся по траекториям. В целом спикер подчеркивает важность понимания фундаментальных закономерностей и разработки языка, который может помочь нам понять различные объекты и их поведение.

  • 00:25:00 В этом разделе спикер обсуждает использование кадров траектории для описания действий, связанных с движением от источника к месту назначения. Эти кадры состоят из различных элементов, включая объект, агент и инструмент, среди прочего. Спикер отмечает, что предлоги часто используются для украшения этих элементов в таких языках, как английский. Кроме того, спикер обсуждает ролевые рамки, в которых отсутствует траектория, но которые все же содержат такие элементы, как инструменты и бенефициары. Спикер поясняет, что эти фреймы часто встречаются в корпусе Wall Street Journal и могут использоваться для анализа плотности переходов и траекторий в заданном тексте. Наконец, спикер вводит концепцию сюжетных последовательностей и приводит пример гендерно-нейтрального имени, выбранного во избежание проблем.

  • 00:30:00 В этом разделе видео обсуждается важность множественных представлений и то, как они могут привести к лучшему пониманию предложения. В приведенном примере Пэт утешает Криса, который можно разбить на ролевую рамку и переходную рамку, включающую объект (Крис), чье настроение предположительно улучшилось. В видео также показано, как изменение действия на что-то негативное (например, нанесение террора) повлияет на кадры. Кроме того, видео знакомит с идеей кадра траектории как типа мысленного образа, который может быть сформирован из такого предложения, как «Пэт поцеловала Криса».

  • 00:35:00 В этом разделе профессор Джордан Петерсон обсуждает, как люди используют последовательность событий для создания представления истории. Он объясняет, как это представление может варьироваться от простого действия, такого как поцелуй или нанесение ножевых ранений, до сложных историй, и как оно варьируется в зависимости от контекста, в котором происходит событие. Он также говорит о важности последовательности в повествовании и о том, как наша память коренится в идее последовательностей. Наконец, он обсуждает, как библиотеки историй могут помочь людям лучше понять истории, с которыми они сталкиваются, в зависимости от того, к какому суперклассу они принадлежат, например, кадры событий, кадры бедствий и кадры вечеринок.

  • 00:40:00 В этом разделе спикер обсуждает, как можно сгруппировать события по типам фреймов, таким как вечеринки и бедствия. В каждом кадре есть определенные слоты, которые нужно заполнить типами информации, например, смертельными случаями или именами жениха и невесты. Однако понимание историй может быть затруднено из-за синтаксических проблем в предшествующих местоимениях. Спикер подчеркивает важность того, чтобы не добавлять ненужной синтаксической сложности к повествованию, так как это может затруднить понимание. Газетные журналисты будут писать статьи четко и лаконично, чтобы читатели могли легко понять информацию.

  • 00:45:00 В этом разделе Патрик Уинстон предлагает советы о том, как улучшить техническое письмо, особенно для русских и немецких писателей, которые хотят ясно писать на английском языке. Он предлагает избегать местоимений, чтобы уменьшить двусмысленность и путаницу для читателей, вместо этого используя четкие существительные. Он также подчеркивает важность избегать таких слов, как «бывший» и «последний», которые требуют, чтобы читатели возвращались назад, чтобы определить, что они означают, и избегать переключения слов, таких как «лопата» и «лопата». По словам Уинстона, следуя этим простым правилам, технические писатели могут сделать свой текст более ясным и понятным для читателей.
18. Representations: Classes, Trajectories, Transitions
18. Representations: Classes, Trajectories, Transitions
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonIn this lecture, we consider the ...
 

Лекция 19. Архитектуры: GPS, SOAR, Subsumment, Society of Mind



19. Архитектуры: GPS, SOAR, подчинение, общество разума.

В этом видео обсуждаются различные архитектуры для создания интеллектуальных систем, включая общий решатель задач и архитектуру SOAR, которая в значительной степени включает эксперименты по когнитивной психологии и ориентирована на решение проблем. Спикер также обсуждает «Машину эмоций» Марвина Мински, которая рассматривает мышление на многих уровнях, включая эмоции, и гипотезу здравого смысла, которая выступает за оснащение компьютеров здравым смыслом, как у людей. Также обсуждается архитектура подчинения, вдохновленная структурой человеческого мозга, и Roomba является успешным примером. Способность воображать и воспринимать вещи связана со способностью описывать события и понимать культуру, а язык играет решающую роль в построении описаний и объединений. Подчеркивается важность участия в таких действиях, как взгляд, слушание, рисование и разговор, для тренировки областей мозга, обрабатывающих язык, и говорящий предостерегает от быстро говорящих, которые могут блокировать речевой процессор и приводить к импульсивным решениям.

  • 00:00:00 В этом разделе профессор обсуждает различные альтернативные архитектуры для создания интеллектуальной системы. Он начинает с рассказа об эстонской кибератаке в 2007 году и о том, что ни один компьютер не может понять историю, стоящую за ней, за исключением той, которую он продемонстрирует позже. Затем он продолжает говорить об общем решателе задач, разработанном Ньюэллом и Саймоном в Карнеги-Меллон, в котором интеллектуальная система работает, измеряя символическую разницу между текущим состоянием и целевым состоянием и выбирая операторы для перехода от промежуточного состояния к целевому. лучшего состояния, повторяя процесс до тех пор, пока цель не будет достигнута. Раздел заканчивается объяснением идеи, которая будет рассмотрена в следующей лекции, посвященной тому, как не разориться при открытии компании в сфере ИИ.

  • 00:05:00 В этом разделе мы узнаем о концепции анализа средств и целей, которая включает в себя определение разницы между текущим состоянием и желаемым конечным состоянием и выбор соответствующего оператора для минимизации разницы. Представлен пример использования анализа средств и целей для решения проблемы возвращения домой из Массачусетского технологического института, иллюстрирующий рекурсивный процесс выявления различий и выбора операторов до тех пор, пока не будет достигнуто желаемое конечное состояние. Хотя в то время общая концепция решателя проблем была захватывающей идеей, она не оправдалась, как ожидалось, из-за сложности построения таблицы, связывающей различия с операторами. Это привело к разработке новой архитектуры SOAR, которая означает «оператор состояния и результат», хотя сторонники этой архитектуры утверждают, что это просто ярлык, а не аббревиатура.

  • 00:10:00 В этом разделе основное внимание уделяется архитектуре SOAR и ее различным компонентам. SOAR состоит из долговременной и кратковременной памяти, системы зрения, системы действий и системы предпочтений. Архитектура в значительной степени включает эксперименты по когнитивной психологии, и ее основное внимание уделяется решению проблем. Кроме того, SOAR имеет сложную подсистему для разрыва связей в системах, основанных на правилах, и она основана на идее, что люди являются манипуляторами символов. Система предназначена для систематического решения проблем и имеет сложную систему предпочтений для разрыва связей в системах, основанных на правилах.

  • 00:15:00 В этом разделе спикер обсуждает различные архитектуры, которые сильно ориентированы на решение проблем, в том числе SOAR и архитектуру Ньюэлла. Однако наиболее важной архитектурой, по словам спикера, является «Машина эмоций» Марвина Мински, в которой показано, как решение проблем может происходить поэтапно. Спикер приводит пример архитектуры Марвина через короткую виньетку, где женщина переходит дорогу. Архитектура Марвина подчеркивает различные уровни мышления женщины, начиная с инстинктивной реакции на звук и заканчивая рефлексивным мышлением в социальном контексте.

  • 00:20:00 В этом разделе архитектура SOAR фокусируется на решении проблем, в то время как «Машина эмоций» Мински рассматривает мышление на многих уровнях, включая эмоции. Однако развитие здравого смысла препятствует достижению такого мышления, поскольку у компьютеров его никогда не было в избытке. Таким образом, гипотеза здравого смысла утверждает, что для того, чтобы у компьютеров были такие интеллектуальные мыслительные процессы, они должны быть оснащены здравым смыслом, как люди. Это породило проект открытого разума и сбор здравого смысла из всемирной паутины как средство достижения многоуровневого мышления. Напротив, Род Брукс и его архитектура подчинения считают, что роботы мало что могут сделать, потому что люди думают о создании роботов неправильным образом, с инкапсулированной системой зрения, системой рассуждений и системой действий. Вместо этого Брукс предлагает сфокусировать уровни абстракции на взаимодействии с миром, например, на избегании объектов, блуждании, исследовании и поиске.

  • 00:25:00 В этом разделе спикер обсуждает архитектуру, предложенную Родни Бруксом, которая была вдохновлена тем, как устроен человеческий мозг, со старыми частями в глубине и неокортексом, наложенным поверх него. Брукс предположил, что можно заставить машину действовать так же умно, как насекомое, не обязательно нуждаясь в репрезентации, как мы сосредоточились на репрезентации в курсе. Его идея заключалась в том, чтобы использовать мир вместо модели, чтобы все, что вы делаете, было реактивным, а не имело в голове карту комнаты. Механизмы в чистом виде — это просто автоматы с конечным числом состояний. Брукс назвал эту идею архитектурой подчинения, которая была использована в очень успешном роботе Roomba. Roomba использует инфракрасные датчики приближения для навигации, что помогает избежать централизованных контроллеров и необходимости в модели мира.

  • 00:30:00 В этом разделе видео спикер обсуждает архитектуру подчинения, примером которой является робот, способный найти банку и поднять ее. Робот использует лазерный луч, чтобы найти банку, и имеет датчики в руке, чтобы захватывать банку определенным образом. Робот также использует магнитный компас, чтобы вернуться к исходной точке. Докладчик также упоминает другие архитектуры, такие как SOAR и GPS, и представляет архитектуру генезиса, которая сосредоточена вокруг языка и направляет системы восприятия.

  • 00:35:00 В этом разделе спикер обсуждает, как способность воображать и воспринимать вещи связана со способностью описывать события, рассказывать и понимать истории и, в конечном счете, понимать культуру. Он приводит примеры того, как люди узнают то, чему их явно не учат, например, опасность ношения перчаток при работе с настольной пилой. Он предлагает «сильную гипотезу истории» в качестве возможного объяснения расцвета нашего вида 50 000 лет назад, что, по его мнению, дало нам возможность рассказывать истории и понимать их.

  • 00:40:00 В этом разделе мы узнаем об эксперименте, который считается самой важной серией экспериментов, когда-либо проводившихся в когнитивной психологии и психологии развития. Эксперимент включает размещение еды в корзинах в двух противоположных углах прямоугольной комнаты и вращение крысы, маленького ребенка и взрослого, чтобы увидеть, куда они идут. Все они, как правило, идут к двум углам с едой, за исключением случаев, когда одна стена окрашена в синий цвет. Крыса и ребенок по-прежнему с равной вероятностью идут в два диагональных угла, а взрослый идет только в угол с едой. Ребенок становится взрослым, когда начинает использовать слова «лево» и «право» для описания мира.

  • 00:45:00 В этом разделе спикер проводит эксперимент с добровольцем, который демонстрирует, как язык играет решающую роль в построении описаний и комбинаторов. Эксперимент включает в себя чтение отрывка из книги, в то время как доброволец одновременно повторяет его, блокируя свой языковой процессор, что приводит к его неспособности соединить определенные формы и цвета. Спикер сообщает, что такие действия, как взгляд, слушание, рисование и разговор, могут тренировать те же области мозга, которые отвечают за обработку речи, и сделать вас умнее. Кроме того, динамик предостерегает от быстро говорящих и о том, как они могут заглушить ваш языковой процессор, заставляя вас принимать импульсивные решения.
 

Лекция 21. Вероятностный вывод I



21. Вероятностный вывод I

В этом видео о вероятностном выводе профессор Патрик Уинстон объясняет, как вероятность может использоваться в искусственном интеллекте для получения выводов и расчета вероятностей на основе различных сценариев. Он использует такие примеры, как появление статуи, собака, лающая на енота или грабителя, и основание Массачусетского технологического института в 1861 г. до н.э., чтобы продемонстрировать использование совместной таблицы вероятностей, как вычислять вероятности с помощью аксиом и цепного правила. и концепции независимости и условной независимости. Докладчик подчеркивает необходимость правильно заявить о независимости переменных и предлагает использовать сети убеждений как способ представления причинно-следственной связи между переменными при одновременном упрощении расчетов вероятности.

  • 00:00:00 В этом разделе видео профессор Патрик Уинстон обсуждает использование вероятности в искусственном интеллекте, особенно в том, что касается наблюдения за случайными событиями. Он использует пример наблюдения за появлением статуи в кампусе и строит таблицу, чтобы отслеживать возможные комбинации событий, которые могут привести к появлению статуи. Он отмечает, что количество строк в таблице равно 2 количеству переменных и что для определения вероятности каждого из этих событий можно использовать длительные периоды наблюдения. В конечном счете, вероятность любого данного события — это просто частота его возникновения, деленная на общее количество наблюдений.

  • 00:05:00 В этом разделе ведущий демонстрирует, как использовать совместную таблицу вероятностей для расчета различных вероятностей. Используемый пример включает в себя знание вероятности появления статуи при соблюдении определенных условий, таких как наличие арт-шоу и взлом. Ведущий также выполняет аналогичные вычисления для вероятности появления енота на основе лая собаки и вероятности лая собаки с учетом присутствия енота. Демонстрация показывает, как совместную таблицу вероятностей можно использовать для выводов и расчета вероятностей на основе различных сценариев.

  • 00:10:00 В этом разделе спикер обсуждает использование совместной таблицы вероятностей для расчета вероятностных выводов. Несмотря на полезность этого инструмента, управлять большим количеством строк, необходимых для более сложных ситуаций, может быть сложно, что требует рассмотрения других методов в дополнение к вероятностному выводу. Спикер также представляет гипотетический сценарий, согласно которому Массачусетский технологический институт был основан в 1861 году до нашей эры, и обсуждает экспериментальные методы, которые могли использоваться для определения того, какие объекты плавают.

  • 00:15:00 В этом разделе спикер обсуждает основы вероятности и лежащие в ее основе аксиомы. Они объясняют, что вероятности должны быть больше 0 и меньше 1, и что в бинарном мире вероятность истинности равна 1, а ложности равна 0. Докладчик также вводит третью аксиому, которая утверждает, что вероятность A плюс вероятность из B минус вероятность A и B равна вероятности A или B. Они отмечают, что это базовое понимание вероятности служит основой для более сложных вычислений, используемых в вероятностном выводе.

  • 00:20:00 В этом разделе спикер объясняет формальный подход к работе с вероятностью с помощью аксиом и то, как его можно отразить с помощью интуиции, включающей обсуждение пространств. Вероятность а связана с размером круга по отношению к общей площади прямоугольника, и аксиомы от первой до третьей имеют смысл с точки зрения этой картины. Затем выступающий объясняет условную вероятность и то, как она определяется как вероятность данного b, которая равна вероятности a и b, деленной на вероятность B. Это определение имеет смысл, поскольку оно ограничивает область рассмотрения только этим часть изначальной вселенной.

  • 00:25:00 В этом разделе спикер вводит идею разбиения вероятностного пространства на три части и объясняет, как можно определить вероятность a, b и c. Расширяя формулу, вероятность того, что все так и есть, разбивается на произведение трех условных вероятностей. Затем спикер обобщает эту идею в цепное правило, в котором говорится, что вероятность группы вещей может быть записана как произведение условных вероятностей. Несмотря на то, что говорящий находится только на половине своей диаграммы, он показывает, что делает хорошие успехи. Следующая концепция, которую они обсуждают, — это идея условной вероятности.

  • 00:30:00 В этом разделе профессор объясняет определение независимости и условной независимости. Независимость — это когда вероятность а не зависит от того, что происходит с b. Например, если a и b независимы, то данное b равно a. Условная независимость означает, что если мир ограничен z, то вероятность a не зависит от значения b. Профессор иллюстрирует эти концепции с помощью интуитивистских диаграмм, используя области диаграмм для обозначения вероятностей.

  • 00:35:00 В этом разделе лектор обсуждает условную независимость в вероятностном выводе и то, как она приводит к выводу о совместных вероятностях переменных. Он объясняет концепцию на примере собаки, которая лает на енота или грабителя, и объясняет, как добавление еще двух переменных приводит к необходимости в большой совместной таблице вероятностей. Затем он вводит идею сетей убеждений как способа представления причинно-следственной связи между переменными и подчеркивает необходимость правильно заявить, что каждый узел независим от своих переменных, не являющихся потомками.

  • 00:40:00 В этом разделе спикер обсуждает концепцию независимости с учетом родителей не потомков и важность понимания этого языка в вероятностном выводе. Затем говорящий создает модель для определения вероятности различных событий, таких как появление грабителя или лай собаки, на основе присутствия других факторов, таких как енот. Спикер отмечает, что для спецификации модели требуется всего 10 чисел, что значительно экономит усилия по сравнению с попыткой сразу построить совместную таблицу вероятностей.

  • 00:45:00 В этом разделе спикер обсуждает использование цепного правила при расчете полной совместной таблицы вероятностей. Они объясняют, как, используя знание условной независимости, они могут вычеркнуть из формулы определенные вероятности, поскольку они не зависят от потомка. Упорядочив формулу определенным образом, говорящий может рассчитать полную совместную таблицу вероятностей, не придумывая числа и не проводя много измерений. Спикер отмечает, что в данном конкретном случае им пришлось придумать только 10 номеров из 32, и задается вопросом, сколько можно было бы сэкономить, если бы было больше свойств.
21. Probabilistic Inference I
21. Probabilistic Inference I
  • 2014.01.10
  • www.youtube.com
* Please note: Lecture 20, which focuses on the AI business, is not available.MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://oc...
 

Лекция 22. Вероятностный вывод II



22. Вероятностный вывод II

В этом видео профессор Патрик Уинстон объясняет, как использовать сети логического вывода, также известные как «Байесовские сети», для получения вероятностных выводов. Он обсуждает, как упорядочить переменные в байесовской сети, используя цепное правило для вычисления совместной вероятности всех переменных. Докладчик демонстрирует, как накапливать вероятности, запуская симуляции, и как генерировать вероятности с помощью модели. Он также обсуждает правило Байеса и то, как его можно использовать для решения задач классификации, выбора моделей и обнаружения структур. Видео подчеркивает полезность вероятностного вывода в различных областях, таких как медицинская диагностика, обнаружение лжи и устранение неполадок оборудования.

  • 00:00:00 В этом разделе профессор Патрик Уинстон обсуждает использование сетей логического вывода, также известных как «байесовские сети», которые используются для получения вероятностных выводов. Он начинает с просмотра совместной таблицы вероятностей, которую можно использовать для определения вероятности, щелкнув соответствующие поля, но проблема в том, что становится сложно и требует много времени для составления или сбора чисел, когда задействовано много переменных. Он переходит к использованию сетей вывода для выполнения вычислений, чтобы получить вероятность того, что события происходят вместе. Здесь используется цепное правило, и этот раздел заканчивается объяснением этого правила.

  • 00:05:00 В этом разделе спикер рассказывает о процессе упорядочения переменных в байесовской сети и о том, как это можно использовать с цепным правилом для расчета совместной вероятности всех переменных. Упорядочив переменные таким образом, чтобы ни один из их потомков не оказался слева от него в линейном порядке, и используя цепное правило, он может вычислить вероятность любой конкретной комбинации этих переменных. Он утверждает, что все условные вероятности в этом сценарии не являются потомками, и вычеркивание переменных на основе зависимостей может помочь вычислить любую запись в таблице.

  • 00:10:00 В этом разделе спикер объясняет, как использовать небольшую сеть для выполнения всего, что можно сделать с таблицей, и какие вероятности необходимы для этого. Он обсуждает, как он расширяет таблицы, чтобы отслеживать подсчеты, необходимые для расчета вероятности лая собаки или события Б, и использует экспериментальные результаты, чтобы ставить отметки или подсчеты в соответствующих разделах таблицы, что в конечном итоге приводит к демонстрации процесс.

  • 00:15:00 В этом разделе видео профессор начинает с демонстрации того, как накапливать вероятности сети путем запуска симуляций. Он объясняет, как интерпретировать таблицу и отслеживать, что элементы данных говорят вам о том, как часто появляется определенная комбинация. Он запускает несколько симуляций, чтобы получить более точные вероятности. Затем он демонстрирует, как смоделировать систему, генерирующую комбинацию значений для всех переменных, переходя назад и вперед от верхних таблиц вероятностей и подбрасывая монету.

  • 00:20:00 В этом разделе спикер обсуждает процесс генерации вероятностей для сценария путем выбора соответствующей строки в таблице вероятностей. Затем докладчик продолжает объяснять, как эти вероятности могут быть сгенерированы с помощью модели слева, которую можно использовать для получения данных для вычисления вероятностей справа. Однако спикер признает, что для данного сценария может быть несколько правильных моделей, что затрудняет определение того, какая из них верна. Чтобы решить эту проблему, спикер вводит концепцию наивного байесовского вывода, которая включает в себя переписывание условных вероятностей таким образом, чтобы их можно было вычислить с помощью теоремы Байеса.

  • 00:25:00 В этом разделе видео объясняется, как можно использовать правило Байеса для решения задачи классификации. Например, при диагностике болезни вероятность заболевания с учетом данных можно рассчитать, разделив вероятность данных с учетом болезни на общую вероятность данных, а затем умножив ее на априорную вероятность данного заболевания. Если имеется несколько независимых доказательств, можно рассчитать совместную вероятность признаков для данного заболевания, деленную на общую вероятность доказательств, а затем можно сравнить вероятности всех соответствующих классов.

  • 00:30:00 В этом разделе лектор рассказывает историю о выборе двух монет, одной необъективной с вероятностью 0,8 орла и одной честной с вероятностью 0,5 орла. После подбрасывания монеты лектор использует байесовскую вероятность, чтобы выяснить, какая монета была выбрана на основе предыдущих вероятностей и данных, полученных в результате подбрасывания. Лекция демонстрирует, как можно использовать доказательства для определения вероятности различных гипотез в вероятностном выводе.

  • 00:35:00 В этом разделе профессор демонстрирует, как вероятности разных монет меняются в зависимости от серии подбрасываний, и как перевес доказательств может изменить вероятность выпадения орла. Вступает в силу Закон больших чисел, и вероятность того, что выбранная монета находится в игре, становится все более близкой к 1. Затем профессор использует эту концепцию для создания классификатора родительской партии, изучая политическую партию ребенка и делая выводы о партия, к которой принадлежит родитель. В целом, концепция вероятностного вывода может применяться в различных сценариях, чтобы делать прогнозы и делать выводы.

  • 00:40:00 В этом разделе видео спикер обсуждает использование байесовского хака для сравнения двух моделей и выбора лучшей на основе данных. Процесс включает в себя моделирование розыгрышей из модели и расчет вероятности каждой модели с учетом данных. Затем спикер переходит к обнаружению структуры, где он начинает без связанных переменных и использует случайный поиск для изменения и сравнения моделей, пока не найдет ту, которая предпочтительнее. Этот процесс требует использования суммы логарифмов вероятностей вместо произведения, чтобы избежать потери информации на 32-битной машине. Однако поиск оптимальной структуры может быть затруднен из-за большого пространства и локальных максимумов.

  • 00:45:00 В этом разделе спикер обсуждает полезность вероятностного вывода и обнаружения структур в различных областях, таких как медицинская диагностика, обнаружение лжи и устранение неисправностей оборудования. Он объясняет, как вероятностные расчеты являются правильным подходом к использованию в условиях ограниченности информации, и как этот метод можно использовать для определения наиболее вероятной причины проблемы на основе наблюдаемых симптомов. Спикер также намекает на будущие дискуссии о том, как этот метод можно использовать для обнаружения закономерностей и историй.
22. Probabilistic Inference II
22. Probabilistic Inference II
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonWe begin with a review of inferen...
 

Лекция 23. Слияние моделей, кросс-модальное связывание, краткое содержание курса



23. Слияние моделей, кросс-модальное соединение, краткое изложение курса

В этом видео профессор Патрик Уинстон рассказывает о слиянии моделей, кросс-модальном соединении и размышляет над материалом курса. Он обсуждает важность обнаружения регулярности, не слишком зацикливаясь на байесовской вероятности, и потенциальные преимущества кросс-модальной связи для понимания окружающего мира. Он также предлагает предложения для будущих курсов и подчеркивает важность сосредоточения внимания на получении новых доходов и возможностей за счет совместной работы людей и компьютеров, а не исключительно на замене людей. Кроме того, он подчеркивает важность выявления проблемы в первую очередь и выбора соответствующей методологии для ее решения. Наконец, профессор размышляет об ограничениях сведения интеллекта к воспроизводимой искусственной модели и подчеркивает исключительную работу своей команды.

  • 00:00:00 В этом разделе Патрик Уинстон рассказывает о слиянии моделей и кросс-модальном соединении. Он демонстрирует идею слияния байесовских историй, показывая, как обнаруживать структуру в ситуациях, в которых вы иначе не могли бы ее найти, например, обнаруживая события в двух историях и собирая их в два графа историй. Он также говорит о способности обнаруживать концепции на нескольких уровнях с использованием машинного обучения и облачных вычислений для повышения эффективности. Наконец, он демонстрирует программу Майкла Коэна, в которой используются множественные модальности и соответствия между ними, чтобы разобраться в обеих модальностях в песнях зебровых вьюрков.

  • 00:05:00 В этом разделе концепция межмодальной связи объясняется на примере ассоциации жестов, которые производят гласные звуки, с самими звуками. Преобразование Фурье гласной дает форманты, а эллипс вокруг рта образует вторую модальность. С данными кросс-модальной связи можно группировать звуки и связывать формы губ со звуками без каких-либо размеченных данных. Демонстрация работы Коэна показывает, как кластеры могут быть сформированы с использованием проекций и векторов в качестве компонентов метрики.

  • 00:10:00 В этом разделе спикер обсуждает концепцию кросс-модальной связи и то, как она может помочь в понимании представленного нам мира. Он предполагает, что можно обнаружить регулярность, не зацикливаясь на байесовской вероятности, и что такая идея связи, вероятно, связана с нашим пониманием окружающего мира. Спикер также резюмирует материал курса, подчеркивая важность как инженерного, так и научного аспектов в создании сложных приложений для искусственного интеллекта. Он также указывает на необходимость сосредоточиться на получении новых доходов и возможностей, когда люди и компьютеры работают в тандеме, а не только на замене людей.

  • 00:15:00 В этом разделе спикер рассказывает об уникальных преимуществах программирования для создания моделей и проведения экспериментов. В частности, программирование предоставляет метафоры и возможность создавать модели, которые позволяют экспериментировать, чтобы проверить последствия этих моделей. Спикер также подчеркивает важность того, чтобы сначала определить проблему, а затем выбрать подходящую методологию или механизм для использования, а не впадать в зависть к механизму и сосредотачиваться на конкретных методах. Наконец, спикер кратко описывает формат экзамена и предлагает несколько напоминаний для студентов, например, взять с собой часы и калькулятор, а также возможность носить костюмы во время экзамена.

  • 00:20:00 В этом разделе профессор дает несколько предложений о том, что делать в следующем семестре, включая изучение предмета Марвина Мински «Общество разума» или предметов Боба Бервика «Понимание и эволюция языка» или предмета «Большая символическая система» Джерри Сассмана. Он также продвигает свой собственный весенний курс Human Intelligence Enterprise. Профессор описывает свой курс как курс гуманитарных наук и не имеет лекций, а скорее ведет с ним беседу. Он обсуждает некоторые темы, затронутые в курсе, такие как упаковка и общие элементы, встречающиеся в различных системах разведки.

  • 00:25:00 В этом разделе спикер обсуждает важность упаковки и то, как она может повлиять на успех, независимо от карьеры. Выступающий упоминает мероприятие, называемое лекцией «Как говорить», которая представляет собой одночасовую нелинейную лекцию, которая может значительно повлиять на чью-то способность проводить презентации, лекции и разговоры о работе, предлагая советы, например, когда рассказывать шутку или как. чтобы открыть презентацию. Кроме того, спикер рассказывает о системе Genesis их группы, которая собирается переместиться в области, которые могут обнаруживать начало возможного заболевания.

  • 00:30:00 В этом разделе демонстрация в реальном времени показывает, как система может читать и понимать историю с разных точек зрения, что позволяет обнаруживать потенциальные проблемы и вмешиваться для предотвращения катастроф. Два персонажа с разным уровнем образования определяют, что явно присутствует в истории, и делают вывод о других концепциях, выделенных серым цветом. Из-за своего уникального происхождения у них разные точки зрения на историю, и они даже могут вести переговоры друг с другом, обучать другие области и предотвращать бедствия до того, как они произойдут. Система также обнаруживает потенциальные операции мести и пирровы победы, демонстрируя свою способность предвидеть потенциальные проблемы и вмешиваться.

  • 00:35:00 В этом разделе мы узнаем об использовании векторов понятий вместо подсчета ключевых слов для поиска информации путем понимания историй на нескольких уровнях. Архитектура распространения используется, чтобы люди не переусердствовали в своей работе, и участие студентов в группе MIT приветствуется. Что касается дальнейших программ аспирантуры, следует подумать о том, у кого они хотят учиться, и найти программу с другой направленностью, например, ИИ, чтобы расширить свой кругозор в этой области.

  • 00:40:00 В этом разделе профессор Уинстон дает советы студентам, поступающим в аспирантуру по теоретической физике и искусственному интеллекту, подчеркивая важность посещения объектов для первых и сосредоточения внимания на конкретной области для вторых. Он также рассказывает анекдот о крайнем случае дефектной теории выбора карьеры ИИ, в котором исследователь компьютерного зрения не может узнать свою жену из-за своей специализации в распознавании объектов. Наконец, профессор Уинстон размышляет о полезности и простоте мощных идей компьютерных наук и обращается к аргументу о том, что понимание языка не обязательно требует настоящего интеллекта.

  • 00:45:00 В этом разделе спикер говорит об ограничениях в сведении интеллекта к чему-то, что можно воспроизвести искусственно. Он использует своего домашнего енота как пример очень умного животного, от которого он не ожидал, что сможет построить столь же умную машину. Идея о том, что искусственный интеллект невозможен, часто основана на редукционистских аргументах, которые не принимают во внимание знания и магию, которые исходят от запущенной программы, выполняющейся с течением времени. Спикер также находит минутку, чтобы отметить исключительную работу своей команды и желает студентам удачи на выпускном экзамене.
23. Model Merging, Cross-Modal Coupling, Course Summary
23. Model Merging, Cross-Modal Coupling, Course Summary
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonThis lecture begins with a brief ...