Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Нейронные сети — это деревья решений (с Александром Мэттиком)
Нейронные сети — это деревья решений (с Александром Мэттиком)
Нейронные сети — это деревья решений — это тип алгоритма машинного обучения, который подходит для задач с четко определенной статистикой. Они особенно хорошо учатся на табличных данных, которые легко хранить и понимать. В этом видео Александр Маттик из Кембриджского университета обсуждает недавно опубликованную статью о нейронных сетях и деревьях решений.
Это меняет правила игры! (Объяснение AlphaTensor от DeepMind)
Это меняет правила игры! (Объяснение AlphaTensor от DeepMind)
AlphaTensor — это новый алгоритм, который может ускорить умножение матриц за счет разложения ее на тензор более низкого ранга. Это прорыв в умножении матриц, который потенциально может сэкономить много времени и энергии.
В этом видео объясняется, как AlphaTensor, инструмент, разработанный Google DeepMind, может изменить правила игры в области искусственного интеллекта.
Нейронная сеть, визуальное введение | Визуализация глубокого обучения, глава 1
Нейронная сеть, визуальное введение | Визуализация глубокого обучения, глава 1
Видео представляет собой четкое наглядное введение в базовую структуру и концепции нейронной сети, включая искусственные нейроны, функции активации, весовые матрицы и векторы смещения. Он демонстрирует использование нейронной сети для поиска закономерностей в данных, определения границ и сложных границ решений в наборах данных. Также подчеркивается важность функции активации, поскольку она помогает преодолевать более сложные границы принятия решений и классифицировать данные. Видео завершается признанием поддержки пионеров глубокого обучения и изучением того, как выглядит обученная нейронная сеть.
Искусственный интеллект Google: насколько мы близки на самом деле? | Подкаст технических новостей | Уолл Стрит Джорнал
Искусственный интеллект Google: насколько мы близки на самом деле? | Подкаст технических новостей | Уолл Стрит Джорнал
В этом сегменте обсуждается спор о том, может ли система искусственного интеллекта Google, Lambda, стать разумной. Хотя эксперты отвергли эту идею, существуют опасения по поводу того, что это может произойти, и потенциальных опасностей, создаваемых политиками и нормативными актами. Обсуждение подчеркивает, что больше внимания уделяется последствиям гиперкомпетентности систем ИИ, их дискриминации или манипулированию, а не вреду, который может быть нанесен из-за того, что они просто не работают должным образом.
Визуализация глубокого обучения 2. Почему нейронные сети так эффективны?
Визуализация глубокого обучения 2. Почему нейронные сети так эффективны?
В этом видео рассматривается эффективность нейронных сетей, подробно рассматривается функция softmax, границы принятия решений и преобразования входных данных. Видео объясняет, как сигноидную функцию можно использовать для назначения вероятности каждому выходу вместо традиционной функции argmax. Затем демонстрируется использование функции softmax для группировки похожих точек и их линейного разделения во время обучения. Однако при выходе за пределы начальной обучающей области нейронная сеть линейно расширяет границы решений, что приводит к неточным классификациям. В видео также объясняется, как первый нейрон в нейронной сети можно преобразовать в плоское уравнение для границ решений, и демонстрируется интерактивный инструмент для визуализации преобразования рукописных цифр в нейронной сети.
На пути к сингулярности — искусственный интеллект, вдохновляющий нейробиологию
На пути к сингулярности — искусственный интеллект, вдохновляющий нейробиологиюВ этом видео обсуждается потенциал искусственного интеллекта для достижения уровня общего интеллекта, а также различные проблемы, которые необходимо будет преодолеть на этом пути.
В нем также обсуждается возможность рассмотрения роботов как вида, а также преимущества и недостатки такого подхода.
вы ограничены в том, сколько информации вы можете передать между ними. И это очень ограничивающий фактор в общей мощности стандартного компьютера. В отличие от этого, мозг работает массивно параллельно, каждый отдельный нейрон делает все возможное все время. Даже самый лучший на данный момент ИИ, который у нас есть, все еще очень и очень отличается от мозга. Это… вы могли бы сказать, что это вдохновлено мозгом, но это не копирование мозга. В мозгу огромное количество обратных связей. Таким образом, очевидно, что когда мы обрабатываем сенсорный ввод, который попадает в высшие области мозга, подвергается дальнейшей обработке и абстрагированию от исходного ввода, который мы видим. Но есть также огромное количество обратной связи, идущей от этих высших областей обратно к областям восприятия. И эта обратная связь указывает, куда мы смотрим и
Stanford CS230: глубокое обучение: Лекция 1 - Введение в предмет
Stanford CS230: глубокое обучение | Осень 2018 | Лекция 1 - Введение в предмет
Эндрю Нг, преподаватель курса глубокого обучения CS230 в Стэнфорде, представляет курс и объясняет формат занятий. Он подчеркивает внезапную популярность глубокого обучения из-за увеличения количества цифровых записей, что позволяет создавать более эффективные системы глубокого обучения. Основные цели курса состоят в том, чтобы студенты стали экспертами в области алгоритмов глубокого обучения и поняли, как применять их для решения реальных задач. Нг подчеркивает важность практических знаний для создания эффективных и действенных систем машинного обучения и надеется систематически обучать и разрабатывать алгоритмы машинного обучения, эффективно внедряя их с помощью правильных процессов. Курс будет охватывать сверточные нейронные сети и модели последовательности с помощью видео на Coursera и заданий по программированию на Jupyter Notebooks.
Первая лекция курса Stanford CS230 Deep Learning знакомит с разнообразными реальными приложениями, которые будут разработаны с помощью заданий по программированию и студенческих проектов, которые можно персонализировать и разработать в соответствии с интересами студента. Примеры прошлых студенческих проектов варьируются от прогнозирования цен на велосипеды до обнаружения сигналов землетрясения. Окончательный проект подчеркивается как наиболее важный аспект курса, а индивидуальное наставничество доступно через команду ТА и инструкторов. Также обсуждается логистика курса, в том числе формирование команд для групповых проектов, прохождение викторин на Coursera и объединение курса с другими классами.
Лекция 2 - Интуиция глубокого обучения
Stanford CS230: глубокое обучение | Осень 2018 | Лекция 2 - Интуиция глубокого обучения
Первая часть лекции посвящена различным приложениям глубокого обучения, включая классификацию изображений, распознавание лиц и передачу стиля изображения. Преподаватель объясняет важность различных факторов, таких как размер набора данных, разрешение изображения и функция потерь, при разработке модели глубокого обучения. Также обсуждается концепция кодирования изображений с использованием глубоких сетей для создания полезных представлений с акцентом на функцию потери триплетов, используемую при распознавании лиц. Кроме того, лектор объясняет кластеризацию с использованием алгоритма K-средних для классификации изображений и извлечения стиля и содержимого из изображений. В целом, этот раздел знакомит учащихся с различными методами и соображениями, связанными с разработкой успешных моделей глубокого обучения.
Вторая часть видео охватывает различные темы глубокого обучения, такие как создание изображений, распознавание речи и обнаружение объектов. Спикер подчеркивает важность консультаций с экспертами при возникновении проблем и критических элементов успешного проекта глубокого обучения: стратегический конвейер сбора данных и поиск архитектуры и настройка гиперпараметров. В видео также обсуждаются различные функции потерь, используемые в глубоком обучении, в том числе функция потерь при обнаружении объектов, которая включает квадратный корень для более строгого наказания за ошибки в меньших блоках, чем в больших. Видео завершается кратким обзором предстоящих модулей и заданий, включая обязательные сеансы наставничества по проектам ТА и пятничные разделы ТА, посвященные передаче нейронного стиля и заполнению формы AWS для потенциальных кредитов GPU.
Лекция 3 - Проекты глубокого обучения полного цикла
Stanford CS230: глубокое обучение | Осень 2018 | Лекция 3 - Проекты глубокого обучения полного циклаВ этой лекции о проектах глубокого обучения полного цикла инструктор подчеркивает важность рассмотрения всех аспектов создания успешного приложения машинного обучения, включая выбор проблем, сбор данных, разработку модели, тестирование, развертывание и обслуживание. На примере создания устройства с голосовым управлением преподаватель обсуждает ключевые компоненты, задействованные в проектах глубокого обучения, и призывает студентов сосредоточиться на возможных проектах с потенциальным положительным эффектом и уникальным вкладом в соответствующие области. Преподаватель также подчеркивает важность быстрого сбора данных, хороших заметок на протяжении всего процесса и повторения во время разработки, а также обсуждает конкретные подходы к активации речи и обнаружению голосовой активности.
Вторая часть лекции посвящена важности мониторинга и обслуживания в проектах машинного обучения, в частности необходимости постоянного мониторинга и обновления моделей, чтобы обеспечить их хорошую работу в реальном мире. Лектор обращается к проблеме изменения данных, которая может привести к потере точности моделей машинного обучения, и подчеркивает необходимость постоянного мониторинга, сбора данных и перепроектирования моделей, чтобы модели продолжали работать эффективно. В лекции также обсуждается влияние использования системы без машинного обучения по сравнению с обученной нейронной сетью в системе обнаружения голосовой активности и предполагается, что правила, закодированные вручную, как правило, более устойчивы к изменению данных. Лектор делает вывод о необходимости уделять пристальное внимание конфиденциальности данных и получать согласие пользователей при сборе данных для переобучения моделей.
Чтобы решить эту проблему, используется более простой алгоритм, чтобы определить, говорит ли кто-нибудь, прежде чем передать аудиоклип в более крупную нейронную сеть для классификации. Этот более простой алгоритм известен как обнаружение голосовой активности (VAD) и является стандартным компонентом многих систем распознавания речи, в том числе используемых в мобильных телефонах.
Лекция 4 - Противоборствующие атаки / GAN
Stanford CS230: глубокое обучение | Осень 2018 | Лекция 4 - Противоборствующие атаки / GAN
Эта лекция знакомит с концепцией состязательных примеров, которые представляют собой входные данные, которые были слегка изменены, чтобы обмануть предварительно обученную нейронную сеть. В лекции объясняется теоретическая основа того, как работают эти атаки, и обсуждаются вредоносные приложения, использующие враждебные примеры в глубоком обучении. В лекции также представлены генеративно-состязательные сети (GAN) как способ обучения модели, которая может генерировать изображения, которые выглядят как настоящие, и в лекции обсуждается функция стоимости для генератора в модели GAN. Лекция завершается объяснением логарифмического графика выходных данных D на сгенерированном примере.
Лекция охватывает различные темы, связанные с генеративно-состязательными сетями (GAN), в том числе советы и рекомендации по обучению GAN и их приложений в преобразовании изображения в изображение и непарным генеративно-состязательным сетям с использованием архитектуры CycleGAN. Также обсуждается оценка GAN, причем такие методы, как человеческие аннотации, классификационные сети, а также начальная оценка и начальное расстояние Фреше, являются популярными методами проверки реалистичности сгенерированных изображений.