Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Ускорение масштабируемого inference машинного обучения с помощью ONNX, Triton и Seldon | PyData Global 2021
Ускорение масштабирумого inference машинного обучения помощью ONNX, Triton и Seldon | PyData Global 2021
В видео Алехандро Сауседо из Seldon Technologies обсуждает проблемы масштабирования вывода машинного обучения и способы использования ONNX и Triton для оптимизации и производства моделей. Используя модель GPT-2 TensorFlow в качестве варианта использования, сеанс охватывает предварительную обработку, выбор оптимальных токенов и развертывание модели с использованием Tempo и сервера вывода Triton. Сауседо подчеркивает необходимость абстрагироваться от сложностей инфраструктуры и упростить развертывание, обеспечивая при этом воспроизводимость и соответствие требованиям. Доклад завершается сотрудничеством с проектами с открытым исходным кодом для сквозного обучения и компонентов развертывания.
AI Show Live - Эпизод 62 - Многоплатформенный inference с помощью ONNX Runtime
AI Show Live - Эпизод 62 - Многоплатформенный inference с помощью ONNX Runtime
В эпизоде «Мультиплатформенный inference с помощью ONNX Runtime» AI Show Live ведущие демонстрируют, как развернуть модель сверхвысокого разрешения и модель обнаружения объектов на нескольких платформах с использованием среды выполнения ONNX. Они обсуждают этапы предварительной и последующей обработки как для мобильных, так и для веб-платформ, демонстрируют преимущества использования единого решения, объясняют процесс преобразования модели PyTorch в модель ONNX и демонстрируют, как предварительно обрабатывать данные для логического вывода с помощью ONNX. Время выполнения. Кроме того, они демонстрируют реализацию модели обработки естественного языка BERT с использованием ONNX Runtime на C#. Код и модели с открытым исходным кодом доступны для настройки для решений пользователей.
Во второй части AI Show Live докладчики освещают различные темы, связанные с выполнением логических выводов с помощью ONNX Runtime. Они демонстрируют процесс классификации текста на примере из примеров вывода ONNX и исследуют установку пакетов и инструментов, необходимых для построения моделей классификации BERT на C#. Они также обсудят использование IntelliCode с VS 2022 и пройдут этапы подготовки к выводу модели, включая создание тензоров, настройку сеанса вывода среды выполнения ONNX и постобработку вывода. Кроме того, они затрагивают важность обращения к документации модели и выбора правильного токенизатора для получения точных результатов.
Прикладное машинное обучение с ONNX Runtime
Прикладное машинное обучение с ONNX Runtime
Дженнифер Лупер, главный защитник облачных технологий в сфере образования в Microsoft, обсуждает в этом видео конвергенцию разработки приложений, машинного обучения и науки о данных. Она рекомендует создавать интеллектуальные приложения для Интернета и изучает различные API-интерфейсы JavaScript, включая ml5.js, Magenta.js, PoseNet и Brain.js, для включения технологий машинного обучения в приложения. Looper подчеркивает полезность scikit-learn для классического машинного обучения и рекомендует его как мощный инструмент без громоздких решений нейронных сетей. Она также обсуждает среду выполнения Onnx, которая оптимизирует обучение и вывод за счет определения общего набора операторов для построения моделей машинного обучения и глубокого обучения, а также использует данные из Kaggle для объяснения процесса выполнения базовой задачи классификации с использованием контролируемого машинного обучения. Затем докладчик демонстрирует, как создать механизм рекомендаций с использованием моделей машинного обучения, и предлагает посетить онлайн-ресурсы Microsoft, чтобы узнать больше о машинном обучении. Она заключает, что Onnx Runtime подходит для начинающих как часть их учебной программы или для всех, кто хочет больше узнать о машинном обучении.
Привнесите мощь ONNX в Spark, как никогда раньше
Привнесите мощь ONNX в Spark, как никогда раньше
В этом видео Шиван Ван из Huawei объясняет, как использовать возможности ONNX в Spark для логического вывода. Он обсуждает проблемы с развертыванием моделей DL в Spark и то, как сообщество Spark инициировало предложение под названием Spip для упрощения процесса. Спикер также обсуждает процессор искусственного интеллекта Huawei, Ascent и экосистему искусственного интеллекта Ascent, которая включает в себя несколько моделей процессоров Ascent и аппаратное обеспечение Atlas. Он предлагает добавить Con в качестве нового исполняющего провайдера в следующей среде выполнения, чтобы напрямую использовать модели ONNX на оборудовании Ascent без необходимости перевода модели. Наконец, он упоминает, что код POC для внедрения возможностей ONNX в Spark почти завершен, и приглашает заинтересованных пользователей оставить сообщение для обсуждения и потенциального предоставления ресурсов для целей тестирования.
Builders Build #3 — от Colab к продакшену с ONNX
Builders Build #3 — от Colab к продакшену с ONNX
Видео иллюстрирует процесс развертывания проекта из Colab в рабочей среде с использованием ONNX. Докладчик охватывает различные аспекты, такие как предварительная обработка сигналов, изменение кода для развертывания, создание обработчика на AWS Lambda, прием аудиовхода на веб-сайте, загрузка функции в S3 и развертывание зависимостей для ONNX. Несмотря на некоторые трудности, спикер успешно развернул свою модель с помощью AWS и предложил использовать файловый объект base64 загрузки браузера или фрагменты чтения звукового файла для будущих шагов.
Кроме того, в видео демонстрируется использование модели SimCLR для контрастного обучения аудио, создание каталога песен путем их ввода в модель и обучение с помощью PyTorch для достижения нулевых потерь и отзыва при k = 1. Ведущий обсуждает проблемы использования PyTorch в продакшене и предлагает ONNX в качестве решения. Видео демонстрирует, как экспортировать и загружать модель PyTorch в формате ONNX и выполнять вывод. В нем также показано, как обрабатывать аудиофайлы с помощью библиотек Torch Audio и Numpy, а также устраняются проблемы при настройке модели PyTorch для развертывания. Видео дает представление о том, как перенести модели из разработки в ноутбуках Colab в производственные среды.
Сочетание возможностей Optimum, OpenVINO™, ONNX Runtime и Azure
Сочетание возможностей Optimum, OpenVINO™, ONNX Runtime и Azure
Видео демонстрирует сочетание Optimum, OpenVINO, ONNX Runtime и Azure для упрощения рабочего процесса разработчика и повышения точности и скорости их моделей. Докладчики демонстрируют использование вспомогательных функций, ONNX Runtime и OpenVINO Execution Provider для оптимизации моделей глубокого обучения. Они также показывают, как оптимизировать модели обнимающих лиц с помощью квантования в Neural Network Compression Framework, и иллюстрируют процесс обучения и вывода с использованием Azure ML, Optimum, ONNX Runtime и OpenVINO. Демонстрация подчеркивает мощь этих инструментов в улучшении производительности моделей при минимальных потерях точности.
Более быстрый вывод моделей ONNX | Серия Edge Innovation для разработчиков | Программное обеспечение Intel
Более быстрый вывод моделей ONNX | Серия Edge Innovation для разработчиков | Программное обеспечение Intel
В этом видео обсуждается поставщик исполнения OpenVINO для среды выполнения ONNX. Это кроссплатформенный ускоритель моделей машинного обучения, который позволяет развертывать модели глубокого обучения на ряде вычислительных устройств Intel. Используя инструментарий OpenVINO, оптимизированный для аппаратного обеспечения Intel, и задав поставщика в качестве поставщика выполнения OpenVINO в коде, разработчики могут ускорить вывод моделей ONNX с помощью передовых методов оптимизации. Видео подчеркивает простоту модификации, необходимой для использования обсуждаемых инструментов.
Более быстрый и легкий вывод модели с помощью ONNX Runtime от облака к клиенту
Более быстрый и легкий вывод модели с помощью ONNX Runtime от облака к клиенту
В этом видео Эмма из группы Microsoft Cloud and AI объясняет Open Neural Network Exchange (ONNX) и ONNX Runtime, который представляет собой высокопроизводительный механизм для логического вывода моделей ONNX на различном оборудовании. Эмма обсуждает значительный прирост производительности и уменьшение размера модели, которые может обеспечить квантование INT8 среды выполнения ONNX, а также важность точности. Она демонстрирует сквозной рабочий процесс квантования ONNX Runtime INT8 и представляет результаты базовой модели с использованием квантования PyTorch. Кроме того, Эмма обсуждает способность среды выполнения ONNX оптимизировать вывод модели из облака в клиент и то, как она может достичь размера менее 300 килобайт на платформах Android и iOS по умолчанию.
Быстрый исполнение модели трансформера T5 с преобразованием и квантованием ONNX
Быстрый исполнение модели трансформера T5 с преобразованием и квантованием ONNX
Преобразовав модель трансформера T5 в ONNX и внедрив квантование, можно уменьшить размер модели в 3 раза и увеличить скорость логического вывода до 5 раз. Это особенно полезно для развертывания модели генерации вопросов, такой как T5, на ЦП с задержкой менее секунды. Кроме того, приложение Gradio предлагает визуально привлекательный интерфейс для модели. Используется модель трансформера T5 от Huggingface, а библиотека FastT5 используется для ONNX и квантования. Внедрение этих оптимизаций может привести к значительной экономии затрат на производственное развертывание этих систем.
Azure AI и среда выполнения ONNX
Azure AI и среда выполнения ONNX
Текст охватывает различные аспекты машинного обучения и его развертывания. В нем обсуждается эволюция науки о данных, проблемы совместимости платформ, использование Azure AI и среды выполнения ONNX для развертывания моделей, создание сред машинного обучения и ограничения среды выполнения ONNX. Докладчик подчеркивает стандартизацию ONNX и ее поддержку нескольких платформ, что упрощает оптимизацию для различного оборудования. В видео также упоминается отсутствие эталона для аппаратных предпочтений и необходимость использования нескольких инструментов для преодоления ограничений ONNX.