Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Виртуальная встреча сообщества ONNX — март 2021 г.
000 ONNX 20211021 Добро пожаловать в ONNX SC Выпуск дорожной карты развития
Семинар ONNX начался с введения, в котором организаторы подчеркнули важность участия сообщества в развитии экосистемы ONNX. Они также представили обзор повестки дня, которая включала обновления статистики ONNX, презентации сообщества и обсуждения дорожной карты Руководящим комитетом ONNX. Предложения дорожной карты направлены на улучшение поддержки, надежности и удобства использования платформы ONNX и включают в себя операторы предварительной обработки, C API, федеративное обучение и лучшую интеграцию обработки данных и логического вывода. Также обсуждался недавний выпуск версии 1.10 спецификаций ONNX, и участникам было предложено задавать вопросы и участвовать в канале ONNX Slack, чтобы продолжить обсуждение.
День сообщества ONNX! Прямой эфир 24 июня 2022 г.
Это мероприятие будет проходить лично в новом кампусе Microsoft в Силиконовой долине в пятницу, 24 июня.
На мероприятии будут представлены обновления сообщества ONNX, истории партнеров и пользователей, а также множество сетей сообщества.
День сообщества ONNX!
Краткое содержание:
Подробное резюме временной шкалы:
ONNX: прошлое, настоящее и будущее — Джим Шпорер, IBM и Прасант Пулаварти, Microsoft
ONNX: прошлое, настоящее и будущее — Джим Шпорер, IBM и Прасант Пулаварти, Microsoft
В видеоролике «ONNX: прошлое, настоящее и будущее» Джим Шпорер из IBM и Прасант Пулаварти из Microsoft обсуждают рост и будущее платформы искусственного интеллекта с открытым исходным кодом ONNX. Они подчеркивают важность стандартизации развертывания моделей ИИ с помощью формата обмена, предоставляемого ONNX, что обеспечивает плавную оптимизацию в различных средах глубокого обучения. Кроме того, они обсуждают последние разработки в области возможностей среды выполнения ONNX для работы с различными аппаратными ускорителями и предлагают советы и ресурсы для начала работы с ONNX. Спикеры отвечают на вопросы аудитории о возможностях ONNX, коммерческом развертывании и предстоящих планах сертификации, призывая зрителей принять участие в сообществе ONNX.
Onnx-mlir: компилятор на основе MLIR для моделей ONNX — текущее состояние
Onnx-mlir: компилятор на основе MLIR для моделей ONNX — текущий состояние
Onnx-mlir — это компилятор для моделей ONNX, использующий MLIR и LLVM для оптимизации и генерации кода, поддерживающий процессоры и пользовательские ускорители. Донг Лин из IBM Research подчеркивает важность тщательного тестирования и подчеркивает возможность использования фреймворка в онлайн-сервисах оценки и фреймворках обслуживания моделей. Onnx-mlir имеет несколько диалектов для ЦП и ускорителя с оптимизацией на разных уровнях, и было показано, что он ускоряет модель обнаружения мошенничества с кредитными картами в 11 раз с помощью ускорителя IBM. Проект приветствует вклад сообщества в оптимизацию важных операторов и поддержку нишевых операторов машинного обучения и других ускорителей, таких как графические процессоры.
PFVM — компилятор нейронной сети, использующий ONNX в качестве промежуточного представления
PFVM — компилятор нейронной сети, использующий ONNX в качестве промежуточного представления.
В этом видео Zijian Xu из Preferred Networks представляет PFVM, компилятор нейронной сети, который использует ONNX в качестве промежуточного представления для оптимизации модулей. Он обсуждает, как PFVM принимает экспортированный ONNX в качестве входных данных, оптимизирует его и выполняет модель с указанными серверными частями с использованием сторонних API. Гэндзи описывает важность оптимизации, в том числе расширения ONNX операторами клиентов, выводом форм и упрощением графов. Он также рассматривает ограничения текущих компиляторов ONNX, в том числе потребность в дополнительной поддержке в динамическом случае, и предлагает реализовать больше функций вывода. Zijian Xu подчеркивает важность сокращения накладных расходов ядра и использования памяти для ускорения вычислений и предлагает использовать статическую информацию, доступную на машинах, для планирования и формирования логических выводов.
Стек компилятора YVR18-332 TVM и поддержка ONNX
Стек компилятора YVR18-332 TVM и поддержка ONNX
В видео YVR18-332 обсуждается стек компилятора TVM, который представляет собой стек глубокого обучения под руководством сообщества, который поддерживает ряд аппаратных средств и интерфейсов, включая ONNX. Спикер обсуждает, как TVM может оптимизировать модели на уровне стерео, позволяя разработчикам исследовать пространство поиска и находить лучшую конфигурацию. Они также обсуждают автоматические оптимизации, предлагаемые TVM, включая циклические преобразования и ускорение графического процессора. Спикер рассказывает о дорожной карте TVM, которая включает поддержку 8-битной графики и автоматическую настройку на уровне графа. Кроме того, они обсуждают интерфейс ONNX TV и необходимость унификации стандартного интерфейса для всех экосистем. Наконец, видео останавливается на обед.
предназначен для изучения пространства поиска и поиска наилучшей конфигурации.
Выступление сообщества .NET MAUI — среда выполнения ONNX с Майком Паркером
Выступление сообщества .NET MAUI — среда выполнения ONNX с Майком Паркером
В этом видео приглашенный докладчик Майк Паркер представляет среду выполнения ONNX, кроссплатформенный инструмент с открытым исходным кодом, который обеспечивает оптимизацию и ускорение машинного обучения на нескольких аппаратных платформах. Паркер объясняет важность использования среды выполнения ONNX и демонстрирует, как ее можно использовать в проектах .NET MAUI для классификации изображений с использованием модели классификации объектов MobileNet. Ведущие и Паркер обсуждают преимущества запуска моделей машинного обучения на устройстве и возможность избежать затрат на серверную инфраструктуру. Кроме того, команда делится полезными ресурсами, в том числе блогом Паркера на эту тему и своим партнерством с Элом Блаунтом для поддержки .NET MAUI и Xamarin.
[Виртуальная встреча] Интероперабельный ИИ: ONNX и ONNXRuntime на C++ (M. Arena, M. Verasani)
[Виртуальная встреча] Интероперабельный ИИ: ONNX и ONNXRuntime на C++ (M. Arena, M. Verasani)
В видео обсуждаются проблемы использования различных платформ для обучения алгоритмов машинного обучения, что приводит к отсутствию совместимости, а также рассказывается об ONNX и ONNXRuntime, целью которых является создание универсального формата для моделей глубокого обучения. ONNX преобразует нейронные сети в статические вычислительные графы, что позволяет оптимизировать производительность во время логического вывода. ONNXRuntime позволяет преобразовывать любую платформу в формат ONNX и предоставляет библиотеки ускорения, которые можно использовать для любой аппаратной платформы. Видео демонстрирует примеры использования ONNX и ONNXRuntime, а также обсуждает их использование в C++ и дает советы для лучшего понимания проекта и его документации.
Марко Арена и Маттео Верасани также обсуждают преимущества использования ONNX и ONNXRuntime в C++ для моделей машинного обучения, подчеркивая гибкость платформы и ее способность легко преобразовывать модели из разных платформ без ущерба для производительности. Они предоставляют примеры преобразования моделей в формат ONNX и демонстрируют использование ONNXRuntime для режима логического вывода, демонстрируя повышение производительности классической модели Python. Кроме того, они обсуждают свою работу со встроенными системами и потенциальные преимущества тестирования ONNXRuntime на графических процессорах. Выступающие также упоминают будущие виртуальные встречи и выражают надежду на то, что участникам будет предоставлено больше возможностей для общения.
[CppDay20] Интероперабельный ИИ: ONNX и ONNXRuntime на C++ (M. Arena, M. Verasani)
[CppDay20] Интероперабельный ИИ: ONNX и ONNXRuntime на C++ (M. Arena, M. Verasani)
Использование алгоритмов машинного обучения и глубокого обучения растет, и существует потребность в инструментах, которые могут развертывать эти алгоритмы на разных платформах. Инструмент ONNX обеспечивает взаимодействие между различными фреймворками и платформами, позволяя разработчикам преобразовывать свои алгоритмы из одного фреймворка в другой и развертывать их на разных устройствах, даже если они не знакомы с конкретным фреймворком или платформой. ONNX Runtime — это механизм логического вывода, который может использовать настраиваемые ускорители для ускорения моделей на этапе логического вывода и может быть ориентирован на различные аппаратные платформы. Спикеры демонстрируют использование ONNX и ONNX Runtime в программировании на C++ с примерами моделей линейной регрессии и нейронных сетей. Они также обсуждают преимущества использования ONNX и ONNX Runtime для точной настройки работы сети, оптимизации времени загрузки и выполнения последовательных образов.
Ускорение машинного обучения с помощью ONNX Runtime и Hugging Face
Ускорение машинного обучения с помощью ONNX Runtime и Hugging Face
В видео «Ускорение машинного обучения с помощью ONNX Runtime и Hugging Face» обсуждается создание библиотеки Hugging Face Optimum, в которой основное внимание уделяется ускорению моделей преобразования от обучения до логического вывода за счет простого применения среды выполнения ONNX. Библиотека упрощает связь между библиотекой трансформатора и аппаратным ускорением, создавая простой в использовании набор инструментов для повышения производительности. Применяя оптимизации, предоставляемые ONNX Runtime, пользователи могут воспользоваться всеми преимуществами аппаратного ускорения, что приводит к ускорению конвейеров логического вывода. Сотрудничество в сообществе Hugging Face обеспечивает оптимизацию модели от последовательности к последовательности с использованием этих классов конвейера ускоренного логического вывода, а сквозной пример показал, что использование оптимальной библиотеки может привести к увеличению пропускной способности на 44% или уменьшению задержки при сохранении 99,6% точности оригинальной модели.