Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Развертывайте машинное обучение где угодно с ONNX. Модель Python SKLearn, работающая в функции Azure ml.net
Развертывайте машинное обучение где угодно с ONNX. Модель Python SKLearn, работающая в функции Azure ml.net
В видео показано, как среда выполнения ONNX упрощает и стандартизирует развертывание моделей машинного обучения, созданных на разных языках и платформах. Он демонстрирует процесс упаковки модели Python scikit-learn в модель ONNX и ее развертывания в функции Azure ML .NET. В видео подчеркивается, что функцию Azure можно легко запустить с помощью HTTP-запроса POST, что упрощает вызов из любого приложения или веб-сайта, и независимо от языка, используемого для построения модели машинного обучения, ее можно преобразовать в модель ONNX и развертывается через ML.NET для согласованной работы.
Развертывание моделей машинного обучения (TensorFlow/Caffe2/ONNX) — быстро и просто
Развертывание моделей машинного обучения (TensorFlow/Caffe2/ONNX) — быстро и просто
Видео демонстрирует, как трансферное обучение можно использовать для классификации изображений и как интегрировать модель классификации изображений в приложение конечного пользователя с использованием Python и TensorFlow. Докладчик использует пример приложения для торговли автомобилями, чтобы проиллюстрировать проблемы, с которыми сталкиваются, когда фотографии не загружаются с нужного ракурса, а этикетки необходимо проверять вручную, что приводит к скуке и неэффективности. Он объясняет, как преодолеть эти проблемы, обучив существующую нейронную сеть распознавать перспективы фотографий с помощью метода трансферного обучения. Затем он показывает, как протестировать и развернуть модель в облаке Oracle с помощью проекта с открытым исходным кодом GraphPipe. Наконец, докладчик подчеркивает важность переноса моделей машинного обучения из лабораторной фазы в стадию производства.
Развертывание моделей машинного обучения с помощью функций Azure и среды выполнения ONNX
Развертывание моделей машинного обучения с помощью функций Azure и среды выполнения ONNX
В видео показано, как развернуть модель машинного обучения с помощью среды выполнения ONNX и функций Azure в VS Code. Этот процесс включает в себя создание проекта функции Azure, обновление кода с помощью сценария оценки, загрузку модели из пути к модели, создание сеанса вывода с помощью среды выполнения ONNX и возврат выходных данных. В видео также показано, как развернуть функцию в Azure и протестировать ее там. Этот метод обеспечивает эффективное развертывание моделей с помощью функций Azure и среды выполнения ONNX, обеспечивая легкий доступ к результатам.
Развертывание на рабочем столе с ONNX
Развертывание на рабочем столе с помощью ONN X
В видео «Развертывание на рабочем столе с помощью ONNX» Александр Чжан обсуждает проблемы развертывания на рабочем столе и решения, предлагаемые ONNX. Поддержка настольных компьютеров сопряжена с определенными трудностями, поскольку существует меньший контроль над системными ограничениями графического процессора или операционной системы, а также значительное разнообразие настольных графических процессоров. Для решения этих проблем Александр использует разные библиотеки логических выводов для каждого поставщика оборудования, поддерживаемого Topaz labs. ONNX используется для указания одной и той же модели для всех этих библиотек, что обеспечивает относительно согласованные результаты на различном оборудовании и экономит ручную работу с каждой моделью. Однако преобразования ONNX могут создавать различные проблемы, такие как двусмысленность, несоответствие и несоответствие качества, что требует от разработчиков выполнения тестовых преобразований и явного использования последних смещений ONNX. Чтобы максимизировать пропускную способность за счет пакетной обработки и, возможно, параллельной работы на нескольких устройствах и библиотеках, они разбивают изображения на блоки и выбирают соответствующий размер на основе видеопамяти, а затем обрабатывают блоки с помощью логических выводов.
Развертывание моделей ONNX на Flink — Исаак Маккиллен-Годфрид
Развертывание моделей ONNX на Flink — Исаак Маккиллен-Годфрид
Исаак МакКиллен-Годфрид обсуждает проблемы внедрения современных моделей машинного обучения из исследовательских сред в производственную среду для эффективного использования. Цель доклада — упростить перенос моделей из исследовательских сред в производственную среду и обеспечить включение самых современных моделей в различные платформы. Он объясняет преимущества формата ONNX и различные варианты интеграции моделей глубокого обучения в Java. Кроме того, он обсуждает развертывание моделей ONNX на Flink с помощью Jep, интерпретатора Python, написанного на Java, и объясняет проект с открытым исходным кодом, который позволяет использовать данные из коннектора Flink Twitter, а затем фильтровать твиты не на английском языке. В докладе также освещается текущая реализация только ЦП для развертывания моделей ONNX на Flink и потенциал для будущих реализаций ГП или гибридных реализаций.
Развертывание модели Tiny YOLOv2 ONNX на Jetson Nano с использованием DeepStream
Развертывание модели Tiny YOLOv2 ONNX на Jetson Nano с использованием DeepStream
Это видео демонстрирует эффективность использования предварительно обученной модели Tiny YOLOv2 в формате ONNX для одновременной обработки четырех видеопотоков.
Потоки поступают из четырех отдельных файлов и обрабатываются в Jetson Nano с использованием DeepStream SDK. Система достигла FPS примерно 6,7 при параллельной обработке всех четырех видео.
https://github.com/thatbrguy/Deep-Stream-ONNX
Механизм исполнения модели ONNX Runtime способен выполнять модели машинного обучения в различных средах
Среда выполнения ONNX
ONNX Runtime — это механизм исполнения модели с открытым исходным кодом, оптимизированный для повышения производительности, масштабируемости и расширяемости, способный запускать новые операторы до того, как они будут стандартизированы. Формат ONNX позволяет легко представлять и развертывать модели, разработанные с использованием предпочтительных инструментов, обычным способом. Microsoft заключила партнерское соглашение с Xilinx для создания исполняющего провайдера для программной библиотеки Vitis AI, которая позволяет делать выводы и ускорять AI на аппаратных платформах Xilinx. Инструментарий Vitis AI состоит из IP-инструментов, библиотек, моделей и примеров проектов для разработчиков ПЛИС, а контрольные цифры показывают максимальное ускорение для решений для геопространственных изображений. Поставщик выполнения Vitis AI можно создать из исходного кода или развернуть с помощью предварительно созданной библиотеки программного обеспечения, которая вскоре будет выпущена в Azure Marketplace.
Развертывание моделей Transformer в браузере с помощью #ONNXRuntime
Развертывание моделей Transformer в браузере с помощью #ONNXRuntime
В видео показано, как настроить и развернуть оптимизированную модель BERT в браузере с помощью ONNXRuntime. Докладчик показывает, как преобразовать модель PyTorch в формат ONNX с помощью Transformers API, использовать ONNXRuntime для квантования модели для уменьшения размера и создать сеанс логического вывода. В видео также рассматриваются необходимые шаги для импорта пакетов в JavaScript с помощью WebAssembly и как выполнять ввод текста через преобразованную модель для классификации эмоций. Несмотря на снижение точности прогнозирования, меньший размер модели идеально подходит для развертывания в браузере. Предоставляются ссылки на модель, наборы данных, исходный код и сообщение в блоге.
Open Neural Network Exchange (ONNX) на предприятии: как Microsoft масштабирует машинное обучение
Open Neural Network Exchange (ONNX) на предприятии: как Microsoft масштабирует машинное обучение — BRK3012
Open Neural Network Exchange (ONNX) представлен как решение проблем развертывания моделей машинного обучения в рабочей среде, включая управление несколькими обучающими средами и целями развертывания, при этом Microsoft уже широко внедряет ONNX для таких продуктов, как Bing, реклама Bing и Office 365. ONNX позволяет масштабировать и поддерживать модели машинного обучения, а также значительно повышать производительность и экономить средства, связанные с использованием аппаратных ускорителей, таких как графические процессоры. Кроме того, в экосистему ONNX входят такие партнеры, как Intel, для оптимизации времени выполнения, с готовыми комплектами для разработки и методами квантования, доступными для преобразования моделей FP32 в типы данных с более низкой точностью, что приводит к повышению эффективности. Выступающие также подчеркивают преимущества использования ONNX для периферийных вычислений, поскольку среда выполнения является гибкой и может развертывать модели на различных аппаратных платформах.
#OpenVINO Execution Provider для #ONNX Runtime - #OpenCV Weekly #Webinar Ep. 68
#OpenVINO Execution Provider для #ONNX Runtime - #OpenCV Weekly #Webinar Ep. 68
Поставщик выполнения OpenVINO для среды выполнения ONNX был основной темой обсуждения на этом еженедельном веб-семинаре OpenCV. Продукт предназначен для повышения производительности моделей ONNX на оборудовании Intel, требуя при этом минимальных усилий со стороны пользователя. На вебинаре обсуждались проблемы развертывания моделей глубокого обучения в реальном мире, и OpenVINO был представлен как решение этих проблем. OpenVINO может оптимизировать модели ИИ для эффективной работы на различных устройствах и оборудовании. Подробно обсуждалась среда выполнения ONNX, проект с открытым исходным кодом, предназначенный для ускорения машинного обучения. На вебинаре также была представлена демонстрация улучшения производительности, достигнутого с помощью OpenVINO Execution Provider для ONNX Runtime, а также его функций, таких как многопоточный логический вывод, полная поддержка различных подключаемых модулей и кэширование моделей. Также обсуждалась интеграция между OpenVINO и PyTorch через OpenVINO Execution Provider. Докладчики ответили на вопросы аудитории по таким темам, как совместимость с устройствами ARM и потенциальная потеря производительности или точности при использовании форматов обмена ONNX.