Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
ONNX em MCUs
ONNX em MCUs
Rohit Sharma fala sobre os desafios e oportunidades de executar modelos ONNX em microcontroladores. Ele enfatiza que, embora esses dispositivos não tenham os recursos de servidores de alto desempenho, há um número crescente de aplicativos de aprendizado de máquina para dispositivos minúsculos devido à melhoria nos recursos de hardware e aos esforços da comunidade de IA para reduzir o tamanho do modelo. Sharma discute duas ferramentas para implementar aprendizado de máquina em microcontroladores com facilidade: DeepSea, um compilador avançado de código aberto que oferece suporte a Python e permite que os desenvolvedores criem algoritmos de ML personalizados, e Canvas, uma plataforma sem código/código baixo que fornece mais de 70 pequenos aplicativos de ML que podem ser personalizados para atender ao conjunto de dados do usuário. Ele fornece dois casos de uso para essas ferramentas, incluindo uma luva vestível que traduz gestos de sinais em palavras e detecção de palavras fracas para dispositivos assistidos por fala, como o Amazon Echo.
Aproveite o poder do aprendizado de máquina com ONNX - Ron Dagdag
Aproveite o poder do aprendizado de máquina com ONNX - Ron Dagdag
Neste vídeo, Ron Dagdag investiga a importância das estruturas de aprendizado de máquina, particularmente ONNX, que facilita a interoperabilidade entre as estruturas de aprendizado profundo e a implantação. Ele descreve as maneiras de obter modelos ONNX, incluindo a conversão de modelos existentes, modelos de treinamento com aprendizado de máquina automatizado do Azure e uso do serviço de visão personalizada do Azure. Dagdag enfatiza a decisão de implantar modelos de aprendizado de máquina na nuvem ou na borda e sugere aproveitar o ONNX para tornar o processo mais contínuo. Além disso, ele percorre o processo de uso do ML.NET da Microsoft para criar um modelo de aprendizado de máquina e demonstra como incorporar o modelo ONNX em um aplicativo usando o tempo de execução ONNX para inferência. Dagdag também explora o ONNX como um padrão aberto para aprendizado de máquina, suas várias plataformas e linguagens e ferramentas para tornar os modelos menores.
Linux Foundation Artificial Intelligence & Data Day - ONNX Community Meeting - 21 de outubro de 2021
Emma Ning (Microsoft) ONNX Runtime Web para inferência no navegador
001 ONNX 20211021 Ning ONNX Runtime Web para inferência no navegador
A gerente de produto da equipe do Microsoft AI Framework, Emma, apresenta o ONNX Runtime Web, um novo recurso do ONNX Runtime que permite aos desenvolvedores de JavaScript executar e implantar modelos de aprendizado de máquina em um navegador, com dois back-ends, incluindo web assembly para CPU e WebGL para GPU. O back-end de montagem da Web pode executar qualquer modelo ONNX, alavancar multi-threading e SIMD e oferecer suporte à maioria das funcionalidades nativas do ONNX Runtime, enquanto o back-end WebGL é uma implementação puramente baseada em JavaScript com APIs WebGL. O palestrante também discute a compatibilidade dos operadores ONNX com ambos os back-ends, fornece trechos de código para criar uma sessão de inferência e executar um modelo e apresenta um site de demonstração com vários cenários de modelos de imagem no navegador alimentados pelo modelo MobileNet. No entanto, o palestrante também reconhece que ainda há espaço para melhorias no aprimoramento do desempenho e consumo de memória do tempo de execução ONNX e na expansão dos operadores ONNX suportados.
Web and Machine Learning W3C Workshop Summer 2020
ONNX.js - Uma biblioteca Javascript para executar modelos ONNX em navegadores e Node.js
ONNX.js - Uma biblioteca Javascript para executar modelos ONNX em navegadores e Node.js
ONNX.js é uma biblioteca JavaScript que permite aos usuários executar modelos ONNX em navegadores e Node.js. Ele otimiza o modelo na CPU e na GPU com várias técnicas e oferece suporte à criação de perfil, registro e depuração para facilitar a análise. A biblioteca oferece suporte a todos os principais navegadores e plataformas e permite a paralelização usando web workers para melhor desempenho em máquinas multicore. Usando o WebGL para acessar os recursos da GPU, ele fornece melhorias significativas de desempenho e reduz a transferência de dados entre a CPU e a GPU. Embora seja necessário mais otimização e suporte do operador, o palestrante incentiva as contribuições da comunidade para melhorar o ONNX.js.
Como executar modelos PyTorch no navegador com ONNX.js
Como executar modelos PyTorch no navegador com ONNX.js
O vídeo explica as vantagens de executar um modelo PyTorch em um navegador usando JavaScript e ONNX.js, incluindo melhor tempo de resposta, escalabilidade, disponibilidade offline e maior privacidade do usuário. O vídeo também mostra o processo de conversão de um modelo PyTorch em um modelo ONNX, carregando-o em uma sessão ONNX.js e executando a inferência no navegador. Preparação de dados, depuração e aumentos também são discutidos, e o palestrante demonstra como tornar o modelo mais robusto usando técnicas de aumento de dados. O vídeo fornece um código de amostra e um site de demonstração para que os usuários experimentem o modelo por conta própria.
Classificação de dígitos na CPU com demonstração ONNX Runtime
Classificação de dígitos na CPU com demonstração ONNX Runtime
O Open Neural Network Exchange (ONNX) fornece um formato de código aberto para modelos de aprendizado profundo e aprendizado de máquina. Podemos treinar nossos modelos em qualquer estrutura que preferirmos e depois converter o modelo para o formato ONNX. Com o ONNX Runtime da Microsoft, podemos executar uma sessão de inferência com modelos onnx em qualquer ambiente, o que nos dá uma implementação um pouco mais rápida. Aqui está uma demonstração simples do mesmo. O modelo é treinado para reconhecer dígitos usando o conjunto de dados MNIST com PyTorch. Estou executando uma sessão de inferência na CPU do Linux.
https://github.com/NagarajSMurthy/Digit-recognizer
Bilhões de inferências NLP na JVM usando ONNX e DJL
Bilhões de inferências NLP na JVM usando ONNX e DJL
O CTO de uma empresa de inteligência de mídia discute como eles usam JVM e DJL e Hugging Face para tokenização NLP no pipeline de aprendizado de máquina para explorar o cenário de mídia para vários casos de uso. À medida que os recursos do produto foram direcionados para isso, o aprendizado de máquina e o sistema de modelagem se tornaram peças essenciais para manter tudo funcionando, pois atingiram uma escala em que a CPU não poderia mais ser suficiente. Eles passaram de um modelo de ponto flutuante de 32 bits para 16 bits, o que levou a um aumento de 3% na eficácia, mas enfrentaram erros de conversão e raros vazamentos de memória durante o processo, que resolveram substituindo várias implementações. Eles investiram em robustez adicionando CI alimentado por GPU e configurando uma pilha lógica avançada do Prometheus que monitora a latência de várias inferências e a latência de tokenização. Seus planos futuros incluem melhorar a eficiência da GPU e adicionar mais modelos ao sistema criando uma configuração multi-GPU.
[FlexFlow Bootcamp 2020] FlexFlow Front-End Supports: TensorFlow Keras, PyTorch, ONNX, and more
[FlexFlow Bootcamp 2020] FlexFlow Front-End Supports: TensorFlow Keras, PyTorch, ONNX, and more
In this section of the video, the speaker discusses the FlexFlow Python API, which supports TensorFlow Keras, PyTorch, and ONNX. The process of creating and training a model involves adding operators to the model, compiling the model, creating data loaders, and initializing/training the model using the fit function or customized training procedures. The speakers also discuss support for Keras and PyTorch models in FlexFlow, as well as the ability to import pre-existing models through the ONNX intermediate representation. However, it is important to ensure consistency between the library used to build FlexFlow and the one used to build the ONNX python package.
Learning Machine Learning com .NET, PyTorch e o ONNX Runtime
Learning Machine Learning com .NET, PyTorch e o ONNX Runtime
Neste vídeo sobre aprendizagem de aprendizado de máquina com .NET, PyTorch e o ONNX Runtime, os palestrantes apresentam o ONNX Runtime e explicam as diferentes etapas para treinar um modelo de aprendizado de máquina. Eles também demonstram como usar o formato ONNX com .NET para aprendizado profundo e discutem a importância de entender os hiperparâmetros e o método de otimização para previsões precisas do modelo. Os palestrantes também mostram como usar o tempo de execução ONNX para carregar um modelo e fazer previsões, bem como lidar com possíveis erros com um bloco try ao executar uma sessão. Além disso, eles discutem o uso do vetor de incerteza para mostrar a incerteza da IA em suas previsões e mencionam alguns setores onde a IA está sendo usada, como detecção de fraudes e sistemas de recomendação.
Como ler e escrever um modelo ONNX em ML.NET
Como ler e escrever um modelo ONNX em ML.NET
O vídeo começa apresentando o ONNX - um formato aberto criado pela Microsoft e pelo Facebook que permite a troca de modelos de aprendizado de máquina entre diferentes frameworks. O apresentador explica como o ML.NET, uma biblioteca de machine learning de plataforma cruzada e de código aberto, tem suporte para modelos ONNX. O vídeo então mostra como criar e exportar um modelo ML.NET para um arquivo ONNX, usando o pacote ONNX Runtime. Depois que o modelo ONNX é criado, o vídeo explica como usá-lo para fazer previsões sobre novos dados no ML.NET. No geral, o vídeo fornece um guia abrangente sobre como usar modelos ONNX com ML.NET para aplicativos de aprendizado de máquina.