Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
ONNX e ONNX Runtime com Vinitra Swamy e Pranav Sharma da Microsoft
ONNX e ONNX Runtime com Vinitra Swamy e Pranav Sharma da Microsoft
O vídeo aborda o formato Open Neural Network Exchange (ONNX), criado para tornar os modelos interoperáveis e eficientes na serialização e versionamento. O ONNX consiste em uma camada de representação intermediária, especificações do operador e suporta diferentes tipos de dados. O ONNX Runtime, implementado em C++ e assembler, oferece compatibilidade com versões anteriores e é extensível por meio de provedores de execução, operadores personalizados e otimizadores de gráfico. A API oferece suporte para plataformas, linguagens de programação e provedores de execução. Os usuários podem criar sessões, otimizar modelos e serializá-los para uso futuro. Os alto-falantes fornecem uma demonstração da versatilidade e eficiência do ONNX Runtime, com capacidade para rodar em dispositivos Android.
compatibilidade desde o CentOS 7.6. A ferramenta ONNX Go Live, uma ferramenta de código aberto para converter e ajustar modelos para desempenho ideal, também é discutida. A seção termina com exemplos de serviços da Microsoft que utilizam ONNX, incluindo um ganho de desempenho de 14x no modelo de determinador ausente do Office e um ganho de desempenho de 3x no modelo de reconhecimento óptico de caracteres usado em serviços cognitivos.
Jan-Benedikt Jagusch Christian Bourjau: Making Machine Learning Applications Fast and Simple with ONNX
Jan-Benedikt Jagusch Christian Bourjau: Making Machine Learning Applications Fast and Simple with ONNX
In this video about machine learning and deployment, the speakers discuss the challenges of putting models into production, particularly the difficulty of pickling and deploying models. They introduce ONNX, a universal file format for exporting machine learning models, and explain how it can help decouple training and inference, making deployment faster and more efficient. They provide a live demo using scikit-learn, explaining how to convert a machine learning pipeline to ONNX format. They also discuss the limitations of Docker containers for deploying machine learning models and highlight the benefits of using ONNX instead. They touch on the topic of encrypting models for additional security and address the usability issue of ONNX, which is still a young ecosystem with some cryptic error messages.
ONNX Runtime Azure EP para inferência híbrida no Edge e na nuvem
ONNX Runtime Azure EP para inferência híbrida no Edge e na nuvem
A equipe ONNX Runtime lançou seu primeiro passo para o mundo híbrido de permitir que os desenvolvedores usem uma única API para computação de borda e nuvem com o Azure EP, que elimina as preocupações com a conectividade do dispositivo e permite que os desenvolvedores mudem para o modelo de nuvem que otimizaram , economizando custos e reduzindo a latência. Esse novo recurso permite que os desenvolvedores atualizem a lógica do aplicativo e escolham qual caminho seguir por meio do Azure EP, oferecendo mais capacidade e poder. A equipe demonstra a implantação de servidores infantis e modelos de detecção de objetos, além de como testar o endpoint e configurar o Onnx Runtime Azure de forma simples. Os apresentadores também discutem a capacidade de alternar entre processamento local e remoto e casos de uso em potencial, incluindo modelos de baixo desempenho versus modelos de alto desempenho. O ONNX Runtime Azure EP pode ser pré-carregado e configurado facilmente com os pacotes necessários para implantação, contribuindo para a facilidade de uso do software.
Inferência INT8 de modelos treinados com reconhecimento de quantização usando ONNX-TensorRT
Inferência INT8 de modelos treinados com reconhecimento de quantização usando ONNX-TensorRT
Dheeraj Peri, engenheiro de software de aprendizado profundo da NVIDIA, explica os fundamentos da quantização e como o TensorRT oferece suporte a redes quantizadas por meio de várias fusões. Eles se concentram em modelos treinados usando a estrutura do TensorFlow 2.0 e como realizar a quantização pós-treinamento (PTQ) e o treinamento com reconhecimento de quantização (QAT). O processo de implantação de um modelo treinado usando o kit de ferramentas de quantização Nvidia TF2 com ONNX-TensorRT é explicado e os resultados de precisão e latência são apresentados para vários modelos ResNet. No geral, é demonstrado o fluxo de trabalho QAT de ponta a ponta do TensorFlow para a implantação do TensorRT via ONNX-TensorRT.
QONNX: Uma proposta para representar NNs quantizadas de precisão arbitrária em ONNX
QONNX: Uma proposta para representar NNs quantizadas de precisão arbitrária em ONNX
O palestrante aborda a quantização de baixa precisão, com um exemplo de sua aplicação em comunicação sem fio. Eles propõem QONNX, um dialeto para representar redes neurais quantizadas de precisão arbitrária em ONNX. O QONNX simplifica a representação de quantização, estende-a a um conjunto mais amplo de cenários e oferece opções para diferentes tipos de arredondamento e quantização binária. Ele está sendo usado para implantação em FPGAs e está integrado à biblioteca de quantização Brevitas Python, com NQCDQ definido para ser integrado no próximo lançamento.
GRCon20 - Inferência de aprendizado profundo no GNU Radio com ONNX
GRCon20 - Inferência de aprendizado profundo no GNU Radio com ONNX
O vídeo discute o uso do ONNX como um formato aberto para integrar o aprendizado profundo como uma solução flexível e de código aberto no domínio da radiofrequência. O palestrante apresenta seu novo módulo GR DNN DN4, que usa interfaces Python para GNU Radio e ONNX, e demonstra suas capacidades com um exemplo de classificação de modulação automática usando um modelo de rede neural convolucional profunda treinado em dados simulados gerados pelo GNU Radio. Eles também discutem os requisitos e desafios do uso de aprendizado profundo para classificação em dados SDR com o modelo BGG16 e sugerem o uso de aceleração de hardware, como uma GPU, para melhorar a inferência e obter resultados em tempo real. O projeto é de código aberto e a colaboração é incentivada.