Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Implante modelos de aprendizado de máquina (TensorFlow/Caffe2/ONNX) - rápido e fácil
Implante modelos de aprendizado de máquina (TensorFlow/Caffe2/ONNX) - rápido e fácil
O vídeo demonstra como o aprendizado de transferência pode ser usado para classificar imagens e como integrar o modelo de classificação de imagem em um aplicativo de usuário final usando Python e TensorFlow. O apresentador usa um exemplo de aplicativo de comércio de carros para ilustrar os desafios enfrentados quando as fotos não são carregadas da perspectiva necessária e os rótulos precisam ser verificados manualmente, levando ao tédio e à ineficiência. Ele explica como superar esses desafios treinando uma rede neural existente para reconhecer perspectivas de fotos usando a técnica de aprendizado de transferência. Em seguida, ele mostra como testar e implantar o modelo na nuvem Oracle usando o projeto de código aberto GraphPipe. Por fim, o apresentador enfatiza a importância de levar os modelos de aprendizado de máquina da fase de laboratório para a fase de produção.
Implante modelos de ML com Azure Functions e ONNX Runtime
Implante modelos de ML com Azure Functions e ONNX Runtime
O vídeo demonstra como implantar um modelo de aprendizado de máquina usando ONNX Runtime e Azure Functions no VS Code. O processo inclui criar um projeto Azure Function, atualizar o código com o script de pontuação, carregar o modelo do caminho do modelo, criar uma sessão de inferência com ONNX Runtime e retornar a saída. O vídeo também mostra como implantar a função no Azure e testá-la lá. Esse método permite a implantação eficiente de modelos por meio do Azure Functions e do ONNX runtime, permitindo fácil acesso aos resultados.
Implantando no desktop com ONNX
Implantando na área de trabalho com ONNX
No vídeo "Deploying on Desktop with ONNX", Alexander Zhang discute os desafios da implantação em desktop e as soluções oferecidas pelo ONNX. O suporte a desktops tem seus desafios, pois há menos controle sobre as restrições do sistema na GPU ou no sistema operacional, bem como uma diversidade significativa nas GPUs de desktop. Para enfrentar esses desafios, Alexander conta com diferentes bibliotecas de inferência para cada um dos fornecedores de hardware que o Topaz labs suporta. ONNX é usado para especificar o mesmo modelo para todas essas bibliotecas, fornecendo resultados relativamente consistentes em diferentes hardwares enquanto economiza trabalho manual em cada modelo. No entanto, as conversões ONNX podem criar vários problemas, como ambigüidade, inconsistência e discrepâncias de qualidade, exigindo que os desenvolvedores executem conversões de teste e usem os deslocamentos ONNX mais recentes explicitamente. Para maximizar a taxa de transferência por meio de lotes e potencialmente executar em vários dispositivos e bibliotecas em paralelo, eles dividem as imagens em blocos e selecionam um tamanho apropriado com base na VRAM e, em seguida, executam os blocos por meio de inferência.
Implantando modelos ONNX no Flink - Isaac Mckillen-Godfried
Implantando modelos ONNX no Flink - Isaac Mckillen-Godfried
Isaac McKillen-Godfried discute os desafios de incorporar modelos de aprendizado de máquina de última geração de ambientes de pesquisa em produção para utilização eficaz. O objetivo da palestra é facilitar a passagem de modelos dos ambientes de pesquisa para a produção e permitir a incorporação de modelos de última geração em diferentes plataformas. Ele explica as vantagens do formato ONNX e as diferentes opções para integrar modelos de deep learning em Java. Além disso, ele discute a implantação de modelos ONNX no Flink usando Jep, um interpretador Python escrito em Java, e explica um projeto de código aberto que permite que dados sejam consumidos do conector Flink Twitter e, em seguida, filtre tweets em outros idiomas. A palestra também destaca a atual implementação somente de CPU da implantação de modelos ONNX no Flink e o potencial para futuras implementações de GPU ou híbridas.
Implantando o modelo Tiny YOLOv2 ONNX no Jetson Nano usando o DeepStream
Implantando o modelo Tiny YOLOv2 ONNX no Jetson Nano usando o DeepStream
Este vídeo mostra a eficiência da utilização de um modelo Tiny YOLOv2 pré-treinado no formato ONNX para processar quatro streams de vídeo simultaneamente.
Os streams vêm de quatro arquivos distintos e são processados no Jetson Nano usando o DeepStream SDK. O sistema alcançou um FPS de aproximadamente 6,7 enquanto processava todos os quatro vídeos em paralelo.
https://github.com/thatbrguy/Deep-Stream-ONNX
O mecanismo de inferência ONNX Runtime é capaz de executar modelos de aprendizado de máquina em diferentes ambientes
Tempo de execução ONNX
O ONNX Runtime é um mecanismo de inferência de código aberto otimizado para desempenho, escalabilidade e extensibilidade, capaz de executar novos operadores antes de serem padronizados. O formato ONNX permite fácil representação e implantação de modelos desenvolvidos em ferramentas preferenciais de forma comum. A Microsoft fez parceria com a Xilinx para criar o provedor de execução para a biblioteca de software Vitis AI, que permite inferência e aceleração de IA em plataformas de hardware Xilinx. O kit de ferramentas Vitis AI consiste em ferramentas IP, bibliotecas, modelos e projetos de exemplos para desenvolvedores de FPGA, com números de benchmark mostrando aceleração máxima para soluções de imagens geoespaciais. O provedor de execução Vitis AI pode ser criado a partir da fonte ou implantado por meio de uma biblioteca de software pré-criada que será lançada em breve no Azure Marketplace.
Implante modelos de transformadores no navegador com #ONNXRuntime
Implante modelos de transformadores no navegador com #ONNXRuntime
O vídeo demonstra como ajustar e implantar um modelo BERT otimizado em um navegador usando o ONNXRuntime. O apresentador mostra como converter o modelo PyTorch para o formato ONNX usando a API Transformers, usar ONNXRuntime para quantificar o modelo para redução de tamanho e criar uma sessão de inferência. O vídeo também aborda as etapas necessárias para importar pacotes para JavaScript usando WebAssembly e como executar entradas de texto por meio do modelo transformado para classificação de emoções. Apesar de uma redução na precisão da previsão, o tamanho menor do modelo é ideal para implantação em um navegador. São fornecidos links para o modelo, conjuntos de dados, código-fonte e uma postagem no blog.
Open Neural Network Exchange (ONNX) na empresa: como a Microsoft dimensiona o Machine Learning
Open Neural Network Exchange (ONNX) na empresa: como a Microsoft dimensiona o ML - BRK3012
O Open Neural Network Exchange (ONNX) é apresentado como uma solução para os desafios na implantação de modelos de aprendizado de máquina para produção, incluindo o gerenciamento de várias estruturas de treinamento e metas de implantação, com a Microsoft já adotando amplamente o ONNX para produtos como Bing, Bing ads e Office 365 O ONNX permite escalabilidade e manutenção de modelos de aprendizado de máquina, bem como melhorias significativas de desempenho e economia de custos atribuídas ao uso de aceleradores de hardware, como GPUs. Além disso, o ecossistema ONNX inclui parceiros como a Intel para otimização de tempo de execução, com kits de desenvolvimento prontamente disponíveis e técnicas de quantização disponíveis para converter modelos FP32 em tipos de dados de menor precisão, resultando em maior eficiência. Os palestrantes também destacam os benefícios da utilização do ONNX para computação de borda, pois o tempo de execução é flexível e pode implantar modelos em diferentes plataformas de hardware.
#OpenVINO Execution Provider para #ONNX Runtime - #OpenCV Weekly #Webinar Ep. 68
#OpenVINO Execution Provider para #ONNX Runtime - #OpenCV Weekly #Webinar Ep. 68
O OpenVINO Execution Provider for ONNX Runtime foi o principal tópico de discussão neste OpenCV Weekly Webinar. O produto visa acelerar o desempenho dos modelos ONNX em hardware Intel, exigindo o mínimo de esforço do usuário. O webinar discutiu os desafios da implantação de modelos de aprendizado profundo no mundo real, com o OpenVINO apresentado como a solução para esses desafios. O OpenVINO pode otimizar modelos de IA para desempenho eficiente em vários dispositivos e hardware. O tempo de execução ONNX, um projeto de código aberto projetado para acelerar a inferência de aprendizado de máquina, foi amplamente discutido. O webinar também apresentou uma demonstração da melhoria de desempenho obtida com o OpenVINO Execution Provider para ONNX Runtime, bem como seus recursos, como inferência multithread, suporte completo para vários plug-ins e cache de modelo. A integração entre OpenVINO e PyTorch por meio do OpenVINO Execution Provider também foi discutida. Os apresentadores abordaram questões do público sobre tópicos como compatibilidade com dispositivos ARM e perda potencial de desempenho ou precisão ao usar formatos de intercâmbio ONNX.
Importando redes neurais com ONNX
Importando redes neurais com ONNX
Este vídeo explora a importância do projeto Open Neural Network Exchange (ONNX) no aprendizado de máquina e seus benefícios na conversão de modelos em várias ferramentas. O palestrante discute os desafios de carregar modelos manualmente ou usando ferramentas automatizadas e como o ONNX elimina esse problema por meio de seu modelo computacional baseado em gráficos. O palestrante também destaca as vantagens do ONNX na conversão manual de modelos complexos e sua compatibilidade com diferentes frameworks. O vídeo aborda modelos de rede parametrizados, a estrutura do ONNX e possíveis desafios que podem surgir ao usar o projeto. Apesar desses desafios, o palestrante acredita que o ONNX prosperará devido ao apoio substancial de várias empresas.