Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Importando e exportando redes neurais com ONNX
Importando e exportando redes neurais com ONNX
O vídeo demonstra o uso do ONNX como uma especificação de plataforma cruzada e formato de arquivo para modelos de aprendizado de máquina para trocar modelos entre diferentes estruturas de rede neural. Os palestrantes mostram como importar e exportar redes neurais usando ONNX por meio do Mathematica e Keras, e como inspecionar e importar metadados, bem como definir metadados ao exportar. Eles também discutem a exportação e importação de modelos entre Core ML, PyTorch e Wolfram Language e a importância de usar o deslocamento correto durante a conversão. Os palestrantes discutem o futuro do ONNX, incluindo a expansão do suporte para importação e exportação, melhorando casos desafiadores para o importador e permitindo a exportação para várias versões de conjuntos de operadores. Além disso, o palestrante explica a diferença entre ONNX e MXNet e fornece informações sobre como verificar quais funções podem ser exportadas para ONNX usando utilitários internos.
Convertendo o modelo Tensorflow para o formato ONNX - Detecção de emoções humanas
Convertendo o modelo Tensorflow para o formato Onnx - Detecção de emoções humanas
O vídeo discute os benefícios da conversão de modelos TensorFlow pré-treinados para o formato ONNX, que fornece um formato comum para representar modelos de aprendizado de máquina que podem ser interpretados em diferentes plataformas de hardware usando o tempo de execução ONNX. Ao converter modelos, os desenvolvedores podem executá-los com mais eficiência em diferentes estruturas ou usá-los mais facilmente com outros profissionais. O vídeo demonstra o processo de conversão de modelos TensorFlow e Keras para o formato ONNX usando ferramentas e especificações fornecidas no repositório ONNX GitHub e destaca como o formato ONNX otimiza o modelo e reduz o tempo de execução para previsões. O modelo ONNX também supera o modelo TensorFlow para detecção de emoções humanas em uma CPU.
Como converter quase qualquer modelo PyTorch para ONNX e servi-lo usando flask
Como converter quase qualquer modelo PyTorch para ONNX e servi-lo usando flask
O tutorial em vídeo demonstra como converter um modelo PyTorch para o formato ONNX e servi-lo usando o Flask. O apresentador começa importando o conjunto de dados e definindo o modelo usando dados paralelos, seguido pelo carregamento dos pesos do modelo e exportando-o para o ONNX. O vídeo mostra como criar um endpoint Flask para atender ao modelo ONNX, seguido pela conversão de tensores em matrizes numpy e obtenção da saída do modelo. O alto-falante também aplica a função sigmoide à saída do modelo para convertê-la em uma probabilidade entre 0 e 1. Por fim, ele muda o dispositivo para a CPU para uma comparação justa e demonstra o tempo de resposta mais rápido da API. O vídeo conclui observando que há muitas maneiras de otimizar os modelos ONNX para melhorar o desempenho e convidar os espectadores a compartilhar seus comentários na seção de comentários.
Como converter o modelo PyTorch para Tensorflow | onnx.ai | Aprendizado de Máquina | dados mágicos
Como converter o modelo PyTorch para Tensorflow | onnx.ai | Aprendizado de Máquina | dados mágicos
Neste vídeo, o apresentador demonstra como usar a biblioteca Open Neural Network Exchange (ONNX) para converter um modelo PyTorch em um modelo TensorFlow. Os benefícios e o uso da biblioteca ONNX são discutidos em detalhes, com um modelo PyTorch criado para identificar números manuscritos usados como exemplo. O processo de treinar o modelo e convertê-lo no formato ONNX é mostrado, antes de carregá-lo no TensorFlow para previsão em imagens de amostra. O modelo TensorFlow resultante é salvo como um arquivo .pb, mostrando como a biblioteca ONNX pode ser usada para converter qualquer modelo PyTorch em TensorFlow.
Como converter modelos Tensorflow/tflite em ONNX
Como converter modelos Tensorflow/tflite em ONNX para importá-los para a unidade
tf2onnx converte modelos TensorFlow (tf-1.x ou tf-2.x), tf.keras e tflite em ONNX via linha de comando ou API Python.
https://github.com/onnx/tensorflow-onnx
Converta o modelo Pytorch (pytorch Lightning) em modelo onnx com tamanho de lote variável
Converta o modelo Pytorch (pytorch Lightning) para o modelo ONNX com tamanho de lote variável
Neste tutorial, aprenderemos como converter o modelo Pytorch (pytorch Lightning) para o modelo ONNX com tamanho de lote variável/dinâmico.
Suporte de exportação PyTorch ONNX - Lara Haidar, Microsoft
Suporte de exportação PyTorch ONNX - Lara Haidar, Microsoft
Lara Haidar, da Microsoft, explica as vantagens do recurso de exportação de modelo PyTorch ONNX, permitindo que os modelos sejam movidos da pesquisa para a produção e executados em vários hardwares. Ela afirma que o tempo de execução ONNX se tornou muito popular, com milhões de dispositivos usando-o agora e obtendo notáveis ganhos de desempenho. Além disso, o ONNX Export Support agora inclui melhorias na cobertura do modelo, otimização de desempenho e suporte de back-end para garantir que os modelos possam ser executados em várias versões com diferentes back-ends. Por fim, Lara incentiva os usuários a testar os modelos exportados e compartilhar feedback para aprimorar ainda mais o recurso.
296 - Convertendo o modelo treinado keras para o formato ONNX - Exemplo de classificação de imagem
296 - Convertendo o modelo treinado keras para o formato ONNX - Exemplo de classificação de imagem
O tutorial em vídeo abrange o processo de conversão de um modelo de classificação de imagem treinado Keras para o formato ONNX para implantação. O palestrante mostra como criar um modelo usando Keras, compilá-lo e salvá-lo como um arquivo H5 antes de convertê-lo para o formato ONNX. Eles fornecem um guia passo a passo sobre como importar as bibliotecas necessárias para conversão ONNX, como carregar o modelo H5 salvo e como convertê-lo para o formato ONNX usando uma única linha de código. O apresentador então demonstra como usar o modelo ONNX resultante em uma sessão de tempo de execução ONNX, mostra como prever classes em um exemplo de classificação de imagem usando ONNX e compara as probabilidades das previsões usando ONNX e Keras. O palestrante enfatiza a eficácia e as vantagens de usar o ONNX para implantação e observa a simplicidade de converter um arquivo HDF existente em ONNX.
297 - Convertendo o modelo treinado keras para o formato ONNX - Segmentação semântica
297 - Convertendo o modelo treinado keras para o formato ONNX - Segmentação semântica
Este vídeo se concentra na conversão de um modelo treinado por keras para o formato ONNX para segmentação semântica de imagens de microscopia eletrônica de mitocôndrias. O apresentador fornece etapas detalhadas sobre como cortar e carregar imagens, usar técnicas de aumento de dados, definir geradores para treinamento e validação, treinar e salvar o modelo. O vídeo também cobre a conversão do modelo para o formato ONNX usando a biblioteca tf2onnx.convert e usando o modelo ONNX para previsão. O apresentador destaca as melhores práticas de treinamento e conversão e fornece links para seus vídeos anteriores sobre segmentação multiclasse. O tutorial termina com o apresentador afirmando que este é o fim da série ONNX e eles irão focar em outros tópicos no próximo vídeo.
Usando ONNX com dispositivos qualificados da Qualcomm, desde smartphones até a borda da nuvem e tudo mais
Usando ONNX com dispositivos qualificados da Qualcomm, desde smartphones até a borda da nuvem e tudo mais
O uso do formato de intercâmbio ONNX em toda a gama de dispositivos da Qualcomm ajuda a oferecer suporte a modelos em todos os seus dispositivos. A Qualcomm enfrenta arquiteturas desafiadoras ao oferecer suporte a diferentes dispositivos e modelos variados, mas o ONNX ajuda a obter escalabilidade em verticais, dispositivos poderosos e regiões geográficas. A Qualcomm trabalhou com a Microsoft para criar um provedor executor de tempo de execução ONNX que permite que os modelos ONNX sejam executados em dispositivos Qualcomm, incluindo aqueles que executam o Windows. A pilha de software unificada inclui uma biblioteca chamada mecanismo AI que pode rotear o modelo ONNX dinamicamente para diferentes aceleradores para obter o melhor desempenho, com ferramentas adicionais disponíveis, como criadores de perfil, compiladores e analisadores para otimizar modelos.