Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Berlin Buzzwords 2019: Lester Solbakken – escalando a avaliação do modelo ONNX e TensorFlow na pesquisa
Berlin Buzzwords 2019: Lester Solbakken – escalando a avaliação do modelo ONNX e TensorFlow na pesquisa
Lester Solbakken discute os desafios de dimensionar o aprendizado de máquina para aplicativos de pesquisa e propõe uma solução alternativa ao uso de servidores de modelo externo. Ele sugere avaliar modelos de aprendizado de máquina em nós de conteúdo, em vez de enviar dados para servidores de modelos externos, para melhorar a escalabilidade e controlar a latência e a taxa de transferência. Solbakken destaca o uso da Vespa de sua própria linguagem de classificação e extensão de API de tensor para facilitar a criação de um pacote declarativo de estado para um aplicativo e o esforço contínuo para oferecer suporte a modelos de aprendizado de máquina na Vespa. Ele enfatiza a importância de entender a correlação entre diferentes fases de classificação para evitar problemas de recuperação no nível do sistema e incentiva as pessoas a contribuir com o projeto de código aberto.
Assimilar ONNX
Assimilar ONNX
Neste vídeo, o apresentador apresenta o ONNX como um padrão aberto para interoperabilidade de aprendizado de máquina que pode funcionar em todas as plataformas diferentes. Eles passam pelo processo de criação de um projeto ONNX do zero, aprimorando um exemplo do repositório da Microsoft, solucionando problemas e explorando outros projetos do Github relacionados ao ONNX. Em seguida, eles testam uma ligação ONNX usando GPT2 e CUDA, expressando interesse em explorar as ligações Rust de tempo de execução ONNX ainda mais no futuro. O apresentador nota a versatilidade e portabilidade do ONNX e o vê como uma boa ferramenta para experimentação e construção de projetos mais substanciais no futuro.
HITNET vs. Comparação de estimativa de profundidade estéreo neural ACVNet (ONNX)
HITNET vs. Comparação de estimativa de profundidade estéreo neural ACVNet (ONNX)
Comparação dos modelos de estimativa de profundidade estéreo HITNET e ACVNet no conjunto de dados Driving Stereo.
Detalhes da inferência do modelo (NVIDIA 1660 SUPER):
HITNET (640X480): 220ms
ACVNet (640x384): 480ms
Referências: [HITNET Inference] https://github.com/ibaiGorordo/ONNX-HITNET-Stereo-Depth-estimation
[Inferência ACVNet] https://github.com/ibaiGorordo/ONNX-ACVNet-Stereo-Depth-Estimation
[Driving Stereo dataset] https://drivingstereo-dataset.github.io/
Importe, treine e otimize modelos ONNX com NVIDIA TAO Toolkit
Importe, treine e otimize modelos ONNX com NVIDIA TAO Toolkit
O vídeo mostra como usar o NVIDIA TAO Toolkit para importar, treinar e otimizar modelos ONNX. Ele começa baixando um modelo ResNet18 pré-treinado, ajustando-o com TAO no conjunto de dados Pascal VOC e fornece etapas para importar o modelo e visualizar o gráfico ONNX. O progresso do treinamento pode ser monitorado usando a visualização TensorBoard, e camadas personalizadas podem ser usadas em caso de erros de conversão ONNX. O vídeo também explica como avaliar o desempenho do modelo observando a perda decrescente, validando a perda e analisando pesos e vieses. Os usuários podem avaliar a precisão do modelo no conjunto de dados de teste e imagens de amostra e continuar com a remoção e otimização para melhorá-lo ainda mais.
Webinar NVAITC: Implantando modelos com TensorRT
Webinar NVAITC: Implantando modelos com TensorRT
Nesta seção do webinar NVAITC, a arquiteta de soluções Nikki Loppie apresenta o TensorRT, o kit de desenvolvimento de software da NVIDIA para inferência de deep learning de alto desempenho. O TensorRT fornece um otimizador de inferência e tempo de execução para inferência de baixa latência e alta taxa de transferência em uma variedade de plataformas, de dispositivos incorporados a data centers. Loppie explica as cinco tecnologias que o TensorRT usa para otimizar o desempenho de inferência, incluindo fusão de kernel e calibração de precisão. Os desenvolvedores podem usar as APIs Python e C++ do TensorRT para incorporar essas otimizações em seus próprios aplicativos, e bibliotecas conversoras como trtorch podem ser usadas para otimizar modelos PyTorch para inferência. Loppie demonstra como salvar modelos otimizados do TensorRT usando a biblioteca trtorch e compara os modelos otimizados com modelos não otimizados para classificação de imagem, mostrando aumentos de velocidade significativos com meia precisão.
ESP tutorial - Como: projetar um acelerador em Keras/Pytorch/ONNX
ESP tutorial - Como: projetar um acelerador em Keras/Pytorch/ONNX
O tutorial apresenta uma ferramenta chamada Chalice for ML, que pode gerar automaticamente um acelerador a partir de um modelo Keras/Pytorch/ONNX. O tutorial passa a demonstrar como integrar o acelerador no ESP (Early Stage Prototyper). O palestrante também mostra como projetar um acelerador em Keras/Pytorch/ONNX e percorre as etapas de importação de um acelerador, adição de banco de teste, geração de RTL e criação de duas versões do acelerador. O vídeo também aborda a compilação do Linux e a criação de um aplicativo de espaço do usuário do Linux para o acelerador. Finalmente, o tutorial termina com recursos para aprendizado adicional.
Inferência otimizada em hardware flexível com ONNX Runtime
Inferência otimizada em hardware flexível com ONNX Runtime
Este tutorial aborda a implantação de modelos em CPU, GPU e OpenVINO usando o ONNX Runtime. O palestrante demonstra o uso de diferentes provedores de execução, incluindo OpenVINO, para inferência em hardware flexível. O código para inferência é basicamente o mesmo em todos os ambientes, com a principal diferença sendo o provedor de execução. O ONNX Runtime realiza inferências mais rapidamente do que o PyTorch na CPU e na GPU, e existe uma biblioteca ONNX Runtime separada para o OpenVINO. No geral, o tutorial fornece uma visão geral de como implantar modelos em várias opções de hardware usando o ONNX Runtime.
Inferência de aprendizado de máquina no Flink com ONNX
Inferência de aprendizado de máquina no Flink com ONNX
O vídeo discute os benefícios e a implementação do uso de ONNX na inferência de aprendizado de máquina e sua implantação na estrutura de computação distribuída, Flink. A separação de preocupações entre treinamento de modelo e inferência de produção, a capacidade de definir especificações para entradas e saídas e a independência de linguagem tornam o ONNX uma ferramenta valiosa para cientistas de dados. O vídeo demonstra como carregar um modelo ONNX no Flink, fornecendo os principais componentes da função de mapa avançado e explicando como agrupar os modelos com o código usando um arquivo jar. O palestrante também aborda considerações como gerenciamento de memória, otimização de lote e aceleração de hardware com ONNX e enfatiza seus benefícios para inferência de aprendizado de máquina em tempo real no Flink.
Improving the online shopping experience with ONNX
Improving the online shopping experience with ONNX
This video discusses how e-commerce companies are using AI to create impactful insights that differentiate winning and losing in the online retail space. The speaker provides an example of Bazaar Voice, the largest network of brands and retailers that provide over 8 billion total reviews, and how they use product matching to share reviews. The speaker then describes how they developed a machine learning model in Python, exported it to ONNX format, and deployed it to a serverless function using a node environment to run inference on an ONNX runtime. This solution allows for high-speed matching of hundreds of millions of products across thousands of client catalogs while maintaining low costs, resulting in significant cost savings and millions of extra reviews for brands and retailers. The speaker concludes by inviting viewers to explore more ways of using the capabilities of ONNX and sharing their use cases for future technological advancements.
DSS on-line nº 4: implantação de aprendizado profundo de ponta a ponta com ONNX
DSS on-line nº 4: implantação de aprendizado profundo de ponta a ponta com ONNX
Este vídeo discute os desafios da implantação de aprendizado profundo de ponta a ponta, incluindo o gerenciamento de diferentes linguagens, estruturas, dependências e variabilidade de desempenho, bem como atrito entre equipes e bloqueios de formato proprietário. O Open Neural Network Exchange (ONNX) é apresentado como um formato baseado em buffer de protocolo para serialização de aprendizado profundo. Ele suporta as principais estruturas de aprendizado profundo e fornece um artefato independente para executar o modelo. O ONNX ML também é discutido como parte da especificação ONNX que fornece suporte para o pré-processamento tradicional de aprendizado de máquina. As limitações do ONNX são reconhecidas, mas ele é visto como um projeto em rápido crescimento com forte apoio de grandes organizações que oferece verdadeira portabilidade em diferentes dimensões de linguagens, estruturas, tempos de execução e versões.