Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Dia da Comunidade ONNX! Transmitido ao vivo em 24 de junho de 2022
Este evento está sendo realizado pessoalmente no novíssimo Microsoft Silicon Valley Campus na sexta-feira, 24 de junho.
O evento cobrirá as atualizações da comunidade ONNX, histórias de parceiros e usuários e muitas redes da comunidade.
Dia da Comunidade ONNX!
Sumário breve:
O resumo detalhado da linha do tempo:
ONNX: Passado, Presente e Futuro - Jim Spohrer, IBM e Prasanth Pulavarthi, Microsoft
ONNX: Passado, Presente e Futuro - Jim Spohrer, IBM e Prasanth Pulavarthi, Microsoft
O vídeo "ONNX: Passado, Presente e Futuro" apresenta Jim Spohrer, da IBM, e Prasanth Pulavarthi, da Microsoft, discutindo o crescimento e o futuro da estrutura de IA de código aberto ONNX. Eles destacam a importância de padronizar a implantação dos modelos de IA por meio do formato de intercâmbio fornecido pelo ONNX, permitindo a otimização contínua em diferentes estruturas de aprendizado profundo. Além disso, eles discutem os desenvolvimentos recentes na capacidade do tempo de execução do ONNX de trabalhar com vários aceleradores de hardware e oferecem dicas e recursos para começar a usar o ONNX. Os palestrantes respondem a perguntas do público sobre os recursos do ONNX, implantação comercial e planos de certificação futuros, enquanto incentivam os espectadores a se envolverem na comunidade ONNX.
Onnx-mlir: um compilador baseado em MLIR para modelos ONNX - o status mais recente
Onnx-mlir: um compilador baseado em MLIR para modelos ONNX - o status mais recente
Onnx-mlir é um compilador para modelos ONNX que utiliza MLIR e LLVM para otimização e geração de código, suportando CPUs e aceleradores customizados. Dong Lin, da IBM Research, enfatiza a importância de testes completos e destaca o uso da estrutura em serviços de pontuação online e estruturas de serviço de modelo. Onnx-mlir tem vários dialetos para CPU e acelerador, com otimizações em vários níveis, e demonstrou acelerar um modelo de detecção de fraude de cartão de crédito em 11 vezes usando um acelerador IBM. O projeto recebe contribuições da comunidade para otimizar operadores importantes e oferecer suporte a operadores de ML de nicho e outros aceleradores, como GPUs.
PFVM - Um compilador de rede neural que usa ONNX como sua representação intermediária
PFVM - Um compilador de rede neural que usa ONNX como sua representação intermediária
Neste vídeo, Zijian Xu, da Preferred Networks, apresenta o PFVM, um compilador de rede neural que usa ONNX como representação intermediária para otimização de módulo. Ele discute como o PFVM usa o ONNX exportado como entrada, o otimiza e executa o modelo com back-ends especificados usando APIs de terceiros. Genji descreve a importância da otimização, incluindo a extensão do ONNX com operadores de clientes, inferência de formas e simplificação de gráficos. Ele também aborda as limitações dos compiladores ONNX atuais, incluindo a necessidade de mais suporte no caso dinâmico e sugere a implementação de mais funções de inferência. Zijian Xu enfatiza a importância de reduzir a sobrecarga do intervalo do kernel e o uso de memória para uma computação mais rápida e sugere a utilização de informações estáticas disponíveis nas máquinas para agendamento e modelagem de inferência.
Pilha do compilador YVR18-332 TVM e suporte ONNX
Pilha do compilador YVR18-332 TVM e suporte ONNX
O vídeo YVR18-332 discute a pilha do compilador TVM, que é uma pilha de aprendizado profundo liderada pela comunidade que oferece suporte a uma variedade de hardware e front-ends, incluindo ONNX. O palestrante discute como o TVM pode otimizar modelos no nível estéreo, permitindo que os desenvolvedores explorem o espaço de busca e encontrem a melhor configuração. Eles também discutem as otimizações automáticas que o TVM oferece, incluindo transformações de loop e aceleração de GPU. O palestrante fala sobre o roteiro da TVM, que inclui a ativação do suporte a 8 bits e o ajuste automatizado no nível do gráfico. Além disso, eles discutem a interface ONNX TV e a necessidade de unificar a interface padrão para todos os ecossistemas. Finalmente, o vídeo faz uma pausa para o almoço.
projetado para explorar o espaço de busca e encontrar a melhor configuração.
Standup da comunidade .NET MAUI - ONNX Runtime com Mike Parker
Standup da comunidade .NET MAUI - ONNX Runtime com Mike Parker
Neste vídeo, o palestrante convidado Mike Parker apresenta o tempo de execução ONNX, uma ferramenta de plataforma cruzada e de código aberto que permite a otimização e a aceleração do aprendizado de máquina em várias plataformas de hardware. Parker explica a importância de usar o tempo de execução ONNX e mostra como ele pode ser usado em projetos .NET MAUI para classificar imagens usando o modelo de classificação de objetos MobileNet. Os anfitriões e Parker discutem os benefícios de executar modelos de aprendizado de máquina em um dispositivo e a capacidade de evitar custos de infraestrutura de back-end. Além disso, a equipe compartilha recursos úteis, incluindo o blog de Parker sobre esse assunto e sua parceria com Al Blount para suporte a .NET MAUI e Xamarin.
[Encontro virtual] IA interoperável: ONNX e ONNXRuntime em C++ (M. Arena, M. Verasani)
[Encontro virtual] IA interoperável: ONNX e ONNXRuntime em C++ (M. Arena, M. Verasani)
O vídeo discute os desafios de usar diferentes estruturas para treinar algoritmos de aprendizado de máquina, levando à falta de interoperabilidade, e apresenta ONNX e ONNXRuntime que visam criar um formato universal para modelos de aprendizado profundo. O ONNX converte redes neurais em gráficos computacionais estáticos, permitindo um desempenho otimizado durante a inferência. O ONNXRuntime permite a conversão de qualquer estrutura para o formato ONNX e fornece bibliotecas de aceleração que podem ser usadas para atingir qualquer plataforma de hardware. O vídeo mostra exemplos de uso de ONNX e ONNXRuntime, além de discutir seu uso em C++ e fornecer orientações para melhor entendimento do projeto e sua documentação.
Marco Arena e Matteo Verasani também discutem os benefícios de usar ONNX e ONNXRuntime em C++ para modelos de aprendizado de máquina, destacando a flexibilidade da estrutura e sua capacidade de converter facilmente modelos de diferentes estruturas sem sacrificar o desempenho. Eles fornecem exemplos de conversão de modelos para o formato ONNX e demonstram o uso do ONNXRuntime para o modo de inferência, apresentando melhorias no desempenho com um modelo Python clássico. Além disso, eles discutem seu trabalho com sistemas embarcados e os potenciais benefícios do benchmarking ONNXRuntime em GPUs. Os palestrantes também mencionam futuros encontros virtuais e expressam esperança de incorporar mais oportunidades de networking para os participantes.
[CppDay20] IA interoperável: ONNX e ONNXRuntime em C++ (M. Arena, M.Verasani)
[CppDay20] IA interoperável: ONNX e ONNXRuntime em C++ (M. Arena, M.Verasani)
O uso de algoritmos de aprendizado de máquina e aprendizado profundo está aumentando e há necessidade de ferramentas que possam implantar esses algoritmos em diferentes plataformas. A ferramenta ONNX oferece interoperabilidade entre diferentes frameworks e plataformas, permitindo que os desenvolvedores convertam seus algoritmos de um framework para outro e os implantem em diferentes dispositivos, mesmo que não estejam familiarizados com o framework ou plataforma específica. O ONNX Runtime é um mecanismo de inferência que pode aproveitar aceleradores personalizados para acelerar modelos durante o estágio de inferência e pode ser direcionado a uma variedade de plataformas de hardware. Os palestrantes demonstram o uso de ONNX e ONNX Runtime em programação C++, com exemplos de regressão linear e modelos de redes neurais. Eles também discutem os benefícios de usar o ONNX e o ONNX Runtime para ajustar a execução de uma rede, otimizar o tempo de carregamento e executar imagens sequenciais.
Acelerando o Machine Learning com ONNX Runtime e Hugging Face
Acelerando o Machine Learning com ONNX Runtime e Hugging Face
O vídeo "Acelerando o aprendizado de máquina com ONNX Runtime e Hugging Face" discute a criação da biblioteca Optimum do Hugging Face, que se concentra na aceleração de modelos de transformadores desde o treinamento até a inferência, aplicando facilmente o tempo de execução ONNX. A biblioteca simplifica a ponte entre a biblioteca do transformador e a aceleração de hardware, criando um kit de ferramentas fácil de usar para desempenho de produção. Ao aplicar as otimizações fornecidas pelo ONNX Runtime, os usuários podem se beneficiar de toda a aceleração de hardware, resultando em pipelines de inferência mais rápidos. Uma colaboração dentro da comunidade Hugging Face está permitindo a otimização do modelo de sequência a sequência usando essas classes de pipeline de inferência acelerada, e um exemplo de ponta a ponta mostrou que o uso da Optimum Library pode resultar em um aumento de 44% na taxa de transferência ou diminuição da latência enquanto conserva 99,6% da precisão do modelo original.
Acelerando a inferência de ML em escala com ONNX, Triton e Seldon | PyData Global 2021
Acelerando a inferência de ML em escala com ONNX, Triton e Seldon | PyData Global 2021
No vídeo "Acelerando a inferência de ML em escala com ONNX, Triton e Seldon | PyData Global 2021", Alejandro Saucedo, da Seldon Technologies, discute os desafios de dimensionar a inferência de aprendizado de máquina e como usar ONNX e Triton para otimizar e produzir modelos. Usando o modelo TensorFlow GPT-2 como caso de uso, a sessão abrange o pré-processamento, a seleção de tokens ideais e a implantação do modelo usando o Tempo e o servidor de inferência Triton. Saucedo enfatiza a necessidade de abstrair as complexidades da infraestrutura e facilitar a fácil implantação, garantindo a reprodutibilidade e a conformidade. A palestra termina com colaborações com projetos de código aberto para treinamento de ponta a ponta e componentes de implantação.