
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
ONNX: passato, presente e futuro - Jim Spohrer, IBM e Prasanth Pulavarthi, Microsoft
ONNX: passato, presente e futuro - Jim Spohrer, IBM e Prasanth Pulavarthi, Microsoft
Il video "ONNX: Past, Present, and Future" presenta Jim Spohrer di IBM e Prasanth Pulavarthi di Microsoft che discutono della crescita e del futuro del framework AI open source ONNX. Sottolineano l'importanza di standardizzare l'implementazione dei modelli di intelligenza artificiale attraverso il formato di interscambio fornito da ONNX, consentendo un'ottimizzazione senza soluzione di continuità in diversi framework di deep learning. Inoltre, discutono dei recenti sviluppi nella capacità del runtime ONNX di lavorare con vari acceleratori hardware e offrono suggerimenti e risorse per iniziare con ONNX. I relatori rispondono alle domande del pubblico in merito alle capacità di ONNX, all'implementazione commerciale e ai piani di certificazione imminenti, esortando gli spettatori a partecipare alla comunità ONNX.
Onnx-mlir: un compilatore basato su MLIR per modelli ONNX - Lo stato più recente
Onnx-mlir: un compilatore basato su MLIR per modelli ONNX - Lo stato più recente
Onnx-mlir è un compilatore per modelli ONNX che utilizza MLIR e LLVM per l'ottimizzazione e la generazione di codice, supportando CPU e acceleratori personalizzati. Dong Lin di IBM Research sottolinea l'importanza di test approfonditi e sottolinea l'uso del framework nei servizi di punteggio online e nei framework di servizio dei modelli. Onnx-mlir ha più dialetti per CPU e acceleratore, con ottimizzazioni a vari livelli, e ha dimostrato di accelerare un modello di rilevamento delle frodi con carta di credito di 11 volte utilizzando un acceleratore IBM. Il progetto accoglie i contributi della comunità per ottimizzare operatori importanti e supportare operatori ML di nicchia e altri acceleratori come le GPU.
PFVM - Un compilatore di reti neurali che utilizza ONNX come rappresentazione intermedia
PFVM - Un compilatore di reti neurali che utilizza ONNX come rappresentazione intermedia
In questo video, Zijian Xu di Preferred Networks presenta PFVM, un compilatore di reti neurali che utilizza ONNX come rappresentazione intermedia per l'ottimizzazione dei moduli. Discute di come PFVM prende l'ONNX esportato come input, lo ottimizza ed esegue il modello con backend specificati utilizzando API di terze parti. Genji descrive l'importanza dell'ottimizzazione, inclusa l'estensione di ONNX con gli operatori dei clienti, l'inferenza delle forme e la semplificazione dei grafici. Affronta anche i limiti degli attuali compilatori ONNX, inclusa la necessità di un maggiore supporto nel caso dinamico, e suggerisce di implementare più funzioni di inferenza. Zijian Xu sottolinea l'importanza di ridurre l'overhead dell'intervallo del kernel e l'utilizzo della memoria per un calcolo più veloce e suggerisce di utilizzare le informazioni statiche disponibili sulle macchine per la pianificazione e la modellazione dell'inferenza.
Stack del compilatore TVM YVR18-332 e supporto ONNX
Stack del compilatore TVM YVR18-332 e supporto ONNX
Il video YVR18-332 illustra lo stack del compilatore TVM, che è uno stack di deep learning guidato dalla comunità che supporta una gamma di hardware e front-end, incluso ONNX. Il relatore spiega come TVM può ottimizzare i modelli a livello stereo, consentendo agli sviluppatori di esplorare lo spazio di ricerca e trovare la migliore configurazione. Discutono anche delle ottimizzazioni automatiche offerte da TVM, comprese le trasformazioni di loop e l'accelerazione GPU. L'oratore parla della roadmap TVM che include l'abilitazione del supporto a 8 bit e la sintonizzazione automatica a livello di grafico. Inoltre, discutono dell'interfaccia ONNX TV e della necessità di unificare l'interfaccia standard per tutti gli ecosistemi. Infine, il video fa una pausa per il pranzo.
progettato per esplorare lo spazio di ricerca e trovare la migliore configurazione.
.NET MAUI Community Standup - ONNX Runtime con Mike Parker
.NET MAUI Community Standup - ONNX Runtime con Mike Parker
In questo video il relatore ospite Mike Parker presenta il runtime ONNX, uno strumento open source e multipiattaforma che consente l'ottimizzazione e l'accelerazione del machine learning su più piattaforme hardware. Parker spiega l'importanza dell'utilizzo del runtime ONNX e mostra come può essere utilizzato nei progetti .NET MAUI per classificare le immagini utilizzando il modello di classificazione degli oggetti MobileNet. Gli host e Parker discutono dei vantaggi dell'esecuzione di modelli di machine learning su un dispositivo e della possibilità di evitare i costi dell'infrastruttura di back-end. Inoltre, il team condivide risorse utili, tra cui il blog di Parker su questo argomento e la partnership con Al Blount per il supporto di .NET MAUI e Xamarin.
[Virtual meetup] Interoperable AI: ONNX e ONNXRuntime in C++ (M. Arena, M. Verasani)
[Virtual meetup] Interoperable AI: ONNX e ONNXRuntime in C++ (M. Arena, M. Verasani)
Il video discute le sfide dell'utilizzo di diversi framework per addestrare algoritmi di machine learning, che portano a una mancanza di interoperabilità, e introduce ONNX e ONNXRuntime che mirano a creare un formato universale per i modelli di deep learning. ONNX converte le reti neurali in grafici computazionali statici, consentendo prestazioni ottimizzate durante l'inferenza. ONNXRuntime consente la conversione di qualsiasi framework in formato ONNX e fornisce librerie di accelerazione che possono essere utilizzate per indirizzare qualsiasi piattaforma hardware. Il video presenta esempi di utilizzo di ONNX e ONNXRuntime, oltre a discutere il loro utilizzo in C++ e fornire consigli per una migliore comprensione del progetto e della relativa documentazione.
Marco Arena e Matteo Verasani discutono anche dei vantaggi dell'utilizzo di ONNX e ONNXRuntime in C++ per i modelli di machine learning, evidenziando la flessibilità del framework e la sua capacità di convertire facilmente modelli da diversi framework senza sacrificare le prestazioni. Forniscono esempi di conversione di modelli in formato ONNX e dimostrano l'uso di ONNXRuntime per la modalità di inferenza, mostrando miglioramenti nelle prestazioni con un modello Python classico. Inoltre, discutono del loro lavoro con i sistemi embedded e dei potenziali vantaggi del benchmarking ONNXRuntime su GPU. I relatori menzionano anche futuri incontri virtuali ed esprimono la speranza di incorporare maggiori opportunità di networking per i partecipanti.
[CppDay20] AI interoperabile: ONNX e ONNXRuntime in C++ (M. Arena, M.Verasani)
[CppDay20] AI interoperabile: ONNX e ONNXRuntime in C++ (M. Arena, M.Verasani)
L'uso di algoritmi di machine learning e deep learning è in aumento e sono necessari strumenti in grado di implementare questi algoritmi su piattaforme diverse. Lo strumento ONNX fornisce l'interoperabilità tra diversi framework e piattaforme, consentendo agli sviluppatori di convertire i loro algoritmi da un framework all'altro e distribuirli su dispositivi diversi, anche se non hanno familiarità con il framework o la piattaforma specifica. ONNX Runtime è un motore di inferenza che può sfruttare acceleratori personalizzati per accelerare i modelli durante la fase di inferenza e può scegliere come target una varietà di piattaforme hardware. I relatori dimostrano l'uso di ONNX e ONNX Runtime nella programmazione C++, con esempi di regressione lineare e modelli di reti neurali. Discutono inoltre dei vantaggi dell'utilizzo di ONNX e ONNX Runtime per ottimizzare l'esecuzione di una rete, ottimizzare i tempi di caricamento ed eseguire immagini sequenziali.
Accelerazione del machine learning con ONNX Runtime e Hugging Face
Accelerazione del machine learning con ONNX Runtime e Hugging Face
Il video "Accelerare l'apprendimento automatico con ONNX Runtime e Hugging Face" discute la creazione della libreria Optimum di Hugging Face, che si concentra sull'accelerazione dei modelli di trasformatore dall'addestramento all'inferenza applicando facilmente il runtime ONNX. La libreria semplifica il ponte tra la libreria del trasformatore e l'accelerazione hardware, creando un toolkit di facile utilizzo per le prestazioni di produzione. Applicando le ottimizzazioni fornite da ONNX Runtime, gli utenti possono beneficiare di tutta l'accelerazione hardware, con conseguenti pipeline di inferenza più veloci. Una collaborazione all'interno della comunità Hugging Face sta abilitando l'ottimizzazione del modello da sequenza a sequenza utilizzando queste classi di pipeline di inferenza accelerata e un esempio end-to-end ha mostrato che l'utilizzo della libreria Optimum può comportare un aumento del throughput del 44% o una diminuzione della latenza conservando 99,6% della precisione del modello originale.
Accelerazione dell'inferenza ML su larga scala con ONNX, Triton e Seldon | PyData globale 2021
Accelerazione dell'inferenza ML su larga scala con ONNX, Triton e Seldon | PyData globale 2021
Nel video "Accelerating ML Inference at Scale with ONNX, Triton and Seldon | PyData Global 2021", Alejandro Saucedo di Seldon Technologies discute le sfide della scalabilità dell'inferenza di machine learning e come utilizzare ONNX e Triton per ottimizzare e produrre modelli. Utilizzando il modello GPT-2 TensorFlow come caso d'uso, la sessione copre la pre-elaborazione, la selezione di token ottimali e la distribuzione del modello utilizzando Tempo e il server di inferenza Triton. Saucedo sottolinea la necessità di astrarre le complessità dell'infrastruttura e facilitare una facile implementazione garantendo al tempo stesso riproducibilità e conformità. Il discorso si conclude con collaborazioni con progetti open source per la formazione end-to-end e componenti di distribuzione.
AI Show Live - Episodio 62 - Inferenza multipiattaforma con ONNX Runtime
AI Show Live - Episodio 62 - Inferenza multipiattaforma con ONNX Runtime
Nell'episodio "Multiplatform Inference with the ONNX Runtime" di AI Show Live, gli host mostrano come distribuire un modello di super risoluzione e un modello di rilevamento degli oggetti su più piattaforme utilizzando il framework ONNX Runtime. Discutono le fasi di pre-elaborazione e post-elaborazione per entrambe le piattaforme mobile e web, dimostrano i vantaggi dell'utilizzo di un'unica soluzione, spiegano il processo di conversione di un modello PyTorch in un modello ONNX e mostrano come pre-elaborare i dati per l'inferenza con ONNX Tempo di esecuzione. Inoltre, dimostrano l'implementazione del modello di elaborazione del linguaggio naturale BERT utilizzando Onnx Runtime in C#. Il codice ei modelli open source sono disponibili per la personalizzazione per le soluzioni degli utenti.
Nella seconda parte dell'AI Show Live, i relatori trattano una varietà di argomenti relativi all'inferenza della corsa con ONNX Runtime. Dimostrano il processo di classificazione del testo utilizzando un esempio tratto dagli esempi di inferenza ONNX ed esplorano l'installazione di pacchetti e strumenti necessari per creare modelli di classificazione BERT in C#. Discutono anche dell'uso di IntelliCode con VS 2022 e illustrano i passaggi della preparazione per l'inferenza del modello, inclusa la creazione di tensori, la configurazione della sessione di inferenza del runtime ONNX e la post-elaborazione dell'output. Inoltre, toccano l'importanza di consultare la documentazione del modello e selezionare il tokenizer corretto per risultati accurati.