Imparare ONNX per il trading - pagina 8

 

Conversione del modello Tensorflow in formato ONNX - Rilevamento delle emozioni umane



Conversione del modello Tensorflow in formato Onnx - Rilevamento delle emozioni umane

Il video illustra i vantaggi della conversione di modelli TensorFlow pre-addestrati in formato ONNX, che fornisce un formato comune per rappresentare modelli di machine learning che possono essere interpretati su diverse piattaforme hardware utilizzando il runtime ONNX. Convertendo i modelli, gli sviluppatori possono eseguirli in modo più efficiente in diversi framework o utilizzarli più facilmente con altri professionisti. Il video mostra il processo di conversione dei modelli TensorFlow e Keras in formato ONNX utilizzando gli strumenti e le specifiche fornite nel repository ONNX GitHub e sottolinea come il formato ONNX ottimizzi il modello e riduca il tempo di esecuzione per le previsioni. Il modello ONNX supera anche il modello TensorFlow per il rilevamento delle emozioni umane su una CPU.

  • 00:00:00 In questa sezione del video, il presentatore discute il formato ONNX, che sta per scambio di reti neurali aperte. Lo standard ONNX, sviluppato congiuntamente da Microsoft, Facebook e AWS, fornisce un formato comune per rappresentare modelli di machine learning che possono essere interpretati su diverse piattaforme hardware utilizzando il runtime ONNX. Convertendo i modelli TensorFlow preaddestrati in formato ONNX, gli sviluppatori possono quindi convertirli in modelli in altri framework come PyTorch, consentendo ai modelli di funzionare in modo ancora più efficiente in un framework diverso o essere utilizzati da altri professionisti. Il runtime ONNX è un motore di inferenza leggero e modulare che consente agli sviluppatori di eseguire modelli ONNX su qualsiasi piattaforma hardware scelta. Nel complesso, il relatore sottolinea la flessibilità e la facilità di conversione dei modelli nel formato ONNX, rendendo più facile per gli sviluppatori lavorare con qualsiasi framework scelgano, garantendo al tempo stesso che i loro modelli possano essere eseguiti anche su qualsiasi piattaforma hardware.

  • 00:05:00 In questa sezione, il video illustra il processo di conversione di un modello TensorFlow nel formato ONNX utilizzando lo strumento TensorFlow to ONNX e il runtime ONNX. Il video spiega che mentre il modello TensorFlow iniziale aveva una dimensione di quasi un gigabyte e richiedeva la stessa quantità di spazio per l'implementazione, la versione ONNX ottimizzata è di soli 327 megabyte. Inoltre, il video mostra come convertire un modello Keras nel formato ONNX utilizzando le specifiche fornite nel repository ONNX GitHub. Infine, il video termina menzionando che il modello convertito può essere testato per l'inferenza.

  • 00:10:00 In questa sezione, il relatore spiega come eseguire un modello ONNX utilizzando il runtime ONNX, che elimina la necessità di TensorFlow, dimostrando un modello di rilevamento delle emozioni in esecuzione su una CPU. Innanzitutto, il relatore mostra come specificare il provider di esecuzione della CPU e importare il runtime ONNX. Successivamente, il relatore sottolinea l'importanza di specificare correttamente i nomi di output e trasmette un'immagine di input utilizzando NumPy invece di TensorFlow. Il modello ONNX, che fornisce le probabilità per le emozioni, è in grado di rilevare l'emozione nell'immagine di input e produrre le stesse probabilità molto più velocemente poiché non richiede TensorFlow. Importando la libreria temporale, il relatore dimostra la differenza di velocità tra l'esecuzione del modello di rilevamento delle emozioni con TensorFlow e il runtime ONNX.

  • 00:15:00 In questa sezione del video, il presentatore mostra come misurare il tempo di inferenza per i modelli TensorFlow e ONNX utilizzando sia una CPU che una GPU. Il modello TensorFlow con GPU impiega 0,15 secondi per essere eseguito, mentre il modello ONNX con CPU impiega 0,5 secondi. Il presentatore installa quindi il runtime ONNX con una GPU e riavvia il runtime per prendere in considerazione la versione della GPU. Infine, il tempo di inferenza per il modello ONNX con una GPU viene misurato e confrontato con il modello TensorFlow.

  • 00:20:00 In questa sezione, il video mostra il processo di conversione di un modello TensorFlow in un formato ONNX e come può ottimizzare il modello TensorFlow iniziale. Il formato ONNX consente di ottimizzare il modello e ridurre il tempo di esecuzione delle previsioni. Il video mostra l'esecuzione del modello TensorFlow originale con GPU e CPU, quindi il formato ONNX con GPU, seguito dal test di entrambi i modelli con 100 previsioni per misurare il tempo medio per previsione. Il modello ONNX ha comportato un tempo medio impiegato di 23 millisecondi per una singola previsione, sei volte più veloce del modello TensorFlow iniziale.

  • 00:25:00 In questa sezione, il relatore discute le prestazioni del modello ONNX rispetto al modello Tensorflow per il rilevamento delle emozioni umane. Utilizzando una CPU, il modello ONNX funziona circa due volte più velocemente del modello Tensorflow. Il relatore fornisce un esempio specifico, affermando che 0,8 diviso 0,35 è stato eseguito con entrambi i modelli e il modello Onnx ha superato Tensorflow.
 

Come convertire quasi tutti i modelli PyTorch in ONNX e servirli utilizzando flask



Come convertire quasi tutti i modelli PyTorch in ONNX e servirli utilizzando flask

Il video tutorial mostra come convertire un modello PyTorch in formato ONNX e servirlo utilizzando Flask. Il relatore inizia con l'importazione del set di dati e la definizione del modello utilizzando il parallelo dei dati, seguito dal caricamento dei pesi del modello e dall'esportazione in ONNX. Il video mostra come creare un endpoint Flask per servire il modello ONNX, seguito dalla conversione dei tensori in array numpy e dall'ottenimento dell'output dal modello. L'oratore applica anche la funzione sigmoide all'output del modello per convertirlo in una probabilità compresa tra 0 e 1. Infine, passa il dispositivo alla CPU per un confronto equo e dimostra il tempo di risposta più rapido dell'API. Il video si conclude osservando che esistono molti modi per ottimizzare i modelli ONNX per migliorare le prestazioni e invitando gli spettatori a condividere il proprio feedback nella sezione dei commenti.

  • 00:00:00 In questa sezione, il video illustra come convertire i modelli PyTorch in formato ONNX e come creare un endpoint Flask per servirlo. Il video utilizza il modello del sentimento degli uccelli come modello base, con lievi modifiche ai parametri di lunghezza massima e dimensione del batch. Il video passa quindi all'importazione delle dipendenze necessarie e alla scrittura della funzione principale per la conversione, inclusa la specifica della forma di input. Il video spiega anche come salvare il modello convertito e come creare un endpoint Flask per servire il modello.

  • 00:05:00 In questa sezione del video, il relatore spiega come convertire un modello PyTorch in ONNX e servirlo utilizzando Flask. Iniziano importando il set di dati e quindi definendo il modello utilizzando il parallelo dei dati. Successivamente, caricano i pesi del modello e mettono il modello in modalità di valutazione. Mostrano come ottenere gli input osservando il modello e determinando che gli input sono ID, maschera e ID di tipo token. Il presentatore mostra quindi come esportare il modello in formato ONNX, specificando i tre nomi di input e il nome di output. Definiscono anche l'asse dinamico, che è un dizionario che specifica quali input o output hanno una forma dinamica.

  • 00:10:00 In questa sezione, il video mostra come convertire un modello PyTorch in formato ONNX utilizzando il codice "converti in ONNX" per eseguire il modello utilizzando Flask. Il modello PyTorch viene prima convertito in ONNX, quindi viene creato un nuovo file per fare previsioni dal modello ONNX. Il video mostra come specificare una sessione per il modello ONNX, dimostrando che il runtime ONNX può essere importato e quindi il modello può essere caricato nella sessione di inferenza. Il video spiega che l'output e l'invio del modello al dispositivo non sono necessari e che qualcosa verrà restituito.

  • 00:15:00 In questa sezione del video tutorial, il relatore mostra come creare un semplice dizionario per l'input ONNX in PyTorch, che è fondamentale perché ONNX non accetta tutti i tensori. Il dizionario consiste di chiavi come nomi e valori come tensori PyTorch. Per convertire i tensori in errori numpy, viene creata una funzione to numpy utilizzando i comandi 'detach' e 'requires grad'. L'oratore mostra quindi come ottenere l'output dal modello chiamando la funzione model.run con argomenti pertinenti. Infine, l'output può essere stampato direttamente o restituito per l'uso in Flask.

  • 00:20:00 In questa sezione, il presentatore applica una funzione sigmoide all'output del modello PyTorch per convertire l'output in una probabilità compresa tra 0 e 1. Dimostra come scrivere una semplice funzione sigmoide e quindi incorporarla in l'API Flask per il modello ONNX. Mostrano anche come avviare l'API su un host e una porta locali e dimostrano come testare l'API utilizzando una richiesta curl. Infine, il relatore passa il dispositivo alla CPU per equità rispetto alla vecchia API, che era in esecuzione su GPU, ed esegue nuovamente l'API per dimostrare il tempo di risposta più rapido.

  • 00:25:00 In questa sezione del video, il relatore conclude il tutorial su come convertire i modelli PyTorch in ONNX e servirli utilizzando Flask. Confrontano i tempi delle vecchie e delle nuove richieste, che sembrano essere simili, e notano che ci sono molte più ottimizzazioni che gli utenti possono applicare ai modelli ONNX per migliorare ulteriormente le loro prestazioni. Il relatore incoraggia gli spettatori a sperimentare le possibilità che ONNX ha da offrire per la distribuzione di modelli in ambienti diversi e conclude ringraziando gli spettatori per la visione e invitandoli a condividere i loro suggerimenti nella sezione dei commenti.
 

Come convertire il modello PyTorch in Tensorflow | onnx.ai | Apprendimento automatico | Magia dei dati



Come convertire il modello PyTorch in Tensorflow | onnx.ai | Apprendimento automatico | Magia dei dati

In questo video, il presentatore mostra come utilizzare la libreria ONNX (Open Neural Network Exchange) per convertire un modello PyTorch in un modello TensorFlow. I vantaggi e l'utilizzo della libreria ONNX sono discussi in dettaglio, con un modello PyTorch creato per identificare i numeri scritti a mano usati come esempio. Viene mostrato il processo di addestramento del modello e di conversione nel formato ONNX, prima di caricarlo in TensorFlow per la previsione su immagini di esempio. Il modello TensorFlow risultante viene salvato come file .pb, mostrando come la libreria ONNX può essere utilizzata per convertire qualsiasi modello PyTorch in TensorFlow.

  • 00:00:00 In questa sezione, il relatore discute come convertire un modello PyTorch in un modello TensorFlow con l'aiuto della libreria ONNX (Open Neural Network Exchange). La libreria ONNX è una libreria open source che mira ad aumentare la compatibilità tra le diverse librerie di machine learning del settore. Il relatore spiega i vantaggi e l'utilizzo della libreria e dimostra come installarla e le sue librerie dipendenti. Viene creato un modello PyTorch per identificare i numeri scritti a mano e il presentatore mostra come addestrare e testare il modello con la libreria ONNX. Il codice per il modello PyTorch non è discusso in dettaglio in quanto non è il fulcro del video.

  • 00:05:00 In questa sezione, la trascrizione illustra il processo di conversione di un modello PyTorch addestrato in un modello TensorFlow utilizzando la libreria Neural Network Exchange (ONNX). Innanzitutto, il modello PyTorch viene addestrato e salvato come file mnist.pth. Il modello viene quindi convertito nel formato ONNX e caricato in TensorFlow per fare previsioni su immagini di esempio. Infine, il modello TensorFlow viene salvato come file .pb. Il processo dimostra come utilizzare la libreria ONNX per convertire qualsiasi modello PyTorch in TensorFlow.

  • 00:10:00 Questo estratto non fornisce alcun contenuto rilevante per il riepilogo in quanto consiste solo di osservazioni conclusive da parte dell'oratore, incluso un messaggio di ringraziamento e un invito all'azione per gli spettatori a mettere mi piace e iscriversi. Il relatore invita inoltre gli spettatori a porre domande e fornisce collegamenti al codice e alle risorse utilizzate nel video.
 

Come convertire i modelli Tensorflow/tflite in ONNX



Come convertire il modello Tensorflow/i modelli tflite in ONNX per importarlo nell'unità

tf2onnx converte i modelli TensorFlow (tf-1.x o tf-2.x), tf.keras e tflite in ONNX tramite riga di comando o API Python.

https://github.com/onnx/tensorflow-onnx

 

Converti il modello Pytorch (pytorch lightning) in modello onnx con dimensioni batch variabili



Converti il modello Pytorch (pytorch lightning) nel modello ONNX con dimensioni batch variabili

In questo tutorial impareremo come convertire il modello Pytorch (pytorch lightning) nel modello ONNX con dimensione batch variabile/dinamica.

 

Supporto all'esportazione PyTorch ONNX - Lara Haidar, Microsoft



Supporto all'esportazione PyTorch ONNX - Lara Haidar, Microsoft

Lara Haidar di Microsoft spiega i vantaggi della funzione di esportazione del modello PyTorch ONNX, che consente di spostare i modelli dalla ricerca alla produzione ed eseguirli su vari hardware. Afferma che il runtime ONNX è diventato molto popolare, con milioni di dispositivi che ora lo utilizzano e ottengono notevoli miglioramenti delle prestazioni. Inoltre, ONNX Export Support ora include miglioramenti nella copertura del modello, ottimizzazione delle prestazioni e supporto back-end per garantire che i modelli possano essere eseguiti su varie versioni con diversi back-end. Infine, Lara incoraggia gli utenti a testare i modelli esportati e condividere feedback per migliorare ulteriormente la funzionalità.

 

296 - Conversione del modello addestrato da Keras in formato ONNX - Esempio di classificazione delle immagini



296 - Conversione del modello addestrato da Keras in formato ONNX - Esempio di classificazione delle immagini

L'esercitazione video copre il processo di conversione di un modello di classificazione delle immagini con training Keras in formato ONNX per la distribuzione. Il relatore mostra come creare un modello utilizzando Keras, compilarlo e salvarlo come file H5 prima di convertirlo in formato ONNX. Forniscono una guida dettagliata su come importare le librerie necessarie per la conversione ONNX, come caricare il modello H5 salvato e come convertirlo in formato ONNX utilizzando una singola riga di codice. Il relatore mostra quindi come utilizzare il modello ONNX risultante in una sessione di runtime ONNX, mostra come prevedere le classi in un esempio di classificazione delle immagini utilizzando ONNX e confronta le probabilità delle previsioni utilizzando ONNX e Keras. Il relatore sottolinea l'efficacia ei vantaggi dell'utilizzo di ONNX per l'implementazione e rileva la semplicità della conversione di un file HDF esistente in ONNX.

  • 00:00:00 In questa sezione, il relatore discute il processo di conversione di un modello Keras addestrato in formato ONNX, in particolare per la classificazione delle immagini. Spiegano che ONNX è un formato intermedio in grado di convertire i modelli salvati in vari formati di file come H5, per funzionare su diversi runtime come il runtime ONNX. Il relatore guida il pubblico attraverso la creazione di un semplice modello di classificazione delle immagini con Keras, salvandolo come file H5 e quindi convertendolo in formato ONNX. Quindi confrontano l'accuratezza dei due formati e discutono le varie ottimizzazioni che possono essere aggiunte ai modelli ONNX. Il relatore sottolinea anche l'installazione delle librerie necessarie per Keras, oltre al runtime ONNX e H5 Pi, per eseguire inferenze.

  • 00:05:00 In questa sezione, il relatore discute il set di dati utilizzato per l'addestramento e il test del modello, che include 50.000 piccole immagini assegnate per l'addestramento e 10.000 per il test. Le immagini sono 32 per 32 per 3 e le normalizza ridimensionando i valori tra 0 e 1. Successivamente, il relatore converte i valori con codifica intera in valori categoriali e definisce un modello con livelli convoluzionali, normalizzazione batch, abbandono e softmax attivazione per restituire 10 valori che rappresentano le probabilità di ogni classe. Infine, compila il modello utilizzando l'ottimizzatore di discesa del gradiente stocastico e tiene traccia delle metriche di precisione riducendo al minimo la funzione di perdita dell'entropia incrociata categorica. Il relatore dimostra anche l'uso della richiamata di arresto anticipato per terminare il processo di addestramento dopo dieci epoche.

  • 00:10:00 In questa sezione, il relatore spiega come hanno addestrato un modello utilizzando Keras e come lo hanno salvato in formato H5 prima di passare alla conversione in formato ONNX. Mostrano come caricare il modello salvato, importare le librerie necessarie per la conversione ONNX e utilizzare la singola riga di codice richiesta per convertire il modello Keras nel formato ONNX. Quindi mostrano come utilizzare il modello ONNX risultante in una sessione di runtime ONNX e confrontano le velocità per dimostrare i vantaggi dell'utilizzo di ONNX per la distribuzione.

  • 00:15:00 In questa sezione, il relatore spiega come utilizzare ONNX per prevedere le classi in un esempio di classificazione delle immagini. Innanzitutto, mostrano come ottenere i nomi di input e output dal modello. Quindi, dimostrano come espandere le dimensioni per rendere l'immagine pronta per l'inferenza. Dopo aver definito la verità fondamentale, eseguono la previsione e calcolano la classe prevista utilizzando argmax. Infine, tracciano i risultati e confrontano le previsioni utilizzando ONNX e Keras. Le probabilità sono quasi identiche, a dimostrazione dell'efficacia di ONNX per le attività di classificazione delle immagini.

  • 00:20:00 In questa sezione, il relatore dimostra la corretta conversione di un modello Keras addestrato nel formato ONNX per la classificazione delle immagini. I risultati di probabilità vengono mostrati per varie immagini di test, con il modello che ottiene risultati eccellenti dopo essere stato addestrato per 50 epoche. Il relatore osserva che la conversione di un file HDF esistente in ONNX è un processo semplice e accenna a un prossimo tutorial sulla segmentazione delle immagini.
 

297 - Conversione del modello addestrato da Keras in formato ONNX​ - Segmentazione semantica


297 - Conversione del modello addestrato da Keras in formato ONNX​ - Segmentazione semantica

Questo video si concentra sulla conversione di un modello addestrato al keras in formato ONNX per la segmentazione semantica delle immagini al microscopio elettronico dei mitocondri. Il presentatore fornisce passaggi dettagliati su come ritagliare e caricare immagini, utilizzare tecniche di aumento dei dati, definire generatori per l'addestramento e la convalida, addestrare e salvare il modello. Il video illustra anche la conversione del modello in formato ONNX utilizzando la libreria tf2onnx.convert e l'utilizzo del modello ONNX per la previsione. Il presentatore evidenzia le best practice per la formazione e la conversione e fornisce collegamenti ai loro video precedenti sulla segmentazione multi-classe. Il tutorial si conclude con il presentatore che afferma che questa è la fine della serie ONNX e si concentrerà su altri argomenti nel prossimo video.

  • 00:00:00 In questa sezione, il relatore si basa sui video precedenti in cui ha dimostrato come salvare i pesi di un modello Keras addestrato su ONNX ed eseguire l'inferenza utilizzando il modello convertito. Questa volta, forniscono passaggi su come addestrare e salvare un modello di segmentazione semantica in ONNX. Usano un set di dati di microscopia elettronica dei mitocondri, dove hanno immagini grezze ed etichettate. Il presentatore mostra come ritagliare le immagini in dimensioni appropriate, caricarle nella rete neurale e utilizzare il modello di unità semplice per eseguire la segmentazione binaria. Spiegano come funziona il modello di unità semplice e forniscono collegamenti ai loro video precedenti in cui spiegavano reti neurali più complesse per la segmentazione semantica multiclasse.

  • 00:05:00 In questa sezione, l'autore discute il processo di divisione di un piccolo set di dati di 165 immagini in 12 immagini a scopo di formazione. Applicano la libreria patchify per dividere le immagini e le maschere in patch più piccole di 256x256 pixel. Discutono anche di alcune immagini casuali come "controllo di integrità" per garantire che le immagini e le maschere siano allineate correttamente. L'autore utilizza tecniche di aumento dei dati come l'intervallo di spostamento dell'altezza, l'intervallo di taglio e l'intervallo di zoom per generalizzare i risultati. Menzionano anche come garantire che le trasformazioni casuali non siano veramente casuali e che lo stesso seme venga utilizzato per generare trasformazioni sia nelle immagini che nelle maschere per mantenere la stessa casualità. Infine, l'autore definisce i generatori che verranno utilizzati per l'addestramento e la convalida e i semi vengono fissati per coerenza.

  • 00:10:00 In questa sezione, il relatore si prepara ad addestrare un modello di unità per la segmentazione semantica utilizzando le migliori pratiche e combina il generatore di immagini e maschere in uno solo. Continuano a definire la dimensione del batch e i passaggi per epoca prima di passare all'addestramento del modello, applicando una soglia di 0,5 per convertire l'output di probabilità in output binario. Sebbene il modello possa utilizzare più immagini di addestramento, sta svolgendo un lavoro moderatamente buono nel segmentare le immagini. Il relatore quindi salva il file H5 e procede a convertirlo in onnx utilizzando la libreria TF2 to onnx.

  • 00:15:00 In questa sezione, il video spiega come convertire un modello Keras addestrato in formato ONNX utilizzando tf2onnx.convert. Dopo aver caricato il modello, è possibile aggiungere le ottimizzazioni prima di salvarlo come file .onnx. Inoltre, il video dimostra l'utilizzo del modello ONNX in una sessione di runtime per la previsione, mostrando risultati identici al modello Keras. Il video si conclude affermando che questo tutorial è la fine della serie ONNX e il presentatore si concentrerà su altri argomenti nel prossimo video.
 

Utilizzo di ONNX con dispositivi alimentati da Qualcomm, dagli smartphone all'edge del cloud e tutto il resto



Utilizzo di ONNX con dispositivi alimentati da Qualcomm, dagli smartphone all'edge del cloud e tutto il resto

L'uso del formato di interscambio ONNX in tutta la gamma di dispositivi di Qualcomm aiuta a supportare i modelli su tutti i loro dispositivi. Qualcomm deve affrontare architetture impegnative quando supporta dispositivi diversi e modelli diversi, ma ONNX aiuta a raggiungere la scalabilità tra verticali, dispositivi potenti e aree geografiche. Qualcomm ha collaborato con Microsoft per creare un fornitore di eseguitori di runtime ONNX che consenta l'esecuzione di modelli ONNX su dispositivi alimentati da Qualcomm, inclusi quelli che eseguono Windows. Lo stack software unificato include una libreria chiamata motore AI che può indirizzare dinamicamente il modello ONNX a diversi acceleratori per ottenere le migliori prestazioni, con strumenti aggiuntivi disponibili come profiler, compilatori e analizzatori per l'ottimizzazione dei modelli.

  • 00:00:00 In questa sezione, il relatore di Qualcomm parla di come utilizzano ONNX per supportare la loro gamma di dispositivi, dai minuscoli auricolari ai laptop, telecamere sicure e persino apparecchiature automobilistiche. Dicono che il formato di interscambio di ONNX consente loro di scegliere come target un modello e utilizzarlo su tutti i dispositivi che supportano. Discutono anche delle complesse architetture che devono affrontare per supportare i diversi dispositivi insieme ai diversi modelli, implementazioni e requisiti delle funzionalità. Ad esempio, parlano dell'utilizzo della tecnologia del sensore di profondità di Apple per l'autenticazione sui telefoni cellulari e di come ora hanno integrato la stessa tecnologia in fotocamere e automobili sicure.

  • 00:05:00 In questa sezione, il relatore discute la sfida di scalabilità che l'industria deve affrontare oggi nel campo dell'IA. Spiega come Qualcomm ha affrontato la sfida ei vantaggi dell'utilizzo di ONNX come formato di interscambio per ottenere la scalabilità. Spostando gli algoritmi dalla CPU agli acceleratori AI, i dispositivi possono essere scalati facilmente. L'architettura multi-core consente al sistema di ottenere prestazioni più elevate, il che aiuta a lavorare con flussi video live. Inoltre, il formato di interscambio consente di risparmiare molto tempo in quanto non è necessario occuparsi di altri framework. Infine, il relatore spiega che ONNX aiuta a scalare tra verticali, dispositivi piccoli e potenti e aree geografiche.

  • 00:10:00 In questa sezione, il relatore discute di come Qualcomm sta collaborando con Microsoft per creare un provider di esecuzione del runtime ONNX per il proprio acceleratore AI. Ciò consente ai modelli ONNX di essere eseguiti su una varietà di dispositivi alimentati da Qualcomm, inclusi dispositivi mobili e automobilistici, nonché quelli che eseguono Windows. Qualcomm ha sviluppato uno stack software unificato che supporta una varietà di sistemi operativi e include una libreria software unificata chiamata motore AI che può indirizzare dinamicamente il modello ONNX a diversi acceleratori per ottenere le migliori prestazioni. Hanno anche una gamma di strumenti aggiuntivi disponibili per i loro clienti, come profiler, compilatori e analizzatori, per costruire e ottimizzare modelli per i loro dispositivi specifici.
 

ONNX Runtime IoT Deployment su Raspberry Pi



ONNX Runtime IoT Deployment su Raspberry Pi

In questo video intitolato "ONNX Runtime IoT Deployment on Raspberry Pi", il relatore mostra come distribuire un runtime ONNX per un modello di visione artificiale su un Raspberry Pi utilizzando un modello Mobilenet ottimizzato per il dispositivo. Il video copre il processo di connessione al Raspberry Pi utilizzando il visualizzatore VNC, la sua configurazione e l'esecuzione di un test della fotocamera utilizzando OpenCV e Python. Il relatore acquisisce un'immagine, esegue l'inferenza e stampa le prime cinque classi previste, che identificano correttamente la penna stilografica nell'immagine. Nel complesso, il video fornisce una guida utile per la distribuzione di ONNX Runtime su un Raspberry Pi per applicazioni di visione artificiale.