
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Apprendimento automatico applicato con runtime ONNX
Apprendimento automatico applicato con runtime ONNX
Jennifer Looper, Principal Education Cloud Advocate di Microsoft, discute la convergenza tra creazione di app, machine learning e data science in questo video. Raccomanda di creare app intelligenti per il Web ed esplora varie API JavaScript, tra cui ml5.js, Magenta.js, PoseNet e Brain.js, per incorporare la tecnologia di apprendimento automatico nelle app. Looper sottolinea l'utilità di scikit-learn per l'apprendimento automatico classico e lo raccomanda come uno strumento potente senza la pesante soluzione delle reti neurali. Discute anche Onnx Runtime, che ottimizza l'addestramento e l'inferenza definendo un insieme comune di operatori per la creazione di modelli di machine learning e deep learning, e ricava i dati da Kaggle per spiegare il processo di esecuzione di un'attività di classificazione di base utilizzando l'apprendimento automatico supervisionato. Il relatore mostra quindi come creare un motore di raccomandazione utilizzando modelli di machine learning e suggerisce di visitare le risorse online di Microsoft per saperne di più sull'apprendimento automatico. Conclude che Onnx Runtime è adatto ai principianti come parte del loro curriculum o a chiunque voglia saperne di più sull'apprendimento automatico.
Porta la potenza di ONNX in Spark come mai prima d'ora
Porta la potenza di ONNX in Spark come mai prima d'ora
In questo video, Shivan Wang di Huawei spiega come portare la potenza di ONNX in Spark per l'inferenza. Discute le sfide nella distribuzione dei modelli DL su Spark e come la comunità Spark ha avviato una proposta chiamata Spip per semplificare il processo. Il relatore discute anche del processore AI di Huawei, Ascent e dell'ecosistema Ascent AI che include più modelli di processore Ascent e hardware Atlas. Suggerisce di aggiungere Con come nuovo provider di esecuzione nel prossimo runtime per utilizzare direttamente i modelli ONNX sull'hardware Ascent, senza la necessità della traduzione del modello. Infine, afferma che il codice POC per portare la potenza di ONNX su Spark è quasi completo e invita gli utenti interessati a lasciare un messaggio per discutere e potenzialmente fornire risorse a scopo di test.
Builders Build #3 - Da Colab alla produzione con ONNX
Builders Build #3 - Da Colab alla produzione con ONNX
Il video illustra il processo di distribuzione di un progetto da Colab alla produzione utilizzando ONNX. Il relatore copre vari aspetti come la pre-elaborazione dei segnali, la modifica del codice per la distribuzione, la creazione di un gestore su AWS Lambda, l'accettazione di input audio su un sito Web, il caricamento di una funzione su S3 e la distribuzione di dipendenze per ONNX. Nonostante incontri alcune difficoltà, l'oratore distribuisce con successo il proprio modello con AWS e suggerisce di poter utilizzare un oggetto file base64 di caricamento del browser o morsi di lettura di file audio per i passaggi futuri.
Inoltre, il video mostra l'uso del modello SimCLR per l'apprendimento contrastivo in audio, costruendo un catalogo di brani inserendoli nel modello e addestrandolo con PyTorch per ottenere zero perdita e richiamo a k=1. Il relatore discute le sfide dell'utilizzo di PyTorch in produzione e propone ONNX come soluzione. Il video mostra come esportare e caricare il modello PyTorch in formato ONNX ed eseguire l'inferenza. Mostra inoltre come elaborare i file audio utilizzando le librerie Torch Audio e Numpy e risolve i problemi durante l'impostazione di un modello PyTorch per la distribuzione. Il video offre approfondimenti su come spostare i modelli dallo sviluppo nei notebook Colab agli ambienti di produzione.
Unendo la potenza di Optimum, OpenVINO™, ONNX Runtime e Azure
Unendo la potenza di Optimum, OpenVINO™, ONNX Runtime e Azure
Il video mostra la combinazione di Optimum, OpenVINO, ONNX Runtime e Azure per semplificare il flusso di lavoro dello sviluppatore e migliorare la precisione e la velocità dei loro modelli. I relatori dimostrano l'uso di funzioni helper, ONNX Runtime e OpenVINO Execution Provider per ottimizzare i modelli di deep learning. Mostrano anche come ottimizzare i modelli Hugging Face usando la quantizzazione nel Neural Network Compression Framework e illustrano il processo di training e inferenza usando Azure ML, Optimum, ONNX Runtime e OpenVINO. La dimostrazione evidenzia la potenza di questi strumenti nel migliorare le prestazioni dei modelli riducendo al minimo la perdita di accuratezza.
Inferenza più rapida dei modelli ONNX | Serie Edge Innovation per sviluppatori | Software Intel
Inferenza più rapida dei modelli ONNX | Serie Edge Innovation per sviluppatori | Software Intel
Il provider di esecuzione OpenVINO per ONNX Runtime è discusso in questo video. È un acceleratore di modelli di machine learning multipiattaforma che consente l'implementazione di modelli di deep learning su una gamma di dispositivi di elaborazione Intel. Utilizzando il toolkit OpenVINO, ottimizzato per l'hardware Intel, e impostando il provider come OpenVINO Execution Provider nel codice, gli sviluppatori possono accelerare l'inferenza dei modelli ONNX con tecniche di ottimizzazione avanzate. Il video sottolinea la semplicità della modifica richiesta per utilizzare gli strumenti discussi.
Inferenza del modello più veloce e più leggera con ONNX Runtime dal cloud al client
Inferenza del modello più veloce e più leggera con ONNX Runtime dal cloud al client
In questo video, Emma del gruppo Microsoft Cloud e AI spiega Open Neural Network Exchange (ONNX) e ONNX Runtime, un motore ad alte prestazioni per l'inferenza di modelli ONNX su hardware diverso. Emma discute il significativo miglioramento delle prestazioni e la riduzione delle dimensioni del modello che la quantizzazione ONNX Runtime INT8 può fornire, nonché l'importanza della precisione. Dimostra il flusso di lavoro end-to-end della quantizzazione ONNX Runtime INT8 e presenta i risultati di un modello di base utilizzando la quantizzazione PyTorch. Inoltre, Emma discute la capacità di ONNX Runtime di ottimizzare l'inferenza del modello dal cloud al client e come può raggiungere una dimensione inferiore a 300 kilobyte su entrambe le piattaforme Android e iOS per impostazione predefinita.
Inferenza della CPU del modello di trasformatore veloce T5 con conversione e quantizzazione ONNX
Inferenza della CPU del modello di trasformatore veloce T5 con conversione e quantizzazione ONNX
Convertendo il modello del trasformatore T5 in ONNX e implementando la quantizzazione, è possibile ridurre le dimensioni del modello di 3 volte e aumentare la velocità di inferenza fino a 5 volte. Ciò è particolarmente utile per distribuire un modello di generazione di domande come T5 su una CPU con una latenza inferiore al secondo. Inoltre, l'app Gradio offre un'interfaccia visivamente accattivante per il modello. Viene utilizzato il modello di trasformatore T5 di Huggingface e la libreria FastT5 viene utilizzata per ONNX e quantizzazione. L'implementazione di queste ottimizzazioni può comportare notevoli risparmi sui costi per le distribuzioni di produzione di questi sistemi.
Azure AI e ONNX Runtime
Azure AI e ONNX Runtime
Il testo copre vari aspetti dell'apprendimento automatico e della sua implementazione. Discute l'evoluzione della scienza dei dati, le sfide della compatibilità del framework, l'uso di Azure AI e ONNX Runtime per la distribuzione del modello, la creazione di ambienti ML e le limitazioni di ONNX Runtime. Il relatore sottolinea la standardizzazione di ONNX e il suo supporto per più framework, semplificando l'ottimizzazione per hardware diverso. Il video menziona anche l'assenza di un benchmark per le preferenze hardware e la necessità di utilizzare più strumenti per superare i limiti di ONNX.
Distribuisci Machine Learning ovunque con ONNX. Python SKLearn Model in esecuzione in una funzione ml.net di Azure
Distribuisci Machine Learning ovunque con ONNX. Python SKLearn Model in esecuzione in una funzione ml.net di Azure
Il video mostra come il runtime ONNX semplifica e standardizza l'implementazione di modelli di machine learning costruiti in diversi linguaggi e framework. Illustra il processo di creazione del pacchetto di un modello Python scikit-learn in un modello ONNX e la sua distribuzione in una funzione Azure ML .NET. Il video evidenzia che la funzione di Azure può essere facilmente attivata tramite una richiesta HTTP POST, semplificando la chiamata da qualsiasi applicazione o sito Web e, indipendentemente dal linguaggio utilizzato per creare il modello di machine learning, può essere convertita in un modello ONNX e distribuito tramite ML.NET per essere eseguito in modo coerente.
Distribuisci modelli di machine learning (TensorFlow/Caffe2/ONNX): facile e veloce
Distribuisci modelli di machine learning (TensorFlow/Caffe2/ONNX): facile e veloce
Il video dimostra come l'apprendimento del trasferimento può essere utilizzato per classificare le immagini e come integrare il modello di classificazione delle immagini in un'applicazione dell'utente finale utilizzando Python e TensorFlow. Il presentatore utilizza un esempio di applicazione per il commercio di automobili per illustrare le sfide affrontate quando le foto non vengono caricate dalla prospettiva richiesta e le etichette devono essere controllate manualmente, portando a noia e inefficienza. Spiega come superare queste sfide addestrando una rete neurale esistente a riconoscere le prospettive fotografiche utilizzando la tecnica del transfer learning. Quindi mostra come testare e distribuire il modello nel cloud Oracle utilizzando il progetto open source GraphPipe. Infine, il relatore sottolinea l'importanza di portare i modelli di machine learning dalla fase di laboratorio alla fase di produzione.