Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Implementa Yolo3 in tempo reale usando C#
Implementa Yolo3 in tempo reale usando C#
https://github.com/duonghb53/YoloOnCSharpGPU
Rilevamento facciale tramite C# e OpenCVSharp - Gruppo di utenti pratici di ML.NET 19/01/2022
Rilevamento facciale tramite C# e OpenCVSharp - Gruppo di utenti pratici di ML.NET 19/01/2022
L'esercitazione video sul rilevamento dei volti tramite OpenCVSharp in C# è iniziata con l'oratore che ha presentato la libreria OpenCVSharp, una libreria open source per attività di visione artificiale, con un wrapper .NET. Il video discute l'utilizzo di diversi classificatori per il rilevamento, anche per gli occhi, e l'importanza della sperimentazione nella selezione dei classificatori. Il tutorial ha assistito l'ascoltatore nella creazione di un programma per il rilevamento di volti e occhi tramite webcam, con l'ausilio di frammenti di codice, Visual Studio e notebook interattivi .NET. Sono stati inoltre elaborati diversi aspetti, tra cui come sovrapporre immagini trasparenti e maneggiare correttamente gli oggetti opachi. Il relatore ha riconosciuto la facilità d'uso, la velocità e la compatibilità di OpenCVSharp con .NET, ma ha anche notato la mancanza di esempi e l'incertezza del supporto a lungo termine.
Previsione su un modello ONNX di visione personalizzata con ML.NET
Previsione su un modello ONNX di visione personalizzata con ML.NET
In questo video di YouTube, il relatore illustra l'utilizzo di ML.NET per prevedere un modello ONNX di visione personalizzato. Ciò comporta l'esportazione del modello dal servizio di visione personalizzato e l'importazione nel progetto ML.NET. L'implementazione include il ridimensionamento delle immagini, l'estrazione dei pixel dell'immagine, la creazione di un contesto dati e un elenco di dati vuoto per caricare i dati dell'immagine, l'utilizzo del framework ML.NET per effettuare previsioni sul modello e l'output dei risultati. Il video mostra anche come ottenere il nome di output di un modello utilizzando uno strumento chiamato Neuron e come ottenere informazioni sul riquadro di delimitazione dal modello per una determinata immagine di prova. Il presentatore mostra anche come disegnare un rettangolo attorno al riquadro di delimitazione e visualizzare le etichette previste utilizzando l'API grafica. L'implementazione del modello ONNX tramite l'API ML.NET e il ridimensionamento delle immagini è considerata la parte più significativa dell'implementazione.
Rendere le reti neurali portatili con ONNX
Rendere le reti neurali portatili con ONNX
In questo video di YouTube, Ron Dagdag spiega come rendere portatili le reti neurali con ONNX, concentrandosi sul lato inferenziale dell'apprendimento automatico. ONNX è un framework open source che consente la portabilità dei modelli di machine learning su varie unità di elaborazione e dispositivi. Il relatore discute il processo di conversione dei modelli in ONNX, la distribuzione e l'integrazione del modello con le applicazioni e il suo utilizzo per la distribuzione cloud ed edge. Dimostrano inoltre come caricare un modello ONNX in Node.js e integrare i modelli di classificazione delle immagini nelle applicazioni Web e mobili utilizzando ONNX Runtime. I modelli ONNX sono uno standard aperto che può essere creato da vari framework per essere distribuito in modo efficiente sulla piattaforma di destinazione.
Su .NET Live - AI ovunque: Azure ML e ONNX Runtime
Su .NET Live - AI ovunque: Azure ML e ONNX Runtime
Il video "On .NET Live - AI Everywhere: Azure ML and ONNX Runtime" è incentrato sull'uso di Azure ML e ONNX Runtime per l'apprendimento automatico con C#. I relatori discutono i vantaggi dell'utilizzo del formato ONNX per l'esportazione di modelli in linguaggi di programmazione, l'ottimizzazione del runtime ONNX per l'accelerazione e l'inferenza hardware e la sua compatibilità con versioni specifiche del framework. Mostrano anche come usare ONNX Runtime con Azure ML in Python e .NET, creare e addestrare un modello di rete neurale e spiegare l'inferenza e il suo passaggio finale nell'apprendimento automatico. Il video si conclude con l'introduzione di un nuovo provider per il runtime ONNX che consente l'utilizzo di OpenVINO per la CPU ARM, fornendo funzionalità di debug.
In questa sezione del video, gli host discutono della flessibilità e della configurabilità del runtime ONNX e della sua capacità di funzionare su varie piattaforme hardware e software. Il runtime ONNX è visto come un ottimo wrapper per diverse piattaforme in quanto i clienti possono utilizzarlo su una CPU cloud, Android, iOS o Snapdragon e consente un'inferenza più rapida.
Berlin Buzzwords 2019: Lester Solbakken – Ridimensionamento della valutazione del modello ONNX e TensorFlow nella ricerca
Berlin Buzzwords 2019: Lester Solbakken – Ridimensionamento della valutazione del modello ONNX e TensorFlow nella ricerca
Lester Solbakken discute le sfide della scalabilità del machine learning per le applicazioni di ricerca e propone una soluzione alternativa all'utilizzo di server modello esterni. Suggerisce di valutare i modelli di machine learning sui nodi di contenuto, piuttosto che inviare dati a server di modelli esterni, per migliorare la scalabilità e controllare la latenza e il throughput. Solbakken mette in evidenza l'uso da parte di Vespa del proprio linguaggio di classificazione e dell'estensione dell'API del tensore per semplificare la creazione di un pacchetto dichiarativo di stato per un'applicazione e lo sforzo continuo per supportare i modelli di apprendimento automatico in Vespa. Sottolinea l'importanza di comprendere la correlazione tra le diverse fasi del ranking per evitare problemi di recupero a livello di sistema e incoraggia le persone a contribuire al progetto open-source.
Assimilare ONNX
Assimilare ONNX
In questo video, il relatore introduce ONNX come standard aperto per l'interoperabilità del machine learning che può funzionare su tutte le diverse piattaforme. Eseguono il processo di creazione di un progetto ONNX da zero, modificando un esempio dal repository Microsoft, risoluzione dei problemi ed esplorando altri progetti Github relativi a ONNX. Quindi testano un binding ONNX utilizzando GPT2 e CUDA, esprimendo interesse a esplorare ulteriormente i binding ONNX runtime Rust in futuro. Il relatore rileva la versatilità e la portabilità di ONNX e lo vede come un ottimo strumento per la sperimentazione e la realizzazione di progetti più sostanziali in futuro.
HITNET vs. Confronto di stima della profondità stereo neurale ACVNet (ONNX)
HITNET vs. Confronto di stima della profondità stereo neurale ACVNet (ONNX)
Confronto dei modelli di stima della profondità stereo HITNET e ACVNet nel set di dati Driving Stereo.
Dettagli sull'inferenza del modello (NVIDIA 1660 SUPER):
HITNET (640X480): 220 ms
Rete ACV (640x384): 480 ms
Riferimenti: [HITNET Inference] https://github.com/ibaiGorordo/ONNX-HITNET-Stereo-Depth-estimation
[Inferenza ACVNet] https://github.com/ibaiGorordo/ONNX-ACVNet-Stereo-Depth-Estimation
[Driving Stereo set di dati] https://drivingstereo-dataset.github.io/
Importa, addestra e ottimizza i modelli ONNX con NVIDIA TAO Toolkit
Importa, addestra e ottimizza i modelli ONNX con NVIDIA TAO Toolkit
Il video mostra come utilizzare NVIDIA TAO Toolkit per importare, addestrare e ottimizzare i modelli ONNX. Inizia scaricando un modello ResNet18 pre-addestrato, perfezionandolo con TAO sul set di dati Pascal VOC e fornisce i passaggi per importare il modello e visualizzare il grafico ONNX. L'avanzamento dell'addestramento può essere monitorato utilizzando la visualizzazione TensorBoard e i livelli personalizzati possono essere utilizzati in caso di errori di conversione ONNX. Il video spiega anche come valutare le prestazioni del modello osservando la perdita decrescente, convalidando la perdita e analizzando pesi e distorsioni. Gli utenti possono valutare l'accuratezza del modello sul set di dati di test e sulle immagini di esempio e continuare con la potatura e l'ottimizzazione per migliorarlo ulteriormente.
Webinar NVAITC: distribuzione di modelli con TensorRT
Webinar NVAITC: distribuzione di modelli con TensorRT
In questa sezione del webinar NVAITC, l'architetto di soluzioni Nikki Loppie presenta TensorRT, il kit di sviluppo software di NVIDIA per l'inferenza di deep learning ad alte prestazioni. TensorRT fornisce un ottimizzatore di inferenza e un runtime per inferenza a bassa latenza e throughput elevato su una vasta gamma di piattaforme, dai dispositivi embedded ai data center. Loppie spiega le cinque tecnologie utilizzate da TensorRT per ottimizzare le prestazioni di inferenza, tra cui la fusione del kernel e la calibrazione di precisione. Gli sviluppatori possono utilizzare le API Python e C++ di TensorRT per incorporare queste ottimizzazioni nelle proprie applicazioni e le librerie di convertitori come trtorch possono essere utilizzate per ottimizzare i modelli PyTorch per l'inferenza. Loppie dimostra come salvare i modelli ottimizzati TensorRT utilizzando la libreria trtorch e confronta i modelli ottimizzati rispetto ai modelli non ottimizzati per la classificazione delle immagini, mostrando accelerazioni significative con precisione dimezzata.