Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
NVIDIA TAO Toolkit ile ONNX Modellerini İçe Aktarın, Eğitin ve Optimize Edin
NVIDIA TAO Toolkit ile ONNX Modellerini İçe Aktarın, Eğitin ve Optimize Edin
Video, ONNX modellerini içe aktarmak, eğitmek ve optimize etmek için NVIDIA TAO Toolkit'in nasıl kullanılacağını gösterir. Önceden eğitilmiş bir ResNet18 modelini indirerek, Pascal VOC veri setinde TAO ile ince ayar yaparak başlar ve modeli içe aktarmak ve ONNX grafiğini görselleştirmek için adımlar sağlar. Eğitim ilerlemesi, TensorBoard görselleştirme kullanılarak izlenebilir ve ONNX dönüştürme hatalarında özel katmanlar kullanılabilir. Video ayrıca azalan kaybı gözlemleyerek, kaybı doğrulayarak ve ağırlıkları ve sapmaları analiz ederek modelin performansının nasıl değerlendirileceğini de açıklar. Kullanıcılar, test veri kümesi ve örnek görüntüler üzerinde modelin doğruluğunu değerlendirebilir ve modeli daha da geliştirmek için budama ve optimizasyon işlemlerine devam edebilir.
NVAITC Web Semineri: Modelleri TensorRT ile Dağıtma
NVAITC Web Semineri: Modelleri TensorRT ile Dağıtma
NVAITC web seminerinin bu bölümünde, çözüm mimarı Nikki Loppie, NVIDIA'nın yüksek performanslı derin öğrenme çıkarımı için yazılım geliştirme kiti olan TensorRT'yi tanıtıyor. TensorRT, gömülü cihazlardan veri merkezlerine kadar çeşitli platformlarda düşük gecikme süresi ve yüksek verimli çıkarım için bir çıkarım iyileştirici ve çalışma zamanı sağlar. Loppie, TensorRT'nin çıkarım performansını optimize etmek için kullandığı, çekirdek birleştirme ve hassas kalibrasyon dahil olmak üzere beş teknolojiyi açıklıyor. Geliştiriciler, bu optimizasyonları kendi uygulamalarına dahil etmek için TensorRT'nin Python ve C++ API'lerini kullanabilir ve trtorch gibi dönüştürücü kitaplıkları, çıkarım için PyTorch modellerini optimize etmek için kullanılabilir. Loppie, trtorch kitaplığını kullanarak TensorRT için optimize edilmiş modellerin nasıl kaydedileceğini gösteriyor ve optimize edilmiş modelleri, görüntü sınıflandırması için optimize edilmemiş modellerle kıyaslayarak, yarı hassasiyette önemli hız artışları gösteriyor.
ESP eğitimi - Nasıl yapılır: Keras/Pytorch/ONNX'te bir hızlandırıcı tasarlama
ESP eğitimi - Nasıl yapılır: Keras/Pytorch/ONNX'te bir hızlandırıcı tasarlama
Eğitim, bir Keras/Pytorch/ONNX modelinden otomatik olarak bir hızlandırıcı oluşturabilen Chalice for ML adlı aracı tanıtır. Öğretici daha sonra hızlandırıcının ESP'ye (Early Stage Prototyper) nasıl entegre edileceğini göstermeye devam eder. Konuşmacı ayrıca Keras/Pytorch/ONNX'te bir hızlandırıcının nasıl tasarlanacağını gösterir ve bir hızlandırıcıyı içe aktarma, bir test tezgahı ekleme, RTL oluşturma ve hızlandırıcının iki sürümünü oluşturma adımlarından geçer. Video ayrıca Linux'u derlemeyi ve hızlandırıcı için bir Linux kullanıcı alanı uygulaması oluşturmayı da kapsar. Son olarak, öğretici daha fazla öğrenme için kaynaklarla sona erer.
ONNX Runtime ile Esnek Donanımda Optimum Çıkarım
ONNX Runtime ile Esnek Donanımda Optimum Çıkarım
Bu eğitim, ONNX Çalışma Zamanı kullanılarak CPU, GPU ve OpenVINO üzerindeki modellerin dağıtımını kapsar. Konuşmacı, esnek donanım üzerinde çıkarım yapmak için OpenVINO da dahil olmak üzere farklı yürütme sağlayıcılarının kullanımını gösterir. Çıkarım yapma kodu, temel olarak yürütme sağlayıcısı olmak üzere tüm ortamlarda aynıdır. ONNX Çalışma Zamanı, CPU ve GPU'da PyTorch'tan daha hızlı çıkarım gerçekleştirir ve OpenVINO için ayrı bir ONNX Çalışma Zamanı kitaplığı mevcuttur. Genel olarak, öğretici, ONNX Çalışma Zamanı kullanılarak çeşitli donanım seçeneklerinde modellerin nasıl dağıtılacağına dair bir genel bakış sağlar.
ONNX ile Flink'te Makine Öğrenimi Çıkarımı
ONNX ile Flink'te Makine Öğrenimi Çıkarımı
Video, makine öğrenimi çıkarımında ONNX kullanmanın ve onu dağıtılmış bilgi işlem çerçevesi Flink'te devreye almanın faydalarını ve uygulamasını tartışıyor. Model eğitimi ve üretim çıkarımı arasındaki kaygıların ayrılması, girdiler ve çıktılar için spesifikasyonları tanımlama yeteneği ve dil bağımsızlığı, ONNX'i veri bilimcileri için değerli bir araç haline getirir. Video, bir ONNX modelinin Flink'e nasıl yükleneceğini gösterir, zengin harita işlevinin temel bileşenlerini sağlar ve modellerin bir jar dosyası kullanarak kodla birlikte nasıl paketleneceğini açıklar. Konuşmacı ayrıca ONNX ile bellek yönetimi, toplu optimizasyon ve donanım hızlandırma gibi konuları ele alıyor ve Flink'te gerçek zamanlı makine öğrenimi çıkarımı için faydalarını vurguluyor.
DSS çevrimiçi #4: ONNX ile Uçtan Uca Derin Öğrenme Dağıtımı
DSS çevrimiçi #4: ONNX ile Uçtan Uca Derin Öğrenme Dağıtımı
Bu video, farklı dilleri, çerçeveleri, bağımlılıkları ve performans değişkenliğini yönetme ve ayrıca ekipler arasındaki sürtüşmeler ve özel biçim kilitlenmeleri dahil olmak üzere uçtan uca derin öğrenme dağıtımının zorluklarını tartışır. Açık Sinir Ağı Değişimi (ONNX), derin öğrenme serileştirme için protokol arabelleği tabanlı bir format olarak tanıtıldı. Başlıca derin öğrenme çerçevelerini destekler ve modeli çalıştırmak için bağımsız bir yapı sağlar. ONNX ML, geleneksel makine öğrenimi ön işlemesi için destek sağlayan ONNX spesifikasyonunun bir parçası olarak da tartışılmaktadır. ONNX'in sınırlamaları kabul ediliyor, ancak farklı dil, çerçeve, çalışma zamanı ve sürüm boyutlarında gerçek taşınabilirlik sunan büyük kuruluşların güçlü desteğiyle hızla büyüyen bir proje olarak görülüyor.
ONNX ile çevrimiçi alışveriş deneyimini iyileştirme
ONNX ile çevrimiçi alışveriş deneyimini iyileştirme
Bu video, e-ticaret şirketlerinin çevrimiçi perakende alanında kazanma ve kaybetmeyi birbirinden ayıran etkili içgörüler oluşturmak için yapay zekayı nasıl kullandığını tartışıyor. Konuşmacı, toplam 8 milyardan fazla inceleme sağlayan en büyük marka ve perakendeci ağı olan Bazaar Voice'a ve incelemeleri paylaşmak için ürün eşleştirmeyi nasıl kullandıklarına bir örnek sunuyor. Konuşmacı daha sonra Python'da bir makine öğrenimi modelini nasıl geliştirdiklerini, onu ONNX formatına nasıl aktardıklarını ve bir ONNX çalışma zamanında çıkarım yapmak için bir düğüm ortamı kullanarak sunucusuz bir işleve dağıttıklarını açıklar. Bu çözüm, düşük maliyetleri korurken, binlerce müşteri kataloğunda yüz milyonlarca ürünün yüksek hızda eşleştirilmesine olanak tanıyarak önemli ölçüde maliyet tasarrufu ve markalar ve perakendeciler için milyonlarca ekstra inceleme sağlar. Konuşmacı, izleyicileri ONNX'in yeteneklerini kullanmanın daha fazla yolunu keşfetmeye ve gelecekteki teknolojik gelişmeler için kullanım durumlarını paylaşmaya davet ederek bitiriyor.
Jan-Benedikt Jagusch Christian Bourjau: ONNX ile Makine Öğrenimi Uygulamalarını Hızlı ve Basit Hale Getiriyor
Jan-Benedikt Jagusch Christian Bourjau: ONNX ile Makine Öğrenimi Uygulamalarını Hızlı ve Basit Hale Getiriyor
Makine öğrenimi ve konuşlandırma hakkındaki bu videoda konuşmacılar, modelleri üretime sokmanın zorluklarını, özellikle de modelleri temizleme ve devreye almanın zorluklarını tartışıyor. Makine öğrenimi modellerini dışa aktarmak için evrensel bir dosya formatı olan ONNX'i tanıtıyorlar ve bunun, eğitim ile çıkarımı birbirinden ayırarak konuşlandırmayı daha hızlı ve daha verimli hale getirmeye nasıl yardımcı olabileceğini açıklıyorlar. Bir makine öğrenimi işlem hattının ONNX formatına nasıl dönüştürüleceğini açıklayan, scikit-learn kullanarak canlı bir demo sağlıyorlar. Ayrıca, makine öğrenimi modellerini dağıtmak için Docker kapsayıcılarının sınırlamalarını tartışıyorlar ve bunun yerine ONNX kullanmanın faydalarını vurguluyorlar. Ek güvenlik için şifreleme modelleri konusuna değiniyorlar ve bazı şifreli hata mesajlarıyla hala genç bir ekosistem olan ONNX'in kullanılabilirlik sorununu ele alıyorlar.
Microsoft'un Vinitra Swamy ve Pranav Sharma ile ONNX ve ONNX Çalışma Zamanı
Microsoft'un Vinitra Swamy ve Pranav Sharma ile ONNX ve ONNX Çalışma Zamanı
Video, serileştirme ve sürüm oluşturmada modelleri birlikte çalışabilir ve verimli hale getirmek için oluşturulan Açık Sinir Ağı Değişimi (ONNX) formatını tartışıyor. ONNX, bir ara temsil katmanından, operatör özelliklerinden oluşur ve farklı veri türlerini destekler. C++ ve birleştiricide uygulanan ONNX Çalışma Zamanı, geriye dönük uyumluluk sunar ve yürütme sağlayıcıları, özel işleçler ve grafik iyileştiriciler aracılığıyla genişletilebilir. API, platformlar, programlama dilleri ve yürütme sağlayıcıları için destek sunar. Kullanıcılar, oturumlar oluşturabilir, modelleri optimize edebilir ve bunları gelecekte kullanmak üzere seri hale getirebilir. Hoparlörler, ONNX Runtime'ın Android cihazlarda çalışabilme özelliği ile çok yönlülüğünün ve verimliliğinin bir gösterimini sağlar.
Uyumluluk CentOS 7.6'ya geri dönüyor. Optimum performans için modelleri dönüştürmek ve ayarlamak için açık kaynaklı bir araç olan ONNX Go Live Tool da tartışılmaktadır. Bölüm, Office'in eksik belirleyici modelinde 14 kat performans kazancı ve bilişsel hizmetlerde kullanılan optik karakter tanıma modelinde 3 kat performans kazancı dahil olmak üzere ONNX kullanan Microsoft hizmetlerinin örnekleriyle sona eriyor.
ONNX-TensorRT kullanan Niceleme Farkında eğitimli modellerin INT8 Çıkarımı
ONNX-TensorRT kullanan Niceleme Farkında eğitimli modellerin INT8 Çıkarımı
NVIDIA'da derin öğrenme yazılımı mühendisi olan Dheeraj Peri, nicelemenin temellerini ve TensorRT'nin çeşitli füzyonlar yoluyla nicelenmiş ağları nasıl desteklediğini açıklıyor. TensorFlow 2.0 çerçevesi kullanılarak eğitilen modellere ve eğitim sonrası niceleme (PTQ) ve nicelemeye duyarlı eğitimin (QAT) nasıl gerçekleştirileceğine odaklanırlar. ONNX-TensorRT ile Nvidia TF2 niceleme araç takımı kullanılarak eğitilmiş bir modelin devreye alınma süreci açıklanmakta ve çeşitli ResNet modelleri için doğruluk ve gecikme sonuçları sunulmaktadır. Genel olarak, ONNX-TensorRT aracılığıyla TensorFlow'dan TensorRT dağıtımına uçtan uca QAT iş akışı gösterilmiştir.