Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
ONNX: Geçmiş, Bugün ve Gelecek - Jim Spohrer, IBM & Prasanth Pulavarthi, Microsoft
ONNX: Geçmiş, Bugün ve Gelecek - Jim Spohrer, IBM & Prasanth Pulavarthi, Microsoft
"ONNX: Geçmiş, Bugün ve Gelecek" videosunda, IBM'den Jim Spohrer ve Microsoft'tan Prasanth Pulavarthi, açık kaynaklı yapay zeka çerçevesi ONNX'in büyümesini ve geleceğini tartışıyor. ONNX tarafından sağlanan değiş tokuş formatı aracılığıyla yapay zeka modellerinin dağıtımını standartlaştırmanın önemini vurgulayarak, farklı derin öğrenme çerçevelerinde sorunsuz optimizasyon sağlar. Ek olarak, ONNX çalışma zamanının çeşitli donanım hızlandırıcılarla çalışma yeteneğindeki son gelişmeleri tartışıyorlar ve ONNX'i kullanmaya başlamak için ipuçları ve kaynaklar sunuyorlar. Konuşmacılar, izleyicileri ONNX topluluğuna katılmaya teşvik ederken, ONNX'in yetenekleri, ticari dağıtım ve yaklaşan sertifika planları hakkında izleyicilerin sorularını yanıtlıyor.
Onnx-mlir: ONNX Modelleri için MLIR tabanlı bir Derleyici - Son Durum
Onnx-mlir: ONNX Modelleri için MLIR tabanlı bir Derleyici - Son Durum
Onnx-mlir, optimizasyon ve kod üretimi için MLIR ve LLVM kullanan, CPU'ları ve özel hızlandırıcıları destekleyen ONNX modelleri için bir derleyicidir. IBM Research'ten Dong Lin, kapsamlı testlerin önemini vurguluyor ve çerçevenin çevrimiçi puanlama hizmetlerinde ve model hizmet çerçevelerinde kullanıldığını vurguluyor. Onnx-mlir, CPU ve hızlandırıcı için çeşitli düzeylerde optimizasyonlarla birden fazla lehçeye sahiptir ve bir IBM hızlandırıcı kullanarak bir kredi kartı dolandırıcılık tespit modelini 11 kat hızlandırdığı gösterilmiştir. Proje, önemli operatörleri optimize etmek ve niş makine öğrenimi operatörlerini ve GPU'lar gibi diğer hızlandırıcıları desteklemek için topluluk katkılarını memnuniyetle karşılamaktadır.
PFVM - Ara temsili olarak ONNX kullanan bir Sinir Ağı Derleyicisi
PFVM - Ara temsili olarak ONNX kullanan bir Sinir Ağı Derleyicisi
Bu videoda Preferred Networks'ten Zijian Xu, modül optimizasyonu için ara temsili olarak ONNX'i kullanan bir sinir ağı derleyicisi olan PFVM'yi tanıtıyor. PFVM'nin dışa aktarılan ONNX'i girdi olarak nasıl aldığını, optimize ettiğini ve üçüncü taraf API'leri kullanarak modeli belirtilen arka uçlarla nasıl yürüttüğünü tartışıyor. Genji, ONNX'i müşteri operatörleriyle genişletme, şekil çıkarımı ve grafik basitleştirme dahil olmak üzere optimizasyonun önemini açıklıyor. Ayrıca, dinamik durumda daha fazla destek ihtiyacı da dahil olmak üzere mevcut ONNX derleyicilerinin sınırlamalarına değiniyor ve daha fazla çıkarım işlevinin uygulanmasını öneriyor. Zijian Xu, daha hızlı hesaplama için çekirdek aralığı ek yükünü ve bellek kullanımını azaltmanın önemini vurguluyor ve çıkarımı programlamak ve şekillendirmek için makinelerde bulunan statik bilgilerin kullanılmasını öneriyor.
YVR18-332 TVM derleyici yığını ve ONNX desteği
YVR18-332 TVM derleyici yığını ve ONNX desteği
YVR18-332 videosu, ONNX de dahil olmak üzere bir dizi donanımı ve ön ucu destekleyen, topluluk liderliğindeki bir derin öğrenme yığını olan TVM derleyici yığınını tartışıyor. Konuşmacı, TVM'nin modelleri stereo düzeyinde nasıl optimize edebileceğini tartışarak, geliştiricilerin arama alanını keşfetmesine ve en iyi yapılandırmayı bulmasına olanak tanır. Ayrıca döngü dönüşümleri ve GPU hızlandırma dahil olmak üzere TVM'nin sunduğu otomatik optimizasyonları tartışıyorlar. Konuşmacı, 8 bit desteğin etkinleştirilmesini ve grafik düzeyinde otomatik ayarlamayı içeren TVM yol haritasından bahsediyor. Ek olarak, ONNX TV arayüzünü ve tüm ekosistemler için standart arayüzü birleştirme ihtiyacını tartışıyorlar. Son olarak, video öğle yemeği için duraklar.
arama alanını keşfetmek ve en iyi yapılandırmayı bulmak için tasarlanmıştır.
.NET MAUI Community Standup - Mike Parker ile ONNX Çalışma Zamanı
.NET MAUI Community Standup - Mike Parker ile ONNX Çalışma Zamanı
Bu videoda konuk konuşmacı Mike Parker, birden fazla donanım platformunda makine öğrenimi optimizasyonu ve hızlandırma sağlayan açık kaynaklı ve platformlar arası bir araç olan ONNX çalışma zamanını tanıtıyor. Parker, ONNX çalışma zamanını kullanmanın önemini açıklıyor ve bunun, MobileNet nesne sınıflandırma modelini kullanarak görüntüleri sınıflandırmak için .NET MAUI projelerinde nasıl kullanılabileceğini gösteriyor. Toplantı sahipleri ve Parker, makine öğrenimi modellerini bir cihazda çalıştırmanın faydalarını ve arka uç altyapı maliyetlerinden kaçınma becerisini tartışıyor. Ek olarak ekip, Parker'ın bu konudaki blogu ve .NET MAUI ve Xamarin desteği için Al Blount ile ortaklıkları da dahil olmak üzere yararlı kaynakları paylaşıyor.
[Sanal buluşma] Birlikte Çalışabilir AI: C++'da ONNX ve ONNXRuntime (M. Arena, M. Verasani)
[Sanal buluşma] Birlikte Çalışabilir AI: C++'da ONNX ve ONNXRuntime (M. Arena, M. Verasani)
Video, makine öğrenimi algoritmalarını eğitmek için farklı çerçeveler kullanmanın birlikte çalışabilirlik eksikliğine yol açan zorluklarını tartışıyor ve derin öğrenme modelleri için evrensel bir format oluşturmayı amaçlayan ONNX ve ONNXRuntime'ı tanıtıyor. ONNX, sinir ağlarını statik hesaplamalı grafiklere dönüştürerek çıkarım sırasında optimize edilmiş performans sağlar. ONNXRuntime, herhangi bir çerçevenin ONNX biçimine dönüştürülmesine izin verir ve herhangi bir donanım platformunu hedeflemek için kullanılabilecek hızlandırma kitaplıkları sağlar. Video, ONNX ve ONNXRuntime kullanımına ilişkin örneklerin yanı sıra bunların C++'da kullanımlarını tartışıyor ve projeyi ve belgelerini daha iyi anlamak için öneriler sunuyor.
Marco Arena ve Matteo Verasani ayrıca makine öğrenimi modelleri için C++'da ONNX ve ONNXRuntime kullanmanın faydalarını tartışarak çerçevenin esnekliğini ve performanstan ödün vermeden farklı çerçevelerdeki modelleri kolayca dönüştürme becerisini vurguluyor. Modelleri ONNX biçimine dönüştürme örnekleri sağlarlar ve ONNXRuntime'ın çıkarım modu için kullanımını gösterirler ve klasik bir Python modeliyle performanstaki iyileştirmeleri sergilerler. Ek olarak, gömülü sistemlerle çalışmalarını ve ONNXRuntime'ı GPU'larda kıyaslamanın potansiyel faydalarını tartışıyorlar. Konuşmacılar ayrıca gelecekteki sanal buluşmalardan bahsediyor ve katılımcılar için daha fazla ağ oluşturma fırsatı dahil etme umutlarını dile getiriyor.
[CppDay20] Birlikte Çalışabilir Yapay Zeka: C++'da ONNX ve ONNXRuntime (M. Arena, M.Verasani)
[CppDay20] Birlikte Çalışabilir Yapay Zeka: C++'da ONNX ve ONNXRuntime (M. Arena, M.Verasani)
Makine öğrenimi ve derin öğrenme algoritmalarının kullanımı artıyor ve bu algoritmaları farklı platformlarda dağıtabilen araçlara ihtiyaç var. ONNX aracı, farklı çerçeveler ve platformlar arasında birlikte çalışabilirlik sağlayarak, geliştiricilerin algoritmalarını bir çerçeveden diğerine dönüştürmelerine ve belirli çerçeveye veya platforma aşina olmasalar bile farklı cihazlara dağıtmalarına olanak tanır. ONNX Runtime, çıkarım aşamasında modelleri hızlandırmak için özel hızlandırıcılardan yararlanabilen ve çeşitli donanım platformlarını hedefleyebilen bir çıkarım motorudur. Konuşmacılar, ONNX ve ONNX Runtime'ın C++ programlamada kullanımını, doğrusal regresyon ve sinir ağı modelleri örnekleriyle gösterir. Ayrıca, bir ağın yürütülmesinde ince ayar yapmak, yükleme süresini optimize etmek ve sıralı görüntüleri yürütmek için ONNX ve ONNX Runtime kullanmanın faydalarını tartışıyorlar.
ONNX Runtime ve Hugging Face ile Makine Öğrenimini Hızlandırma
ONNX Runtime ve Hugging Face ile Makine Öğrenimini Hızlandırma
"ONNX Çalışma Zamanı ve Hugging Face ile Makine Öğrenimini Hızlandırma" videosu, ONNX çalışma zamanını kolayca uygulayarak trafo modellerini eğitimden çıkarıma hızlandırmaya odaklanan Hugging Face'in Optimum kitaplığının oluşturulmasını tartışıyor. Kitaplık, dönüştürücü kitaplığı ile donanım hızlandırması arasındaki köprüyü basitleştirerek üretim performansı için kullanımı kolay bir araç seti oluşturur. ONNX Çalışma Zamanı tarafından sağlanan optimizasyonları uygulayarak, kullanıcılar daha hızlı çıkarım boru hatlarıyla sonuçlanan tüm donanım hızlandırmalarından yararlanabilir. Hugging Face topluluğu içindeki bir iş birliği, bu hızlandırılmış çıkarım ardışık düzen sınıflarını kullanarak diziden diziye model optimizasyonunu mümkün kılıyor ve uçtan uca bir örnek, Optimum Kitaplığı kullanmanın %44 verim artışı veya gecikme süresi düşüşüyle sonuçlanabileceğini gösterdi. Orijinal model doğruluğunun %99,6'sı.
ONNX, Triton ve Seldon ile Makine Öğrenimi Çıkarımını Geniş Ölçekte Hızlandırma | PyData Global 2021
ONNX, Triton ve Seldon ile Makine Öğrenimi Çıkarımını Geniş Ölçekte Hızlandırma | PyData Global 2021
Seldon Technologies'den Alejandro Saucedo, "ONNX, Triton ve Seldon ile Geniş Ölçekte Makine Öğrenimi Çıkarımını Hızlandırma | PyData Global 2021" adlı videoda, makine öğrenimi çıkarımını ölçeklendirmenin zorluklarını ve modelleri optimize etmek ve üretmek için ONNX ve Triton'un nasıl kullanılacağını tartışıyor. GPT-2 TensorFlow modelini bir kullanım örneği olarak kullanan oturum, ön işlemeyi, en uygun belirteçleri seçmeyi ve Tempo ve Triton çıkarım sunucusunu kullanarak modeli dağıtmayı kapsar. Saucedo, tekrarlanabilirlik ve uyumluluğu sağlarken altyapı karmaşıklıklarını soyutlama ve kolay dağıtımı kolaylaştırma ihtiyacını vurgular. Konuşma, uçtan uca eğitim ve devreye alma bileşenleri için açık kaynaklı projelerle yapılan işbirlikleriyle sona eriyor.
AI Show Live - Bölüm 62 - ONNX Runtime ile Çoklu Platform Çıkarımı
AI Show Live - Bölüm 62 - ONNX Runtime ile Çoklu Platform Çıkarımı
AI Show Live'ın "ONNX Runtime ile Çoklu Platform Çıkarımı" bölümünde toplantı sahipleri, ONNX Runtime çerçevesini kullanarak birden fazla platformda bir süper çözünürlüklü modelin ve bir nesne algılama modelinin nasıl dağıtılacağını gösteriyor. Hem mobil hem de web platformları için ön işleme ve son işleme adımlarını tartışıyorlar, tek bir çözüm kullanmanın faydalarını gösteriyorlar, bir PyTorch modelini ONNX modeline dönüştürme sürecini açıklıyorlar ve ONNX ile çıkarım için verilerin nasıl ön işleneceğini gösteriyorlar. Çalışma süresi. Ek olarak, C# dilinde Onnx Runtime kullanılarak BERT doğal dil işleme modelinin uygulanmasını gösterirler. Kod ve açık kaynak modelleri, kullanıcıların çözümleri için özelleştirme için kullanılabilir.
AI Show Live'ın ikinci bölümünde sunum yapan kişiler, ONNX Çalışma Zamanı ile çıkarım çalıştırmayla ilgili çeşitli konuları ele alıyor. ONNX çıkarım örneklerinden bir örnek kullanarak metin sınıflandırma sürecini gösterirler ve C# dilinde BERT sınıflandırma modelleri oluşturmak için gereken paketlerin ve araçların kurulumunu keşfederler. Ayrıca IntelliCode'un VS 2022 ile kullanımını tartışıyorlar ve tensör oluşturma, ONNX Çalışma Zamanı çıkarım oturumunu yapılandırma ve çıktıyı sonradan işleme dahil olmak üzere model çıkarımına hazırlanma adımlarını adım adım anlatıyorlar. Ek olarak, model belgelerine başvurmanın ve doğru sonuçlar için doğru simge oluşturucuyu seçmenin önemine değiniyorlar.