Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
ONNX Runtime ile Uygulamalı Makine Öğrenimi
ONNX Runtime ile Uygulamalı Makine Öğrenimi
Microsoft'ta Temel Eğitim Bulutu Sözcüsü olan Jennifer Looper, bu videoda uygulama oluşturma, makine öğrenimi ve veri biliminin yakınsamasını tartışıyor. Web için akıllı uygulamalar oluşturmayı öneriyor ve makine öğrenimi teknolojisini uygulamalara dahil etmek için ml5.js, Magenta.js, PoseNet ve Brain.js dahil olmak üzere çeşitli JavaScript API'lerini araştırıyor. Looper, klasik makine öğrenimi için scikit-learn'ün yararlılığını vurguluyor ve onu, sinir ağlarının ağır çözümü olmadan güçlü bir araç olarak öneriyor. Ayrıca, makine öğrenimi ve derin öğrenme modelleri oluşturmak için ortak bir operatör seti tanımlayarak eğitimi ve çıkarımı optimize eden ve denetimli makine öğrenimi kullanarak temel bir sınıflandırma görevini gerçekleştirme sürecini açıklamak için Kaggle'dan veri sağlayan Onnx Runtime'ı tartışıyor. Ardından konuşmacı, makine öğrenimi modellerini kullanarak bir öneri motorunun nasıl oluşturulacağını gösterir ve makine öğrenimi hakkında daha fazla bilgi edinmek için Microsoft'un çevrimiçi kaynaklarının ziyaret edilmesini önerir. Onnx Runtime'ın müfredatlarının bir parçası olarak yeni başlayanlar veya makine öğrenimi hakkında daha fazla bilgi edinmek isteyen herkes için uygun olduğu sonucuna varıyor.
ONNX'in gücünü daha önce hiç olmadığı gibi Spark'a getirin
ONNX'in gücünü daha önce hiç olmadığı gibi Spark'a getirin
Bu videoda, Huawei'den Shivan Wang, çıkarım için ONNX'in gücünün Spark'a nasıl getirileceğini açıklıyor. Spark'ta DL modellerini devreye almanın zorluklarını ve Spark topluluğunun süreci basitleştirmek için Spip adlı bir teklifi nasıl başlattığını tartışıyor. Konuşmacı ayrıca Huawei'nin AI işlemcisi Ascent'i ve birden fazla Ascent işlemci modelini ve Atlas donanımını içeren Ascent AI ekosistemini tartışıyor. ONNX modellerini model çevirisine ihtiyaç duymadan doğrudan Ascent donanımında kullanmak için bir sonraki çalışma zamanında Con'u yeni bir yürütme sağlayıcısı olarak eklemenizi önerir. Son olarak, ONNX'in gücünü Spark'a getirmek için POC kodunun neredeyse tamamlandığını belirtiyor ve ilgili kullanıcıları tartışmak ve potansiyel olarak test amacıyla kaynak sağlamak için bir mesaj bırakmaya davet ediyor.
Builders Build #3 - Colab'dan ONNX ile Üretime
Builders Build #3 - Colab'dan ONNX ile Üretime
Video, ONNX kullanarak bir projeyi Colab'dan üretime dağıtma sürecini göstermektedir. Sunum yapan kişi, sinyalleri ön işleme, dağıtım için kodu değiştirme, AWS Lambda'da bir işleyici oluşturma, bir web sitesinde ses girişini kabul etme, S3'e bir işlev yükleme ve ONNX için bağımlılıkları dağıtma gibi çeşitli konuları kapsar. Konuşmacı, bazı zorluklarla karşılaşmasına rağmen, modelini AWS ile başarılı bir şekilde dağıtır ve sonraki adımlar için bir tarayıcı yükleme base64 dosya nesnesi veya ses dosyası okuma parçaları kullanabileceklerini önerir.
Ek olarak video, seste karşılaştırmalı öğrenme için SimCLR modelinin kullanımını, onları modele besleyerek bir şarkı kataloğu oluşturmayı ve k=1'de sıfır kayıp ve geri çağırma elde etmek için PyTorch ile eğitmeyi gösteriyor. Sunucu, üretimde PyTorch kullanmanın zorluklarını tartışıyor ve çözüm olarak ONNX'i öneriyor. Video, PyTorch modelinin ONNX formatında nasıl dışa aktarılacağını ve yükleneceğini ve çıkarımın nasıl yürütüleceğini gösterir. Ayrıca, Torch Audio ve Numpy kitaplıkları kullanılarak ses dosyalarının nasıl işleneceğini gösterir ve dağıtım için bir PyTorch modeli kurarken sorunları giderir. Video, modellerin Colab dizüstü bilgisayarlarındaki geliştirmeden üretim ortamlarına nasıl kaydırılacağına ilişkin içgörüler sunar.
Optimum, OpenVINO™, ONNX Runtime ve Azure'un gücünü birleştiriyor
Optimum, OpenVINO™, ONNX Runtime ve Azure'un gücünü birleştiriyor
Video, geliştiricinin iş akışını basitleştirmek ve modellerinin doğruluğunu ve hızını artırmak için Optimum, OpenVINO, ONNX Runtime ve Azure kombinasyonunu gösteriyor. Konuşmacılar, derin öğrenme modellerini optimize etmek için yardımcı işlevlerin, ONNX Çalışma Zamanının ve OpenVINO Yürütme Sağlayıcısının kullanımını gösterir. Ayrıca, Sinir Ağı Sıkıştırma Çerçevesinde niceleme kullanarak kucaklanan yüz modellerinin nasıl optimize edileceğini gösterirler ve Azure ML, Optimum, ONNX Runtime ve OpenVINO kullanarak eğitim ve çıkarım sürecini gösterirler. Gösterim, doğruluk kaybını en aza indirirken modellerin performansını iyileştirmede bu araçların gücünü vurgulamaktadır.
ONNX Modellerinin Daha Hızlı Çıkarımı | Geliştiriciler için Edge İnovasyon Serisi | Intel Yazılımı
ONNX Modellerinin Daha Hızlı Çıkarımı | Geliştiriciler için Edge İnovasyon Serisi | Intel Yazılımı
ONNX Çalışma Zamanı için OpenVINO Yürütme Sağlayıcısı bu videoda tartışılmaktadır. Derin öğrenme modellerinin çeşitli Intel bilgi işlem cihazlarına dağıtılmasına izin veren, platformlar arası bir makine öğrenimi modeli hızlandırıcısıdır. Geliştiriciler, Intel donanımı için optimize edilmiş OpenVINO araç setini kullanarak ve sağlayıcıyı kodda OpenVINO Yürütme Sağlayıcısı olarak ayarlayarak, gelişmiş optimizasyon teknikleriyle ONNX modellerinin çıkarımını hızlandırabilir. Video, tartışılan araçları kullanmak için gereken değişikliğin basitliğini vurgulamaktadır.
Buluttan İstemciye ONNX Runtime ile Daha Hızlı ve Daha Hafif Model Çıkarımı
Buluttan İstemciye ONNX Runtime ile Daha Hızlı ve Daha Hafif Model Çıkarımı
Bu videoda Microsoft Cloud ve AI grubundan Emma, Open Neural Network Exchange (ONNX) ve ONNX modellerini farklı donanımlar üzerinde çıkarım yapmak için yüksek performanslı bir motor olan ONNX Runtime'ı anlatıyor. Emma, ONNX Çalışma Zamanı INT8 nicelemenin sağlayabileceği önemli performans kazancı ve model boyutunda azalmanın yanı sıra doğruluğun önemini tartışıyor. ONNX Çalışma Zamanı INT8 nicelemesinin uçtan uca iş akışını gösteriyor ve PyTorch nicelemesini kullanan bir temel modelin sonuçlarını sunuyor. Ayrıca Emma, ONNX Runtime'ın buluttan istemciye model çıkarımını optimize etme yeteneğini ve hem Android hem de iOS platformlarında varsayılan olarak 300 kilobayttan daha küçük bir boyuta nasıl ulaşabileceğini tartışıyor.
ONNX dönüştürme ve niceleme ile hızlı T5 trafo modeli CPU çıkarımı
ONNX dönüştürme ve niceleme ile hızlı T5 trafo modeli CPU çıkarımı
T5 trafo modelini ONNX'e çevirerek ve kuantizasyon uygulayarak, model boyutunu 3 kat küçültmek ve çıkarım hızını 5 kata kadar artırmak mümkündür. Bu, saniyenin altında gecikme süresine sahip bir CPU'da T5 gibi bir soru oluşturma modeli dağıtmak için özellikle kullanışlıdır. Ek olarak, Gradio uygulaması, model için görsel olarak çekici bir arayüz sunar. Huggingface'in T5 trafo modeli kullanılır ve ONNX ve niceleme için FastT5 kitaplığı kullanılır. Bu optimizasyonların uygulanması, bu sistemlerin üretim dağıtımları için önemli maliyet tasarruflarıyla sonuçlanabilir.
Azure AI ve ONNX Çalışma Zamanı
Azure AI ve ONNX Çalışma Zamanı
Metin, makine öğreniminin ve dağıtımının çeşitli yönlerini kapsar. Veri biliminin gelişimini, çerçeve uyumluluğunun zorluklarını, model dağıtımı için Azure AI ve ONNX Runtime'ın kullanımını, ML ortamlarının oluşturulmasını ve ONNX Runtime'ın sınırlamalarını tartışır. Konuşmacı, ONNX'in standardizasyonunu ve çoklu çerçeve desteğini vurgulayarak farklı donanımlar için optimize etmeyi kolaylaştırır. Video ayrıca, donanım tercihleri için bir karşılaştırma ölçütünün bulunmadığından ve ONNX'in sınırlamalarının üstesinden gelmek için birden fazla araç kullanma ihtiyacından da bahsediyor.
ONNX ile Makine Öğrenimini her yerde devreye alın. Azure ml.net İşlevinde çalışan Python SKLearn Modeli
ONNX ile Makine Öğrenimini her yerde devreye alın. Azure ml.net İşlevinde çalışan Python SKLearn Modeli
Video, ONNX çalışma zamanının farklı dillerde ve çerçevelerde oluşturulmuş makine öğrenimi modellerinin dağıtımını nasıl basitleştirdiğini ve standartlaştırdığını gösterir. Bir Python scikit-learn modelini bir ONNX modeline paketleme ve onu bir Azure ML .NET işlevinde dağıtma sürecini gösterir. Video, Azure işlevinin bir HTTP POST isteği aracılığıyla kolayca tetiklenebileceğini, böylece herhangi bir uygulamadan veya web sitesinden çağrı yapmayı kolaylaştırdığını ve makine öğrenimi modelini oluşturmak için kullanılan dilden bağımsız olarak bir ONNX modeline dönüştürülebileceğini ve Tutarlı bir şekilde çalışması için ML.NET aracılığıyla dağıtılır.
Makine Öğrenimi Modellerini (TensorFlow/Caffe2/ONNX) Dağıtma - Hızlı ve Kolay
Makine Öğrenimi Modellerini (TensorFlow/Caffe2/ONNX) Dağıtma - Hızlı ve Kolay
Video, transfer öğreniminin görüntüleri sınıflandırmak için nasıl kullanılabileceğini ve görüntü sınıflandırma modelinin Python ve TensorFlow kullanılarak bir son kullanıcı uygulamasına nasıl entegre edileceğini gösterir. Sunucu, fotoğrafların gerekli perspektiften yüklenmediği ve etiketlerin manuel olarak kontrol edilmesi gerektiğinde karşılaşılan zorlukları göstermek için bir araba ticareti uygulaması örneği kullanıyor, bu da can sıkıntısına ve verimsizliğe yol açıyor. Transfer öğrenme tekniğini kullanarak fotoğraf perspektiflerini tanıması için mevcut bir sinir ağını eğiterek bu zorlukların nasıl üstesinden gelineceğini açıklıyor. Ardından, GraphPipe açık kaynak projesini kullanarak modelin Oracle bulutunda nasıl test edileceğini ve konuşlandırılacağını gösteriyor. Son olarak sunum yapan kişi, makine öğrenimi modellerinin laboratuvar aşamasından üretim aşamasına alınmasının önemini vurgulamaktadır.