1. ONNX Runtime
Video, geleneksel ve derin öğrenme modellerini temsil etmek için açık bir format olan Open Neural Network Exchange (ONNX) projesini tartışıyor. Ayrıca, modelleri çalıştırmak için yüksek performanslı motor olan ONNX Runtime'ı da açıklar.
ONNX Runtime, ONNX'te tanımlanan tüm operatörler için kapsamlı kapsama ve destek sağlar ve Linux, Windows ve Mac dahil birçok platformda hem CPU hem de GPU ile çalışır.
Ayrıca, Azure ML'de ONNX Runtime kullanarak bir modeli dönüştürmek, yüklemek ve çalıştırmak için adım adım bir kılavuz sağlar ve çeşitli modeller için iyileştirilmiş performans ve tahmin verimliliği dahil olmak üzere potansiyel faydalarını gösterir.
Video, geliştiricileri ONNX'i denemeye ve büyüyen ONNX topluluğuna katkıda bulunmaya teşvik etti.
2. Modelleri #ONNX Formatına Dönüştürme
Modelleri #ONNX Formatına Dönüştürme
Video, PyTorch, TensorFlow ve Scikit-learn gibi popüler kitaplıklara odaklanarak makine öğrenimi modellerini ONNX formatına dönüştürme sürecini tartışıyor. Verilen örnek, önceden eğitilmiş bir modelin torch.onnx.export kullanılarak ONNX formatına dönüştürüldüğü PyTorch içindir. Video, bu işlevde iletilebilecek farklı parametrelerin yanı sıra TensorFlow ve trafo modellerinin ONNX formatına dönüştürülmesini kapsar. Model ONNX biçiminde olduğunda, platformlar arası dağıtımlar ve ONNX çalışma zamanı paketi aracılığıyla performans iyileştirmeleri için kullanılabilir. ONNX kullanan yenilikçi modellerle ilgili diğer videolar da alay ediliyor.
- 00:00:00 ONNX biçimine öğrenme kitaplıkları. Bu bölümde PyTorch, TensorFlow ve Scikit-learn gibi popüler kitaplıklara odaklanacağız. Öncelikle kullandığımız belirli eğitim çerçevesi için dönüştürücü kitaplığını almamız gerekiyor. Verilen örnek, önceden eğitilmiş bir model aldığımız, sahte bir girdi oluşturduğumuz ve ardından onu ONNX biçimine dönüştürmek için torch.onnx.export kullandığımız PyTorch içindir. Dönüştürme sırasında oluşturulan giriş ve çıkış adları, daha sonra ONNX çalışma zamanı paketi kullanılarak çıkarım yapmak için kullanılacaktır. ONNX modeli artık yetenekleri için kullanılabilir. Bu bölüm ayrıca torch.onnx.export işlevinde gönderilebilecek farklı parametreleri ve TensorFlow ile trafo modellerinin ONNX formatına nasıl dönüştürüleceğini de kapsar.
- 00:05:00 Bu bölümde, konuşmacı bir makine öğrenimi modelini ONNX biçimine dönüştürme sürecini açıklıyor. Alıntı, Scikit-learn'ü içe aktarma ve bir başlangıç türü veya şekli oluşturma örneğini gösterir. Convert to sklearn yöntemi, modeli ve başlangıç tipini göndermek, ardından modeli adlandırmak ve bir dosyaya yazmak için kullanılır. Model bir ONNX biçiminde olduğunda, ONNX çalışma zamanı aracılığıyla platformlar arası dağıtımlar ve performans geliştirmeleri kullanılabilir. Konuşmacı, marş modeli çılgınlığı temasında ONNX kullanan yenilikçi modeller hakkında daha fazla gelecek videoya işaret ediyor.
- 2022.03.07
- www.youtube.com
3. ONNX – makine öğrenimi modelleri için açık biçim
3. ONNX – makine öğrenimi modelleri için açık biçim
Video, donanım optimizasyonu ve çeşitli formatlarla birlikte çalışabilirlik dahil olmak üzere çıkarım için ONNX kullanmanın faydalarını tartışıyor. Konuşmacı, özellikle uç cihazlarda kurulum için ONNX avantajlarından yararlanmak için uygun donanımın önemini vurguluyor. Bu bölüm ayrıca, işletim sisteminde yerleşik olarak bulunan Core ML kullanan iOS aygıtları için derin öğrenme modellerinin optimizasyonunu da kapsar; Bir sonraki öğretici, üniversite öğrencilerini iOS uygulama geliştirmede bir proje düşünmeye teşvik ederek, görüntü sınıflandırması ve segmentasyonuna odaklanacak.
- 00:00:00 Konuşmacı, makine öğrenimi modelleri için açık bir format olan ONNX'i tartışıyor. ONNX, birlikte çalışabilirlik ve donanım erişimi sunarak kullanıcıların herhangi bir modeli ONNX'e veya tersine dönüştürmesine olanak tanır. Ayrıca TensorFlow ve PyTorch dahil olmak üzere çok çeşitli formatları destekler. Kullanıcılar, modelleri ONNX'e dönüştürerek donanımı optimize edebilir ve çalışma süresini hızlandırabilir.
- 00:05:00 Bu bölümde konuşmacı, süreci hızlandırabilen optimizasyonla birlikte ONNX'i çıkarım için kullanmanın avantajlarını tartışıyor. Farklı GPU'lar ve CPU'lar kullanılabilir, bu da parti boyutlarını ONNX modellerinin yürütme hızıyla alakasız hale getirir. Konuşmacı, kullanılan donanımın ONNX avantajlarından yararlanmak için uygun olması gerektiğini vurgular. Uç cihazlara dağıtım, maksimum fayda sağlayabilir;
sonraki öğretici kapsayacaktır. Son olarak, konuşmacı, optimum performans için çıkarımın cihazın kendisinde gerçekleştiği, bir iOS uygulaması aracılığıyla eğitilmiş bir modelin konuşlandırılmasına ilişkin varsayımsal bir senaryoyu açıklıyor. Bir Apple nöral motoruyla gelen Apple cihazları, çıkarımı hızlı ve güvenilir olacak şekilde optimize edebilir. - 00:10:00 Konuşmacı, derin öğrenme çıkarımı için bir çerçeve olan Core ML kullanan iOS cihazları için derin öğrenme modellerinin optimizasyonunu tartışıyor. Eğitilmiş bir modeli Keras veya PyTorch'tan ONNX olarak kaydederek, kolaylıkla bir Core ML modeline dönüştürülebilir ve iOS cihazlarda dağıtılabilir. Core ML, işletim sisteminde yerleşiktir ve makine öğrenimi kitaplıkları için ikili dosyaları derleme, bağlama veya gönderme ihtiyacını ortadan kaldırır. Bir sonraki öğreticide, konuşmacı görüntü sınıflandırma ve bölümlemeye odaklanacak ve üniversite öğrencilerini iOS uygulama geliştirmede bir proje düşünmeye teşvik edecek.
4. ONNX ile (Derin) Makine Öğrenimli Model Dağıtımı
PyParis 2018 - ONNX ile (Derin) Makine Öğrenimli Model Dağıtımı
PyParis 2018 videosundaki konuşmacı, scikit-learn ve XGBoost gibi yaygın kitaplıklarda değişen tahmin süreleri dahil olmak üzere makine öğrenimi modellerini devreye almanın zorluklarını tartışıyor. Microsoft tarafından geliştirilen ve yakın zamanda ONNX çalışma zamanı ile piyasaya sürülen, belirli durumlarda daha iyi doğruluk sağlayabilen ancak diğer kitaplıklardan daha yavaş olan açık kaynaklı bir makine öğrenimi kitaplığı olan ML.NET'i tanıtıyorlar. Konuşmacı ayrıca ONNX için çalışma süresini gösterir ve bunun MobileNet ve SqueezeNet modelleri için üretim süresini yarı yarıya azalttığını açıklar. ONNX, yalnızca modelleri üretime itmek için değil, aynı zamanda model performansını izlemek için meta verileri depolamak üzere tasarlanmıştır ve platformdan bağımsız olduğu için her yerde çalıştırılabilir.
- 00:00:00 Bu bölümde, konuşmacı, makine öğrenimi modellerini, özellikle eğitim sırasında olduğundan farklı koşullarda kullanırken, devreye almanın zorluklarını tartışıyor. Scikit-learn ve XGBoost gibi yaygın kitaplıkların nasıl farklı tahmin sürelerine sahip olduğunu gösteriyor ve Microsoft tarafından geliştirilen ve yakın zamanda ONNX çalışma zamanı ile piyasaya sürülen açık kaynaklı bir makine öğrenimi kitaplığı olan ML.NET'i tanıtıyor. Konuşmacı, ML.NET için tahmin süresini ölçer ve diğer kitaplıklardan daha yavaş olduğunu ancak belirli durumlarda daha iyi doğruluk sağlayabildiğini gösterir.
- 00:05:00 Bu bölümde konuşmacı c-sharp ve Python ile bir notebook ile elde edilen performans metriklerinden bahsediyor. Dizüstü bilgisayar, Cyclone, GBM ML ve Trees gibi farklı kitaplıkların performansını gösterir. Konuşmacı ayrıca toplu tahminin konumları tahmin etmek için harcanan ortalama süreyi azaltmaya nasıl yardımcı olduğunu da gösterir. Ardından tartışma, makine öğrenimi modelinin ardışık düzenini ve ONNX'in minimum dil kullanarak ardışık düzeni tanımlamaya nasıl yardımcı olduğunu açıklamaya devam eder. ONNX, Google ürününü temel alan model dökümü için ortak bir biçim sağlar ve Microsoft ve Facebook tarafından desteklenir. Konuşmacı, eğitim yönteminin kötü tahmin, iyi hafıza ve büyük veri gerektirdiğini, oysa bir pozisyonu tahmin etmek için küçük hafıza ve iyi tahminin istendiğini belirterek bitirir.
- 00:10:00 Bu bölümde konuşmacı, açık sinir ağı değişimi anlamına gelen ONNX için çalışma zamanını gösterir. Modelleri dönüştürmek için bir XML dosyası kullanan ONNX çalışma zamanı, hem MobileNet hem de SqueezeNet modelleri için üretim süresini yarıya indirmeyi başardı. Model Hayvanat Bahçesi bu noktada hala istikrarsız, ancak sonunda birkaç ay içinde istikrara kavuşacak. Bu arada, Python ve Keras'ta bulunan standart makine öğrenimi modelleri ve dönüşümleri ele alınmaktadır, çünkü ONNX Python'dan edinilebilir ve modeli çalıştırmak için başka bağımlılıklar olmayacaktır.
- 00:15:00 Bu bölümde konuşmacı, ONNX'in yalnızca modelleri üretime itmek için değil, aynı zamanda model performansını izlemek için kullanılabilecek meta verileri depolamak için tasarlandığını açıklıyor. Konuşmacı ayrıca ONNX'in platformdan bağımsız olduğu için her yerde çalıştırılabilen bir kitaplık olduğundan bahseder. ONNX modeli, serileştirme için Google+ kullanılarak optimize edildi ve küçültüldü ve yalnızca katsayıları içeriyor. Sorulara yanıt olarak konuşmacı, ONNX'in Microsoft tarafından benimsendiğini ve tahmin süresini iyileştirmek için kullanıldığını ve konuşmacının yaygın olarak kullanılmaya devam edeceğine inandığını açıklıyor.
5. Tekrarlayan Sinir Ağları | Alım Satım Algoritmaları İçin LSTM Fiyat Hareketi Tahminleri
Tekrarlayan Sinir Ağları | Alım Satım Algoritmaları İçin LSTM Fiyat Hareketi Tahminleri
Video, ticaret algoritmalarında fiyat hareketi eğilimlerini tahmin etmek için tekrarlayan sinir ağlarının ve LSTM uzun süreli bellek ağlarının kullanımını açıklıyor. Video, veri kümesini LSTM modeline beslemeden önce ön işleme adımlarını adım adım gösterir. Gereksiz sütunlar atılır ve özellik verilerini sıfır ile bir arasında ölçeklendirmek için minimum-maks ölçeklendirme uygulanır. Tahmini veriler 'y'ye girerken veriler daha sonra 'x' içine konur. Video ayrıca, verilerin %80'i eğitim için ve %20'si test için kullanılan LSTM modelinin eğitimini ve test edilmesini kapsar. Model, test verilerini tahmin etmeden önce eğitim verileriyle derlenir ve uyarlanır, sonuçlar bir grafik şeklinde sunulur. Video bazı umut verici tahminler gösteriyor, ancak konuşmacı, gelecekteki videolarda hala iyileştirme için yer olduğunu belirtiyor.
- 00:00:00 Bu bölümde yazar, fiyat hareketi tahminleri için tekrarlayan sinir ağlarının ve lstm uzun süreli bellek ağlarının nasıl kullanılacağını açıklıyor. Girdi parametreleri, fiyat hareketi eğilimi olabilecek çıktıyı tahmin etmek için veri çerçevesine dahil edilebilecek fiyat değerleri, teknik göstergeler ve özel göstergeler olabilir. lstm modeli geçmiş verileri alır ve bir sonraki günün kapanış fiyatını tahmin etmeye çalışır. Model, iki boyutlu girdi gerektirir ve eğitim veri seti, veri setinin şekli dikkate alınarak üç boyutludur. YouTuber, numpy, pandas, matplotlib ve pandas TA teknik analizi kullanılarak modüllerin nasıl içe aktarılacağını ve bir veri çerçevesi oluşturmak için YFinance kullanılarak verilerin nasıl indirileceğini gösteriyor. Teknik göstergeler, TA teknik analizi kullanılarak veri çerçevesine eklenir. Son olarak bir sonraki kapanış fiyatı hedef kolon olarak belirlenir ve düzeltilmiş kapanış kolonunun indeks eksi bir ile kaydırılması ile elde edilir ve boş satırlar atılır ve dataframe sıfırlanır.
- 00:05:00 Bu bölümde konuşmacı, veri setini LSTM modeline beslemeden önce ön işleme adımlarını açıklar. İlk olarak, gereksiz sütunları atarlar ve özellik verilerini sıfır ile bir arasında ölçeklendirmek için Scikit-learn paketindeki MinMaxScaler'ı kullanırlar. Girdi verileri, üç hareketli ortalama, RSI, açık, yüksek ve düşük fiyatlar dahil olmak üzere sekiz sütundan oluşur ve iki boyutlu bir Numpy dizisinde işlenir. Daha sonra, tahmin edilecek hedef 'sonraki kapanış' sütununu seçerler ve dikkate alınacak geçmiş günlerin sayısını temsil eden arka mumların sayısını ayarlarlar. Bir sonraki günün kapanış fiyatı olan tahmini veriler 'y' içine girerken, giriş verileri 'x' içine konur. Kod Python'da yazılmıştır ve hataları önlemek için LSTM modelinin doğru boyutları dikkate alınmalıdır. Son olarak, veriler eğitim ve test amacıyla bölünür.
- 00:10:00 Bu bölümde konuşmacı, eğitim için kullanılan verilerin %80'i ve test için %20'si ile LSTM modelini eğitir ve test eder. Giriş işlevinin şekli arka mumların sayısına eşittir, yani modele beslenen satırların sayısı, model için iki boyutlu bir giriş şekli matrisi oluşturan sütunların sayısıdır. Belirli düğümlerle ara ve yoğun bir katman oluşturulduktan sonra, model eğitim verileriyle donatılmadan önce derlenir. Model daha sonra test verilerini tahmin etmek için kullanılır ve y değişkeni ertesi günün kapanış fiyatını temsil eder. Sonuçlar, bazı umut verici tahminleri gösteren bir grafik şeklinde geliyor, ancak konuşmacı modelin bazı alanlarda başarısız olduğunu ve gelecekteki videolarda iyileştirmeler yapılması gerektiğini belirtiyor.
- 2022.08.11
- www.youtube.com
ONNX Hakkında Bilmek İstediğiniz Her Şey
ONNX Hakkında Bilmek İstediğiniz Her Şey
ONNX biçimi, modellerin bir çerçeveden diğerine aktarılmasına izin veren taşınabilir bir dosya biçimi sağlayarak, derin öğrenme ortamında parçalanmış araç ve çerçeve setinin sunduğu zorlukları ele almayı amaçlar. Derin öğrenme alanında kullanılan sözdizimlerini, anlambilimi ve kuralları standartlaştıran ve hem derin öğrenmeyi hem de geleneksel makine öğrenimi modellerini destekleyen son derece şeffaf ve iyi belgelenmiştir. ONNX, manuel optimizasyon veya dönüştürme olmaksızın çeşitli donanım ortamlarında birlikte çalışabilirlik, verimlilik ve optimizasyon sağlar. Video, ONNX'e özel dönüştürücü kullanılarak eğitilmiş bir modeli scikit-learn'den ONNX formatına dönüştürmeye ilişkin temel bir demoyu gösterir ve eğitimin PI meşale kullanılarak yapıldığı ve çıkarımın gerçekleştirildiği reaktif bir kullanım durumunda nihai çıkarımın nasıl gerçekleştirileceğini gösterir. TensorFlow.
Web semineri, "ONNX TF arka ucundan" "hazırlama" işlevini kullanarak ve çıktıyı ".pb" dosyası olarak kaydederek bir ONNX modelinin TensorFlow formatına nasıl dönüştürüleceğinin gösterilmesiyle sona erer. Konuşmacı, TensorFlow modelinin ONNX'e herhangi bir atıfta bulunmadan çıkarım yapmak için kullanılabileceğini not eder. Seyirciye teşekkür edildi ve konuşmacı, Microsoft'un dağıtılmış uygulama çalışma zamanı hakkında yaklaşan başka bir web seminerinin yanı sıra The New Stack'te ONNX hakkında yakında çıkacak makaleleri duyuruyor. Katılımcılardan gelen geri bildirimler olumluydu.
- 00:00:00 Parçalanma ve dağıtılmış araç ve çerçeve seti nedeniyle makine öğrenimi ve derin öğrenmenin karmaşıklığıyla mücadele ediyorsanız, ONNX tam da ihtiyacınız olan çözüm olabilir. Bir web seminerinin bir bölümünde konuşmacı, derin öğrenme ortamında karşılaşılan mevcut zorlukları ve ONNX'in bunları nasıl çözebileceğini açıklar. Makine öğrenimi ve derin öğrenime genel bir aşinalık olduğunu varsayarak, tartışma, hem ONNX hem de ONNX çalışma zamanı tarafından sunulan vaatlere ilişkin ayrıntılı bir genel bakış sunar. Bu bölümün sonunda, izleyicilere, web semineri dizisi boyunca yinelenen bir tema olan makine zekası ile modern altyapının yakınsaması fikri tanıtılıyor.
- 00:05:00 Bu bölümde konuşmacı, özellikle eğitim ve üretim açısından derin öğrenmenin zorluklarını tartışıyor. Eğitim söz konusu olduğunda, parçalanmış çerçeveler ve araç takımları kullanmak kolay değildir ve eğitimi hızlandırmak için GPU'larla çalışırken altyapı önemlidir. Ayrıca, yalnızca donanımla ilgili değil, aynı zamanda NVIDIA GPU'lar için CUDA ve KuDNN ve Intel'in FPGA'ları için oneDNN gibi yazılımlarla da ilgilidir. Üretim tarafında, eğitilen modelin, veri türlerinin dönüştürülmesini ve TensorRT gibi araçların kullanılmasını gerektiren yüksek doğruluk ve düşük gecikme süresi sağlaması için hedef ortam için optimize edilmesi gerekir. Bu nedenle derin öğrenme, donanım ve yazılım katmanlarını anlamayı ve modeli istenen performansı sağlayacak şekilde optimize etmeyi gerektirir.
- 00:10:00 Bu bölümde konuşmacı, yapay zeka modellerini etkili bir şekilde optimize etmek ve dağıtmak için gerekli olan çeşitli araçları, çerçeveleri ve donanım ortamlarını tartışıyor. Konuşmacı, özellikle CPU'lar için modelin optimizasyonu ve sayısallaştırılması ihtiyacını vurgular ve Nvidia T4 ve Intel'in OpenVINO araç takımı gibi popüler araç setlerinden bahseder. Konuşmacı ayrıca, endüstriyel otomasyon ve IoT kullanım örnekleri için Nvidia'nın Jetson ailesi, görsel bilgi işlem için Intel'in görüntü işleme birimi ve uç için Google'ın Edge TPU'su gibi farklı donanım ortamlarının farklı araçlar gerektirdiğini açıklıyor. AI modellerinin optimizasyonu ve devreye alınması süreci, modelin kaymasını tespit etmeyi, yeniden eğitmeyi, optimize etmeyi, devreye almayı ve ölçeklendirmeyi içeren karmaşık ve sürekli bir süreçtir. Konuşmacı, tüm bu kapalı döngü mekanizmasıyla etkili bir şekilde ilgilenen bir boru hattına sahip olmanın önemini vurguluyor.
- 00:15:00 Bu bölümde konuşmacı, verimliliği, optimizasyonu ve birlikte çalışabilirliği destekleyen farklı çerçeveler ve hedef ortamlar arasında aracı görevi gören Açık Sinir Ağı Değişimi olarak ONNX'i tanıtıyor. ONNX, derin öğrenmeyi ve geleneksel makine öğrenimi modellerini destekler ve modellerin bir çerçeveden diğerine dışa ve içe aktarılmasını sağlar. Ayrıca ONNX, manuel optimizasyon veya dönüştürme olmaksızın çeşitli donanım ortamlarını destekler. Konuşmacı, AWS, Microsoft ve Facebook'un kurucu üyeleriyle kurulduğu 2017 yılından bu yana, ONNX'in Nvidia, Intel, IBM, Qualcomm, Huawei, Baidu ve daha fazlasının katkılarıyla önemli ölçüde büyüdüğünü ve bu ekosistemi genel bulut platformlarında aktif olarak desteklediğini belirtiyor. araç takımları ve çalıştırma süreleri. ONNX, diğer çerçeveler ve araç setlerindeki gelişmelere yanıt olarak önemli bir değişim geçirerek onu kompakt, çapraz platformlu ve en son gelişmelere ayak uyduran hale getirdi.
- 00:20:00 Bu bölümde konuşmacı, bir çerçevede veya araç setinde eğitilmiş modellerin diğerine aktarılmasına izin veren taşınabilir bir dosya formatı olan ONNX'i tartışıyor. ONNX, JVM ve CLR gibi taşınabilir çalışma zamanlarından büyük ölçüde esinlenmiştir ve üst düzey araç takımlarından bir düzeyde soyutlama ve ayrıştırma sağlar. Derin öğrenme alanında kullanılan sözdizimlerini, anlambilimi ve kuralları standartlaştıran oldukça şeffaf ve iyi belgelenmiş bir formattır. ONNX ML ayrıca geleneksel makine öğrenimini destekleyen bir uzantıdır. Bir model ONNX olarak dışa aktarıldığında, tüm modeli temsil eden çoklu hesaplama düğümlerinin bir grafiği haline gelir.
- 00:25:00 Bu bölümde konuşmacı, ONNX'te bir grafik içindeki hesaplama düğümlerinin yapısını açıklar. Her düğüm bağımsızdır ve giriş verileri ve parametreleriyle birlikte gerçek hesaplamayı gerçekleştiren bir operatör içerir. Giriş verileri, bir sonraki hesaplama düğümüne gönderilen çıktıyı yaymak için operatör tarafından işlenen çeşitli veri türlerinden oluşan bir tensör olabilir. Konuşmacı ayrıca, ONNX operatör tipini daha yüksek seviyeli çerçeve veya araç seti ile eşledikleri için ONNX'te operatörlerin gerekli olduğunu, modeli yorumlamayı ve yüksek seviyeli grafik yapısını ONNX içinde mevcut olan gerçek operatöre eşlemeyi kolaylaştırdığını belirtiyor.
- 00:30:00 Bu bölümde, videoda özel operatörler ve bunların ONNX içinde nasıl tanımlanabileceği anlatılmaktadır. Özel işleçler, mevcut ONNX işleçlerinde yer almayan kendi etkinleştirme işlevlerini veya tekniklerini oluşturan ileri düzey kullanıcılar için kullanışlıdır. Özel işleçler daha sonra bir modeli bir çerçeve düzeyinden ONNX'e dışa aktarmak için kullanılabilir. Ardından video, eğitilmiş bir modeli scikit-learn'den ONNX'e özgü dönüştürücüyü kullanarak ONNX formatına dönüştürmek için ONNX kullanımının temel bir demosunu gösterir.
- 00:35:00 Bu bölümde konuşmacı, model yapısının kolayca ayrıştırılmasına ve keşfedilmesine olanak tanıyan ONNX formatının şeffaflığını ve yorumlanabilirliğini vurgular. ONNX modeli, modeldeki mevcut düğümler üzerinde programlı olarak yinelemeyi etkinleştirerek protobuf'a bile aktarılabilir. Video, var olan bir modeli kullanarak çıkarımı gösterir ve kod, girdi verilerindeki her öğe için sınıflandırma içeren bir numpy dizisi döndüren çıkarım için girdi verilerinin nasıl gönderileceğini gösterir. ONNX'in faydalarından biri, Escalon'dan ayrıştırılmış olmasıdır, bu nedenle modelin nereden geldiği konusunda endişelenmenize gerek kalmaz, bu da modeli tüketmeyi kolaylaştırır. ONNX biçimi DLL veya jar dosyalarına benzer, çünkü tüketilmeden önce yazıldığı programlama dili hakkında endişelenmenize gerek yoktur, bu da onu esnek ve çok yönlü hale getirir.
- 00:40:00 Bu bölümde konuşmacı ONNX dosya formatı ve ONNX çalışma süresi hakkında konuşuyor. ONNX, bir modelin grafiğini ve operatörleri iyi tanımlanmış bir spesifikasyonda tanımlayan taşınabilir ve bağımsız bir formattır. ONNX çalışma zamanı ise Microsoft tarafından yürütülen ve savunulan bir projedir. ONNX'ten farklı bir projedir ve gerçek çalışma zamanını oluşturarak ONNX'in sözünü bir sonraki seviyeye taşır. Microsoft, Windows 10'da minimum için fiili katman haline geldiği için ONNX çalışma zamanı konusunda büyük bahis oynuyor. Konuşmacı, ONNX ve ONNX çalışma zamanı arasındaki ilişkiyi, katmanlarının görsel bir temsili aracılığıyla açıklıyor.
- 00:45:00 Bu bölümde konuşmacı, temeldeki donanımı soyutlayarak farklı donanım ve optimize edicilerle kullanımı kolaylaştıran ONNX çalışma zamanının vaatlerini tartışıyor. ONNX, yürütme sağlayıcılarını, donanım satıcıları tarafından mevcut sürücüleri ve kitaplıkları ile arayüz oluşturmak için oluşturulabilen ve çalışma zamanını son derece taşınabilir hale getiren bir eklenti modeli aracılığıyla kullanır. Microsoft, ONNX çalışma zamanının yüksek performans gösterdiğini kanıtlayan çok sayıda kıyaslama yayınladı ve Microsoft içindeki birçok ürün ekibi, Bing'den Office 365'e ve kognitif hizmetlere kadar, tercih ettikleri derin öğrenme çalışma zamanı olarak artık onu benimsiyor. Konuşmacı daha sonra, ONNX çalışma zamanının üzerinde çalıştırabileceğiniz ONNX modellerini edinmenin dört yolunu açıklayarak, Model Hayvanat Bahçesi ile başlayıp modeli bulutta veya uçta eğitmek ve dağıtmak için Azure ml kullanarak sona erer.
- 00:50:00 Bu bölümde sunum yapan kişi, model hayvanat bahçesinden önceden eğitilmiş bir ONNX modelinin nasıl indirileceğini ve çıkarım için nasıl kullanılacağını tartışır. Demo, model hayvanat bahçesinden indirilen önceden eğitilmiş bir EMNIST ONNX modelini ve çıkarım için kullanılan el yazısı rakamların test görüntülerini içerir. Sunucu kodu gözden geçirir ve girdi verilerini ONNX modeline göndermeden önce gereken ön işleme adımlarını açıklar. Kod, ONNX çalışma zamanı, NumPy ve OpenCV kitaplıklarını kullanır ve nihai çıktı, tahmin edilen basamak değerleridir. Sunucu, modelin doğru olduğunu ve el yazısı rakamları doğru şekilde tanımlayabildiğini gösterir.
- 00:55:00 Bu bölümde, konuşmacı, eğitimin PI meşale kullanılarak yapıldığı ve çıkarımın TensorFlow'da gerçekleştirildiği çok reaktif bir kullanım durumunda son çıkarımın nasıl gerçekleştirileceğini gösterir. Konuşmacı, bir PI meşale modelinin bir ONNX modeline ve ardından doğrudan TensorFlow'da kullanılabilen bir protobuf dosyasına nasıl dönüştürüleceğini gösterir. Kod basittir ve dönüştürme, Pytorch'ta bulunan yerleşik bir dışa aktarma aracı aracılığıyla yapılır.
- 01:00:00 Bu bölümde, konuşmacı bir ONNX modelinin TensorFlow formatına nasıl dönüştürüleceğini açıklıyor. Bu, basitçe ONNX'i içe aktararak ve modeli yüklemek için "ONNX TF arka ucundan" "hazırla" işlevini kullanarak ve ardından çıktıyı bir ".pb" dosyasına yazarak yapılır. Konuşmacı, TensorFlow modelinin ONNX'e herhangi bir atıfta bulunmadan çıkarım için kullanılabileceğini gösterir. Oturum, öğreticilerin ve tüm kaynak kodunun mevcut olacağı The New Stack'teki konuşmacı tarafından ONNX'te gelecek makaleler hakkında bir notla sona erer.
01:05:00 Bu bölüm, ONNX hakkında herhangi bir bilgi içermez, daha çok konuyla ilgili bir web seminerinin sonucu olarak hizmet eder. Konuşmacı, izleyicilere katılımları ve destekleri için teşekkür eder ve web seminerinin kaydedilen videosunun yakında yükleneceğini duyurur. Seyirciden web seminerinin alaka düzeyini ve kalitesini derecelendirmesi istenir ve yanıt verenlerin çoğu olumlu geribildirim verir. Konuşmacı, Microsoft'un dağıtılmış uygulama çalışma zamanı hakkında gelecek ay gerçekleşecek olan başka bir web seminerini duyurarak sözlerini bitiriyor.
- 2020.07.12
- www.youtube.com
ONNX ve ONNX Runtime
ONNX ekosistemi, herhangi bir çerçeveden modelleri her dağıtım hedefi için optimize edilmiş tek tip bir model gösterim biçimine dönüştüren, birlikte çalışabilir bir standart biçimdir. ONNX standardının ONNX Çalışma Zamanı uygulaması, donanım hızlandırıcı desteği ile platformlar arası ve modülerdir. Transformatörlerin üzerinde çalıştığı farklı optimizasyon seviyeleri arasında grafik dönüştürme, grafik bölümleme ve atama yer alır. Konuşmacılar ayrıca C API, ikili uyumluluğu bozma endişesi olmadan yeni performans avantajlarından yararlanmak için API kararlılığı ve bir ONNX modelini çalıştırmak için en uygun yapılandırmayı belirlemek için kullanılabilen ONNX Canlıya Geçme aracı gibi ONNX kullanmanın çeşitli avantajlarını tartışırlar. farklı donanım üzerinde. Ayrıca ONNX'i çerçevelerle karşılaştırırlar ve platformlar arası uyumluluğa değinirler.
- 00:00:00 Bu bölümde, ONNX Çalışma Zamanı ekibinden Ton of Sharma, ONNX ekosisteminin tanıtımını ve araştırmasını yapıyor, motivasyonunu ve Microsoft'ta yaygın olarak benimsenmesini ve hem ONNX hem de ONNX Çalışma Zamanı için teknik tasarımı açıklıyor. Modellerini eğitmek için farklı çerçeveler kullanan farklı ekiplerin sorunlarını vurguluyor, ancak iş modelleri üretimde dağıtmaya ve donanımı sonuna kadar kullanmaya gelince, ONNX ortada oturuyor ve modelleri herhangi bir çerçeveden tek tip bir model temsil formatına dönüştürüyor. her konuşlandırma hedefi için optimize edildi ve birlikte çalışabilir bir standart format haline geldi. Açık kaynak projesi, şu anda ONNX'e aktif olarak katılan ve yatırım yapan 40-50'den fazla şirketin bulunduğu konsorsiyuma ilk katılanlar arasında Facebook, Microsoft ve Amazon ile Aralık 2017'de başlatıldı.
- 00:05:00 Bu bölümde, konuşmacı, ONNX Model Zoo, Azure Custom Vision AutoML aracı veya açık kaynak dönüştürme gibi istenen çerçevede bir model eğitildikten sonra bir ONNX modeli elde etmenin farklı yollarını tartışıyor. belirli bir formattaki bir modeli ONNX'e dönüştürmek için araçlar. ONNX standardının uygulaması olan ONNX Çalışma Zamanı, ONNX modelini istenen cihaz veya dağıtım hedefinde olabildiğince hızlı çalıştırmanın bir yolu olarak tanıtıldı. Tensor RT ve Intel MKL DNN gibi çeşitli satıcılardan yerleşik donanım hızlandırıcı desteği ile genişletilebilir, modüler ve çapraz platformdur. En son sürüm olan ONNX Runtime 1.0, ONNX spesifikasyonu için tam desteğe sahiptir ve Windows Machine Learning çerçevesinde çalışan çekirdek kitaplıktır.
- 00:10:00 bu bölümde, konuşmacı, temel çerçeveler olarak LLVM ve TVM kullanılarak JET biçiminde derlendikten sonra ONNX'in konuşlandırılmasından bahsediyor. ONNX'i Azure makine öğrenimi hizmeti, uç bulutlar ve MNIST platformu planlamalarının bir parçası olan uç IoT cihazları dahil olmak üzere çeşitli cihaz türlerine dağıtmak için referans noktaları ve not defterleri yayınladılar. Microsoft'un ML minimal ve ML dotnet'i zaten ONNX'i destekliyor ve şu ana kadar üretimde ortalama 3 kat performans artışıyla yaklaşık 60'tan fazla ONNX modeli var. ONNX için tasarım ilkeleri, birlikte çalışabilir, kompakt, platformlar arası, geriye dönük uyumlu olmak ve hem derin yükü hem de geleneksel makine öğrenimi modellerini desteklemekti.
- 00:15:00 Bu bölümde konuşmacı, veri akış grafiğinin kendisinin temsilinden başlayarak ONNX spesifikasyonunun üç bölümünü tartışır. Gösterimin genişletilebileceğini ve buna yeni operatörler ve türler eklenebileceğini açıklıyor. İkinci kısım, grafikte saklanan standart tiplerin ve özniteliklerin tanımı, üçüncü kısım ise ONNX modelindeki her operatör için şemadır. Model dosyası formatı, kolayca incelenebilen protobuf'a dayalıdır ve sürüm, meta veriler ve girdiler, çıktılar, hesaplama düğümleri ve grafik adından oluşan döngüsel olmayan hesaplama grafiğini içerir. Tensör türleri, diziler ve haritalar gibi karmaşık ve tensör olmayan türler desteklenir. ONNX operatör seti yaklaşık 140 operatör içerir ve herkes ONNX açık kaynaklı GitHub deposuna bir çekme isteği göndererek daha fazla operatör ekleyebilir.
- 00:20:00 Bu bölümde konuşmacı, ONNX'in mevcut operasyonları tarafından desteklenmeyebilecek özel operasyonlar ekleme yeteneği de dahil olmak üzere ONNX'in yeteneklerini tartışıyor. Konuşmacı ayrıca sürüm oluşturmanın öneminden ve ONNX'in sürüm oluşturmayı IR sürümü, OP seti sürümü ve operatör sürümü dahil olmak üzere üç farklı seviyede nasıl birleştirdiğinden bahsediyor. ONNX çalışma zamanı, birincil hedefleri performans, geriye ve ileriye uyumluluk, platformlar arası uyumluluk ve modellerin hibrit yürütülmesi ile de tartışılmaktadır. Çalışma zamanı, harici donanım hızlandırıcıları eklemek için takılabilir bir mimari içerir.
- 00:25:00 Bu bölümde, konuşmacı ONNX Çalışma Zamanı içinde bir model çalıştırmanın, modelle bir oturum oluşturma ve modeli yükleme ve ardından Çalıştırma API'lerini çağırma olmak üzere iki aşamasını açıklıyor. Modeli yükledikten sonra, protobuf'un verimsiz bir grafik temsili oluşturulur ve ardından grafik, derleyici optimizasyonlarına benzer şekilde farklı düzeylerde grafik dönüşümlerinden geçer. ONNX Runtime, özelleştirilebilen farklı düzeylerde grafik dönüştürme kuralları ve füzyonlar sağlar ve kullanıcı API aracılığıyla kendi kurallarını ekleyebilir. Grafik optimize edildikten sonra, farklı donanım hızlandırıcılarına bölünür ve her düğüme belirli bir hızlandırıcı atanır. Konuşmacı yürütme kısmına da değinir ve iki çalışma modundan, sıralı moddan ve paralel yürütme modundan bahseder. Son olarak, konuşmacı, ONNX Runtime'ın kullanıcıya hangi sağlayıcıların üzerinde çalışacağını söyleme konusundaki gelecekteki çalışmasından bahsediyor.
- 00:30:00 Bu bölümde, konuşmacı ONNX Runtime'daki optimizasyonla ilgili ayrıntıları açıklıyor. Grafiğin dönüşümü, grafik bölümleme ve atama, transformatörlerin grafiği yeniden yazmak için üzerinde çalıştıkları farklı optimizasyon seviyeleridir. Oturum ve çalıştırma, ONNX Runtime'ın, run işlevine yapılan basit bir çağrıyla onu çalışmaya hazır hale getirmek için modeli yükleyen ve optimize eden iki katlı API'sidir. Konuşmacı ayrıca, ONNX Runtime'ın donanım hızlandırıcı arabirimi olan yürütme sağlayıcısından ve satıcıların bir yürütme sağlayıcı API'si uygulayarak nasıl yeni bir donanım hızlandırıcı ekleyebileceğinden bahseder. Son olarak, konuşmacı, yeni yürütme sağlayıcıları veya özel operasyonlar eklemek ve füzyon seviyesini genişletmek gibi ONNX Runtime'ın çoklu uzantı noktalarından bahseder.
- 00:35:00 Bu bölümde konuşmacı, kullanıcıların ikili uyumluluğu bozma endişesi duymadan yeni performans avantajlarından yararlanmalarına olanak tanıyan API kararlılığı da dahil olmak üzere ONNX Runtime'da C API kullanmanın avantajlarını tartışıyor. Ayrıca, bir ONNX modelini farklı donanımlarda çalıştırmak için en uygun yapılandırmayı belirlemek için kullanılabilecek ONNX Canlı Yayına Geçme aracını da açıklıyor. Konuşmacı daha sonra, ONNX Runtime'ın olabildiğince hızlı çalışmasını sağlamak için devam eden performans optimizasyonlarına ek olarak, Android cihazlarda API'de N desteği, Qualcomm ve eğitim optimizasyonu dahil olmak üzere gelecek özelliklere değiniyor.
- 00:40:00 Videonun bu bölümünde konuşmacılar, mümkün olduğunca hızlı çalışmasını sağlamak için belirli bir operatör (OP) içindeki işlemleri optimize etmenin önemine odaklanıyor. ONNX'i öncekilerden daha iyi performans gösterip göstermediğini belirlemeye çalışarak çerçevelerle karşılaştırırlar. Konuşmacılar ayrıca eğitimin nasıl çalıştığını tartışıyorlar ve üzerinde çalışıyor olmalarına rağmen kaynak eğitiminin henüz tamamlanmadığını belirtiyorlar. Ayrıca, ONNX formatının ne ürettiği ve diziler gibi ne tür formatları işleyebileceği ile ilgili soruları da yanıtlıyorlar. Microsoft'un, şu anda açık bir yönetişim modundan yoksun olan ve nihai olarak Microsoft tarafından kontrol edilen, ancak dış katkıları memnuniyetle karşılamaya devam eden bir kayan yazı ürünü olarak ONNX Runtime'ın tasarımı üzerindeki etkisi hakkında bazı tartışmalar var. Konuşmacı, çalışma zamanının Linux, Windows ve Mac için tasarlandığını belirterek platformlar arası uyumluluğa da değiniyor.
- 2019.12.06
- www.youtube.com
ONNX - ONNX Çalışma Zamanı, basit örnek
ONNX - ONNX Çalışma Zamanı, basit örnek
Bu YouTube videosunda konuşmacı, birden çok çerçevede performansı optimize edebilen makine öğrenimi modellerine yönelik açık bir biçim olan ONNX'i tanıtıyor. Video, haber makalelerinin duyarlılık analizi ve sayısal vektör sınıflandırıcıların sinir ağlarına dönüştürülmesi gibi farklı senaryolarda ONNX kullanımına ilişkin örnekler sunar. Konuşmacı, yerleşik kütüphaneleri işlevler için kullanmanın ve kod için yürütme süresini doğru bir şekilde ölçmenin önemini vurgular. Ayrıca konuşmacı, farklı işletim sistemlerinde geliştirme yapmanın zorluklarını tartışır ve çalışma zamanı performansını iyileştirmek için yalnızca gerekli modüllerin yüklenmesini önerir. Genel olarak bu video, makine öğrenimi modelleri için ONNX kullanmanın avantajları ve zorlukları hakkında değerli bilgiler sağlar.
- 00:00:00 Bu bölümde, konuşmacı, modellerin performansını optimize etmek için çeşitli çerçevelerde kullanılabilen, makine öğrenimi modellerine yönelik açık bir format olan ONNX'i açıklamaktadır. ONNX, XML formatının analog bir ikili formatı olan ancak daha hızlı ve daha küçük mesajlar için daha fazla uyarlanmış olan protokol tamponunu temel alır. ONNX modelleri, tek bir işletim sistemi ve işlemcide geliştirilebilir ve mobil cihazlar ve grafik kartları dahil her yerde kullanılabilir. ONNX çalışma zamanı, model eğitimi ve çıkarımının platformlar arası hızlandırılmasına yönelik bir kitaplıktır. ONNX ayrıca, donanım ivmesini kullanmadan boyutunu küçültmek için modelin kuantizasyonuna ve ağırlık değerlerinin bir kısmını sıfır değerlerle değiştirerek boyutunu küçültmek için bir modeli budamasına olanak tanır. Konuşmacı, ONNX hakkında daha fazla bilginin bulunabileceği web sitelerine bir bağlantı içerir.
- 00:05:00 Bu bölümde, konuşmacı ONNX Runtime kullanarak ONNX formatında önceden eğitilmiş bir modelle çalışmak için gerekli adımları tartışıyor. Model, herhangi bir çerçeve kullanılarak oluşturulabilir, ONNX formatında kaydedilebilir ve ardından daha az güçlü bir sunucuda veya ağır sunucu yüklerini işlemek gibi çeşitli şekillerde kullanılabilir. Konuşmacı daha sonra kripto para birimiyle ilgili haber makalelerinin duyarlılığını belirlemek için Hugging Face dönüştürücü kitaplığının kullanımına ilişkin bir örnek sunar. Son olarak konuşmacı, gerekli kütüphaneleri yükleyip işleyerek ve modelin çalıştırılmasının sonucunu örnek bir haber makalesi üzerinde göstererek modelin bir uygulamasını gösterir.
- 00:10:00 Bu bölümde, konuşmacı ONNX çerçevesini kullanarak bir sinir ağından sonuçlar üretmek için sayısal bir vektör sınıflandırıcıyı dönüştürme sürecini tartışıyor. Süreci önemli ölçüde yavaşlattığı için SoftMax işlevinin kullanılmadığını ve bunun yerine manuel olarak girilen değerlerin kullanıldığını açıklıyorlar. Model daha sonra yüklendi ve doğruluk açısından test edildi ve umut verici sonuçlar verdi. Ancak, farklı işletim sistemlerine ve çerçevelere kurulumda karşılaşılan zorluklar, modellerin dağıtılmasında kapsamlı test ve esneklik ihtiyacını vurgulamaktadır.
- 00:15:00 Bu bölümde konuşmacı, farklı platformlarda yazılım geliştirmeye çalışırken ortaya çıkabilecek olası sorunları ve her şeyi manuel olarak uygulamaya çalışmak yerine kurulu kütüphaneleri kullanmanın önemini tartışıyor. Farklı kayan nokta biçimleri kullanmayla ilgili sorunlardan ve bunun çok büyük veya çok küçük sayılarla çalışmaya çalışırken nasıl hatalara yol açabileceğinden bahsediyor. Ek olarak, yerleşik kitaplıkların geliştiricileri ortaya çıkabilecek potansiyel sorunlarla zaten ilgilendiğinden, özel işlevler oluşturmaya çalışmak yerine SoftMax gibi önceden var olan işlev uygulamalarını kullanmayı önerir.
- 00:20:00 Bu bölümde konuşmacı MacOS üzerinde geliştirme yaparken karşılaştığı sorunları ve MacOS ile Linux arasındaki farkları tartışıyor. Ayrıca, çok fazla modülün yüklenmesi yürütme süresini önemli ölçüde etkileyebileceğinden, çalışma zamanı performansını iyileştirmek için geri kalanını devre dışı bırakırken yalnızca gerekli modülleri yükleme ihtiyacından da bahseder. Konuşmacı ayrıca, performansı etkileyebilecek çeşitli faktörleri göz önünde bulundurarak çalışma zamanını doğru bir şekilde ölçmek için "timeet" yardımcı programının kullanılmasını önerir.
- 00:25:00 Videonun bu bölümünde, konuşmacı, özellikle farklı kod parçalarının performansını karşılaştırmak için, kodun yürütme süresini ölçmenin önemini tartışıyor. Yürütme süresini birden çok kez ölçme ve daha doğru bir değerlendirme için ortalama alma ihtiyacını vurgularlar. Konuşmacı daha sonra bu yaklaşımı, iki kod parçasının performansını farklı veri işleme yöntemleriyle karşılaştırmak için kullanır; bu, bir yöntemin diğerinden önemli ölçüde daha hızlı olduğunu gösterir. Son olarak, konuşmacı sunumuna bir bağlantı sağlar ve seyirciye katılımları için teşekkür eder.
- 2023.01.25
- www.youtube.com
PyTorch-ONNX Dönüştürücüye Genel Bakış
PyTorch-ONNX Dönüştürücüye Genel Bakış
Bu genel bakışta Microsoft'tan Bowen Bao, bir PyTorch modelini meşale ara temsiline (IR) ve ardından ONNX IR'ye ve son olarak da bir Protobuf dosyasına dönüştürmek için mimarisini ve akışını açıklayan PyTorch-ONNX Dönüştürücüyü tanıtıyor. Dönüştürücü, dinamik şekiller, sayısallaştırılmış modeller ile dışa aktarma modellerini işler ve ONNX döngüsü ve ONNX if düğümleri aracılığıyla döngüleri, if ifadelerini ve diğer işlemleri yakalar. Ek olarak, kullanıcılar bir ONNX modelini dışa aktarmak için özel operatörler oluşturabilir veya mevcut özel PyTorch operatörlerini kullanabilir veya ihracatçıya onu nasıl dışa aktaracağını söylemek için özel bir sembolik işlevi kaydedebilir. Bowen ayrıca ONNX yerel işlevini açıklıyor, otomatik yayın yoluyla karma kesinliği ele alıyor ve hata teşhisini iyileştirirken daha fazla modeli desteklemeye devam etme planlarıyla bitiriyor.
- 00:00:00 Bu bölümde, Microsoft'ta bir yazılım mühendisi olan Bowen, mimarisi ve akışı da dahil olmak üzere PyTorch-ONNX Dönüştürücüsüne genel bir bakış sağlar. PyTorch paketinin bir parçası olan dönüştürücü, bir PyTorch modelini meşale ara gösterimine (IR) ve ardından ONNX IR'ye dönüştürmek için meşale izleyiciyi ve meşale betiğini kullanır. Son adım, onu bir Protobuf dosyasında bir ONNX modeline seri hale getirmeyi içerir. Dönüştürücü, nicelleştirilmiş modellerin yanı sıra dinamik girdi ve çıktı şekillerine sahip dışa aktarma modellerini destekler ve ONNX döngüsü ve ONNX if düğümleri aracılığıyla döngüleri, if ifadelerini ve diğer işlemleri yakalayabilir. Ek olarak, kullanıcılar özel operatörler oluşturabilir veya mevcut özel PyTorch'u kullanabilir.
operatörler bir ONNX modelini dışa aktarabilir veya ihracatçıya onu nasıl dışa aktaracağını söylemek için özel bir sembolik işlevi kaydedebilir. Son olarak Bowen, ONNX yerel işlevinin arkasındaki motivasyonu açıklıyor. - 00:05:00 Bu bölümde, PyTorch-ONNX dönüştürücü ve dışa aktarılan ONNX modelini çevreleyen düzleştirilmiş düğümler gibi bazı yaygın şikayetler üzerinde durulmaktadır. Bu sorunu çözmek için, kullanıcıların bir Torch modülü sınıfı veya düğüm tipi işlevi belirlemesine olanak tanıyan bir yerel işlev özelliği eklenmiştir. Karışık hassasiyet, Torch otomatik yayın ve NVIDIA Apex mp kullanılarak da desteklenir. Video, geliştirilmiş arıza teşhisi ve daha fazla modeli desteklemeye devam etme hedefi hakkında bir tartışma ile sona eriyor. Sağlanan bağlantılar, PyTorch-ONNX dönüştürücüyü kullananlar için yararlı kaynaklar ve araçlar sunar.
- 2022.07.13
- www.youtube.com
ONNX'e Giriş | Öğretici-1 | Açık Sinir Ağı Değişimi | ONNX
ONNX'e Giriş | Öğretici-1 | Açık Sinir Ağı Değişimi | ONNX
Bu eğitim, mevcut modelleri bir çerçeveden diğerine dönüştüren aracı bir makine öğrenimi çerçevesi olan ONNX'e giriş sağlar. Kurs, derin öğrenmede karşılaşılan zorlukları, ONNX'e genel bir bakışı ve ONNX çalışma zamanı hakkında bir tartışmayı kapsar. Eğitmen, ONNX ile model dönüştürmenin pratik örneklerini gösterir ve bir Python modelini TensorFlow modeline dönüştürmenin gerçek dünya kullanım durumunu paylaşır. Python programlama, makine öğrenimi temelleri ve PyTorch, TensorFlow ve Scikit-learn gibi çerçevelere aşinalık gerekir.
- 2022.05.21
- www.youtube.com
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Geleceğin bu olduğuna inandığımız için MQL5'e ONNX modelleri için destek ekledik. Makine öğreniminin kullanımını yeni bir seviyeye yükseltmeye yardımcı olabilecek bu umut verici alan üzerinde tartışmalar ve çalışmalar yapılması amacıyla bu forum konusunu oluşturduk. Yeni yetenekleri kullanarak, modelleri tercih ettiğiniz ortamda eğitebilir ve ardından minimum çabayla ticarette çalıştırabilirsiniz.
Teknolojiye kısa bir genel bakış
Açık sinir ağı santrali (Open Neural Network eXchange, ONNX), çeşitli çerçeveler arasında makine öğrenimi modellerinin değişimi için açık kaynaklı bir formattır. Microsoft, Facebook ve Amazon Web Services (AWS) tarafından geliştirilmiş olup, makine öğrenimi modellerinin geliştirilmesini ve dağıtımını kolaylaştırmayı amaçlamaktadır.
ONNX'in ana avantajları:
ONNX'i kullanmak için geliştiriciler modellerini TensorFlow veya PyTorch gibi çeşitli çerçevelerden ONNX formatına aktarabilirler. Devamında, bu modeller MQL5 uygulamalarına dahil edilebilir ve MetaTrader 5 işlem terminalinde çalıştırılabilir. Bu, başka hiçbir yerde sunulmayan eşsiz bir fırsattır.
Modelleri ONNX formatına dönüştürmek için kullanılan en popüler araçlardan biri Microsoft'un ONNXMLTools aracıdır. ONNXMLTools’u kurmak çok basittir. Kurulum ayrıntıları ve model dönüştürme örnekleri için lütfen https://github.com/onnx/onnxmltools#install adresindeki proje sayfasına bakın.
Eğitilmiş bir modeli çalıştırmak için ONNX Runtime kullanılmalıdır. ONNX Runtime, ONNX formatında dışa aktarılan makine öğrenimi modellerini çalıştırmak için tasarlanmış yüksek performanslı, platformlar arası bir motordur. Geliştiriciler, ONNX'i kullanarak modelleri tek bir çerçevede oluşturabilir ve ardından onları diğer ortamlara kolayca dağıtabilir. Bu, geliştirme sürecini basitleştirirken aynı zamanda esneklik de sağlar.
Bu nedenle ONNX, makine öğrenimi geliştiricileri ve araştırmacıları için güçlü bir araçtır. Verimli bir şekilde modeller geliştirmek ve onları ticarette uygulamak için bu yetenekleri MQL5’le birlikte kullanın.
Makine öğrenimi modelleriyle çalışmaya yönelik yeni bilgiler ve yaklaşımlar keşfedin ve burada MQL5 topluluğunun diğer üyeleriyle paylaşın. Sizin için bu konuyla ilgili bazı yararlı materyaller bulduk. Gelecek vaat eden bu yeni teknolojiyi hızlı bir şekilde anlamanıza yardımcı olması açısından bu materyalleri incelemenizi tavsiye ediyoruz.