Ticaret için ONNX'i öğrenme - sayfa 10

 

Raspberry Pi Nesne Algılama Eğitimi



Raspberry Pi Nesne Algılama Eğitimi

Bu Raspberry Pi nesne algılama eğitiminde sunum yapan kişi, Tensorflow Lite'ın bir Raspberry Pi'ye nasıl kurulacağını ve gerçek zamanlı sınıflandırma gösterimi dahil görüntü sınıflandırması için nasıl kullanılacağını gösterir. Ayrıca, lineer cebir için makine öğreniminin önemli bir bileşeni olan lib atlas'ın ne olduğunu ve bir Raspberry Pi'de ilgili hataların nasıl düzeltileceğini açıklarlar. Sunum yapan kişi, projenin hızını artırmak için bir Coral USB hızlandırıcının kullanılabileceğini ancak gerekli olmadığını belirtiyor. Genel olarak sunum yapan kişi, betiğin farklı kullanım durumlarına veya modellerine uyma esnekliğini vurgular.

  • 00:00:00 Videonun bu bölümünde sunum yapan kişi, Tensorflow Lite'ı bir Raspberry Pi'ye yüklemek ve onu görüntü sınıflandırması için kullanmak için bir eğitim sağlıyor. Sunum yapan kişi, Tensorflow'un örnek kitaplığını kullanır ve gerekli olmasa da projenin hızını artırmak için bir Coral USB hızlandırıcının kullanılabileceğini not eder. Başlamak için sunum yapan kişi, Raspberry Pi'yi yükseltir ve sanal bir ortam oluşturur. Sunum yapan kişi, Tensorflow Lite çalışma zamanını kurmadan önce ortamın nasıl etkinleştirileceğini ve gerekli paketlerin nasıl kurulacağını gösterir. Son olarak sunum yapan kişi, her şeyin düzgün şekilde yüklendiğinden emin olmak için sürümü kontrol eder.

  • 00:05:00 Bu bölümde, konuşmacı bir Raspberry Pi üzerinde bir nesne algılama örneği çalıştırıyor ancak lib atlas ile ilgili bir hatayla karşılaşıyor. Makine öğreniminin önemli bir bileşeni olan doğrusal cebir için lib atlasının çok önemli olduğunu açıklıyorlar. Sudo apt-get install lib atlas bass dash dev çalıştırarak sorunu nasıl çözdüklerini gösteriyorlar. Konuşmacı daha sonra Raspberry Pi'yi kullanarak gerçek zamanlı sınıflandırmayı gösterir ve betiğin farklı kullanım durumlarına veya modellere uyacak şekilde değiştirilebileceğini vurgular.
 

Nesne Algılama OpenCV Python | Kolay ve Hızlı (2020)



Nesne Algılama OpenCV Python | Kolay ve Hızlı (2020)

"Object Detection OpenCV Python | Easy and Fast (2020)" başlıklı bu video eğitiminde sunum yapan kişi, Python'da OpenCV kitaplığını kullanarak bir nesne algılayıcının nasıl oluşturulacağını gösterir. Video, yaygın olarak bulunan birden çok nesneyi gerçek zamanlı olarak algılayabilen, doğruluk ve hız arasında denge kuran bir dedektör oluşturmaya odaklanıyor. MobileNet SSD modeli, hızı ve doğruluğu nedeniyle nesne tespiti için, coco veri seti ise kişi, bisiklet ve araba gibi sınıfları algılamak için kullanılır. Video, algılanan nesnenin etrafında bir dikdörtgen oluşturmak için zip işlevini kullanarak çeşitli değişkenler arasında nasıl dolaşılacağını ve bir web kamerası akışında nesne algılamayı çalıştırmak için kodun nasıl değiştirileceğini gösterir. Sunucu ayrıca eşik değerinin nasıl ayarlanacağını ve her bir nesnenin olasılığını anlamak için algılanan nesnelere güven değerlerinin nasıl ekleneceğini açıklar.

  • 00:00:00 Videonun bu bölümünde içerik oluşturucu, doğruluk ve hız arasında iyi bir denge kuran bir nesne dedektörünün nasıl oluşturulacağını tartışıyor. Dedektör, birden çok ortak nesneyi algılarken gerçek zamanlı olarak çalışabilir ve OpenCV dışında herhangi bir üçüncü taraf kitaplığının çalışmasını gerektirmez. Video, bir nesne dedektörü oluşturma kodlarından geçiyor ve doğruluk ile hız arasında iyi bir dengeye sahip olan ve neredeyse gerçek zamanlı olarak bir CPU üzerinde çalışabilen MobileNet SSD'nin kullanımını ayrıntılı olarak açıklıyor. ortak nesneleri algılama. Son olarak, dedektörü çalıştırmak için gereken tek kütüphane opencv-python'dur ve kişi, bisiklet ve araba gibi sınıfları tespit etmek için coco veri seti kullanılır.

  • 00:05:00 Eğitim videosunun bu bölümünde sunum yapan kişi, Python'da OpenCV kitaplığını kullanarak bir görüntünün nasıl görüntüleneceğini gösterir. with open işlevini kullanarak coco veri kümesinden nesnelerin adlarını içe aktarırlar ve onu bir dizi olarak okurlar. Daha sonra yapılandırma dosyalarını ve ağırlıkları içe aktarırlar ve modeli oluşturmak için OpenCV işlevini kullanırlar. Sınırlayıcı kutuyu çıkarmak için tekniklerin uygulanması gereken YOLO video eğitiminden farklı olarak, işlev bizim için tüm işlemleri yapar ve tek yapmamız gereken görüntüyü iletmek ve sınırlayıcı kutuyu ve kimlik adlarını görüntüler.

  • 00:10:00 Bu bölümde, eğitim videosu OpenCV ve Python kullanılarak nesne algılamanın nasıl gerçekleştirileceğini açıklar. Algılama modelini yapılandırdıktan sonra kod, giriş görüntüsünü modele gönderir ve sınıf kimliklerini, güven düzeylerini ve sınırlayıcı kutuları döndürür. Öğretici, kapsamlı kurulumlar veya formaliteler olmaksızın mümkün olduğunca hızlı ve kolay bir şekilde bir nesne dedektörünü çalışır duruma getirmeye odaklanmaktadır. Kod, sürücüsüz arabalar veya robotik cihazlar gibi çeşitli uygulamalar için kullanılabilir. Öğretici ayrıca, sınıf kimliklerinin önemine ve sınıf adlarına atıfta bulunurken değerlerinden birini çıkarmanın önemine değinir.

  • 00:15:00 Bu bölümde eğitmen, zip işlevini kullanarak üç farklı değişken veya bilgi arasında nasıl geçiş yapılacağını açıklar. Güven ve sınırlayıcı kutu değişkenlerini düzleştirmek için zip kullanırlar ve ardından algılanan nesnenin etrafında bir dikdörtgen oluşturmak için bir for döngüsü kullanırlar. Ayrıca algılanan nesnenin adını putText işlevini kullanarak yazarlar ve uygun adı elde etmek için sınıf kimliğinden bir tane çıkarmak için sınıf adları değişkenini kullanırlar. Eğitmen, etiketi daha görünür kılmak için başka parametreler ekler ve hatta metni tamamen büyük harflerle değiştirir. Sonunda görüntüdeki bir kişiyi başarıyla tespit ederler.

  • 00:20:00 Bu bölümde öğretici, statik görüntüler yerine bir web kamerası beslemesinde nesne algılamayı çalıştırmak için kodun nasıl değiştirileceğini gösterir. Kod, web kamerasını başlatmak ve görüntü boyutu parametrelerini ayarlamak için "cv2.videoCapture" kullanır. While döngüsü, web kamerası akışını sürekli olarak yakalamak ve görüntülemek için kullanılır ve görüntülenmeden önce herhangi bir nesnenin algılanıp algılanmadığını kontrol etmek için bir koşul eklenir. Sistem, web kamerası beslemesini kullanarak klavye, monitör, cep telefonu ve fare gibi nesneleri gerçek zamanlı olarak doğru bir şekilde algılar.

  • 00:25:00 Bu bölümde yazar, nesne algılama algoritmasının, en iyi doğruluk olmasa bile nesneleri iyi bir hız ve doğrulukla algılayabildiğini açıklıyor. Ardından video, eşik değerinin nasıl değiştirileceğini ve algılanan nesnelere güven değerlerinin nasıl ekleneceğini göstermeye devam eder. YouTuber daha sonra programı çalıştırır ve algılanan nesneler için her nesnenin olasılığını anlayacak kadar görünür ve net olan güven değerlerinin nasıl görüntülendiğini gösterir.
 

Raspberry Pi'de TensorFlow Nesne Tespiti Nasıl Kurulur



Raspberry Pi'de TensorFlow Nesne Tespiti Nasıl Kurulur

Bu videoda bir Raspberry Pi üzerinde TensorFlow Object Detection API kurma işlemi adım adım anlatılmaktadır. İlk olarak, TensorFlow, OpenCV ve protobuf dahil olmak üzere gerekli paketler kurulur. Ardından, TensorFlow yapısı kurulur ve TensorFlow algılama modelleri hayvanat bahçesinden SSD Lite modelleri indirilir. Nesne algılama için bir Python komut dosyası sağlanır ve izleyicilere bunu bir Pi kamera veya USB web kamerası ile nasıl kullanacakları gösterilir. Video ayrıca özel bir modelin indirilmesi ve kullanılması gibi daha ileri düzey konuları da kapsar. Raspberry Pi, dışarıda yaşayan kediyi algıladığında mesaj gönderebilen dijital kedi kanadı gibi düşük maliyetli ve taşınabilirlik gerektiren yaratıcı projeler için önerilir.

  • 00:00:00 Videonun bu bölümünde anlatıcı, bir Raspberry Pi'de TensorFlow Object Detection API'nin nasıl kurulacağına dair bir kılavuz sunuyor. Adımlar arasında Raspberry Pi'nin güncellenmesi, TensorFlow, OpenCV ve protobuf'un kurulması, TensorFlow dizin yapısının ayarlanması ve nesne dedektörünün test edilmesi yer alır. Anlatıcı ayrıca numpy, pillow, scipy ve matplotlib gibi ek bağımlılıkların yüklenmesini önerir. Ek olarak video, sorunsuz işleme için libatlas ve libAV codec bileşeninin yüklenmesi gibi yararlı ipuçları sağlar.

  • 00:05:00 Bu bölümde, konuşmacı, TensorFlow Object Detection API'nin Raspberry Pi'ye nasıl kurulacağına dair adım adım bir kılavuz sağlar. Önce lib xvid core dev, lib x264 dev ve QT for dev araçları dahil olmak üzere gerekli paketleri ve ardından OpenCV'yi yükleyerek başlarlar. Konuşmacı daha sonra Raspberry Pi'ye protobuf yüklemenin getirdiği zorlukları açıklıyor ve protobuf eğlence kaynağını derlemek için gereken paketleri alma ve protobuf yayınları sayfasını indirme dahil olmak üzere izleyiciyi kaynağından nasıl derleyebileceği konusunda yönlendiriyor. Son olarak, konuşmacı gerekli yol komutlarını sağlar ve protokol arabelleklerinin Python uygulamasını kurma komutunu verir.

  • 00:10:00 Bu bölümde, konuşmacı Raspberry Pi'de TensorFlow dizinini kurma sürecini açıklıyor. Bu, TensorFlow için bir dizin oluşturmayı ve GitHub'dan TensorFlow deposunu indirmeyi içerir. Python yolu ortam değişkeninin, TensorFlow deposu içindeki bazı dizinleri gösterecek şekilde değiştirilmesi gerekir ve bu, bash RC dosyası değiştirilerek yapılır. Konuşmacı ayrıca TensorFlow algılama modelleri hayvanat bahçesinden SSD Lite modelinin nasıl indirileceğini ve nesne algılama API'si tarafından kullanılan protokol arabellek dosyalarını derlemek için Pro Talk'un nasıl kullanılacağını açıklar. Son olarak, bir Pi kamera veya USB web kamerasından canlı yayınlarda nesneleri algılamak için bir Python betiği sağlanır ve kodu konuşmacının GitHub deposunda bulunur.

  • 00:15:00 Bu bölümde konuşmacı, izleyicileri Raspberry Pi'de TensorFlow Object Detection'ın nasıl kullanılacağı konusunda yönlendiriyor. İlk önce izleyicilere nesne algılama için python betiğini indirip çalıştırma talimatı vererek, PI kameranın yapılandırma menüsünde etkinleştirildiğinden emin olurlar. Ayrıca, tensorflow çok fazla bellek kullandığından, diğer tüm uygulamaların, özellikle web tarayıcısının kapatılmasının önerildiğini açıklıyorlar. Konuşmacı ayrıca kullanıcının kendi eğittiği bir modelin nasıl kullanılacağını gösterir ve örnek olarak kendi oyun kartı algılama modeli için bir Dropbox bağlantısı sağlar. İzleyicilere, başlatılması bir dakika kadar sürebilen ve ardından ortak nesneleri algılayıp bunları dikdörtgen bir pencerede görüntüleyen nesne algılama komut dosyasını çalıştırmaları önerilir. Son olarak konuşmacı, dışarıda yaşayan kediyi algıladığında mesaj gönderen dijital kedi kapağı gibi düşük maliyetli ve taşınabilirlik gerektiren yaratıcı uygulamalar için Raspberry Pi'yi önerir.
 

Raspberry Pi + OpenCV + Python ile Yüz Tanıma



Raspberry Pi + OpenCV + Python ile Yüz Tanıma

Core Electronics, bir Raspberry Pi'de OpenCV ve Python'un yüz tanıma paketini kullanarak bir yüz tanıma sisteminin nasıl oluşturulacağını gösterir. Eğitim, sistemin "train_model.py" adlı bir Python kodu kullanılarak eğitilmesini ve "facial_req.py" adlı bir tanımlama kodu aracılığıyla test edilmesini içerir. Sistem, bilinmeyen ve bilinen yüzleri ayırt edebilir ve sistem bilinen bir yüzü tanıdığında servoyu da döndürebilir. Yaratıcı, OpenCV ve yüz tanıma paketi ekiplerine ve Carolyn Dunn'a bu tür bir yazılımı mümkün kıldığı için teşekkür ediyor ve gelecekteki projelerinde bunun potansiyeli için büyük umutlar besliyor.

  • 00:00:00 Bu bölümde Core Electronics, bir yüz tanıma sistemi oluşturmak için OpenCV ve Python'un yüz tanıma paketinin bir Raspberry Pi üzerinde nasıl kullanılacağını gösteriyor. Önce Raspberry Pi, Resmi Kamera, Micro SD kart, HDMI kablosu ve güç kaynağı dahil olmak üzere gerekli malzemeleri toplarlar. Raspberry pi'yi yapılandırıp paketleri kurduktan sonra "train_model.py" adlı bir python kodu kullanarak yüz tanıma sisteminin nasıl eğitileceğini ve ardından "facial_req.py" adlı bir tanımlama kodu kullanılarak test edildiğini gösteriyorlar. Program, Raspberry Pi kameranın yüzleri canlı olarak aramasını ve onları bulduğunda doğru şekilde tanımlamasını sağlar. Sistem ayrıca, sırasıyla "bilinmeyen" veya öznenin adını görüntüleyerek bilinmeyen ve bilinen yüzler arasında ayrım yapabilir.

  • 00:05:00 Bu bölümde video oluşturucu, yalnızca Raspberry Pi sistemi sahibinin yüzünü tanıdığında dönebilen Raspberry Pi'nin GPIO pinlerini kullanarak bir servoyu kontrol etmek için betiğe altı satırlık kodun nasıl ekleneceğini açıklıyor. Hiçbir yüz veya bilinmeyen bir yüz tanımıyorsa sistem servoyu etkinleştirmeyecektir. Video oluşturucu yüzünü gizler ve yüzünü tanıdığında servonun nasıl hareket ettiğini gösterir. OpenCV ve yüz tanıma paketi ekiplerine ve Carolyn Dunn'a bu sistemlerin birlikte bu kadar iyi çalışmasını sağlayan yazılımı oluşturdukları için teşekkür ediyor. Video oluşturucu, bu yazılımın projeleri inanılmaz yerlere götürmek için muazzam bir potansiyele sahip olduğuna inanıyor.
 

Raspberry Pi'ye TensorFlow 2 ve OpenCV Nasıl Kurulur



Raspberry Pi'ye TensorFlow 2 ve OpenCV Nasıl Kurulur

Bu video, bir Raspberry Pi'ye TensorFlow 2 ve OpenCV'nin nasıl kurulacağına dair adım adım bir kılavuz sunar. Sunum yapan kişi, daha yeni bir Pi'ye, özellikle de 64-bit olan bir Pi 4'e sahip olmanın önemini vurgular ve Raspberry Pi OS'nin nasıl kurulacağı, sistemin nasıl güncelleneceği ve yükseltileceği ve sistemleri için uygun TensorFlow kabuk betiğinin nasıl seçileceği hakkında talimatlar sağlar. Video ayrıca, kurulumda sorun yaşayanlar için Python sürümünün 3.7'ye nasıl değiştirileceğini açıklıyor ve sanal ortamların, sistem paketlerinin, TensorFlow ve OpenCV'nin kurulumu hakkında ayrıntılı talimatlar sağlıyor. Sunum yapan kişi, video boyunca yararlı ipuçları ve olası hatalara yönelik çözümler sağlar. Video, import komutlarını kullanarak OpenCV ve TensorFlow kurulumunu test ederek sona eriyor ve izleyicileri geri bildirim veya istek bırakmaya teşvik ediyor.

  • 00:00:00 Videonun bu bölümünde sunucu, daha yeni bir Pi'ye, özellikle de Pi 4'e sahip olmanın öneminden başlayarak hepsi bir arada TensorFlow ve OpenCV kurulumu için bir Raspberry Pi'nin nasıl kurulacağını açıklıyor. 64 bittir. Video, Raspberry Pi işletim sistemini kurma ve Raspberry Pi görüntüleyiciyi kullanarak bir ana bilgisayar adı, kullanıcı adı, parola ve Wi-Fi yapılandırmaları ayarlama sürecini kapsar. Pi'yi başlattıktan sonra sunum yapan kişi, izleyicilere sistemleri için uygun TensorFlow kabuk komut dosyasını seçmek için önemli olan Python sürümlerini ve "uname -m" çıktısını kontrol etmeden önce güncelleme ve yükseltme yapma talimatı verir. Sunum yapan kişi ayrıca izleyicileri, TensorFlow'un Raspberry Pi ile çalışmasını sağlayabilecek özel olarak barındırılan bir kabuk betiklerine ve tekerlek dosyalarına yönlendirir.

  • 00:05:00 Videonun bu bölümünde sunum yapan kişi, bir Raspberry Pi'ye TensorFlow 2 ve OpenCV yüklerken sorun yaşayanlar için Python sürümünüzü 3.7'ye nasıl değiştireceğinizi tartışıyor. Bunu yapmak için izleyicilerin pi m kullanması ve gerekli Python sürümünü yüklemesi gerekir. Sunucu, pi m'nin nasıl kurulacağını, dot bash rc dosyasına satırların nasıl ekleneceğini, sistem paketlerinin nasıl kurulacağını ve pi m'nin nasıl güncelleneceğini gösterir. Sunum yapan kişi daha sonra Python sürüm 3.7.12'nin nasıl kurulacağını ve bir proje dizini nasıl oluşturulacağını açıklar. Son olarak sunum yapan kişi, izleyicilere pi m'nin nasıl çalıştığını gösterir ve Python sürümünü kontrol eder.

  • 00:10:00 Bu bölümde, konuşmacı TensorFlow 2 ve OpenCV'nin bir Raspberry Pi'ye nasıl kurulacağını açıklıyor. Konuşmacı, uygun TensorFlow tekerlek kabuğu komutuyla Python3.9 veya Python3.7'nin kullanılmasını önerir. Bir sanal ortam paketi kurarak ve çalışacakları bir ortam yaratarak adım adım ilerliyorlar. Konuşmacı daha sonra sistem paketlerinin ve TensorFlow'un nasıl kurulacağını açıklar. Kurulumun başarılı olup olmadığını belirlemek için sağlanan basit bir test var. Konuşmacı ayrıca kullanıcıların karşılaşabileceği bir hatayı tartışır ve sorunun çözümünü sunar.

  • 00:15:00 Bu bölümde, konuşmacı OpenCV'nin Raspberry Pi'ye yüklenmesi için talimatlar sağlar. Raspberry Pi 3 kullanıcıları için, belirli bir videoda ayrıntılı olarak açıklanan belirli bir yöntemi izlemenizi ve ardından tek bir komut çalıştırmanızı önerir: pip install opencv-python. Bu komutun yürütülmesi yalnızca on ila yirmi saniye sürer ve konuşmacı, ileri düzey bir kullanıcı olmadığınız sürece herhangi bir isteğe bağlı özellik eklememenizi önerir. Video, import komutlarını kullanarak OpenCV ve TensorFlow kurulumunu test ederek sona erer ve konuşmacı izleyicileri yorum, istek veya geri bildirim bırakmaya teşvik eder.
 

Raspberry Pi + OpenCV + Python ile Nesne Tanımlama & Hayvan Tanıma



Raspberry Pi + OpenCV + Python ile Nesne Tanımlama & Hayvan Tanıma

Video, 91 hayvan ve nesneden oluşan geniş bir yelpazeyi gerçek zamanlı olarak bir güven derecesi ile tanımlamak için eğitimli bir kitaplık ve bir Pi kamera kullanan bir Raspberry Pi 4 projesini gösteriyor. Sunum yapan kişi, gerçek zamanlı bilgisayar görüşü ve görüntüleme işleme operasyonlarını etkinleştirmek için donanımın nasıl kurulacağına, Raspberry Pi'nin nasıl yapılandırılacağına ve OpenCV yazılımının nasıl kurulacağına dair kapsamlı bir gösteri sunar. İzleyiciler, hedef olarak bir fincan örneği aracılığıyla, OpenCV hedefi tanımladığında belirli eylemleri gerçekleştirmek için Raspberry Pi'nin GPIO pimleri yoluyla sinyaller göndermek üzere kodu nasıl değiştireceklerini öğrenirler. Sunucu, yazılımın heyecan verici projeler için potansiyelini vurguluyor ve OpenCV ve CoCo ekiplerine şükranlarını sunuyor.

  • 00:00:00 Videonun bu bölümünde sunum yapan kişi, güncellenen bir güven derecesi ile 91 benzersiz nesneyi ve hayvanı gerçek zamanlı olarak tanımlamak için eğitimli bir kitaplık ve bir Pi kamera ile birlikte bir Raspberry Pi 4 kullanma projesini tanıtıyor. . Opencv yazılımı, gerçek zamanlı bilgisayar görüşü ve görüntüleme işleme sorunlarını çözmeye yardımcı olacak kaynaklar sağlamak için kullanılır. Sunum yapan kişi, donanımı kurmak, Raspberry Pi'yi yapılandırmak ve yazılımı yüklemek için gerekli adımlardan geçer. İzleyiciye daha sonra kodun nasıl çalıştırılacağı ve nesne ve hayvan tanımlama sürecini iyileştirmek için kodun birkaç değeriyle nasıl oynanacağı gösterilir.

  • 00:05:00 Bu bölümde sunum yapan kişi, OpenCV yazılımı tarafından belirli bir hedef, bu durumda bir fincan görüldüğünde, bir Raspberry Pi'nin GPIO pinleri aracılığıyla sinyaller göndermek için kodun nasıl değiştirileceğini gösterir. Değiştirilen kod, Raspberry Pi'ye fincan algılandığında dönmesini emreder. OpenCV ve CoCo ekiplerine bu yazılım üzerindeki çalışmaları için bir teşekkürle birlikte, bu yazılımın harika projeleri üstlenme potansiyeli vurgulanmıştır.
 

OpenCV Python kullanarak Nesne Algılama Raspberry Pi



OpenCV Python kullanarak Nesne Algılama Raspberry Pi

"OpenCV Python kullanarak Nesne Algılama Raspberry Pi" adlı YouTube videosu, nesne algılama için bir koda, özellikle MobileNet SSD'ye nasıl erişileceğini ve değiştirileceğini gösterir. Eğitim, modüler kodlamayı vurgular ve kodu Raspberry Pi dahil farklı platformlarda kullanmak için ipuçları sağlar. Video, kodun bir modüle nasıl dönüştürüleceğini ve belirli nesneleri algılayan ve modelin çıktılarını kontrol eden bir işlevin nasıl oluşturulacağını gösterir. Sunum yapan kişi, eşik değeri ve maksimum olmayan bastırma gibi parametreler ekleyerek nesne algılama kodunun nasıl değiştirileceğini de gösterir. Video, bir Raspberry Pi'de nesne algılamayı ayarlamak için gerekli dosyaları ve talimatları sağlar ve belirli nesnelerin algılanmasının bir gösterimini sunar. Sunucu, izleyicileri indirme ve abonelik bilgileri için web sitelerini ziyaret etmeye davet ediyor.

  • 00:00:00 Video, nesne algılama projesi için koda nasıl erişileceğini ve kullanıcıların belirli nesneler hakkında bilgi almasını sağlayan bir işlevin nasıl oluşturulacağını gösterir. Kullanılan kod, MobileNet SSD'yi kullanarak farklı nesneleri algılayan önceki bir videodan alınmıştır. Öğretici ayrıca, kodu kaldırmayı ve eklemeyi kolaylaştırmak için modüler kod yazmayı vurgular. Eğitmen, kodu açıklamanın yanı sıra, Raspberry Pi de dahil olmak üzere farklı platformlarda kodun nasıl yazılacağı ve kullanılacağı konusunda faydalı ipuçları da veriyor.

  • 00:05:00 Bu bölümde, konuşmacı daha önce yazılan kodun diğer komut dosyaları tarafından erişilebilen bir modüle nasıl dönüştürüleceğini açıklar. Konuşmacı, bir görüntüyü girdi olarak alan ve çıktı olarak dikdörtgenler ve nesne algılama etiketleri içeren bir görüntü döndüren "get_objects" adlı bir işlev oluşturarak gösterir. Konuşmacı, çakışan nesne algılamalarını kaldırmak için "nms" parametresinin nasıl kullanılacağını da gösterir. Bölümün sonunda konuşmacı, OpenCV ve Python ile bir görüntüdeki nesneleri algılamak için kullanılabilecek modüler bir işlev oluşturmuştur.

  • 00:10:00 Bu bölümde video, çerçeve hızını artırmak veya azaltmak için sınırlayıcı kutuların ve sınıf adlarının görüntülenip görüntülenmeyeceğini kontrol etmek için nasıl işlevsellik ekleneceğini gösterir. Video, sınırlayıcı kutuların çizilip çizilmeyeceğini belirlemek için bir boole değerinin ayarlanabileceğini açıklar ve ardından bunun for döngüsünde nasıl uygulanacağını gösterir. Video ayrıca sınırlayıcı kutu ve sınıf adı hakkında bilgi gönderme özelliği ekleyerek, yalnızca görüntülemek yerine gerçek bilgileri almanıza olanak tanır. Son olarak video, belirli nesneleri algılamak ve modelin çıktılarını kontrol etmek için nasıl işlevsellik ekleneceğini gösterir.

  • 00:15:00 Videonun bu bölümünde sunum yapan kişi, belirli nesneleri algılamak için nesne algılama modülünün nasıl özelleştirileceğini açıklar. Kullanıcı, nesneler listesine yazarak algılanacak nesnelerin bir listesini oluşturabilir. Kullanıcı listeyi boş bırakırsa, eğitildiği tüm sınıfları algılar. Sunum yapan kişi, nesneler listesine "fincan" ekleyerek yalnızca bardakların nasıl algılanacağına dair bir örnek gösterir. Listeye birden çok nesne eklenebilir ve program yalnızca bu nesneleri algılar. Sunucu ayrıca ana modülü kullanarak nesne algılama modülünü başka bir modülden çalıştırmak için bir yol sağlar.

  • 00:20:00 Videonun bu bölümünde sunum yapan kişi, eşik değeri ve maksimum olmayan bastırma (NMS) gibi parametreler ekleyerek nesne algılama kodunun nasıl değiştirileceğini açıklar. NMS parametresi, görüntüdeki yinelenen algılamaların kaldırılmasına yardımcı olur. Sunucu, bu parametrelerin koda nasıl ekleneceğini ve değerlerini değiştirmenin etkilerini gösterir. Videonun ilerleyen bölümlerinde sunum yapan kişi, kodu bir Raspberry Pi'de çalıştırmak için OpenCV sürüm 4.3 veya sonraki sürümlerin gerekli olduğunu açıklıyor. Kullanıcı bu sürümü daha önce yüklemediyse, sunucunun web sitesindeki talimatlarını takip edebilir.

  • 00:25:00 Bu bölümde eğitmen, OpenCV ve Python kullanarak bir Raspberry Pi'de nesne algılamanın nasıl kurulacağını gösterir. Bu, birkaç dosyayı en son sürümle değiştirmeyi, cv2'yi içe aktarmayı ve sürüm numarasını kontrol etmeyi içerir. Eğitmen ayrıca nesne tespiti için gerekli dosyaları sağlar ve doğru çalışması için dosya yolunun nasıl düzenleneceğini gösterir. Ek olarak, eğitmen harici bir kamera kullanılarak bir nesne algılama örneği gösterir ve bunun işlenmesinin biraz zaman alabileceğini not eder. Kod başarıyla çalıştırılır ve model şişe, bardak ve uzaktan kumanda gibi nesneleri algılayabilir.

  • 00:30:00 Bu bölümde sunum yapan kişi, bir Raspberry Pi üzerinde OpenCV ve Python kullanarak belirli nesneleri algılama becerisini gösterir. Etiketi "uzak"tan "fincan"a ve ardından "şişe"ye değiştirerek algılamayı test ederler ve algılamayı yeniden çalıştırmaya devam ederler. Algılama, Raspberry Pi'de iyi çalışıyor gibi görünüyor, ancak yavaş. Sunucu, ne kadar iyi performans gösterdiğini görmek için bir sonraki videoda aynı algılamayı bir Jetson Nano üzerinde deneyeceklerinden bahsediyor. Ayrıca izleyicileri, dosyaları ve kodları ücretsiz olarak indirmek ve kanallarına abone olmak için web sitelerini ziyaret etmeye davet ediyorlar.
 

Raspberry pi 4 ve 3'te OpenCV python From Source'u kurun ve oluşturun



Raspberry pi 4 ve 3'te OpenCV python From Source'u kurun ve oluşturun

YouTube videosu, bir Raspberry Pi'ye Python için OpenCV yüklemenin iki yöntemini açıklıyor; ilki, önceden oluşturulmuş ikili dosyaları yüklemek için tek bir terminal komutunu ve ikinci yöntem ise kaynaktan OpenCV oluşturmayı gerektiriyor. Kaynağı Github deposundan indirdikten sonra, bir Raspberry Pi'de kaynaktan OpenCV oluşturmanın son adımları, "sudo make install" komutunu yazmadan önce cmake ve make komutlarının çalıştırılmasını içerir ve bu işlemin tamamlanması birkaç saat sürebilir. Video, bir Python komutu kullanarak başarılı kurulumun nasıl kontrol edileceğini gösterir. Video, beğenmeniz, abone olmanız ve yorum bölümünde herhangi bir soru sormanız için bir teşvikle sona eriyor.

  • 00:00:00 Videonun bu bölümünde sunucu, OpenCV for Python'u bir Raspberry Pi'ye kurmak için iki yöntemi açıklıyor. İlk yöntem, basit olan ancak OpenCV'nin en son sürümünü garanti etmeyebilen tek bir terminal komutuyla önceden oluşturulmuş ikili dosyaların yüklenmesini içerir. İkinci yöntem, önce bazı bağımlılıkların yüklenmesini, kaynağın Github deposundan indirilmesini ve kaynağı oluşturmak için bir komut oluşturulup çalıştırılmasını gerektiren kaynaktan OpenCV oluşturmaktır. Her iki yöntem de videoda adım adım gösterilmektedir.

  • 00:05:00 Bu bölümde video, OpenCV Python'u Raspberry Pi 4 veya 3'e kaynaktan kurmanın ve derlemenin son adımlarını tartışıyor. cmake komutunu ve ardından, tamamlanması birkaç saat sürebilen make komutunu çalıştırdıktan sonra, son adım "sudo make install" yazmaktır. Kurulumun başarılı olup olmadığını kontrol etmek için video, "python3" komutunun nasıl girileceğini ve ardından "cv2'yi cv olarak içe aktar" ve ardından bir print ifadesinin nasıl girileceğini gösterir. Terminal, OpenCV sürümü ile bir mesaj döndürürse, kurulum başarılı olmuştur. Video, izleyicileri kanala abone olmaya ve beğenmeye ve yorum bölümünde herhangi bir soru sormaya teşvik eder.
 

Telefonunuzdaki Sinir Ağı: ONNX ile Eğitimden Dağıtıma



Telefonunuzdaki Sinir Ağı: ONNX ile Eğitimden Dağıtıma

"Telefonunuzdaki Sinir Ağı: Eğitimden ONNX Üzerinden Dağıtıma" konulu bu videoda sunum yapan kişi, zehirli veya yenilebilir olmalarına göre farklı mantar türlerini belirlemek için iNaturalist topluluk API'sini kullanarak bir sinir ağının nasıl eğitileceğini gösteriyor. Ardından, Apple'ın Core ML paketini kullanarak modelin bir iPhone'da nasıl konuşlandırılacağını açıklarlar. Konuşmacı ayrıca, eğitilmiş modeli Core ML'ye aktarmadan önce ONNX dosya biçiminde biçimlendirmenin önemine de dikkat çekiyor. Sunum yapan kişi, EfficientNet'in, model seçiminde gereken özenle, görüntü sınıflandırma için gelecekteki model olacağının altını çiziyor ve bitkiler, hayvanlar veya kuşlar için sınıflandırıcılar oluşturmayı öneriyor.

  • 00:00:00 Bu bölümde sunum yapan kişi, her türden mantar türünün yüzlerce farklı görüntüsünü elde etmek için iNaturalist topluluğunun API'sini kullanarak bir mantar görüntü sınıflandırıcısının nasıl eğitileceğini açıklıyor. Mathematica'yı kullanarak görüntüleri depoladılar ve bölgelerinde yaygın olan 11 zehirli ve 11 yenilebilir mantar türüne göre zehirli veya yenilebilir olmalarına göre sınıflandırdılar. Sinir ağının daha sonraki eğitiminden önce görüntüler kırpıldı ve yeniden boyutlandırıldı. Sunum yapan kişi hem Fly Agarik hem de aynı yöntemle etkili bir şekilde sınıflandırılmış ölümcül bir mantar olan Death Cap ile gösteri yapar.

  • 00:05:00 Bu bölümde konuşmacı, ağ deposundan önceden eğitilmiş bir ağ modeli kullanarak farklı mantar türlerini tanımlamak için bir sinir ağının eğitilme sürecini tartışıyor. Sınıf etiketlerini, eğitim ve test setlerini nasıl oluşturduklarını ve modeli stokastik gradyan iniş yöntemiyle eğitmek için transfer öğrenmeyi nasıl kullandıklarını açıklarlar. Ayrıca, eğitilmiş modeli, makine öğreniminde endüstri liderleri tarafından birkaç yıl önce oluşturulan açık bir sinir ağı değişim biçimi olan ONNX dosya biçiminde dışa aktarmanın öneminden de bahsediyorlar.

  • 00:10:00 Bu bölümde konuşmacı, sinir ağlarının Apple'ın Core ML paketi kullanılarak bir iOS işletim sistemi aygıtına nasıl dağıtılabileceğini açıklıyor. Modeli Core ML formatına dönüştürmek için konuşmacı, CoreML araçlarının ONNX dahil olmak üzere çeşitli ağ modellerini içe aktarmak için nasıl kullanılacağını ve örnek olarak kullanılan mantar veri kümesi için ön işleme argümanlarının ve sınıf etiketlerinin nasıl belirleneceğini gösterir. Konuşmacı ayrıca Core ML modellerinin bir kodlayıcı ve kod çözücü ile doğal dil modelleriyle benzer bir çalışma yöntemine sahip olduğunu belirtiyor ve piksel değerleri ve renk eğilimi açısından iki format arasındaki bazı farklılıkları vurguluyor.

  • 00:15:00 Bu bölümde, konuşmacı bir Core ML modelini bir iPhone'a dağıtmak için atılması gereken adımları açıklıyor. Bir Xcode projesinde önceden var olan MobileNet modelini kendi mantar türleri modeliyle nasıl değiştireceklerini gösteriyorlar. Konuşmacı, modelin doğru çalıştığını ormanda buldukları çeşitli mantarlar üzerinde test ederek gösterir. Seyirciyi daha fazla bilgi için Jupyter defterlerine bakmaya teşvik ediyorlar.

  • 00:20:00 Bu bölümde konuşmacı, görüntü sınıflandırması için en iyi performans gösteren modelin gelecekte kullanıma sunulacak olan EfficientNet olduğundan bahseder. Ancak kullanıcı, bellekte çok ağır olan bir EfficientNet modelini seçmemeye dikkat etmelidir. Konuşmacı, bazı mantar türleri ölümcül olabileceğinden, sınıflandırıcının uzman görüşü olmadan yemek pişirmek için kullanılmaması konusunda uyarıda bulunuyor. Gelecekte, konuşmacı sunum için bir iş akışı oluşturmayı ve konuyla ilgili blog yazıları sunmayı planlıyor. Ayrıca, kuş şarkılarını tanımlamak gibi ses örnekleri eklemeyi planlıyorlar. Konuşmacı, bu tür uygulamalar ve konular için bir çalışma grubu oluşturulmasını öneriyor ve ONNX noktasının Android kullanımına bağlı olduğunun altını çiziyor.

  • 00:25:00 Bu bölümde, konuşmacı tür gözlemlerini içe aktarmak için farklı seçenekleri ve hayvanlar veya bitkiler üzerinde sınıflandırıcılar oluşturmak için kullanılabilecek gpif arama, gpif içe aktarma ve küresel verileri içe aktarma gibi diğer yararlı işlevleri tartışıyor. Konuşmacı ayrıca izleyicilere ilgileri için teşekkür eder ve onları topluluktaki makine öğrenimi grubunda daha fazla soru sormaya davet eder.
 

MCU'larda ONNX



MCU'larda ONNX

Rohit Sharma, ONNX modellerini mikrodenetleyicilerde çalıştırmanın zorluklarından ve fırsatlarından bahsediyor. Bu cihazların yüksek performanslı sunucuların kaynaklarından yoksun olmasına rağmen, donanım kaynaklarındaki gelişme ve AI topluluğunun model boyutunu küçültme çabaları nedeniyle küçük cihazlar için artan sayıda makine öğrenimi uygulaması olduğunu vurguluyor. Sharma, mikrodenetleyicilerde makine öğrenimini kolaylıkla uygulamak için iki araçtan bahsediyor: Python'u destekleyen ve geliştiricilerin özel makine öğrenimi algoritmaları oluşturmasına olanak tanıyan açık kaynaklı bir önceden derleyici olan DeepSea ve kodsuz/düşük kodlu bir platform olan Canvas kullanıcının veri kümesine uyacak şekilde özelleştirilebilen 70'in üzerinde küçük makine öğrenimi uygulaması. Bu araçlar için, işaret hareketlerini kelimelere çeviren giyilebilir bir eldiven ve Amazon Echo gibi konuşma destekli cihazlar için zayıf kelime algılama dahil olmak üzere iki kullanım durumu sunuyor.

  • 00:00:00 Bu bölümde Rohit Sharma, ONNX modellerini aylarca pille çalışan küçük cihazlar olan mikrodenetleyicilerde çalıştırmanın zorluklarını ve fırsatlarını tartışıyor. Bu cihazlar, hızlandırıcılara sahip yüksek performanslı sunucuların veya tek kartlı bilgisayarların bilgi işlem kaynaklarına sahip olmasa da, küçük cihazlarda çalışan makine öğrenimi uygulamalarının sayısının artmasının nedeni, MCU sağlayıcılarının yapay zeka araştırma topluluğu çalışırken donanım kaynaklarını geliştirmeye devam etmesidir. model boyutunu küçültmek için çalışıyor. Sharma, tüm küçük makine öğrenimi uygulamalarının uç yapay zeka uygulamaları olduğunu, ancak tüm uç yapay zeka uygulamalarının küçük makine öğrenimi uygulamaları olmadığını, çünkü farkın güç tüketiminden kaynaklandığını açıklıyor. Ardından, mikrodenetleyiciler, Nesnelerin İnterneti ve uç aygıtlar dahil olmak üzere küçük form faktörlü aygıtlar için tasarlanmış açık kaynaklı, satıcıdan bağımsız bir derin öğrenme kitaplığı derleyicisi ve çıkarım çerçevesi olan DeepSea ile ONNX modellerini derleme sürecini tartışmaya devam ediyor.

  • 00:05:00 Bu bölümde, konuşmacı makine öğrenimini mikrodenetleyicilerde kolaylıkla uygulamak için iki aracı açıklamaktadır. İlk araç, Python'u destekleyen ve geliştiricilerin özel makine öğrenimi algoritmaları oluşturmasına olanak tanıyan açık kaynaklı bir önceden (AOT) derleyicisi olan DeepSea'dır. İkinci araç, 70'in üzerinde küçük makine öğrenimi uygulamasından oluşan bir galeri sağlayan kodsuz/düşük kodlu bir platform olan Canvas'tır. Canvas, kullanıcının veri kümesine uygun küçük bir makine öğrenimi modeli oluşturmak için bu uygulamaların özelleştirilmesine olanak tanır. Konuşmacı ayrıca bu araçlar için iki kullanım durumu sağladı: işaret hareketlerini konuşulan kelimelere dönüştüren giyilebilir bir eldiven ve Amazon Echo gibi konuşma destekli cihazları etkinleştirmek için zayıf kelime algılama.