Alım-satım fırsatlarını kaçırıyorsunuz:
- Ücretsiz alım-satım uygulamaları
- İşlem kopyalama için 8.000'den fazla sinyal
- Finansal piyasaları keşfetmek için ekonomik haberler
Kayıt
Giriş yap
Gizlilik ve Veri Koruma Politikasını ve MQL5.com Kullanım Şartlarını kabul edersiniz
Hesabınız yoksa, lütfen kaydolun
Derin Sinir Ağlarını Görselleştirme ve Anlama Matt Zeiler
Derin Sinir Ağlarını Görselleştirme ve Anlama Matt Zeiler
Matt Zeiler, görüntülerde ve videolarda nesne tanıma için evrişimli sinir ağlarını (CNN'ler) görselleştirmeyi ve anlamayı tartışıyor. Derin sinir ağlarının nesneleri tanımada insanlara ve primatlara kıyasla nasıl performans gösterdiğini anlatıyor ve CNN'lerin katmanlardan geçerek nesneleri tanımlamayı nasıl öğrendiğini gösteriyor. Zeiler, CNN mimarisini geliştirme sürecini açıklıyor ve sınırlı verilerle eğitim yaparken sınırlamaları tartışıyor. Son olarak, alt katmanların üst katmanlarda kullanılması ve evrişimlerin sinir ağlarında uygulanması ile ilgili soruları yanıtlıyor.
ChatGPT Nasıl Eğitilir?
ChatGPT Nasıl Eğitilir?
ChatGPT, insan konuşmasını taklit etmek için tasarlanmış bir makine öğrenme sistemidir. İlk olarak, büyük miktarlarda yapılandırılmamış metin verilerine dayanan üretken bir ön eğitim yaklaşımı kullanılarak eğitilir ve ardından kullanıcının tercihlerine daha iyi uyum sağlamak için takviyeli öğrenme kullanılarak ince ayar yapılır.
Vrije Universiteit Amsterdam Makine Öğrenimi 2019 - 1 Makine Öğrenimine Giriş (MLVU2019)
Vrije Universiteit Amsterdam Makine Öğrenimi 2019 - 1 Makine Öğrenimine Giriş (MLVU2019)
Bu video, makine öğrenimine bir giriş sağlar ve onunla ilgili çeşitli konuları kapsar. Eğitmen, kursa nasıl hazırlanılacağını açıklıyor ve makine öğreniminin göz korkutucu olduğuna dair yaygın endişeleri ele alıyor. Farklı makine öğrenimi türlerini tanıtıyor ve onu geleneksel kural tabanlı programlamadan ayırıyor. Video aynı zamanda denetimli öğrenmenin temellerini ele alıyor ve makine öğreniminin sınıflandırma ve regresyon problemlerinde nasıl kullanılabileceğine dair örnekler sunuyor. Özellik uzayı, kayıp fonksiyonu ve artıklar kavramları da açıklanmıştır.
Videonun ikinci bölümü, makine öğrenimine bir giriş sağlar ve makinenin kalıpları bulma ve bir veri kümesinden sonuçları tahmin etmek için doğru modeller oluşturma ana amacını açıklar. Konuşmacı, aşırı uydurmayı önlemek ve genelleme elde etmek için belirli algoritmalar kullanmanın ve veri bölmenin önemini tartışıyor. Ayrıca yoğunluk tahmini kavramını ve karmaşık verilerle ilgili zorluklarını tanıtıyor. Konuşmacı, makine öğrenimi ile diğer alanlar arasındaki farkı açıklığa kavuşturuyor ve doğru tahminler yapmak için büyük veri kümelerini parçalamaya yönelik bir stratejiden bahsediyor. Videoda ayrıca derin öğrenmenin gelişmesiyle birlikte makine öğreniminde çalışan kişilerin artmasından bahsediliyor ve alana yeni başlayanlar için ipuçları veriliyor.
2 Doğrusal Model 1: Hiper Düzlemler, Rastgele Arama, Gradyan İniş (MLVU2019)
2 Doğrusal Model 1: Hiper Düzlemler, Rastgele Arama, Gradyan İniş (MLVU2019)
Bu video doğrusal modellerin, arama yöntemlerinin ve optimizasyon algoritmalarının temellerini kapsar. Doğrusal modeller hem 2 boyutta hem de çoklu boyutta anlatılmakta ve rasgele arama ve gradyan iniş gibi yöntemlerle iyi bir model arama süreci ele alınmaktadır. Makine öğreniminde dışbükeyliğin önemi açıklanmakta ve dışbükey olmayan manzaralarda rastgele aramanın sakıncaları ele alınmaktadır. Video ayrıca evrimsel yöntemleri ve arama yöntemleri olarak dallara ayrılan aramayı tanıtıyor. Son olarak, bir hiperdüzlem için en dik iniş yönünü bulma süreci de dahil olmak üzere, kayıp fonksiyonunu optimize etmek için matematik ve gradyan inişinin kullanımı açıklanmaktadır.
İkinci kısım, gradyan inişini ve algoritmanın, kayıp fonksiyonunun negatif gradyanı yönünde adımlar atarak parametreleri güncellediği doğrusal modellere uygulamasını tartışır. Öğrenme oranı, algoritmanın minimuma ne kadar hızlı yakınsadığını belirlemede çok önemlidir ve doğrusal işlevler, kişinin arama yapmak zorunda kalmadan en uygun modeli çalışmasına izin verir. Bununla birlikte, daha karmaşık modeller gradyan iniş kullanmayı gerektirir. Video ayrıca sınıflandırma ve karar sınırlarını da tanıtıyor; burada amaç, bunu en uygun şekilde yapan bir çizgi bularak mavi noktaları kırmızı noktalardan ayırmak. Doğrusal modellerin sınırlamaları, doğrusal olarak ayrılamayan veri kümelerini sınıflandıramamalarını içerir, ancak hesaplama açısından ucuzdurlar ve yüksek boyutlu özellik uzaylarında iyi çalışırlar. Eğitmen ayrıca, makine öğrenimi metodolojisi gibi gelecekte tartışılacak konuların önizlemesini yapar.
3 Metodoloji 1: Eğrinin altındaki alan, önyargı ve varyans, bedava öğle yemeği yok (MLVU2019)
3 Metodoloji 1: Eğrinin altındaki alan, önyargı ve varyans, bedava öğle yemeği yok (MLVU2019)
Video, makine öğrenimi modellerini değerlendirmede eğrinin altındaki alan (AUC) metriğinin kullanımının yanı sıra önyargı ve varyans kavramlarını ve "bedava öğle yemeği yok" teoremini tanıtmayı kapsar. AUC metriği, ROC eğrisi altındaki alanı hesaplayarak sınıflandırma modelinin performansını ölçer. Ek olarak, modelin eğitim verilerine ne kadar iyi uyduğu ve yeni verilere genelleştirildiği konusunda çok önemli bir rol oynadıkları için önyargı ve varyans tartışılır. Ayrıca, "bedava öğle yemeği yok" teoremi, tüm makine öğrenimi sorunları için evrensel olarak uygulanabilir bir algoritma olmadığından, her belirli sorun için uygun algoritmayı seçme ihtiyacını vurgular.
Bu video, üç önemli makine öğrenimi kavramını kapsar: AUC (eğrinin altındaki alan), önyargı ve varyans ve "bedava öğle yemeği yok" teoremi. AUC, ikili sınıflandırma modellerini değerlendirmek için kullanılan bir ölçüdür; yanlılık ve varyans ise bir modelin tahmin edilen değerleri ile bir veri kümesindeki gerçek değerler arasındaki farkları ifade eder. "Bedava öğle yemeği yok" teoremi, tüm olası problemler ve veri kümeleri üzerinde en iyi şekilde performans gösterebilen tek bir algoritma olmadığından, belirli bir problem için uygun algoritmayı seçmenin önemini vurgular.
4 Metodoloji 2: Veri temizleme, Temel Bileşen Analizi, Özyüzler (MLVU2019)
4 Metodoloji 2: Veri temizleme, Temel Bileşen Analizi, Özyüzler (MLVU2019)
Videonun bu ilk bölümü, veri önyargılarını ve çarpıklığını anlamanın hayati öneminden başlayarak, makine öğrenimi algoritmalarını uygulamadan önce veri ön işleme ve temizlemenin çeşitli önemli yönlerini kapsar. Konuşmacı daha sonra eksik veriler, aykırı değerler, sınıf dengesizliği, özellik seçimi ve normalleştirme ile başa çıkma yöntemlerini tartışır. Video, temel kavramını ve MVN dağılımını tartışarak devam ediyor, beyazlaştırmanın verileri normalleştirme için normal dağılıma dönüştürmek için nasıl kullanılacağını açıklıyor ve boyut indirgeme için temel bileşen analizinin (PCA) kullanımıyla sona eriyor. PCA, eğitim setini manipüle etmekten atama yöntemlerini kullanmaya kadar, orijinal verilerden bilgileri korurken verileri daha düşük boyutlu bir alana yansıtır.
Videonun bu ikinci bölümünde, makine öğrenimi için veri temizleme ve boyut azaltmada Temel Bileşen Analizi'nin (PCA) kullanımı tartışılmaktadır. Yöntem, verilerin ortalamasını merkezlemeyi, örnek kovaryansını hesaplamayı ve en çok varyansı yakalayan eksenle hizalanmış özvektörleri elde etmek için özvektörleri elde etmek için özayrışımı kullanarak ayrıştırmayı içerir. İlk K ana bileşenlerini kullanmak, iyi bir veri yeniden yapılandırması sağlayarak daha iyi makine öğrenimi performansı sağlar. Eigenfaces kavramı da tanıtıldı ve PCA'nın makine öğrenimi için gerekli bilgilerin çoğunu korurken verileri 30 boyuta sıkıştırmada etkili olduğu gösterildi. PCA'nın antropolojideki kullanımı ve DNA ve yüzler gibi karmaşık veri setlerinin incelenmesi dahil olmak üzere çeşitli uygulamaları tartışılmaktadır.
Ders 5 Olasılık 1: Entropi, (Naif) Bayes, Çapraz entropi kaybı (MLVU2019)
5 Olasılık 1: Entropi, (Naif) Bayes, Çapraz entropi kaybı (MLVU2019)
Video, olasılık teorisinin çeşitli yönlerini ve makine öğrenimindeki uygulamasını kapsar. Konuşmacı, bir sistemdeki belirsizlik miktarını ölçen entropiyi tanıtır ve saf Bayes ve çapraz entropi kaybıyla nasıl ilişkili olduğunu açıklar. Örnek uzay, olay uzayı, rastgele değişkenler ve koşullu olasılık kavramları da tartışılır. Bayes teoremi açıklanır ve makine öğreniminde temel bir kavram olarak kabul edilir. Video aynı zamanda maksimum olasılık tahmin ilkesini ve Bayes olasılığının yanı sıra olasılık dağılımlarını simüle etmek için ön ek içermeyen kodun kullanımını da kapsar. Son olarak, konuşmacı Naive Bayes sınıflandırıcısı da dahil olmak üzere ikili sınıflandırma için ayrımcı ve üretken sınıflandırıcıları tartışır.
İkinci kısım, çok değişkenli bir normal dağılım modeli kullanarak belirli bir sınıfa ait yeni bir nokta için hesaplama olasılıkları kavramını açıklamaktadır. Bir sınıflandırıcı için olasılık dağılımlarına verimli bir şekilde uyacak şekilde özelliklerin koşullu bağımsızlığını ve sıfır örnekleri ele almak için sözde gözlemleri yumuşatma veya ayarlama ihtiyacını tartışır. Konuşmacı ayrıca doğrusal sınıflandırıcılar için doğruluktan daha etkili bir kayıp işlevi olarak entropi kaybını tanıtıyor ve çapraz entropi kaybı işlevinin, basitleştirmek için işlevin simetrilerini çökerten sigmoid işleviyle tahmin edilen ve gerçek veriler arasındaki farkı ölçme yeteneğini tartışıyor. Son olarak, video bir sonraki dersin son kayıp fonksiyonu olarak SVM kaybını ele alacağını ima ediyor.
Ders 6 Doğrusal Modeller 2: Sinir Ağları, Geri Yayılım, SVM'ler ve Çekirdek yöntemleri (MLVU2019)
6 Doğrusal Modeller 2: Sinir Ağları, Geri Yayılım, SVM'ler ve Çekirdek yöntemleri (MLVU2019)
Videonun doğrusal modellerle ilgili bu ilk bölümü, doğrusal modellere doğrusal olmamayı tanıtmaya odaklanır ve özellik uzayını genişletmeye dayanan iki modeli araştırır: sinir ağları ve destek vektör makineleri (SVM'ler). Sinir ağları için konuşmacı, sigmoid veya softmax gibi aktivasyon fonksiyonlarını kullanarak regresyon ve sınıflandırma problemleri için bir ağın nasıl kurulacağını açıklar. Ders daha sonra sinir ağlarında kullanılan gradyanları hesaplamak için kullanılan bir yöntem olan geri yayılımı inceler. DVM'ler için konuşmacı, her sınıfın en yakın noktalarına marjı maksimize etme kavramını tanıtır ve bunun kısıtlı bir optimizasyon problemi olarak nasıl ifade edilebileceğini gösterir. Video, sinir ağları ve SVM'lerin ilkelerine net bir giriş sağlar ve öğrencilere kursun geri kalanı için bir başlangıç noktası olarak dersin ilk yarısına odaklanmalarını önerir.
Videonun ikinci kısmı, destek vektör makineleri (SVM'ler), yumuşak marjlı SVM'ler, çekirdek püf noktaları ve SVM'ler ile sinir ağları arasındaki farklar konularını kapsar. Yumuşak marjlı SVM'ler, sınıflandırma kısıtlamalarına uymayan noktalara bir ceza değerinin eklenmesine izin vererek, doğrusal olarak ayrılamayan verileri işlemenin bir yolu olarak sunulur. Çekirdek hilesi, modelin gücünü önemli ölçüde artırmak için özellik alanını genişleterek nokta çarpımının daha yüksek boyutlu bir alanda hesaplanmasına izin verir. DVM'ler ve sinir ağları arasındaki farklar açıklanmakta ve tam olarak anlaşılmasa bile daha gelişmiş sınıflandırma türlerini gerçekleştirebilme yeteneklerinden dolayı sinir ağlarına geçiş tartışılmaktadır.
Derin öğrenme 1: Tensörler için geri yayılım, Konvolüsyonel Sinir Ağları (MLVU2019)
7 Derin öğrenme 1: Tensörler için geri yayılım, Konvolüsyonel Sinir Ağları (MLVU2019)
Videonun derin öğrenme ve geri yayılımla ilgili bu ilk bölümü, derin öğrenme çerçevesinin temelleri, tensörler, geri yayılım algoritması ve yok olan gradyan problemi dahil olmak üzere çeşitli konuları kapsar. Konuşmacı, sinir ağlarının bir dizi lineer cebir işlemi kullanılarak nasıl uygulanabileceğini ve geri yayılım algoritmasının, fonksiyonların bir bileşimi olarak bir modeli tanımlamak için nasıl kullanılabileceğini açıklar. Video ayrıca, matris işlemlerini kullanarak türevlerin nasıl hesaplanacağını da kapsar ve ağırlık başlatma ve ReLU'nun bir aktivasyon işlevi olarak kullanılması gibi, yok olan gradyan probleminin çözümlerini araştırır. Son olarak video, karmaşık bir sinir ağında kullanılabilen mini toplu gradyan inişine ve çeşitli optimize edicilere değiniyor.
Bu ikinci bölüm, optimizasyon algoritmaları ve düzenlileştirme teknikleri dahil olmak üzere derin öğrenmeyle ilgili bir dizi konuyu kapsar. Adam optimizasyonu, derin öğrenme için popüler bir algoritma olarak açıklanırken, L1 ve L2 düzenlemesi, fazla uydurmayı önleme yöntemleri olarak araştırılır. Sinir ağlarının görüntü işlemedeki potansiyeli de tartışılmakta ve evrişimli sinir ağları, görüntü tanıma görevleri için güçlü bir araç olarak vurgulanmaktadır. Video ayrıca, bu ağların işleyişini ve karmaşık görüntüleri tanımak için özellikleri nasıl oluşturduklarını ve birden fazla modülü zincirleme sınırlamalarının üstesinden gelmenin bir yolu olarak uçtan uca öğrenme kavramını da ele alıyor.
8 Olasılık 2: Maksimum Olabilirlik, Gauss Karışım Modelleri ve Beklenti Maksimizasyonu (MLVU2019)
8 Olasılık 2: Maksimum Olabilirlik, Gauss Karışım Modelleri ve Beklenti Maksimizasyonu (MLVU2019)
Videonun bu bölümü, maksimum olasılık tahmini, normal dağılımlar, Gauss Karışım Modelleri ve Beklenti Maksimizasyon Algoritması kullanılarak yoğunluk tahmini için olasılık modellerine odaklandı. Konuşmacı, Maksimum Olabilirlik ilkesini açıkladı ve en iyi olasılık modelini seçmedeki uygulamasını gösterdi. Normal dağılımları araştırdılar, olasılık ve olasılık yoğunluk fonksiyonları arasındaki farkı açıkladılar ve Gauss Karışımı modellerini tanıttılar. Konuşmacı ayrıca tek değişkenli ve çok değişkenli bir normal dağılımdan örnekleme yöntemini ve Gauss Karışım Modeli'nin bir popülasyon içindeki farklı kümeleri tanımlamaya nasıl yardımcı olduğunu tartıştı. Ek olarak, Gauss Karışım Modellerini veri kümelerine sığdırmak için Beklenti Maksimizasyon algoritması tanıtıldı. Konuşmacı ayrıca Q fonksiyonu yaklaşımı kullanılarak Beklenti Maksimizasyonu yaklaşımının nasıl resmileştirileceğini açıkladı ve bunun yerel bir optimuma yakınsadığını kanıtladı.
Bu video, Maksimum Olabilirlik, Gauss Karışım Modelleri ve Beklenti Maksimizasyonu (EM) konularını kapsar. Konuşmacı EM algoritmasını, kanıtını ve neden yakınsadığını açıklar. Ayrıca, Q'yu sabit tutarken teta'yı seçerek L'yi maksimize ettikleri M adımını tartışırlar. Bir Gauss karışım modelini verilere uydurmak, EM algoritmasının kullanılmasını gerektirir ve konuşmacı, kümeleme ve keşif analizi gibi uygulamalarını ve her sınıfa bir Gauss karışım modeli uydurarak sınıflandırma için nasıl kullanılabileceğini açıklar. Video ayrıca, olasılık modellerini karmaşık sinir ağlarına uydurma konusunda yaklaşan dersten de bahsediyor.