Makine Öğrenimi ve Sinir Ağları - sayfa 15

 

Ders 9. Deneysel Verileri Anlamak



9. Deneysel Verileri Anlamak

Bu derste Profesör Eric Grimson, veri toplamaktan tahminlerde bulunmak için modelleri kullanmaya kadar deneysel verileri anlama sürecini tartışıyor. Doğrusal ilişkileri tahmin ederken doğruluğu ölçmenin önemini göstermek için bir yay örneğini kullanır ve uyumun iyiliğini ölçmek için farklı yöntemler araştırır. Grimson, yüksek bir r-kare değerinin mutlaka daha yüksek dereceli bir polinomun en iyi seçim olduğu anlamına gelmediğini vurgulayarak doğrusal regresyon ve polinom uyumu kavramını sunar. Grimson, 16 boyutlu bir alanı optimize etmek için kod kullanıyor ve bu polinomu kullanıp kullanmama seçimini bir sonraki ders için bırakıyor.

  • 00:00:00 Dersin bu bölümünde Profesör Eric Grimson, günümüzün veri yoğun dünyasında deneysel verileri anlamanın önemini tartışıyor. İster bilim insanı, ister mühendis, ister sosyal bilimci olun, ister verilerle ilgili başka bir meslekte olun, faydalı bilgiler elde etmek için verileri manipüle edebilen yazılımlara ihtiyacınız olduğunu vurguluyor. Ayrıca bir deney yapma, veri alma ve veriler hakkında tahminlerde bulunmak için modelleri kullanma sürecinden de bahsediyor. Bir yay örneğini kullanarak, onunla ilgili verilerin nasıl toplanacağını, modelleneceğini ve verilerin analizine yardımcı olabilecek yazılımların nasıl yazılacağını açıklıyor.

  • 00:05:00 Bu bölümde Hooke'un esneklik yasası kavramı tanıtılmaktadır. Yasa, bir yayı sıkıştırmak veya germek için gereken kuvvetin, sıkıştırıldığı veya gerildiği mesafeyle doğrusal olarak ilişkili olduğunu belirtir. Negatif işaret, kuvvetin sıkıştırma veya esneme yönünün tersine uygulandığını gösterir. Hooke yasası çok çeşitli yaylar için geçerlidir, ancak yasa bozulmadan önce bir yayın ne kadar gerilebileceğinin bir sınırı vardır. Hooke yasası ve yay sabiti kullanılarak bir yayı bir santimetre sıkıştırmak için gereken kuvvetin hesaplanmasına ilişkin örnek verilmiştir.

  • 00:10:00 Bu bölümde konuşmacı, bir yay üzerinde farklı kütlelerin ölçülmesi yoluyla yay sabitinin belirlenmesi sürecini anlatır. İdeal olarak, tek bir ölçüm yeterli olacaktır, ancak kütleler güvenilmez olabileceğinden ve yaylar kusurlu malzemeler içerebileceğinden, yay sabitini çıkarmak için çizilebilecek doğrusal bir ilişkiye sahip bir dizi ölçüm üretmek için birden fazla deneme gereklidir. Konuşmacı, veri noktalarının grafiğini çizmeden önce tüm değerleri eşit şekilde ölçeklendirmek için bir dizi işlevi kullanmayı gösterir. İdeal doğrusal ilişki, araştırmacıların atomik kuvvet mikroskoplarını kalibre etmelerine ve biyolojik yapılardaki kuvveti ölçmelerine olanak tanır.

  • 00:15:00 Bu bölümde, konuşmacı deneysel verilere bir çizginin nasıl sığdırılacağını ve çizgi ile ölçülen noktalar arasındaki mesafenin nasıl ölçüleceğini tartışır. Amaç fonksiyonunu en aza indiren çizgiyi bularak yapılan çizginin ne kadar iyi uyum sağladığını belirlemek için bir amaç fonksiyonunun gerekli olduğunu açıklarlar. Konuşmacı, mesafeyi ölçmek için x ekseni boyunca yer değiştirme, dikey olarak yer değiştirme veya hat üzerindeki en yakın noktaya olan mesafe gibi çeşitli yolları da dikkate alır. Yeni bir bağımsız değer verildiğinde tahmin edilen bağımlı değeri ölçtüğü için nihai olarak dikey yer değiştirmeyi seçerler.

  • 00:20:00 Bu bölümde Eric Grimson, tahmin edilen bir çizginin doğruluğunun en küçük kareler yöntemini kullanarak nasıl ölçüleceğini açıklıyor. Yöntem, tahmin edilen ve gözlemlenen y-değerleri arasındaki farkı bulmayı, işareti ortadan kaldırmak için bunların karesini almayı ve sonra bu kareleri alınmış farkları gözlenen tüm değerler için toplamayı içerir. Bu toplam, çizginin gözlemlenen değerlere nasıl uyduğuna dair bir ölçü sağlar. Toplam kare farkını en aza indirerek, en uygun doğruyu bulabiliriz. Ek olarak Grimson, tahmin edilen eğrinin modelinin bir polinom olduğunu varsayarak ve verilere en iyi uyan derece bir veya derece iki polinomu bulmak için doğrusal regresyon tekniğini kullanarak en uygun eğrinin nasıl bulunacağını tartışır.

  • 00:25:00 Bu bölümde, iki boyutlu bir uzayda olası tüm çizgilerle temsil edilebilecek bir yüzey üzerindeki en alçak noktayı bulma yöntemi olarak doğrusal regresyon kavramı tanıtılmaktadır. Doğrusal regresyon, bir noktadan başlayarak ve eğim boyunca bir mesafe yokuş aşağı yürüyerek, yeni eğimi ölçerek ve en alçak noktaya ulaşılana kadar tekrarlayarak en uygun çizgiyi bulmak için kullanılır. Bunu yapmak için kullanılan algoritma, Newton'un yöntemine çok benzer. Bu bölüm ayrıca, yerleşik bir PyLab işlevi olan polyFit'in en küçük kareler uyumunu sağlayan belirli bir dereceye sahip bir polinomun katsayılarını bulmak için nasıl kullanılacağını da kapsar.

  • 00:30:00 Bu bölümde sunum yapan kişi Python'un veriye bir çizgi sığdırmak için nasıl kullanılacağını ve kullanılan polinomun sırasının nasıl değiştirileceğini gösterir. Kullanılan polinomun sırası ne kadar yüksek olursa, veriye o kadar yakın uyum olacağını açıklarlar. Sunum yapan kişi, bir çizgi sığdırmanın işe yaramadığı ve ikinci dereceden bir çizgi sığdırmanın daha iyi olduğu bir veri kümesinin görsel bir örneğini sağlar. Ayrıca, herhangi bir dereceli polinomu sığdırmak ve bir tahmin edilen değerler dizisini döndürmek için polival işlevinin nasıl kullanılacağını açıklayarak kodun soyut doğasını gösterirler.

  • 00:35:00 Bu bölümde, konuşmacı deneysel verilerin uyum iyiliğinin nasıl ölçüleceğini tartışır. Farklı modelleri karşılaştırmak için, bu yaklaşım iki modeli karşılaştırmak için yararlı olduğundan, ortalama hatanın karesini ölçmeyi önerir. Bununla birlikte, bu yöntemin bir sorunu vardır çünkü bir uyumun diğerinden gerçekten daha iyi olup olmadığını bilmenin kesin bir yolunu sağlamaz. Bu konuyu ele almak için konuşmacı, ölçekten bağımsız olan ve bir uyumun mükemmel olmaya ne kadar yakın olduğunu söyleyebilen belirleme katsayısının (r-kare) kullanılmasını önerir. Gözlemlenen ve tahmin edilen değerler ile ortalama hata arasındaki farkın ölçülmesini içeren r-kare hesaplamak için bir formül sağlar.

  • 00:40:00 Bu bölümde, konuşmacı bir modelin doğruluğunu değerlendirmek için varyansın ve r-kare değerinin nasıl hesaplanacağını açıklar. Varyans, hataların kareleri toplamının örnek sayısına bölünmesiyle elde edilebilir. r-kare değeri, verilerdeki değişkenliğin ne kadarının model tarafından açıklandığını gösterir ve sıfır ile bir arasında değişir. r-kare 1, modelin tüm değişkenliği açıkladığı anlamına gelirken r-kare sıfır, model ile veriler arasında hiçbir ilişki olmadığı anlamına gelir. Konuşmacı daha sonra, farklı karmaşıklık derecelerine sahip modeller oluşturup test eden ve karşılık gelen r-kare değerlerini döndüren iki işlevi, genFits ve testFits'i tanıtır. Bu işlevler, bir veri kümesi için en uygun olanı belirlemeye yardımcı olabilir.

  • 00:45:00 Bu bölümde eğitmen, verilere en uygun olanı belirlemek için ikinci dereceden, dörtlü, 8. dereceden ve 16. dereceden bir polinom uyumu ile kod çalıştırır. PyLab türünde bir kod kullanmanın, 16 boyutlu bir alanı optimize etmelerine ve en iyi çözümü bulmak için doğrusal regresyon kullanmalarına olanak sağladığını açıklıyorlar. 16. dereceden polinom mükemmel bir iş çıkarsa ve neredeyse %97'lik bir r kare değerine sahip olsa da, eğitmen, yüksek bir r kare değerinin mutlaka 16. dereceden bir polinom kullanmanın en iyi seçim olduğu anlamına gelmediği konusunda uyarır. Kullanıp kullanmama kararını bir sonraki derse bırakırlar.
9. Understanding Experimental Data
9. Understanding Experimental Data
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: Eric GrimsonPr...
 

Anlatım 10. Deneysel Verileri Anlamak (devam)



10. Deneysel Verileri Anlamak (devam)

Videonun bu bölümünde sunum yapan kişi, deneysel verilere uyacak doğru modeli bulmanın ve aynı zamanda aşırı uydurmadan kaçınmanın önemini vurguluyor. Model karmaşıklığı ile yeni verileri tahmin etmedeki etkinlik arasındaki doğru dengeyi belirlemek için çapraz doğrulama kullanmak gibi çeşitli yöntemler tartışılmaktadır. Konuşmacı, deneysel verilere farklı sıralardaki modellerin uydurulmasına ilişkin örnekler sunar ve veri kümelerine gürültü ekleyerek fazla uydurmanın etkilerini gösterir. R-kare değeri, bir modelin verilere ne kadar iyi uyduğunu belirlemek için bir araç olarak da tanıtılmaktadır. Genel olarak, model karmaşıklığını ve yeni verileri tahmin etmedeki etkinliği dengelemenin önemi vurgulanmıştır.

  • 00:00:00 Bu bölümde eğitmen, öğrencilere daha önce verileri anlamak için deneysel verilere model uydurma kavramını tartıştıklarını hatırlatır. Amaç, verilerin altında yatan olguları açıklayan ve yeni ortamlardaki davranışlar hakkında tahminler yapabilen bir modele sahip olmaktır. Bununla birlikte, veriler her zaman gürültülü olduğundan, modeli uydururken deneysel belirsizliği hesaba katma ihtiyacı vardır. Eğitmen, gözlemlenen ve tahmin edilen veriler arasındaki farkları en aza indiren katsayıları bulmak için polinom ifadelerinin, özellikle doğrusal regresyonun kullanımını özetler.

  • 00:05:00 Bu bölümde lineer regresyon kavramı ayrıntılı olarak incelenmektedir. Doğrusal regresyonun ardındaki fikir, yüzeyin değerinin veya yüksekliğinin her noktadaki amaç fonksiyonunun değeri olduğu, bir erişime a değerleri ve diğer erişimin B değerlerine sahip olduğu bir uzaydaki tüm olası çizgileri temsil etmektir. Buradaki fikir, o yüzeyde bir noktadan başlamak ve her zaman bir alt noktanın olacağı dibe ulaşana kadar yokuş aşağı yürümek ve bu noktaya ulaşıldığında, a ve B değeri en iyi çizgiyi verecektir. Bu bölüm, bir modelin verilere ne kadar iyi uyduğunu ölçen, 0 ile 1 arasında ölçekten bağımsız bir değer olan katsayı belirleme R karesinin tartışılmasıyla sona erer.

  • 00:10:00 Bu bölümde konuşmacı, modelleri deneysel verilere uydurmada R-kare değerinin önemini tartışıyor. R-kare değeri, modelin verilere ne kadar iyi uyduğunu gösterir; 1 değeri mükemmel uyumu ve 0'a yakın bir değer zayıf uyumu gösterir. Daha yüksek dereceli bir model verilere daha iyi uysa da, fenomeni açıklamak veya tahminlerde bulunmak için kullanılacak en iyi model olmayabilir. Konuşmacı ayrıca, ek gürültü ile parabolik bir fonksiyon kullanarak örneği için verileri nasıl ürettiğini açıklıyor.

  • 00:15:00 özetle. Bu bölümde konuşmacı doğrulama veya çapraz doğrulama kullanarak bir modelin etkinliğinin nasıl test edileceğini tartışır. İki farklı veri seti kullanarak 2, 4, 8 ve 16. dereceler için ek gürültü ve uyum modelleri ile parabolik bir yaydan veri üretirler. En uygun model hala 16. derecedendir, ancak bilmece, 2. dereceden bir polinomdan veri üretildiğinde neden 16. dereceden bir polinomun en uygun model olduğudur. Konuşmacı, harika bir model için küçük bir eğitim hatasının gerekli olduğunu ancak yeterli olmadığını ve modelin aynı süreçten üretilen farklı veriler üzerinde ne kadar iyi performans gösterdiğini görmek için doğrulama veya çapraz doğrulamanın gerekli olduğunu açıklıyor.

  • 00:20:00 Bu bölümde, konuşmacı deneysel verilerin kullanımını ve buna bir modelin nasıl uydurulacağını tartışır. Ayrıca, modelleri farklı veri kümelerinde test etmenin önemini ve bir modelde çok fazla serbestlik derecesi kullanıldığında fazla uydurma potansiyelini keşfederler. Örnekleri aracılığıyla, düşük dereceli modellerin (örneğin 2. veya 4. derece) davranışı tahmin etmede yüksek dereceli modellerden (örneğin 16. derece) daha etkili olabileceğini ve modellerin birden fazla veri kümesi üzerinde test edilmesinin önemli olduğunu gösterirler. yani çok karmaşık değiller.

  • 00:25:00 Bu bölümde, konuşmacı, bir modelin yeni veri kümelerine sığamayacak kadar mükemmel bir şekilde eğitim verilerine uyacak şekilde tasarlandığı verilere aşırı uydurmanın tehlikeleri konusunda uyarıda bulunuyor. Fazla uydurmayı tespit etmek için doğrulamanın nasıl kullanılacağını ve bazı durumlarda daha yüksek giriş değişkenlerinin neden gereksiz olduğunu açıklıyor. İkinci dereceden bir modeli bir doğruya uydurmanın bir örneğini gösteriyor ve sistemin daha yüksek terim katsayısına hayır dediğini çünkü gürültüyü uydurmaya başlayacağını ve daha az etkili bir uyuma yol açacağını gösteriyor. Konuşmacının örneği, ikinci dereceden bir çizgiyi bir çizgiye sığdırır ve sistemin gürültüyü mükemmel bir şekilde uydurmasına, dolayısıyla yeni değerleri etkili bir şekilde tahmin etmesine yol açan bir nokta eklenene kadar modelin nasıl mükemmel çalıştığını gösterir.

  • 00:30:00 Bu bölümde, konuşmacı aşırı uydurma kavramını tanıtıyor ve bir veri kümesine az miktarda gürültü ekleyerek ve hem ikinci dereceden hem de birinci derece bir model uydurarak etkilerini gösteriyor. İkinci dereceden modelin eklenen gürültü ile iyi performans göstermediği, buna karşın birinci derece modelin buna karşı daha dirençli olduğu gösterilmiştir. Konuşmacı, aşırı karmaşık bir model ile yeterince karmaşık olmayan bir model arasında doğru dengeyi bulmanın, sonuçları doğru bir şekilde tahmin etmede çok önemli olduğunu vurgular. Bölüm, doğru modeli bulmak için önerilen bir yöntemle sona ermektedir.

  • 00:35:00 Bu bölümde video, özellikle seçime rehberlik edecek bir teorinin olmadığı durumlarda, belirli bir veri seti için en iyi modelin nasıl belirleneceğini tartışır. Yaklaşımlardan biri, modelin sırasını, yeni verileri tahmin etmede iyi bir iş çıkarana ancak orijinal eğitim verilerinin üzerine çıkmayana kadar artırmaktır. Örnek olarak video, Hooke yasasının bir yayı esnetmek için nasıl uygulandığına bakıyor ve verilerin farklı bölümleri için farklı doğrusal modellerin gerekli olduğunu gösteriyor ve verileri uygun şekilde bölümlere ayırmanın önemini vurguluyor. Birini dışarıda bırakma doğrulaması ve K-katlama doğrulaması da dahil olmak üzere çapraz doğrulama, daha büyük veri kümeleriyle uğraşırken model karmaşıklığının seçimine rehberlik edebilir.

  • 00:40:00 Bu bölümde, konuşmacı ABD'de 55 yıllık bir süre boyunca ortalama günlük yüksek sıcaklığı tahmin etmek için en iyi modeli belirlemek üzere çapraz doğrulamanın nasıl kullanılacağını açıklıyor. Veri kümesinden rastgele örnekler almak, eğitim kümesinde bir model eğitmek ve test kümesinde test etmek için tekrarlanan rastgele örneklemeyi kullanırlar. Ayrıca, yüksek sıcaklığın çizilmesi için yıllık ortalamaları hesaplarlar ve verilerin bir yarısı üzerinde çalıştıkları, diğer yarısı üzerinde test ettikleri ve elde etmek için belirleme katsayısını kaydettikleri doğrusal, ikinci dereceden, kübik ve dörtlü boyutlarda modeller oluştururlar. bir ortalama. Her boyutluluk için ortalama değerleri bildirirler.

  • 00:45:00 Bu bölümde sunum yapan kişi, rastgele nokta örnekleme yöntemi kullanarak veri kümesinin eğitim ve test kümelerine nasıl rastgele bölüneceğini gösterir. Daha sonra, farklı eğitim ve test kümeleri kurduğu bir döngüden geçer ve ardından bir polinom uyumu kullanarak her boyutu uydurur. Model daha sonra test seti değerlerini tahmin etmek ve bunları gerçek değerlerle karşılaştırmak, R-kare değerini hesaplamak ve eklemek için kullanılabilir. Bu denemeler hakkında istatistikler elde etmek için birden fazla deneme yapmanın gerekli olduğu sonucuna varır. her deneme. Bu, verileri açıklayan mümkün olan en basit modeli seçmelerini sağlar.

  • 00:50:00 Bu bölümde konuşmacı, deneysel verilere dayalı yeni verileri etkili bir şekilde tahmin edebilen modellerin karmaşıklığını tartışıyor. Bu karmaşıklık, teoriden veya veri dışı davranışı tahmin etmede hala iyi bir iş çıkaran en basit modeli belirlemek için çapraz doğrulamadan gelebilir.
10. Understanding Experimental Data (cont.)
10. Understanding Experimental Data (cont.)
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: Eric GrimsonPr...
 

Ders 11. Makine Öğrenimine Giriş



11. Makine Öğrenimine Giriş

Video, makine öğrenimi kavramını, nasıl çalıştığını ve bunu yapmanın iki yaygın yolunu, denetimli ve denetimsiz öğrenmeyi tartışıyor. Ardından, yeni futbolcuların boy ve kilolarına göre konumlarını tahmin etmek için denetimli öğrenme eğitimi veren bir makinenin bir örneğini göstermeye devam ediyor.

  • 00:00:00 Bu 1 paragraflık özet, Makine Öğrenimi videosuna genel bir bakış sağlamayı amaçlamaktadır. Makine öğreniminin iki ana yöntemi olan sınıflandırma ve kümelemeyi tartışmadan önce makine öğrenimi fikrini ve çeşitli uygulamalarını tanıtarak başlıyor. Ardından video, makine öğrenimi konusunu daha ayrıntılı olarak tartışmadan önce doğrusal regresyonun temellerini tanıtmaya devam ediyor. Videonun son bölümü, makine öğrenimi kavramlarını öğrencilere daha özlü bir şekilde tanıtmaya odaklanıyor.

  • 00:05:00 Makine öğrenimi, açıkça programlanmadan bilgisayar öğrenimi sürecidir. Bu derste, farklı türde makine öğrenimi algoritmalarından bazılarını ve nasıl çalıştıklarını tartışacağız. Ayrıca, makine öğreniminin şu anda kullanıldığı yerlerin birkaç örneğini de vurgularız.

  • 00:10:00 Bu video, makine öğrenimi fikrini, nasıl çalıştığını ve bunu yapmanın iki yaygın yolunu, denetimli ve denetimsiz öğrenmeyi tartışıyor. Ardından, yeni futbolcuların boy ve kilolarına göre konumlarını tahmin etmek için denetimli öğrenme eğitimi veren bir makinenin bir örneğini göstermeye devam ediyor.

  • 00:15:00 Bu videoda, mesafeye dayalı veri kümeleri oluşturmak için kullanılabilecek bir makine öğrenimi algoritması gösteriliyor. Algoritma, örnek olarak iki örnek seçerek, diğer tüm örnekleri basitçe o örneğe en yakın olan gruba koy diyerek kümeleyerek ve ardından o grubun medyan öğesini bularak çalışır.

  • 00:20:00 Makine öğrenimi, verilerdeki kalıpların nasıl tanımlanacağını öğrenme sürecidir. Süreç, etiketli veriler üzerinde bir makine öğrenimi modeli eğiterek ve ardından bu modeli etiketlenmemiş verilerdeki kalıpları belirlemek için kullanarak başlar. Bunu yapmanın iki ana yolu vardır: etiketli verileri kullanmak ve etiketlenmemiş verileri kullanmak. İlk durumda, makine öğrenimi modeli, kendisine atanan etiketlere karşılık gelen verilerdeki kalıpları tanımlayabilir. İkinci durumda, makine öğrenimi modeli, kullanıcı tarafından seçilen özelliklere karşılık gelen verilerdeki kalıpları tanımlayabilir.

  • 00:25:00 Bu video, olabildiğince doğru bir model oluşturmak için hangi özelliklerin ölçüleceğini ve bunların nasıl ağırlıklandırılacağını belirleme süreci olan özellik mühendisliği kavramını tartışıyor. Kullanılan örnek sürüngenlerin etiketlenmesidir ve tek bir örneği etiketlemek kolayken örnek sayısı arttıkça zorlaşmaktadır. Ardından video, olabildiğince doğru bir model oluşturmak için hangi özelliklerin korunacağını ve hangilerinin atılacağını seçme süreci olan özellik seçimi kavramını tartışmaya devam ediyor. Video, sürüngenler için modele uymayan ancak tavuklar için modele uyan bir tavuk etiketleme örneği ile sona eriyor.

  • 00:30:00 Video, makine öğrenimine ve ilkelerine bir giriş sağlar. İki oyuncunun birbirleri arasındaki farkı belirlemeye çalıştığı bir oyun örneğini kullanarak hiçbir veriyi yanlış bir şekilde yanlış bir şekilde etiketlemeyecek bir sistem tasarlamanın önemini ele alıyor. Vektörler arasındaki mesafeyi ölçmenin bir yolu olan Minkowski metriğini sunar.

  • 00:35:00 Bu video, uçakta standart bir mesafe ölçümü olan Öklid mesafesini ve farklı özelliklere sahip nesneler arasındaki mesafeleri karşılaştırmak için kullanılan bir ölçüm olan Manhattan mesafesini tanıtmaktadır. Öklid mesafesi ikinin kareköküne, Manhattan mesafesi ise bir ızgara üzerindeki noktalar arasındaki mesafeye dayanmaktadır. Bazı durumlarda, örneğin farklı canlıların bacak sayıları karşılaştırılırken, nesneler arasındaki özellik farkı, nesnelerin kendi aralarındaki mesafeden daha önemli olabilir. Özellik mühendisliği, yani hangi özelliklerin ölçüleceğini ve bunların nasıl ağırlıklandırılacağını seçmek, makine öğreniminde önemlidir.

  • 00:40:00 Bu video, ölçeklerin önemini ve bunların bir makine öğrenimi algoritmasının çalışmasını nasıl etkileyebileceğini ele alıyor. Ağırlıkların farklı şekillerde nasıl kullanılabileceğini ve örnekler arasındaki mesafenin nasıl ölçüleceğini tartışır. Ayrıca, çeşitli yöntemler kullanılarak verilerin nasıl kümeleneceği ve doğru sayıda kümenin nasıl seçileceği anlatılmaktadır.

  • 00:45:00 Bu video, makine öğrenimi kavramını tanıtıyor ve iki grubu ayırmak için verilere bir eğrinin nasıl sığdırılacağını gösteriyor. Ayrıca, bir makine öğrenimi modelinin nasıl değerlendirileceğine dair bir örnek sağlar.

  • 00:50:00 Bu video, duyarlılık (kaç şeyin doğru şekilde etiketlendiği) ve özgüllük (etiketlerin istenen öğeleri ne kadar doğru tanımladığı) arasındaki değiş tokuşu tartışıyor. Profesör Guttag, bu takasın anlaşılmasını kolaylaştırmaya yardımcı olan ROC (Alıcı Operatör Eğrileri) adlı bir tekniği gösteriyor.
11. Introduction to Machine Learning
11. Introduction to Machine Learning
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: Eric GrimsonIn...
 

Anlatım 12. Kümeleme




12. Kümeleme

Bu video, veri noktalarını gruplar halinde kümeleme kavramını inceler. K-means algoritmasını kullanarak kümelemenin nasıl gerçekleştirileceğini ve algoritmanın hız için nasıl optimize edileceğini açıklar. Ayrıca, verilerle ilgili sorunları teşhis etmek için kümelemenin nasıl kullanılacağını da tartışır.

  • 00:00:00 Bu videonun amacı, değişkenlik ve kümeleme kavramlarını gözden geçirmektir. Video, değişkenliğin bir kümenin ortalaması ile kümedeki her örnek arasındaki mesafenin toplamı olduğunu ve kümelemenin bir örnek kümesini tek bir kümede gruplandırmanın optimizasyon sorunu olduğunu açıklıyor.

  • 00:05:00 Hiyerarşik kümeleme, bir veri kümesindeki öğeleri kümeleme yöntemidir. Algoritma, her öğeyi kendi kümesine atayarak başlar ve ardından en benzer iki kümeyi bulur. Kalan beşten az küme varsa, algoritma en yakın iki kümeyi tek bir kümede birleştirir.

  • 00:10:00 Video, farklı kümeleme metriklerini tartışır ve her birinin nihai kümeleme sonuçlarını nasıl etkilediğini açıklar. Örneğin, birbirine yakın şehirleri birleştirmek için tekli bağlantı kullanılırken, birbirinden uzak şehirleri birleştirmek için tam bağlantı kullanılır.

  • 00:15:00 Video, kümelemenin nasıl çalıştığını ve en sık kullanılan algoritmanın k-means olduğunu açıklıyor. Hızlı ve verimlidir, ancak daha da hızlı hale getirmek için optimize edilebilir.

  • 00:20:00 Bu videoda yazar, K adet merkezi rastgele seçerek ve bu merkezlere noktalar atayarak nesnelerin nasıl kümeleneceğini açıklıyor. Yazar ayrıca, K'yi yanlış seçmenin potansiyel dezavantajını da tartışıyor. Son olarak yazar, en iyi K'yi bulmak için iyi bir k-means algoritması kullanılmasını önerir.

  • 00:25:00 Bu videoda yazar, bir veri alt kümesinde hiyerarşik kümeleme ve k-ortalamaların nasıl gerçekleştirileceğini anlatıyor. Ayrıca algoritmanın zayıf yönlerini ve bunların nasıl düzeltileceğini tartışıyor.

  • 00:30:00 Bu video, k-means algoritmasını kullanarak verilerin nasıl kümeleneceğini açıklar. Veriler kümelere bölünür ve her kümenin ağırlık merkezleri hesaplanır.

  • 00:35:00 Bu derste profesör, ölçekleme ve varyans kullanarak verilerin nasıl gruplanacağını açıklıyor. Bir özellik vektörünün nasıl ölçekleneceğini ve ölçeklenen verilerin ortalama ve standart sapmasının nasıl hesaplanacağını gösterir.

  • 00:40:00 Bu video, Z ölçeklendirme, enterpolasyon ve k-ortalamalar dahil olmak üzere farklı yöntemler kullanılarak verilerin nasıl kümeleneceğini açıklar. Sonuçlar, verilerin iyi kümelenmediğini ve iki küme arasında istatistiksel olarak anlamlı bir fark olmadığını göstermektedir.

  • 00:45:00 Video, kümelemenin verilerle ilgili sorunları teşhis etmek için nasıl kullanılabileceğini tartışıyor. Özellikle, pozitif olma olasılığı yüksek olanlar gibi benzer özelliklere sahip hasta gruplarını bulmak için kümelemenin nasıl kullanılabileceğini gösterir. Video daha sonra, bulunan küme sayısını artıran farklı K değerlerini bulmak için kümelemenin nasıl kullanılabileceğini göstermeye devam eder.

  • 00:50:00 Bu videoda, veri bilimcileri kümelemeyi tartışıyor. Kümelemenin, verileri benzer gruplar halinde gruplandırma işlemi olduğunu açıklarlar. Farklı kümeler oluşturmak için farklı parametrelerin nasıl kullanılabileceğini ve en iyi kümeleri oluşturmak için veri bilimcinin veriler hakkında nasıl düşünmesi gerektiğini tartışıyorlar.
12. Clustering
12. Clustering
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Anlatım 13. Sınıflandırma



13. Sınıflandırma

Bu video, en yakın komşu, K-en yakın komşu (KNN) ve lojistik regresyon dahil olmak üzere çeşitli sınıflandırma yöntemlerini kapsar. Sunucu, hayvan sınıflandırması ve el yazısı tanıma örneklerini kullanarak KNN'yi gösterir ve daha güvenilir sonuçlar sağlamak için gürültülü verileri nasıl önlediğini açıklar. Titanic veri setini tanıtıyorlar ve bir sınıflandırma modelinin performansını değerlendirmek için hassasiyet ve özgüllük gibi ölçümleri kullanırken doğru dengeyi bulmanın önemini açıklıyorlar. Ek olarak, video iki test yöntemini, birini dışarıda bırakma ve tekrarlanan rasgele alt örneklemeyi ve bunların KNN sınıflandırmasına nasıl uygulanacağını tartışıyor. Son olarak sunum yapan kişi, sınıflandırma problemlerinde lojistik regresyonun neden doğrusal regresyona tercih edildiğini açıklayarak, farklı değişkenlere farklı ağırlıklar atama yeteneğini vurgular ve özellik ağırlıkları aracılığıyla değişkenler hakkında içgörü sağlar.

  • 00:00:00 Bu bölümde, eğitmen denetimli öğrenmede sınıflandırma kavramını tanıtarak başlar; bu, genellikle bir özellik vektörüyle ilişkilendirilen ve genellikle "etiket" olarak adlandırılan ayrık bir değeri tahmin etme eylemidir. Bu, birinin bir ilaca karşı ters reaksiyon gösterip göstermeyeceğini veya bir kurstaki derecesini tahmin etmeyi içerebilir. Eğitmen daha sonra hayvanları sürüngen olarak sınıflandırmak için bir mesafe matrisi ve ikili temsil kullanarak bir örnek verir. En yakın komşu olarak bilinen en basit sınıflandırma yaklaşımı, eğitim verilerini hatırlamayı ve yeni bir örneğin etiketini tahmin ederken en yakın örnekle ilişkili etiketi seçmeyi içerir.

  • 00:05:00 Bu bölümde sunucu, gürültülü verileri önleyen ve sadece en yakın komşu yönteminden daha güvenilir olan K en yakın komşu (KNN) sınıflandırma yöntemini açıklıyor. Hayvanları sınıflandırma ve el yazısı tanıma gibi örnekler kullanarak KNN'yi gösteriyor. KNN yöntemi, yalnızca en yakın olanın yerine, genellikle tek bir sayı olan birden çok en yakın komşunun "oyunu" alır ve bu, aykırı değerlerin etkisini azaltır. Sunucu, yanılmaz olmamakla birlikte, KNN'nin gürültülü veriler için tipik olarak daha güvenilir bir sınıflandırma yöntemi olduğu sonucuna varır.

  • 00:10:00 Bu bölümde, video K-en yakın komşu algoritmasını ve bazı sınırlamalarını tartışıyor. K-en yakın komşular etkili ve anlaşılması kolay olsa da, tüm eğitim örneklerinin saklanmasını gerektirir, bu da yoğun bellek gerektirebilir ve örnekleri karşılaştırma ihtiyacı nedeniyle sınıflandırmaları tahmin etmek uzun zaman alabilir. Ek olarak, eğer K çok büyükse, algoritmaya sınıfın boyutu hakim olabilir ve bu da sınıflandırma hatalarına yol açar. Video, K için en iyi değeri seçmek üzere çapraz doğrulamanın kullanılmasını önerir ve oylama sürecinde açık bir kazanan olacak şekilde K'yi seçmenin önemli olduğunu açıklar.

  • 00:15:00 Bu bölümde sunum yapan kişi, sınıflandırma için yeni bir örnek sunuyor - makine öğrenimini kullanarak hangi yolcuların Titanik felaketinden sağ çıkacağını tahmin ediyor. Veri setinde yolcuların sınıfı, yaşı, cinsiyeti ve hayatta kalıp kalmadığı gibi bilgiler yer alıyor. Sunucu, makine öğrenimi modelini değerlendirmek için bir sınıf dengesizliği olduğunda tek başına doğruluğun neden iyi bir ölçü olmadığını açıklar ve duyarlılık, özgüllük, pozitif tahmin değeri ve negatif tahmin değeri gibi diğer ölçümleri sunar. Ayrıca doğru dengeyi seçmenin önemini ve bu önlemlerin nasıl farklı içgörüler sağladığını açıklıyor.

  • 00:20:00 Bu bölümde konuşmacı, sınıflandırıcılarda duyarlılık ve özgüllüğün önemini ve bir sınıflandırıcının nasıl test edileceğini tartışır. Duyarlılık ve özgüllük, sınıflandırıcının uygulamasına bağlı olarak dengelenmelidir. Örneğin, bir kanser testi daha fazla hassasiyet gerektirirken, açık kalp ameliyatı için bir test daha fazla özgüllük gerektirecektir. Konuşmacı daha sonra bir sınıflandırıcıyı test etmek için iki yöntemi açıklar: birini dışarıda bırakma (daha küçük veri kümeleri için kullanılır) ve tekrarlanan rasgele alt örnekleme (daha büyük veri kümeleri için kullanılır). İkincisi, verilerin eğitim ve test için rastgele kümelere bölünmesini içerir ve kN ve lojistik regresyon gibi farklı yöntemleri karşılaştırmak için makine öğrenimi yöntemi adı verilen bir parametre tanıtılır. Bu testler için kod gösterilir ve konuşmacı, performansını doğrulamak için bir sınıflandırıcıyı test etmenin önemini vurgular.

  • 00:25:00 Bu bölümde eğitmen, biri dışarıda bırakılan ve tekrarlanan rasgele örnekleme olmak üzere iki test yöntemini tartışır ve bunların KNN sınıflandırmasına nasıl uygulanacağını gösterir. Eğitmen ayrıca matematikte yaygın bir programlama hilesi olan lambda soyutlamasının dört bağımsız değişkenli bir işlevi iki bağımsız değişkenli bir işleve dönüştürmek için nasıl kullanılacağını açıklar. Her iki test yöntemini kullanan KNN sınıflandırmasının sonuçları gösterilmektedir ve önemli ölçüde farklı değildir, bu da değerlendirme kriterlerinin doğruluğunun tutarlı olduğunu gösterir. KNN sınıflandırması ayrıca rastgele tahminden daha iyi performans gösterdi.

  • 00:30:00 Bu bölümde konuşmacı, makine öğreniminde yaygın olarak kullanılan bir yöntem olan lojistik regresyonu tartışıyor. Gerçek bir sayıyı tahmin etmek için tasarlanmış doğrusal regresyonun aksine, lojistik regresyon belirli bir olayın olasılığını tahmin eder. Bu yöntem, her özellik için ağırlıklar bulur, her özellik için tahminlerde kullanılan bir ağırlık hesaplar ve bu ağırlıkları eğitim verilerinden hesaplamak için bir optimizasyon süreci kullanır. Lojistik regresyon, log işlevini kullanır, dolayısıyla adı ve SK lineer öğrenme modelini uygulamak için kullanılan bir Python kitaplığıdır.

  • 00:35:00 Bu bölümde, konuşmacı eğitim verilerini kullanarak bir lojistik regresyon modelinin nasıl oluşturulacağını ve bir dizi özellik vektörü kullanılarak nasıl test edileceğini açıklıyor. Lojistik regresyon modeli, SKLearn kitaplığı kullanılarak oluşturulur ve değişkenlerin ağırlıkları hesaplandıktan sonra model, belirli bir özellik vektörüne dayalı olarak farklı etiketlerin olasılıklarını tahmin etmek için kullanılabilir. Konuşmacı ayrıca, mevcut listelerden yeni listeler oluşturmanın çok yönlü ve verimli bir yolu olan ve özellikle test özellik vektörleri kümeleri oluştururken yararlı olabilecek liste kavramayı da tanıtıyor.

  • 00:40:00 Bu bölümde, konuşmacı Python'da liste kavramayı ve belirli görevler için uygunluğunu tartışır, ancak kötüye kullanılmasına karşı uyarır. İleriye dönük olarak, konuşmacı lojistik regresyonu bir model olarak uygulama sürecini ve eğitim ve test verilerini kullanarak bunu nasıl oluşturup test ettiklerini açıklıyor. Daha sonra LR'yi veya lojistik regresyonu tanımlarlar ve modelin "hayatta kaldı" ve "hayatta kalmadı" etiketleriyle nasıl uygulanabileceğini gösterirler. Ağırlıklar elde edildikten sonra modelin değerlendirilmesi hızlı bir süreç olduğundan, konuşmacı lojistik regresyonun KNN'den daha hızlı olduğunu belirtiyor.

  • 00:45:00 Bu bölümde eğitmen, sınıflandırma problemlerinde neden doğrusal regresyon yerine lojistik regresyonun tercih edildiğini açıklar. İlk olarak, lojistik regresyonun daha incelikli olduğu ve daha iyi performans için farklı değişkenlere farklı ağırlıklar atadığı kabul edilir. İkinci olarak, çıktı olarak yazdırılabilen özellik ağırlıkları aracılığıyla değişkenler hakkında bilgi sağlar. Ağırlıklara bakılarak, sınıflandırma için kullanılan değişkenler anlamlandırılabilir. Örneğin, sunulan modelde birinci sınıf kabin yolcularının hayatta kalma üzerinde olumlu bir etkisi varken, yaş ve erkek olmanın olumsuz etkileri olmuştur. Eğitmen ayrıca, değişkenler birbiriyle ilişkili olabileceğinden, özellik ağırlıklarını yorumlarken dikkatli olunmasını tavsiye eder.
13. Classification
13. Classification
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

MIT 6.0002 Bilişimsel Düşünmeye ve Veri Bilimine Giriş, Güz 2016. Ders 15. İstatistiksel Günahlar ve Özet



15. İstatistiksel Günahlar ve Sonuç

Bu videoda John Guttag, üç ana istatistiksel günah türünü tartışıyor ve her birinin nasıl yanlış sonuçlara yol açabileceğine dair bir örnek sunuyor. Öğrencileri, baktıkları veri türünün farkında olmaya ve vardıkları sonuçların doğru olduğundan emin olmak için uygun bir aralık kullanmaya teşvik eder.

  • 00:00:00 John Guttag, istatistiksel günahların üç ana türünü tartışıyor: 0'dan başlamak gibi y ekseni günahlarını işlemek, doğru görünmesi için verileri kesmek ve dalgalanmaları eğilimlerle karıştırmak. Ayrıca, daha az tartışmalı bir konu olan ateş ve grip hakkında bir örnek veriyor ve burada kişi grip olduğunda sıcaklığın değişmediği açık. Guttag, öğrencileri baktıkları veri türünün farkında olmaya ve vardıkları sonuçların doğru olduğundan emin olmak için uygun bir aralık kullanmaya teşvik eder.

  • 00:05:00 Bu videoda, istatistikçi ve Profesör, kiraz toplama verilerinin yanlış sonuçlara yol açabilecek tehlikelerini tartışıyor. Bilim adamlarının sağlam sonuçlara varmak için uygun bir zaman dilimindeki verilere bakmaları gerektiğini öne sürüyor.

  • 00:10:00 Konuşmacı, sayıların kendi başlarına her zaman pek bir anlam ifade etmediğini ve istatistikleri dikkate alırken bağlamın önemli olduğunu belirtiyor. Bağlamın önemli olduğu iki istatistik örneğini tartışıyor: domuz gribi ve mevsimsel grip. Yüzde değişimi hakkında konuşurken paydayı bilmenin önemli olduğunu da belirtiyor.

  • 00:15:00 Bu video, kanser kümeleri gibi şeyleri hesaplamak için yüzdeleri kullanmanın tuzaklarını tartışıyor. Matematiksel simülasyonların bir şeyin ne kadar olası olduğuna dair nasıl daha doğru bir resim verebileceğini ve avukatların bu bilgiyi yasal davalarında nasıl kullanabileceklerini gösteriyor.

  • 00:20:00 Bu video, istatistiksel analizin belirli bir bölgede yüksek sayıda kanser vakası olup olmadığı hakkındaki soruları yanıtlamaya nasıl yardımcı olabileceğini açıklıyor. Video ayrıca, söz konusu avukatın yanlış sonuçlara yol açan uygunsuz bir istatistiksel analiz yaptığını da gösteriyor.

  • 00:25:00 Bu videoda eğitmen, Texas keskin nişancı yanılgısı ve çoklu hipotez kontrolü dahil olmak üzere çeşitli istatistiksel yanılgıları ele alıyor. Şüphecilik ve inkarın farklı şeyler olduğu, verilerden çıkarımlar yapılırken hata yapılmamasına dikkat edilmesi gerektiği uyarısında bulunuyor.

  • 00:30:00 Bu videodan çıkarılacak ana çıkarım, programlamanın kitaplıkları ve algoritmaları kullanarak sorunları çözmekle ilgili olduğudur. Video ayrıca olasılıklar açısından düşünmenin önemini ve problem çözmede rastgeleliğin kullanımını vurguluyor.

  • 00:35:00 Bu videoda Profesör, öğrencilerin verileri analiz etmek için kullanabilecekleri farklı istatistiksel modelleri tartışıyor. Sonuçların güvenilirliğini anlamanın önemini vurguluyor ve verilerin etkili bir şekilde nasıl sunulacağına dair ipuçları veriyor.

  • 00:40:00 Bu video, kısa bir bilgi işlem tarihi sağlar ve UROP (araştırma stajı) kavramını tanıtır. Bilgisayar biliminin kampüsteki en popüler ana dal olmasa da takip edilmesi çok değerli bir alan olduğunu açıklıyor. Son olarak, video hayatta nasıl başarılı olunacağına dair bazı son tavsiyeler veriyor.
15. Statistical Sins and Wrap Up
15. Statistical Sins and Wrap Up
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Yeni Başlayanlar İçin Derin Öğrenme Hızlandırılmış Kursu


Yeni Başlayanlar İçin Derin Öğrenme Hızlandırılmış Kursu

Bu video, denetimli ve denetimsiz öğrenme algoritmalarına odaklanan, derin öğrenme üzerine hızlandırılmış bir kurs sağlar. Model, durum, ödül, politika ve değer dahil olmak üzere her yaklaşımın temel kavramlarını kapsar. Derin öğrenme modellerinin ana dezavantajı, zayıf genelleme ile sonuçlanacak şekilde eğitim verilerine fazla uydurulabilmeleridir. Bırakma ve veri kümesi büyütme de dahil olmak üzere fazla uydurma ile mücadele teknikleri tartışılmaktadır. Derin öğrenmeye giriş niteliğindeki bu kurs, sinir ağları ve Bırakma'nın önemini vurgulayarak konuya genel bir bakış sağlar. Ayrıca, derin öğrenmenin temellerini anlayarak fazla uydurmanın nasıl azaltılabileceğini de açıklar.

  • 00:00:00 Bu videoda Jason, derin öğrenmenin ne olduğunu ve önemini açıklayarak izleyicileri hızlandırılmış bir derin öğrenme kursuna götürüyor. Geleneksel makine öğrenimine göre başlıca avantajlarına odaklanarak derin öğrenmenin nasıl çalıştığını açıklamaya devam ediyor: etki alanı uzmanlığına veya insan müdahalesine ihtiyaç duymadan özellikleri ve görevleri doğrudan verilerden öğrenebilir. Son olarak, Jason, çeşitli görevlerde insanlardan daha iyi performans gösterme yeteneği de dahil olmak üzere derin öğrenmenin son başarılarından bazılarını ele alıyor.

  • 00:05:00 Derin öğrenme modelleri çok fazla hesaplama gücü ve veri gerektirir ve birkaç on yıl önce mevcut değildi. Üçüncüsü, bu modeller, TensorFlow ve PyTorch gibi açık kaynaklı yazılımların artan popülaritesi ile kolaylaştırılmıştır. Yapay sinir ağları, algoritmaların insan beyninin yapısından ilham aldığı makine öğreniminin bir alt alanı olan derin öğrenmenin temelini oluşturur. Beyni nöronların oluşturduğu gibi, bir sinir ağının temel yapı taşları da nöronlardır. Sinir ağları verileri alır ve bu verilerdeki kalıpları tanımak ve yeni bir benzer veri kümesi için çıktıları tahmin etmek için kendilerini eğitir. Yayılmadan önceki son adımda, yeni bir ağ bir tahminde bulunur. Tahmin doğruysa ağ, beklenen çıktıdan sapmayı ölçmek için bir kayıp işlevi kullanır. Tahmin yanlışsa ağ, ağırlıkları ve sapmaları ayarlamak için geriye yayılımı kullanır.

  • 00:10:00 Bu video, ağın başlatılmasından başlayarak derin öğrenmenin nasıl çalıştığını açıklar. İlk yinelemede, ağa bir dizi girdi verisi verilir. Ağ daha sonra bir kayıp fonksiyonu kullanarak tahminler yapmak üzere eğitilir. Daha sonra ağdaki ağırlıkları ve önyargıları ayarlamak için geri yayılım kullanılır. Yeni ağ daha sonra, tüm veri seti için tahminler yapabilene kadar gradyan iniş kullanılarak eğitilir. Bu yaklaşımın, ağırlıklar ve yanlılıklarda yapılan ayarlamaların girdi verilerine bağlı olmaması da dahil olmak üzere bazı dezavantajları vardır.

  • 00:15:00 Derin öğrenmede kullanılan en yaygın üç aktivasyon işlevi sigmoid, tanh ve relu'dur. Bu işlevlerin farklı avantajları ve dezavantajları vardır, ancak sonuçta hepsi doğrusal olmayan bir sinir ağı üretir. Gradyan iniş algoritması, aktivasyonun seyrekliğini iyi idare edebilir, ancak "ölen değer sorunu"ndan muzdarip olabilir.

  • 00:20:00 Derin öğrenme, yapay sinir ağlarının eğitimi ile ilgilenen bir makine öğrenimi alanıdır. Hızlandırılmış kurs, aktivasyon fonksiyonunun ne olduğunu tartışarak başlar ve doğrusal olmayan aktivasyon fonksiyonlarının derin öğrenmede neden kullanıldığını ele alarak devam eder. Ardından, hızlandırılmış kurs, kayıp fonksiyonlarını ve bunların ağı eğitmek için nasıl kullanıldığını tartışır. Son olarak, hızlandırılmış kurs, optimize edicilerden ve bunların ağı olabildiğince doğru hale getirmek için nasıl kullanıldıklarından bahseder.

  • 00:25:00 Gradyan iniş, belirli bir kayıp fonksiyonunu optimize etmek için kullanılan bir algoritmadır. Rastgele bir noktada başlar ve minimum veya maksimuma ulaşana kadar kayıp fonksiyonu eğimini azaltır. Popüler bir iyileştiricidir ve hızlı, sağlam ve esnektir. Gradyan iniş yinelemelidir ve bir sonraki adımı hesaplamak için geçmiş gradyanları kullanır.

  • 00:30:00 Bu videoda yazar, model parametreleri (bir makine öğrenimi modelindeki dahili değişkenler) ile hiperparametreler (model içinde olmayan ve değerleri verilerden tahmin edilemeyen harici değişkenler) arasındaki farkı özetledi. Hiperparametreler genellikle "işleri karıştırabilen parametreler" olarak adlandırılır ve genellikle uygulamacı tarafından manuel olarak ayarlanır. Gradyan iniş ve geri yayılım, derin öğrenmede kullanılan iki yaygın yinelemeli süreçtir. Yazar, farklı veri kümeleri farklı sayıda yineleme gerektirdiğinden, bir derin öğrenme modelini eğitmek için gereken dönem sayısı söz konusu olduğunda "doğru yanıt" olmadığını belirtiyor. Son olarak, yazar, derin öğrenmenin etkili bir şekilde nasıl kullanılacağına dair birkaç ipucu sunuyor.

  • 00:35:00 Bu video, denetimli öğrenmeye odaklanan derin öğrenme üzerine hızlandırılmış bir kurs sağlar. Kapsanan ana kavramlar, denetimli öğrenme algoritmaları ve amaçlarının yanı sıra doğrusal ve doğrusal olmayan regresyonu içerir.

  • 00:40:00 Denetimsiz öğrenmenin temel amacı, verilerde bir insan gözlemcinin yakalayamayacağı kalıplar ve ilişkiler bulmaktır. Denetimsiz öğrenme iki türe ayrılabilir: kümeleme ve ilişkilendirme. Kümeleme, denetimsiz öğrenmenin en basit ve en yaygın uygulamasıdır ve verileri farklı kümeler halinde gruplandırma işlemidir. Sınıflar, birbirine mümkün olduğu kadar benzer ve diğer kümelerdeki veri noktalarına mümkün olduğunca benzemeyen veri noktalarını içerir. Kümeleme, verilerde bir insan gözlemci tarafından fark edilemeyebilecek temel kalıpları bulmaya yardımcı olur. Hiyerarşik kümeleme, kümeleri bir hiyerarşi sistemiyle bulur ve her veri noktası birden çok kümeye ait olabilir. Hiyerarşik kümeleme, bir ağaç diyagramı olarak düzenlenebilir. Daha yaygın olarak kullanılan kümeleme algoritmalarından bazıları k-ortalamaları, beklenti ve aca'nın hiyerarşik küme analizidir. Dernek ise farklı varlıklar arasındaki ilişkileri bulmaya çalışır. Birliktelik kurallarının klasik örneği, pazar sepeti analizidir. Denetimsiz öğrenim, ev sahiplerinin konaklama ve deneyim bulmasına yardımcı olan ve dünyanın her yerinden insanları birbirine bağlayan airbnb dahil olmak üzere hemen hemen her yerde uygulama bulur. Bu uygulama, potansiyel bir müşterinin gereksinimlerini sorguladığı ve airbnb'nin bu kalıpları öğrendiği ve tavsiye ettiği denetimsiz öğrenme algoritmaları kullanır.

  • 00:45:00 Yeni başlayanlar için hızlandırılmış derin öğrenme kursu, model, durum, ödül, politika ve değer dahil olmak üzere pekiştirmeli öğrenmenin temel kavramlarını kapsar. Derin öğrenme modellerinin ana dezavantajı, zayıf genelleme ile sonuçlanacak şekilde eğitim verilerine fazla uydurulabilmeleridir. Bırakma ve veri kümesi büyütme de dahil olmak üzere fazla uydurma ile mücadele teknikleri tartışılmaktadır.

  • 00:50:00 Bir sinir ağı, birbirine bağlı bir dizi işlem düğümünden veya nörondan oluşan bir makine öğrenimi algoritmasıdır. Her nöron, komşu nöronlardan girdi alır ve bir çıktı üretebilir. Sinir ağları, karmaşık fonksiyonları modellemek için kullanılır ve bir dizi farklı mimari kullanılarak eğitilebilir.

  • 00:55:00 Bu videoda Hızlandırılmış Kurs, geleneksel sinir ağlarının modellemek için uğraştığı sıralı bellek kavramını tanıtıyor. Tekrarlayan sinir ağları (RNn'ler), gizli katmanda değişken giriş uzunluğuna sahip veri dizilerini modellemelerine izin veren bir geri besleme döngüsü kullanan bir tür yeni ağ mimarisidir.
  • 01:00:00 Video, tekrarlayan sinir ağlarının nasıl çalıştığını ve kısa süreli hafıza sorununun, ağın iki varyantı kullanılarak nasıl çözülebileceğini tartışıyor: kapılı tekrarlayan sinir ağları ve uzun kısa süreli hafıza tekrarlayan sinir ağları.

  • 01:05:00 Derin öğrenmenin beş adımı, veri toplama, veri ön işleme, modelleme, doğrulama ve hata tespitidir. Verilerin kalitesi önemlidir ve kötü veriler, kötü bir model anlamına gelir. Veri söz konusu olduğunda herkese uyan tek bir model yoktur, ancak genel kural, iyi performans gösteren bir model için ihtiyacınız olan veri miktarının, o modeldeki parametre sayısının 10 katı olması gerektiğidir.

  • 01:10:00 Video, güvenilir bir veri seti üzerinde eğitimin ve doğrulama setlerinin önemini tartışıyor. Eğitim-test-doğrulama ayrım oranını açıklamaya devam ediyor ve çapraz doğrulamanın nasıl yapılacağına dair örnekler veriyor.

  • 01:15:00 Derin öğrenme, bir modeli eğitmeden önce verilerin dikkatli bir şekilde hazırlanmasını gerektiren karmaşık bir süreçtir. Bu hazırlık sürecindeki bir adım, eksik verilerle uğraşmaktır. Bunu yapmanın birkaç yolu vardır ve her ikisinin de avantajları ve dezavantajları vardır. İlk seçenek, eksik değerlere sahip örnekleri ortadan kaldırmaktır, ancak bu, ilgili bilgileri silebileceği için riskli olabilir. İkinci seçenek, eksik değerleri yüklemektir, ancak bu zaman alıcı olabilir ve her durumda yeterli olmayabilir. Özellik ölçeklendirme, verileri derin öğrenmeye hazırlamanın bir diğer önemli adımıdır ve verileri normalleştirmeye, standartlaştırmaya ve aykırı değerlerin etkilerini azaltmaya yardımcı olur. Veriler hazırlandıktan sonra, modeli eğitmek için bir ağa beslenir. Model daha sonra bir doğrulama seti kullanılarak değerlendirilir. Model iyiyse, daha da optimize edilebilir. Veri hazırlamanın karmaşık ve zaman alıcı bir süreç olduğunu unutmayın, bu nedenle herhangi bir konuda emin değilseniz önce videoyu izleyin.

  • 01:20:00 Derin öğrenme çok etkili olabilir, ancak fazla uydurmaya da eğilimli olabilir. Daha fazla veri almak, model boyutunu küçültmek ve ağırlık düzenlileştirme uygulamak dahil olmak üzere fazla uydurmayı önlemenin birkaç yolu vardır.

  • 01:25:00 Derin öğrenmeye giriş niteliğindeki bu kurs, sinir ağları ve Bırakma'nın önemini vurgulayarak konuya genel bir bakış sağlar. Ayrıca, derin öğrenmenin temellerini anlayarak fazla uydurmanın nasıl azaltılabileceğini de açıklar.
Deep Learning Crash Course for Beginners
Deep Learning Crash Course for Beginners
  • 2020.07.30
  • www.youtube.com
Learn the fundamental concepts and terminology of Deep Learning, a sub-branch of Machine Learning. This course is designed for absolute beginners with no exp...
 

Derin Sinir Ağları Nasıl Çalışır - Yeni Başlayanlar İçin Tam Kurs



Derin Sinir Ağları Nasıl Çalışır - Yeni Başlayanlar İçin Tam Kurs

00:00:00 - 01:00:00 "Derin Sinir Ağları Nasıl Çalışır - Yeni Başlayanlar İçin Tam Kurs" videosu, temel doğrusal regresyon denklemlerinden görüntü tanımada kullanılan karmaşık evrişimli sinir ağlarına kadar sinir ağlarının nasıl çalıştığına dair kapsamlı bir açıklama sunar. Eğitmen, sinir ağlarının işleyişini açıklamak için örnekler ve görsel yardımcılar kullanır; düğüm katmanlarının çıktılar üretmek için ağırlıklı toplamları ve ezmeleri nasıl gerçekleştirdiğini, ağırlıkları ayarlamak ve hataları en aza indirmek için geri yayılım sürecini ve kalıpları tanımak için evrişimli sinir ağları kavramını içerir. resimlerde Video ayrıca lojistik fonksiyonlar, çok katmanlı algılayıcılar ve sınıflandırıcı oluşturmak için çoklu çıktı fonksiyonlarının kullanımı gibi konuları da kapsar.

01:00:00 - 02:00:00 Yeni başlayanlar için derin sinir ağlarının nasıl çalıştığına ilişkin kurs, sinir ağlarının işleyişiyle ilgili çeşitli konuları kapsar. Kurs eğitmeni evrişim, havuzlama ve normalleştirmeyi ve derin bir sinir ağı oluşturmak için bunların nasıl bir araya getirildiğini tartışır. Geri yayılım, hata azaltma için ağın ağırlıklarını ayarlamak için kullanılan bir süreç olarak da açıklanmaktadır. Kurs ayrıca vektörlerin, kapılamanın, ezme fonksiyonlarının ve tekrarlayan sinir ağlarının sekanstan sekansa çevriminin kullanımını kapsar. Eğitmen, LSTM ağlarının bir cümledeki bir sonraki kelimeyi nasıl tahmin ettiğine ve zaman içinde örüntüleri belirleyerek robotik sistemlerde nasıl yararlı olduğuna dair örnekler verir. Son olarak video, ağırlıkları ayarlamak ve hatayı azaltmak için geri yayılımlı gradyan iniş kullanarak sinir ağlarının nasıl eğitildiğini açıklıyor.

02:00:00 - 03:00:00 "Derin Sinir Ağları Nasıl Çalışır - Yeni Başlayanlar İçin Tam Kurs" videosu, sinir ağlarının çeşitli senaryolardaki performansını insan seviyesindeki zeka ile karşılaştırarak tartışıyor. Öğretim görevlisi, birçok şeyi iyi yapma yeteneği olarak zekanın bilimsel bir tanımını sunar ve makinelerin ve insanların performansını ve genelliğini logaritmik bir ölçekte karşılaştırır. Video, görüntü sınıflandırmasında evrişimli sinir ağlarının sınırlamaları, masa oyunları oynama ve dil çevirisi konusunda derin öğrenmenin başarısı, tavsiye verenlerin ve sürücüsüz arabaların genel sınırlamaları ve insansı robotların artan karmaşıklığı gibi konuları kapsar. Video, AlphaZero'nun zeka, genellik ve performanstaki etkileyici artışını vurguluyor ve bizi insan düzeyinde zekaya yaklaştırarak daha genel bir dizi görevi barındırabilecek algoritmalar oluşturmak için fiziksel etkileşime odaklanmayı savunuyor. Son olarak, eğitmen, kalıpları tanımak ve doğru tahminler yapmak için evrişimli sinir ağlarında evrişim, havuzlama ve normalleştirme sürecini açıklar.

03:00:00 - 03:50:00 Derin sinir ağlarının nasıl çalıştığına ilişkin bu video, yeni başlayanları, görüntülerin parlaklık değerlerindeki kalıpları tanıyan nöronlar ve katmanlar oluşturarak görüntü kategorizasyon sürecine götürür. Video, gradyan inişini kullanan optimizasyon sürecini ve genetik algoritmalar ve benzetilmiş tavlama gibi farklı optimizasyon yöntemlerini kapsar. Eğitmen, geri yayılım yoluyla hatanın nasıl en aza indirileceğini ve ağırlıkların nasıl ayarlanacağını ve evrişimli sinir ağlarında hiperparametrelerin nasıl optimize edileceğini açıklar. Sinir ağları oluşturmak için birçok araç mevcut olsa da, veri hazırlama, yorumlama ve hiperparametreleri seçme konusunda kapsamlı bir anlayış önemini koruyor.

Bölüm 1

  • 00:00:00 Bu bölümde eğitmen, dört piksellik siyah beyaz bir görüntünün tamamen beyaz mı yoksa tamamen karanlık bir görüntü mü olduğunu otomatik olarak belirleme görevi verildiğinde bir sinir ağının nasıl çalışacağına dair bir örnek sağlar. dikey çizgi, çapraz çizgi veya yatay çizgi. Bunu piksellerin parlaklığıyla ilgili basit kurallarla yapmanın zor olduğunu ve bunun yerine bir sinir ağının tüm girdileri alarak ve parlaklıklarına bağlı olarak her piksele artı bir olmak üzere bir sayı atayarak başlayacağını açıklıyor. çok beyaz ve eksi bir tamamen siyah. Daha sonra giriş nöronlarının ağırlıklı bağlantıları toplanır ve nöronun değerinin hiçbir zaman artı birden eksi bir aralığının dışına çıkmamasını sağlamak için değerler sıkıştırılır, bu da sinir ağındaki hesaplamaları sınırlı ve kararlı tutmaya yardımcı olur.

  • 00:05:00 Bu bölümde video, derin sinir ağlarının nasıl çalıştığını ve her bir katmanın nasıl çalıştığını açıklıyor. Bir katmandaki nöronlar, ağırlıklı bir toplam gerçekleştirir ve sonucu ezer, bu da bir sonraki katman için girdi olur. Katmanlar derinleştikçe, alıcı alanlar daha karmaşık hale gelir ve tüm pikselleri kapsar. Video ayrıca ezme işlevinin yerini alan ve sinir ağları için çok iyi kararlılık özelliklerine sahip doğrultulmuş doğrusal birimler kavramını da tanıtıyor. Son olarak, gerektiği kadar katman oluşturulduktan sonra, sinir ağının sonuçlarını sağlayan çıktı katmanı oluşturulur.

  • 00:10:00 Bu bölümde eğitmen, çıktı tahminleri ile gerçek gerçek arasındaki hatayı en aza indirmek için sinir ağlarının ağırlıklarını ayarlamak üzere nasıl eğitildiğini açıklar. Bu, ağırlıktaki bir değişikliğe göre eğimi veya hatadaki değişikliği hesaplayarak ve ağırlıkları hatayı azaltan yönde ayarlayarak gerçekleştirilir. Bu, hesaplama açısından pahalı bir süreçtir çünkü her ağırlık ayarlaması için her katmandaki tüm ağırlıkların ve nöron değerlerinin çarpımını gerektirir. Bununla birlikte, eğimin sinir ağından geri gitmeden doğrudan hesaplanmasına izin veren ve eğitim sürecini daha verimli hale getiren bir içgörü vardır.

  • 00:15:00 Bu bölümde, eğitmen derin sinir ağlarının nasıl çalıştığını ve ağırlıkları ayarlamak ve hataları azaltmak için eğimi hesaplamak için hesabı nasıl kullandıklarını açıklar. Tek ağırlığa sahip basit bir sinir ağı örneği aracılığıyla, tüm zincirin eğimini elde etmek için her küçük adımın eğiminin birlikte çarpıldığı zincirleme kavramını gösteriyor. Her nöron üzerinde farklı işlemlerin gerçekleştirilmesini gerektiren birçok geri yayılım türü olduğundan bahseder, ancak nihai olarak amaç, ağırlıkları ayarlamak ve hataları verimli bir şekilde azaltmak için eğimi hesaplamaktır.

  • 00:20:00 Bu bölümde eğitmen, herhangi bir ağırlığı ayarlamanın hata üzerindeki etkisini hesaplamak için sigmoid işlevi ve düzeltilmiş doğrusal birim gibi bir sinir ağının öğelerinin nasıl geri yayılacağını tartıştı. Bir ağı eğitmek için, tamamen bağlı bir ağ ile başlanır, tüm ağırlıklarına rasgele değerler atanır ve bu ağırlıkları biraz ayarlamak için geri yayılım kullanılarak hata hesaplanır. Cevapla bilinen girdi, ağırlıkların doğruluğunu belirler ve ağırlıklar, çoğu görüntüde gerçeğe çok daha yakın performans gösterdikleri düşük bir noktaya doğru çekilene kadar işlem, birden fazla girdiyle tekrarlanır. Sinir ağları, girdi ve çıktı değişkenleri arasındaki bu tür ilişkileri tahmin etme, sürekli öğrenme ve veriler arasındaki doğrusal olmayan ilişkileri değerlendirme eğilimindedir.

  • 00:25:00 Bu bölümde video, bir lineer regresyon denkleminin bir ağ olarak nasıl temsil edilebileceğini açıklamaktadır. Bu, sinir ağlarının nasıl çalıştığını daha iyi anlamamıza yardımcı olur. Ağ, giriş düğümleri x alt 0 ve x alt 1 ve çıkış düğümü v alt 0 olan düğümler ve kenarlardan oluşur. w alt 0 0 ve w alt 1 ile temsil edilen ağırlıklar, birbirine bağlanan kenarlardır. giriş ve çıkış düğümleri. Buna yönlendirilmiş asiklik grafik denir, yani kenarların yalnızca bir yönde gittiği ve bir döngü oluşturmanın hiçbir yolu olmadığı anlamına gelir. Daha fazla girdi düğümü eklemek, denklemi daha yüksek boyutlu hale getirebilir, ancak yine de girdiler ve çıktılar arasındaki ilişkiyi belirleyen ağırlıklarla doğrusal bir denklem olarak kalır.

  • 00:30:00 Bu bölümde video, iki katmanlı doğrusal ağ kavramını ve buna daha fazla katman eklemenin karmaşıklığını nasıl artırabileceğini tartışıyor. İki katmanlı ağ, aynı şekilde çalışan özdeş katmanlardan oluşur. Modeli daha esnek hale getirmek için doğrusal olmama durumu eklenmelidir. Eklenecek yaygın bir doğrusal olmayan işlev, S şeklinde şekillendirilen sigmoid işlevi olarak da bilinen lojistik işlevdir. Ağa daha fazla katman ve doğrusal olmayan özellik eklemek, daha karmaşık sonuçlar sağlayabilen daha karmaşık bir model oluşturur.

  • 00:35:00 Bu bölümde lojistik fonksiyonları ve sınıflandırıcı olarak kullanılan lojistik regresyondaki rollerini öğreniyoruz. Lojistik regresyon, bir kategorideki gözlemlerin sıfır olarak ele alındığı ve diğer kategorinin gözlemlerinin bir olarak ele alındığı ve tüm bu gözlemlere en iyi uyan bir lojistik fonksiyonun bulunduğu, sürekli ve kategorik bir girdi ve çıktı arasındaki ilişkiyi bulur. Daha fazla girdi ekleyerek, lojistik regresyon birçok girdi değişkeniyle çalışabilir ve bunlar boyutların sayısından bağımsız olarak doğrusal sınıflandırıcılar haline gelir. Lojistik fonksiyonla ilgili doğrusal olmayan bir fonksiyon olan hiperbolik teğeti de öğreniyoruz. Bu doğrusal olmayan işlevler, doğrusal ağlar alanından çıkmamıza yardımcı olur ve bize tek katmanlı ağlarda gördüğümüzden çok daha geniş bir davranış çeşitliliği sunar. Katmanları birden fazla gizli düğümle istifleyerek, kıpırdatmalar, tepe noktaları ve vadilerle daha karmaşık eğriler oluşturabiliriz.

  • 00:40:00 Bu bölümde video, iki katmanlı bir ağ tarafından oluşturulan eğrilerin, çok katmanlı bir ağ kullanılarak oluşturulanlarla matematiksel olarak nasıl aynı olabileceğini açıklar. Çok katmanlı ağ, daha az düğüm kullanarak daha karmaşık eğriler oluşturabilse de, iki katmanlı ağ yine de yeterli sayıda gizli düğüm kullanarak zengin eğriler oluşturabilir. Video daha sonra bu eğrilerin bir sınıflandırıcı oluşturmak için nasıl kullanılabileceğini açıklıyor ve doğrusal olmayan sınıflandırıcıların, doğrusal olanlardan farklı olarak, serpiştirilmiş sınıflandırma bölgeleri oluşturabileceğini gösteriyor. Video, çok katmanlı bir algılayıcının tam ağ diyagramını ve girişlerin, çıkışların, katmanların ve gizli düğümlerin sayısını belirterek tam olarak tanımlanabilen üç katmanlı tek girişli tek çıkışlı bir ağ için genel bir diyagramı göstererek sona erer.

  • 00:45:00 Videonun bu bölümünde sunum yapan kişi, iki çıkış fonksiyonunun kesiştiği yere göre giriş uzayını bölgelere ayıran bir sınıflandırıcı oluşturmak için iki çıkışlı bir sinir ağı kullanmayı tartışıyor. Bu yaklaşım, üç veya daha fazla çıktı işleviyle genişletilebilir, bu da daha fazla kategorinin öğrenilmesine ve girdi alanlarının doğrusal bir sınıflandırıcının başarabileceğinden daha karmaşık şekillerde parçalanmasına olanak tanır. Ancak kazanan kategori, ikinci kategoriden önemli ölçüde daha iyi olmayabilir. Sınırlamalarına rağmen, bu yöntem sinir ağlarının çeşitli kategori sınırları oluşturma gücünü gösterirken kullanılan aktivasyon fonksiyonlarından dolayı pürüzsüzlüğü de destekler.

  • 00:50:00 Video, bu bölümde evrişimli sinir ağlarını (CNN'ler) ve bunların yüzler, arabalar ve hatta video oyunları gibi görüntülerdeki kalıpları öğrenme ve tanıma becerilerini tartışıyor. Video, CNN'lerin sihir olmadığını, zekice uygulanan temel ilkelere dayandığını açıklıyor. Video, CNN'lerin nasıl çalıştığını göstermek için bir giriş görüntüsünün X mi yoksa O mu olduğuna karar veren basit bir CNN oyuncak örneği kullanıyor. CNN'lerin zor yanı, görüntünün ne olduğunu tanımlarken çok fazla varyasyonun mümkün olmasıdır. Video, bir CNN'nin görüntüyü daha küçük kalıplara bölerek ve bu kalıpları tanımlamak için filtreler kullanarak varyansı nasıl idare edebileceğini ve görüntüyü nasıl tanımlayabileceğini açıklıyor.

  • 00:55:00 Bu bölümde, kurs, iki parçanın aynı olup olmadığını belirlemek için evrişimli sinir ağlarının bir görüntünün parçalarını nasıl eşleştirebileceğini açıklamaktadır. Evrişimli sinir ağı, görüntüleri daha küçük parçalara veya özelliklere bölerek, özelliklerin birbiriyle eşleşip eşleşmediğini belirleyebilir. Bu özellikleri eşleştirmenin ardındaki matematiğe filtreleme denir ve bir özelliği bir görüntü yaması ile sıralamayı ve ardından bir pikseli başka bir pikselle çarpmayı ve bunu toplam piksel sayısına bölmeyi içerir. Bu özelliğin görüntü boyunca tekrar tekrar uygulanması, bu özelliğin nerede meydana geldiğine dair bir harita oluşturarak sinir ağının görüntünün hangi bölümlerinin eşleştiğini belirlemesine olanak tanır.


Bölüm 2

  • 01:00:00 Bu bölümde, dersin hocası derin sinir ağlarında kullanılan üç ana hileyi açıklar. İlk numara, bir görüntünün bir dizi filtreyle birleştirilerek filtrelenmiş görüntülerden oluşan bir yığın oluşturduğu evrişim katmanıdır. İkinci hile, penceredeki maksimum değeri temsil eden daha küçük bir görüntü elde etmek için bir pencere boyutu ve adım değeri alarak görüntü yığınını küçültmek için kullanılan havuzlamadır. Son olarak, üçüncü numara, matematiğin patlamasını önlemek için kullanılan ve görüntüdeki tüm negatif değerleri sıfıra değiştirmeyi içeren normalleştirmedir. Bu hileler, derin bir sinir ağı oluşturmak için bir araya getirilir ve çıktıları, daha fazla manipüle edilebilecek bir piksel dizisi oluşturur.

  • 01:05:00 Bu bölümde video, sinir ağlarının her yinelemede görüntüyü filtreleyen ve azaltan evrişimli ve havuzlama katmanlarından oluşan derin bir yığınlama tekniğini nasıl kullanabileceğini açıklıyor. Son tamamen bağlı katman, filtrelenmiş ve küçültülmüş görüntülerin her bir listesini, nihai yanıt haline gelen bir dizi oylamaya bağlar. Bu ağırlıkları elde etmek için sinir ağları, çıkış katmanından gelen son hata sinyaline göre ayarlama yapmak için geri yayılıma güvenir. Bu süreç gradyan iniş olarak bilinir.

  • 01:10:00 Kursun yeni başlayanlar için derin sinir ağlarının nasıl çalıştığına ilişkin bu bölümünde, eğitmen, hatayı en aza indirmek için sinir ağının ağırlıklarının ayarlanmasına izin veren gradyan iniş sürecini açıklıyor. Ağırlıkları yukarı ve aşağı ayarlayarak, ağ yokuş aşağı yönü bulur ve hatanın en az olduğu yerde minimuma yerleşir. Hiperparametreler, tasarımcının çevirmesi gereken düğmelerdir ve kullanılan özelliklerin sayısı, havuzlama katmanlarındaki pencere boyutu ve adım ve tamamen bağlı katmanlardaki gizli nöronların sayısı gibi kararları içerir. Ek olarak eğitmen, verilerin birbirine daha yakın olan şeylerin daha yakından ilişkili olduğu bir modeli izlediği sürece, sinir ağının iki boyutlu, hatta üç veya dört boyutlu verilere uygulanabileceğini açıklar. Bu, ağın ses ve metin analizi gibi alanlarda kullanılmasına izin verir.

  • 01:15:00 Bu bölümde, evrişimli sinir ağlarının (CNN'ler) sınırlamaları ele alınmaktadır, çünkü bunlar yerel uzamsal kalıpları yakalamak için tasarlanmıştır ve bu nedenle görüntü olarak temsil edilemeyen veriler için uygun olmayabilir. CNN'ler, kalıpları bulmada ve görüntüleri sınıflandırmada oldukça etkilidir, ancak veriler, herhangi bir sütunu birbiriyle değiştirdikten sonra da yararlıysa, o zaman CNN'ler uygun olmayabilir. Öte yandan, tekrarlayan sinir ağları (RNN'ler), özellikle uzun kısa süreli bellek (LSTM), konuşmadan metne veya bir dilden diğerine gibi uygulamalarla diziden diziye çeviri için kullanışlıdır. LSTM'lerin nasıl çalıştığına dair bir örnek, akşam yemeğinde ne olduğunu tahmin etmek için verilmiş olup, burada oylama süreci akşam yemeği döngülerinin gözlemlenmesi yoluyla basitleştirilmiştir.

  • 01:20:00 Bu bölümde eğitmen sadece bir sayı listesi olan vektör kavramını ve makine öğreniminde nasıl faydalı olabileceğini açıklıyor. Vektörler, tüm olası değerlerin bir listesi şeklinde ifade edilir ve her birine bir numara atanır. Eğitmen, tek geçişli kodlamanın genellikle kodlama ifadelerinde nasıl kullanıldığını açıklar. Sinir ağı, giriş vektöründeki her elemanın çıkış vektöründeki her elemana bağlanmasıyla tasarlanır. Kullanılan örnek, dünkü gerçek bilgilerimizi ve dünkü tahminimizin ne olduğunu dikkate alarak geçmiş verileri kullanarak akşam yemeğinde ne olduğunu tahmin etmektir. Eğitmen daha sonra, tekrarlayan sinir ağlarının, örneğin dil öğreniminde olduğu gibi, bir dizide sırada ne olacağını tahmin etmede yararlı olabileceğini açıklıyor.

  • 01:25:00 Bu bölümde, geri besleme döngülerini önlemek için ezme işlevinin kullanımı açıklanmaktadır. Tekrarlayan sinir ağı, daha önce hangi kelimelerin kullanılmış olduğuna bağlı olarak bir isim, nokta veya "testere" için oylamayı içerir. Ancak bu sistem, yalnızca bir zaman adımını hatırlayabildiği için hatalara ve sınırlamalara tabidir. Bunların üstesinden gelmek için, eleman bazında toplama ve çarpma için düz tabanlı bir ezme işlevi, bir daire içinde bir "x" ve bir daire içinde bir haç dahil olmak üzere ek semboller aracılığıyla ağa bir hafıza işlevi eklenir. Bu, ağın birçok zaman önce ne olduğunu hatırlamasına ve yeni ve geliştirilmiş işlevsellik sağlayarak öğe bazında çarpma gerçekleştirmesine olanak tanır.

  • 01:30:00 Bu bölümde video, bir sinir ağında neyin geçtiği ve neyin engellendiği üzerinde kontrole izin veren geçitlemeyi tanıtıyor. Konsept, değişen seviyelerde su akışına sahip borular ve sıfıra kadar kapatılabilen veya bire kadar açılabilen musluklar kullanılarak gösterilmiştir. Değerleri sıfır ile bir arasında sıkıştıran lojistik fonksiyonun tanıtılması, her zaman bu aralık içinde olan bir değere sahip olmanın bir yolunu sağlar. Video daha sonra, her biri kendi sinir ağı ve ezme işlevi tarafından kontrol edilen bir dizi kapı kullanarak, kapılamanın anıları ve tahminleri tutmak ve seçici olarak serbest bırakmak için nasıl kullanılabileceğini gösterir. Son olarak, ilgisiz girdileri bir kenara bırakarak tahminleri ve ileriye dönük hafızayı bulandırmasını önlemek için bir dikkat mekanizması tanıtılır.

  • 01:35:00 Bu bölümde eğitmen, eğitimli bir LSTM ağının bir cümledeki bir sonraki kelime için nasıl tahminler üretebileceğine dair bir örnek verir. LSTM'nin çocuk kitabı örnekleri konusunda eğitildiğini varsayarsak, örnek cümle "Jane Spot'u gördü." "Doug" kelimesi en yeni kelimedir ve LSTM uygun seçenekler olarak "Doug", "Jane" ve "Spot"u öngörür. LSTM daha sonra bu tahminleri, tahmin yapmayı öğrenen dört farklı nöral ağdan geçirir ve LSTM, bir sonraki kelimenin en olası "gördüm" olduğunu tahmin eder. Örnek, bir LSTM'nin önceki kelimelere ve tahminlere dayalı olarak nasıl tahminler üretebileceğini ve hafıza ve seçim kapılarını kullanarak belirli hataları yapmaktan nasıl kaçınabileceğini göstermektedir.

  • 01:40:00 Bu bölümde eğitmen, LSTM sinir ağlarının verilerdeki kalıpları belirlemek için birçok zaman adımında nasıl geriye dönüp bakabildiğini ve bu ağların dil çevirisi ve konuşmadan metne yazılım gibi pratik uygulamalarda başarılı olmasını nasıl sağladığını açıklıyor. Ayrıca, LSTM ağlarının, bir etmen tarafından gerçekleştirilen eylemlerin neyin algılandığını ve birçok zaman sonra ne yapılması gerektiğini etkileyebildiği robotikte özellikle yararlı olduğunu tartışıyor. LSTM ağları matematiksel olarak ifade edildiğinde karmaşık görünse de eğitmen, derin öğrenmeyi daha basit bir uçağa kıyasla son derece uzmanlaşmış bir savaş uçağına benzeterek izleyicileri temel ilkelere odaklanmaya teşvik ediyor.

  • 01:45:00 Videonun bu bölümünde eğitmen bir sinir ağındaki nöronların temel yapısını ve işlevini açıklıyor. Nöronların dendritleri, duyular gibi hareket eder ve daha sonra somada biriken ve akson yoluyla bir sinyal olarak gönderilen elektriksel aktiviteyi alır. Bir nöronun aksonunun diğerinin dendritine temas ettiği bir sinapstan geçen sinyalin gücü, daha büyük bir daire daha güçlü bir bağlantıyı gösteren bir daire boyutuyla temsil edilir. Bu bağlantılara sayılar ve ağırlıklar atayarak, karmaşık bir sinir ağı, her çubuğun bir ağırlığı temsil ettiği bir daire-çubuk diyagramına basitleştirilebilir. Bu diyagram, her bağlantının kendi ağırlığına sahip olduğu giriş ve çıkış kombinasyonlarını temsil etmek için kullanılır.

  • 01:50:00 Bu bölümde video, sinir ağlarının giriş nöronlarını ve bunların çıkış nöronlarına olan bağlantılarını birleştirerek çalıştığını açıklıyor. Bir çıkış görüntüsü oluşturmak için birleştirilen giriş piksellerinin basit bir örneği aracılığıyla video, giriş nöronlarının pikseller veya sözcükler gibi ayrı ayrı öğeleri nasıl temsil ettiğini ve daha karmaşık kavramları temsil etmek için birleştirilebileceğini gösterir. Video ayrıca, ilk bağlantı ağırlıklarının rastgele atandığı ve ardından gözlemlenen giriş-çıkış modellerine göre güncellendiği ve ağın zaman içinde gelişmesine izin verdiği sinir ağlarında öğrenme sürecini de tartışıyor.

  • 01:55:00 Bu bölümde, video sinir ağlarının geri yayılımlı gradyan iniş kullanılarak nasıl eğitildiğini açıklıyor. Amaç, gerçek çıktı ile beklenen çıktı arasındaki hatayı azaltmak için nöronların ağırlıklarını ayarlamaktır. Küçük artımlı adımlar atılarak, ağırlıklar hata en aza indirilene kadar ayarlanır. Bu işlem her veri noktası için tekrarlanır ve birden çok katman varsa, bir katmanın çıktısı bir sonraki katman için girdi olarak kullanılır. Buna derin sinir ağı denir. Ne kadar çok katman varsa, öğrenilebilen özellikler o kadar karmaşıktır, bu da görüntüleri ve hatta doğal dildeki tümceleri tanımlamayı mümkün kılar.


Bölüm 3

  • 02:00:00 Videonun bu bölümünde eğitmen derin sinir ağlarının farklı senaryolarda nasıl çalıştığını açıklıyor. Yüzlerin veya otomobillerin görüntüleri üzerinde eğitim yaparken, sinir ağı bu nesnelerin gözler, burunlar ve tekerlekler gibi temel bileşenlerini tanımayı öğrenir. Ağ ne kadar derinleşirse, tanıma o kadar karmaşık hale gelir ve sonunda yüzler, örümcekler ve oyuncak ayılar gibi tanımlanabilir görüntülere yol açar. Ek olarak, benzer müzik sanatçılarını öğrenmek ve gruplandırmak için derin sinir ağları kullanılabilir. Eğitmen ayrıca, Atari oyunlarının insanlardan daha iyi nasıl oynanacağını öğrenmek için derin sinir ağlarının pekiştirmeli öğrenmeyle nasıl eşleştirilebileceğini ve robotlara video temsilleri kullanılarak yemek pişirmenin nasıl öğretilebileceğini de kapsar. Son olarak eğitmen, derin öğrenmenin kalıpları öğrenmede iyi olduğunu ancak bunun sihir olmadığını açıklıyor.

  • 02:05:00 Bu bölümde, birçok şeyi yapabilmek ve onları iyi yapabilmek olarak zekanın işlevsel bir tanımı tanıtılmaktadır. Bu tanım, makine zekası hakkında bilimsel bir tartışmaya izin verir ve farklı etmenlerin göreli zekasını karşılaştırmamıza izin verir. "Zeka eşittir performans çarpı genellik" denklemini kullanarak, bunu insan performans ve genellik düzeyini temsil etmek için logaritmik bir ölçekte çizebiliriz. Makineler, sınırlı dikkat ve bilişsel önyargılar gibi insan sınırlamaları nedeniyle bazı alanlarda insan performansını aşabilir.

  • 02:10:00 Bu bölümde video, zekanın bir eksen olarak genellik ve diğer eksen olarak performans ile bir grafik üzerinde nasıl karşılaştırıldığını tartışıyor. Satranç oynayan bilgisayarlar, 1989'da IBM'in Deep Blue'sunun Gary Kasparov'u yenmesiyle, insanüstü bir seviyede performans gösteren ilk ajanlardı. Son teknoloji ürünü satranç programı Stockfish'in ELO derecesi 3447'dir, bu onu çok daha iyi yapar. herhangi bir insan oyuncudan daha Bununla birlikte, Stockfish'in özellikle satranç için programlandığını ve insanlardan farklı olarak genellikten yoksun olduğunu belirtmekte fayda var. Video, Stockfish'i daha da karmaşık olduğu düşünülen Go masa oyunuyla karşılaştırıyor ve zekada genelliğin önemini gösteriyor.

  • 02:15:00 Bu bölümde, transkript Go oyununun, satranca göre katlanarak daha fazla olası tahta konfigürasyonuna sahip olmasına rağmen, ortak konfigürasyonları ve pekiştirmeli öğrenmeyi öğrenmek için evrişimli sinir ağları adı verilen bir teknik kullanan AlphaGo programı tarafından nasıl yenildiğini tartışıyor. hangi hareketlerin iyi olduğunu öğrenmek için bir insan oyunları kütüphanesinde. Benzer şekilde, görüntü sınıflandırma alanında, makinelerin görüntüleri insanlardan daha iyi sınıflandırdığı ve yüzde beşten daha az hata oranıyla ImageNet adlı bir veritabanı oluşturuldu. Bu görevde rutin olarak insanları yenen makinelerle, makine öğreniminde kaydedilen ilerleme etkileyici.

  • 02:20:00 Bu bölümde öğretim görevlisi, evrişimli sinir ağlarının (CNN) görüntüleri sınıflandırmadaki sınırlamalarını tartışıyor. CNN'ler, bir satranç tahtasındaki pikseller gibi iki boyutlu veri dizilerindeki kalıpları bulmak için tasarlanırken, üzerinde eğitildikleri görüntü kümesinin dışına kolayca çıktıkları görülmüştür. CNN'lerin kırılganlığı, görüntüler bozulduğunda, tek bir piksel değiştirildiğinde veya CNN'yi aldatmak ve görüntüyü yanlış sınıflandırmak için çıkartmalar eklendiğinde gösterilir. Öğretim görevlisi, ImageNet veri setinde insanlardan daha iyi performans göstermesine rağmen, görüntü sınıflandırma genelliğinin olmasını istediğimiz yerde olmadığını açıklıyor. Derste ayrıca DeepMind'in derin q öğrenme algoritmasının 49 klasik Atari oyunundan 29'unda insan uzman seviyesine ulaşarak dünyayı etkilediğinden bahsediliyor.

  • 02:25:00 Bu bölümde eğitmen, derin sinir ağlarının video oyunları oynarken ve dilleri çevirirken nasıl performans gösterdiğini tartışıyor. Takviyeli öğrenmeyi kullanarak video oyunları oynamak için piksel kalıplarını öğrenmek üzere evrişimli sinir ağlarını kullandıktan sonra algoritma, daha uzun vadeli planlama gerektiren 20 oyundaki insan performansını eşleştiremedi. Bu, algoritmanın gerekli bağlantıları yapmak için birkaç adım ilerisini düşünemediğini gösteriyor. Öte yandan, dil çevirisi, 100'den fazla dili tek bir ara gösterime çevirmek için uzun kısa süreli belleği (LSTM) kullanır. Bununla birlikte, kapsamlı hesaplamalar nedeniyle çevirinin doğruluk sınırlamaları ve verimlilik sorunları olduğunu belirtmekte fayda var. Bu nedenle, makine çevirisi kapsama sahipken, insan performansının altında kalıyor.

  • 02:30:00 Bu bölümde konuşmacı, tavsiye verenlerin performansını tartışıyor ve insanlara kıyasla nispeten iyi olduklarını belirtiyor. Bununla birlikte, algoritma, bir kişinin tercihlerinin değişebileceği gerçeğine uyum sağlamadığından ve çeşitli ürünlerin nasıl ilişkili olduğunu dikkate almadığından, performansları mükemmel değildir. Genellik açısından, tavsiyecilerin iyi çalışmasını sağlamak için gereken dünya bilgisi oldukça derindir ve performanslarını artırmalarını sağlar. Konuşmacı, robotlara geçerek, kendi kendine giden arabaların, görevlerinin daha karmaşık olmasına rağmen kaza oranlarının insanlardan daha düşük olması nedeniyle etkileyici bir performansa sahip olduğunu belirtiyor. Bununla birlikte, sürücüsüz arabalar göründüklerinden daha az geneldir ve en büyük hile, çözümün gerekli genelliğini azaltan görevin zorluğunu azaltmaktır.

  • 02:35:00 Bu bölümde konuşmacı, sürücüsüz arabaların göründükleri kadar genel olmadığını, belirli bir sensör seti, algoritma seçimi ve çevre koşullarına göre özel olarak tasarlandıklarını açıklıyor. Kendi kendini süren otomobiller için zorluk, çalışacakları tüm koşulları kapsamaktır. Şu an itibariyle, kendi kendini süren arabalar, esasen fiziksel etkileşimleri ve diğer arabalarla ve insanlarla etkileşimleri nedeniyle insan sürücülerden daha düşük performans gösteriyor. Ardından, konuşmacı insansı robotları ve çoğu etkinliğin nasıl sabit kodlu ve oldukça kırılgan olduğunu tartışıyor. Sistemlerin karmaşıklığıyla birlikte genel uygulamaları artsa da, performans hala bir insan aracıyla karşılaştırıldığında gülünç derecede düşük kalıyor. Genelliğe karşı performans eğilimi ayrıntılı olarak tartışılarak, konuşmacının AlphaZero programının DeepMind'da görüldüğü gibi yeteneğine ilişkin görüşüne yol açar.

  • 02:40:00 Bu bölümde video, bir AI programı olan AlphaZero'nun dünyanın en iyi tahta oyunlarından bazılarını herhangi bir kural olmadan nasıl yenebildiğini açıklıyor. AlphaZero, bir oyunun görsel kalıplarını deneme yanılma yoluyla öğrenmek için yapıldı. Birbirini oynayan iki AlphaZero bebeği yaratıldı, ancak yalnızca birinin öğrenmesine izin verildi, diğerinin öğrenmesine izin verilmedi. Öğrenen, oynadıktan ve biri öğrenip diğeri öğrenmeden kendini klonladıktan sonra gelişmeyi ve ara oyuncu olmayı başardı. Bu yaklaşım, AlphaZero'nun insanları sadece dört saatte yenmesini ve önceki en iyi bilgisayarı sekiz saatten sonra yenmesini sağladı. AI oyunu aynı zamanda devam etti ve en iyi satranç oynama programını ve en iyi shogi oynama programını yendi, dolayısıyla AlphaZero'nun zeka, genellik ve performanstaki önemli artışını gösterdi. Video ayrıca, varsayımların genelliği nasıl sınırladığını ve yapay zeka sistemlerinde performansı nasıl etkinleştirdiğini vurgular.

  • 02:45:00 Bu bölümde konuşmacı, evrişimli sinir ağları da dahil olmak üzere yapay zekada kullanılan algoritmalar tarafından yapılan bazı yaygın varsayımları ve bu varsayımların insan düzeyinde zekaya ulaşmak için neden yetersiz olduğunu açıklıyor. Varsayımlar, durağanlık, bağımsızlık, ergodiklik ve eylemlerin etkilerinin hızla görünür hale gelmesini içerir. Bu varsayımlar, çok fazla değişmeyen iki boyutlu bilgi dizilerini veya verileri analiz etmek için iyi çalışsa da, dünya ile fiziksel etkileşimlerde yer almazlar, bu da onları insansı robotlar veya herhangi bir fiziksel etkileşimli robotlar için uygun hale getirmez. Konuşmacı, daha genel bir dizi görevi barındırabilecek ve bizi insan düzeyinde zekaya bir adım daha yaklaştırabilecek algoritmalar oluşturmak için fiziksel etkileşime odaklanmayı öneriyor. Bu bölüm ayrıca evrişimli sinir ağlarını ve bunların görüntülerin yapı taşlarını öğrenme yeteneklerini tanıtıyor.

  • 02:50:00 Bu bölümde eğitmen, görüntülerin farklı boyutlarını, dönüşlerini ve ağırlıklarını hesaba katan bir görüntünün X mi yoksa O mu olduğunu sınıflandırabilen bir evrişimli sinir ağı örneği sağlar. Ağ, görüntünün belirli özelliklerini belirlemek için görüntünün parçalarını belirli özelliklerle eşleştirir ve genel görüntü iyi bir eşleşme olarak kabul edilene kadar bunları kaydırır. İşlem, özelliğin görüntüyle hizalandığı, piksel piksel çarpıldığı ve ardından toplam piksel sayısına bölündüğü filtrelemeyi içerir. Bu yöntem, ağın görüntü modellerini tanımasını ve doğru tahminler yapmasını sağlar.

  • 02:55:00 Bu bölümde eğitmen, evrişimin evrişimli sinir ağlarında nasıl çalıştığını açıklar. Evrişim, bir özelliği alıyor ve ne kadar iyi eşleştiğini görmek için bir görüntüdeki olası her yamayı kontrol ediyor. Görüntüdeki her konumda karşılaştırmalar yapılabilir, bu da özelliğin görüntüyle nerede eşleştiğinin filtrelenmiş bir görüntü haritasıyla sonuçlanır. Eğitmen, havuzlamanın filtrelenmiş görüntüleri orijinal görüntünün daha küçük sürümlerine nasıl küçülttüğünü açıklar. Bu adımda, bir piksel penceresi seçilir ve maksimize edilmiş değerler seçilir, bu da orijinal sinyali hala koruyan daha küçük bir görüntüyle sonuçlanır. Son olarak, negatif sayılardan kaçınmak ve ağda yönetilebilir değerleri korumak için normalizasyon gereklidir.


4. Bölüm

  • 03:00:00 Videonun bu bölümünde eğitmen, evrişimli sinir ağının sonraki katmanlarda nasıl ilerlediğini, negatif olan her şeyi sıfıra çeviren doğrultulmuş doğrusal birim işlevinden başlayarak açıklar. Bir katmanın çıktısı, bir sonraki katmanın girdisi gibi göründüğünden, nihai çıktı, evrişim, düzeltme ve havuzlama katmanları tarafından dönüştürülen bir görüntü yığınıdır; boyut olarak küçültülmüş. Ek olarak eğitmen, doğru cevap x veya o olduğunda güçlü olma eğiliminde olan son piksel değerlerinin sırasıyla x veya o kategorileri için güçlü bir oy verdiğini ve toplam ağırlıklı oyların girişi kategorize etmek için kullanıldığını belirtir. Özellik değerlerinin bir listesini alan ve her çıktı kategorisi için bir oy listesi haline gelen tamamen bağlı bir katman tarafından x veya o.

  • 03:05:00 Bu bölümde konuşmacı, sinir ağlarının görüntüleri kategorize etmek için nasıl kullanıldığını açıklıyor. Görüntüler bileşen piksellerine bölünür ve bunlar daha sonra bir parlaklık değerleri listesine dönüştürülür. Her değer, siyah için -1'den beyaz için +1'e kadar farklı bir parlaklık düzeyine karşılık gelir. Bu parlaklık değerleri listesi, dört pikselden girdi alan ve ağırlıklı bir toplam gerçekleştiren bir nöron oluşturmak için kullanılır. Nöron daha sonra sonucun -1 ile +1 arasında olmasını sağlamak için bir "ezme" işlevi uygular. Görüntüleri kategorize etmek için nöronları kullanma süreci, insan korteksinde bulunan biyolojik katmanlardan gevşek bir şekilde ilham alan bir katman oluşturmak için birçok kez tekrarlanabilir.

  • 03:10:00 Bu bölümde eğitmen, sinir ağlarındaki alıcı alanların üst katmanlarda nasıl daha karmaşık hale geldiğini açıklar. Girdi katmanını nöronların birden çok gizli katmanına bağlayarak, her bir nöron bir önceki katmandan gelen girdileri belirli ağırlıklarla birleştirir. Ağırlıklı bir toplam yerine düzeltilmiş bir doğrusal birim kullanıldığında, nöron pozitifse orijinal değeri ve negatifse 0'ı verir. Bu süreç boyunca ağ, istenen çıktılara benzeyen kalıpları tanımayı öğrenir ve bu da girdiyi sınıflandıran nihai bir çıktı katmanıyla sonuçlanır. Eğitmen, ağın görüntüyü her bir katman boyunca nasıl işlediğini göstermek için yatay çubuklu bir görüntü örneği kullanır.

  • 03:15:00 Bu bölümde video, optimizasyon sürecini ve derin sinir ağı modellerinin ağırlıkların ve filtrelerin optimizasyonu yoluyla uyum sağlayarak nasıl öğrendiğini açıklıyor. Optimizasyon süreci, keyfi en üst düzeye çıkarmak için çayın sıcaklığının optimize edilmesine ilişkin bir örnekle gösterilmektedir. Süreç, yinelemeler yapma ve minimum değere ulaşana kadar girdiyi biraz ayarlama işlemi olan gradyan inişiyle yapılabilen matematiksel fonksiyonun minimum noktasını bulmayı içerir. Video ayrıca, ağırlıkların ve filtrelerin zaman içinde bir dizi örnekle öğrenildiğini ve makine öğreniminin bununla ilgili olduğunu belirtiyor.

  • 03:20:00 Bu bölümde konuşmacı, eğimli inişin yanı sıra modelleri optimize etmek için diğer yöntemleri tartışıyor. Popüler bir yöntem, değişen sıcaklıklarda çay yaparak ve eğrinin dikliğini gözlemleyerek optimum parametreleri bulmak için eğriliği kullanmaktır. Bununla birlikte, eğri iyi davranmazsa bu yöntem bozulabilir ve gradyanlar yerel minimumda sıkışıp kalabilir. Yerel minimumlara takılıp kalmamak için, genetik algoritmalar ve simüle edilmiş tavlama gibi, kapsamlı keşiften daha fazla örnek verimli olan, ancak gradyan iniş kadar hızlı olmayan diğer yöntemler kullanılabilir. Konuşmacı, bu yöntemleri farklı araç türleri ile karşılaştırıyor; eğimli iniş bir formül bir yarış arabası, genetik algoritmalar ve simüle edilmiş tavlama dört tekerlekten çekişli bir kamyonet ve kapsamlı keşif yürüyerek seyahat etmek gibi.

  • 03:25:00 Bu bölümde, konuşmacı bir soruyu daha az yanlış bir şekilde cevaplamak için sayısal optimizasyonun nasıl kullanılacağına dair bir örnek veriyor. Örnek, bir çantadaki M&M'lerin sayısını tahmin etmeyi içerir ve konuşmacı, daha uzak tahminleri daha ciddi şekilde cezalandırmak için karesi alınabilen bir sapma ölçümü kullanarak tahminin bir maliyet fonksiyonuna nasıl dönüştürüleceğini açıklar. Kayıp işlevi, bir sapma ölçümünün karesi alındığında tahminin ne kadar yanlış olduğunu hesaplar ve bir aralık içindeki tahminin kapsamlı bir şekilde keşfedilmesine ve görsel olarak en düşük değerin bulunmasına yardımcı olabilir. Alternatif olarak, tahminlere göre bir eğim, kayıp fonksiyonunun türevi alınarak, 0'a eşitlenerek ve denklem çözülerek bulunabilir.

  • 03:30:00 Bu bölümde, konuşmacı optimizasyonu ve en iyi ağırlıkları ve özellikleri bulmak için sinir ağlarında nasıl kullanıldığını tartışıyor. Degrade iniş, hatayı azaltmak için her katmandaki tüm ağırlıkları ayarlamak için kullanılır. Bununla birlikte, eğimin hesaplanması, hangi yönün yokuş aşağı olduğunu belirlemek için ağ üzerinden birçok geçiş gerektirir. Daha sonra eğim problemine analitik bir çözüm bulmanın bir yolu olarak geri yayılım tanıtılır ve daha verimli bir optimizasyon süreci sağlanır. Konuşmacı ayrıca bir maliyet fonksiyonunun, özellikle sapmaların toplamının hesaplanmasını sağlayan ve en iyi tahminin bulunmasına yol açan sapma karesinin kullanımını açıklar.

  • 03:35:00 Bu bölümde eğitmen, hata fonksiyonunun eğimini veya türevini hesaplamanın bir sinir ağı için ağırlıkları ayarlamaya nasıl yardımcı olabileceğini açıklar. Tek girdili, tek çıktılı ve tek nöronlu bir gizli katmana sahip basit bir sinir ağı örneği vererek hata fonksiyonunun eğiminin basit bir hesaplama ile nasıl bulunabileceğini gösteriyor. Eğimi bulmak için ağırlıklardaki değişimleri ve hataları parçalama işlemine zincirleme denir, bu da sinir ağında daha derinlerde bulunan ağırlıkların ayarlanmasını mümkün kılar. Bu süreç, ağın sonundaki değerlerin, ağın derinlikleri boyunca hata yayılımı için ağırlıkların türevlerini hesaplamak için kullanılması gereken geri yayılım olarak adlandırılır.

  • 03:40:00 Videonun bu bölümünde eğitmen, sinir ağlarının eğitiminde geriye yayılım adımını açıklıyor. Türevleri bulurken zincirdeki bağlantıyı hesaplamak için zincir kuralının kullanılabilmesi için bir sinir ağındaki her bir öğenin ayırt edilebilir kalmasının önemini vurgular. Eğitmen zincir kuralının tamamen bağlantılı bir katman için nasıl kullanılabileceğini gösterir ve ayrıca bunun evrişim ve havuzlama katmanlarına nasıl uygulanabileceğini açıklar. Etkili cevaplar elde etmek için bir sinir ağındaki ağırlıkları binlerce yineleme üzerinden ayarlama süreci de tartışılmaktadır.

  • 03:45:00 Bu bölümde eğitmen, evrişimli sinir ağının (CNN) hiperparametrelerinin nasıl optimize edileceğini açıklar. Özelliklerin sayısı, boyutu ve adımı, havuzlama pencereleri ve gizli nöronların sayısı gibi bu parametreler bir üst seviyedir ve aşağıda her şeyin nasıl olacağını kontrol eder. Eğitmen, araştırmacıların tökezlediği ve işe yarayan bazı tarifler olduğuna dikkat çekiyor, ancak bu hiperparametrelerin henüz denenmemiş pek çok kombinasyonu var, yani bazı kombinasyonların çok daha iyi çalışma olasılığı her zaman var. Şimdiye kadar görülenden daha fazla. Ek olarak, CNN'lerin yalnızca görüntüler için değil, birbirine daha yakın olan şeylerin uzaktakilerden daha yakından ilişkili olduğu herhangi iki veya üç boyutlu veriler için yararlı olduğu belirtilmektedir. Bununla birlikte, CNN'lerin örüntü tanıma yetenekleri yalnızca uzamsal örüntülerle sınırlıdır ve bu nedenle, verilerin uzamsal organizasyonunun önemli olmadığı durumlarda daha az faydalıdırlar.

  • 03:50:00 Bu bölümde konuşmacı, sıfırdan kendi evrişimli sinir ağlarınızı oluşturmanın harika bir alıştırma olmasına rağmen, halihazırda kullanıma hazır birçok olgun araç olduğunu açıklıyor. Bu bölümden çıkarılacak sonuç, sinir ağları ile çalışırken verilerin nasıl hazırlanacağına, sonuçların nasıl yorumlanacağına ve hiperparametrelerin nasıl seçileceğine ilişkin pek çok ince karar vermenin önemli olduğudur. Verilerle ne yapıldığını ve arkasındaki anlamı anlamak, mevcut araçlardan en iyi şekilde yararlanmanıza yardımcı olacaktır.
How Deep Neural Networks Work - Full Course for Beginners
How Deep Neural Networks Work - Full Course for Beginners
  • 2019.04.16
  • www.youtube.com
Even if you are completely new to neural networks, this course will get you comfortable with the concepts and math behind them.Neural networks are at the cor...
 

Yeni Başlayanlar İçin Makine Öğrenimi Kursu (1-5. Bölümler)


Yeni Başlayanlar İçin Makine Öğrenimi Kursu

00:00:00 - 01:00:00 Yeni başlayanlar için makine öğrenimi kursuyla ilgili bu YouTube videosunda eğitmen, makine öğrenimi algoritmalarının temellerini ve bunların gerçek dünyadaki uygulamalarını hem teorik hem de pratik yönleriyle açıklıyor. Kurs, öğrencileri makine öğreniminin temellerinden doğrusal regresyon, lojistik regresyon, ana bileşen analizi ve denetimsiz öğrenme gibi algoritmalara götürür. Video ayrıca fazla uydurma, yetersiz uydurma ve eğitim/test veri kümelerini tartışır. Eğitmen, makine öğrenimi algoritmalarının tahminler oluşturmak için verileri analiz etmesini sağlayan işlevlerin nasıl geliştirileceğini anlamanın önemini vurgular. Sonunda, performansı değerlendirmek için kullanılan maliyet fonksiyonlarını optimize etmek için Gradient Descent Algorithm'i tanıtıyor.

01:00:00 - 02:00:00 Yeni Başlayanlar İçin Bu Makine Öğrenimi Kursu, yeni öğrenenler için makine öğrenimindeki bir dizi temel konuyu kapsar. Eğitmen, lineer regresyonda tetanın kısmi türevinin vektörizasyonunu, normal denklemi, lineer regresyonun varsayımlarını ve bağımsız ve bağımlı özellikler arasındaki farkı açıklar. Kurs aynı zamanda lojistik regresyon ve sınıflandırma görevlerini, lojistik regresyon, maliyet fonksiyonu ve gradyan iniş için hipotezin yanı sıra maliyet fonksiyonu ve gradyan iniş için vektörleştirme kodunu öğretmeyi içerir. Ayrıca kurs, Python kitaplıklarını, veri analizi tekniklerini, model oluşturmayı ve doğrusal regresyon kullanarak doğruluk kontrolünü tanıtır. Eğitmen ayrıca normalleştirme tekniklerini ve bunların makine öğrenimindeki aşırı uydurmayı önlemek için önemini de ele alır. Kurs, daha az önemli özelliklerin özellik ağırlıklarını cezalandıran, onları sıfıra yaklaştıran veya tamamen ortadan kaldıran sırt ve kement regresyonunu kapsar.

. 02:00:00 - 03:00:00 "Yeni Başlayanlar İçin Makine Öğrenimi Kursu" düzenlileştirme teknikleri, destek vektör makineleri (SVM), doğrusal olmayan sınıflandırma ve veri keşfi gibi çeşitli konuları kapsar. Kurs, DVM'lere bir giriş sağlar ve veri noktalarını sınıflandırırken tahminlerde bulunmak için maksimum marjlı hiperdüzlemleri nasıl oluşturduklarını açıklar. SVM'de sert marj ve yumuşak marj sınıflandırması kavramları ve farklılıkları da ele alınmaktadır. Kurs ayrıca Python kitaplıklarını kullanan bir hisse senedi fiyatı tahmin projesini içerir ve Lineer regresyon modeli için Ortalama Karesel Hata, Kök Ortalama Karesel Hata ve R2 karesi gibi değerlendirme metriklerini araştırır. Ridge ve Lasso gibi düzenli doğrusal modeller, Flask kullanarak basit bir uygulama oluşturmanın gösterimiyle birlikte ayrıntılı olarak açıklanır.

03:00:00 - 04:00:00 "Yeni Başlayanlar İçin Makine Öğrenimi Kursu" videosu, Flask kullanarak sunucu ve web sitesi kurulumu, ana bileşen analizi (PCA), önyargı ve varyans ticareti gibi makine öğrenimiyle ilgili çeşitli konuları kapsar -off'lar, regresyon modelleri ve iç içe if-else ifadeleri. Eğitmenler, gerçek dünya senaryolarında makine öğrenimi ve metin ve görüntü verileri için veri ön işleme kavramlarını anlamanın önemini vurguluyor ve İris verileri üzerinde nasıl çalışılacağına ve basit karar ağaçlarının nasıl oluşturulacağına dair pratik örnekler sunuyor. Video ayrıca doğrusal dönüşümler, özvektörler ve özdeğerler gibi konuları da kapsar ve PCA'nın bilgileri korurken veri boyutlarını nasıl azaltabileceğini açıklar. Genel olarak video, yeni başlayanlar için makine öğrenimi ve uygulamaları hakkında bilgi edinmeleri için kapsamlı bir giriş sağlar.

04:00:00 - 05:00:00 Bu video, temel terminoloji, entropi, bilgi kazancı ve Gini safsızlığı gibi öznitelik seçim ölçütlerini kullanarak karar ağaçlarının nasıl oluşturulacağı ve karar ağaçlarının nasıl oluşturulacağı dahil olmak üzere karar ağaçlarına başlangıç düzeyinde bir giriş sağlar. hem sınıflandırma hem de regresyon problemleri için kullanılabilir. Video ayrıca, hiperparametrelerin önemini ve makine öğreniminde çok önemli bir kavram olarak karar ağaçlarını anlamanın önemini vurguluyor. Bir sonraki bölüm, toplu öğrenmeyi ve onun üç tekniğini tartışıyor: Kaggle yarışmalarında yaygın olarak kullanılan torbalama, artırma ve istifleme.

05:00:00 - 06:00:00 Bu YouTube videosu, makine öğrenimi model doğruluğunu iyileştirmek için çeşitli toplu öğrenme tekniklerini açıklar. Popüler tekniklerden biri, birden fazla modelin eğitim verilerinin alt kümelerinde eğitildiği ve daha iyi performans için eğitim için kullanılan satır örneklemesiyle birleştirildiği torbalama veya önyükleme toplamasıdır. Video ayrıca, güçlü modeller oluşturmak için karar ağaçları, torbalama ve sütun örnekleme kullanan rastgele ormanları da kapsar. Buna ek olarak video, önyargıyı azaltmak ve model doğruluğunu artırmak için kullanılan ve zayıf öğrenicileri güçlü bir modelde birleştirerek yapılan güçlendirmeyi kapsar. Eğitmen, birkaç isim vermek gerekirse, Gradient Boosting ve Adaptive Boosting gibi çeşitli güçlendirme türlerine genel bir bakış sunar. Video, izleyicilerin denemesi için GitHub'da bir sorun seti sağlayarak sona eriyor ve izleyicileri daha fazla ücretsiz içerik almak için kanallarına abone olmaya teşvik ediyor.

06:00:00 - 07:00:00 "Yeni Başlayanlar İçin Makine Öğrenimi Kursu" videosu, hızlandırmanın arkasındaki temel fikir, farklı artırma teknikleri (ör. gradyan artırma, uyarlamalı artırma ve aşırı artırma) gibi hızlandırmayla ilgili birkaç konuyu kapsar ), artırmayı kullanarak bir modeli eğitmek için algoritma ve makine öğrenimi modellerinde yüksek yanlılığı azaltmak için artırmanın nasıl kullanılabileceği. Ayrıca video, scikit-learn ve mlx10 gibi kitaplıkları kullanarak Python'da güçlendirme algoritmalarının uygulanmasını tartışıyor. Video ayrıca, daha iyi performansa sahip yeni bir model oluşturmak için birden çok modeli birleştirme yöntemi olan yığınlama kavramına da değiniyor. Eğitmen, sklearn kitaplığını kullanarak Python'da lojistik regresyon, k-en yakın komşular, Gauss naive Bayes ve rastgele orman modelleri kullanarak yığın sınıflandırma modelinin nasıl oluşturulacağını gösterir.

07:00:00 - 08:00:00 Eğitmen bu videoda toplu öğrenme ve yığın sınıflandırıcılardan başlayarak çeşitli konuları ele alır. Ardından, denetimsiz öğrenmeye ve bunun veri noktalarını kümelemedeki uygulamalarına odaklanılır. Konuşmacı, merkez tabanlı ve yoğunluk tabanlı dahil olmak üzere farklı türde kümeleme algoritmalarını açıklar ve kümeleme modeli kalitesini değerlendirmek için Dunn indeksi ve Davies-Bouldin indeksi gibi değerlendirme tekniklerine genel bir bakış sunar. Son olarak, konuşmacı, iki merkez ile algoritmanın görselleştirilmesini sağlarken, başlatma, merkezler, hiperparametreler ve sınırlamalar dahil olmak üzere k-aracı kümeleme konusunda derinlemesine ilerliyor. Genel olarak video, konuya kapsamlı bir giriş sağlayan bir dizi makine öğrenimi kavramını ve tekniğini kapsar.

08:00:00 - 09:00:00 "Yeni Başlayanlar İçin Makine Öğrenimi Kursu" başlıklı bu YouTube videosu, makine öğrenimi ile ilgili çeşitli konuları kapsar. Bir bölüm, k-ortalamalı kümelemeye odaklanır ve merkezin başlatılmasını, küme atamasını ve kümelerin yakınsayana kadar güncellenmesini kapsayan algoritmayı ayrıntılı olarak açıklar. Video ayrıca rastgele başlatmada karşılaşılan sorunlara çözüm olarak K-means++ ve dirsek yöntemini tanıtıyor. Ek olarak, başka bir bölüm hiyerarşik kümelemeyi derinlemesine inceler ve toplayıcı ve bölücü kümeleme yöntemleri kullanılarak bir küme hiyerarşisinin oluşturulmasını açıklar. Video, hayat kurtarmak için sağlık sorunlarının erken saptanmasına yardımcı olacak bir yapay zeka sağlık hizmeti sistemi oluşturmayı amaçlayan kalp yetmezliği tahmin modeli projesini tartışarak sona eriyor.

09:00:00 - 09:50:00 "Yeni Başlayanlar İçin Makine Öğrenimi Kursu" videosu, dengesiz veri, korelasyon, özellik mühendisliği, model oluşturma ve değerlendirme ve NLP tekniklerini kullanarak metin sınıflandırma gibi makine öğrenimi ile ilgili çeşitli konuları kapsar. Eğitmen dengeli verilerin ve verilerin daha iyi anlaşılması için görselleştirilmesinin önemini vurgular. Sunum yapan kişi, bir spam ve amatör tespit sistemi oluşturmak, verileri analiz etmek ve anlamak ve mesajları spam veya amatör olarak sınıflandırmak için NLP tekniklerini uygulamak için adım adım ilerleyen bir süreçten geçer. Kurs, yeni başlayan makine öğrenimi meraklılarının üzerine inşa edebileceği temel kavramlara genel bir bakış sunar.


Bölüm 1

  • 00:00:00 Bu bölümde, bir veri bilimcisi ve makine öğrenimi mühendisi olan Ayush, makine öğrenimi algoritmalarının ve gerçek dünyadaki yapay zeka projelerinin hem teorik hem de pratik yönlerini kapsayan makine öğrenimi kursunu tanıtıyor. Ayush, bilgisayar görüşü ve doğal dil işleme gibi çeşitli yapay zeka uygulamaları üzerinde çalışma deneyimi ve makine öğrenimi ve derin öğrenme üzerine uçtan uca kurslar verdiği YouTube kanalı da dahil olmak üzere geçmişini anlatıyor. Makine öğreniminin temelleri ile başlayan ve doğrusal regresyon, lojistik regresyon, ana bileşen analizi ve denetimsiz öğrenme gibi algoritmaları anlamaya doğru ilerleyen kursun müfredatını açıklıyor. Ayush, bölümü tamamlamadan önce fazla uydurma ve yetersiz uydurmayı anlamanın önemini vurguluyor.

  • 00:05:00 Bu bölümde, eğitmen makine öğreniminin ne olduğuna dair basit bir açıklama sağlar. Esasen, verileri analiz etmek ve açık programlama olmadan bu verilere dayalı akıllı tahminler yapmak için algoritmaların kullanılmasını içerir. Amaç, girdi değişkenlerini çıktı değişkenleriyle eşleştiren bir işlev oluşturmaktır; örneğin büyüklüğüne, yatak odası sayısına vb. dayalı olarak bir evin fiyatını tahmin etmek gibi. Eğitmen ayrıca makine öğreniminin daha resmi bir tanımını sağlar; deneyimli bir görevde performansını artıran program. Genel olarak eğitmen, makine öğreniminden başarılı bir şekilde yararlanmak için bu işlevlerin nasıl oluşturulacağını anlamanın önemini vurgular.

  • 00:10:00 Videonun bu bölümünde eğitmen, sürücüsüz arabalar, hisse senedi fiyatı tahmini ve tıbbi teşhis gibi çeşitli makine öğrenimi uygulamalarını tartışıyor. Ayrıca, makine öğreniminin nasıl çalıştığına dair temel iş akışını, bir sorunu incelemek ve verileri analiz etmekle başlayıp ardından algoritmayı eğitmek ve performansını değerlendirmekle açıklıyor. Eğitmen ayrıca denetimli, denetimsiz ve pekiştirmeli öğrenme dahil olmak üzere ana makine öğrenimi sistemleri türlerine genel bir bakış sağlar. Evin boyutunun evin fiyatını tahmin etmek için bir özellik olarak kullanıldığı, ev fiyatı tahminini kullanan denetimli öğrenmeye bir örnek veriyor.

  • 00:15:00 Bu bölümde, konuşmacı denetimli öğrenmeyi ve onun iki tür problemini tartışıyor: regresyon ve sınıflandırma. Konuşmacı ayrıca regresyon için ev fiyatı tahmini ve sınıflandırma için görüntü sınıflandırması gibi örnekler sunar. Konuşmacı, denetimli öğrenmenin, çıktı değişkeninin bilindiği ve girdi ile çıktı değişkenleri arasında bir ilişki olduğu etiketli verileri içerdiğini açıklar. Konuşmacı ayrıca, verilerin etiketlenmemiş olduğu ve modelin mevcut verilere dayalı kalıpları tanıması gereken denetimsiz öğrenmeden de kısaca bahseder.

  • 00:20:00 Bu bölümde konuşmacı, makine öğrenimindeki sınıflandırma ve regresyon problemleri arasındaki farkı tartışıyor. Bir problemin çıktısı sürekli değerde ise, bir regresyon problemi olarak kabul edilir. Çıktı derece değerindeyse, bu bir sınıflandırma problemidir. Verileri eğitim ve test kümelerine ayırmanın önemi vurgulanır, %80'i eğitim için ve %20'si modeli test etmek için kullanılır. Konuşmacı ayrıca, modellerin hem eğitim hem de test verilerinde düşük performans gösterdiği veya eğitimde iyi performans gösterdiği ancak testte başarısız olduğu aşırı uyum ve yetersiz uyum sorunlarını açıklıyor. Bölüm, ders boyunca kullanılacak bazı notasyonlarla sona ermektedir.

  • 00:25:00 Bu bölümde eğitmen, makine öğreniminde denetimli ve denetimsiz öğrenmeyi tartışır. Denetimli öğrenmede, tahminler yapmak için hem girdi hem de çıktı verilerini kullanarak girdi değişkenlerini çıktı değişkenlerine eşleyen bir f(x) işlevi oluşturulur. Eğitmen, bir oyuncunun tenis oynayıp oynamayacağını tahmin etmek için görünüm, sıcaklık, nem ve rüzgar gibi özellikleri kullanan ve hedef değişken oynayıp oynamayacağı olan bir veri kümesi örneği verir. Girdi özellikleri bağımsızdır, hedef değişken ise bu özelliklere bağlıdır. Genel olarak, denetimli öğrenme, girdi ve çıktı verileri arasında bir ilişkinin olduğu etiketli bir veri kümesini içerir.

  • 00:30:00 Bu bölümde eğitmen denetimli öğrenmedeki bağımsız ve bağımlı özellikler arasındaki farkı ve regresyon ile sınıflandırma arasındaki farkı açıklar. Örneğin, hisse senedi fiyatlarını veya ev fiyatlarını tahmin etmek gerileme olurken, bir kişinin diyabet hastası olup olmadığını belirlemek sınıflandırma olacaktır. Eğitmen daha sonra denetimsiz öğrenmeyi başlatır ve herhangi bir bağımlı özellik olmaksızın yalnızca bir dizi bağımsız özellik içerdiğini açıklar. Bunun bir örneği, verilerin etiketlerini bilmeden pazar bölümlendirmesidir. Eğitmen, bir sonraki bölümün denetimsiz öğrenmeyi daha derinlemesine ele alacağını belirtiyor.

  • 00:35:00 Bu bölümde, çıktı verileri sürekli olduğunda kullanılan bir tür denetimli öğrenme algoritması olan doğrusal regresyonu öğreniyoruz. Amaç, girdi değişkenini çıktı değişkenine eşleyen bir işlev oluşturmaktır. Doğrusal regresyon, örneğin büyüklüğüne göre bir evin fiyatını tahmin etmek gibi tahminlerde bulunmak için dağınık verilere düz bir çizgi uydurmayı içerir. Çizgi bir hipotezi temsil eder ve verilere ne kadar yakınsa tahminler o kadar iyi olur. Bu bölüm lineer regresyona genel bir bakış sağlar ve öğrencileri öğrenme algoritmaları ve Boston kaplıcaları tahmini üzerine bir proje ile ilgili bir sonraki bölüme hazırlar.

  • 00:40:00 Bu bölümde eğitmen hipotez fonksiyonunun lineer regresyonda nasıl çalıştığını açıklar. Hipotez, teta ile temsil edilen her özelliğin ağırlığı kullanılarak oluşturulur. Önyargı terimi x0, y-kesişimini veya çizginin y-eksenini nerede keseceğini belirler. Özellik ağırlıkları makine tarafından öğrenilir ve en iyi ağırlıklar en iyi tahmini üretir. Eğitmen, makine öğreniminin öğrenme parametrelerine, özellikle de özelliklerin ağırlığına dayandığını vurgular. Hipotez işlevi, girdi değişkenlerini tahmin için kullanılabilecek bir çıktı değişkenine eşler.

  • 00:45:00 Bu bölümde eğitmen, özellik ağırlıkları ve yanlılık terimini kullanarak doğrusal regresyon için hipotez işlevini ve bunun vektörleştirilmiş bir biçimde nasıl ifade edilebileceğini açıklar. Python'da sadece bir kod satırında yazılabileceğini gösterdi. Ardından, modelin ne kadar iyi performans gösterdiğini değerlendirmek için kullanılan maliyet fonksiyonunu ve bunun gerçek ve tahmin edilen veri noktaları arasındaki mesafeyi hesaplamak için nasıl kullanıldığını tanıtıyor. Maliyet fonksiyonu kavramını göstermek için örnek olarak bir dağılım grafiği kullanılır.

  • 00:50:00 Videonun bu bölümünde, konuşmacı makine öğrenimindeki maliyet fonksiyonu kavramını açıklıyor. Maliyet işlevi, artıklar olarak adlandırılan tüm veri noktaları için tahmin edilen ve gerçek değerler arasındaki farkın hesaplanmasını içerir. Öngörülen ve gerçek değerler arasındaki mesafe alınarak ve bunların karesi alınarak bir maliyet fonksiyonu üretilir. Amaç, modelin etkinliğini belirleyen maliyet fonksiyonunu en aza indirmektir. Konuşmacı ayrıca en uygun modeli sağlayacak en iyi tetayı bulmak için bir optimizasyon yöntemi olarak Gradient Descent Algorithm'i tanıtıyor.

  • 00:55:00 Bu bölümde eğitmen, makine öğreniminde maliyet işlevini en aza indirmek için kullanılan bir yöntem olan gradyan inişinin arkasındaki kavramı açıklıyor. Eğitmen, maliyet fonksiyonunu en aza indirmek için gradyan inişinin teta değerini nasıl değiştirdiğini göstermek için basit bir benzetme kullanır. Daha sonra eğitmen, teta değerini güncellemek için kısmi türevler alarak bu sürecin matematiksel türevini açıklar. Son olarak, eğitmen, öğrenme oranını ve maliyet fonksiyonunun kısmi türevlerini kullanarak tetayı güncelleme adımlarını özetleyen gradyan iniş algoritmasını sunar. Eğitmen ayrıca öğrenme hızının nasıl ayarlanacağını ve süreci vektörleştirmenin faydalarını tartışır.

Bölüm 2

  • 01:00:00 Bu bölümde eğitmen, lineer regresyonda tetanın kısmi türevinin nasıl vektörleştirileceğini açıklar. Teta sıfır ve teta birin kısmi türevini ayrı ayrı almak yerine, onu ortak bir teta vektörüne koyabilir ve hesaplamak istediğiniz şeyin kısmi türevini çıkarabilirsiniz. Bu vektörleştirme ile, türetilmiş denklemi hesaplama gücü için kullanılabilecek vektörleştirilmiş bir biçimde yazabilirsiniz. Eğitmen ayrıca size sadece bir denklemde optimum teta veren normal denklemi vurgular. Doğrusal regresyonun varsayımlarını ve bağımsız ve bağımlı özellikler arasındaki farkı açıklarlar. Son olarak, stokastik gradyan iniş, Adam optimizasyon algoritması ve RMS Prop gibi ileri seviyelerde kullanılabilecek diğer optimizasyon algoritmalarından bahsederler.

  • 01:05:00 Bu bölümde eğitmen kısaca polinom regresyon kavramını ve lineer olmayan verilerin lineer regresyona uygun hale getirilebilecek lineer forma dönüştürülmesinde nasıl kullanılabileceğini kısaca açıklar. Eğitmen ayrıca, lojistik regresyon ve sınıflandırma görevleri de dahil olmak üzere kursta gelecek konulardan bahseder. Lineer regresyon ile lojistik regresyon arasındaki fark açıklanır ve lojistik regresyon hipotezi lineer regresyona benzer şekilde sunulur, ancak verileri sınıflandırmak için kullanılır.

  • 01:10:00 Videonun bu bölümünde eğitmen, 0 ile 1 arasında çıktı almak için bir sigmoid işlevi içeren lojistik regresyon hipotezini açıklıyor. Daha sonra çıktı, tahmin etmek için bir eşikle (0,5 veya 0,7) karşılaştırılır. görüntünün bir kedi olup olmadığı. Modelin doğruluğunu değerlendirmenin bir yolu olarak maliyet veya kayıp fonksiyonu da açıklanmaktadır. Eğitmen, bir eğitim örneği için maliyet fonksiyonu formülünü sağlar.

  • 01:15:00 Bu bölümde konuşmacı, makine öğrenimindeki günlük kayıp maliyeti işlevini ve formülünü tartışıyor. Formül, temel gerçeklik değerini ve modelin tahmin edilen değerini alır ve ikincisinin logunu temel gerçeklik değeriyle (y_i) çarparak hesaplar. Konuşmacı, her iki değerin de aynı olması durumunda maliyetin yaklaşık sıfır olacağını, farklı olması durumunda maliyetin çok yüksek olacağını açıklıyor. Yazar daha sonra parametreleri ayarlamak için maliyet işlevini kullanan ve global optimuma yaklaşmak için teta değerini güncelleyen gradyan iniş algoritmasını tartışmaya devam ediyor. Teta değerini güncellemek için maliyet fonksiyonunun kısmi türevi alınır.

  • 01:20:00 Bu bölümde, konuşmacı makine öğreniminde vektörleştirmeyi tartışıyor ve lojistik regresyonda maliyet fonksiyonu ve gradyan iniş için vektörleştirilmiş bir kod sağlıyor. Vektörleştirmenin zaman kazanmak için tüm hesaplamaları bir kerede yapmak anlamına geldiğini açıklıyorlar. Konuşmacı, en iyi optimal teta'yı bulmak için hipotez, maliyet fonksiyonu ve gradyan inişini içeren bir sınıflandırma algoritması olarak lojistik regresyonu anlamanın önemini vurgular. Ayrıca bir sonraki bölümün meme kanseri tespitini ve vektör makinelerini destekleyeceğini belirtiyorlar. Konuşmacı, dinleyicileri veri yükleme, özellik mühendisliği, veri görselleştirme ve özellik seçimi içeren Jupyter Not Defterlerini takip etmeye teşvik eder.

  • 01:25:00 Bu bölümde eğitmen projede kullanılacak olan numpy, pandas, plotly, seaborn ve matplotlib kütüphanelerini tanıtıyor. Proje, Boston'daki evlerin fiyatlarının makine öğrenimi kullanılarak tahmin edilmesini içeriyor ve veriler scikit-learn kitaplığından yükleniyor. Hedef değişken satış fiyatı olan y, x ise modeli tahmin etmek için kullanılan bağımsız özelliklerdir. Veriler daha sonra bir veri çerçevesine dönüştürülür ve eğitmen, çeşitli pandas işlevlerini kullanarak satır ve sütun sayısı, boş olmayan değerler ve veri türleri dahil olmak üzere veriler hakkındaki bilgilere nasıl erişileceğini gösterir. Açıklama işlevi ayrıca her sütunun ortalamasını, standart sapmasını, minimumunu, maksimumunu ve yüzdeliklerini göstermek için kullanılır.

  • 01:30:00 Videonun bu bölümünde sunum yapan kişi, bir hedef değişken, satış fiyatı ve özellik değişkenleri içeren bir denetimli öğrenme sorunu hakkında bilgi edinmek için veri analizi tekniklerini tartışıyor. Dağıtım grafikleri, çift grafikler ve qq grafikleri gibi görselleştirme araçlarının nasıl kullanılacağını gösterirler. Aykırı değerlerin nasıl belirleneceğini ve bunlarla nasıl başa çıkılacağını, çarpıklığın nasıl hesaplanacağını ve verilere dönüşümlerin nasıl uygulanacağını da açıklarlar. Ayrıca, özellikler arasındaki korelasyon kavramını ve bunun problem için yüksek oranda ilişkili özellikleri seçmek için nasıl kullanılabileceğini tanıtırlar.

  • 01:35:00 Videonun bu bölümünde eğitmen, doğrusal regresyon kullanarak model oluşturma ve doğruluk kontrolünü ele alıyor. Odak noktası, bir modelin eğitim verilerinden çok fazla şey öğrendiği ve yeni veriler üzerinde düşük performans gösterdiği aşırı uyumdan kaçınmaktır. Eğitmen, düzenlileştirmenin, özellikleri azaltarak veya modelin karmaşıklığına bir ceza uygulayarak fazla uydurmayı nasıl azaltabileceğini açıklar. Bir sonraki bölüm, Lasso ve Ridge regresyonu da dahil olmak üzere düzenlileştirilmiş doğrusal modelleri kapsayacaktır. Eğitmen, izleyicileri sorunlarla karşılaştıklarında çevrimiçi çözümler aramaya teşvik eder ve daha sonraki projeler için bir Github deposu sunar.

  • 01:40:00 Bu bölümde, konuşmacı makine öğrenimindeki düzenlileştirme tekniklerini, özellikle sırt ve kement regresyonunu tartışıyor. Ridge regresyonu, daha az önemli özelliklerin özellik ağırlıklarını cezalandırarak onları sıfıra daha da yaklaştırır. Lasso regresyon bir adım daha ileri gider ve parametre ağırlıklarını sıfıra eşitleyerek daha az önemli özellikleri eler. Düzenlileştirme terimi, L2 normu kullanılarak ridge regresyon ve L1 normu kullanılarak kement regresyon ile maliyet fonksiyonunun sonuna eklenir. Konuşmacı ayrıca bias terimi olan theta zero'nun cezalandırılmaması gerektiğinin altını çiziyor.

  • 01:45:00 Bu bölümde eğitmen, makine öğrenimindeki en önemli konulardan biri olarak kabul edilen düzenlileştirme konusunu tanıtıyor. Eğitmen, düzenlileştirmenin, bir modelin eğitim setinde çok iyi performans gösterdiği ancak test setinde iyi bir şekilde genelleştiremediği durumlarda ortaya çıkan aşırı uydurmayı azaltmaya yardımcı olduğunu açıklıyor. Düzenlileştirmenin arkasındaki ana fikir, ilgili hiperparametrelerini veya tetalarını sıfıra eşitleyerek daha az önemli olan veya daha az bilgi içeren özellikleri ortadan kaldırmaktır. Eğitmen, düzenlileştirmenin daha az yararlı özellikleri ortadan kaldırmaya nasıl yardımcı olabileceğini göstermek için ev fiyatı tahmini örneğini kullanır.

  • 01:50:00 Videonun bu bölümünde eğitmen, makine öğreniminde özellik ağırlıklandırma ve öğrenme kavramını açıklıyor. Eğitmen, bir ev fiyatı tahmini örneği kullanarak, evin büyüklüğü, vantilatör sayısı, yatak odası sayısı ve klimalar gibi farklı özelliklere, zaman içinde öğrenilebilen ve optimize edilebilen farklı ağırlıkların nasıl verilebileceğini gösterir. Ağırlıklar, maliyet fonksiyonunun kısmi türevine göre parametreler değiştirilerek ayarlanabilir ve bu, sırt regresyonu gibi düzenlileştirme teknikleriyle geliştirilebilir.

  • 01:55:00 Bu bölümde video, makine öğrenimindeki düzenlileştirmeyi, özellikle de ridge ve lasso regresyonunu tartışıyor. Her iki regresyon türü teta değerini cezalandırır, ancak ridge regresyon L2 normunu kullanırken kement regresyon L1 normunu kullanır. Alfa terimi, modelin özellikler üzerinde ne kadar katı olduğunu kontrol eder ve daha yüksek değerler modeli daha katı hale getirir. Her iki tür de önyargı terimi teta 0'ı cezalandırmaz ve kement regresyondaki L1 normu, daha az önemli özelliklerin ağırlıklarını sıfıra yaklaştırarak modeli fazla uydurmaya daha az eğilimli hale getirir.

Bölüm 3

  • 02:00:00 Bu bölümde video, düzenlemede l1 ve l2 normunu ve bunların özel kullanım durumlarını açıklıyor. L1 normu, herhangi bir önemsiz özelliği doğrudan teta sıfır yaptığı için çok katıdır, L2 ise daha esnektir. Video daha sonra her iki normun bir kombinasyonu olan elastik ağdan kısaca bahseder. İleride video, hem sınıflandırma hem de regresyon görevleri için kullanılan denetimli bir öğrenme algoritması olan destek vektör makinesini (SVM) ayrıntılı olarak tanıtıyor. SVM, bir kedi ve kedi olmayan tanıma sisteminde yeni noktaları kedi veya kedi değil olarak sınıflandırırken marjı en üst düzeye çıkarmak için paralel kenar boşlukları olan bir hiper düzlem oluşturur. Video ayrıca SVM ile ilgili gelecek bölümlerde ele alınacak konuları da özetlemektedir.

  • 02:05:00 Bu bölümde eğitmen, destek vektör makinesini (SVM) ve veri noktalarını maksimum marjla ayırmak için iki paralel hiper düzlemi nasıl oluşturduğunu açıklar. SVM, en yakın veri noktasını hiper düzlemden uzakta tutarken bu marjı en üst düzeye çıkarmayı amaçlar. En yakın veri noktaları, verileri ayırmak için paralel hiperdüzlemleri destekleyen destek vektörleri olarak adlandırılır. Eğitmen, kanser tespiti için SVM kullanımına ilişkin bir örnek verir ve sert marj ile yumuşak marj sınıflandırması arasındaki farkı açıklar. Sert marj sınıflandırması, herhangi bir veri noktasının marjı ihlal etmesine izin vermez, bu da fazla sığdırmaya yol açabilir, oysa yumuşak marj sınıflandırması, bazı ihlallerin fazla uydurmayı önlemesine izin verir.

  • 02:10:00 Bu bölümde, SVM'lerde sert marj ve yumuşak marj kavramı tanıtıldı. Sert kenar boşluğu herhangi bir veri noktasının kenar boşluğuna girmesine izin vermezken, yumuşak kenar boşluğu bazı veri noktalarının aşırı sığmayı önlemek için kenar boşluğunu ihlal etmesine izin verir. Kenar boşluğunun genişliği, c parametresiyle ayarlanır, burada çok büyük bir c, kenar boşluğunu çok küçük yapar ve ac 1, kenar boşluğunu çok büyük yapar. SVM'de hiperdüzlemin yapısı da tartışıldı, bu, w devrik x eksi b eşittir z denklemiyle tanımlanır, burada w, ağırlık parametresi vektörüdür ve b, yanlılık terimidir. Kesin marj tahminleri için kısıtlamalar tanımlandı, burada marjın üzerinde veya üstünde herhangi bir şey bir olarak kabul edildi ve altındaki herhangi bir şey sıfır olarak kabul edildi.

  • 02:15:00 Bu bölümde video, Destek Vektör Makinelerinin (SVM) nasıl çalıştığını tartışır ve SVM'nin matematiksel bir açıklamasını sağlar. Hiperdüzlemin marjı 2 bölü w'nin normu olarak yazılır ve bu marjı maksimize etmek için w'nin normunu minimize etmemiz gerekir. SVM, tahminlerde bulunmak için marjı maksimize etmeye çalışır. Video, iki hiperdüzlem arasındaki mesafe olarak ifade edilen ve verilerin gerçek etiketinin 1'den büyük veya ona eşit olmasına bağlı olarak, w'nin normunun ikiye eşit olduğu şeklinde ifade edilen bir amaç fonksiyonu yazabileceğimizi açıklıyor. menteşe kaybı veya yumuşak kenar boşluğu olarak yazılan kayıp işlevi ve basit bir şekilde iyi tahminler elde etmenin nasıl çalıştığını açıklar. Doğrusal DVM kavramı, doğrusal olmayan sınıflandırma hakkında bir tartışmadan önce de ele alınmaktadır.

  • 02:20:00 Bu bölümde, video doğrusal olmayan sınıflandırma kavramını ve doğrusal olmayan spesifikasyona ulaşmada yardımcı olabilecek çekirdek hilesini tartışıyor. Çekirdek hilesi, girdi verilerini x işlevinin phi'sine eşleyerek verileri bir boyutludan daha yüksek boyutlu uzaya dönüştürür. RBF çekirdek işlevi, verileri yüksek boyutlu uzaya dönüştüren ünlü çekirdeklerden biridir. Video ayrıca, zeta adı verilen yeni bir değişkeni tanıtarak amaç işlevini resmileştirmeye yardımcı olan birincil problemden de bahsediyor. Zeta değişkeni, birden n'ye kadar her i üyesi için tanıtılır.

  • 02:25:00 Bu bölümde, konuşmacı menteşe kaybı kavramını ve bunun makine öğrenimi problemleri için bir maliyet fonksiyonunu formüle etmek için nasıl kullanılabileceğini tanıtıyor. Maliyet işlevinin parametrelerini güncellemek için alt gradyan inişinin nasıl kullanılacağını ve birincil sorunun nasıl çalıştığını açıklayarak bunun makine öğrenimine yeni başlayanlar için uygun bir yaklaşım olduğunu vurguluyorlar. Konuşmacı ayrıca bu kavramlar için denklemler sağlayarak ampirik risk minimizasyonu ve destek vektörü regresyonunu tartışır. İzleyicileri herhangi bir soruları varsa yorum yapmaya teşvik ediyorlar ve bir sonraki bölümün uçtan uca bir makine öğrenimi projesi olarak bir hisse senedi fiyatı tahmincisi yapmaya odaklanacağını belirterek bitiriyorlar.

  • 02:30:00 Bu bölümde konuşmacı, Python'un NumPy, Pandas, Matplotlib, Seaborn ve YFinance gibi kitaplıklarını kullanarak bir hisse senedi fiyatı tahmincisinin nasıl oluşturulacağını gösteriyor. Kod, Yahoo Finance'ten veri indirir ve indirilecek hisse senedinin kodunu girmek için bir girdi alır. Veriler otomatik ayarlama ile ayarlanır ve verilerin şekli gösterilir, toplam 1256 eğitim örneği ve beş sütun ortaya çıkar. Konuşmacı, bunun bir hisse senedi fiyatı tahmincisi oluşturmak için başlangıç noktası olduğunu açıklıyor.

  • 02:35:00 Videonun bu bölümünde konuşmacı, hisse senedi fiyatı tahmini için veri keşfi ve analizini araştırıyor. Konuşmacı, verilerin ortalama, standart sapma, maksimum ve minimum gibi istatistiklere bakarak başlar. Hisse senedi fiyatı tahmininin büyük ölçüde doğrusal olmadığı ve yalnızca eğitim amaçlı kullanılması gerektiği konusunda uyarıyorlar. Konuşmacı, doğrusal olmayanlığı ve çıktıyı doğru bir şekilde tahmin etmede buna nasıl güvenilemeyeceğini göstermek için hedef değişkenini "yakın" olarak analiz etmeye devam eder. Konuşmacı daha sonra verilerle nasıl devam edileceği ve özellik mühendisliğinin nasıl uygulanacağı konusunda daha iyi bir fikir edinmek için "aç" ve "kapat" dağılımlarını çizmeye devam eder. Son olarak, konuşmacı sonuçlarını özetleyerek ve veriler hakkında ne anladıklarını özetleyerek bitirir.

  • 02:40:00 Bu bölümde konuşmacı, lineer regresyon, lojistik regresyon, düzenli lineer modeller, destek vektör makineleri ve ana bileşen analizi dahil olmak üzere şimdiye kadar kursta işlenen çeşitli makine öğrenimi algoritmalarını tartışır. Konuşmacı, doğrusal regresyonun genellikle kötü bir algoritma olarak görülmesine rağmen, doğrusal olmayan hisse senedi fiyatlarını tahmin etmek gibi belirli durumlarda güçlü olabileceğini açıklıyor. Verileri eğitim ve test kümelerine ayırmanın önemi vurgulanır ve konuşmacı bunu gerçekleştirmek için train_test_split işlevinin nasıl kullanılacağını gösterir. Doğrusal regresyon algoritması daha sonra başlatılır ve eğitim setinde eğitilir ve test setini tahmin etmek için kullanılır. Öngörülen çıktılar gösterilir ve test setinden elde edilen gerçek çıktılarla karşılaştırılır.

  • 02:45:00 Bu bölümde konuşmacı, doğrusal regresyon modellerinin performansını değerlendirmek için matrislerin hesaplanmasından bahsediyor. Model etkinliğini değerlendirmek için Ortalama Karesel Hata (MSE), Kök Ortalama Karesel Hata (RMSE) ve R2 karesini kullanmayı tartışıyorlar. Konuşmacı, bu matrisleri hesaplamak için yardımcı işlevi sağlar ve bunu doğrusal regresyon modellerinin performansını değerlendirmek için kullanır. MSE ve RMSE'nin neredeyse sıfıra eşit olduğunu buluyorlar, bu da modelin değerleri doğru bir şekilde tahmin ettiği anlamına geliyor. R2 karesi de 1'e yakındır ve bu da iyi bir model uyumunu gösterir.

  • 02:50:00 Bu bölümde, konuşmacı ridge ve lasso gibi düzenli lineer modelleri tartışıyor ve bunların Python'da Scikit-Learn kullanılarak nasıl uygulanabileceğini gösteriyor. Konuşmacı, kementin daha az önemli özellikleri ortadan kaldırdığını, sırtın ise onları cezalandırdığını açıklıyor. Konuşmacıya göre sırt modeli, fazla uydurmaya daha az eğilimli olduğundan, bir modeli kaydetmek ve bir web sitesi oluşturmak için onu daha iyi bir seçim haline getiriyor. Konuşmacı ayrıca destek vektör regresyonunu tartışır ve farklı değerleri kontrol etmek ve en iyi modeli seçmek için grid arama CV kullanılarak nasıl ince ayar yapılabileceğini gösterir.

  • 02:55:00 Bu bölümde video, düzenlileştirilmiş doğrusal modellerin makine öğrenimi için kullanımını ve bunların önceki yöntemden nasıl daha güçlü olduğunu tartışıyor. Sunum yapan kişi, joblib kullanılarak bir modelin nasıl içe aktarılacağı ve kaydedileceği ve kaydedilen modelin ileride kullanmak üzere nasıl yükleneceği ile ilgili örnekleri inceler. Video ayrıca, Flask kullanarak basit bir uygulama oluşturmayı ve bir HTML dosyasından şablon oluşturmayı da ele alıyor. Bir index.html dosyasının nasıl oluşturulacağı ve bunun bir uygulama rotasında nasıl oluşturulacağı hakkında bir tanıtım sağlanmıştır.

4. Bölüm

  • 03:00:00 Videonun bu bölümünde, konuşmacı uçtan uca bir makine öğrenimi projesi için Flask kullanılarak bir sunucunun ve web sitesinin nasıl kurulacağını gösteriyor. Verileri girmek için bir formun nasıl kullanılacağını, ön işlemenin nasıl yapılacağını, yüklü bir model kullanarak tahminlerin nasıl yapılacağını ve tahminin layout.html şablonundan türetilen bir tahmin.html şablonuna nasıl döndürüleceğini açıklarlar. Konuşmacı ayrıca, kullanıcıları modeli daha güçlü hale getirmek için veri özelliklerini değiştirmeye teşvik eder, ancak modeli çok karmaşık hale getirmeye karşı uyarır. Çoklu doğrusal verilerle uğraşırken doğrusal regresyonun sınırlamalarını anlamanın önemini vurgulayarak sonuca varırlar.

  • 03:05:00 "Yeni Başlayanlar İçin Makine Öğrenimi Kursu" adlı YouTube videosunun bu bölümünde eğitmen, temel bileşen analizi (PCA) kullanılarak verilerdeki çoklu bağlantının nasıl kaldırılacağını açıklıyor. İlişkili değişkenler, makine öğrenimi modellerinde sorunlu olabilir, ancak PCA, bu sorunu etkili bir şekilde ele alabilen bir boyutluluk azaltma algoritmasıdır. PCA'yı öğrenmeye hazırlanmak için eğitmen, boyutluluk azaltma kavramını anlamak için bir temel sağlayan doğrusal dönüşümleri ve özvektörleri/özdeğerleri kısaca gözden geçirir. Eğitmen, lineer cebire daha derinlemesine dalmak isteyenler için bir YouTube kanalı önerir, ancak PCA'yı anlamak için bu materyalin gerekli olmadığını vurgular.

  • 03:10:00 Bu bölümde eğitmen doğrusal dönüşümü, özvektörleri, özdeğerleri ve bunların temel bileşenler analizindeki (PCA) önemini açıklar. Doğrusal dönüşüm, her vektör uzayında doğrusal bir yapıyı korurken bir vektör uzayını diğerine dönüştüren bir fonksiyondur. Özvektörler ve özdeğerler, sırasıyla yeni bir dönüştürülmüş vektörü ve ölçeklendiği faktörü temsil eder. Eğitmen ayrıca, özellikle büyük veri kümelerinde boyut azaltma ihtiyacını ve PCA'nın büyük özellik kümelerini daha küçük olanlara dönüştürmek için nasıl kullanıldığını tartışır. Genel olarak, bu kavramları anlamak, gerçek dünya senaryolarında metin ve resim verileri üzerinde çalışmak için çok önemlidir.

  • 03:15:00 Bu bölümde, konuşmacı mümkün olduğu kadar çok bilgiyi korurken bir veri kümesinin boyutlarını azaltmak olan Temel Bileşen Analizi'nin (PCA) arkasındaki temel sezgiyi açıklıyor. PCA'nın, ilk değişkenlerin doğrusal bir kombinasyonu olan yeni değişkenleri veya temel bileşenleri nasıl oluşturduğunu açıklar. Bu bileşenler ilintisizdir ve bilgilerin çoğu ilk bileşenlere sıkıştırılmıştır. Konuşmacı ayrıca ana bileşenler üzerindeki veri projeksiyonunun görselleştirilmesinin üzerinden geçer ve algoritmanın bileşenlerin ilintisiz olmasını sağlaması gerektiğini vurgular.

  • 03:20:00 Bu bölümde, temel bileşen analizi (PCA) ile ilgili olarak veri ön işlemenin önemi tartışılmaktadır. PCA'daki ilk adım, verilerin aynı aralık içinde kalmasını sağlamak için standart hale getirmektir; bu, PCA'nın aykırı değerlere duyarlı olması nedeniyle kritiktir. Veriler standardize edildikten sonra, girdi değişkenlerinin birbirine göre nasıl değiştiğini anlamak için verilerin kovaryans matrisi hesaplanır. Yüksek düzeyde ilişkili değişkenler gereksiz bilgiler içerebilir ve kaldırılabilir. Son olarak, verilerin daha düşük boyutlu bir uzaya dönüştürülmesinde önemli faktörler olan kovaryans matrisinin öz vektörleri ve özdeğerleri hesaplanır.

  • 03:25:00 Bu bölümde eğitmen, Python'da özvektörleri ve özdeğerleri orijinal bir vektörden vektörleri dönüştürmek için hesaplama sürecini ve bunun özdeğer olarak adlandırılan esnediği faktörü açıklar. Özvektörler matrisinin ve özdeğerler matrisinin sütunları azalan düzende sıralanır ve her bir özvektörün kümülatif enerji içeriği hesaplanır. Daha sonra, en yüksek enerji içeriğine sahip özvektörlerin bir alt kümesi temel vektörler olarak seçilir. Son olarak, veriler yeni temel üzerine yansıtılır. Eğitmen, öğrenme teorisi, yanlılık ve varyans değiş tokuşu, yaklaşıklık ve tahmin hatası gibi sonraki bölümlerde ele alınacak konuların ana hatlarını çizerek öğreticiyi sonlandırır.

  • 03:30:00 Bu bölümde eğitmen, ampirik risk minimizasyonu kavramını ve makine öğrenimindeki yanlılık ve varyans dengelerini anlamanın önemini tartışıyor. Eğitmen, yanlılık ve varyansın anlaşılması kolay kavramlar gibi görünse de, gerçek dünyaya ait ürünler geliştirirken uygulamada ustalaşmanın zor olduğunu vurgular. Eğitmen ayrıca, bir modelin düşük miktarda özellik veya veri nedeniyle bir eğitim setinde iyi performans göstermemesi durumunda ortaya çıkan yetersiz uyumu da açıklar. Eğitmen, daha fazla özellik oluşturmak ve modelin performansını iyileştirmek için özellik mühendisliği önerir.

  • 03:35:00 Videonun bu bölümünde underfitting, good fit ve overfitting gibi farklı regresyon modelleri anlatılmaktadır. Aşırı uyum, modelin çok karmaşık olması veya çok fazla özelliğe sahip olması nedeniyle bir modelin eğitim setinde iyi performans göstermesi, ancak test setinde kötü performans göstermesi durumunda gerçekleşir. Önemli özellikler seçilerek veya düzenlileştirme kullanılarak önlenebilir. Eğitim setinde düşük hata veren ancak doğrulama setinde yüksek hata veren bir modelin yüksek varyansı gösterdiği ve topluluk öğrenme yöntemlerinde bunu azaltmak için torbalamanın kullanıldığı önyargı ve varyans takası da tartışılmaktadır.

  • 03:40:00 Bu bölümde eğitmen, bir modelin yüksek yanlılığa mı yoksa yüksek varyansa mı sahip olduğunu nasıl belirleyeceğini açıklar. Model yüksek varyansa sahipse, eğitim seti %15 hata oranına, değerlendirme seti ise %16 hata oranına sahip olabilir. Öte yandan, yüksek yanlılığa sahipse, değerlendirmede %30 hata oranına sahip olabilir. Eğitmen ayrıca yaklaşık tahmin hatası kavramını, tam değer ile modelin çıktısı olan yaklaşık değer arasındaki farkı açıklar. Son olarak, bir sınıflandırma modeli oluştururken temel hatanın veya insan düzeyindeki performansın yaklaşık yüzde sıfır olduğu varsayımından bahsederler.

  • 03:45:00 Bu bölümde video, bir hedef işlev tarafından atanan etiketlerle geniş bir dağıtımdan eğitim seti örneği alan bir algoritma olan ampirik risk minimizasyonu kavramını tanıtıyor. Amaç, bilinmeyen dağılıma göre hatayı en aza indirmektir, böylece model daha önce görmediği yeni örnekleri en az hatayla tahmin edebilir. Video, çıktı öngörücünün eğitim setinden öğrenilen ağırlıklara bağlı olduğunu ve amacın ampirik risk minimizasyonu adı verilen hatayı veya riski en aza indirmek olduğunu vurgular. Video, izleyicileri yorum kutusunda herhangi bir soru sormaya ve kurs için web sitesine göz atmaya davet ediyor.

  • 03:50:00 Bu bölümde eğitmen, soruları sorarak verileri bölmenin yaygın bir yolu olan makine öğrenimindeki iç içe if-else ifadeleri kavramını tartışıyor. Dört özellik ve çiçeğin türünü gösteren bir etiket içeren İris veri kümesi örneğini kullanırlar. Görev, çiçek türlerini dört özelliğe göre tespit etmek ve onu ikili bir sınıflandırma veri seti haline getirmektir. Eğitmen, verileri özelliklere göre bölmek ve etiketi belirlemek için if-else ifadelerini kullanarak basit bir sınıflandırıcının nasıl oluşturulacağını açıklar.

  • 03:55:00 Videonun bu bölümünde, eğitmen iki özelliği kullanarak basit bir karar ağacının nasıl oluşturulacağını açıklıyor: taç yaprağı uzunluğu ve sepal uzunluğu. Karar ağacı, çeşitli koşulları tanımlamak ve hedef değişkenleri sınıflandırmak için if-else ifadelerini ve iç içe geçmiş döngüleri kullanır. Eğitmen ayrıca kök düğümler, üst düğümler ve alt düğümler gibi karar ağaçlarının terminolojisini açıklar.

Bölüm 5

  • 04:00:00 Videonun bu bölümünde eğitmen, terminal veya yaprak düğümleri ve dalları gibi karar ağaçlarının temel terminolojisini açıklar. Ayrıca, verinin bölünmesini ve ağaçtaki belirli düğümlerin ortadan kaldırılması olan budama düğümlerini de tartışırlar. Eğitmen, karar ağaçlarının daha iyi anlaşılması için not almanın ve terminolojiyi anlamanın önemini vurgular. Daha sonra karar ağaçlarında karar sınırlarının veya hiper düzlemlerin nasıl göründüğünü ve bunların her bir sonuç için nasıl inşa edildiğini açıklamaya geçerler. Eğitmen, örnek için seçilen iki özelliğe dayalı olarak hiperdüzlemleri çizer ve sonuca bağlı olarak bunların nasıl inşa edildiğini gösterir.

  • 04:05:00 Bu bölümde, eğitmen karar ağaçlarının entropi, bilgi kazancı ve gini safsızlığı gibi öznitelik seçim ölçütleri kullanılarak nasıl oluşturulduğunu açıklar. Bu önlemler, hangi özelliğin kök düğüm olması gerektiğini veya veri kümesinin nasıl bölüneceğini belirlemeye yardımcı olur. Eğitmen, kötü bir modelle sonuçlanmamak için doğru özelliği seçmenin önemini vurgular. Entropi, entropi ne kadar yüksekse, ondan bilgi çekmenin o kadar zor olduğu bir rastgelelik ölçüsü olarak tanımlanır. Eğitmen, karar ağaçlarının oluşturulmasındaki öneminin anlaşılmasına yardımcı olmak için entropinin örneklerini ve özelliklerini sağlar.

  • 04:10:00 Videonun bu bölümünde, eğitmen her bir sınıfın olasılığını ve olasılığın logaritmasını içeren bir formül kullanarak rastgeleliğin bir ölçüsü olan entropinin nasıl hesaplanacağını açıklıyor. Eğitmen golf oynamak için bir veri seti örneğini kullanır ve formülün nasıl çalıştığını göstermek için "evet" ve "hayır" sınıflarının entropisini hesaplar. Eğitmen ayrıca iki sınıflı ikili sınıflandırıcılar dahil olmak üzere entropinin farklı özelliklerini ve bir makine öğrenimi modelinin doğruluğunu artırmak için entropiyi en aza indirmenin önemini tartışır.

  • 04:15:00 Bu bölümde eğitmen, bir özelliğin bir karar ağacı için bölünmesi gerekip gerekmediğini belirleyen rastgelelik ölçüsü olan entropi kavramını açıklar. Entropi, verilerdeki benzersiz değerlerin sayısına göre hesaplanır ve amaç, daha iyi karar ağacı sonuçları elde etmek için entropiyi en aza indirmektir. Eğitmen, farklı senaryolardan örnekler verir ve bir özniteliğin yaprak düğüm haline geldiğini veya daha fazla bölmeye ihtiyaç duyduğunu anlamak için her biri için entropinin nasıl hesaplanacağını gösterir. Maksimum entropi 1'dir ve minimum entropi 0'dır ve farklı karar ağacı algoritmaları, bir özelliğin ne zaman bir yaprak olarak kabul edileceğine veya entropi değerine göre daha fazla bölüneceğine ilişkin belirli kurallara uyar.

  • 04:20:00 Bu bölümde sunum yapan kişi, bir rastgelelik ölçüsü olarak entropi kavramını ve entropi diyagramını açıklamaktadır. En yüksek entropi değeri birdir ve belirli bir denklem kullanılarak hesaplanabilir. Bilgi kazanımına geçerek, sunum yapan kişi bunu başka bir özellik seçim ölçüsü olarak tanıtır ve bunu açıklamak için kullanılan bir veri kümesi örneği sağlar. Veri kümesi, etiket sayısına göre daha küçük alt kümelere bölünür ve her alt küme için entropi hesaplanır. Bu, bir sonraki bölümde daha ayrıntılı olarak incelenecek olan bilgi kazanımının bir ön açıklamasıdır.

  • 04:25:00 bölümünde entropi kullanılarak karar ağaçlarında bilgi kazancının nasıl hesaplanacağı açıklanmaktadır. Süreç, tüm veri dağılımının entropisini almayı ve ardından verileri bölmeden önce ve sonra entropiyi almayı içerir. Bilgi kazanma formülü, bölmeden önceki entropinin, bölmeden sonraki ağırlıklı entropiden çıkarılmasını içerir. Bu videoda kullanılan örnek, entropinin ve ağırlıklı entropinin her bölüm için nasıl hesaplandığını ve ardından tüm veri kümesinin ağırlıklı entropisini elde etmek için ortalamasının nasıl alındığını gösterir. Son olarak, bilgi kazancını belirlemek için bölmeden önceki entropi, bölmeden sonraki entropiden çıkarılır.

  • 04:30:00 Gini safsızlığı, entropi hesaplamasına çok benzer, ancak logaritma kullanmak yerine olasılıkların karesini alır. Veri setini birden çok kategoriye ayırdıktan sonra, ağırlıklı Gini safsızlığını hesaplar ve ardından bilgi kazancını elde etmek için önceki Gini safsızlığından çıkarırsınız. Bu, makine öğreniminde popüler ve yaygın olarak kullanılan bir yöntemdir. Bir karar ağacı modeli oluştururken Gini safsızlığının yanı sıra entropi ve bilgi kazancını anlamak önemlidir.

  • 04:35:00 Bu bölümde eğitmen, bir karar ağacındaki başka bir safsızlık ölçüsü olarak Gini safsızlığı kavramını açıklar. Gini safsızlığı, y eşittir 1 eksi i eşittir 1'in k'ye kadar olan belirli bir safsızlığı için verilen bir işarettir. Eğitmen, Gini kirliliği senaryosunu, 0,5'in evet sayısının olasılığı ve hayır sayısının 0,5 olduğu benzersiz bir evet veya hayır kategori değerine sahip olma örneğiyle açıklar. Entropide log fonksiyonunun kullanılmasını engellediği için daha hızlı olduğu için çoğunlukla entropiye alternatif olarak kullanılan Gini safsızlığında 0,5'lik kazanç safsızlığı maksimumdur. Son olarak, eğitmen entropi ve Gini safsızlığının diyagramını gösterir ve bir sonraki bölümde bir regresyon görevi gerçekleştirmek için bir karar ağacı sınıflandırıcısının nasıl kullanılacağını göstermeyi vaat eder.

  • 04:40:00 Videonun bu bölümünde eğitmen, bilgi kazancını belirlemek için verileri bölmeden önce entropinin nasıl hesaplanacağını açıklıyor. Veri dağılımının entropisini alırlar ve görünüm değişkenine göre bilgi kazancını hesaplarlar. Daha sonra verileri bu değişkene göre bölerler ve ağırlıklı entropiyi ve sıcaklık, nem ve rüzgarlı değişkenler için bilgi kazancını hesaplamaya devam ederler. Sonuçta, görünümdeki bilgi kazancının en yüksek olduğu bulundu, bu nedenle karar ağacı için kök düğüm olarak seçildi.

  • 04:45:00 karar ağacı ve hem sınıflandırma hem de regresyon problemlerinde nasıl kullanılabileceği. Sınıflandırmada, her düğümde karar vermek için entropi ve Gini katsayısı gibi safsızlık ölçülerinin hesaplanmasına dayalı olarak karar ağaçları oluşturulur. Amaç, ağacı mümkün olduğu kadar saf hale getirmek veya saf hale geldiği bir noktaya ulaşana kadar yapmaktır. Regresyonda karar ağaçları, bir yaprak düğüme ulaşana kadar her bir bölme noktasındaki hedef değerin ortalaması alınarak oluşturulur. Aşırı uyum, karar ağaçlarında bir sorun olabilir, bu nedenle ağacın büyümesini belirli bir derinlikte durdurmak veya daha sağlam hale getirmek için bazı dalları budamak önemlidir.

  • 04:50:00 Bu bölümde eğitmen, karar ağaçlarıyla çalışırken nitelik seçim ölçülerini anlamanın önemli olduğunu açıklıyor. Örnekler sağlarlar ve karar ağacı regresyonu ve yerleşik sınıflandırıcı için uygulamayı açıklarlar. Eğitmen, uygulamadan öğrenmenin önemini vurgular ve maksimum ağaç derinliği, minimum örnek bölünmesi, minimum örnek yaprağı ve rastgele durum kontrolü gibi hiperparametreleri açıklar. Ayrıca, bir karar ağacı çizmek için grafik aracını kullanmanın bir örneğini de gösterirler.

  • 04:55:00 Bu bölümde video, karar ağacı regresyonunu ve ortalama karesel hata, ortalama mutlak hata ve zehir dahil ölçüm fonksiyonu kriterlerini tartışıyor. Video, aşırı uydurmayı kontrol etmede hiperparametrelerin, özellikle maksimum adımın önemini vurguluyor. Karar ağaçlarının örnekleri ve çizim gibi yöntemleri de sergileniyor ve video, makine öğreniminde çok önemli bir kavram olarak karar ağaçlarını anlamanın önemini vurguluyor. Bir sonraki bölüm, toplu öğrenmeyi ve onun üç tekniğini tartışıyor: Kaggle yarışmalarında yaygın olarak kullanılan torbalama, artırma ve istifleme.
Machine Learning Course for Beginners
Machine Learning Course for Beginners
  • 2021.08.30
  • www.youtube.com
Learn the theory and practical application of machine learning concepts in this comprehensive course for beginners.🔗 Learning resources: https://github.com/...
 

Yeni Başlayanlar İçin Makine Öğrenimi Kursu (6-10. Bölümler)


Yeni Başlayanlar İçin Makine Öğrenimi Kursu

6. Bölüm
  • 05:00:00 Bu bölümde eğitmen, fazla uydurma ve yetersiz uydurmanın meydana gelebileceği yüksek varyans ve yüksek yanlılık modelleri kavramını tartışır. Makine öğrenimindeki amaç, optimum doğruluk elde etmek için düşük sapma ve düşük varyans modeline sahip olmaktır. Eğitmen, birden fazla modelin veriler üzerinde eğitildiği ve oylanmak üzere her modelden tahminlerin alındığı ve nihayetinde doğru cevabın veya tahminin belirlendiği toplu öğrenme örnekleri verir. Çoğunluk, toplu öğrenmede genellikle bir bireyin yanıtından daha doğrudur ve eğitmen, kısa sınav soruları ve seçim oylaması gibi örnekler kullanarak kavramı açıklar.

  • 05:05:00 Bu bölümde eğitmen, topluluk halinde öğrenmeye ve bunun sınıflandırma ve regresyon problemlerinde nasıl kullanılabileceğine genel bir bakış sağlar. Sınıflandırmada oyların çoğunluğu dikkate alınırken, regresyonda nihai tahmin için temel modellerden elde edilen çıktıların ortalaması veya medyanı kullanılır. Toplu öğrenmede kullanılan teknikler arasında torbalama, artırma, istifleme ve basamaklandırma bulunur ve Kaggle yarışmasını kazananların çoğu, bir tür topluluk öğrenme teknikleri kullanır. Ayrıca eğitmen, Amazon ve Google gibi şirketlerin XGBoost ve random forest gibi bu algoritmaları kendi ürünlerinde kullandıklarına dikkat çekmektedir.

  • 05:10:00 bölümü, önyükleme toplaması olarak da bilinen bir topluluk öğrenme tekniği olan torbalamanın temellerini tartışıyor. Paketleme, eğitim verilerinin alt kümelerini ve her bir alt kümedeki eğitim modellerini rastgele örneklemeyi içerir. Buradaki fikir, birden çok modelden oluşan bir topluluk kullanarak fazla uydurmayı azaltmak ve modelin doğruluğunu artırmaktır. Bu bölümde, verilerin nasıl örnekleneceği, model alt kümelerinin nasıl eğitileceği ve daha iyi doğruluk için tahminlerin nasıl birleştirileceği dahil olmak üzere, torbalamanın nasıl çalıştığı açıklanmaktadır.

  • 05:15:00 Bu bölümde konuşmacı, makine öğrenimi modellerinin doğruluğunu geliştirmeye yönelik bir teknik olan torbalama kavramını açıklıyor. Torbalama, verilerin değiştirilerek örnek alınmasını ve ardından her örnek üzerinde modellerin eğitilmesini içerir. Bireysel modeller daha sonra daha doğru tahminler üreten toplu bir model oluşturmak için birleştirilir. Konuşmacı, torbalamanın ileri düzeyde matematik içermeyen kavramsal olarak basit bir teknik olduğunu belirtiyor.

  • 05:20:00 Bu bölümde konuşmacı, yüksek varyans ve düşük yanlılık tabanlı modellerin varyansını azaltmaya yardımcı olan torbalamayı tartışıyor. Torbalama, daha büyük, düşük varyanslı ve düşük sapmalı bir model oluşturmak için bu modelleri birleştirir. Satır örneklemesi, verilerin büyük dağılımından yalnızca satırların örneklenmesini içeren verileri örneklerken kullanılır. Hem satır hem de sütun örneklemesini kullanan rastgele ormanın aksine, torbalamada yalnızca satır örneklemesinin kullanıldığını not etmek önemlidir. Torbalama ayrıca, önyüklemeyi ve temel modelleri toplamayı içeren önyükleme toplaması olarak da bilinir.

  • 05:25:00 Bu bölümde eğitmen, yüksek varyanslı ve düşük sapmalı modellerde varyansı azaltmanın bir yolu olan torbalama tekniğini özetler. Torbalama, eğitim için verilerin alt kümelerini almayı ve sınıflandırma için oyların çoğunluğunu birleştirmeyi içerir. Eğitmen bunun için güçlü bir algoritmanın, karar ağaçları, torbalama ve sütun örneklemenin bir kombinasyonu olan rastgele orman olduğuna inanıyor. Karar ağaçları basit kararlar verir ve düğümleri ayırır, torbalama ise eğitim için verilerin alt kümelerini almayı içerir. Sütunların alt kümelerini alarak sütun örneklemesi veya özellik torbası da kullanılır. Eğitmen, rastgele ormanların güçlü olduğunu ve Google, Quora ve Amazon gibi büyük şirketlerin bunları kullandığını iddia ediyor.

  • 05:30:00 Bu bölümde makine öğrenimi eğitmeni, torbalama ve rastgele orman kavramını açıklıyor. Torbalama, değiştirme ile satırları örneklemeyi ve alt kümede bir karar ağacı eğitmeyi içerirken rastgele orman, karışıma sütunların örneklemesini ekler. Bu, hem satırların hem de sütunların örneklendiği anlamına gelir; bu da topluluk öğrenme tekniği nedeniyle iyi performans gösteren bir model için daha yüksek bir şans yaratır. Eğitmen ayrıca örneklemeden sonra dışarıda bırakılan noktalar olan ve çapraz doğrulama için kullanılabilecek çanta dışı (oob) noktaları kavramından da bahseder. Son olarak eğitmen, torbalama ve rastgele orman arasındaki temel farkları özetler.

  • 05:35:00 Bu bölümde video, makine öğrenimindeki torbalama ve rastgele orman tekniklerini tartışıyor. Torbalama, varyansı azaltan daha büyük bir modele yol açan satır örneklemesini içerir. Rastgele orman aynıdır, ancak temel modeller olarak sütun örneklemesi ve karar ağaçları vardır. Karar ağaçlarındaki tren karmaşıklığı n log m çarpı n çarpı d mertebesindeyken rastgele ormanlarda d çarpı k çarpı n'dir. Video aynı zamanda rastgele ormanların önemsiz bir şekilde nasıl paralelleştirildiğini ve bu sayede eğitilmelerini kolaylaştırdığını tartışıyor. Son olarak, karar ağaçlarında eşiği belirlemek için olası değerleri deneyen aşırı derecede rastgele ağaçlar kavramı tanıtılır.

  • 05:40:00 Bu bölümde konuşmacı, Rastgele Ormandaki olası her değeri denemeye yönelik hesaplama açısından pahalı yönteme bir alternatif olarak Son Derece Rastgele Ağaç kavramını tartışıyor. Sütunların ve satırların bir alt kümesini örnekleyerek varyans azalır, ancak Rastgele Ormana kıyasla iyi sonuçlar alma şansı daha düşüktür. Konuşmacı ayrıca, zaman karmaşıklığı nedeniyle büyük veri kümelerinde Rastgele Orman kullanmanın dezavantajlarından bahseder, ancak onu denemeyi ve ızgara aramayı kullanarak hiperparametreleri ayarlamayı önerir. Daha sonra Rastgele Ormanı uygulamak için scikit-learn API'sini tanıtıyorlar ve hiperparametrelerin ince ayarını yapmak için bir projeden bahsediyorlar.

  • 05:45:00 Bu bölümde, rastgele orman sınıflandırıcısı, parametreleri ve öznitelikleri ile tartışılmaktadır. İlk parametre, kullanılan karar ağaçlarının sayısı olan n_estimators'dır. Nitelik seçim kriterleri ve ağacın maksimum derinliği, bölmek için gereken minimum örnek ve maksimum özellik sayısı gibi diğer parametrelerle birlikte açıklanır. Model için önemli özellikleri seçmek amacıyla özellik öneminin kullanımından da bahsedilmektedir. Rastgele orman regresörü, sınıflandırıcıya olan benzerlikleri ile de kısaca ele alınmıştır.

  • 05:50:00 Videonun bu bölümünde, eğitmen topluluk tekniklerini, özellikle Boosting'i tartışıyor. Boosting, bir başka popüler toplu öğrenme tekniğidir ve eğitmen, Gradient Boosting, Adaptive Boosting veya AdaBoost ve Extreme Boosting veya XGBoost hakkında genel bir bakış sunar. Eğitmen ayrıca GitHub'da izleyicilerin deneyebileceği bir problem setinin bulunduğundan bahseder ve izleyicileri daha fazla ücretsiz içerik oluşturulmasını desteklemek için YouTube kanalına abone olmaya teşvik eder.

  • 05:55:00 Bu bölümde video, makine öğreniminde torbalama ve artırma konularını ele alıyor. Torbalama, sütun ve satır örneklemesi ve ardından toplama işlemi yaparak modellerdeki yüksek varyansı azaltmak için kullanılır. Öte yandan güçlendirme, zayıf öğrenicileri güçlü bir modelde birleştirerek modellerdeki yanlılığı azaltmak için kullanılır. Güçlendirmeyi kullanmanın temel fikri, oldukça önyargılı bir modelde önyargıyı azaltmaktır. Video, bir eğitim verisi örneği kullanarak güçlendirmeye ilişkin temel bir sezgi sağlar.

7. Bölüm

  • 06:00:00 Bu bölümde, konuşmacı boost'un arkasındaki ana fikri ve hatayı en aza indirmek için nasıl çalıştığını açıklıyor. Boosting, her örnek için bir etiketle eğitim verileri (x ve y) üzerinde bir model eğitmeyi içeren denetimli bir öğrenme tekniğidir. Model daha sonra her bir girdi için çıktıyı tahmin etmek için kullanılır ve kaybı hesaplamak için tahmin edilen ve gerçek doğruluk değeri arasındaki fark ölçülür. Model, yanlış sınıflandırılmış veya yüksek bir MSE veya MAE'ye sahip verilere odaklanarak artık hatayı azaltmak için eğitilmiştir. Arttırma, kalan hatalar üzerine birden fazla model yerleştirmeyi içerir ve her eğitim örneği için buna uydurarak hatayı en aza indirir. Nihai model, tüm bu modellerin alfa ile ağırlıklandırılmış toplamıdır.

  • 06:05:00 Bu bölümde, makine öğrenimi modellerinde yanlılığı azaltmak için bir teknik olan boosting kavramı açıklanmaktadır. Güçlendirme, önceki modellerden kalan hataları uydurarak zayıf öğrenicileri güçlü öğrenicilere dönüştürür, bu da eğitim setinde iyi performans gösteren düşük yanlılık ve düşük varyanslı bir modelle sonuçlanır. Bununla birlikte, model eğitim setinde çok iyiyse, aşırı uyum riski vardır. Gradyan artırma, uyarlamalı artırma ve aşırı artırma gibi çeşitli güçlendirme teknikleri tartışılmaktadır. Ek olarak, model performansını iyileştirmek için başka bir teknik olan torbalamanın arkasındaki fikirden kısaca bahsedilir.

  • 06:10:00 Bu bölümde eğitmen, zayıf öğrenicileri güçlü öğrenicilere dönüştüren bir hızlandırma algoritması olan gradyan artırma kavramını açıklar. Gradient boosting, büyük teknoloji ve üretim şirketleri tarafından kullanılan güçlü bir algoritmadır. Bir eğitim seti altında hatayı iyileştirmek için türevlerin alınmasına izin veren türevlenebilir bir maliyet fonksiyonudur. Eğitmen, gradyan artırmanın gerçek dünya örneklerini sunar ve türevlenebilir maliyet fonksiyonlarını ve bunların algoritmadaki önemini tartışır. Tartışma, eğitim verilerinin kullanımını ve gradyan inişinde bir maliyet işlevini içerir ve bu da onu makine öğreniminde yararlı bir araç haline getirir.

  • 06:15:00 Bu bölümde, konuşmacı boost kullanarak bir modeli eğitmek için algoritmayı açıklıyor. Algoritma, modeli sabit bir değerle başlatmayı, artıkları veya sözde artıkları hesaplamayı, modele göre maliyet fonksiyonunun kısmi türevini almayı, temel öğrenicileri önceki modellerden artıklara uydurmayı ve ardından her bir modeli tekrarlamayı içerir. sözde artıkları hesaplayın ve temel öğrenicilere uydurun. Amaç, maliyet fonksiyonunu en aza indiren ve modelin doğruluğunu artıran lambda değerini bulmaktır.

  • 06:20:00 Bu bölümde, konuşmacı, modeli bir sabitle başlatarak ve ardından her eğitim örneği için artıkları çıkarmak üzere bir for döngüsü uygulayarak başlayan gradyan artırma algoritmasının sürecini açıklıyor. Model daha sonra temel öğreniciyi artıklara uydurur ve her model için çarpan lambda m'yi hesaplar. Modeli güncellemek için önceki model önceki kalıntılara uydurulur ve önceki model ile tek boyutlu optimizasyon probleminin çözülmesinden sonra elde edilen yeni model toplanarak son model elde edilir. Konuşmacı ayrıca düzenlileştirme ve büzülme kavramlarını ve yüksek yanlılık nedeniyle artırmada neden gerekli olduklarını da kapsar.

  • 06:25:00 Bu bölümde video, makine öğrenimi modellerinde yüksek yanlılığı azaltmak için güçlendirmenin nasıl kullanılabileceğini tartışıyor. Arttırma, her yineleme sırasında önceki model kalıntılarının uydurulmasını içerir, bu da fazla uydurmaya ve varyansta artışa neden olabilir. Bu sorunu önlemek için, v adı verilen öğrenilebilir bir parametre kullanılarak düzenlileştirme ve büzülme eklenebilir. Ampirik olarak, v'nin 0,1'e eşit bir değerinin dramatik iyileştirmelerle sonuçlandığı bulunmuştur. Video ayrıca, gradyan artırma karar ağaçlarının zaman karmaşıklığını ve scikit-learn API aracılığıyla gradyan artırmanın uygulanmasını da kapsar.

  • 06:30:00 Bu bölümde, konuşmacı Scikit-learn API kullanarak Gradient Boosting Classifier'ın uygulanmasını tartışıyor. Kayıp, öğrenme oranı, tahminci sayısı ve daha fazlası gibi ilgili farklı parametreleri açıklarlar. Öğrenme oranı, aşırı varyansı azaltmak ve aşırı uydurmayı önlemek için kullanılır. Gradient Boosting Classifier'ın uygulanması yalnızca bir kod satırıdır ve tahmin olasılığı, verilerin belirli bir sınıf için doğru olma olasılığını verir. Konuşmacı ayrıca Gradient Boosting Regresör uygulamasını kısaca tartışır ve belgelemeden öğrenmenin önemini vurgular.

  • 06:35:00 "Yeni Başlayanlar İçin Makine Öğrenimi Kursu" videosunun bu bölümünde, eğitmen AdaBoost sınıflandırıcısını ve bunun Cython API kullanılarak uygulanmasını ve Extreme Gradient Boosting (XGBoost) algoritmasını tartışıyor. Eğitmen, XGBoost'un Gradient Boosting'in gelişmiş bir sürümü olduğunu, satır ve sütun örnekleme yoluyla rastgelelik ekleyerek onu makine öğrenimi sorunları için güçlü bir araç haline getirdiğini açıklıyor. Bu bölüm ayrıca XGBoost'ta kullanılan farklı parametreleri ve bunların modele ince ayar yapılmasındaki önemini de kapsar.

  • 06:40:00 Bu bölümde konuşmacı, Gradient Boosting Tree, GB Linear ve DART gibi makine öğrenimi algoritmaları için farklı paketlerden bahsediyor. Değerlendirme matrisi ve düzenleme dahil olmak üzere ayarlanabilecek farklı parametreleri ve bunların modeli nasıl etkilediğini tartışırlar. Konuşmacı ayrıca XGBoost'tan bahseder ve Python'da nasıl kullanıldığını gösterir. Modelde ince ayar yapmanın önemini ve bunun nasıl daha iyi doğruluğa yol açabileceğini vurguluyorlar. Son olarak, konuşmacı istifleme kavramını ve modellerin doğruluğunu artırmaya nasıl yardımcı olabileceğini tanıtıyor.

  • 06:45:00 Bu bölümde, eğitmen istifleme kavramını ve bunun torbalama ve boosting'ten nasıl farklı olduğunu tanıtıyor. İstifleme, son derece uyumlu ve iyi bir önyargı ve varyans değiş tokuşuna sahip farklı temel öğrenicileri almayı ve farklı modeller oluşturmak için onları farklı veri altkümeleri üzerinde eğitmeyi içerir. Bu, yüksek varyans ve düşük yanlılığa sahip temel öğrenicileri kullanarak yüksek varyansı azaltmak için kullanılan torbalamadan ve temel modellerin yüksek düzeyde ayarlanmış olması gerekmeyen güçlendirmeden farklıdır. Eğitmen, lojistik regresyon, destek vektör makineleri ve k-en yakın komşular gibi, iyi bir sapma-varyans değiş tokuşu ile iyi modeller üretmek için kapsamlı ince ayardan geçen farklı temel modellerle istifleme örneği sağlar.

  • 06:50:00 Bu bölümde, konuşmacı bir grup öğrenme türü olan istiflemenin arkasındaki temel sezgiyi açıklıyor. İstifleme, eğitim verilerinin alt kümelere bölünmesini ve her alt kümede farklı sınıflandırıcıların eğitilmesini içerir. Bu temel öğreniciler, önyargı ve varyansı dengelemede iyidir. Yüksek varyansa ve düşük sapmaya sahip torbalamanın ve yüksek sapmaya ve düşük varyansa sahip olan boosting'in aksine. Her modelden tahminler elde edildikten sonra, tahmin edilen sınıf etiketleri veya olasılıkları üzerinde bir meta sınıflandırıcı eğitilir. Fikir, daha doğru ve sağlam bir sınıflandırıcı oluşturmak için bu topluluk modellerinin tahminlerini birleştirmektir.

  • 06:55:00 Bu bölümde eğitmen, daha iyi performansa sahip yeni bir model oluşturmak için birden fazla modeli birleştirme yöntemi olan istiflemeyi tartışıyor. Süreç, birden çok temel modeli eğitmeyi ve tahminlerini, son tahminleri çıkaran ikinci düzey bir sınıflandırıcıyı eğitmek için özellikler olarak kullanmayı içerir. Eğitmen, sklearn kitaplığını kullanarak Python'da lojistik regresyon, k-en yakın komşular, Gauss saf Bayes ve rastgele orman modelleri kullanarak yığınlı bir sınıflandırma modeli oluşturmanın bir örneğini gösterir. Ayrıca mlx10 kitaplığından yığın sınıflandırıcının nasıl kullanılacağını gösterirler.

8. Bölüm

  • 07:00:00 Bu bölümde konuşmacı, K komşu, rastgele orman ve lojistik regresyon gibi farklı modeller kullanarak yığın sınıflandırıcının nasıl uygulanacağını açıklar. En yüksek doğrulukla en iyi modeli seçmek için nesneyi somutlaştırma ve üç katlı çapraz doğrulama gerçekleştirme adımlarını takip ederler. Konuşmacı ayrıca karar sınırlarının nasıl çizileceğini ve yanlılık ve varyans değiş tokuşunu ayarlamak için ızgara aramanın nasıl kullanılacağını gösterir. İstifleme sınıflandırıcısı, en iyi parametreleri ve özellikleri seçerek, tek tek modellerden daha doğru bir tahmin sağlayabilir.

  • 07:05:00 Bu bölümde eğitmen, gruplama, rastgele ormanlar, hızlandırma, gradyan artırma karar ağaçları, AdaBoost ve XGBoost dahil olmak üzere topluluk öğrenimiyle ilgili önceki bölümlerde ele alınan konuları özetler. Eğitmen ayrıca yığınlamaya genel bir bakış sunar ve eylem halindeki algoritma örnekleri sunar. Bu bölüm, eğitmenin YouTube kanalına abone olmanızı hatırlatan bir hatırlatma ve sinir ağları, GAN'lar ve evrişimli sinir ağları dahil olmak üzere toplu öğrenmenin ötesindeki konuları kapsayan bir makine öğrenimi kursu CS01 hakkında bilgilerle sona eriyor. Son olarak eğitmen, denetimsiz öğrenme ve gelecekteki projelerle ilgili gelecek bölümlerle dalga geçer.

  • 07:10:00 Bu bölümde, konuşmacı, öğrenme sürecini yönlendirmek için yalnızca etiketsiz veri noktalarına veya bir süpervizöre erişimi içeren denetimsiz öğrenme kavramını tanıtıyor. Çıktının bilindiği denetimli öğrenmenin aksine, denetimsiz öğrenme, veri noktalarının daha iyi anlaşılması için kümeler oluşturmayı içerir. Motive edici bir örnek olarak, konuşmacı, Amazon gibi bir şirkette, hangi müşterinin hangi segmente ait olduğunu gösteren bir etiket olmamasına rağmen, benzerliklere dayalı olarak müşterileri segmentlere ayırmayı önerir. Denetimsiz öğrenmenin amacı, veri kümesindeki kalıpları ve yapıyı keşfetmektir.

  • 07:15:00 Bu bölümde eğitmen gözetimsiz öğrenme ve uygulamalarını tartışır. Veri bilimcilerin, müşterileri segmentlere ayırmak ve web sitesindeki faaliyetlerine dayalı olarak ürünler için öneriler sağlamak için denetimsiz öğrenmeyi kullanabileceklerini açıklıyor. Amazon'u, müşteri segmentasyonu ve öneri motorları için denetimsiz öğrenmeyi kullanan bir şirket örneği olarak kullanıyor. Eğitmen ayrıca denetimsiz öğrenmenin benzer öğelerin birbirine yakın ve benzer olmayan öğelerin uzakta olduğu yüksek boyutlu uzaylarda kümeleme için kullanılabileceğini açıklar. Denetimsiz öğrenme uygulamaları olarak biyolojide dizi analizi ve iş dünyasında benzer kümeleri gruplandırma örnekleri veriyor. Genel olarak, eğitmen denetimsiz öğrenmeye ve bunun çeşitli endüstrilerdeki potansiyel uygulamalarına kısa bir genel bakış sağlar.

  • 07:20:00 Bu bölümde konuşmacı, hedeflenen pazarlama için iş verilerinde benzer kümeleri gruplamak ve kullanıcı etkinliğine dayalı ürünler önermek için öneri motorlarını kullanmak gibi farklı makine öğrenimi uygulamalarını tartışıyor. Konuşmacı ayrıca nesne tespiti için görüntü bölümlemesinden, bir metnin pozitif mi yoksa negatif mi olduğunu belirlemek için duyarlılık analizinden ve bir modelde aykırı değerleri bulmak için anormallik tespitinden bahseder. Bu çeşitli uygulamalar, makine öğreniminin farklı alanlardaki çok yönlülüğünü göstermektedir.

  • 07:25:00 Bu bölümde, konuşmacı kümeleme konusunu ve merkez tabanlı ve yoğunluk tabanlı gibi farklı türde kümeleme algoritmalarını tanıtıyor. Odak, derinlemesine incelenecek olan k-means kümeleme algoritması üzerinde olacaktır. Konuşmacı ayrıca izleyicileri, makine öğrenimini daha iyi anlamak için problem setleri ve projeler üzerinde çalışmaya teşvik ediyor. Konuşmacı, denetimsiz öğrenmenin önemini vurgular ve kümelemenin çeşitli alanlarda nasıl uygulanabileceğini gösterir. Bir X ve Y düzleminde kümeleme, kümeleme kavramını göstermek için kullanılır. Genel olarak bölüm, kursta ele alınacak gelecek konuları vurgular ve izleyicileri öğrenmeye devam etmeye teşvik eder.

  • 07:30:00 Bu bölümde konuşmacı, verileri farklı kümelere ayırmayı içeren denetimsiz öğrenme ve kümelemeyi açıklıyor. Küme içi ve kümeler arası mesafe terminolojisi tartışılmıştır; burada küme içi, bir küme içindeki veri noktaları arasındaki mesafeyi, kümeler arası ise kümeler arasındaki mesafeyi ifade eder. Amaç, küçük bir küme içi mesafeye ve büyük bir küme arası mesafeye sahip olmaktır; bu, kümeler içindeki verilerin benzer olması ve kümeler arasındaki verilerin farklı olması gerektiği anlamına gelir. Bu, optimizasyonun amacı olarak bilinir.

  • 07:35:00 Bu bölümde, kümeleme veya denetimsiz öğrenme modelleri için değerlendirme tekniklerini öğreniyoruz. Tanıtılan ilk teknik, kümeler arasındaki en büyük mesafeyi kümeler içindeki minimum mesafeye bölerek temsil eden Dunn indeksidir. Amaç, yüksek bir Dunn indeksine sahip olmaktır; bu, kümeler arasındaki mesafenin büyük, kümeler içindeki mesafenin ise küçük olması gerektiği anlamına gelir. Bu teknik, kümeleme modelimizin kalitesini değerlendirmemizi sağlar.

  • 07:40:00 Bu bölümde eğitmen, kümeleme modelleri için değerlendirme tekniklerini tartışır. Odak noktası, küme içi büyük ve küme arası küçük olup olmadığını belirlemek için kullanılan bir değerlendirme matrisi olan Dunn indeksidir. Eğitmen, kümeler içindeki ve kümeler arasındaki farklı veri noktaları arasındaki maksimum mesafelerin değerlendirilmesini içeren Dunn indeksinin temel tanımını sağlar. Tartışılan diğer bir değerlendirme tekniği, Dunn indeksine benzer, ancak daha fazla kısıtlama içeren Davies-Bouldin indeksidir. Eğitmen ayrıca nesneleri veya öğeleri belirli bir şekilde bir arada gruplamak olan kümelemenin tek satırlık bir tanımını sağlar.

  • 07:45:00 Bu bölümde konuşmacı, verileri benzerlik ve farklılıklara göre gruplar halinde düzenleme süreci olan kümelemenin temel tanımını açıklar. Kümelemede iki durum vardır: sırasıyla bir küme içindeki mesafeyi ve tüm kümeler arasındaki farkı ölçen küme içi ve kümeler arası. Ardından konuşmacı, verileri iki kümeye ayıran bölüm tabanlı kümeleme ve kümeleme sürecini görselleştirmek için dendrogramları kullanan hiyerarşik kümeleme dahil olmak üzere farklı kümeleme türlerini tartışır. Konuşmacı, süreci göstermek için bir dendrogram örneği sağlayarak, hiyerarşik kümeleme içindeki kümelemeli kümeleme ve bölücü kümeleme hakkında daha fazla ayrıntıya girer.

  • 07:50:00 Bu bölümde eğitmen, bölüm tabanlı, hiyerarşik, iyi ayrılmış kümeler, merkez tabanlı ve yoğunluk tabanlı olmak üzere farklı kümeleme türlerini ele alır. Eğitmen, kümelemenin tamamen benzer nesneleri, bir küme içindeki nesnelerin birbirine benzer ve kümeler arasındaki nesnelerin farklı olacağı şekilde gruplamakla ilgili olduğunu açıklar. Eğitmen ayrıca Dunn indeksi ve Davis-Bouldin indeksi dahil olmak üzere farklı indeksler kullanarak kümeleme modellerinin performansının nasıl değerlendirileceğini açıklar. Bir sonraki bölümde, merkez tabanlı algoritmalardan biri olan k-means kümeleme üzerinde durulacaktır.

  • 07:55:00 Bu bölümde eğitmen, denetimsiz öğrenme uygulamaları, kümeleme türleri ve kümelemenin önsezi ve biçimsel tanımını kapsayan önceki alt bölümleri özetler. Daha sonra odak, Lloyd'un algoritması olarak da bilinen k-means kümeleme algoritmasına ve başlatma, merkezler, hiperparametreler, değerlendirme ölçümleri ve sınırlamalar gibi çeşitli özelliklerine kayar. Eğitmen, rastgele başlatılan iki centroid ile algoritmanın bir görselleştirmesini sağlar ve ilk yinelemede atama adımını ve ardından ortalama alma adımını gösterir.

9. Bölüm

  • 08:00:00 Bu bölümde eğitmen k-means kümeleme algoritmasını ayrıntılı olarak açıklar. Algoritma, k merkezin başlatılmasını, küme atamasını, ortalamayı alarak kümelerin güncellenmesini ve en yakın veri noktasını atayarak merkezin güncellenmesini içerir. Bu işlem, merkezler değişmeyene kadar tekrarlanır, bu da algoritmanın yakınsadığını gösterir. Eğitmen ayrıca k-means kümelemenin Lloyd'un algoritması olarak da adlandırıldığından ve centroidlerin rasgele başlatılmasını içerdiğinden bahseder.

  • 08:05:00 Bu bölümde, konuşmacı k-means kümeleme algoritmasının adımlarını açıklıyor. Önce küme sayısını (k) seçerler ve ardından her noktayı en yakın kümeye atarlar. Ortalamayı alıp hareket ettirerek ağırlık merkezini yeniden hesaplarlar, ardından merkezler değişmeyi bırakana kadar işlemi tekrarlarlar. Optimizasyonun amacı, veri noktaları ve küme merkezleri arasındaki öklid mesafesi kullanılarak hesaplanabilen maliyet fonksiyonunu en aza indirmektir. Maliyet işlevi, SSE (toplam kare hatası) olarak da bilinir ve amaç, küme içi değişkenliği en aza indirmektir. Konuşmacı, öklid dışında başka mesafe ölçümlerinin de kullanılabileceğini belirtiyor.

  • 08:10:00 Bu bölümde eğitmen, K-means kümelemede merkezlerin rastgele başlatılmasının neden sorunlara neden olabileceğini açıklar ve bir çözüm olarak K-means++ algoritmasını sunar. K-means++, birden fazla ağırlık merkezi seçmeyi ve kareleri alınmış hataların (SSE) toplamını en aza indirgenin seçilmesini içerir. Eğitmen ayrıca, küme sayısına karşı SSE grafiğine dayalı olarak optimum ağırlık merkezi sayısını belirlemek için kullanılan dirsek yöntemini de tanıtır. Makine öğreniminde daha iyi kümeleme sonuçları için rastgele başlatma yerine K-means++ ve dirsek yönteminin kullanılması önerilir.

  • 08:15:00 Bu bölümde eğitmen, toplam kare hatasını kullanarak küme içindeki noktalar arasındaki mesafeyi hesaplayarak küme içi minimizasyonu içeren k-ortalamalar için değerlendirme tekniğini açıklar. Centroidlerin başlatılmasının algoritma üzerinde bir etkisi vardır ve k-means ++ tekniği, düşük SSE ile çoklu çalıştırmalara dayalı centroidleri seçmek için önerilen bir yöntemdir. Küme sayısı, optimal k değerinin dirseğin döndüğü nokta olduğu dirsek yöntemi kullanılarak belirlenebilir. Eğitmen ayrıca, DBSCAN veya hiyerarşik kümeleme gibi yoğunluğa dayalı teknikler kullanılarak çözülebilen, aykırı değerlere duyarlılık gibi k-ortalama kümelemenin bazı sınırlamalarından da bahseder. k-ortalama kümelemenin zaman karmaşıklığı, girdi boyutuna, küme sayısına ve boyutlarına bağlıdır. Eğitmen, zaman karmaşıklığı kavramını daha iyi kavramak için DSA ustalık kursunu önerir.

  • 08:20:00 p1 ve p2 ile kümeleniyor ve ardından bu kümeye p4 ekliyoruz. Daha sonra, bu kümeyi tek bir kümede birleştiriyoruz ve son olarak tek bir küme elde etmek için kümeye p3'ü ekliyoruz. Bu, veri noktalarının benzerliklerine göre gruplandırıldığı ve bir küme hiyerarşisi oluşturduğu bir teknik olan hiyerarşik kümelemeye bir örnektir. Alt bölüm aynı zamanda birleştirici ve bölücü kümelemenin yanı sıra algoritmanın manuel olarak hesaplanmasını da kapsayacaktır.

  • 08:25:00 Bu bölümde, konuşmacı hiyerarşik kümelemeyi ve bir sayı kümesini kümeler hiyerarşisine dönüştürme sürecini açıklar. Verilen örnek, tek bir küme kalana kadar kümelerin benzerlik temelinde birbirine nasıl bağlandığını göstermektedir. Konuşmacı daha sonra iki tür hiyerarşik kümelemeyi - toplayıcı ve bölücü kümelemeyi açıklar ve her iki yöntemin arkasındaki sezgiyi verir. Aglomeratif kümeleme, daha benzer kümelerin birbirine eklendiği aşağıdan yukarıya bir yaklaşımken, bölücü kümeleme, kümelerin benzerliğe dayalı olarak daha küçük kümelere bölündüğü yukarıdan aşağıya bir yaklaşımdır.

  • 08:30:00 Bu bölümde, konuşmacı bir sayı veya küme hiyerarşisi oluşturmayı içeren hiyerarşik kümelemenin ardındaki temel sezgiyi açıklar. Kümeleme, kümeleme tipine, toplayıcı veya bölücüye bağlı olarak, yukarıdan aşağıya veya aşağıdan yukarıya bir yaklaşımla yapılabilir. Aglomeratif kümeleme, farklı kümeleri bir araya getirmeyi içerirken, bölücü kümeleme, bir kümeyi tekli gruplara ayırmayı içerir. Konuşmacı daha sonra, bir yakınlık matrisinin hesaplanmasını ve kümeleri birleştirme işleminin tekrarlanmasını ve tüm kümeler kaplanana kadar matrisin güncellenmesini içeren aglomeratif kümeleme algoritmasını açıklamaya devam eder. Son olarak, konuşmacı, kavramı açıklamak için dört noktalı yaklaşık bir matris örneği sağlar.

  • 08:35:00 Bu bölümde, konuşmacı bir veri noktası örneği kullanarak bir yakınlık matrisi ve dendrogramın nasıl oluşturulacağını açıklar. Yakınlık matrisi, iki nokta veya küme arasındaki benzerliği ölçmeye yardımcı olurken, dendrogram kümelerin hiyerarşisini gösterir. Konuşmacı, kümeler arasındaki benzerliği ölçmek için kullanılan üç yöntemi, yani minimum, maksimum ve grup ortalamasını vurgular.

  • 08:40:00 Bu bölümde eğitmen, hiyerarşik kümelemede kümeleri birleştirmenin iki yöntemini tartışır: minimum ve maksimum. Minimum yaklaşım, iki küme arasındaki benzerliğin, kümelerdeki herhangi iki nokta arasındaki minimum mesafe olarak alınmasını içerir. Önce en küçük uzaklığa sahip kümeler birleştirilir ve tüm noktalar tek bir kümede olana kadar işlem devam eder. Maksimum yaklaşım benzerdir, ancak kümelerdeki herhangi iki nokta arasındaki maksimum mesafe olarak iki küme arasındaki benzerliği alır. Eğitmen, bu kavramları göstermek için bir yakınlık matrisi kullanan bir örnek sağlar.

  • 08:45:00 Bu bölümde eğitmen, başka bir tür kümeler arası benzerlik ölçüsü olan grup ortalama kümeler arası benzerlik ölçüsü kavramını açıklar. Bunun için bir denklem sağlıyor ve nasıl çalıştığını açıklamak için bir dendrogram gösteriyor. Eğitmen daha sonra, aykırı değerlere karşı hassas olduğunu belirterek minimum mesafe ölçüsünün dezavantajlarını tartışır ve öğrencilerin daha iyi anlamaları için Wikipedia sayfalarına başvurabileceklerini önerir. Ayrıca, uzay için n karenin sırası ve zaman karmaşıklığı için n karenin logaritması veya n küpün sırası olan aglomeratif kümeleme için zaman ve mekan karmaşıklığı sağlar. Son olarak, öğrencileri makine öğrenimi anlayışlarını pekiştirmek için birçok proje üzerinde pratik yapmaya teşvik ederek bölümü bitiriyor.

  • 08:50:00 Bu bölümde, konuşmacı kursun proje bölümünü tartışır ve kurulacak olan kalp yetmezliği tahmin modelini tanıtır. Konuşmacı, modelin bir kişinin yaş, cinsiyet, tansiyon, diyabet ve sigara içme gibi çeşitli özelliklerine göre ölüp ölmeyeceğini tahmin edeceğini açıklıyor. Bu projenin verileri sağlanan bir bağlantıda mevcuttur ve konuşmacı, bu projenin iş hedefinin hayat kurtarmak için sağlık sorunlarının erken saptanmasına yardımcı olacak bir yapay zeka sağlık hizmeti sistemi oluşturmak olduğunu açıklıyor. Ayrıca konuşmacı, kursta bir spam tespit sistemi projesinin de sunulacağını belirtiyor. Konuşmacı gerekli kitaplıkları içe aktarır, verileri yükler ve verilerin şeklini yazdırır.

  • 08:55:00 Bu bölümde, verinin şeklini ve bilgilerini kontrol etmek gibi verileri keşfetmenin temellerini öğreniyoruz. info() yöntemini kullanarak boş değer olup olmadığını, veri türünü ve bellek kullanımını görebiliriz. Sayısal verilerin istatistiksel dağılımı hakkında bilgi edinmek için define() yöntemini de kullanabiliriz. Keşifsel veri analizi (EDA), verilere sorular sorduğumuz ve iş çözümleri sağlamaya yardımcı olacak yanıtlar bulduğumuz makine öğreniminde önemli bir adımdır. Bu ikili sınıflandırma problemi için, '1' kişinin öldüğünü ve '0' kişinin hayatta olduğunu ifade ettiği sınıfların dağılımını inceleyeceğiz.

10. bölüm

  • 09:00:00 Videonun bu bölümünde eğitmen, makine öğrenimindeki dengesiz veriler konusunu tartışıyor. Kod parçacığı, dengesiz olan 203 yaşayan vaka ve 96 ölüm vakasının olduğu verilerin dağılımını gösterir. Dengesiz veri, verilerin sınıflar arasında eşit olarak dağılmaması anlamına gelir ve bu, modelin belirli sınıflara doğru önyargılı olmasına neden olabilir. Eğitmen, modelin çoğunluk sınıfında eğitilmeye ve bu sınıfı daha sık tahmin etmeye daha yatkın olabileceği makine öğreniminde dengesiz verilerin büyük bir sorun olduğunu açıklıyor.

  • 09:05:00 Bu bölümde, konuşmacı dengeli veri kavramını ve daha sağlam ve tarafsız olduğu için modellerin bununla en iyi nasıl çalıştığını açıklıyor. Ardından, yaş dağılımı ve belirli koşullara göre verileri filtreleme gibi verilerin analiz edilebileceği çeşitli yolları göstermeye devam ederler. Konuşmacı, yaşın 50'nin üzerinde olduğu satırları seçmek ve kişinin ölüp ölmediğini görmek için bir python kodu gösterir. Verileri görselleştirmek ve toplam ölüm vakalarının yaşayan vakalardan iki kat daha az olması ve çoğu yaşın 40'tan 95'e çıkması gibi işle ilgili soruları yanıtlamak için pasta grafikler kullanıyorlar.

  • 09:10:00 Bu bölümde, eğitmen Python'da diyet vakalarının ve diyet dışı vakaların toplam sayısını hesapladıkları bir kod parçacığının üzerinden geçiyor. Toplam 203 vakadan vakaların çoğunun diyet vakası olduğunu ancak 50'den fazlasının 50 yaşın üzerinde olduğunu ve öldüğünü buluyorlar. Eğitmen daha sonra bu verilere dayanarak daha fazla soruyu nasıl cevaplayabileceklerini ve anlaşılmasını kolaylaştırmak için verileri görsel olarak nasıl temsil edebileceklerini açıklamaya devam eder. Son olarak, eğitmen değişkenler arasındaki korelasyonu kontrol etmeye devam eder ve korelasyonun ne anlama geldiğini açıklamak için bir plan sunar.

  • 09:15:00 Bu bölümde eğitmen korelasyonu ve eksi birden artı bire nasıl değiştiğini anlatır. Eksi bire yakın bir değişken, çok benzer olduğu anlamına gelirken, sıfıra yakın bir değer doğrusal iletim olmadığı anlamına gelir. Pearson korelasyonu, verilerin doğrusal olup olmadığını belirlemenin bir yoludur ve korelasyon bire ne kadar yakınsa, veriler o kadar pozitif korelasyonludur. Eğitmen mükemmel korelasyondan ve köşegenlerin hepsinin nasıl bir olduğundan, yani karelerin her bir değişkenin kendisiyle ilişkili olduğu anlamına gelir. Eğitmen, verileri ve anlayışı tartıştıktan sonra, veri seti geliştirmeye ve modelin en iyi şekilde çalıştığını doğrulamak için verilerin eğitim ve test setlerine nasıl bölüneceğine geçer. Eğitmen, kategorik değişkenlerle daha fazla özellik ekleyen ve özellikler eklemek için veriler üzerinde dönüşümler uygulayan bir özellik mühendisliği örneği sağlar. Bir etkileşim terimi, iki özelliğin ürününün eklenmesidir ve eğitmen, tüm sütunların nasıl yineleneceğini ve iki sütunun birlikte nasıl çarpılacağını gösterir.

  • 09:20:00 Bu bölümde sunum yapan kişi bir model oluşturma sürecini tartışır ve doğruluğunu, kesinliğini, hatırlama ve karışıklık matrisini değerlendirir. Sunucu, 10.000 veri noktası ve on özellik içeren bir veri kümesini daraltmak için optimizasyon algoritması adı verilen bir algoritma kullanır. Stokastik gradyan inişinin nasıl çalıştığını ve hesaplama süresini en aza indirmek için nasıl kullanılabileceğini açıklarlar. Ek olarak, modelin genel performansını anlamada önemli olan 'gerçek pozitif' ve 'pozitif sınıf' gibi anahtar terimleri açıklarlar.

  • 09:25:00 Bu bölümde, konuşmacı doğru pozitif, yanlış pozitif, gerçek negatif ve yanlış negatif kavramlarını ve bunların pozitif ve doğru olarak sınıflandırılmış örneklerin sayısını gösteren bir karışıklık matrisi oluşturmak için nasıl kullanıldığını açıklar. Bir modeldeki negatif sınıflar. Konuşmacı ayrıca, pozitif tahminlerin doğruluğu ve bunların gerçek oluşumları hakkında farklı soruları yanıtlayan kesinlik ve hatırlamayı tartışır. Konuşmacı, parametre optimizasyonu için rasgele aramayı kullanan karar ağacı sınıflandırıcılarının yanı sıra kapsamlı ince ayarlı lojistik regresyon ve destek vektörü sınıflandırıcılarının kullanımını gösterir. Her bir sınıflandırıcı için eğitim ve test puanları da sunulmaktadır.

  • 09:30:00 Videonun bu bölümünde eğitmen, UCI deposundan indirilen bir veri kümesini kullanarak bir spam ve ham dedektör sisteminin nasıl oluşturulacağını açıklıyor. Veriler tablo biçimindedir ve eğitmen verileri okur ve başlıkları hiçbiri olarak ayarlanan ve sütunları 'etiket' ve 'mesajlar' olarak etiketlenmiş bir sekmeye göre ayırır. Amaç, mesajları spam veya spam değil (ham) olarak sınıflandırmaktır ve eğitmen bunu başarmak için farklı modellerde (rastgele bir orman sınıflandırıcı ve bir XGBoost sınıflandırıcı gibi) ince ayar yapma sürecinde yürür. Eğitmen ayrıca özellik seçiminin önemini vurgular ve gelecekte kullanmak üzere XGBoost modelinin nasıl kaydedileceğini gösterir. Genel olarak bu, makine öğreniminin gerçek dünya sorunlarını çözmek için nasıl kullanılabileceğini gösteren ilginç bir projedir.

  • 09:35:00 Videonun bu bölümünde sunum yapan kişi, bir UCI deposundan indirilen metin mesajlarından oluşan bir veri kümesini keşfetme ve analiz etme sürecinden geçiyor. Amaç, spam ve spam olmayan mesajlar arasında ayrım yapabilen bir makine öğrenimi modeli oluşturmaktır. Sunucu, modelin çalışması için metin verilerinin sayılara dönüştürülmesi gerektiğini açıklar ve bunun için bir metin vektörleştiricinin nasıl kullanılacağını gösterir. Daha sonra sınıfların dağılımını keşfederler ve veri kümesinin spam olmayan mesajlardan daha fazla dengesiz olduğunu fark ederler. Son olarak, yazım veya büyük harf kullanımındaki küçük farklılıklar yanlış sınıflandırmalara yol açabileceğinden, metin verilerini temizlemenin önemini açıklıyorlar.

  • 09:40:00 Bu bölümde eğitmen, tüm metni küçük harfe dönüştürme, 0 ve 3 gibi belirli karakterleri anlamlı metin eşdeğerleriyle değiştirme ve gereksiz karakterleri kaldırmayı içeren metin ön işleme sürecini açıklar. Eğitmen ayrıca metinde anlamlı sözcük indirgemesi için kök çıkarma ve lemmatizasyonu keşfetmeyi önerir. Her mesaja metin ön işlemesi uygulamak için lambda kullanılarak bir örnek verilmiştir ve bu daha sonra "işlenmiş metin" adı verilen yeni bir sütunda depolanır.

  • 09:45:00 Bu bölümde, konuşmacı, metnin ön işlenmesinden ve kelimelerdeki bükülmeyi azaltmak için Porter saplayıcısını kullanarak köklendirme uygulamasından bahsediyor. Konuşmacı ayrıca harita yöntemini çağırarak elin sıfıra kodlandığı ve bire genişletildiği özellik mühendisliğinden de bahseder. Eğitim seti daha sonra, sayma vektörleştiricisi, tf-idf vektörleştiricisi ve kelime çantası gibi teknikleri kullanarak kelimeleri sayılara dönüştüren kelime gömmelerine dönüştürülür. Metin, daha sonra sınıflandırma için Naive Bayes algoritmasında kullanılan depolanmış öğelerle seyrek bir matrise dönüştürülür. Son olarak konuşmacı, spam olup olmadığını belirlemek için count vectorizer ve modelini çağırarak yeni bir metnin nasıl test edileceğine dair bir örnek verir.

  • 09:50:00 Videonun bu bölümünde konuşmacı, sayma vektörü dönüşümü ve Naive Bayes tahmini gibi doğal dil işleme (NLP) tekniklerini kullanarak temel bir istenmeyen e-posta ve amatör detektör sisteminin nasıl oluşturulacağını gösteriyor. Sistem mesajları girdi olarak alır, önceden işler ve spam olup olmadıklarını tahmin eder. Konuşmacı, bunun NLP'de verilerle nasıl çalışılacağına dair sadece bir örnek olduğunu ve kullanılabilecek çeşitli başka teknikler olduğunu vurgular. Konuşmacı kursu bitirir ve izleyicileri kursu tamamladıkları için tebrik eder.
Machine Learning Course for Beginners
Machine Learning Course for Beginners
  • 2021.08.30
  • www.youtube.com
Learn the theory and practical application of machine learning concepts in this comprehensive course for beginners.🔗 Learning resources: https://github.com/...