Makine Öğrenimi ve Sinir Ağları - sayfa 3

 

Gelişen Yapay Zeka Sanatı



Gelişen Yapay Zeka Sanatı

Videoda, bir görüntünün seçilmesi, bir bilgi isteminin verilmesi ve gelişen bir süreç boyunca varyasyonların oluşturulmasıyla başlayan yapay zeka kullanılarak görüntülerin geliştirilmesi süreci ele alınmaktadır. Bu sürecin amacı, akıl almaz derecede büyük ve araştırılamaz bir görüntü alanını kullanarak güzel ve hayal edilemeyen sanat eserlerini veya sevimli kedileri bulmak için keşif yapmaktır. Metinden görüntüye modeller için girdi, kullanıcıların basit bir istem girmesine ve bu istemi karşılayan çok çeşitli olası görüntüler almasına olanak tanır, ayrıca tamamen yeni görüntülerin oluşturulmasına ve mevcut görüntülerin gizli alanda düzenlenmesine ve kataloglanmasına olanak tanır. Pick Breeder yöntemi, görüntü oluşturmak için en iyi performansı gösteren genleri mutasyona uğratmanın, seçmenin ve yeniden üretmenin etkili ve doğal bir yoludur ve insanların evrimsel konuları takip etmesine ve güçlü yapay zeka araçlarıyla dallanan yollarda beklenmedik güzellikleri keşfetmesine olanak tanır.

  • 00:00:00 İçerik oluşturucu, belirli bir metin istemine göre görüntüler oluşturmak için sinir ağlarını kullanan bir metinden görüntüye algoritması olan Mid-Journey adlı bir yapay zeka modelini tartışıyor. İçerik oluşturucu, Discord sunucularında bu algoritmayı deniyor ve kullanıcıların görüntüleri seçip mutasyona uğratmasına ve evrimsel yaşam ağaçları oluşturmasına olanak tanıyor. Bu sürecin yaratıcılığı, modeli eğitmek için kullanılan bilgi istemi ve veri kümesiyle sınırlı olsa da, ortaya çıkan görüntüler, yaratıcının daha önce gördüğü hiçbir sanat eserine benzemiyor ve süreç, ilginç ve benzersiz kreasyonlara yol açtı. İçerik oluşturucu ayrıca, kendi GPU'larında çalıştırabilecekleri Stable Diffusion adlı başka bir açık kaynaklı modelden de bahseder.

  • 00:05:00 Bu bölümde içerik oluşturucu, yapay zeka kullanarak bir görüntüyü geliştirme sürecini açıklıyor. Süreç, bir görüntü seçmekle, bir istemde bulunmakla ve ardından gelişen bir süreç boyunca varyasyonlar oluşturmakla başlar. Gelişen süreç, topluluk yönünden kaçınmak için daraltılabilir veya kendi başına çalışmasına izin verilebilir. Bir görüntüyü geliştirmenin amacı, güzel ve hayal edilemeyen sanat eserleri veya son derece sevimli kediler bulmak için görüntü alanını - her görüntünün bir noktayı veya vektörü kapladığı gerçek bir matematiksel alan - keşfederek keşif yapmaktır; görüntü alanı akıl almaz derecede büyük olduğundan rastgele gürültünün ötesinde bir şey ve umutsuzca aranamaz.

  • 00:10:00 Video, kullanıcıların basit bir dilde bir komut istemi girmelerine ve bu istemi karşılayan çok çeşitli olası görüntüler almalarına olanak tanıyan metinden görüntüye modeller için giriş sürecini açıklıyor. Bu üretken arama motorları, gizli alanda düzenlenmiş, kataloglanmış ve etiketlenmiş mevcut görüntüleri keşfetmenin yanı sıra tamamen yeni görüntüler oluşturabilir. Gizli vektör gibi modele rasgele değerler vererek, görüntü çıktısı daha fazla çeşitliliğe sahip olur ve gizli uzayda hareket ettirilerek değiştirilebilir. Pick Breeder yöntemi, görüntü oluşturmak için en iyi performansı gösteren genleri mutasyona uğratmanın, seçmenin ve çoğaltmanın etkili ve doğal bir yoludur. İnsanlar, bu güçlü araçlarla dallanan yollarda beklenmedik güzellikleri keşfetmek için ilginç bilgi istemleri ve görüntülerden oluşan evrimsel bir diziyi takip edebilir.
Evolving AI Art
Evolving AI Art
  • 2022.10.29
  • www.youtube.com
In this video, I explain how #aiart generators like #midjourney and #stablediffusion can be used to simulate evolutionary processes, and explain why this is ...
 

İstediğiniz herhangi bir resmi oluşturan yapay zekanın açıklaması



Metinden resme devrimin açıklaması

Bu videoda, makine öğrenimi algoritmalarının metin açıklamalarına dayalı görüntüler oluşturmak için nasıl kullanılabileceği ve bu teknolojinin sanat eseri oluşturmak için nasıl kullanılabileceği anlatılmaktadır. Video, bu teknolojinin telif hakkı yasası ve sanat dünyası üzerindeki etkilerini tartışan Amerikalı illüstratör James Gurney ile röportaj yapıyor.

  • 00:00:00 Bu bölümde, makine öğrenimi algoritmalarının resimlere nasıl altyazı ekleyebileceği ve geliştiricilerin bu algoritmaları kullanarak metinden resme oluşturucuları nasıl oluşturdukları açıklanmaktadır. Video ayrıca, bu modellerle etkili bir şekilde iletişim kurmak için hızlı mühendisliğin ne kadar gerekli olduğunu tartışıyor.

  • 00:05:00 İstediğiniz herhangi bir resmi yaratan yapay zekanın, milyonlarca görüntüden oluşan bir eğitim veri seti ve bunlara eşlik eden başlıklarla başladığı açıklandı. Modeller, bu görüntülerdeki kalıpları tanımayı öğrenir ve ardından bu tanımaya dayalı olarak yeni görüntüler oluşturur. Bu şekilde oluşturulan görüntüler, difüzyon sürecinin rastgele olması nedeniyle farklı insanlar ve modeller için farklı olabilir.

  • 00:10:00 Bu video, derin öğrenmenin, kullanıcıların ünlü sanatçıların ürettiklerine benzer görüntüleri doğrudan kopyalamak zorunda kalmadan oluşturmalarına nasıl olanak tanıdığını açıklıyor. Video, metinden görüntüye model kullanıcıları için popüler bir referans haline gelen Amerikalı illüstratör James Gurney ile röportaj yapıyor. Gurney, sanatçıların başka sanat eserleri oluşturmak için bir veri kümesi olarak kullanılan çalışmalarını seçmelerine veya devre dışı bırakmalarına izin verilmesi gerekmesine rağmen, modelleri eğitmeye giden görüntüleri ve bunlardan çıkan görüntüleri çevreleyen telif hakkı sorularının hala çözülmediğini söylüyor. Ek olarak, bu modellerin gizli alanı, çıktılar fotogerçekçi hale geldikçe daha da korkutucu hale gelen bazı karanlık köşeler içerir. Bununla birlikte, bu teknolojiyi bu kadar benzersiz kılan şey, herhangi birimizin makineyi görmesini istediğimiz şeyi hayal etmesi için yönlendirmesini sağlamasıdır.
The text-to-image revolution, explained
The text-to-image revolution, explained
  • 2022.06.01
  • www.youtube.com
How programmers turned the internet into a paintbrush. DALL-E 2, Midjourney, Imagen, explained.Subscribe and turn on notifications 🔔 so you don't miss any v...
 

MidJourney Yapay Zeka Sanatı Rehberi - ÜCRETSİZ nasıl başlanır!



MidJourney Yapay Zeka Sanatı Rehberi - ÜCRETSİZ nasıl başlanır!

Bu videoda konuşmacı, istemlere dayalı olarak yapay zeka sanatı oluşturan ve ona nasıl başlanacağına dair adım adım talimatlar sağlayan bir araç olan MidJourney'i tanıtıyor. Oluşturulan görüntülerin stilini ve kalitesini değiştirmek için komutların nasıl kullanılacağını, "3B oluşturma" veya "damlayan mürekkep taslağı" gibi örnekler kullanarak gösterirler. Ek olarak, MidJourney web sitesinin, kullanıcıların ilham bulabilecekleri ve kendilerini denemek için istemleri kopyalayabilecekleri topluluk bölümünü açıklıyorlar. Konuşmacı ayrıca AI art ile yolculuklarını paylaşıyor ve daha fazlasını öğrenmek isteyenler için ek kaynaklar ve kodlar sağlıyor.

  • 00:00:00 Bu bölümde, istemlere dayalı yapay zeka sanatı oluşturan bir araç olan MidJourney'i kullanmaya nasıl başlayacağınız açıklanmaktadır. Kaydolmak için MidJourney web sitesine gidin ve kaydolmak ve Discord davetini kabul etmek için istemleri izleyin. Discord'a girdikten sonra, bir görüntü oluşturmak için "/imagine" komutunu ve ardından "kanatlı mor insan" gibi bir istem yazın. Konuşmacı ayrıca, "3D render" veya "damlayan mürekkep taslağı" gibi farklı komutlar kullanılarak daha fazla ayrıntı için görüntünün nasıl yükseltileceğini ve görüntünün stilinin nasıl değiştirileceğini de gösterir. Her komut girildiğinde, ortaya çıkan görüntü benzersiz olacaktır.

  • 00:05:00 Bu bölümde anlatıcı, MidJourney AI sanatında bulunan farklı stilleri ve kalite seçeneklerini keşfediyor. Hiper gerçekçilik ve stilizasyon da dahil olmak üzere bir 3B oluşturma üzerinde bir dizi efekt oluşturmak için anahtar sözcükleri ve komutları kullanmayı gösteriyorlar. Ayrıca, istem olarak kendi görüntülerini kullanmayı ve farklı sonuçlar elde etmek için görüntü ağırlığını ayarlamayı denerler.
    Ek olarak, MidJourney web sitesinin, kullanıcıların ilham bulabilecekleri ve kendilerini denemek için istemleri kopyalayabilecekleri topluluk bölümünü tartışıyorlar. Anlatıcı ayrıca MidJourney'in sorumlu bir şekilde nasıl kullanılacağına dair ipuçları da verir; örneğin, oluşturulan sanatı çevrimiçi paylaşırken bir sorumluluk reddi beyanı eklemek gibi.

  • 00:10:00 Anlatıcı, Discord ve MidJourney AI Art'ın yanı sıra AI sanat yolculuğuyla ilgili diğer kaynaklara ve kodlara bağlantılar sağlar. İzleyicileri yolculuklarına kendileri göz atmaya teşvik eder ve daha fazlasını öğrenmek isteyenler için ek bilgiler sunar.
Guide to MidJourney AI Art - How to get started FREE!
Guide to MidJourney AI Art - How to get started FREE!
  • 2022.08.18
  • www.youtube.com
Start for Free. This Guide to Midjourney AI Art will show you how to get started and show you a few tricks and give ean you an idea of how powerful this pla...
 

MidJourney -Başlarken [Yeni ve Güncellendi] AI sanat üretimine başlamanız için hızlı bir eğitim



MidJourney -Başlarken [Yeni ve Güncellendi] AI sanat üretimine başlamanız için hızlı bir eğitim

Eğitim videosu, MidJourney'nin yalnızca Discord aracılığıyla erişilebilen yapay zeka sanat oluşturma platformunun nasıl kullanılacağına dair kapsamlı bir genel bakış sunar. Konuşmacı, mevcut farklı abonelik modlarını, sanatçıları ve çeşitli koşulları kullanarak istemlerin nasıl oluşturulacağını, yapay zeka tarafından oluşturulan görüntülerden istenmeyen öğeleri kaldırmak için anahtarların nasıl kullanılacağını ve görüntülerin en boy oranlarının nasıl yükseltileceğini ve ayarlanacağını açıklıyor. Ayrıca, görsel çekiciliğe sahip istemleri kullanarak ve yükseltmeden önce varyasyon düğmesini kullanarak benzersiz AI sanatının nasıl oluşturulacağına dair ipuçları sağlarlar. Genel olarak, MidJourney, bitmiş sanat eserleri yaratmanın bir aracı olmaktan çok, sanatsal keşif ve kalkış için bir araç olarak sunulur.

  • 00:00:00 Bu bölüm mid-journey ve Discord'a genel bir bakış sağlar ve mid-journey'e yalnızca Discord üzerinden erişilebileceğini açıklar. Discord'un sesli sohbet için kullanılan ve aynı zamanda bot oluşturmak için de kullanılabilen bir platform olduğunu, yolculuğun ortasında böyle çalıştığını tartışıyorlar. Ayrıca, yolculuğun ortasında oluşturulan varlıkların sahipliğini ve hizmeti kullanmak için mevcut fiyatlandırma seçeneklerini açıklar. Konuşmacı daha sonra Discord içindeki farklı odaları ve özellikleri ve eğik çizgi aracılığıyla kullanılabilen farklı komutları kullanmak da dahil olmak üzere yolculuğun ortasında nasıl başlayacağını tartışmaya devam ediyor.

  • 00:05:00 Eğitimin bu bölümünde anlatıcı, MidJourney'de bulunan rahat mod ve özel mod dahil olmak üzere farklı abonelik modlarını tartışır. Ayrıca çeşitli yükseltme modlarını açıklarlar ve çok fazla görüntü kredisi kullanmaktan kaçınmak için çok yüksek kalite kullanmaya karşı uyarıda bulunurlar. Anlatıcı ayrıca, kullanıcıların diğer kişilerin yarattıklarını görüntüleyebilecekleri ve istemlerini kopyalayabilecekleri topluluk beslemesi de dahil olmak üzere yolculuk web sitesini de kısaca ele alır. Son olarak, anlatıcı "hayal et" komutunu tanıtır ve istemleri ve çeşitli anahtarları kullanarak bir görüntü oluşturma sürecini tartışır.

  • 00:10:00 Eğitimin bu bölümünde kullanıcı, MidJourney'in yapay zeka sanat oluşturma platformunda nasıl gezineceğini, ücretsiz görüntü oluşturma saatleri için görüntülerin nasıl derecelendirileceğini, görüntülerin nasıl yükseltileceğini ve varyasyonlarına nasıl erişileceğini ve bilgi istemlerinin nasıl oluşturulacağını açıklıyor. sanatçıları ve diğer koşulları kullanarak. Hızlı mühendislik yapay zeka sanatı yaratmanın önemli bir yönü olsa da, kullanıcıların beklenmeyen sonuçlara hazırlıklı olması ve platformu bitmiş bir üründen çok bir fikir motoru olarak görmesi gerektiği konusunda uyarıyorlar.

  • 00:15:00 Bu bölüm video eğitimi, "insan yok" anahtarı gibi yapay zeka tarafından oluşturulan bir görüntüden istenmeyen öğeleri kaldırmak için belirli anahtarların nasıl kullanılacağını açıklar. Ancak bu tür geçişlerin etkinliği, seçilen sanatçıya ve görüntünün karmaşıklığına bağlıdır. Öğretici ayrıca, "son derece ayrıntılı" veya "yağlı boya" gibi bir AI sanat istemine eklenebilecek yaygın yönergeleri ve AI botunun kafasını karıştırmamak için istemleri kısa tutmanın önemini de ele alır. Son olarak eğitim, MidJourney kullanılarak görüntülerin kalitesinin nasıl yükseltileceğini ve en boy oranlarının nasıl ayarlanacağını kapsar.

  • 00:20:00 Yazar, farklı sonuçlar elde etmek için bir görüntüyü yükseltirken ek işaretlerin nasıl kullanılacağını açıklıyor. Bayraklar, en boy oranını temsil eden "AR" ile başlar, ardından iki nokta üst üste ile ayrılmış genişlik ve yükseklik gelir. Konuşmacı, parmaklar, yüzler ve ekstra uzuvlarla ilgili sorunlar gibi teknolojide sınırlamalar olduğunu belirtiyor. Ayrıca, cryengine ve sulu boya gibi farklı yönlendirme türlerini ve bunların nasıl yeniden karıştırılacağını keşfederler. Son olarak, konuşmacı, temel bir istemle başlamanızı ve ardından onu yeniden düzenleyerek ve yükselterek mükemmelleştirmenizi önerir. Nihai görüntü kaydedilebilir ve MidJourney web sitesinden indirilebilir.

  • 00:25:00 Bu bölüm, MidJourney ile benzersiz AI sanatı oluşturmak için farklı stratejileri tartışıyor. "Blade Runner" veya "cyberpunk" gibi görsel çekiciliğe veya belirli bakışlara sahip istemleri kullanmanın MidJourney'nin çıktısına rehberlik etmede yardımcı olabileceğinden bahsediyor. Ayrıca, mümkün olan en iyi sonucu elde etmek için bir görüntüyü yükseltmeden önce varyasyon düğmesini kullanmanızı önerir. Son olarak, izleyicilere MidJourney'in bitmiş sanat eserleri için değil, sanatsal keşif ve kalkış için bir araç olduğunu hatırlatıyor.
MidJourney -Getting Started [New & Updated] A quick tutorial to get you started in AI art generation
MidJourney -Getting Started [New & Updated] A quick tutorial to get you started in AI art generation
  • 2022.10.26
  • www.youtube.com
There have been a lot of changes since the launch of MidJourney and it was about time I made an updated tutorial on how to get started. As more people disco...
 

ChatGPT, Açıklandı: OpenAI'nin Chatbot'u Hakkında Bilmeniz Gerekenler | Teknik Haberler Brifingi Podcast | Wall Street Gazetesi



ChatGPT, Açıklandı: OpenAI'nin Chatbot'u Hakkında Bilmeniz Gerekenler | Teknik Haberler Brifingi Podcast | WSJ

Chatbot'lar artık halka açık ve soru sormak ve yanıt almak için kullanılabilir. Bu araçların nasıl kullanılabileceği konusunda endişeler var, ancak uzmanlar insanların bunları rollerini değiştirmek için değil işlerini geliştirmek için kullanmaları gerektiğini söylüyor.

  • 00:00:00 Son teknoloji bir sohbete dayalı yapay zeka modeli olan ChatGPT, insan benzeri konuşmalar yapma ve sorulara yanıt verme yeteneğine sahiptir. Devasa miktarda veri üzerine inşa edilmiştir ve bir yapay zeka şirketi olan OpenAI tarafından görüntüler oluşturan bir AI platformu olan Dolly'yi geliştirmek için kullanılmaktadır. ChatGPT'nin sınırlamaları olsa da popülaritesi ve karmaşıklığı, potansiyel kullanımları ve kötüye kullanımı hakkında soru işaretleri uyandırır.

  • 00:05:00 Chatbot'lar artık halka açık ve soru sormak ve yanıt almak için kullanılabilir. Bu araçların nasıl kullanılabileceği konusunda endişeler var, ancak uzmanlar insanların bunları rollerini değiştirmek için değil işlerini geliştirmek için kullanmaları gerektiğini söylüyor.
ChatGPT, Explained: What to Know About OpenAI's Chatbot | Tech News Briefing Podcast | WSJ
ChatGPT, Explained: What to Know About OpenAI's Chatbot | Tech News Briefing Podcast | WSJ
  • 2022.12.07
  • www.youtube.com
ChatGPT, Lensa and DALL-E are giving more people without computing skills the chance to interact with artificial intelligence. These AI programs that can wri...
 

CS 156 Ders 01 - Öğrenme Problemi




Caltech'in Makine Öğrenimi Kursu - CS 156. Ders 01 - Öğrenme Problemi

Yaser Abu-Mostafa'nın makine öğrenimi kursunun ilk dersi, insan müdahalesi olmadan tahminlerde bulunmak için verilerde kalıplar bulma süreci olan öğrenme problemini tanıtıyor. Pratik öğrenme problemlerini soyutlamak için matematiksel biçimlendirmeye duyulan ihtiyacı açıklıyor ve derste makine öğrenimi için ilk algoritmayı, veri noktalarını ikili kategoriler halinde sınıflandırmak için bir ağırlık vektörü kullanan algılayıcı modelini tanıtıyor. Ders ayrıca denetimli, denetimsiz ve pekiştirmeli öğrenme dahil olmak üzere farklı öğrenme türlerini kapsar ve öğrenme için bir hedef işlev belirleme konusunu ele almak için izleyicilere denetimli bir öğrenme problemi sunar. Profesör, makine öğrenimi ile ilgili çeşitli konuları ele alır. Yeterli miktarda veri toplamanın öneminin yanı sıra veri setlerini seçerken yanlılıktan kaçınılması gerektiğini vurguluyor. Profesör ayrıca, makine öğreniminde kurulan hipotezin rolünü ve hata işlevi seçiminin optimizasyon tekniği üzerindeki etkisini tartışıyor. Ayrıca, makine öğrenimi yöntemlerini kursa dahil etme kriterlerine ve saf teori yerine pratik bilgi sağlamaya odaklandığına da değiniyor.

  • 00:00:00 Bu bölümde Yaser Abu-Mostafa, makine öğrenimi için kurs taslağını tanıtıyor ve konunun hem matematiksel hem de pratik yönlerinin önemini açıklıyor. Kurs konularının ayrı olması değil, mantıklı bir hikayeyi takip etmesi gerektiğini belirtiyor. Daha sonra, bir izleyicinin bir filmi nasıl değerlendireceğine dair bir örnek vererek öğrenme sorununu derinlemesine inceliyor; bu, Netflix'i müşterileri için önerileri kişiselleştirmek için kullandıkları için alakalı. Pratik öğrenme problemlerini soyutlamada matematiksel biçimlendirmenin öneminden bahseder ve derste makine öğrenimi için ilk algoritmayı tanıtır. Ayrıca öğrenme türleri hakkında bir anket sunuyor ve ilginç bir bilmeceyle bitiriyor.

  • 00:05:00 Bu bölümde öğretim görevlisi, makine öğreniminin özünün, verilerin kullanılabilirliğiyle birlikte kalıpların varlığında yattığını açıklıyor. Ayrıca, uygun veriler olmadan matematiksel olarak mümkün olmayan örüntü bulma ihtiyacını anlatıyor. Film derecelendirmeleri örneğini kullanarak, izleyicinin tercihlerini faktörlerin bir vektörü olarak kullanarak derecelendirmeyi tahmin etmek için bir sistem oluşturmaktan bahsediyor ve bunları filmin içeriğiyle karşılaştırıyor. Bu sistem çalışsa da, insan müdahalesi gerektirdiği için makine öğrenimi sayılmaz. Makine öğrenimi fikri, sistemi kendi başına iyileştirmek için kalıplar bularak ve düzeltici önlemler alarak sorunu insan müdahalesi olmadan çözebilmesidir.

  • 00:10:00 Bu bölümde, konuşmacı öğrenme yaklaşımını ve hangi faktörlerin bu derecelendirmeyle tutarlı olacağını bulmak için derecelendirme sürecini nasıl tersine çevirdiğini tartışıyor. Makine öğrenimi süreci, rastgele faktörlerden başlar ve 100 milyon derecelendirme arasında tekrar tekrar dolaşarak bunları derecelendirme değerlerine doğru iter ve sonunda derecelendirme açısından anlamlı faktörler bulur. Konuşmacı daha sonra, başvuru sahibi bilgilerini, kredibilite modelini ve krediyi onaylama veya reddetme kararını içeren öğrenme problemini oluşturan matematiksel bileşenleri açıklamak için finansal bir başvurudan, kredi onayından bir metafor kullanır.

  • 00:15:00 Bu bölümde eğitmen, öğrenme problemini ve bunun kredi onayına nasıl uygulanacağını tartışır. Hedef fonksiyon, bilinmeyen ideal kredi onay formülüdür ve hipotez, hedef fonksiyona yaklaşmak için oluşturulan formüldür. Veriler hipotezi öğrenmek için kullanılır ve hipotez seti olarak bilinen bir dizi aday formülden formül oluşturmak için bir öğrenme algoritması kullanılır. Öğrenme algoritmasını hipotez kümesiyle sınırlamanın ardındaki mantık, sınırsız bir formüle sahip olmanın dezavantajını ortadan kaldırmak ve aralarından seçim yapabileceğiniz önceden tanımlanmış bir formül kümesine sahip olmaktan faydalanmaktır.

  • 00:20:00 Bu bölümde konuşmacı, şeklin çözüm bileşenlerini tartışmak için öğrenme problemini bir resim olarak gösterdiğini açıklar. Hipotez setinin, diğer şeylerin yanı sıra bize ne kadar iyi öğrendiğimizi söylediği için öğrenme teorisinde hayati bir rol oynadığını belirtiyor. Hipotez seti, öğrenme algoritması ve nihai hipotezin, algılayıcı modeli ve algılayıcı öğrenme algoritması gibi bir öğrenme modeli oluşturduğunu açıklıyor. Bir müşterinin farklı özelliklerine dayalı bir kredi puanı formülü kullanarak, bir eşiğe dayalı olarak bir kredi kartı başvurusunu onaylayabilen veya reddedebilen basit bir algılayıcı modeli örneği vermeye devam ediyor.

  • 00:25:00 Bu bölümde, profesör h hipotezinin nasıl tanımlanacağını ve aynı fonksiyonel forma sahip tüm hipotezleri içeren hipotez setini tartışır. Öğrenme algoritması, verileri iki bölgeye ayıran algılayıcı modelini kullanarak, doğru çözüme ulaşma umuduyla çizgiyi hareket ettirmek için parametrelerle oynar. Profesör ayrıca, eğitim verilerini alan ve müşteriye verilen nihai hipotezi ortaya çıkarmak için hipotezler alanında gezinen algılayıcı öğrenme algoritmasını da tanıtıyor. Algoritma rastgele ağırlıklarla başlar ve son hipotezde kullanılan doğru ağırlığı bulana kadar hareket eder.

  • 00:30:00 Bu bölümde konuşmacı, veri noktalarını ikili kategoriler halinde sınıflandırabilen doğrusal bir model olan algılayıcı öğrenme algoritmasını (PLA) açıklar. Algoritma, veri kümesindeki tüm öznitelikleri hesaba katan bir ağırlık vektörü kullanır ve bir nokta yanlış sınıflandırılırsa, algoritma ağırlık vektörünü o noktada daha iyi davranacak şekilde günceller. Konuşmacı ayrıca bu yaklaşımla ve PLA'nın yinelemeleriyle ilgili sorunların nasıl olduğunu, ancak yanlış sınıflandırılmış bir nokta seçip yinelemeyi ona uygulayarak, eğer veriler başlangıçta doğrusal olarak ayrılabilirse, sonunda doğru bir çözüme ulaşacağınızı tartışır.

  • 00:35:00 Bu bölümde öğretim görevlisi, en popüler tür olan denetimli öğrenimden başlayarak farklı öğrenim türlerini tartışır. Bu tür öğrenme, gelecekteki örnekleri sınıflandırmaya yardımcı olmak için müşteri kredi davranışı gibi açıkça verilen çıktılara sahip verileri kullanmayı içerir. Öğretim görevlisi, boyut ve kütle gibi fiziksel ölçümleri kullanarak farklı madeni paraları tanıması için bir makine öğretme örneğini kullanır. Madeni paralar ölçümlerine göre gruplandırılabilir ve bu da makinenin bunları ayırt etmesine yardımcı olabilir. Bahsedilen diğer öğrenme türleri, kursun ilerleyen kısımlarında ayrıntılı olarak tartışılacak olan denetimsiz öğrenmeyi ve kısaca tanıtılacak olan pekiştirmeli öğrenmeyi içerir.

  • 00:40:00 Bu bölümde öğretim görevlisi, madeni para sınıflandırması ve dil öğrenimi örneklerini kullanarak denetimli ve denetimsiz öğrenmeyi tartışır. Denetimli öğrenmede, eğitim verileri ve doğru çıktı verilir ve sistem eğitildikten sonra, gelecekteki bir örneği sınıflandırmak için kullanılabilir. Ancak denetimsiz öğrenmede yalnızca girdi verileri sağlanır ve hedef işlev bilinmez. Buna rağmen denetimsiz öğrenme, verileri kümeler halinde gruplandırmada ve gelecekteki sınıflandırmaya yardımcı olabilecek kalıpları belirlemede hala yararlı olabilir. Öğretim görevlisi ayrıca denetimsiz öğrenmenin, kendini dile kaptırarak ve ona maruz kalarak bir dil modeli geliştirerek dil öğrenimi için nasıl kullanılabileceğini açıklar.

  • 00:45:00 Bu bölümde video, bir sistemin deneyim yoluyla öğrenmesine izin verme yöntemi olarak pekiştirmeli öğrenme kavramını açıklıyor. Öğretim görevlisi, takviyeli öğrenmenin nasıl çalıştığını göstermek için sıcak bir fincan çaya dokunan yürümeye başlayan çocuk örneğini kullanır. Sistemin herhangi bir çıktı vermesine izin vererek (çılgınca olanlar dahil) ve ödüllendirici veya cezalandırıcı sonuçlar yoluyla kademeli olarak şartlandırmaya güvenerek, sistem sonunda tavla gibi oyunlarda gezinmeyi öğrenebilir. Bu yaklaşım, kod yazmak ve arkasındaki matematiği incelemek yerine istenen sistemi üretmenin kullanışlı ve kolay bir yöntemidir.

  • 00:50:00 Dersin bu bölümünde, profesör sınıfa ve çevrimiçi izleyicilere denetimli bir öğrenme problemi sunar. Sorun, bazı noktaların +1'e eşlendiği ve diğerlerinin -1'e eşlendiği eğitim verilerini içerir. Amaç, hedef fonksiyonu öğrenmek ve bir test noktası için fonksiyonun değerini belirlemektir. Profesör, hedef işlevin bilinmediğini ve herhangi bir şey olabileceğini vurgulayarak, verilen eğitim seti dışında geçerli olan bir model belirlemeyi imkansız hale getirir. Bu, örnekleri ezberlemenin ötesinde yöntemler gerektiren, öğrenme için zor bir meydan okuma sunar.

  • 00:55:00 Dersin bu bölümünde, profesör Soru-Cevap oturumundaki soruları tartışır. Doğrusal ayrılabilirlik konusunu ele alıyor ve basit bir varsayım olsa da, doğrusal ayrılmazlık durumuyla başa çıkabilecek algoritmalar olduğunu ve doğrusal olarak ayrılamayan noktaları doğrusal olarak ayrılabilir hale getirmek için gelecek hafta bir teknik üzerinde çalışılacağını açıklıyor. Profesör ayrıca, algılayıcı algoritmasının yakınsama oranının boyutsallıkla değiştiğinden ve sonsuza kadar sürecek patolojik vakalar oluşturabileceğinden bahseder. Ek olarak, tespit edilmesi gereken belirli bir model olup olmadığını bilmenin zor olduğunu, ancak hedef işlev ile onu öğrenip öğrenemeyeceğimiz arasında bir ayrım olduğunu tartışıyor, bu daha sonra tam bir derste açıklanacak.

  • 01:00:00 Videonun bu bölümünde profesör, başka bir veri seti geldiğinde hayal kırıklığını önlemek için kendisine verilen belirli bir veri setine bakmaktan veya sistemini ona göre uyarlamaktan nasıl kaçındığını tartışıyor. Makine öğreniminin en az varsayımla en çok alanı kapsamaya çalışan bir disiplin olduğunu ve hem pratik hem de bilimsel olarak uygulanabileceğini açıklıyor. Ayrıca profesör, optimizasyonun makine öğrenimi için bir araç olduğundan bahsediyor, ancak makine öğrenimi yapan insanların kendi iyiliği için çalıştıkları bir şey değil. Son olarak, makine öğrenimi için kurulan hipotezin sürekli veya ayrık herhangi bir şey olabileceğini belirtiyor.

  • 01:05:00 Bu bölümde profesör, kredi onayındaki örnekleme yanlılığından ve bunun kullanılan verilerin kalitesini nasıl etkilediğinden bahsediyor. Taraflı bir örneklem almanın yanlış sonuçlara yol açabileceğini, ancak müşteri tabanı sınıflandırma bölgesinin daha uzağında olduğu için karar vermek için bir müşteri tabanı kullanmanın yine de işe yarayabileceğini açıklıyor. Ardından, veri toplamanın teorik ve pratik yönlerini ve makul bir sistem oluşturmak için ne kadar verinin gerekli olduğunu tartışıyor. Son olarak, hipotez seti boyutunu seçme konusuna değinir ve öğrenmenin amacının, veri seti dışında genelleme yapacak makul bir model bulmak için verileri kullanarak tahmin yapmak olduğunu belirtir.

  • 01:10:00 Dersin öğrenme sorunuyla ilgili bu bölümünde, profesör makine öğreniminde teorinin rolünü, özellikle de bir hipotez setinin karmaşıklığını nasıl ölçtüğünü ve genelleme hakkında açıklamalar yapmak için gereken veri miktarını tartışıyor. Profesör ayrıca, doğrulama kullanarak geri bildirimin nasıl düzeltileceği ve hipotezler için farklı türde işlevlerin kullanılması da dahil olmak üzere çevrimiçi izleyicilerden gelen soruları ele alır. Ek olarak, hata fonksiyonu seçiminin optimizasyon tekniği seçimini nasıl etkilediğine odaklanılarak öğrenme algoritmasının ve hipotez setinin rolü tartışılmaktadır. Son olarak profesör, bir çıktı tam olarak algılayıcı algoritması için eşikteyse ne olacağını açıklar.

  • 01:15:00 Dersin bu bölümünde profesör, makine öğreniminin çalışması için bir kalıp olması gerektiği fikrini tartışıyor. Kalıp yoksa, öğrenilecek hiçbir şey yoktur. Ayrıca verilerin öneminden ve öğrenmenin anahtarı olduğundan bahsediyor. Profesör, öğrenmeyi mümkün kılan bileşenleri tam olarak anlamak için taslağın matematiksel olarak eğilimli bölümlerinden geçmenin önemini vurguluyor. Ayrıca algılayıcının neden çoğu zaman bir nöronla ilişkili olduğu sorusuna da kısaca değiniyor ve biyoloji ile olan benzetmenin daha sonra daha detaylı olarak ele alınacağından bahsediyor. Son olarak profesör, model seçimi ve Bayes ilkelerinin dersin ilerleyen bölümlerinde tartışılacağından bahseder.

  • 01:20:00 Bu bölümde, konuşmacı makine öğrenimi yöntemlerini derse dahil etme kriterlerini tartışır. Uygulamada en yararlı yöntemlere yer verileceğini, kavramların ve araçların pratikte kullanılması için büyük resmin anlaşılmasını sağlamayı hedeflediğini belirtiyor. Destek vektör makinelerini tartışırken değinebileceği, genelleştirmede sonuçları olan farklı hiyerarşik yöntemler olduğundan bahseder, ancak genel olarak odak noktası, saf teoriden ziyade pratik bilgi sağlamaktır.
Lecture 01 - The Learning Problem
Lecture 01 - The Learning Problem
  • 2012.08.28
  • www.youtube.com
The Learning Problem - Introduction; supervised, unsupervised, and reinforcement learning. Components of the learning problem. Lecture 1 of 18 of Caltech's M...
 

Anlatım 2. Öğrenme Mümkün mü?



Caltech'in Makine Öğrenimi Kursu - CS 156. Ders 02 - Öğrenme Mümkün mü?

Ders, öğrenmenin fizibilitesini, özellikle de verilen verilerden kalıpları belirlemede makine öğreniminin kullanımını tartışıyor. Öğretim görevlisi, olasılıkta nu ve mu kavramını ve bunun öğrenme problemiyle nasıl ilişkili olduğunu tanıtır. Hedef fonksiyondan ödün vermeden öğrenmenin fizibilitesini mümkün kılacak şekilde olasılığın eklenmesi araştırılır, yani öğrenilecek fonksiyon hakkında hiçbir varsayımda bulunulmasına gerek yoktur. Fazla uydurma kavramı ve bunun model karmaşıklığıyla nasıl bir ilişkisi olduğu, daha zayıf genellemeye yol açan daha fazla sayıda hipotezle tartışılıyor. Nihayetinde ders, nu eşittir mu'nun çıkarımıyla ilgili slaydı gözden geçirme talebiyle sona erer.

  • 00:00:00 Bu bölümde Yaser Abu-Mostafa, makine öğreniminin bir uygulama için doğru teknik olup olmadığını belirlemeye yönelik üç kriteri tartışıyor: öğrenilebilecek bir model olup olmadığı, modelin matematiksel olarak tespit edilip edilemeyeceği ve modeli temsil etmek için yeterli veri varsa. Ek olarak, kalıp yoksa makine öğreniminin denenebileceğini ancak başarısız olacağını ve model matematiksel olarak belirlenebilirse makine öğreniminin en uygun teknik olmayabileceğini açıklıyor. Abu-Mostafa ayrıca, hedef işlevin bilinmediği, ancak veri girişi ve çıkışının sağlandığı denetimli öğrenmeyi ve çıktının öğrenme sürecinde bir denetleyici görevi gördüğü için buna nasıl "denetimli" dendiğini açıklıyor.

  • 00:05:00 Bu bölümde öğretim görevlisi, öğrenmenin uygulanabilirliğini ve bilinmeyen bir işlevi öğrenmenin nasıl imkansız olduğunu tartışır. Bu soruyu ele almak için ders, mu ile temsil edilen kırmızı bir bilyeyi seçme olasılığı olan kırmızı veya yeşil bilye kutusundan bir numunenin alındığı olasılıksal bir duruma odaklanır. Ders bu durumu öğrenmeye çevirir ve ardından ikileme bir çözüm bulur ve nihayetinde öğrenmenin belirli bir anlamda mümkün olduğunu ilan eder.

  • 00:10:00 Videonun bu bölümünde sunum yapan kişi, içinde bilyelerin olduğu opak bir kutuyla yapılan bir deneyi anlatıyor; burada kırmızı bir bilye çekme olasılığı mü ve yeşil bir bilye seçme olasılığı 1 eksi mu. Mu'nun değeri bilinmemektedir ve amaç, numune frekansı nu'nun (bir bilye numunesindeki kırmızı bilyelerin oranı) mu hakkında herhangi bir bilgi sağlayıp sağlayamayacağını belirlemektir. Cevap, küçük örnekler için hayır, ancak daha büyük örnekler için nu, mu'ya daha yüksek bir olasılıkla yakın olabilir ve bu da istatistiksel çıkarım için olasılıklar açar. Mümkün ve olası arasındaki ayrım, bilim ve mühendislikte anahtardır.

  • 00:15:00 Bu bölümde öğretim görevlisi, VC boyutu hakkında bir şeyler kanıtlamak için kurs boyunca kullanılacak bir formül olan Hoeffding Eşitsizliği'ni tanıtıyor. Eşitsizlik, numune frekansının belirli bir tolerans dahilinde kutu frekansına yaklaşmadığı bir olayın olasılığının küçük olduğunu ve daha büyük bir numune boyutuyla üstel olarak azaldığını belirtir. Bununla birlikte, daha küçük bir tolerans daha yüksek bir üsle sonuçlanır ve bu da negatif üstel değerin faydalarını azaltır. 2'li formül, doğru olduğu için orijinal formüle tercih edilir.

  • 00:20:00 Dersin bu bölümünde, örnek frekansının gerçek frekanstan sapmasını sınırlamak için bir araç olarak Hoeffding Eşitsizliği tanıtılmaktadır. Eşitsizlik her N ve epsilon için geçerlidir ve içinde bir üstel olmasına rağmen onu çok çekici bir önerme haline getirir. Nu'nun olasılık dağılımı açıkça bilinmeyen değer olan mu'ya bağlıdır, ancak eşitsizlik bir avantaj olan mu'ya bağlı değildir. N ve epsilon arasındaki değiş tokuş da tartışılmıştır, çünkü epsilon ne kadar küçükse, aynı olasılık sınırını telafi etmek için gereken N o kadar büyük olur. Son olarak, nu'nun mu ile yaklaşık olarak aynı olduğu ifadesinin mantığı açıklanarak, mu'nun yaklaşık olarak nu ile aynı olduğu ima edilmektedir.

  • 00:25:00 Videonun bu bölümünde, konuşmacı olasılıkta mu ve nu kavramını ve bunun öğrenme problemiyle nasıl bir ilişkisi olduğunu tartışıyor. Olasılıkta amaç, farklı örnekler üreterek ve olasılığı hesaplayarak mu'dan nu'yu çıkarmak olsa da, öğrenme probleminde bilinmeyen niceliğin, 10. dereceden Öklid uzayı olabilecek bir etki alanına sahip tam bir fonksiyon olduğunu açıklıyorlar. Konuşmacı daha sonra bu senaryoda bir hipotez ile hedef fonksiyon arasındaki anlaşmayı belirtmek için renk kodlaması kavramını tanıtmaya devam eder. Bu haritalama yoluyla konuşmacı, öğrenme problemine etkili bir şekilde olasılık eklemiştir.

  • 00:30:00 Bu bölümde, öğrenme problemine olasılığın eklenmesi inceleniyor. Olasılık, bağımsız olarak puan üreten girdi uzayı üzerine olasılık dağılımı uygulanarak girdi uzayına tanıtılır. Tanıtılan olasılık dağılımı varsayım gerektirmez ve makine herhangi bir olasılık dağılımına uygulanabilir. Olasılığın eklenmesi, hedef işlevden ödün vermeden öğrenmenin uygulanabilirliğini sağlar, yani öğrenilecek işlev hakkında hiçbir varsayımda bulunulmasına gerek yoktur. Bununla birlikte, açıklanan durumun, verilen verilere dayalı olarak kredi onayı için belirli bir formül arayan bir bankaya eşdeğer olduğu durumlarda doğrulama sorunu tartışılmaktadır.

  • 00:35:00 Bu bölümde öğretim görevlisi, basit bir hipotez test etme probleminin nasıl öğrenilebilen ikili bir probleme dönüştürüleceğini açıklar. Tek bir kutu ve yüksek bir eşikle başlayarak, öğrenme problemine zayıf bir şekilde katkıda bulunduğu için, ikamet ettiği yıllar için 0,1'lik bir ağırlık seçer. Bununla birlikte, bu teknik birden fazla hipotezi hesaba katmaz, yani birkaç kutu arasından seçim yapmak daha akıllıcadır. Bu, etkili öğrenmeye izin verebilecek farklı örneklerin taranmasını gerektirir. Konuşmacı, konuşmanın geri kalanında kullanılacak gösterimi tanıtıyor, nu ve mu'yu sırasıyla örnekteki ve kutu içindeki frekansı temsil ettikleri için açıklayıcı adlarla çağırıyor ve sonuç olarak örnek içi hata oranı olarak E_in'i tanıtıyor.

  • 00:40:00 Dersin bu bölümünde, profesör numune içi ve numune dışı performans notasyonunu tanıtır. Örnek dışı performans, daha önce görülmemiş bir şeyi ifade eder ve bir model, örnek dışı veriler üzerinde iyi performans gösteriyorsa, öğrendiği anlamına gelir. Örnek içi ve örnek dışı performanstaki farklılıkları ölçmek için kullanılan Hoeffding Eşitsizliği daha sonra birden fazla hipotez kutusuna uygulanır, ancak profesör bunun bu durumda geçerli olmadığını açıklar. Bunun uygulanmamasının nedeni daha sonra tartışılır ve izleyicilerden konuyu açıklamak için beş kez yazı tura atmaları ve sonuçları kaydetmeleri istenir.

  • 00:45:00 Bu bölümde profesör Hoeffding eşitsizliğinin, verilerin rastgele iki kategoriden birine düştüğü öğrenme durumu için nasıl geçerli olduğunu açıklar. Birden fazla kutunun problemle başa çıkmayı zorlaştırdığını ve bir kutunun beş tura verme olasılığını hesaplarken Hoeffding'in eşitsizliğinin garantisini sulandırdığını açıklıyor. Kutuların her biri beş kafa testini geçebilse de, bir yerlerde kötü bir şey olma ihtimali son derece yüksek olduğundan, kutunun gerçek olasılığının bir göstergesi değildir. Profesör bu bölümü, birden fazla bölmeyle verimli bir şekilde başa çıkmalarını sağlayacak bir şey bulmaları gerektiğini belirterek bitirir.

  • 00:50:00 Bu bölümde öğretim görevlisi, örneklem içi bir hataya dayalı bir kümeden bir hipotez seçmeyi içeren Gerçek Öğrenme Senaryosu altında, örneklem içi hatanın örneklem dışı hataya yakın olma olasılığını tartışır. kriter. Bu olayın olasılığı, olasılıkta Birlik Sınırı kullanılarak hesaplanan, sonlu kümeden herhangi bir hipotezin kötü olma olasılığına eşit veya ondan küçüktür. Bu sınır karamsar olmasına ve örtüşmeyi dikkate almamasına rağmen, tüm olasılıkların üst sınırını hesaplamak için kullanılabilir. Bu sınırdaki her terim, Hoeffding sınırı ile değiştirilebilen sabit bir hipoteze karşılık gelir. Nihayetinde, numune içi hatanın numune dışı hataya yakın olma olasılığı, yine de içinde üstel olan bir terimle sınırlıdır, ancak can sıkıcı ek bir faktör içerir.

  • 00:55:00 Bu bölümde, profesör fazla uydurma sorununu ve bunun kullanılan modelin karmaşıklığıyla nasıl bir ilişkisi olduğunu tartışıyor. Daha fazla sayıda hipotezle, kötü bir şey olma olasılığı da artar. Profesör, daha karmaşık bir modele sahip olmanın, örnek içinde ezberlemeye ve örnek dışı zayıf genellemeye yol açabileceğini açıklıyor. Soru-Cevap oturumu, sonucun önemsiz olduğu durum ve öğrenme modelleri için hipotez sayısının genellikle sonsuz olduğu durumlar da dahil olmak üzere Hoeffding Eşitsizliği'ni ve bunun sonuçlarını tartışır. Ders, nu eşittir mu'nun anlamı üzerine 6. slaytın gözden geçirilmesi talebiyle sona erer.

  • 01:00:00 Videonun bu bölümünde, profesör istatistikteki neden-sonuç kavramını ve bunun makine öğrenimiyle nasıl bir ilişkisi olduğunu açıklıyor. Örnekteki frekansın sonuç, çöpün ise sebep olduğunu vurguluyor. Bu anlayış, mu'yu bir sabit ve nu'yu neden olarak ele alırken, örneğe dayalı olarak bin'i çıkarmak için Hoeffding Eşitsizliği'ni kullanırken çok önemlidir. Profesör ayrıca, makine öğrenimindeki her h'nin bir hipotez olduğunu ve modelin seçim için mevcut hipotezler kümesi olduğunu da açıklıyor. Modelin karmaşıklığı ve bireysel hipotezler dersin ilerleyen kısımlarında tartışılacaktır. Son olarak, profesör, bir şeyin beklenen değerini örnek ortalamaya karşı alarak elde edilebilecek bir ikili yanıtı değil, bir dizi yanıtı desteklemek için denklemin nasıl genişletileceğini tartışır.

  • 01:05:00 Bu bölümde profesör öğrenmenin mümkün olduğunu ancak değişkenin varyansının dikkate alınması gerektiğini açıklar. Bir fonksiyonun beklenen değeri ve örnek ortalamasının olasılıkla ilişkili olduğunu ve bunun olasılık ve örnek ortalamasının daha basit bir durumu olduğunu belirtiyor. Ek olarak, farklı hipotezler farklı renklere yol açacağından, öğrenmede çoklu hipotezleri temsil etmek için çoklu kutu kullanımının gerekli olduğunu açıklıyor. Profesör ayrıca, en iyi hiperdüzlemleri seçmenin nasıl çalıştığını ve öğrenme algoritmalarının, sonunda belirli çözümü seçerek bu sorunu nasıl çözdüğünü açıklıyor. Son olarak, öğrenmede ihtiyaç duyulan tek olasılık çağrısının, öğrenmede olasılık analizinden faydalanmak için X'e bir olasılık dağılımı koymak olduğuna, ancak Bayes yaklaşımının H'ye bir olasılık dağılımı koyacağına işaret ediyor. kurs.

  • 01:10:00 Bu bölümde tartışma, bir öğrenme algoritmasında kullanılan hipotez setinin (H) esnekliği etrafında dönüyor. 'g' sembolü, H'den bir algoritma tarafından seçilen nihai hipotezi belirtmek için kullanılır. Bununla birlikte, g, verilere ve öğrenme kuralına göre hipotez kümesinden onu seçmeye giden tüm öğrenme sürecini ifade ettiğinden farklı olabilir. Ayrıca, algılayıcı algoritması veya herhangi bir doğrusal öğrenme algoritması her adımda bir hipotez seçse de, amaç H'den doğru bir nihai hipotez, g seçmek olduğundan, analiz perspektifinden bunun gizli bir süreç olduğunu not etmek önemlidir. Son olarak, değiştirilmiş Hoeffding Eşitsizliği, kötü şeylerin olma olasılığını hesaba katarken iyi performansı garanti etmek için hipotez setindeki bir dizi hipotez üzerinde aynı anda ifadeler yapılmasına izin veren sade Hoeffding Eşitsizliğinin bir uzantısıdır.

  • 01:15:00 Bu bölümde profesör Hoeffding Eşitsizliği ile istatistikteki p değerleri arasındaki ilişkiyi tartışıyor. Hoeffding Eşitsizliğinin bir örneğin güvenilirliğini ve sapma olasılığını tahmin etmekle ilgili olduğunu açıklıyor. Ayrıca istatistikte başka büyük sayılar kanunları olduğunu da not eder, ancak genelleme teorisini anlamak için en yararlı formül olarak bu formüle odaklanır. Profesör, örneklem içi örneklem dışına yakın olmanın farklı tezahürlerini ve hata olasılıklarını incelemek faydalı olsa da, dersin ana konusu olmadığını belirtiyor. Ders biter ve öğrenciler bir sonraki haftaya kadar dağılır.
Lecture 02 - Is Learning Feasible?
Lecture 02 - Is Learning Feasible?
  • 2012.04.09
  • www.youtube.com
Is Learning Feasible? - Can we generalize from a limited sample to the entire space? Relationship between in-sample and out-of-sample. Lecture 2 of 18 of Cal...
 

Ders 3 - Doğrusal Model I




Caltech'in Makine Öğrenimi Kursu - CS 156. Ders 03 - Doğrusal Model I

Bu ders, sınıflandırmada kullanımı da dahil olmak üzere, makine öğrenimindeki doğrusal modeller, girdi gösterimi, algılayıcı algoritması, cep algoritması ve doğrusal regresyon konularını kapsar. Profesör, farklı fikirleri denemek için gerçek verileri kullanmanın önemini vurguluyor ve öğrenme algoritmasının ömrünü basitleştirmek için özellikler kavramını tanıtıyor. Ders ayrıca doğrusal regresyonda sözde tersinin hesaplama yönlerini ve ayrılamaz veriler üzerinde sınıflandırma için doğrusal regresyonu kullanırken ortaya çıkabilecek sorunları tartışır. Son olarak, verileri daha doğrusal hale getirmek için doğrusal olmayan dönüşümleri kullanma kavramı, orijinden x1² ve x2² dönüşümünü kullanarak ayrılabilir verilere nasıl ulaşılacağını gösteren bir örnekle sunulur.

Ayrıca profesör, makine öğrenimindeki doğrusal modelle ilgili çeşitli konuları ele alıyor. Doğrusal olmayan dönüşümleri ve bunların seçilmesine, ikili sınıflandırmada örnek içi ve örnek dışı hatalara, korelasyon analizi için doğrusal regresyonun kullanılmasına ve girdiden anlamlı özellikler türetilmesine ilişkin yönergeleri tartışıyor. Profesör ayrıca E_in ve E_out arasındaki farkı ve bunların model performansını nasıl etkilediğini anlamanın önemini vurguluyor. Son olarak, doğrusal regresyon ile maksimum olasılık tahmini arasındaki ilişkiye, doğrusal olmayan dönüşümlerin kullanımına ve makine öğrenimi kavramlarını anlamada teorinin rolüne değiniyor.

  • 00:00:00 Bu bölümde, Yaser Abu-Mostafa bir modelde çoklu hipotez konusunu derinlemesine inceliyor. Kötü bir şey olma olasılığı birden çok hipotezde birikebileceğinden, birlik bağı - bir matematiksel kural - uygulanabilir. Bu teknik, bir olayın veya başka bir olayın olasılığının, bireysel olasılıkların toplamından küçük veya ona eşit olmasını sağlayarak, kötü bir şey olma olasılığını sınırlamak için yararlı bir araç sağlar. Tek bir hipotez seti veya kutusu tek bir hipoteze karşılık geldiğinde, nihai hipotezin kötü olma olasılığı düşüktür. Bununla birlikte, daha büyük bir hipotez seti, büyük bir M faktörü ile sonuçlanacak ve olasılığı anlamsız hale getirecektir.

  • 00:05:00 Bu bölümde öğretim görevlisi, makine öğreniminde doğrusal modellerin önemini tartışır ve derste ele alınan bir dizi konu sağlar; bu, algılayıcı ve onun ayrılmaz verilere genelleştirilmesi, gerçek değerli bir işlev, ve sonunda doğrusal olmayan bir duruma. Ayrıca postanedeki farklı fikirleri denemek için kullanılacak posta kodlarından pratik bir veri seti sunuyor ve fikirleri gerçek veriler üzerinde denemenin önemini vurguluyor. Öğretim görevlisi, çok fazla parametreye yol açabilen, ancak özellik çıkarma teknikleriyle çözülebilen 16'ya 16 gri seviyeli piksel ham girdinin 256 gerçek sayısını kodlamanın zorluğunu vurgulayarak girdi gösterimi sorununu inceler.

  • 00:10:00 Bu bölümde video, girdi gösterimi kavramını ve öğrenme algoritmasının ömrünü basitleştirmeye yönelik özellikler fikrini tartışıyor. Öğretim görevlisi, ham bilginin daha üst düzey bir temsilini elde etmek için bir görüntünün yoğunluk ve simetri gibi tanımlayıcılarının çıkarılmasına bir örnek verir. Algoritmanın bu özellikleri kullanarak orijinal uzaydaki 257 parametrenin tamamının yerine yalnızca birkaç parametrenin değerlerini belirlemesi gerekir ki bu genelleme için daha iyidir. Ders daha sonra, özelliklerin sorunu nasıl doğrusal olarak ayrılabilir hale getirdiğini göstermek için yoğunluk ve simetri koordinatlarının dağılım diyagramlarını sunar ve algılayıcı öğrenme algoritmasının karar sınırını belirlemedeki rolünü tanıtır.

  • 00:15:00 Bu bölümde, veriler doğrusal olarak ayrılamaz olduğunda algılayıcı öğrenme algoritmasının davranışını öğreniyoruz. Yanlış sınıflandırmaları birer birer düzeltme özelliğinden dolayı, bazen hata artabilir veya azalabilir ve bu tür durumlar için yakınsamayı garanti edemez. Bunu çözmek için cep algoritmasını tanıtıyoruz, bu da her yinelemede ara hipotezin örneklem içi hatasını ölçtüğümüz ve yalnızca en iyisini cebimizde tuttuğumuz anlamına geliyor. Sonunda cebimizdeki hipotezi nihai hipotez olarak rapor ediyoruz. Cep algoritması, her iterasyonda bulunan cep değerini bir sonrakinden daha iyi kabul ettiğinden daha iyi sonuçlar verir ve bu nedenle numune içi ve numune dışı hatalar çok daha yakındır.

  • 00:20:00 Dersin bu bölümünde Profesör Abu-Mostafa, genel ayrılmaz veriler için kullanılabilen algılayıcı öğrenme algoritmasının değiştirilmiş bir versiyonu olan cep algoritmasını tartışıyor. Algoritma belirli bir iterasyonda sonlanır ve cep değerini bildirir. Cep algoritmasının sınıflandırma sınırının, veriler hala tam olarak ayrılabilir olmasa da, algılayıcı öğrenme algoritmasından daha iyi olduğunu açıklıyor. Lineer regresyon daha sonra değişkenler arasında bir ilişki bulmak için, özellikle de farklı derslerin genel not ortalamaları ile gelecekteki kazançları arasındaki ilişkiyi analiz etmek için yaygın olarak kullanılan bir istatistiksel yaklaşım olarak tanıtılır. Son olarak, bir müşterinin kredi limitini verilerine dayalı olarak tahmin etmek için regresyonun nasıl kullanılabileceğini göstermek için kredi onayı örneği yeniden ele alınır.

  • 00:25:00 Bu bölümde, profesör doğrusal regresyon kavramını tanıtıyor ve girdi değişkenlerine dayalı olarak gerçek çıktı değerlerini tahmin etmek için kullanıldığını açıklıyor. Çıktı, girdi değişkenleri açısından doğrusal bir biçim alan bir hipotezdir. Değişkenler giriş olarak kodlanır ve algoritma, sinyalin doğrusallığına bağlıdır. Bu örnek için veri seti, bir memurun kredi başvurularını değerlendirdiği ve bir kredi limiti belirlediği önceki müşterilerden alınan geçmiş verilerdir. Amaç, kredi limitlerini belirleme sistemini otomatikleştirmek için uzmanların yaptıklarını tekrarlamaktır. Doğrusal regresyon algoritması hatayı ölçer ve f'ye iyi yaklaşan hipotezi belirlemek için en uygun ağırlıkları bulmaya çalışır. Doğrusal regresyonda kullanılan standart hata fonksiyonu karesel hatadır.

  • 00:30:00 Bu bölümde öğretim görevlisi bir kredi limitinin nasıl tahmin edileceğini ve lineer regresyonda yaygın olarak kullanılan hatanın karesi gibi bir hata ölçüsü tanımlamanın önemini tartışır. Örnek içi hata, her örneğin hataya bir katkısı olduğu veri kümesinde hipotezin ne kadar iyi çalıştığını ölçmek için kullanılır. Doğrusal regresyon algoritması, hatanın karesi kuralına göre verilere uyan bir çizgi bularak bu hatayı en aza indirmeye çalışır. Algoritma, çizginin bir hiper düzlem olduğu daha yüksek boyutlu uzaylar için geçerlidir. E_in ifadesi, farklı x_n'leri birleştiren bir şeyin norm karesi olarak sunulur.

  • 00:35:00 Bu bölümde, giriş verilerinin bir y çıkış vektörü ile bir X matrisi olarak sunulduğu doğrusal model kavramı tanıtılmaktadır. Gradyan, w parametresine göre E_in'i en aza indirmek için alınır. Bu, tersinir bir kare matris olan X devrik X'i içeren, çözülmesi gereken basit bir ikinci dereceden denkleme yol açar. Çözüm bundan dolayı basittir ve w'nin formülü X^†'dir; burada X^†, X'in sözde tersidir; bu, X'in devrik X çarpı X'in devrik olmasının tersinin kısaltmasıdır. X tersinmez olduğundan, geleneksel bir tersi yoktur, ancak sözde tersi vardır.

  • 00:40:00 Bu bölümde öğretim görevlisi, doğrusal regresyonda sözde tersin hesaplamalı yönlerini açıklıyor. Sözde ters formül, büyük matrisler için hesaplama açısından yoğun olabilen matris tersini ve çarpmayı içerir. Bununla birlikte, öğretim görevlisi, sözde tersin hesaplanması veya doğrusal regresyon için çözümün mevcut olduğu birçok paket olduğundan, bunun çoğu pratik uygulama için bir endişe kaynağı olmadığını belirtiyor. Doğrusal regresyonu kullanmak için, verileri doğru formatta girmeli, X matrisini ve y vektörünü oluşturmalı ve sonra bunları sözde ters formüle eklemelisiniz. Ortaya çıkan çarpma, doğrusal model için ağırlıklar olan w değerlerini verir.

  • 00:45:00 Bu bölümde, sınıflandırma için doğrusal regresyon kullanma kavramı tanıtılmaktadır. İkili değerli sınıflandırma fonksiyonlarının da gerçek değerli olduğu ve bu fonksiyonları yaklaşık olarak öğrenmek için doğrusal regresyonun kullanılabileceği açıklanmıştır. Doğrusal regresyondan elde edilen ağırlıklar, perceptron algoritması gibi sınıflandırma algoritmaları için başlangıç ağırlıkları olarak da kullanılabilir, bu da hızlı bir başlangıç ve potansiyel olarak daha hızlı yakınsama sağlar. Ek olarak, lineer regresyondan elde edilen sinyalin işaretini +1 veya -1 olarak sınıflandırmak için kullanma fikri tartışılmıştır. Son olarak, doğrusal regresyon sınırı bir örnek kullanılarak açıklanmaktadır.

  • 00:50:00 Dersin bu bölümünde profesör, sınıflandırma için doğrusal regresyon kullanırken, özellikle de ayrılamayan verilerle uğraşırken ortaya çıkabilecek sorunları tartışıyor. Algoritmanın tüm değerleri aynı sınıflandırmaya zorlamaya çalışacağını ve bunun da genellikle sınıflandırma sürecinde hatalara yol açacağını gösteriyor. Ardından, ikamet yıllarına dayalı olarak kredi limiti istikrarının belirlenmesi durumunda olduğu gibi, verileri daha doğrusal hale getirmek için doğrusal olmayan dönüşümleri kullanma fikrini ortaya koyuyor. Ancak bu modeller açısından “doğrusal” ile ne kastedildiğini anlamanın etkin kullanım için önemli olduğunu vurguluyor.

  • 00:55:00 Bu bölümde öğretim görevlisi, x'lerin ne olduğuna bakmaksızın algoritmaların çalışmasını sağladığından, perceptron ve lineer regresyon gibi öğrenme algoritmaları türetirken ağırlıklardaki lineerliğin önemini tartışır. Bu, doğrusal olmayan özelliklere verilen ağırlıklar doğrusal olarak parametrelere bağlı olduğundan, doğrusal modeller alanından çıkmadan girdilere doğrusal olmayan dönüşümler yapma olasılığını açar. Verilerin orijinden x1² ve x2² ölçümleri kullanılarak dönüştürüldüğü ve sonuçta ayrılabilir veriler elde edildiği doğrusal olmayan bir dönüşüm örneği verilmiştir. Bununla birlikte, doğrusal olmayan dönüşüm, genelleme konularına duyarlı, yüklü bir sorudur, bu nedenle yönergeler bir sonraki derste daha ayrıntılı olarak ele alınacaktır.

  • 01:00:00 Bu bölümde, profesör doğrusal olmayan dönüşümleri ve onları seçerken ne kadar ileri gidilebileceğine dair yönergeleri tartışıyor. Doğrusal olmayan dönüşümleri seçerken genellemenin ve teorik bilginin önemini vurgular. Tartışma daha sonra, özellikle ikili sınıflandırma bağlamında, örnek içi ve örnek dışı hatalara geçer. Profesör, öğrenmede yalnızca örnek içi hatanın ele alındığını, örnek dışı hatanın ise örnek içinde iyi yapmanın örnek dışı iyi yapmak anlamına geleceği garantisiyle üstü kapalı olarak ele alındığını açıklıyor. Sınıflandırmada hata olasılığı ile hata sıklığı arasındaki fark da açıklanmıştır. Ders daha sonra GPA ile gelecekteki gelir arasındaki ilişkiyi belirlemek için doğrusal regresyon kullanmaya değiniyor. Verilerin mevcudiyeti ve w_0'ın doğrusal regresyona dahil edilmesi de kısaca tartışılmaktadır.

  • 01:05:00 Bu bölümde profesör, değişkenlerin değerlerine bağlı olarak ofseti telafi ederek uygun bir modele izin verdiği için eşiğin doğrusal regresyon için gerekli olduğunu açıklar. İkili durumda, çıktı olarak +1 veya -1 kullanıldığında, doğrusal regresyondan elde edilen hipotez, örneklerdeki hedeflerden en küçük kareler hatasına sahiptir ve hipotezin çıktısı, +1 veya -1 değerine en yakın olanıdır. ortalama kare hatası. Bu teknik işe yarasa da, doğrusal regresyon sınıflandırmayı bozabilecek alakasız noktaları sığdırmaya çalıştığından noktaları doğru şekilde sınıflandırmayabilir. Profesör, ilk ağırlık olarak doğrusal regresyon kullanmayı ve ardından daha fazla ince ayar yapmak için uygun bir sınıflandırma algoritması kullanmayı öneriyor. Özellik türetme konusunda genel bir algoritma yoktur ve en iyi yaklaşım ham girdiye bakmak ve problem ifadesine dayalı olarak anlamlı özellikler çıkarmaya çalışmaktır. Ancak çok fazla öznitelik varsa bu bir sorun haline gelebilir ve burada doğrusal olmayan dönüşümler öznitelik uzayını basitleştirmeye yardımcı olabilir.

  • 01:10:00 Bu bölümde profesör, ham bir girdinin herhangi bir üst düzey temsili olan özellikler kavramını tartışıyor. Doğrusal model, makine öğrenimindeki çok sayıda model için bir yapı taşıdır ve diğer modeller bazı durumlarda daha iyi artımlı performans verebilir, ancak doğrusal modelin işi yaptığını vurgular. Profesör ayrıca E_in ve E_out arasındaki farkı vurgular, E_in kolayca değerlendirilirken E_out, örnek içi hatanın örnek dışı hatayı izlediğine dair teorik garantiler gerektirir. Ek olarak, girdi değişkenini doğrusal olmayan bir dönüşümle dönüştürerek bir polinomu sığdırmak için doğrusal regresyonun hala kullanılabileceğini açıklıyor. Son olarak, olasılıklar ve gürültü hakkında daha fazla varsayım içeren istatistik literatüründeki doğrusal regresyon en küçük kareler ve maksimum olabilirlik tahmini arasındaki ilişkiden kısaca bahsediyor.

  • 01:15:00 Bu bölümde profesör, doğrusal regresyon modeli ile maksimum olasılık arasındaki ilişkiden bahsediyor, ancak doğrusal regresyonu dağılımlar hakkında çok fazla varsayımda bulunmadan makine öğrenimi bağlamında sunmayı tercih ediyor. Profesör ayrıca, polinomlar ve radyal tabanlı fonksiyonlar da dahil olmak üzere doğrusal olmayan dönüşümleri ve bunların makine öğreniminde nasıl kullanıldığını tartışıyor. Ayrıca sözde rasgele sayı üreteçlerinde örüntüler bulma ve eldeki soruna bağlı olarak sürekli ve kesikli yanıtlar için farklı tedaviler hakkında soruları ele alıyor. Son olarak profesör, makine öğrenimi tekniklerini daha derinlemesine anlamada teorinin önemini vurguluyor.
Lecture 03 -The Linear Model I
Lecture 03 -The Linear Model I
  • 2012.04.12
  • www.youtube.com
The Linear Model I - Linear classification and linear regression. Extending linear models through nonlinear transforms. Lecture 3 of 18 of Caltech's Machine ...
 

Ders 4 - Hata ve Gürültü



Caltech'in Makine Öğrenimi Kursu - CS 156. Ders 04 - Hata ve Gürültü

Makine öğrenimi kursunun Ders 04'ünde Profesör Abu-Mostafa, gerçek hayattaki makine öğrenimi problemlerinde hata ve gürültünün önemini tartışıyor. Öğrenmede doğrusallığı korumak için gerekli olan özellik uzayı Z'yi kullanarak doğrusal olmayan dönüşüm kavramını açıklıyor. Ders ayrıca denetimli öğrenme diyagramının bileşenlerini de kapsar ve hipotezin performansını ölçmede hata ölçümlerinin önemini vurgular. Gürültülü hedefler, örnek içi hatayı en aza indirirken dikkate alınması gereken gerçek dünya öğrenme problemlerinin tipik bir bileşeni olarak sunulur. Ders, öğrenme teorisi ve bunun örneklem içi hata, örneklem dışı hata ve model karmaşıklığının değerlendirilmesindeki önemi üzerine bir tartışmayla sona erer.

Profesör, olasılık dağılımındaki değişikliklerin öğrenme algoritmasını nasıl etkileyebileceğini ve farklı uygulamalar için hata ölçümlerinin nasıl değişebileceğini açıklıyor. Ayrıca doğrusal regresyon için algoritmayı, optimizasyonda hata ölçüleri için karesel hataya karşı mutlak değerin kullanımını ve makine öğrenimi modellerinde karmaşıklık ile performans arasındaki dengeyi tartışıyor. Profesör, girdi uzayı ile özellik çıkarımı arasındaki farkı açıklığa kavuşturuyor ve aynı anda genellemenin nasıl geliştirileceğine ve hatanın nasıl en aza indirileceğine ilişkin teorinin gelecek derslerde ele alınacağını belirtiyor.

  • 00:00:00 Bu bölümde Profesör Abu-Mostafa, makine öğreniminde gerçek hayattaki sorunları ele alırken hata ve gürültünün önemini tartışıyor. İlk önce doğrusal olmayan dönüşüm kavramını ve öğrenme süreci için gerekli olan ağırlık vektörü w'de değişkenleri dönüştürmeye ve doğrusallığı korumaya nasıl yardımcı olduğunu yeniden ele alıyor. Daha sonra, gerçek yaşam durumlarında ortaya çıkan pratik hususları kabul ederek, öğrenme diyagramında hata ve gürültü kavramını tanıtıyor. Ders ayrıca, doğrusal olmayan bir dönüşümle ayrılabilen, ayrılamayan verilerin bir örneğini içerir.

  • 00:05:00 Bu bölümde, x_n örnek uzayındaki her noktanın dönüşümden geçirildiği ve son derece doğrusal olmayan bir uzay olabilen Z özellik uzayında karşılık gelen z_n noktasının elde edildiği, phi adı verilen doğrusal olmayan bir dönüşüm ele alınmaktadır. Bu, veri kümesinin yeni özellik uzayında doğrusal olarak ayrılabilir hale gelmesine izin verir ve bu daha sonra bir ayırma sınırı elde etmek için doğrusal regresyon veya sınıflandırma gibi basit doğrusal model algoritmaları tarafından uygulanır. Bununla birlikte, bir test noktası verildiğinde, girdi uzayındadır, dolayısıyla bu noktanın uygun şekilde sınıflandırılması için özellik uzayında nerede olduğunu bulmak için bir ters dönüşüm kullanılarak dönüştürülmesi gerekir. Bu prosedür, herhangi bir doğrusal olmayan dönüşüm için herhangi bir boyutta iyi çalışır, ancak genelleme sorunlarından kaçınmak için dönüşümde dikkatli olmak önemlidir.

  • 00:10:00 Bu bölümde eğitmen denetimli öğrenme diyagramının bileşenlerini tartışır ve hata ölçümleri ve gürültülü hedefler kavramını tanıtır. Hata ölçümlerinin amacının, bir hipotezin bilinmeyen bir hedef fonksiyona ne kadar iyi veya ne kadar kötü yaklaştığını ölçmek olduğunu açıklıyor. Hata ölçüsü, iki fonksiyonun E'si olarak tanımlanır ve niceliksel bir ölçü olduğunu vurgular. Ayrıca, gürültülü hedeflerin gerçek hayattaki öğrenme problemlerinin dikkate alınması gereken pratik bir bileşeni olduğunu belirtir.

  • 00:15:00 Bu bölümde konuşmacı, makine öğrenimi algoritmalarında bir hipotez işlevinin bir hedef işleve ne kadar iyi yaklaştığını ölçmek için hata işlevinin nasıl kullanıldığını açıklıyor. Hata işlevi, aynı noktadaki iki işlevin değerini karşılaştırarak hesaplanan bir sayı döndürür. Noktasal tanım yaygın olarak kullanılır ve noktasal hataların ortalaması, tüm uzayda hata fonksiyonunu tanımlamak için kullanılır. Hata fonksiyonunun örneklem içi hatası, eğitim setindeki noktasal hataların ortalaması iken, örneklem dışı hata, verilerin eğitim ve test setlerine bölünmesini gerektirir. Konuşmacı, doğru bir hipotez fonksiyonu geliştirmek için hata fonksiyonunu en aza indirmenin önemini vurgular.

  • 00:20:00 Bu bölümde öğretim görevlisi, bir hata ölçüsünün örneklem dışı versiyonu olan örneklem dışı hatayı tartışır. Beklenti değeri, X giriş uzayındaki tüm noktaların ortalaması alınarak elde edilir. İkili hata, X giriş uzayı üzerindeki olasılık dağılımı kullanılarak hesaplanan genel hata olasılığıdır. Öğrenme diyagramı, hata ölçüsünün eklenmesiyle güncellenir. nokta bazında tanımlanır. Hata ölçüsü, parmak izi doğrulaması bağlamında iki tür hatayla tanımlanır - yanlış kabul ve yanlış red. Bir hata ölçüsü tanımlanırken, daha iyi bir hipotez elde etmek için her bir hata türü cezalandırılır.

  • 00:25:00 Bu bölümde konuşmacı, parmak izi doğrulama sistemlerindeki hata ve gürültü kavramını ve makine öğreniminin, bireylerin parmak izlerine göre kabul edilmesi veya reddedilmesine yönelik bir hipotez oluşturmak için nasıl kullanılabileceğini tartışıyor. Konuşmacı, bir hata işlevini diğerine tercih etmenin doğal bir değeri olmadığını ve bunun uygulama alanına bağlı olduğunu belirtiyor. Örneğin, süpermarketler söz konusu olduğunda, yanlış kabuller müşterileri hüsrana uğratabileceği ve işlerini başka bir yere götürebileceği için maliyetlidir, oysa yanlış kabuller o kadar da önemli değildir. Bununla birlikte, CIA söz konusu olduğunda, yanlış kabuller potansiyel olarak güvenlik ihlallerine yol açabilir ve bu da onları yanlış reddetmelerden daha maliyetli hale getirir. Bu nedenle, hata matrisinin belirli uygulamaya göre ayarlanması gerekir.

  • 00:30:00 Bu bölümde, konuşmacı uygulamalı öğrenme problemlerinde hata ölçülerinin önemini tartışır ve kullanılan hata ölçüsünün kusurlu sistemi kullanacak kullanıcı tarafından belirlenmesi gerektiğini açıklar. Kullanıcı niceliksel bir hata işlevi ifade edebiliyorsa, bunun üzerinde çalışılacak hata işlevi olduğunu öne sürer. Ancak, kullanıcılar belirli hata işlevleri vermediğinde, diğer makul veya kolay önlemler kullanılabilir. Makul önlemlerin analitik değerleri vardır, dost önlemlerin kullanımı kolaydır. Konuşmacı, sistemin ne öğrenmesi gerektiğini netleştirmede çok önemli olan hata ölçüsünü tanıtmak için öğrenme diyagramını değiştirir.

  • 00:35:00 Bu bölümde, hata ölçüsü ve bunun öğrenme algoritmasındaki rolüne odaklanılmaktadır. Hata ölçüsünün iki ana işlevi vardır: son hipotezi değerlendirmek ve hedef işleve yaklaşmak ve örnek içi hatayı en aza indirmek için hata ölçüsünü öğrenme algoritmasına beslemek. Ek olarak, gerçek hayattaki problemler için norm olarak gürültülü hedefler tanıtılır. Hedef işlev her zaman bir işlev değildir ve açıklanmayan bilgilerden ve koşullardan gelen gürültüden etkilenebilir, bu da onu deterministik olmaktan çok olasılıksal yapar. Bir hedef fonksiyon yerine bir hedef dağılımı kullanılır; burada y, x verilen olasılık dağılımı tarafından üretilir ve olasılıksal bağımlılığı temsil eder. Gürültülü hedefler kavramı, deterministik hedef fonksiyonu artı gürültü fikri tanıtılarak ele alınır ve bu yaklaşım, hedef dağılımı kavramını basitleştirmek için kullanılır.

  • 00:40:00 Bu bölümde konuşmacı, makine öğrenimindeki gürültü kavramını ve öğrenme sürecini nasıl etkileyebileceğini tartışıyor. Hedef işlev, x verilen beklenen y değeri olarak tanımlanır ve geri kalan kısım gürültü olarak adlandırılır. Hedef fonksiyon iyi tanımlanmamışsa, bir olasılık dağılımı olarak gösterilebilir ve gürültülü hedefler, x verildiğinde y'nin koşullu bir olasılık dağılımı olarak temsil edilebilir. Denetimli öğrenme için öğrenme diyagramı gürültülü hedefleri içerir ve x verildiğinde x ve y olasılıkları arasında ayrım yapılır. İlgili karmaşıklıklara rağmen, konuşmacı, öğrenme şemasındaki her bileşenin orada olmasının bir nedeni olduğunu belirtiyor.

  • 00:45:00 Bu bölümde konuşmacı, girdi verilen kredi itibarının olasılık dağılımı olan hedef dağılım kavramını açıklıyor ve bunun denetimli öğrenme yoluyla öğrenmeye çalıştığınız şey olduğunu vurguluyor. Öte yandan girdi dağılımı, hedef dağıtımdaki girdinin göreli önemini nicelleştirme rolünü oynar, ancak öğrenmeye çalıştığınız şey bu değildir. Konuşmacı ayrıca teorik olarak yapılabilen iki dağıtımın karıştırılmasının gerçek hedef dağıtım konusunda kafa karışıklığına neden olabileceği konusunda da uyarıyor. Son olarak, konuşmacı, hedef dağılıma yaklaşmayı amaçlayan ve içgörü kazanma ve ikincil araçlar elde etmedeki önemini vurgulayan öğrenme teorisini tanıtıyor.

  • 00:50:00 Bu bölümde öğretim görevlisi g fonksiyonu için örneklem dışı hatasının sıfıra yakın olması gerektiğini açıklar, çünkü bu iyi bir genelleme anlamına gelir. Bununla birlikte, bu miktarın bilinmesi imkansız olduğundan, doğru kontrolleri yaptığımız sürece, numune içi hatayı numune dışı hata için bir vekil olarak kullanabiliriz. Tam öğrenme öyküsü iki soru içerir: Örnek dışı performansın örnek içi performansa yeterince yakın olduğundan emin olabilir miyiz (teorik bir soru) ve örnek içi hatayı yeterince küçük yapabilir miyiz (pratik bir soru) )? Öğretim görevlisi, tamamen gürültülü verilerin olduğu finansal tahminde olduğu gibi, bazı uygulamalarda sıfıra yakın örnek dışı bir performans elde etmenin imkansız olduğunu belirtiyor. Buna rağmen, koruma fonları verimsizliği biraz kullanarak hala para kazanabilir.

  • 00:55:00 Dersin bu bölümünde, profesör örnek dışı hatanın önemini ve önümüzdeki iki hafta içinde işlenecek olan teoriyi tartışıyor. Teori, örneklem içi hatayı, örneklem dışı hatayı ve model karmaşıklığını anlamakla ilgilenir ve bu faktörleri değerlendirmek için resmi tanımlar verilecektir. Teorinin temel amacı, algılayıcı ve doğrusal regresyon modelleri gibi hipotez setinin sonsuz olduğu durumlar için öğrenmenin uygulanabilirliğini karakterize etmektir. Teori, modeli, modelin karmaşıklığını yansıtan tek bir parametre ile ölçecek ve bu da pratik öğrenmede çok fazla fark yaratmaya yardımcı olacaktır. Profesör ayrıca, öğrenme algoritmasında P of x'in göreli etkisini tartışan bir soruyu yanıtlar.

  • 01:00:00 Bu bölümde profesör, olasılık dağılımındaki değişikliklerin, özellikle öğrenme örneklerinin seçiminde öğrenme algoritmasını nasıl etkileyebileceğini tartışıyor. Profesör, girdinin olasılık dağılımının teknik bir rol oynadığını, ancak uzayın belirli bölümlerine diğerlerine göre vurgu yapılmasının algoritma tarafından yapılan seçimleri etkileyebileceğini açıklıyor. N çift x ve y veya x başına N y arasında seçim yapmanın en iyi yolu ile ilgili olarak, profesör, girdi uzayının çok özel bir kısmıyla uğraşmaktan kaçınmak ve genellemeyi geliştirmek için aynı girdi yerine bunları bağımsız olarak almayı önerir. Son olarak, profesör zayıf genellemeyi veya iyi genellemeyi ölçmenin teorinin bir parçası olacak bir yolu olduğunu belirtiyor.

  • 01:05:00 Bu bölümde profesör, aynı sistem ve aynı eğitim verileri için bile farklı uygulama alanları için hata ölçümlerinin farklı olabileceğini açıklıyor. Yanlış kabul ve yanlış reddetme arasındaki doğru dengenin bir süpermarket ve CIA için nasıl farklı olabileceğine dair örnekler veriyor. Profesör ayrıca, eğitim ve test için aynı dağılım kullanıldığı sürece, x (P(x)) olasılık yapısının denetimli öğrenmede bir endişe kaynağı olmadığını da açıklıyor. Ayrıca, herhangi bir olasılık dağılımının, öğrenme problemine olasılıksal yaklaşımı çağırma amaçları için yeterli olacağını açıklar. Son olarak profesör, gözden geçirmede ele alacağı bir kare hata ölçüsü ve kapalı form çözümü vakasını basitleştirme talebini kabul eder.

  • 01:10:00 Bu bölümde, profesör doğrusal regresyon algoritmasının karesel hatayı en aza indirmeye dayalı olarak nasıl türetildiğini ve bunun da basit bir kapalı form çözümüyle sonuçlandığını tartışıyor. Ayrıca y olasılığındaki bir dengesizliğin öğrenme sürecini nasıl etkilediğini ve ödüllerin ve maliyetlerin eşdeğer olduğunu açıklıyor. Ek olarak, makine öğreniminde girdi uzayına atıfta bulunurken, yalnızca girdi parçaları açısından tüm olası noktaları içerdiğini, özellik çıkarmanın ise ilgisiz bilgileri kaldırmak için girdiyi işlemeyi içerdiğini açıklıyor. Temel bileşen analizi, girdi gösterim uzayındaki bilgilendirici yönleri saptamak için başka bir yöntemdir.

  • 01:15:00 Dersin bu bölümünde profesör, optimizasyonda hata ölçüleri için mutlak değere karşı kare hata ölçüsünün kullanımını tartışır. Kare hatasının pürüzsüz bir fonksiyon olduğunu ve birçok arzu edilen özelliğe sahip olduğunu, oysa mutlak değerin pürüzsüz olmadığını ve kombinatoryal optimizasyonla sonuçlanabileceğini açıklıyor. Ancak mutlak değerin kullanılması belirli bir değer için gerekliyse, yine de kullanılabilir. Ek olarak, hedefin x'in f fonksiyonu olduğunu, x'in yerine geçen w'nin değil olduğunu ve gürültünün belirli bir x verildiğinde y'nin beklenen değeri ile y arasındaki fark olduğunu açıklıyor. Son olarak profesör, makine öğrenimi modellerinde karmaşıklık ve performans arasında bir ödünleşim olduğunu, ancak genellemenin aynı anda nasıl iyileştirileceğine ve hatanın nasıl en aza indirileceğine ilişkin yanıtların sonraki dört derste ele alınacağını belirtiyor.
Lecture 04 - Error and Noise
Lecture 04 - Error and Noise
  • 2012.04.15
  • www.youtube.com
Error and Noise - The principled choice of error measures. What happens when the target we want to learn is noisy. Lecture 4 of 18 of Caltech's Machine Learn...
 

Ders 5 - Eğitime Karşı Test



Caltech'in Makine Öğrenimi Kursu - CS 156. Ders 05 - Eğitime Karşı Test

Verilerden Öğrenme konulu kursunun 5. Dersinde Profesör Abu-Mostafa, makine öğrenimindeki hata ve gürültü kavramlarını, eğitim ve test arasındaki farkı ve üretilebilecek maksimum ikilik sayısını ölçen büyüme işlevini tartışıyor. belirli sayıda nokta için kurulan bir hipotez. Ayrıca, bir hipotez setinin karmaşıklığına karşılık gelen ve varsa N'de bir polinom büyüme oranını garanti eden kırılma noktasını tanıtıyor ve pozitif ışınlar, aralıklar ve dışbükey kümeler gibi çeşitli hipotez seti örneklerini tartışıyor. Ders, hipotez setlerinin karmaşıklığını ve uygulanabilir öğrenme potansiyellerini tam olarak kavramak için bu kavramları ve matematiksel çerçevelerini anlamanın önemini vurgular.

Profesör, eğitim ve test etme ile ilgili çeşitli konuları ele aldı. Seyircilerin ikili olmayan hedef ve hipotez işlevleri ve kırılma noktalarının değiş tokuşu hakkında sorularını yanıtladı. Profesör, bir büyüme fonksiyonu bulmanın önemini ve genellemenin yüksek olma olasılığını ölçmek için neden 2 üzeri N'nin kullanılmasına tercih edildiğini açıkladı. Ek olarak, kırılma noktası ile öğrenme durumu arasındaki ilişkiyi tartıştı ve kırılma noktasının varlığının öğrenmenin mümkün olduğu anlamına geldiğini, kırılma noktasının değerinin ise bize belirli bir performansı elde etmek için gereken kaynakları anlattığını belirtti. Son olarak profesör, Hoeffding'in alternatiflerini ve insanların Hoeffding'e aşina olmasını sağlamak için neden ona bağlı kaldığını açıkladı.

  • 00:00:00 Bu bölümde Profesör Abu-Mostafa, hata ve gürültü kavramlarını ve bunların pratik durumlarda makine öğrenimiyle nasıl ilişkili olduğunu tartışıyor. Hata ölçülerini tanımlamanın önemini ve bunların bir hipoteze karşı bir hedef işlevin performansını belirlemek için nasıl kullanıldığını açıklıyor. Ek olarak, hedefin deterministik bir fonksiyon olmadığı, bunun yerine x'ten etkilendiği ve bir olasılık dağılımına göre dağıtıldığı gürültülü hedefler kavramını tartışıyor. Profesör Abu-Mostafa ayrıca eğitime karşı teste ve onu gerçekçi bir şekilde tanımlayan matematiksel çerçeveye odaklanarak sonraki üç ders boyunca sürecek olan teori yolunu da tanıtıyor.

  • 00:05:00 Bu bölümde öğretim görevlisi, bir final sınavı bağlamında eğitim ve test arasındaki farkı keşfeder. Final sınavından önce verilen uygulama problemleri ve çözümleri eğitim seti görevi görür. Final sınavı, test seti görevi görür. Öğretim görevlisi, amacın final sınavında iyi performans göstermek değil, küçük bir E_out'a yansıyan materyali anlamak olduğunu vurgular. Testin matematiksel tanımı, kişinin final sınavında ne kadar iyi performans gösterdiğini içerirken, eğitimin matematiksel tanımı, kişinin uygulama problemlerinde nasıl performans gösterdiğini içerir. Alıştırma setinin kirlenmesi, E_in metriğinde performansın düşmesine neden olur. Öğretim görevlisi, hipotez setlerinin karmaşıklığının ölçülmesinde M niceliğinin daha uygun bir nicelikle değiştirilmesi gerektiğini vurgular.

  • 00:10:00 Bu bölümde konuşmacı, bir hipotez olan M'nin nereden geldiğini ve onun yerini almak için onu çevreleyen bağlamı anlamanın önemini tartışıyor. Konuşmacı, B olarak adlandırılan kötü olayların olduğunu ve amacın, örnek içi performansın örnek dışı performansı izlemediği durumu önlemek olduğunu açıklar. Amaç, olaylar arasındaki korelasyonlardan bağımsız olarak kötü olaylardan herhangi birinin olasılığının küçük olmasını sağlamaktır. Konuşmacı daha sonra algılayıcı örneğini ve daha iyi bir sınır sağlamak için kötü olayı bir resim açısından nasıl tanımlayacağını açıklamaya devam eder.

  • 00:15:00 Bu bölümde öğretim görevlisi, sırasıyla bir hipotez için örnek içi ve örnek dışı hataları temsil eden E_in ve E_out kavramlarını tartışır. Daha sonra, bir hipotezden diğerine geçerken E_in ve E_out'taki değişikliklerin nasıl karşılaştırıldığını inceler ve bunların küçük olduklarını ve hipotezler arasındaki örtüşme alanı nedeniyle aynı yönde hareket ettiklerini savunur. Öğretim görevlisi, önceki karmaşıklık ölçüsü olan M'nin, herhangi bir modelin karmaşıklığını karakterize eden yeni bir nicelik ile değiştirilebileceğini öne sürüyor, ancak bu, bir sonraki derste bir kanıt gerektirecektir. Miktarı tanıtıyor ve ispata geçmeden önce niceliği iyi anlamamız gerektiğini vurguluyor.

  • 00:20:00 Bu bölümde öğretim görevlisi ikiliklerin ne olduğunu ve hipotezlerle nasıl ilişkili olduklarını açıklar. İkilemler, yalnızca noktaların bir alt kümesinde tanımlanan çoklu hipotezlerdir ve sonlu bir veri noktası kümesinde kırmızı ve mavinin farklı olası modellerini temsil ederler. Örneğin, yalnızca birkaç ikilik varsa, hipotez seti güçlü değildir, ancak çok sayıda varsa, hipotez seti güçlüdür. Öğretim görevlisi ikilikleri, üzerinde delikler olan, giriş alanının üstüne yerleştirilmiş, yalnızca kırmızı ve mavi noktaların modelini gösteren opak bir kağıt parçası olarak tanımlar. İkilemler, işlevin mavi ve kırmızı bölgeler için -1 veya +1 ürettiği hipotezleri ifade etmenin resmi bir yoludur.

  • 00:25:00 Bu bölümde öğretim görevlisi, algılayıcı durumundaki hipotezlerin ve ikiliklerin sayısını tartışır. Algılayıcının sonsuz değerlere sahip olması nedeniyle sonsuz sayıda hipotez olabileceğini açıklıyor. Bununla birlikte, +1 veya -1 döndürmek için yalnızca sonlu miktarda nokta olduğundan ikiliklerin sayısı sınırlıdır. "m" ile gösterilen büyüme fonksiyonu, herhangi bir N noktasındaki hipotez seti kullanılarak elde edilebilecek en çok ikiliği sayarak hipotez sayısını değiştirir. Öğretim görevlisi, büyüme fonksiyonunun, girdi uzayından herhangi bir N nokta seçimine göre ikiliklerin sayısını maksimize ederek hesaplandığından bahseder.

  • 00:30:00 Bu bölümde öğretim görevlisi, büyüme fonksiyonu kavramını ve bunun algılayıcılara nasıl uygulandığını açıklar. Bir hipotez setinin büyüme fonksiyonu, size belirli sayıda nokta için üretilebilecek maksimum ikilik sayısını söyleyen bir fonksiyondur. Algılayıcılar için büyüme fonksiyonunu elde etmek zordur çünkü birden başlayarak her nokta için büyüme fonksiyonunu bulmayı gerektirir. Ek olarak, her nokta sayısı için, bir algılayıcının üretemeyeceği belirli nokta takımyıldızları vardır. Bununla birlikte, bu sınırlamalar beklenir, çünkü algılayıcılar basit bir algoritmaya sahip basit modellerdir.

  • 00:35:00 Bu bölümde öğretim görevlisi, pozitif ışınlar ve pozitif aralıklar dahil olmak üzere farklı model örnekleri kullanarak büyüme fonksiyonları kavramını tartışır. Pozitif ışınlar için büyüme fonksiyonunun N+1 olduğunu, bunun da ikilik sayısının N nokta arasındaki olası çizgi parçası sayısına bağlı olduğu anlamına geldiğini açıklıyor. Bu arada, pozitif aralıklar daha büyük bir büyüme fonksiyonuna sahiptir çünkü aralığın başı ve sonu olan iki parametre farklı ikilikler elde etmek için değiştirilebilir.

  • 00:40:00 Bu bölümde öğretim görevlisi, değişen karmaşıklık derecelerine sahip hipotez kümeleri için büyüme fonksiyonlarını tartışır. Bir doğrudaki ikiliklerin en basit hipotez seti için, büyüme fonksiyonu formülü basitçe N+1 parçalarından 2 parça seçmenin yollarının sayısıdır, bu da (N+1)'e eşdeğerdir, 2'yi seçin. Bir sonraki hipotez seti için Bir düzlemdeki dışbükey bölgelerin, öğretim görevlisi bazı bölgelerin dışbükey olmadıkları için geçersiz olduğunu not eder. Bu küme için büyüme fonksiyonu formülü, tüm dikotomiler geçerli olmadığından daha karmaşık sayma gerektirir. Öğretim görevlisi daha sonra, bu hipotez seti için büyüme fonksiyonunu en üst düzeye çıkarmak için bir dairenin çevresinde bulunan nokta yerleşimi için en uygun seçeneği önerir.

  • 00:45:00 Bu bölümde öğretim görevlisi dışbükey kümeler için büyüme fonksiyonunu ve bunun pozitif aralıklar için büyüme fonksiyonu kadar güçlü olmadığını tartışıyor. Öğretim görevlisi, büyüme fonksiyonunun hipotezlerin her biri için nasıl çalıştığını gösterir. Ayrıca, maksimum M'nin büyüme fonksiyonu olabilecek sonlu bir m sayısıyla nasıl değiştirileceğini de tartışıyorlar. Öğretim görevlisi, büyüme fonksiyonu bir polinom ise, o zaman bu hipotezi kullanarak öğrenmenin mümkün olduğu sonucuna varır. Ancak öğretim üyesi, büyüme fonksiyonunu açık bir şekilde değerlendirmenin kolay olmadığını kabul etmektedir.

  • 00:50:00 Bu bölümde, bir hipotez setinin olası tüm ikilemleri elde edemediği noktayı tanımlamak için kırılma noktası kavramı tanıtılmaktadır. Kırılma noktası, hipotez setinin karmaşıklığına karşılık gelir ve k büyüklüğündeki hiçbir veri seti hipotez seti tarafından parçalanamıyorsa, o zaman k onun için bir kırılma noktasıdır. 2B algılayıcı için kırılma noktası 4 olarak bulunur. Ders ayrıca her bir hipotez seti için kırılma noktasının nasıl bulunacağını açıklamak için pozitif ışınlar, aralıklar ve dışbükey kümeler örneklerini içerir. Ek olarak, bir hipotez setinin kırılma noktası yoksa sonsuz büyümeye sahip olacağı tespit edilmiştir.

  • 00:55:00 Bu bölümde, profesör büyüme fonksiyonu kavramını ve bunun bir kırılma noktası varsa N'de bir polinom büyüme oranını nasıl garanti ettiğini açıklıyor. Bir kırılma noktası kısıtlamasıyla, sürülerdeki olası ikilikleri ortadan kaldıran, sınırsız 2 üzeri N büyüme fonksiyonunu polinomlara indirgeyen muazzam bir kombinatoryal kısıtlama vardır. Profesör, ikilik kırılma noktasına sahip üç noktalı bir hipotez seti örneği verir; burada ikilikler sınırlıdır ve kısıtlamayı karşılayan yalnızca bir ikilik kalana kadar ihlal edenler kaldırılır.

  • 01:00:00 Bu bölümde, profesör dinleyicilerin ikili olmayan hedef ve hipotez fonksiyonları ve sarsıcı noktaların değiş tokuşu hakkında sorularını yanıtlıyor. Geliştirdiği teorinin ikili fonksiyonlar için yönetilebilir olduğunu, ancak gerçek değerli fonksiyonlar için daha teknik olan ve sapma-varyans dengeleme yöntemiyle ele alacağı bir karşılığı olduğunu açıklıyor. Parçalanma noktaları açısından, verileri uydurmak için iyi, ancak genelleme için kötü olduğunu ve tahmin ile genelleme arasında doğru dengeyi bulmanın anahtar olduğunu belirtiyor. Ek olarak, polinom büyümesinin önemini ve kötü bir şeyin olma ihtimalini nasıl garanti ettiğini açıklığa kavuşturuyor.

  • 01:05:00 Bu bölümde, profesör her satıra 3 bitin konulduğu ve iki noktanın parçalanamayacağı kısıtlaması altında mümkün olduğu kadar çok farklı satır elde etmeye çalışılan bir bulmacayı tartışıyor. Profesör, kısıtlamayı ihlal etmekten kaçınmak için satır ekleme ve tüm olası kombinasyonlara göz kulak olma alıştırmasından geçer. Sonunda profesör, bu kısıtlama altında yalnızca dört olası modelin elde edilebileceği ve daha fazla satır eklenemeyeceği sonucuna varır. Bu sınırlama, algılayıcılar için hipotez sayısının sonsuz olması ve büyüme fonksiyonunun ya aynı 2 üzeri N ya da polinom olması ve ikisinin arasında hiçbir şey olmamasından kaynaklanmaktadır.

  • 01:10:00 Dersin bu bölümünde, profesör bir büyüme fonksiyonu bulmanın önemini ve genellemenin yüksek olma olasılığını ölçmek için neden 2 üzeri N'yi kullanmak yerine tercih edildiğini tartışıyor. Profesör, bir polinom büyüme fonksiyonu bulmanın yönetilebilir bir sağ taraf vereceğini ve genelleme olasılığının yüksek olmasına yol açacağını açıklıyor. Profesör ayrıca test ve eğitim noktalarının sayısı, farklı hipotezler için örneklem dışı hata ve buna neden büyüme fonksiyonu denildiği hakkında öğrencilerin sorularını yanıtlar. Profesör, bir büyüme fonksiyonu bulmak için farklı yöntemler olduğunu ve bazen kırılma noktası tahmininin tam bir değer değil, sadece bir tahmin olacağını belirtiyor.

  • 01:15:00 Bu bölümde, profesör kırılma noktası ile öğrenme durumu arasındaki ilişkiyi tartışır. Kırılma noktasının varlığının öğrenmenin mümkün olduğu anlamına geldiğini, kırılma noktasının değerinin ise bize belirli bir performansı elde etmek için gereken kaynakları anlattığını açıklıyor. Ayrıca Hoeffding'in alternatiflerine ve neden ona bağlı kaldığına da değiniyor. Amaç, insanların Hoeffding'e soğuk olduğunu anlayacak kadar aşina olmalarıdır, böylece değişiklikler yapıldığında kaybolmazlar.
Lecture 05 - Training Versus Testing
Lecture 05 - Training Versus Testing
  • 2012.04.19
  • www.youtube.com
Training versus Testing - The difference between training and testing in mathematical terms. What makes a learning model able to generalize? Lecture 5 of 18 ...