Makine Öğrenimi ve Sinir Ağları - sayfa 18

 

Ders 6. Arama: Oyunlar, Minimax ve Alpha-Beta



6. Arama: Oyunlar, Minimax ve Alpha-Beta

Video, Dreyfus'un bilgisayarların satranç oynayamayacağına dair ünlü sözünden başlayarak AI'da oyun oynamanın tarihini tartışıyor. Konuşmacılar, eğer-o zaman kurallarının oyun oynama programlarında nasıl etkili olmadığını ve daha derin analiz ve strateji gerektiğini açıklar. Oyun arama verimliliğini optimize etmek için minimax algoritmasını ve alfa-beta budama kavramını tanıtıyorlar. Video ayrıca sigorta poliçelerinin maliyetini en aza indirme ve kademeli derinleştirme gibi teknikleri de araştırıyor. Konuşmacı, buldozer zekası önemli olsa da, insanların kendi kafalarında sahip oldukları zeka türüyle aynı olması gerekmediği sonucuna varıyor.

  • 00:00:00 Bu bölümde, konuşmacılar, Hubert Dreyfus'un bilgisayarların satranç oynayamayacağına dair ünlü bir sözünü vurgulayarak yapay zekada oyun oynamanın erken tarihini tartışıyor. Ancak konuşmacılar, oyunların zekanın bazı unsurlarını modelleyebileceğini savunuyorlar ve böylece bir bilgisayarın nasıl satranç oynayabileceğini açıklamaya devam ediyorlar. Bir oyuna yaklaşmak için eğer-o zaman kurallarını kullanmayı düşünürler, bu yöntem çok etkili değildir, ancak bazı dama oynama programlarında başarıyla uygulanmıştır. Konuşmacılar sonuçta oyun oynama programlarında taktik ve hızın yanı sıra daha derin analiz ve stratejinin gerekli olduğu sonucuna varırlar ve bu bölümde daha ayrıntılı inceleyeceklerdir.

  • 00:05:00 Bu bölümde, konuşmacı güçlü bir satranç oynama programı oluşturmanın üçüncü yolunu tartışıyor; bu, ileriye bakmayı ve mümkün olan en iyi tahta durumunu belirlemek için hamlelerin tüm olası sonuçlarını değerlendirmeyi içeriyor. Bu, en iyi tahta durumunu belirlemek için kullanılan statik bir değer üretmek üzere satranç tahtasının özelliklerini birleştiren bir işlev gerektirir. Konuşmacı, statik bir değer oluşturmanın en popüler yolunun doğrusal puanlama polinomu kullanmak olduğunu açıklıyor. Bununla birlikte, kullanılan yöntemin pano durumlarını sıralaması veya onlara numara vermesi gerekmez; sadece en iyisini belirlemesi gerekiyor. Konuşmacı ayrıca hareket eden ağaçların dallanma faktöründen ve terminal veya yaprak düğümlerinin sayısının nasıl hesaplanacağından da bahseder.

  • 00:10:00 Bu bölümde konuşmacı, oyunun karar ağacındaki çok sayıda yaprak düğümü nedeniyle satrançta British Museum algoritmasının sınırlamalarını açıklıyor. Claude Shannon'a göre, satrançta yaklaşık 10 ila 120 yaprak düğümü vardır, bu da en iyi hamleyi değerlendirmek için British Museum tedavisini kullanmayı pratik hale getirir. Bu sayıyı bir perspektife oturtmak için konuşmacı, evrendeki tüm atomlar Büyük Patlama'nın başlangıcından bu yana nanosaniye hızlarında statik değerlendirmeler yapıyor olsa bile, yine de 14 büyüklük sırası eksik olacağımızı hesaplıyor. Böylece konuşmacı, satrançtaki en iyi hamleyi değerlendirmek istiyorsak mümkün olduğunca ileriye bakmamız gerektiği sonucuna varır.

  • 00:15:00 Bu bölümde konuşmacı, bir oyun ağacının yaprak düğümlerine değerler atamayı ve her oyuncu için mümkün olan en iyi hamleyi belirlemek üzere seviye seviye "yedeklemeyi" içeren minimaks algoritmasını açıklıyor. Maksimize eden oyuncu oyunu en büyük değere doğru götürmek isterken, küçültücü oyuncu oyunu en küçük değere doğru itmek ister. Algoritma, bu değerleri hesaplayarak ve en iyi hareket tarzına karar vererek, satranç gibi rakip oyunları oynamak için kullanılabilir. Konuşmacı, algoritmayı basit bir oyun ağacıyla gösterir ve ayrıca algoritmanın daha büyük bir oyun ağacıyla iş başındaki bir örneğini gösterir.

  • 00:20:00 Videonun bu bölümünde, yapılacak bir sonraki hamle hakkında oldukça iyi bir fikir verebilecek pano kalitesinin kaba ölçülerini açıklığa kavuşturmak için arama ağacında olabildiğince aşağıya inmenin yollarını bulmaya odaklanılıyor. . Arama ağacının büyük bölümlerini kesmenin çözümü, minimaks'ın üstünde bir katman olan alfa-beta algoritmasında yatmaktadır. Alpha-beta, arama ağacının bölümlerini kesmek için alfa ve beta olmak üzere iki parametre kullanır ve daha verimli bir arama sağlar. Bu algoritma, minimax'ın bir alternatifi değil, onu daha verimli hale getirmenin bir yoludur. Alfa-beta algoritmasının pratikte nasıl çalıştığını göstermek için bir örnek verilmiştir.

  • 00:25:00 Bu bölümde konuşmacı, oyun arama sürecini ve bunun minimax ve alpha-beta gibi algoritmalar kullanılarak nasıl optimize edilebileceğini tartışıyor. Kullanılan örnek, dört veya daha büyük derinlikte bir ağaç olup, konuşmacının hesaplanması gereken sayıları daire içine alarak, belirli dalların kesinti durumları nedeniyle değerlendirilmesine gerek olmadığını ortaya koymaktadır. Bu, hesaplama süresinden tasarruf sağlar ve daha verimli oyun aramasına izin verir. Konuşmacı ayrıca, sayıların ağaçta ayrı seviyelerde karşılaştırıldığı ve belirli dalların ilgisiz kabul edildiği derin kesme kavramını da tanıtıyor. Buna inanmak zor gibi görünse de, süreç etkilidir ve oyun arama verimliliğini büyük ölçüde artırabilir.

  • 00:30:00 Bu bölümde video, alfa-beta budama kavramını ve oyun oynama algoritmalarında hesaplama zamanından nasıl tasarruf edebileceğini tartışıyor. Küçültücü ve maksimize edici, pano durumlarını değerlendirerek, yapılabilecek en iyi hamleye karar verebilir. Küçültücü, belirli bir yöne giden bir 8 alır ve maksimize edici, başka bir yöne giden bir 9 elde ederek bir kesme durumu yaratabilir. Alfa-beta budama, algoritmanın ağaçların arasından ilerlemesine izin verir, durum etrafında alfa ve beta küçülerek hesaplamadan tasarruf sağlar. Bu yöntem yalnızca dallanma faktörünün sabit olduğu en uygun durumda çalışsa da, yine de önemli ölçüde zaman ve hesaplama tasarrufu sağlayarak onu oyun oynama programları için gerekli bir araç haline getirir.

  • 00:35:00 Bu bölümde oyun ağacı hesaplamaları için sigorta poliçelerinin maliyetini en aza indirmeyi öğreniyoruz. Statik değerleri alttan bir seviye yukarıya ve sonuna kadar hesaplayarak, b'yi d yaprak düğümlerine hesaplamak zorunda kalmadan iyi bir hareket sağlamak için bir sigorta poliçesi verir. Sigorta poliçesi maliyeti, ağacın her seviyesindeki yaprak sayısı toplanarak hesaplanır. Bununla birlikte, maliyeti en aza indirmek için, poliçenin ilk seviyeden başlayarak kaç seviyeyi kapsaması gerektiğine dair bir sınır vardır. Cebir kullanılarak, en üst düzeydeki politika için gereken hesaplamanın b üzeri d eksi 1 bölü b eksi 1 olduğu bulunur ki bu yönetilebilir bir hesaplamadır.

  • 00:40:00 Bu bölümde, oyun ağacındaki sigorta poliçelerinin sonucunu optimize etmenin bir yolu olarak aşamalı derinleştirme kavramı tanıtılmaktadır. Bir sonraki seviyeye geçememeye karşı bir sigorta poliçesi olarak her seviyede her zaman bir hamleye sahip olan aşamalı derinleştirme, algoritmaların her zaman talep edildiği anda gitmeye hazır bir cevaba nasıl sahip olduklarının bir örneğidir. Ek olarak Christopher, daha sonra önemli bir kavramın yeniden keşfi olduğu gösterilen bir fikir olan alfa-beta performansını iyileştirmek için geçici değerlerin kullanılmasını önerir. Deep Blue programı, paralel hesaplama ve oyun sonu için özel amaçlı teknikler kullanması dışında diğer oyun oynama programlarından pek farklı değildir.

  • 00:45:00 Bu bölümde konuşmacı, oyun sırasında engebeli bir ağacın gelişimini ve ağacın sabit bir seviyeye inmesinin nasıl gerekli olmadığını tartışır. Deep Blue'nun sahip olduğu ekstra gösteriş nedeniyle Deep Blue'nun 1997'de Kasparov'u yenmesinden bahsediyor. Ancak bir buldozerin çakılı işlemesi gibi hesaplamaların yapıldığı bu tür bir hesaplamanın insan zekasından farklı olduğundan bahseder. İnsan satranç ustaları, uzun hesaplamalar yapmak yerine kalıpları tanıyarak oyunları farklı oynarlar. Konuşmacı, buldozer zekasını anlamanın önemli olduğu sonucuna varıyor, ancak bu, insanların kendi kafalarında sahip olduğu zeka türüyle aynı olmak zorunda değil.
6. Search: Games, Minimax, and Alpha-Beta
6. Search: Games, Minimax, and Alpha-Beta
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonIn this lecture, we consider stra...
 

Ders 7. Kısıtlamalar: Çizgi Çizimlerini Yorumlama



7. Kısıtlamalar: Çizgi Çizimlerini Yorumlama

Video, basit nesneleri görebilen bir bilgisayar yaratma girişimiyle başlayan, çizgi çizimlerini yorumlamak için bir kısıtlama tatmin probleminin gelişimini tartışıyor. Deneyci Guzman'ın çalışması analiz edildi ve David Huffman'ın Guzman'ın programından daha iyi bir teori geliştirmesine izin veren kısıtlamalarla basit bir matematik dünyasında çalışma yaklaşımına yol açtı. Video, çizimlerdeki çizgileri ve kavşakları kataloglamak ve kategorize etmek için kullanılan kelime dağarcığını, beş oktantın malzemeyle dolu olma olasılığını ve nesnelerin inşa edilebilirliğini test etmek için kısıtlamaların kullanımını araştırıyor. Video ayrıca çizgi çizimlerini yorumlamak için etiket kullanmanın zorluğunu, Waltz'ın algoritmasını ve çizim analizinde çatal tepe noktalarını ele alma sürecini tartışıyor. Bu projede geliştirilen kısıtlamalar, harita renklendirme ve çizelgeleme gibi çok fazla kısıtlama içeren problemlerin çözümünde uygulamalara sahiptir.

  • 00:00:00 Çizgi çizimleri yorumlar ve içlerindeki nesne sayısını belirlerdi. Bu fikir Dave Huffman, Dave Waltz ve Jane Froydter tarafından daha da geliştirildi. Bu projedeki çalışma başlangıçta, çocuk blokları gibi basit nesnelerden başlayarak, görebilen bir bilgisayar yaratma girişimiyle motive edildi. Konuşma metninin bu bölümünde Patrick Winston, kısıtlama tatmin problemlerini içeren, konudaki en güçlü yöntemlerden birini geliştirme mücadelesinin ve her şeyin bir bilgisayarı görme yeteneğine sahip hale getirme girişimiyle nasıl başladığını paylaşıyor.

  • 00:05:00 Bu bölümde konuşmacı, çizgi çizimleri araştıran Guzman'ın çalışmalarını ve bunların nasıl yorumlanacağını tartışıyor. Guzman, bu çizimlerde çok sayıda ok tipi kavşak ve çatal tipi kavşak bulunduğunu fark etti ve bunları hangi yüzlerin aynı nesneye ait olduğunu anlamak için kanıt olarak kullandı. Guzman, bu sorunu çözmek için "bağlantıları" kanıt miktarı olarak kullanma teorisini ortaya attı. Tek bağlantı teorisini reddetti ve iki bağlantı teorisinin çok muhafazakar olduğunu gördü ve bu da onu tekrarlanan iki uzunluklu üçüncü bir teoriye götürdü. Ancak bu yöntemin işe yaramadığı birçok durum oldu ve neden işe yaradığı, ne zaman işe yaramadığı sorusu gündeme geldi. İşe yaradığı bulundu çünkü dünya üç yüzlü kavşaklarla veya köşelerle dolu.

  • 00:10:00 Bu bölümde video, David Huffman'ın deneyci Guzman'ın programını analiz ettikten sonra çizimleri yorumlama etrafında bir teori geliştirme yaklaşımını tartışıyor. Huffman, yalnızca üç düzlemin kesişmesinden oluşan üç yüzlü köşeleri içeren genel konumdaki bir dünya gibi çeşitli özelliklere sahip basit bir matematiksel dünyada çalışmaya ve dört tür çizgi arasında ayrım yapmaya karar verdi: içbükey, dışbükey ve ile etiketlenmiş sınır. sırasıyla artı, eksi ve oklar. Bu kısıtlamalar, Guzman'ın programından farklı ve daha iyi bir teori geliştirirken sorunu manuel olarak yönetmesine izin verdi.

  • 00:15:00 Bu bölümde, Profesör Patrick Winston çizimlerdeki tepe noktaları, kenarlar, birleşme noktaları ve çizgiler dahil olmak üzere çizgileri ve birleşme noktalarını kataloglamak ve kategorize etmek için kullanılan kelimeleri tartışıyor. Etiketleri bir kavşağın etrafına yerleştirmenin yalnızca 18 yolu olduğunu ve diğer her şeyin hariç tutulduğunu açıklamaya devam ediyor. Ayrıca, kavşakları etiketlemek için meşru olan altı L, beş çatal, dört T ve üç ok örnekleri sağlar. Kavşakları etiketlemenin farklı yolları, oktanlara bağlıdır ve dolu oktanların sayısı kavşağın tipini belirler.

  • 00:20:00 Bu bölümde, konuşmacı madde ile dolu beş oktantın olasılıklarını tartışıyor ve gözlemlenen şeyi analiz etmek için bir nesneye üç farklı açıdan nasıl bakılacağını açıklıyor. Cisme mor tebeşir perspektifinden bakıldığında iki içbükey ve bir dışbükey ok birleşimi vardır; mavi tebeşirden, içbükey bir çizgi ve bir sınır varken, diğer taraf bir
    mavi perspektifin simetrik zıttı. Konuşmacı ayrıca, çatal tarzı ve L tarzı bağlantı noktaları oluşturabilen köşeleri ve kalan çizgiyi sınır olarak T şekilleri oluşturabilen belirsiz nesneleri inceler. Son olarak konuşmacı, nesneler bir noktada bir araya geldiğinde altı yüzlü köşelerin de oluşturulabileceğinden bahseder.

  • 00:25:00 Bu bölümde, konuşmacı kısıtlamaları ve bunların belirli bir nesnenin inşa edilebilir olup olmadığını belirlemek için nasıl kullanılabileceğini tartışıyor. Bir kavşak etrafındaki çizgilerin ve okların düzeni incelenerek olası tüm düzenlemelerin bir kataloğu oluşturulur. Bu kataloğu kullanarak konuşmacı, ana levhaya benzeyen bir nesnenin etrafındaki çizgilerin ve okların nasıl etiketleneceğini gösterir. Ancak kataloğa uymayan bir kavşakla karşılaşıldığında, nesnenin inşa edilmesinin imkansız olduğu belirlenir. Bu yöntem, nesnelerin inşa edilebilirliğini test etmek için bir yol sağlar, ancak testi geçmek inşa edilebilirliği garanti etmek için yeterli değildir.

  • 00:30:00 Bu bölümde video, bilgisayar görüşünde çizgi çizimlerini yorumlama problemini araştırıyor. İlk yaklaşım, kavşakların dört yüzüyle etiketlenmesini içeriyordu, ancak bazı çizimler, yüzlerin olmaması nedeniyle etiketlenemedi. Yüksek lisans öğrencisi David Waltz bu sorunu çözmek için yola çıktı ve çatlaklar, gölgeler ve üçgen olmayan tepe noktaları gibi daha fazla husus ekledi. Bu, etiket sayısının dörtten 50'den fazlaya çıkarılmasıyla sonuçlandı ve elle çalışmayı zorlaştırdı. Waltz'ın çalışması, bir problemin, işe yarayan bir yöntemin ve genellenebilir bir ilkenin önemini gösterdi.

  • 00:35:00 Bu bölümde konuşmacı, çizimleri yorumlamak için etiket kullanmanın zorluğunu tartışıyor. Bir çizgi çizme örneğini paylaşıyor ve tüm olası etiketleri ve bunların kombinasyonlarını keşfetmek için derinlik öncelikli aramayı kullanmayı içeren Waltz algoritmasının bunu yorumlamak için nasıl kullanılabileceğini açıklıyor. Bununla birlikte, algoritmanın hesaplama açısından pahalı olduğu ortaya çıktı ve bir buçuk yıl sonra Waltz, üstel arama alanını kaldırabilecek yeni bir yöntem bulmak zorunda kaldı. Konuşmacı, algoritmanın etkinliğinin Waltz'ın etiket seti ve yeni yönteminin birleşiminden kaynaklandığını belirtiyor.

  • 00:40:00 Bu bölümde, konuşmacı Waltz'ın algoritmasını ve ikinci kavşağa yeni yerleştirilen hatların komşu kavşaklardakilerle uyumlu olup olmadığını görmek için komşu kavşakları nasıl kontrol ettiğini tartışıyor. İlk altı olasılığın yarısı, birinci ve ikinci kavşaklar arasındaki izin verilmeyen sınır çizgileri nedeniyle elenir. Kalan olasılıklar üçüncü bağlantıya göre kontrol edilir ve buradan, bağlantı noktalarındaki diğer kısıtlamalar kontrol edilir, bu da tüm bağlantı noktaları ve aralarındaki hatlar için tek bir yorumla sonuçlanır.

  • 00:45:00 Bu bölümde konuşmacı, çizim analizinde çatal tepe noktalarını ele alma sürecini tartışıyor. Bunları yerleştirdikten sonra, konuşmacı tüm kavşaklar için benzersiz bir yorumu olduğu sonucuna varır ve hangi çizgilerin dışbükey veya içbükey olduğunu belirler. Konuşmacı daha sonra daha fazla belirsizliğe sahip çizimler için süreci gösterir ve kısıtlama yayma faaliyetinin insanların çizgi çizimleri yorumlama şekline benzer olduğunu not ederek, vizyonda kullandığımız bir kısıtlama yayma aparatına sahip olabileceğimizi ortaya çıkarır. Son olarak, konuşmacı bu tür bir mekanizmanın çok fazla kısıtlama içeren problemlerin çözümünde, özellikle çizelgelemede uygulamaları olan harita renklendirmede nasıl kullanılabileceğini tartışır.
7. Constraints: Interpreting Line Drawings
7. Constraints: Interpreting Line Drawings
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonHow can we recognize the number o...
 

Ders 8. Kısıtlamalar: Arama, Etki Alanı Azaltma



8. Kısıtlamalar: Arama, Etki Alanı Azaltma

Bu video, özellikle arama ve etki alanı azaltma bağlamında, problem çözmedeki kısıtlamalar kavramını tartışıyor. Konuşmacı, aramaya başlamadan önce kısıtlamaların olasılıkları daraltmak için nasıl kullanılabileceğini göstermek için bir haritadaki durumlara renk atama örneğini kullanır. Konuşmacı ayrıca, yalnızca ödevleri kontrol etmek veya her şeyi göz önünde bulundurmak gibi kısıtlamaları ele almaya yönelik farklı yaklaşımları araştırır ve kısıtlamaya dayalı problem çözmenin başka bir uygulaması olarak kaynak planlama kavramını sunar. Genel olarak video, kısıtlamaların karmaşık sorunları verimli bir şekilde çözmek için nasıl kullanılabileceğine dair kapsamlı bir genel bakış sunar.

  • 00:00:00 Videonun bu bölümünde, konuşmacı 26 eyaletli bir harita örneği kullanarak harita renklendirme probleminin zorluğunu tartışıyor. Dönen renk seçenekleriyle derinlemesine öncelikli aramanın uygun bir renklendirmeyi bulmanın çok uzun zaman alacağını belirtiyor ve sorunu bir diyagramla gösteriyor. Bununla birlikte, aramaya başlamadan önce her bir durumun rengi için olasılıkları daraltabilen kısıtlama yayılımı kavramını ortaya koyuyor. Konuşmacı daha sonra Teksas problemini inceleyerek kısıtlama yayılımının imkansız bir aramada takılıp kalmaktan kaçınmaya nasıl yardımcı olabileceğini gösterir.

  • 00:05:00 Bu bölümde konuşmacı, bir haritadaki durumlara renk atama problemini çözmek için kısıtlamaların nasıl kullanılacağını gösterir. Konuşmacı, dövüş sanatları ilkesini kullanarak ve yerel kısıtlamalara bakarak, bitişik eyaletlerin aynı renge sahip olmamasını sağlar. Konuşmacı ayrıca değişkenler, değerler ve alanlar da dahil olmak üzere bazı önemli kelimeleri tanıtır. Bir alan kavramı, bir değişkenin alabileceği bir değerler torbasıdır ve konuşmacı bu söz dağarcığını, kişinin aşağı yönde sorunlara yol açmayacak seçimleri nasıl yapabileceğini göstermek için kullanır.

  • 00:10:00 Bu bölümde konuşmacı, kısıtlamaların arama ve etki alanı azaltma bağlamında nasıl çalıştığını açıklar. Kısıtlamalar, genellikle harita renklendirme problemlerinde kullanılan değişken değer çiftleri üzerindeki sınırlamalardır. Her durum bir değişkendir, renkler değerlerdir ve kalan renk olasılıkları etki alanlarıdır. Bu durumdaki kısıtlama, bir sınırı paylaşan hiçbir durumun aynı renge sahip olmamasıdır. Konuşmacı daha sonra sözde kod yazarak derinlik öncelikli arama ve indirgeme yaklaşımlarını resmileştirmeye devam eder. Sözde kod, her atama için bir değişkeni dikkate almayı, kalan tüm seçenekleri göz önünde bulundurmayı ve etki alanında kalan her şeyin diğer durumlardaki bazı seçimler için uygun olmasını sağlamayı içerir.

  • 00:15:00 Bu bölümde, konuşmacı bir arama algoritmasındaki kısıtlamaların nasıl ele alınacağını tartışıyor. Aramadaki her değer için, algoritmanın yerleştirilmiş kısıtlamaları karşılayıp karşılamadığını kontrol etmesi gerektiğini açıklıyorlar. Kısıtlamayı karşılayan bitişik bir değer yoksa, algoritma değeri etki alanından kaldırır. Etki alanı boşalırsa, algoritmanın geri izlemesi gerekir. Konuşmacı, hiçbir şeyi dikkate almamak, her şeyi göz önünde bulundurmak ve yalnızca ödevleri kontrol etmek de dahil olmak üzere soruna yaklaşmanın farklı yollarını araştırır ve nihayetinde yalnızca ödevleri kontrol etmenin hızlı olduğunu ancak hatalara yol açabileceğini, her şeyi göz önünde bulundurmanın ise tüm bitişik değerleri kontrol ettiğini ancak aşırıya kaçabileceğini fark eder.

  • 00:20:00 Bu bölümde, konuşmacı bir renk eşleme problemini çözme bağlamında alan azaltma algoritmasını tartışıyor. Komşu eyaletler için hangi renk seçeneklerinin mevcut olduğunu doğrulamak anlamına gelen atamanın komşularını kontrol etmenin sorunu çözmek için gerekli olduğunu açıklıyorlar. Konuşmacı ayrıca, süreci daha verimli hale getirmek için azaltılmış etki alanlarına sahip değişkenler aracılığıyla yayılmayı önerir. Ek olarak, komşuların komşuları kontrol edilerek problem çözme süreci daha da kolaylaştırılabilir. Konuşmacı, etki alanı azaltma algoritmalarının karmaşık sorunları çözmeye yardımcı olabileceğini belirtiyor, ancak aynı zamanda sınırlamaları ve çıkmaz sokak potansiyelini de kabul ediyor.

  • 00:25:00 Bu bölümde, konuşmacı etki alanı azaltmayı ve hangi değişkenlerin yayılacağına nasıl karar verileceğini tartışır. Algoritma, etki alanları azaltılmış tüm değişkenler arasında yayılmak yerine, yalnızca en büyük daralmaya sahip olanlar aracılığıyla tek bir değere doğru yayılır. Bunu yaparak, kontrol edilen kısıtlamaların sayısını azaltır ve daha hızlı çözüm sürelerine yol açar. Konuşmacı ayrıca, çözülmesini zorlaştırmak için bir sorunu belirli bir düzende düzenlemek gibi bazı "kirli küçük sırlar" da sunar. En kısıtlanmış veya en az kısıtlanmış değişkenle başlamak arasındaki seçim, kullanıcının tercihine bırakılmıştır.

  • 00:30:00 Videonun bu bölümünde, konuşmacı önce en az kısıtlama üzerinde çalışmayı ve her şeyi en az kısıtlama durumuna sahip olacak şekilde nasıl yeniden düzenlediklerini tartışıyor. Yalnızca 1732 kısıtlamayı kontrol ettiler ve 59 çıkmaz vardı, bu yüzden yalnızca en kısıtlı ilk atamaları kontrol ederek diğer yolu denediler. Bununla birlikte, durumların en kısıtlıdan en az kısıtlıya doğru düzenlenmesi durumunda, sıradan derinlik öncelikli aramanın iyi çalışacağını belirtiyorlar. Konuşmacı daha sonra yeni bir havayolu olan Jet Green ile ilgili bir kaynak planlama problemini tanıtıyor ve bunun harita renklendirme problemine nasıl benzediğini tartışıyor. Jet Green, çoğunlukla Boston ve New York arasında uçmak istiyor ve ara sıra en az sayıda uçakla geçinmeye çalışırken Los Angeles'a uçmak istiyor.

  • 00:35:00 Bu bölümde, konuşmacı, harita renklendirme probleminin kavramları uygulanarak çözülebilecek, şehirler arası uçuş planlamasına bir örnek sunar. Buradaki zorluk, dört uçağı istenen rotalarda verimli bir şekilde çalışacak şekilde organize etmektir. Konuşmacı sorunun kısıtlamalarını vurgular: iki uçak aynı anda uçamaz, her uçak eşit olarak kullanılmalıdır ve yerde kalma süresi kısıtlamaları vardır. Ek olarak, konuşmacı, arama stratejisi seçiminin, etki alanı azaltmanın, komşu denetiminin ve en kısıtlı birinci türün çözümün verimliliğini etkileyebileceğini gösterir.

  • 00:40:00 Bu bölümde eğitmen, bir görev için gereken uygun kaynak sayısını belirlemek için minimum ve maksimum kısıtlamaları kullanma kavramını tanıtır. Algoritma, minimum ve maksimum sayıda kaynak belirleyerek, aramanın uzun sürdüğü dar bir aralıkta hızla birleşerek, bu aralık içinde olduğundan emin olmayı mümkün kılar. Eğitmen ayrıca, iyi bir kaynak tahsisi elde etmek için önce çoğu kısıtlamanın kullanılmasını ve tek bir algoritmaya indirgenmiş etki alanları boyunca yayılmayı önerir. Birden çok işi aynı anda yaparak, bir görev için gereken kaynakları hızlı bir şekilde belirlemek mümkündür.
8. Constraints: Search, Domain Reduction
8. Constraints: Search, Domain Reduction
  • 2021.04.23
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010Instructor: Patrick WinstonView the complete course: https://ocw.mit.edu/6-034F10YouTube Playlist: https://www.yo...
 

Ders 9. Kısıtlamalar: Görsel Nesne Tanıma



9. Kısıtlamalar: Görsel Nesne Tanıma

Bu videoda Patrick Winston, David Marr'ın nesnelerin kenar tabanlı bir tanımını, yüzey normallerini ve genelleştirilmiş silindirleri oluşturma fikirleri de dahil olmak üzere görsel nesneleri tanımanın zorluklarını tartışıyor. Konuşmacı ayrıca görsel nesne tanıma için hizalama teorisi ve orta boyutlu özelliklerin konumunu hesaplamak için korelasyon algoritmalarını kullanma dahil olmak üzere farklı yöntemleri de araştırıyor. Winston, aynı boyutlara sahip olmayan doğal nesneleri tanımanın zorluklarını ve görsel tanımada bağlam ve hikaye anlatımının önemini, içen bir kedi örneğini kullanarak vurguluyor. Video boyunca, çeşitli kavramları açıklamak için gösteriler ve örnekler sunuyor. Genel olarak, konuşmacı görsel tanımanın zorluklarını vurgular ve öğrencileri bu alanda araştırmaya devam etmeye teşvik eder.

  • 00:00:00 Bu bölümde Patrick Winston, yüzler gibi görsel nesneleri tanımanın zorluklarını tartışıyor. Bir politikacının imajının nasıl göründüğünü değiştirebilen bir program sunuyor ve saklanan imajlar arasında nasıl enterpolasyon yaptığını gösteriyor. Winston daha sonra, David Marr'ın görsel tanımadaki ilk adımın, birincil taslak olarak bilinen nesnenin kenar tabanlı bir tanımını oluşturmak olduğunu öne süren fikirlerinden başlayarak, nesne tanımanın tarihini araştırır. Marr daha sonra nesnenin yönünü göstermek için ilk taslağı yüzey normalleriyle dekore etmeyi önerdi ve buna iki buçuk D taslağı adını verdi. Bunu, iki buçuk D eskizinin genelleştirilmiş silindirlere dönüştürülmesi izledi ve bu da bizi görsel nesneleri tanımaya bir adım daha yaklaştırdı.

  • 00:05:00 Bu bölümde konuşmacı, bir eksen boyunca hareket eden dairesel bir alan olarak normal bir silindir fikrinden başlayarak görsel nesne tanımaya yönelik farklı yaklaşımlardan bahsediyor ve hizalama teorisi kavramını tartışıyor. Hizalama tanıma teorisi, bir nesnenin üç resmine sahip olmanın, bir kitaplıktaki bir nesneyi tanımak için kullanılabilen ortografik izdüşümde o nesnenin herhangi bir görünümünün yeniden oluşturulmasına izin verdiği fikrine dayanır. Konuşmacı, farklı nesnelerdeki karşılık gelen yerlerin seçilebileceğini ve resimlerin ve bilinmeyen nesnenin hizalanmasının, bilinmeyen nesnenin orijinal nesneyle aynı olup olmadığını belirlemek için kullanılabileceğini iddia ediyor.

  • 00:10:00 Bu bölümde, Patrick Winston alfa, beta, gama ve tau'yu sabit olarak kullanarak farklı nesneler için nasıl denklem üretileceğini açıklıyor. Bu denklemin dört farklı renkli nokta için nasıl çalıştığını gösteriyor ve tüm noktalar için aynı alfa, beta, gama ve tau değerlerini seçerek, farklı nesnelerdeki noktaları ilişkilendirmek için doğrusal işlemleri başarıyla kullanabiliyor. Daha sonra koordinatların, nesnenin bir çizim üzerindeki 2B izdüşümleri olduğunu açıklıyor ve görsel nesne tanımada kavisli yüzeylerin nasıl tanımlanabileceğine ilişkin soruları yanıtlıyor.

  • 00:15:00 Bu bölümde Patrick Winston, tanımaya yardımcı olmak için kısıtlamaların bir nesnenin konumunu tahmin etmeye nasıl yardımcı olabileceğini tartışıyor. Dört doğrusal denklemden ve dört bilinmeyenden türetilebilen alfa, beta, gama ve tau değişkenlerini kullanarak, bilinmeyen nesnenin konumu hakkında değerli bilgiler sağlamak için karşılık gelen noktaların doğru bir şekilde tanımlanabileceğini açıklıyor. Winston, karşılık gelen noktalar doğru bir şekilde tanımlanırsa, bunun bir dikilitaş veya bir organ gibi nesnenin doğru olduğuna dair güçlü bir gösterge sağladığını açıklayarak bu yöntemi gösteriyor.

  • 00:20:00 Bu bölümde konuşmacı, z ekseni etrafında döndürülürken bir 3B nesnenin görüntüsündeki x koordinatının hareketinin nasıl hesaplanacağını gösterir. Standart bir konum tanımlayarak ve bu konumdaki x ve y koordinatlarını belirleyerek başlarlar, ardından üç farklı konum (a, b ve c) oluşturmak için nesneyi döndürürler ve her biri için dönüş açısını belirlerler. Konuşmacı daha sonra, nesne z ekseni etrafında dönerken x koordinatının nasıl değiştiğini hesaplamak için vektör dönüşlerini kullanır. İşlem, kosinüs ve sinüs fonksiyonlarını kullanmayı ve dönerken vektörün x ve y koordinat izdüşümlerini dikkate almayı içerir.

  • 00:25:00 Bu bölümde konuşmacı, herhangi bir perspektif olmadan x ekseni boyunca izdüşüm olan ortografik izdüşüm yoluyla görsel nesne tanımayı açıklayan denklemi basitleştirir. Teta açılarının kosinüsü ve sinüsü gibi bilinmeyen faktörlerin sabit olduğunu ve x alt a ve x alt b için alfa ve beta çarpanları olarak temsil edilebileceğini savunuyor. Çeviri ve döndürmeye izin verme senaryosu verildiğinde, konuşmacı ek sabit tau'nun iki denklem çıkarılarak tanımlanması gerektiğini not eder.

  • 00:30:00 Bu bölümde, Patrick Winston farklı nesne tanıma yöntemlerini tartışıyor. Fotoğraf çekilebilen ve bazı noktaların koordinatlarını tanıma için kaydedebilen üretilmiş nesnelerin aksine, aynı boyutlara sahip olmayan doğal nesneleri tanıma probleminden bahsediyor. Daha sonra Shimon Ullman'ın iki görüntü alıp birini diğerine korelasyon maskesi olarak uygulayabildiği ve ana nesneyi yerleştirebildiği korelasyona dayalı teorisini sunuyor. Bununla birlikte, bu fikir, nadir görülen özellikleri değil, yalnızca yaygın olanları tespit ettiğinden sınırlamalara sahiptir. Winston, iki balkabağı yüzü örneği çizerek bu fikri daha da derinleştiriyor ve gözler ve burunlar gibi belirli özellikleri tanımlamaya dayalı olarak nesneleri tanıma fikriyle ilgili sorunları tartışıyor.

  • 00:35:00 Bu bölümde konuşmacı, görsel nesne tanımanın nasıl çalıştığını ve tanınan özelliklerin boyutuna nasıl bağlı olduğunu tartışır. Çok küçük veya çok büyük resimler faydalı bilgi sağlamazken, iki göz ve bir burun kombinasyonu gibi orta büyüklükteki özellikler faydalı olabilir. O zaman zorluk, bu ara özellikleri bir görüntü denizinde bulmaya dönüşür. Konuşmacı, özelliğin meydana geldiği görüntüdeki ofseti belirlemek için korelasyon algoritmalarının kullanılmasını önerir. Bir x parametresi üzerinden maksimize edilerek, özelliğin konumunu belirlemek için yüz ve görüntünün integrali hesaplanabilir.

  • 00:40:00 Videonun bu bölümünde sunum yapan kişi, görsel nesne tanımada bağıntının nasıl çalıştığını örnek olarak gürültülü görüntüler kullanarak açıklıyor. Korelasyon, bir ofset ile yüzün kapsamı üzerinde çarpma ve entegrasyonu içerir. Ofset eşit olduğunda, program görüntüyü kendisi ile çarpar ve yüz üzerinden birleştirir. Çeviri parametreleri x ve y'yi en üst düzeye çıkararak, eklenen gürültüye rağmen bir görüntünün belirli özelliklerini, örneğin bir kişinin yüzünü seçmek mümkündür. Gösteri, ek gürültüye rağmen programın hala doğru özellikleri seçebildiğini gösterdi.

  • 00:45:00 Bu bölümde, Patrick Winston görsel tanımanın zorluklarını, özellikle de insanları farklı açılardan tanıma becerisini tartışıyor. Yüzleri farklı açılardan nasıl tanıyabildiğimiz net olmasa da, yüzleri ters çevirmenin veya esnetmenin potansiyel olarak korelasyon teorisini bozabileceğini belirtiyor. Ancak, görsel olarak neler olup bittiğini nasıl belirleyebileceğimiz konusunda daha zorlu soruların yattığını öne sürüyor. Öğrencileri bir deneyde hangi eylemi gerçekleştirdiğini belirlemeye davet ediyor ve bilgisayar görüşündeki mevcut zorlukların altını çiziyor.

  • 00:50:00 Bu bölümde konuşmacı, hikaye anlatma gücümüzün görsel tanımamızı nasıl etkilediğini göstermek için içki içen bir kedi örneğini kullanır. Önemli görsel farklılıklara rağmen, insanlar görselde sunulan anlatıyı anlayarak kedinin içki içtiğini kolaylıkla tespit edebilir. Görüş sistemimizin alt kısmı, hikaye aparatımızın kedinin içme eylemini tanıması için yeterli bilgiyi sağlar, bu da görsel nesne tanımada bağlamın ve hikaye anlatımının önemini kanıtlar.
9. Constraints: Visual Object Recognition
9. Constraints: Visual Object Recognition
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonWe consider how object recognitio...
 

Anlatım 10. Öğrenmeye Giriş, En Yakın Komşular



10. Öğrenmeye Giriş, En Yakın Komşular

Bu YouTube videosunda Profesör Winston, öğrenme konusunu tanıtıyor ve iki tür öğrenmeyi tartışıyor: düzenliliğe dayalı öğrenme ve geri bildirime dayalı öğrenme. En yakın komşu öğrenimi, sinir ağları ve güçlendirme gibi düzenliliğe dayalı öğrenme tekniklerine odaklanır. En yakın komşu öğrenimi, bir değer vektörü üreten ve daha sonra en yakın eşleşmeyi bulmak ve bir nesnenin ne olduğunu belirlemek için bir olasılıklar kitaplığından alınan vektörlerle karşılaştırılan bir özellik algılayıcı içerir. Konuşmacı, bu yöntemin nasıl uygulanabileceğine dair çeşitli örnekler verir. Ayrıca, bir nesnenin kategorisini tanımlamak için karar sınırlarının nasıl kullanılabileceğini tartışıyor. Farklı durumlar arasındaki benzerlik ilkesi tanıtılır ve öğrenmeyi büyük ölçüde etkilediği için uyku yönetiminin önemi vurgulanır. Son olarak, düzensizlik sorununa, "neyin önemli olduğu" sorununa ve istatistiksel teknikleri kullanarak verileri normalleştirmenin önemine değiniyor.

  • 00:00:00 Bu bölümde Profesör Winston, öğrenme konusunu ve iki tür öğrenmeyi tanıtıyor: düzenliliğe dayalı öğrenme ve geri bildirime dayalı öğrenme. Birincisine odaklanır ve en yakın komşu öğrenme, sinir ağları ve güçlendirme gibi düzenliliğe dayalı öğrenme tekniklerini tartışır. En yakın komşu öğrenme, örüntü tanıma alanında köklü bir tekniktir ve bir öğrenme problemini çözerken denenecek ilk şeydir. Profesör ayrıca, kahve içebilen bir bilgisayar programının nasıl oluşturulacağı ve bir köpeğin diyet kolanın ne işe yarayacağını düşündüğü iki bilmeceyi de ortaya koyuyor. Son olarak, öğrenmeyi büyük ölçüde etkilediği için uyku konusunu ele almanın ve onu doğru yönetmenin öneminden bahsediyor.

  • 00:05:00 Bu bölümde konuşmacı, bir tür örüntü tanıma olan en yakın komşu öğrenme kavramını tanıtıyor. Bu, daha sonra en yakın eşleşmeyi bulmak ve bir nesnenin ne olduğunu belirlemek için bir olasılıklar kitaplığından alınan vektörlerle karşılaştırılan bir değerler vektörü oluşturan bir özellik detektörünü içerir. Konuşmacı, alanlarını ve delik alanlarını ölçerek bir montaj hattındaki elektrik kapaklarını sıralamak için bu yöntemin kullanımına bir örnek verir. Bu, bilgileri işleyen bir buldozer gibi düzenliliğe dayalı bir öğrenme şeklidir. Konuşmacı, kısıtlamaya dayalı fikirleri içeren ve tek seferlik öğrenme ile açıklamaya dayalı öğrenmeyi mümkün kılan insan öğrenimi için en iyi modelin bu olmadığını belirtiyor.

  • 00:10:00 Bu bölümde eğitmen, karar sınırları kavramını açıklamak için farklı delik alanlarına sahip kapakların birleştirilmesi örneğini kullanır. Bir nesnenin kategorisini en yakın idealize edilmiş tanımına göre belirlemeye yardımcı olabilecek dikey açıortayları kullanarak alanı nasıl böleceğini gösteriyor. Ayrıca, karar sınırları, özelliklerinden birini ölçerek ve onu karar sınırları tarafından oluşturulan kategorilerle karşılaştırarak yeni bir nesnenin kategorisini belirlemek için de kullanılabilir.

  • 00:15:00 Bu bölümde konuşmacı, farklı durumlar arasındaki benzerlik ilkesini tanıtarak, bir şeyin belirli yönlerden benzer olması durumunda, diğer yönlerden de benzer olabileceğini belirtir. Bu ilke, ister peri masallarında, ister hukuk veya iş davalarında ve hatta tıbbi vakalarda olsun, çoğu öğrenmenin temelidir. Fikir, bazı emsalleri veya bilgileri uygulamak için mevcut bir durumla benzerlikleri tanımaktır. İlke çeşitli alanlarda uygulanabilir. Örneğin, hücrelerin yüksek boyutlu bir alana yerleştirilebildiği ve çeşitli özelliklere dayalı olarak benzerlik açısından değerlendirilebildiği hücre tanımlamada kullanılabilir. Benzer şekilde, ilke, belirli soruları ele almak için dergilerdeki makalelerin kelime sayısına göre karşılaştırılabildiği bilgi erişiminde kullanılabilir.

  • 00:20:00 Bu bölümde, hangi makalenin bilinmeyen bir maddeye en yakın olduğunu belirlemeye çalışırken en yakın komşuları kullanma kavramı inceleniyor. Sorun, tüm Kasaba ve Ülke makalelerinin en yakın olduğu belirlendiğinde ortaya çıkar. Bunun yerine sınıf, sorunu çözmek için vektörler arasındaki açı gibi farklı bir ölçü kullanmayı tartışır. İki vektör arasındaki açının kosinüsü, robotik kol kontrolü de dahil olmak üzere birçok durumda yararlı olabilecek basit bir hesaplamayla hesaplanabilir. Amaç, bir topun yörüngesini belirli bir hız ve ivmede kontrol etmek için bir kolu hareket ettirmektir; bu, teta 1 ve teta 2 olmak üzere iki açının belirlenmesini içerir.

  • 00:25:00 Bu bölümde konuşmacı, bir topun istenen (x,y) koordinatlarını, istenen konum, hız ve ivmelerle θ1 ve θ2 uzayına çevirirken karşılaşılan sorunları tartışır. Hareket denklemlerinde yer alan karmaşık geometrinin bir sonucu olan Coriolis kuvvetleri kavramını tanıtırlar. Bu sorunu çözmek için konuşmacı, kol için hareket kombinasyonlarından oluşan büyük bir tablo oluşturmayı, ardından istenen yörüngeyi küçük parçalara ayırmayı ve ilgili torklar da dahil olmak üzere tablodan en yakın eşleşmeyi bulmayı önerir. Bu yöntem daha önce yetersiz bilgisayar gücü nedeniyle reddedilmişti, ancak son zamanlarda yeniden gözden geçirildi ve benzer hareketler için iyi çalışıyor.

  • 00:30:00 Bu bölümde konuşmacı, robot "çocukluk" döneminden geçerken ve görevde giderek daha iyi hale gelirken öğrenme sürecinin nasıl işlediğini açıklıyor. İyileştirme, gerekli hareketlerin daha iyi versiyonlarını kaydeden bir tablonun kullanılmasıyla sağlanır, böylece robot buna daha sonra geri dönebilir. Ardından konuşmacı, robotun öğrenmesinin ne kadar hızlı gerçekleştiğini gösteren bir grafik gösterir. Beyzbol sahalarını kaydetmek için aynı hafıza kayıt yöntemini kullanma konusu da kısaca tartışılmaktadır.

  • 00:35:00 Bu bölümde, Profesör Patrick Winston beyindeki, özellikle beyincikteki, motor kontrolle ilgili nöronların ve sinapsların sayısını ve bunların motor beceri öğrenimi için nasıl devasa bir tablo işlevi görebileceğini tartışıyor. Daha sonra, makine öğreniminde normalleştirilmiş veri sorununu ve bunun verilerin farklı boyutlarda yayılmasını nasıl etkileyebileceğini araştırıyor. Çözüm, varyansı hesaplamak ve istatistik tekniklerini kullanarak verileri normalleştirmektir.

  • 00:40:00 Bu bölümde konuşmacı, öğrenmede en yakın komşuları kullanırken ortaya çıkabilecek potansiyel sorunları tartışıyor. Böyle bir sorun, veriler yeni değişkene bağlı olmadığında tek tip olmama sorunudur. İkinci sorun, algoritmanın cevabı karıştıran bir mesafeyi ölçebildiği "önemli olan" sorunudur. Son olarak, üçüncü sorun, unsuz bir pasta pişirmeye benzer şekilde, mevcut verilerin sorudan bağımsız olduğu zamandır. Konuşmacı daha sonra uykunun önemine ve iyi uyku alışkanlıklarının, özellikle Ordu Korucuları gibi kişiler için ne kadar önemli olduğuna değiniyor. Ayrıca, uyku yoksunluğunun, savaş sonrası analizlerde gözlemlenen hedefleri ayırt etmede nasıl hatalara yol açabileceğini açıklıyor.

  • 00:45:00 Bu bölümde konuşmacı uykusuzluğun insan zihni ve vücudu üzerindeki etkilerini tartışıyor. 72 saat sonra, bireyin yeteneği ve performansının başlangıca göre %30 düştüğünü açıklıyor. Uyku kaybı birikir ve 20 gün boyunca bir saatlik uyku yoksunluğundan sonra, kapasiteniz %25'e düşer. Konuşmacı ayrıca kafeinin ve şekerlemelerin etkinliğini inceliyor ve kafeinin biraz yardımcı olduğunu vurguluyor. Neden ile korelasyonun karıştırılmaması ve köpek ve kedi gibi hayvanların gördükleri bir korelasyon nedeniyle diyet içeceklerin kilo alımına neden olduğu yanılgısına nasıl düşebilecekleri konusunda uyarıda bulunuyor.
10. Introduction to Learning, Nearest Neighbors
10. Introduction to Learning, Nearest Neighbors
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonThis lecture begins with a high-l...
 

Anlatım 11. Öğrenme: Kimlik Ağaçları, Düzensizlik



11. Öğrenme: Kimlik Ağaçları, Düzensizlik

MIT profesörü Patrick Winston, verileri kullanarak vampirleri tanımlamak için bir tanıma mekanizması oluşturma kavramını ve Occam's Razor'u tatmin eden küçük ve uygun maliyetli bir tanımlama ağacı oluşturmanın önemini açıklıyor. Tüm olası ağaçları hesaplamak bir NP problemi olduğundan, ağacı inşa etmek için buluşsal mekanizmaların kullanılmasını önerir. Winston, hangi bireylerin vampir olduğunu belirlemek için bir gölge testi, sarımsak testi, ten rengi testi ve aksan testi kullanmayı önerir ve bozukluk ölçümüne dayalı bir testin genel kalitesini bulmak için setlerdeki bozukluğun nasıl ölçüleceğini açıklar. Video ayrıca, tanımlama ağaçlarının sayısal verilerle nasıl kullanılabileceğini ve ağacın, kural tabanlı davranışa dayalı basit bir mekanizma oluşturmak için bir dizi kurala dönüştürülebileceğini de tartışıyor.

  • 00:00:00 Bu bölümde, MIT profesörü Patrick Winston, vampirleri tanımlamaya yönelik bir tanıma mekanizması oluşturmak için verileri kullanma kavramını tanıtıyor. Bu veri seti ile önceki derste çalıştıkları elektrikli örtü veri seti arasındaki farklara dikkat çekiyor ve bu veri setinin sayısal değil sembolik olduğunu ve en yakın komşu tekniklerini kullanılamaz hale getirdiğini belirtiyor. Ayrıca, belirli testlerin maliyeti ve hangi özelliklerin gerçekten önemli olduğunun belirsizliği gibi vampirleri tanımlamanın diğer zorluklarını da vurguluyor.

  • 00:05:00 Bu bölümde Patrick Winston, tanımlama ağaçları veya karar ağaçları kavramını açıklıyor ve uygun maliyetli ve tek tip veri alt kümeleri üreten küçük bir ağaç oluşturmanın önemini vurguluyor. Amaç, en basit açıklamanın genellikle en iyi açıklama olduğunu belirten Occam'ın Usturasını tatmin eden basit, küçük bir açıklama üretmek için mümkün olan en iyi test düzenlemesini bulmaktır. Ayrıca, tüm olası ağaçları hesaplamak bir NP problemi olduğundan, ağacı oluşturmak için buluşsal bir mekanizma kullanılmasını önerir. Son olarak Winston, sınıfta kullanılan küçük örneklem setinin gerçek dünya uygulamaları için uygun olmadığına dikkat çekiyor.

  • 00:10:00 Bu bölümde, hangi kişilerin vampir olduğunu belirlemek için gölge testi, sarımsak testi, ten rengi testi ve aksan testi kullanılır. Testler küçük bir örneklem popülasyonuna uygulanır ve testlerin verileri nasıl böldüğüne bakılarak hangi testin en homojen grupları ürettiğini belirlemek mümkündür. Nihai hedef, örnek popülasyondaki tüm vampirleri doğru bir şekilde tanımlayabilen bir test bulmaktır. Gölge testi, popülasyonu gölge yapanlar ve yapmayanlar olarak ikiye ayırır, yalnızca bir kişi gölge atmaz ve vampir olduklarını gösterir. Sarımsak testi, örnek popülasyondaki tüm vampirlerin sarımsak yemeye olumsuz tepki verdiğini belirler. Cilt testi ve aksan testi ayrıca hangi bireylerin vampir olma olasılığının yüksek olduğunu belirlemeye yardımcı olur.

  • 00:15:00 Bu bölümde video, her iki gruba özgü özellikleri seçerek bir grup insanı homojen kümelere bölerek bir tanımlama ağacının nasıl oluşturulacağının bir örneğini açıklıyor. Örnek, vampirleri ve vampir olmayanları ve her grubu tanımlamak için kullanılan testleri içerir. Video ayrıca bu kavramın daha büyük veri kümelerine nasıl uygulanacağına ilişkin soruları da ele alıyor ve sınıf örneğinin sınırlamalarını vurguluyor.

  • 00:20:00 Bu bölümde kümelerde ölçme bozukluğu kavramı tanıtılmaktadır. Ağaç dallarının dibinde bulunan kümelerin düzensizliğini ölçmenin bir yolunu bulmak için bilgi teorisyenlerine başvurulur. Bilgi teorisyenlerine göre bir kümenin bozukluğu, toplam pozitif ve negatif sayısı dikkate alınarak ve pozitif sayısının pozitiflerin logaritması ile toplam sayıya bölünmesiyle 2 tabanına göre çarpılarak hesaplanır. • Bu yöntem, bozukluğun ölçülmesine dayalı bir testin genel kalitesinin bulunmasına yardımcı olabilir.

  • 00:25:00 Bu bölümde konuşmacı, pozitif ve negatif oranlarını kullanarak bir veri setindeki bozukluğu ölçme formülünü açıklar. Tamamen karışık ve tamamen pozitif veri setlerinin değerlerini hesapladıktan sonra, konuşmacı kısa sınav sorularını hızlı bir şekilde çalışmak için bu eğrilere dikkat etmenin önemini onaylar. Son olarak, L'Hopital Kuralını kullanarak, negatiflerin toplama oranı 0'a yaklaştığında konuşmacı üçüncü bir değer hesaplayarak üç noktalı bir eğrinin grafiğini çizebilir.

  • 00:30:00 Bu bölümde, konuşmacı genel olarak bir testin kalitesinin nasıl ölçüleceğini ve test tarafından üretilen her setteki bozukluğun nasıl ölçüleceğini tartışır. Konuşmacı, test tarafından üretilen her setin düzensizliğini toplamayı önerir, ancak bu yöntemin en iyisi olmayabileceğini, çünkü neredeyse hiçbir şey olmayan bir dala, neredeyse her şeyin aşağı indiği bir dalla eşit ağırlık verir. Bu sorunu çözmek için, konuşmacı, o koldan aşağı inen örneklerin fraksiyonuna dayalı olarak toplamı ağırlıklandırmayı önerir. Konuşmacı bu yöntemi örnek bir problemle açıklar ve homojen bir kümenin düzensizliğinin sıfır olduğu sonucuna varır.

  • 00:35:00 Bu bölümde, verilen verileri tanımlayan ve alt kümelere ayıran testlerin kalitesine odaklanılır. Bir kümenin düzensizliği veya düzensizliği, tüm örnekler aynı olduğunda sıfırdır ve örnekler eşit olarak iki türün eşit bir karışımı olduğunda birdir. Alt kümelerin olasılığını kümelerin ilgili düzensizliği ile çarparak, her bir testin kalitesi hesaplanabilir. Bu kalite metriği daha sonra, mümkün olduğu kadar basit bir ağaç oluşturmak için gerekli olan, verileri homojen alt kümelere bölmede hangi testin en iyi olduğuna karar vermek için kullanılır. Bununla birlikte, bilgi teorisi veya entropi yerine veri analizinin arkasındaki sezgiye vurgu yapılır.

  • 00:40:00 Video, bu bölümde, verilere eşikler koyarak tanımlama ağaçlarının sayısal verilerle nasıl kullanılmaya devam edebileceğini tartışıyor. Bu, kategorik verilerle kullanılan testlere benzer şekilde ikili testlerin oluşturulmasına izin verir. Bilgisayar farklı eşik değerlerini deneyebilir ve verileri homojen gruplara ayırmak için hangi eşiğin en iyi sonucu verdiğini belirler. En yakın komşular gibi diğer yöntemlerden farklı olarak, karar sınırları verinin şeklini takip etmek yerine bir eksene veya diğerine paraleldir.

  • 00:45:00 Bu bölümde, Kimlik Ağaçlarını, erdemlerini ve kural odaklı olanlar için daha basit hale getirmek için bir dizi kurala nasıl dönüştürülebileceğini öğreniyoruz. Ağaç, her daldan bir yaprağa inerek bir kurallar kümesine dönüştürülebilir ve bir kural hem gölgeyi hem de sarımsağı test ederse, bazı maddelerden kurtularak kural tabanlı basit bir mekanizma oluşturabiliriz. davranış.
11. Learning: Identification Trees, Disorder
11. Learning: Identification Trees, Disorder
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonIn this lecture, we build an iden...
 

Ders 12a: Sinir Ağları



12a: Sinir Ağları

Bu video, sinir ağları ile ilgili bir dizi konuyu kapsar. Konuşmacı sinir ağlarının tarihini tartışarak başlar ve Geoff Hinton tarafından yapılan ve alanı dönüştüren önemli çalışmayı vurgular. Daha sonra bir nöronun anatomisi ve ayrıca girdilerin toplanma ve işlenme şekli tartışılır. Ardından video, sinir ağlarının fonksiyon yaklaşıklayıcıları olarak nasıl işlev gördüğünü ve yokuş tırmanma ve eğimli iniş kullanılarak performansın nasıl iyileştirilebileceğini inceliyor. Kısmi türevlerin hesaplanmasını kolaylaştırmak için zincir kuralı tanıtılır ve konuşmacı dünyanın en basit sinir ağının bu yaklaşım kullanılarak nasıl eğitilebileceğini gösterir. Sinir ağı için optimal hız sabiti de tartışılıyor ve konuşmacı iki giriş ve çıkışlı daha karmaşık bir sinir ağı sunuyor. Son olarak, büyük ağlar aracılığıyla yolların potansiyel üstel patlaması sorununu ele almak için yeniden kullanım ilkesi tanıtıldı. Genel olarak video, sinir ağlarındaki harika fikirlerin sahada önemli bir etkiye sahip olsalar bile genellikle basit ve gözden kaçırmanın kolay olduğunu vurguluyor.

  • 00:00:00 Bu bölümde, profesör sinir ağlarının tarihçesini anlatıyor ve başlangıçta birçok kişinin o günün nöral modellerinin insan beyninin doğru modelleri olmadığına inandığını ve kimsenin bu nöral modeli yapmayı başaramadığını belirtiyor. her şeye değerdi. Devam eden profesör, iki yıl sonra Toronto Üniversitesi'nden Geoff Hinton'un resimleri tanıma ve sınıflandırma konusunda yaptığı bazı nöral çalışmalarla dünyayı hayrete düşürdüğünü ve bazı örnekler içeren bir makale yayınladığını belirtiyor. Video, Toronto sinir ağının tanıyabildiği birkaç resim örneğini ve zorlandığı diğerlerini gösteriyor.

  • 00:05:00 Bu bölümde, konuşmacı sinir ağlarını ve bunların artan çaba ve ilgi nedeniyle son üç yılda nasıl önemli ölçüde geliştiğini tartışıyor. Kendi sinir sistemlerimizden nasıl ilham aldığımızı açıklıyor ve bir nöronun aksonu, dendritik ağacı ve aralarındaki sinaptik bağlantıları içeren yapısını anlatıyor. Konuşmacı daha sonra, bağlantının gücünü yansıtan ikili girişler ve ağırlıklar kullanılarak sinir ağlarında sinaptik bağlantıların nasıl modellendiğini tartışır.

  • 00:10:00 Bu bölümde konuşmacı, sinaptik ağırlıklar, bir yaz ve nöronun ateşlenip ateşlenmeyeceğini belirleyen bir eşik kutusu kullanan basit bir model aracılığıyla bir nöronda girdilerin toplanma şeklinin nasıl modelleneceğini açıklıyor. Bu model insan beyninin işleyişinden ilham alırken, nörobiyologlar tarafından henüz tam olarak anlaşılamayan pek çok bilinmeyen ve incelik var. Bu model, nöronların nasıl çalıştığının ve toplu olarak bir ağ olarak nasıl çalıştıklarının genel özünü anlamanın bir yoludur.

  • 00:15:00 Bu bölümde, konuşmacı bir sinir ağının, girdilerin ağ üzerinden aktığı ve çıktılara dönüştüğü bir işlev yaklaşıklayıcısı olarak nasıl çalıştığını açıklar. Çıkış vektörü, giriş vektörünün, ağırlık vektörünün ve bir eşik vektörünün bir fonksiyonudur. Performans fonksiyonu, istenen çıkış vektörü ile gerçek çıkış vektörü karşılaştırılarak oluşturulur ve amaç her zaman performans fonksiyonunu en aza indirmektir. Ders, tepe tırmanma kullanarak basit bir sinir ağında ağırlıkları ve eşikleri optimize etme sürecini açıklıyor, ancak bu yöntemin, Hinton'un 60 milyon parametreli sinir ağı gibi çok sayıda parametreli sinir ağları için uygun olmadığını kabul ediyor.

  • 00:20:00 Bu bölümde anlatıcı, işlevin belirli ağırlıklara göre kısmi türevlerini alarak performans işlevinde küçük iyileştirmeler yapmak için gradyan inişinin nasıl kullanılabileceğini açıklar. Ancak bu yöntem sadece sürekli yüzeyler için etkilidir ve sinir ağlarında olduğu gibi süreksiz yüzeyler için geçerli değildir. Çözüm, 1974'te Paul Werbos tarafından tanıtıldı; bu, nörona her zaman -1 olan bir girişe bağlı W0 ağırlığında başka bir girdi eklemeyi içerir. Bu girdi, eşiği etkili bir şekilde sıfıra taşır ve sinir ağı için daha yumuşak bir geçiş işlevi sağlar.

  • 00:25:00 Bu bölümde videoda sigmoid fonksiyonu ve sinir ağlarında nasıl kullanıldığı anlatılmaktadır. Sigmoid işlevi, nöronlar için bir aktivasyon işlevi olarak kullanılır ve matematiğin gerektirdiği doğru görünümü ve şekli sağlar. Sinir ağını denemek ve eğitmek için sorunlu eşik kaldırıldığına göre kısmi türevler daha sonra hesaplanır. Dünyanın en basit sinir ağı, iki nöron ve bir performans işlevi veren birkaç parametreden oluşan olarak tanımlanır. Video daha sonra kısmi türevleri, diğerlerine göre ne kadar kıpırdadıklarını belirlemek ve nihayetinde sinir ağını eğitmek için hesaplama ara değişkenlerine yeniden yazmak için zincir kuralını tanıtıyor.

  • 00:30:00 Bu bölümde, konuşmacı zincir kuralını kullanarak kısmi türevleri siler ve yeniden yazar, basit bir sinir ağını çözmeye izin veren ifadeler sağlar. Türevler kolaylık sağlamak için bir çarpım formatına çevrilir ve konuşmacı p2'nin w2'ye göre kısmi türevini bulmaya devam eder, bu da Y'ye eşittir. Z'nin p2'ye göre kısmi türevi hala bilinmemektedir çünkü bir a içerir. eşik işlevi. Bunu anlamak için, konuşmacı nöronu yok eder ve 1 bölü 1 artı e üzeri eksi alfaya eşit olan beta işleviyle çalışır.

  • 00:35:00 Bu bölümde, konuşmacı alfa betaya göre türevin üzerinden geçiyor ve ardından dünyanın en küçük sinir ağını hiçbir şey yapmaması için eğiterek iş başında göstermeye devam ediyor. Sigmoid fonksiyonunun çıktısı, türev yalnızca çıktı cinsinden yazılabileceği için basitleştirilmiştir. Sinir ağı, çıktıyı girdiyle aynı yapmak için eğitilir, ancak sonuç olarak hiçbir şey olmaz.

  • 00:40:00 Videonun bu bölümünde, konuşmacı bir sinir ağı için en uygun hız sabitini belirleme sürecini tartışıyor. Rastgele ağırlıklara sahip bir sinir ağı ile başlayarak, konuşmacı çeşitli oran sabitlerini test eder ve bunların ağın performansı üzerindeki etkisini gözlemler. Hız sabiti çok küçükse optimum performansa ulaşmak uzun zaman alır, ancak çok büyükse ağ çok uzağa sıçrayabilir ve kararsız hale gelebilir. Konuşmacı, hız sabitinin optimum performansa doğru ilerleme ile değişmesi gerektiğini not eder. Konuşmacı ayrıca iki giriş ve çıkışa sahip daha karmaşık bir sinir ağı sunar ve akışlar ile ağırlıklar arasındaki etkileşimleri tartışır.

  • 00:45:00 Bu bölümde, çok sayıda nöron içeren bir ağ aracılığıyla yolların olası üstel patlamasını öğreniyoruz. Bununla birlikte, P'deki değişikliklerin performans üzerindeki etkisi yalnızca sabit bir nöron sütunu aracılığıyla gerçekleşebileceğinden, hesaplamayı yeniden kullanabiliriz ve üstel bir patlama yaşamayız, yani zaten yapılmış olan hesaplamayı yeniden kullanırız. Sabit genişliğe sahip bir sütun için gerekli hesaplama miktarı doğrusal ve derindir, ancak sütun genişliğinin karesiyle orantılıdır. Bu ilkenin 25 yıldır gözden kaçırıldığı da konuşmacı tarafından belirtiliyor.

  • 00:50:00 Bu bölümde, konuşmacı sinir ağlarındaki harika fikirlerin genellikle ne kadar basit olduğunu tartışıyor, ancak biz insanlar mucizevi bir şey yaratmak için birkaçını bir araya getirmek yerine genellikle tek bir numara veya gözlem buluyoruz. Mucize iki hile ve bir gözlemin sonucu olduğundan, yeniden kullanım ilkesi bu durumda iş başındadır. Genel olarak verilen mesaj, büyük fikirlerin basit olduğu ve gözden kaçırmanın kolay olduğu ve çeyrek asırdır gözden kaçırıldığıdır.
12a: Neural Nets
12a: Neural Nets
  • 2016.04.20
  • www.youtube.com
*NOTE: These videos were recorded in Fall 2015 to update the Neural Nets portion of the class.MIT 6.034 Artificial Intelligence, Fall 2010View the complete c...
 

Ders 12b: Derin Sinir Ağları



12b: Derin Sinir Ağları

Bu video, ilgili hesaplama süreci, evrişimli sinir ağları, otomatik kodlama algoritmaları, çıkış katmanındaki parametreleri ayarlama, softmax ve evrişimli ağlarla geri yayılım dahil olmak üzere derin sinir ağlarıyla ilgili çeşitli konuları kapsar. Video aynı zamanda yerel maksimum, genişleyen ağlar ve nöral ağ öğrenimi gibi kavramları incelerken, aynı zamanda derin nöral ağların görüntü işlemede nasıl çalıştığını gösteriyor. Genel olarak, video, güçlü yönleri ve sınırlamaları da dahil olmak üzere derin sinir ağlarıyla ilgili ana kavramlara kapsamlı bir genel bakış sağlar.

  • 00:00:00 Bu bölümde, konuşmacı küçük bir sinir ağındaki hesaplama sürecini tartışıyor ve bu ağın performansının sınırlı sayıda çıktı değişkenine bağlı olduğu gerçeğini vurguluyor. Konuşmacı, performansın belirli ağırlıklara bağımlılığını gösteren denklemleri göstermeye devam ediyor ve hesaplama sürecinde çok fazla fazlalık olduğuna işaret ediyor. Çıktılardan girdilere doğru daha geriye gidildikçe, daha önce yapılan hesaplamaların çoğu yeniden kullanılır ve bu da aşağı yönlü ağırlık değişimlerinde yapılan birkaç hesaplama parçasının yeniden kullanılmasıyla sonuçlanır.

  • 00:05:00 Bu bölümde, konuşmacı sinir ağlarıyla ilgili hesaplamaları tartışıyor ve kafamızda gerçekleşen temel hesaplamaya, sinir ağlarında da kullanılan nokta çarpımına dikkat çekiyor. Ayrıca görüntü işleme için kullanılan evrişimli sinir ağları kavramını açıklıyor ve bunların sinir ağı alanında yeniden ortaya çıkma eğiliminde olan bileşenlerin belirli bir montajından yapıldığını belirtiyor. Konuşmacı ayrıca, "doğru cevap" tanımına bağlı olarak yaklaşık yüzde 15 veya yüzde 37 hata oranına sahip olan derin sinir ağının 2012 performansından da bahsediyor.

  • 00:10:00 Videonun bu bölümünde konuşmacı, evrişim ve havuzlamanın sinir ağlarında nasıl çalıştığını açıklıyor. Süreç, görüntüdeki belirli bir yerle ilişkili bir çıktı üreten bir nöronun bir görüntü boyunca çalıştırılmasını içerir. Buna evrişim denir ve elde edilen noktalar, yerel komşuluklardaki maksimum değeri bulmak için kullanılır ve bu maksimum değeri kullanarak görüntünün bir eşlemesini oluşturur. Buna maksimum havuzlama denir. Birçok çıktı üretmek için birden fazla çekirdek kullanılabilir ve bunlar daha sonra bir nesnenin görüntüde bulunma olasılığını belirtmek için bir sinir ağına beslenebilir. Bu yöntem, nöronlar için girdi olarak küçük bir piksel ızgarası kullanan eski yöntemden çok daha gelişmiştir.

  • 00:15:00 Bu bölümde öğretim görevlisi, bir sinir ağının istenen değerler birbiriyle eşleşene kadar girdi ile çıktıyı karşılaştırdığı Otomatik kodlama fikrini açıklar. Öğretim görevlisi, Otomatik kodlama algoritmasının nasıl çalıştığını gösteren basit bir örnekte, bir ağın karatahta üzerindeki gölgelerinin yüksekliğine göre hayvanları tanımlayabildiği bir algoritmayı açıklar. Ağ, girdi değerlerini daha küçük bir gizli katmana sıkıştırarak hayvan gölgelerini tanımayı "öğrenir" ve ardından çıktı değerlerini oluşturmak için genişletilir. Algoritma, önemli sayıda sınıf ve her sınıf için örnek içeren büyük girdi veri kümeleriyle uğraşırken bile şaşırtıcı derecede etkili sonuçlar elde ediyor.

  • 00:20:00 Bu bölümde, konuşmacı rastgele girdiler ve basit geri yayılma ile basit bir sinir ağı çalıştırmayı gösteriyor. Yalnızca bin yinelemeden sonra, hata oranı önemli ölçüde düşer ve ağ, ortamda gördüğü nesnelerin doğasını yalnızca gölgelerinin yüksekliğine göre tanıyabilir. Bununla birlikte, gizli katmandaki nöronlar tarafından yapılan genellemelerden ziyade, bir tür kodlanmış genelleme meydana geliyor gibi görünüyor ve bu da araştırmacıların sinir ağının belirli nesneleri nasıl tanıyabildiğini anlamasını zorlaştırıyor. Bu gizeme rağmen, katman katman eğitimi içeren otomatik kodlama, derin sinir ağlarını eğitmek için umut verici bir teknik sunuyor.

  • 00:25:00 Videonun bu bölümünde, konuşmacı derin bir sinir ağının son katmanını ve örneklerin sınıflandırılmasını optimize etmek için eşik ve ağırlık değerlerini ayarlamanın önemini tartışıyor. Eşik değerinin değiştirilmesiyle sigmoid fonksiyonu kaydırılırken, ağırlık değerinin değiştirilmesi eğrinin dikliğini değiştirir. Bu ayarlamalar, sırayla, veri kümesindeki olumlu ve olumsuz örneklerin olasılığını etkiler. Verileri doğru bir şekilde sınıflandırma olasılığını en üst düzeye çıkarmak için, T ve W değerlerinin kısmi türevler yoluyla optimize edilmesi gerekir.

  • 00:30:00 Bu bölümde eğitmen, elimizdeki örnek verilerin olasılığını en üst düzeye çıkarmak için çıktı katmanındaki parametreleri ayarlama kavramını açıklıyor. Bu, çıktı değerinin bir sınıf görme olasılığıyla ilgili bir şey olarak görüntülenmesini ve parametrelerin buna göre ayarlanmasını içerir. Eğitmen, süreci bir sigmoid eğrisi ve bir gradyan iniş algoritması kullanarak gösterir. Amaç, en olası olanı bulabilmemiz için her sınıfla bir tür olasılık ilişkilendirmektir. Bir sınıfın gerçek olasılığı, o sınıf için sigmoid fonksiyonunun çıktısının tüm fonksiyonların toplamına bölünmesiyle hesaplanır. Buna normalleştirme faktörü ile bölme denir ve her çıktı değerini olasılığa dönüştürür.

  • 00:35:00 Bu bölümde, konuşmacı bir dizi sınıflandırma vermek ve görüntüleri sınıflandırmak için her biriyle bir olasılık ilişkilendirmek için softmax kullanma sürecini açıklıyor. Konuşmacı ayrıca giriş katmanını dondurarak ve sigmoid eğrisini kullanarak çıkış katmanını eğiterek softmax fikrini otomatik kodlama fikriyle birleştirmeyi tartışıyor. Ayrıca, sinir ağlarının yerel bir maksimum durumda sıkışmasını önlemek için bırakma fikrinden bahsediyorlar. Bölüm, çıktı katmanlarının karmaşıklığına ve otomatik kodlama veya Boltzmann makineleri kullanılarak yapılan eğitime rağmen, evrişimli ağlarla geri yayılımın da aynı performansı gösterdiğini ve konuşmacının, görüntüleri sınıflandırmak için beş katmanlı bir derin sınıf ağı ve geri yayılımı gösterdiğini belirterek sona eriyor. hayvanlar.

  • 00:40:00 Bu bölümde video, bir sinir ağının yerel bir maksimumda nasıl takılıp kalabileceğini ve ağın genişletilmesinin, uçsuz bucaksız uzayda takılıp kalmadan gezinmesine nasıl yardımcı olabileceğini gösteriyor. Konuşmacı, artık yerel maksimumları eyer noktalarına çevirebildiği için sinir ağı öğrenmede bir atılım olduğunu açıklıyor, bu da onun daha verimli öğrenmesini sağlıyor. Video, sinir ağlarının insanlar gibi "görüp göremediğini" keşfetmeye devam ediyor ve piksellerdeki küçük değişikliklerin bile bir sinir ağının yüksek güven düzeyine sahip nesneler arasında nasıl ayrım yapabileceğine dair örnekler gösteriyor. Gösteri, bir sinir ağının bir görüntünün gerçekte olduğu gibi olmadığına inanarak kandırılabileceğini gösteriyor.

  • 00:45:00 Bu bölümde konuşmacı, Google'ın resimlere altyazı koyma konusundaki makalesinden örnekler kullanarak derin sinir ağlarının görüntü işlemede nasıl çalıştığını tartışıyor. Sinir ağları, görüntüdeki yerel özellikleri ve dokuyu algılayarak okul otobüsü veya beyzbol topu gibi bir nesneyi tanımlar. Bununla birlikte, diğer yanlış tanımlama örneklerinin gösterdiği gibi, sinir ağlarının bir resmin içeriğini anlayamaması, teknolojinin bir sınırlaması olarak gösteriliyor. Konuşmacı daha sonra laboratuvarlarının, sinir ağının görüntü izlenimini korurken resimlerden dikdörtgenleri çıkarma konusundaki çalışmalarını tartışıyor. Sinir ağının bir nesneyi tanımlama yeteneği, görüntünün bazı kısımları çıkarıldığında bile takdire şayan bir performans sergileyen sinir ağları ile çeşitli sakatlama düzeylerinin resimleri aracılığıyla da sergileniyor.
12b: Deep Neural Nets
12b: Deep Neural Nets
  • 2016.04.20
  • www.youtube.com
*NOTE: These videos were recorded in Fall 2015 to update the Neural Nets portion of the class.MIT 6.034 Artificial Intelligence, Fall 2010View the complete c...
 

Anlatım 13. Öğrenme: Genetik Algoritmalar



13. Öğrenme: Genetik Algoritmalar

Bu video, evrimi taklit eden ve karmaşık problemleri çözmemizi sağlayan genetik algoritma kavramını tartışıyor. Kromozomlar yoluyla genetik kalıtım süreci, mutasyonlar ve çapraz geçişler için seçenekler içeren ikili kromozomlar kullanılarak parçalanır ve simüle edilir. Adayların hayatta kalma olasılıkları ve sıralaması, doğru uygulandığında etkinliği gösteren bir örnekle açıklanır. Yerel maksimumların üstesinden gelmenin zorluğu ve simüle edilmiş tavlama tekniğinin tanıtılması tartışılmıştır. Kural tabanlı bir uzman sistem oluşturma projesi ve blok benzeri nesnelerden oluşan yaratıkların evrimi de dahil olmak üzere, genetik algoritmaların pratik uygulamaları sergileniyor. Öğretim görevlisi, çeşitliliğin başarılarında kilit bir bileşen olduğuna dikkat çekerek, genetik algoritmaların kökenleri ve başarısı üzerine derinlemesine düşünür.

  • 00:00:00 Bu bölümde, MIT'den Profesör Patrick Winston, genetik algoritmalar aracılığıyla evrimi taklit etmekten bahsediyor. Mitoz ve üremenin temelleri hakkında konuşarak başlıyor. Daha sonra, evrimi taklit etmeye yönelik safça girişimler olan genetik algoritmalar kavramını tanıtıyor. Bu algoritmalar, evrim modelini taklit ederek karmaşık soruları çözmemizi sağlar. Öğrencilerin bunu bir sonraki sınavda görmeyeceklerini ancak final sınavında sınıfta var ve uyanık olup olmadıklarını test etmek için bununla ilgili soruları olacağını söylüyor.

  • 00:05:00 Videonun bu bölümünde konuşmacı, kromozomlar aracılığıyla genetik kalıtım sürecini parçalayarak genetik algoritmaların temellerini açıklıyor. Genetik kalıtım sürecini genetik algoritmalarla karşılaştırıyor ve ikili kromozomlar kullanarak genetik kalıtım sürecini taklit eden bir sistem oluşturmak amacıyla kromozomları nasıl basitleştirdiğini ve simüle ettiğini açıklıyor. Bu süreçte, kromozom başına kaç tane mutasyona veya geçişe izin verildiği gibi, değiştirilmiş kromozom popülasyonuna yol açan seçimlerin nasıl yapılabileceğini açıklamaya devam ediyor. Bir sonraki adım, genotipten fenotip geçişine geçmektir.

  • 00:10:00 Bu bölümde, genotipin fenotipi nasıl belirlediğini ve her bireyle birlikte gelen değişen uygunluğu öğreniyoruz. Uygunluklar puanlandıktan sonra, bilgisayar bilimcileri, bir sonraki nesle hayatta kalma olasılıklarını hesaplamak için sayıları kullanabilir. Olasılıkların toplamının bir olmasını sağlamak için uygunluk değerlerinden üretilen bir olasılık ölçüsüne ihtiyacımız var. Fonksiyonu x ve y olan bir uzayda optimal değerleri arayan bir genetik algoritma oluştururken uygunluk, bazı sabitlerin sinüsü çarpı x, niceliğin karesi, çarpı y sabitinin sinüsü, niceliğin karesi, e ile belirlenir. artı x artı y bölü bir sabit.

  • 00:15:00 Bu bölümde, Patrick Winston genetik algoritmaların nasıl çalıştığını ve nasıl geliştiklerini açıklıyor. Mutasyon ve çapraz geçiş sürecini ve bunların uygunluk grafiğinde popülasyonları yukarı doğru evrimleştirmek için nasıl kullanılabileceğini özetliyor. Bir örnek kullanarak, temel tepe tırmanma mekanizmaları nedeniyle genetik algoritmaların yerel maksimumlara nasıl takılıp kalabileceğini gösteriyor. Öğrenciler çaprazlama kullanmayı öneriyor, ancak bu bile işe yaramıyor gibi görünüyor. Buna rağmen Winston, başlangıçta etkili görünmeyebilecek fikirlere karşı açık fikirli olmanın önemine dikkat çekiyor.

  • 00:20:00 Bu bölümde öğretim görevlisi, uygunluğu hayatta kalma olasılığına çevirme kavramını araştırıyor ve gerçek bir uygunluk özelliği kullanmanın mutlaka etkili olmayabileceğini vurguluyor. Bu nedenle, adayları uygunluk seviyelerine göre sıralamanın daha iyi bir yaklaşım olabileceğini önermektedir. En yüksek rütbeli bireyin bir sonraki nesle geçme olasılığının bir sabit tarafından belirlendiğini belirterek bu mekanizmayı ayrıntılı olarak açıklıyor. Ek olarak, bu yöntemi test etmek için 100 nesil çalıştırıyor ve sonuçları açıklayarak stratejinin doğru uygulandığında etkinliğini gösteriyor.

  • 00:25:00 Bu bölümde video, genetik algoritmaların bazen nasıl yerel maksimumlara takılıp kaldığını ve daha iyi bir çözüm bulmak için çeşitliliği artırmanın bir yoluna ihtiyaç duyduğunu tartışıyor. Bu, bazı türlerin milyonlarca yıl boyunca evrim geçirmeden takılıp kalmasına benzer. Daha sonra adım boyutunu kademeli olarak azaltmak ve bir çözümün bulunmasını sağlamak için simüle edilmiş tavlama tekniği tanıtılır. Bununla birlikte, video bazen simüle edilmiş tavlamanın yerel bir maksimumdan kaçmak için yeterli olmadığını ve popülasyon içindeki çeşitliliği artırmak için yeni bir mekanizmaya ihtiyaç olduğunu gösteriyor. Video, popülasyonun çeşitliliğini ölçmeyi ve bireyleri yalnızca uygunluklarına göre değil, aynı zamanda zaten seçilmiş olan diğer bireylerden benzersiz olmalarına göre seçmeyi öneriyor.

  • 00:30:00 Bu bölümde, konuşmacı, genetik algoritmaların küçük bir adım boyutu kullanarak ve onu 100 nesil boyunca çalıştırarak nasıl çalıştığını göstermek için uygunluk sıralaması ve çeşitlilik sıralamasının bir kombinasyonunu kullanır. Çeşitlilik parçası, sağ üst köşeye doğru sürünerek, yüksek uygunluğu bulurken her şeyin dağılmasını sağlar. Çeşitlilik kapatıldığında, 600 milyon yıl sürer. Bununla birlikte, x'lerin ve y'lerin en iyilerini birleştirmek için çaprazlama mekanizmasına sahip olduğu için hendek sorununu ele alırken iyi çalışır. Konuşmacı, mutasyonun temel olarak tepe tırmanışını nasıl yaptığını ve ne kadar çaprazlama yapılacağı da dahil olmak üzere bununla nasıl başa çıkılacağına dair seçenekler olduğunu açıklıyor. Ancak konuşmacı, genetik algoritmaların yalnızca, genotipten fenotipe geçişte kimsenin tam olarak anlamadığı, tasarımcılara çok fazla müdahale bırakan çok fazla sihir olduğuna dair çok saf bir evrim fikrini yakaladığını belirtiyor.

  • 00:35:00 Bu bölümde, konuşmacı genetik algoritmaların bazı pratik uygulamalarını tartışıyor. Bir örnek, yeni bir plan oluşturmak için iki adım kümesinin birleştirilebildiği planlamadır. Başka bir örnek, bir öğrencinin, kuralları geliştirmek için mutasyonlar ve geçişler kullanarak at yarışlarının galiplerini tahmin eden kural tabanlı bir uzman sistem oluşturma projesidir. Konuşmacı ayrıca, kromozomdaki farklı bitlerin nesnelerin sayısı, boyutu, yapısı ve kontrolü olarak yorumlandığı, blok benzeri nesnelerden oluşan yaratıkların evrimini de gösterir. Canlıların çeşitliliği, gelecek nesil için tüm adayların metrik mesafesi hesaplanarak ölçülür.

  • 00:40:00 Bu bölümde Patrick Winston, hayatta kalma olasılığı ile gelecek nesildeki bireylerden ne kadar farklı olduklarına göre sıralanma olasılığını birleştirerek genetik algoritmaların nasıl çalıştığını açıklıyor. Daha sonra bu algoritmaların bir örneğini, ne kadar hızlı gidebileceklerine ve karada nasıl hareket ettiklerine göre evrimleşmiş yüzen canlıları gösteren bir video ile gösteriyor. Video, birlikte gelişen ve yemek için rekabet eden canlıları gösteriyor. Bazı yaratıklar egzotik yöntemler geliştirmeyi başardı, ancak diğerleri kafası karıştı ve yiyecekleri unuttu. Video, videoyu oluşturan şirket tarafından kullanılanlar gibi süper güçlü bilgisayarlarla neler yapılabileceğinin bir örneğidir.

  • 00:45:00 Bu bölümde öğretim görevlisi, genetik algoritmaların kökenleri ve çeşitli problemlere çözüm üretmedeki başarıları üzerine derinlemesine düşünür. Algoritmalar etkileyici olsa da asıl itibarın çözüm uzayının zenginliğinde ve programcının yaratıcılığında yatabileceğini belirtiyor. Çeşitlilik, başarılı genetik algoritma hesaplamalarında anahtar bir bileşen olarak da vurgulanır.
13. Learning: Genetic Algorithms
13. Learning: Genetic Algorithms
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonThis lecture explores genetic alg...
 

Anlatım 14. Öğrenme: Seyrek Uzaylar, Fonoloji



14. Öğrenme: Seyrek Alanlar, Fonoloji

Videonun bu bölümünde Profesör Winston, insanların nasıl öğrendiğine ilişkin araştırmalarla ilgili mekanizmalar olarak Seyrek Uzaylar ve Fonoloji kavramlarını tanıtıyor. Görsel ipuçlarının dilde algıladıklarımızı nasıl etkileyebileceğini göstermek için örnekler kullanarak dil öğrenimi söz konusu olduğunda gördüklerimizle duyduklarımız arasındaki etkileşimi tartışıyor. Konuşmacı, konuşma seslerini tanımak ve üretmek için tasarlanmış bir makinenin kayıtlar, bir dizi sözcük, kısıtlamalar ve fonemler için bir arabellek dahil olmak üzere öğelerini ve bağlantılarını açıklar. Ayrıca, "kediler" ve "köpekler" sözcükleriyle ilişkili ayırt edici özelliklere bakmanın bir sınıf örneğini kullanarak, öğrenmek için olumlu ve olumsuz örnekler kullanarak sesbilgisindeki kalıpları genelleştirme tekniğini açıklıyor. Son olarak, bir sorunu daha iyi anlamak ve çözmek için mekanizmanın işlevine uyan kısıtlamalar yaratmanın ve görsel bir temsili dahil etmenin önemini tartışıyor.

  • 00:00:00 Videonun bu bölümünde, Profesör Winston öğrenmeyle ilgili iki mekanizma veya fikir sunuyor: Seyrek Alanlar ve Fonoloji. Bunları tartışmadan önce, en yakın komşular ve tanımlama ağaçları dahil olmak üzere bazı temel yöntemleri ve sinir ağları ve genetik algoritmalar gibi bazı biyolojik taklitleri kısaca gözden geçiriyor. İkincisinin her zaman etkili olmasa da, yine de öğrenmeye değer olduğunu açıklıyor. Profesör Winston daha sonra, insanların nasıl öğrendiğine ve özellikle de hayatın ilerleyen dönemlerinde öğrendiğimiz dillerde çoğul kelimeleri nasıl tanımlayıp oluşturabildiğimize dair araştırmalarla ilgili mekanizmalara odaklanıyor. Krishna gibi bireylerin, doğru yaptıklarının farkına bile varmadan İngilizce'de kelimeleri çoğullaştırabildiklerini göstermek için örnekler kullanıyor ve ardından bu tür olaylara mühendislik bakış açısıyla nasıl yaklaşılabileceğinden bahsediyor.

  • 00:05:00 Bu bölümde fonolojik kuralları ve bunların bir makine tarafından nasıl elde edildiğini öğreniyoruz. Fonoloji, heceli ve alt heceli seslerle ilgilenir ve fonolojik kurallar, bir kişinin hangi telefonu veya ikili özelliklerin kombinasyonunu söylediğini belirler. Bir dilde kabaca 16.000 olası kombinasyon üreten, hangi telefonun söylendiğini belirleyebilecek yaklaşık 14 ayırt edici özellik vardır. Bununla birlikte, hiçbir dilde 100'den fazla telefon yoktur ve bazı seçenekler fiziksel gerekçelerle hariç tutulur, bu garip çünkü çoğu değildir. Bu ayırt edici özelliklerden kaç tanesinin halüsinasyon gördüğünü veya diğer yöntemlerden geri bildirim döngüsüne dahil edildiğini görmek büyüleyici ve McGurk Etkisi, konuşma ve video arasında genellikle nasıl bir kopukluk olduğunu gösteriyor.

  • 00:10:00 Bu bölümde konuşmacı, dil öğrenimi söz konusu olduğunda gördüklerimiz ve duyduklarımız arasındaki etkileşimi açıklıyor. Alman ve İngiliz inek seslerinden örnekler kullanarak görsel ipuçlarının algılarımızı nasıl etkileyebileceğini tartışıyor. Daha sonra sesbilimcilerin "elma" gibi kelimelerin fonemik dizilerini oluşturan ayırt edici özellikler hakkında bildiklerine dair içgörü sağlar. Sütunların aşağısında, sesli, heceli veya tiz gibi özellikleri barındırıyor ve karşıdan karşıya geçmek için zamanımız var. Konuşmacı ayrıca sesi yorumlayan makineden ve insanların dil sesleri üretmek için gördükleri şeylerden bahseder; bu makine, isim, fiil ve çoğul gibi kavramların değerlerini tutan kayıtlarda saklanan iki elma olduğuna karar verir.

  • 00:15:00 Bu bölümde konuşmacı, konuşma seslerini tanımak ve üretmek için tasarlanmış bir makinenin öğelerini ve bağlantılarını açıklıyor. Makine kayıtlardan, bir dizi kelimeden, kısıtlamalardan ve fonemler için bir tampondan oluşur. Çoğul kısıtlama, çoğul şeyleri gözlemlerken kendini harekete geçirme yeteneğine sahip olan birincil odak noktasıdır. Bilgi, öğeleri birbirine bağlayan bağlantı noktalarından çok yönlü olarak akabilir. Konuşmacı daha sonra, görme sisteminden kelime sözlüğüne ve çoğul kütüğe bilgi akışını açıklayan "iki elma" kavramı sunulduğunda makinenin nasıl tepki verdiğini gösterir.

  • 00:20:00 Videonun bu bölümünde konuşmacı, bir makinenin görünüşte elmalar olduğu fikrini ifade etmek için fonolojik kuralları nasıl kullanabileceğini açıklıyor. Makine, bilgilerin herhangi bir yönde akmasına izin veren, kısıtlamalarla ifade edilen tersinir bağlantılar ve yayıcılar kullanır. Ancak asıl soru, bu kuralların nasıl öğrenileceğidir. Bunun için konuşmacı, "kediler" ve "köpekler" kelimelerinin hece, sesli, sürekli ve tiz gibi ayırt edici özelliklerine bakarak bu kuralların öğrenilmesi için olumlu ve olumsuz örnekler sağlayan basit bir sınıf örneği sunar.

  • 00:25:00 Bu bölümde video, İngilizce'de çoğul kelimelerin oluşumunu tartışıyor ve neden bazı kelimelerin "s", diğerlerinin "z" sesi aldığını inceliyor. Video, bunun, 14.000 olası seçenek arasında yalnızca 40 olası ses birimi ile fonem alanının seyrekliğinden kaynaklandığını açıklıyor. Ek olarak video, soruna hesaplamalı olarak nasıl yaklaşıldığını ve nihayetinde öğrenmek için olumlu ve olumsuz örneklerin toplanmasını içeren bir algoritmaya indirgendiğini açıklıyor.

  • 00:30:00 Bu bölümde konuşmacı, tohum adı verilen olumlu bir örnek kullanarak fonolojideki kalıpları genelleştirmenin bir yöntemini açıklıyor ve olumsuz bir örnek ele alınana kadar bazı öğeleri kademeli olarak önemsiz sembollere dönüştürüyor. Teknik, fonem matrisinde önemli olmayan ve çoğullaştırma sonucunu etkileme olasılığı en düşük olan yerleri seçmektir. Bu genellemelerden hangisinin yapılacağına karar vermek için bir arama tekniği kullanılır ve en etkili olan bitişik fonemlerdir. 14 ayırt edici özelliğe sahip bir matris kullanılarak fonolojik bir örnek verilmiştir, burada olumlu ve olumsuz örnekleri ayıran belirleyici özellik, kelimede çoğul hale getirilen son telefonun seslendirilmemesi ve tiz olmamasıdır, bu da "ss" ile sonuçlanır. ses.

  • 00:35:00 Bu bölümde, konuşmacı sistemle ilgili diğer deneyleri tartışıyor ve ışın arama kullanarak yüksek boyutlu, seyrek bir alanı kontrol ettiğini açıklıyor. Bu teknik, olumlu örnekleri olumsuz örneklerden ayırmak ve sisteme fonetikte farklı çoğullaştırma senaryolarıyla nasıl başa çıkılacağını öğretmek için kullanılır. Bu yaklaşım, bir, iki ve üç boyutlu uzaylar gibi çeşitli örneklerin kullanılmasıyla ve bu tür örneklerdeki bir hiperdüzlemin çeşitli veri kümelerini ayırmak için nasıl kullanılabileceğiyle açıklanır.

  • 00:40:00 Bu bölümde Sussman ve Yip, insan dilinin seyrek bir fonem alanı kullandığını öne sürüyor. Bunun nedeni, öğrenilebilirliği artırması ve dil eşit olarak rastgele yerleştirildiğinde fonemlerin kolayca ayrılmasını sağlamasıdır. Ancak sesli harfleri sabit seslere göre tek bir ayırt edici özelliği olduğu için ayırmak zordur. Bu örnek, problemden başlayarak, probleme benzersiz özellikler getirerek, bir yaklaşım geliştirerek, bir algoritma yazarak ve son olarak bir deney yürüterek Marr'ın ilmihaliyle uyumlu bir şekilde yapay zekanın nasıl yapılacağını gösterir.

  • 00:45:00 Videonun bu bölümünde konuşmacı, sinir ağları gibi bir mekanizmayı işlevine uymayan belirli bir sorunu çözmeye zorlamanın nasıl iyi çalışmayacağını açıklıyor. İyi bir temsil bulmanın anahtarı, daha iyi işleme ve çözüme giden daha net bir yol sağlayan temsil tarafından ortaya çıkarılan kısıtlamalar yaratmaktır. Ek olarak, bir yerellik kriteri içeren bir gösterime sahip olmak önemlidir; bu, sorunun anlaşılmasını kolaylaştıran, soda samanı benzeri bir yaklaşımla cevabın açıklamasının görülebileceği anlamına gelir. Nihayetinde, iyi bir temsile sahip olmak, kişiyi daha akıllı bir mühendis ve bilim adamı yaparak, mekanizmaları asla tatmin edici çözümlere yol açmayacak saf bir şekilde incelemekten kaçınmalarına olanak tanır.
14. Learning: Sparse Spaces, Phonology
14. Learning: Sparse Spaces, Phonology
  • 2014.01.10
  • www.youtube.com
MIT 6.034 Artificial Intelligence, Fall 2010View the complete course: http://ocw.mit.edu/6-034F10Instructor: Patrick WinstonWhy do "cats" and "dogs" end with...