Makine Öğrenimi ve Sinir Ağları - sayfa 9

 

Ders 10 - Chatbot'lar / Kapanış Konuşmaları



Stanford CS230: Derin Öğrenme | Sonbahar 2018 | Ders 10 - Chatbot'lar / Kapanış Konuşmaları

Video, derin öğrenme ile sohbet robotları oluşturmaya ilişkin çeşitli konuları kapsar. Öğretim görevlisi, sohbet botları oluşturma yöntemleri olarak doğal dil işleme, bilgi alma ve takviyeli öğrenmeyi tartışır. Bağlam, amaç sınıflandırması, alan etiketleme ve ortak eğitimin önemi vurgulanır. Ders ayrıca sohbet robotlarını eğitmek, performanslarını değerlendirmek ve onlar için içerik yönetim sistemleri oluşturmak için otomatik olarak veri üretmenin yollarını da kapsar. Öğretim görevlisi, öğrencileri becerilerini anlamlı projeler üzerinde çalışmak ve tüm insan ırkını yükseltmek için kullanmaya teşvik eder. Son olarak, öğrencilerine sıkı çalışmaları için teşekkür ediyor ve yapay zekayı kullanarak dünyada bir fark yaratmaya devam etmeleri için onları teşvik ediyor.

  • 00:00:00 Bu bölümde, konuşmacı, öğrencilere ders kaydı veya bilgi bulma konusunda yardımcı olmak için bir sohbet robotunun nasıl oluşturulacağına ilişkin bir vaka çalışması sunar. Konuşmacı, chatbot'ların önemli bir endüstriyel konu olduğunu ve inşa edilmesinin zor olduğunu ve akademik camianın bunların geliştirilmesine yardımcı olduğunu vurguluyor. Bu kısıtlı alan için oluşturulan chatbot, öğrencilerin yalnızca bir ders hakkında bilgi almak veya derse kaydolmak için soracağını varsayar. Konuşmacı, izleyicileri gruplar halinde eşleşmeye ve böyle bir chatbot'u uygulamak için kullanılabilecek yöntemler hakkında fikir edinmeye teşvik eder. Önerilen yaklaşımlardan bazıları, RNN'leri kullanmayı ve doğal dili işlemek için öğrenmeyi aktarmayı ve önceden tanımlanmış depolamadan bilgi almayı içeriyordu.

  • 00:05:00 Bu bölümde, video, yanıtlar hakkında karar vermeye yardımcı olmak için sohbet robotlarında pekiştirici öğrenmenin nasıl kullanılabileceğini tartışıyor. Konuşmacılar arasındaki konuşma, bağlamın önemini ve konuşmanın sonucunun her adımda nasıl olmadığını vurgular. Takviyeli öğrenme, chatbot için bir politika öğrenmeye yardımcı olabilir; bu, bir durum verildiğinde bize bundan sonra hangi eylemi yapacağımızı söyleyebilir. Konuşma asistanlarında yaygın olarak kullanılan sözcük dağarcığı, tek ve çok dönüşlü konuşmaların tartışılmasıyla birlikte, söyleyiş, niyet ve boşluklar da dahil olmak üzere tanıtılır. Video, amacı saptamak üzere modeli eğitmek için gereken ağ türü ve veri kümesi hakkında bir beyin fırtınası oturumuyla sona eriyor.

  • 00:10:00 Bu bölümde öğretim görevlisi, amaçlanan kullanıcı girişinin her zaman az sayıda sözcükle kodlandığı durumlarda tekrarlayan sinir ağlarından daha iyi çalışabilen, sohbet robotlarındaki kullanıcı girdilerinin ardındaki amacı tespit etmek için filtrelerin kullanımını tartışır. . Öğretim görevlisi, bir uçuş rezervasyonu sohbet robotu durumunda kalkış ve varış saatleri gibi, bir sohbet robotunun kullanıcıya yardımcı olmak için alması gereken belirli bilgi parçalarını tanımlayan yuvaları tespit etmek için evrişimli veya tekrarlayan sıra sınıflandırıcıların kullanılmasını önerir. Öğretim görevlisi, kullanıcı girişlerindeki boşlukları belirlemek için verileri belirli bir formatta etiketlemenin ve kodlamanın önemini vurgular.

  • 00:15:00 Bu bölümde öğretim görevlisi, chatbot'lar için ortak eğitim olasılığını tartışıyor. Hem niyet sınıflandırması hem de alan etiketlemesi yapabilen bir ağ kullanılmasını önerir ve bu ağ iki farklı kayıp işlevi tarafından denetlenir. Öğretim görevlisi ayrıca, iki ağın ortak eğitiminin, her iki ağın da aynı türde özellikleri öğrenmesine izin verdiği için genellikle yararlı olduğundan bahseder. Ek olarak, açıklamalı verileri manuel olarak toplamak için Mechanical Turk'ü kullanmak, verileri girmek için bir insan sohbet yardım hizmetine sahip olmak ve tarihler, kurslar, çeyrekler ve diğer etiketleri değiştirerek bazı verileri otomatik olarak oluşturmak gibi sohbet robotu verilerini elde etmenin farklı yollarını sunar.

  • 00:20:00 Bu bölümde konuşmacı, tarih, ders ve diğer etiketlerin veri kümelerini kullanmak ve bu verilerle kullanıcı ifadelerindeki boşlukları doldurmak gibi, eğitim sohbet botları için otomatik olarak veri üretmenin yollarını tartışıyor. Ayrıca, veri kümelerini otomatik olarak etiketlemek ve etiketlemek için konuşma etiketleyicilerinin bir bölümünü ve adlandırılmış varlık tanıma modellerini kullanmanızı önerirler. Ek olarak, konuşmacı, aşırı uydurmayı önlemek için hem otomatik olarak oluşturulmuş hem de elle etiketlenmiş verilere sahip olmanın önemini vurguluyor. Son olarak, konuşmacı, ilk konuşmada gerekli tüm bilgiler sağlanmasa bile, bir sınıfa öğrenci kaydetmek gibi görevleri tamamlamak için chatbot'un kullanıcı niyetini nasıl tanımlayabildiğini ve yuvaları nasıl doldurabildiğini gösterir.

  • 00:25:00 Bu bölümde video, bellek ağlarını kullanan sohbet robotları için bir bağlam yönetim sistemi oluşturma sürecini açıklıyor. Sistem, kelime yerleştirmeleri ve bir RNN aracılığıyla cümlenin bir kodlaması kullanılarak mevcut ifadeleriyle karşılaştırılan, kullanıcının tüm geçmiş sözlerini depolamaya kaydetmeyi içerir. Daha sonra bir iç çarpım softmax kullanılarak bir dikkat vektörü hesaplanır ve chatbot'a her bir hafızanın mevcut ifadeyle ne kadar ilgili olduğunu belirlemek için bir dizi ağırlık verilir. Nihai bir çıkış vektörü daha sonra, etiketleyicinin bir öğrenciyi bir sınıfa kaydettirmek gibi istenen işlev için eksik yuvaları belirleyebildiği bir yuva istifleme dizisinden geçirilir.

  • 00:30:00 Bu bölümde öğretim görevlisi, konuşma yardımcılarının sınırlamalarını ve bunların nasıl aşılacağını tartışıyor. Yaklaşımlardan biri, bir kullanıcının amacının tanımlanabileceği ve doldurulması gereken boşlukları belirlemek için grafik boyunca takip edilebileceği bir bilgi grafiği kullanmaktır. Öğretim görevlisi, bilgi grafiklerinin endüstride birden çok amacı ve bunlara karşılık gelen alanları işlemek için kullanıldığını açıklar. Son olarak ders, bir sohbet robotunun performansının nasıl değerlendirileceğini tartışır ve öğretim görevlisi, bir sohbet robotunun yanıtlarını değerlendirmek için Mechanical Turk'ün nasıl kullanılacağını açıklayan bir araştırma makalesinden alıntı yapar.

  • 00:35:00 Dersin bu bölümünde profesör, kullanıcı görüşleri ve Ortalama Görüş Puanı deneyleri yoluyla chatbot yanıtlarını puanlamanın ve chatbotları birbirlerine göre değerlendirmenin yollarını tartışıyor. Ders, konuşmadan metne ve metinden konuşmaya sistemleri dahil olmak üzere bir sesli asistan oluşturmak için gereken gereksinimleri tartışmaya devam eder ve ilgili öğrenciler için konuyla ilgili daha fazla okuma önerir. Son olarak profesör, proje sırasında alınan kararları kapsamlı bir şekilde açıklamak, hiperparametre ayarlamasını bildirmek ve TA'ların özel incelemesi için GitHub'a kod göndermek gibi bir sınıf projesine nelerin dahil edileceği konusunda tavsiyelerde bulunur.

  • 00:40:00 Bu bölümde konuşmacı, projeleri beklentilerini karşılamadığında cesaretlerinin kırılmaması için öğrencileri teşvik ediyor. Her görevde en son teknolojiyi geçmezlerse sorun olmadığını vurguluyorlar ve öğrencilere sonuçlarını rapor etmelerini, neden işe yaramadığını açıklamalarını ve referanslar vermelerini hatırlatıyorlar. Ek sayfalar için eklere izin verildiğini ve bunların üç dakikalık proje sunumlarına ve teknik yardımdan iki dakikalık sorulara göre derecelendirileceğini de belirtiyorlar. Son olarak, öğrencileri bilgisayar görüşü ve derin üretken modeller gibi üniversitedeki diğer dersleri keşfetmeye teşvik etmenin yanı sıra Stanford'daki öğrencilerin çalışmalarıyla dünyada bir fark yaratabileceklerini pekiştiriyorlar.

  • 00:45:00 Bu bölümde Andrew Ng, toplumdaki önemli ve anlamlı sorunları çözmek için makine öğreniminin nasıl uygulanabileceğini tartışıyor. Kahve çekirdeği kavurma işleminin optimizasyonu ve röntgen ışınlarını teşhis eden bir uygulamanın geliştirilmesi gibi örnekler veriyor; bu, kıt olduğu alanlarda radyoloji hizmetlerine erişimi büyük ölçüde geliştirebilir. Öğrencileri, sağlık hizmetlerinin iyileştirilmesinden iklim değişikliğiyle mücadeleye ve küresel eğitime kadar en önemli projeler üzerinde çalışmak için sınıfta edindikleri benzersiz becerileri kullanmaya teşvik ediyor. Ng, anlamlı projelerin sayısının derin öğrenme konusunda yetenekli insan sayısını geçtiğine ve tüm öğrencilerin dünyada bir fark yaratma şansı olduğuna inanıyor.

  • 00:50:00 Videonun bu bölümünde konuşmacı traktör sürmekle ilgili bir hikaye paylaşıyor ve dinleyicileri anlamlı işlerin peşinden koşarken eğlenmeye teşvik ediyor. Pek çok mezun teknoloji endüstrisindeki işlere gidebilirken, yazılım endüstrileri dışındaki yapay zeka için keşfedilmemiş fırsatları gözden kaçırmamaları gerektiğini öne sürüyor. Öğrencileri, becerilerini tüm insan ırkını yükseltmek, kâr amaçlı ve kâr amacı gütmeden çalışmak ve hükümeti etkilemek için kullanmaya teşvik ediyor. Son olarak, öğrencilere sınıftaki sıkı çalışmaları için teşekkür ediyor ve onların benzersiz AI becerilerini önemli olan ve diğer insanlara yardımcı olan işler yapmak için kullanmalarını umuyor.
Stanford CS230: Deep Learning | Autumn 2018 | Lecture 10 - Chatbots / Closing Remarks
Stanford CS230: Deep Learning | Autumn 2018 | Lecture 10 - Chatbots / Closing Remarks
  • 2019.04.03
  • www.youtube.com
Andrew Ng, Adjunct Professor & Kian Katanforoosh, Lecturer - Stanford Universityhttp://onlinehub.stanford.edu/Andrew NgAdjunct Professor, Computer ScienceKia...
 

Makine Öğrenimi Tam Kursunun 1/2. Bölümü - Makine Öğrenimini Öğrenin 10 Saat | Makine Öğrenimi Eğitimi | Edureka




Size kolaylık sağlamak için, genel bir zaman çizelgesi ve ardından her bölüm için ayrıntılı bir zaman çizelgesi sunuyoruz. Doğrudan doğru ana gidebilir, size uygun bir modda izleyebilir ve hiçbir şeyi kaçırmazsınız.

  1. 00:00:00 - 01:00:00 Makine öğrenimi hakkındaki bu video eğitimi, yapay zeka, Makine Öğrenimi ve Derin Öğrenme arasındaki farkları açıklayarak başlar ve makine öğreniminin veri kümelerinden kalıplar çıkararak nasıl çalıştığına odaklanır. Denetimli, denetimsiz ve pekiştirmeli öğrenme gibi çeşitli makine öğrenimi kategorileri, bankacılık, sağlık ve perakende gibi farklı sektörlerde kullanım durumlarıyla birlikte açıklanmaktadır. Derin öğrenme ayrıca, karmaşık işlev eşlemesini öğrenmek için yapay sinir ağlarına dayanan belirli bir makine öğrenimi türü olarak da tanıtıldı. Öğretici ayrıca Anaconda Navigator'ın Jupyter notebook ile nasıl kullanılacağını ve Iris veri setini kullanarak farklı makine öğrenme modellerinin nasıl oluşturulacağını gösterir.

  2. 01:00:00 - 02:00:00 Bu bölüm, keşif amaçlı veri analizi, doğrulama veri kümeleri oluşturma, modeller oluşturma, temel istatistikler, örnekleme teknikleri, merkezi eğilim ve değişkenlik ölçüleri, olay olasılığı, bilgi kazanımı ve entropi, karar ağaçları ve karışıklık matrisi. Öğretici, her konunun kapsamlı bir şekilde anlaşılmasını ve makine öğrenimindeki pratik uygulamalarını sağlar. Eğitim, başarılı bir model oluşturmada istatistiksel bilgi, veri analizi ve yorumlamanın önemini vurgular.

  3. 02:00:00 - 03:00:00 Bu video, olasılık ve olasılık dağılımının temellerinden başlayarak doğrusal ve lojistik regresyona ve son olarak hipotez testi ve denetimli öğrenme algoritmalarına kadar çeşitli konuları kapsar. Eğitmen, farklı olasılık türlerini açıklar ve olasılık problemlerini gösterirken aynı zamanda makine öğreniminde güven aralığı ve hipotez testi kavramlarını da kapsar. Video ayrıca doğrusal regresyon, lojistik regresyon ve rastgele ormanlar gibi denetimli öğrenme algoritmaları hakkında bilgiler sağlar. Son olarak, eğitmen en küçük kareler yöntemini kullanarak regresyon doğrusu denkleminin nasıl hesaplanacağını ve belirleneceğini açıklar ve veri uyumu ölçüsü olarak R-kare kavramını tanıtır.

  4. 03:00:00 - 04:00:00 Video boyunca konuşmacı, doğrusal bir ilişki bulmak için kafa boyutları ve beyin ağırlıklarından oluşan bir veri kümesi kullanmak veya Hangi faktörlerin bir yolcunun hayatta kalma oranını etkilediğini belirlemek için devasa bir felaket. Ek olarak, konuşmacı, girdi değerlerinin ölçeklendirilmesine dalmadan ve sınıflandırma kavramını tanıtmadan önce doğru sonuçlar elde etmek için veri düzenleme ve temizlemenin önemini vurgular.

  5. 04:00:00 - 05:00:00 Makine öğrenimi kursunun bu bölümü, karar ağaçları kavramını ve bunların sınıflandırma problemlerinde nasıl kullanılabileceğini kapsar. Eğitim videosu, bilgi kazanımına dayalı olarak kök düğümün seçilmesi ve doğruluğu artırmak için ağacın budanması da dahil olmak üzere bir karar ağacı oluşturma sürecini tartışır. Bu bölüm ayrıca bankacılık ve pazarlama gibi çeşitli alanlarda karar verme için bir karar ağaçları koleksiyonu olan Random Forest'ın kullanımını da kapsar. Konuşmacı, kodlama örnekleri ve algoritmanın adım adım açıklamasını sunarak yeni başlayanların anlamasını kolaylaştırır.

  6. 05:00:00 - 06:00:00 Video, Random Forest, K-En Yakın Komşu (KNN) ve Naive Bayes dahil olmak üzere çeşitli makine öğrenimi algoritmalarına genel bir bakış sunar. Video, bir kredi başvurusunda bulunan kişinin temerrüde düşüp düşmeyeceğini belirlemek için bankacılıkta Random Forest algoritmasının nasıl kullanıldığını, KNN algoritmasının bir müşterinin tişört bedenini tahmin etmek için nasıl kullanılabileceğini ve Naive Bayes'in nasıl olduğunu açıklıyor. algoritma, e-posta filtreleme ve spam tespiti için kullanılabilir. Video ayrıca Bayes teoremini ve bunun bir veri seti kullanılarak gerçek hayat senaryolarında nasıl uygulanabileceğini açıklıyor. Ayrıca eğitmen, Python ve scikit-learn kitaplığı kullanılarak bu algoritmaların nasıl uygulanacağına dair pratik örnekler ve gösteriler sunar.

  7. 06:00:00 - 07:00:00 "Makine Öğrenimi Tam Kursu" eğitiminin bu bölümü, Destek Vektör Makineleri, kümeleme yöntemleri (K-ortalamaları, bulanık c-ortalamaları ve hiyerarşik kümeleme dahil), pazar sepeti analizi, birliktelik kuralı madenciliği ve pekiştirmeli öğrenme. A-priori algoritması, sık öğe kümesi madenciliği ve ilişkilendirme kuralı oluşturma için ayrıntılı olarak açıklanır ve bir perakende mağazasından alınan çevrimiçi işlem verileri kullanılarak bir örnek sağlanır. Video ayrıca değer ve eylem değeri kavramlarını, Markov Karar Sürecini ve pekiştirmeli öğrenmede keşfetmeye karşı sömürüyü de ele alıyor. Bir otomobil fabrikasında otonom robotları içeren bir problem senaryosu, uygulamalı pekiştirmeli öğrenmenin bir örneği olarak kullanılmıştır.

  8. 07:00:00 - 07:50:00 Makine öğrenimiyle ilgili bu video eğitimi, Bellman denklemi, Q-öğrenme, başarılı bir makine öğrenimi mühendisi olmak için gerekli teknik beceriler, maaş eğilimleri ve iş tanımları ve sorumluluklar dahil olmak üzere çeşitli konuları kapsar bir makine öğrenimi mühendisinin Eğitim, programlama dilleri, doğrusal cebir ve istatistik gibi teknik becerilerin yanı sıra iş zekası, etkili iletişim ve endüstri bilgisi gibi teknik olmayan becerilerin önemini vurgular. Konuşmacı ayrıca keşfedilebilecek Tensorflow.js, DensePose ve BERT gibi çeşitli açık kaynaklı makine öğrenimi projelerini de tartışıyor. Genel olarak eğitim, makine öğrenimine ve çeşitli alanlardaki uygulamalarına kapsamlı bir genel bakış sunar.


Video kursunun bölümleri için ayrıntılı zaman çizelgesi


Bölüm 1

  • 00:00:00 Bu bölümde, makine öğreniminin, bilgisayarların açıkça programlanmadan hareket etmesine ve veriye dayalı kararlar almasına olanak tanıyan, verilere dayalı kararlar ve tahminler yapabilen sistemler tasarlamaya odaklanan yapay zekanın bir alt alanı olduğu açıklanmaktadır. belirli bir görev için. Bölüm ayrıca yapay zeka, makine öğrenimi ve derin öğrenme arasındaki karışıklığa açıklık getirerek, makine öğreniminin veri kümelerinden kalıpları çıkarmakla ilgilenen yapay zekanın bir alt kümesi olduğunu belirtir. Ek olarak, başlangıçtan ileri seviyeye doğru tasarlanmış ve denetimli ve denetimsiz öğrenme, pekiştirmeli öğrenim ve öğrencileri endüstriye hazır hale getirecek projeler gibi çeşitli konuları kapsayan kurs gündemi sağlanır.

  • 00:05:00 Bu bölümde makine öğrenimi, yapay zeka ve derin öğrenme arasındaki fark açıklanmaktadır. Makine öğrenimi, etiketli veya etiketsiz bir eğitim veri kümesine dayalı olarak değişikliklere uyum sağlayabilen algoritmaları içeren bir süreçken, derin öğrenme, daha iyi doğruluk elde etmek için sinir ağlarını kullanan makine öğreniminin bir alt kümesidir. Daha sonra üç tür makine öğrenimi tanıtılır: denetimli öğrenme, denetimsiz öğrenme ve takviyeli öğrenme. Denetimli öğrenme, bir eğitim veri setinin her bir örneğinin girdi özniteliklerine ve beklenen bir çıktıya sahip olduğu ve algoritmanın beklenen çıktıyı oluşturan girdi modelini öğrendiği bir yöntem olarak açıklanır. Popüler denetimli öğrenme algoritmaları arasında doğrusal regresyon, rastgele orman ve destek vektör makineleri bulunur. Bankacılık, sağlık, perakende ve konuşma otomasyonunda denetimli öğrenme kullanım örnekleri paylaşılır.

  • 00:10:00 Bu bölümde video, makine öğreniminin iki kategorisini açıklıyor: denetimli ve denetimsiz öğrenme. Denetimli öğrenme, Siri gibi sesli asistanlar veya makinenin verileri ve beklenen sonuçları beslediği hava durumu modellerini tahmin etme gibi örneklerle gösterilirken, denetimsiz öğrenme, beklenen çıktının olmadığı ve makinenin verilerdeki gizli yapıları keşfetmeye bırakıldığı zamandır. kalıpları öğrenerek. Kümeleme, k-means algoritması kullanılarak denetimsiz öğrenmeye bir örnek olarak verilmiştir; burada benzer veri örnekleri, kalıpları onlara etiket eklemeden tanımlamak için kümeler halinde gruplandırılır. Denetimli ve denetimsiz öğrenme arasındaki farklar açıklanır, burada ilki beklenen bir sonuca sahiptir, ikincisi gizli yapıları keşfetmeye bırakılır.

  • 00:15:00 Bu bölümde eğitmen gözetimsiz öğrenmenin bankacılık, sağlık ve perakende gibi farklı sektörlerdeki uygulamalarını tartışır. Bankacılık sektöründe, denetimsiz öğrenme, kümeleme ve anket kullanarak müşterileri bölümlere ayırmak için kullanılır. Sağlık hizmetlerinde, MRI verilerini kategorilere ayırmak ve farklı kalıpları tanıyan bir model oluşturmak için kullanılır. Son olarak, perakende sektöründe denetimsiz öğrenme, müşterilere geçmiş satın almalarına dayalı olarak ürün önermek için kullanılır. Eğitmen daha sonra, yazılım aracılarının, iki mekanizmadan yararlanarak performansı en üst düzeye çıkarmak için bir bağlam içinde ideal davranışı belirlemesine olanak tanıyan pekiştirmeli öğrenmeyi açıklamaya geçer: keşif ve kullanım. Eğitmen, bankacılık, sağlık ve perakende gibi farklı sektörlerde pekiştirmeli öğrenmenin uygulanmasını tartışmadan önce Pavlov'un köpeğini pekiştirmeli öğrenmeyi kullanarak eğitmesine bir örnek veriyor.

  • 00:20:00 Bu bölümde konuşmacı Yapay Zeka (AI) ile Makine Öğrenimi (ML) arasındaki farkı açıklıyor ve son yıllarda veri patlaması nedeniyle AI'nın önemini vurguluyor. AI'yı, makinenin insan davranışını kopyalamasını ve deneyimlerden öğrenmesini sağlayan bir teknik olarak tanımlıyorlar. Ayrıca, bilgisayarların yeni verilere maruz kaldıklarında veriye dayalı kararlar vermelerini ve zaman içinde gelişmelerini sağlayan yapay zekanın bir alt kümesi olarak makine öğrenimini tartışıyorlar. Ayrıca konuşmacı, makine öğreniminde tahmini değer ile gerçek değer arasındaki farkı azaltmanın önemini vurguluyor ve daha fazla değişken ve veri noktası eklemenin modeli iyileştirmeye nasıl yardımcı olabileceğini tartışıyor. Son olarak, derin öğrenme, büyük miktarda veriyle çalışan bir roket motoru olarak tanıtıldı.

  • 00:25:00 Bu bölümde, nöron adı verilen beyin hücrelerinin işlevselliğinden ilham alan özel bir makine öğrenimi türü olan derin öğrenmeyi öğreniyoruz. Yapay nöronlar arasındaki veri bağlantılarını alan ve bunları veri modeline göre ayarlayan yapay sinir ağlarını kullanır, böylece bir sistemin herhangi bir özel algoritmaya dayanmadan karmaşık fonksiyon haritalamayı öğrenmesine olanak tanır. Derin öğrenme, özelliklerin manuel olarak verilmesi gereken makine öğreniminin aksine, sınıflandırma için hangi özelliklerin en önemli olduğunu otomatik olarak bulur. Derin öğrenme, algoritmanın optimizasyonu için gereken büyük miktarda matris çarpma işlemini gerçekleştiren üst düzey makinelere ve GPU'lara büyük ölçüde bağımlıdır. Buna karşılık, makine öğrenimi algoritmaları düşük kaliteli makinelerde çalışabilir.

  • 00:30:00 Bu bölümde, geleneksel makine öğrenimi algoritmalarının problem çözme yaklaşımı, derin öğrenme algoritmalarınınkiyle karşılaştırılır. İlki, sorunu alt parçalara ayırmayı, bunları ayrı ayrı çözmeyi ve ardından istenen sonuca ulaşmak için bunları birleştirmeyi içerir. Buna karşılık, derin öğrenme algoritmaları sorunu uçtan uca çözer. Bununla birlikte, derin öğrenme algoritmalarının, içlerindeki birçok parametre nedeniyle eğitilmesi daha uzun zaman alır. Test sırasında, derin öğrenme algoritmalarının çalıştırılması, makine öğrenimi algoritmalarına kıyasla daha az zaman alır. Son olarak, karar ağaçları ve doğrusal veya lojistik regresyon, derin öğrenme algoritmalarına göre yorumlanması daha kolay olduğu için endüstride tercih edilir.

  • 00:35:00 Bu bölümde anlatıcı, komut satırı komutlarını kullanmaya gerek kalmadan uygulamaları başlatmak, conda paketlerini ve kanalları bir masaüstü grafik kullanıcı arabirimi aracılığıyla yönetmek için Anaconda Navigator'ın nasıl indirilip kullanılacağını açıklar. Anaconda Navigator'ı indirdikten sonra anlatıcı, öncelikle üç ana bölümden oluşan bir Json dosyası olan Jupyter Notebook'a odaklanır: meta veriler, Defter formatı ve bir hücre listesi. Kontrol panelinde üç sekme bulunur: diğer dosyalar, çalışan ve kümeler. Bu sekmeler, çalışan işlemleri ve not defterlerini tutar ve kullanılabilir kümelerin listesini sunar. Anlatıcı bu sekmeleri inceler ve bunların önemini ve her sekmede bulunan dosya düzenleme, onay kutuları, açılır menüler ve ana sayfa düğmeleri gibi seçenekleri açıklar.

  • 00:40:00 Konuşma metninin bu bölümünde, bir not defteri oluşturmayı, analiz, kodlama ve çıktı eklemeyi ve ardından analizi Markdown ile düzenlemeyi ve sunmayı içeren veri analizi için bir Jupyter not defterinin tipik iş akışını tartışıyor. Konuşmacı, Jupyter not defterlerindeki güvenliğin bir endişe kaynağı olabileceğini belirtiyor ve ham HTML temizleme ve harici JavaScript çalıştıramama gibi varsayılan güvenlik mekanizmalarını tartışıyor. Bir not defterine güvenlik eklemek için, konuşmacı bir güvenlik özet anahtarının nasıl oluşturulacağını ve iş arkadaşlarıyla nasıl paylaşılacağını açıklar. Ek olarak, konuşmacı Code Mirror kullanılarak görüntü parametrelerinin nasıl yapılandırılacağını açıklar ve ardından bir Jupyter not defterinde Python kodunun nasıl çalıştırılacağını gösterir.

  • 00:45:00 Videonun bu bölümünde, eğitmen Python'da Jupyter not defterinin nasıl oluşturulacağını ve kullanılacağını gösterir. Örnek, yeni bir not defteri oluşturmayı ve hücrelerde Python kodunu çalıştırmayı içerir. Eğitmen, Jupyter'in hücre numaralandırması ve renk kodlu sözdizimi özelliğinin yanı sıra otomatik kaydetme ve kontrol noktası işlevlerini vurgular. Ek olarak, Pandalar kitaplığı kullanılarak bir veri kümesinin nasıl okunacağını ve değiştirileceğini gösterirler. İris veri seti içe aktarılır ve gösteri amacıyla veri seti üzerinde temel istatistikler hesaplanır.

  • 00:50:00 Bu bölümde video, bir evin piyasa değeri, bir e-postanın spam olup olmadığı veya herhangi bir dolandırıcılık olup olmadığı gibi soruların yanıtlanmasına yardımcı olabilecek çeşitli makine öğrenimi algoritmalarını tanıtıyor. Birinci algoritma, verilen verilere dayalı olarak kategorileri tahmin eden sınıflandırma algoritmasıdır. Anormallik algılama algoritması, olağandışı veri noktalarını veya aykırı değerleri belirlemek için kullanılırken, kümeleme algoritmaları verileri benzer koşullara göre gruplandırır. Regresyon algoritmaları, bir evin piyasa değeri gibi veri noktalarını kendileri tahmin eder. Video, beşinci sütunun çiçeğin türünü belirttiği çiçek ölçümlerinden oluşan iyi bilinen bir veri seti olan Iris veri setinin yardımıyla altı farklı makine öğrenimi modelinin nasıl oluşturulacağını gösterir. Bu veri seti, sayısal olan öznitelikleri anlamak ve denetimli öğrenme algoritmalarını kullanmak için iyi kabul edilir.

  • 00:55:00 Eğitim videosunun bu bölümünde eğitmen Anaconda Navigator ve Jupyter notebook yardımıyla Python makine öğrenimi programı için ortam hazırlıyor. Ardından, programda kullanılan farklı kitaplıkların sürümleri kontrol edilir. Daha sonra Panda kütüphanesi kullanılarak iris çiçeği veri seti yüklenir ve sütunların isimleri tanımlanır. Son olarak, doğru yüklenip yüklenmediğini kontrol etmek için veri kümesindeki satır ve sütun sayısı yazdırılır ve veri kümesinin bir örneği görüntülenir.


Bölüm 2

  • 01:00:00 Bu bölümde eğitmen, belirli bir veri kümesinin özniteliklerinin nasıl keşfedileceğini ve anlaşılacağını gösterir. Kullanılan örnek, İris çiçeği veri kümesidir ve eğitmen önce veri kümesinin ilk 30 örneğini görüntüler ve ardından tanımlama işlevini kullanarak her bir özelliği özetler. Her sınıfa ait örnek sayısı da görüntülenir. Eğitmen daha sonra her girdi özelliğinin dağılımını göstermek için tek değişkenli grafikler, özellikle kutu ve bıyık grafikleri oluşturur. Share x ve share y değerleri açıklanır ve eğitmen bu değerleri paylaşmamayı tercih eder. Son olarak, dağılımlarını daha iyi anlamak için her girdi değişkeni için bir histogram oluşturulur.

  • 01:05:00 Makine öğrenimi kursunun bu bölümünde, modeller oluşturmaya ve görünmeyen verilere dayalı olarak bunların doğruluğunu tahmin etmeye odaklanılıyor. İlk adım, yüklenen verileri iki parçaya bölerek bir doğrulama veri seti oluşturmaktır; burada %80 modeli eğitmek için kullanılır ve geri kalan %20 doğrulama veri seti olarak geri tutulur. Daha sonra model, görünmeyen verilerdeki doğruluğu tahmin etmek için istatistiksel yöntemler kullanılarak değerlendirilir ve doğru tahmin edilen örneklerin veri kümesindeki toplam örneklere doğruluk oranını tahmin etmek için 10 kat çapraz doğrulama kullanılarak bir test donanımı oluşturulur. Değerlendirme için kullanılan metrik, tahminin ne kadar doğru olduğunun yüzdesini veren doğruluktur.

  • 01:10:00 Videonun bu bölümünde sunum yapan kişi, lojistik regresyon doğrusal diskriminant analizi, k-en yakın komşu, karar ağacı, saf Bayes ve destek vektör makineleri dahil olmak üzere altı farklı algoritma kullanarak beş farklı türde model oluşturmayı tartışıyor. diğerleriyle karşılaştırmak için en doğru modeli belirleyin. Sunum yapan kişi, her model için doğruluk tahmininin gerekli olduğunu açıklar ve her modeli test etmek ve en doğru olanı seçmek için komut dosyası çalıştırırlar. Son doğruluk kontrolü için test veri setini bağımsız tutmak, veri sızıntısını veya fazla uydurmayı önlemek de önemlidir. Sunucu, tüm öğrenme algoritmaları, veri bilimi ve derin öğrenme için temel olan istatistik ve olasılıktaki temel terminolojileri anlamanın önemini vurgular.

  • 01:15:00 Videonun bu bölümünde, eğitmen verilerin önemini tartışarak başlar ve referans veya analiz için toplanan gerçekler ve istatistikler olarak verilerin resmi bir tanımını sağlar. Veriler iki alt kategoriye ayrılır: nitel veriler ve nicel veriler. Niteliksel veriler, sübjektif olarak gözlemlenebilen özellikler ve tanımlayıcılarla ilgilenir ve ayrıca nominal ve sıralı verilere ayrılır. Öte yandan, nicel veriler sayılarla ve şeylerle ilgilenir ve ayrık ve sürekli verilere ayrılır. Kesintili veriler sınırlı sayıda olası değeri tutabilirken, sürekli veriler sonsuz sayıda olası değeri tutabilir. Ayrıca eğitmen, kategorik değişken olarak da bilinen kesikli değişken ile sürekli değişken arasındaki farkı açıklar.

  • 01:20:00 Bu bölümde, konuşmacı değişken kavramını tanıtıyor ve iki tür veri olan kesikli ve sürekli değişkenler arasındaki farkı açıklıyor. Ayrıca, bölüm bağımsız ve bağımlı değişkenleri kapsar. Konuşmacı daha sonra verilerin karmaşık sorunları çözmek için nasıl kullanılabileceğinin incelenmesi olan istatistiğin tanımına geçer. İstatistik, veri toplama, analiz, yorumlama ve sunumu içerir. Konuşmacı, yeni bir ilacın etkinliğini test etmek, beyzbol maçı bahislerini analiz etmek ve bir iş raporundaki değişken ilişkileri belirlemek gibi, istatistiklerin uygulanabileceği çeşitli örnekler sunar. Bu bölüm, popülasyon ve örneklem de dahil olmak üzere temel istatistik terminolojisinin bir açıklaması ile sona ermektedir. İkisi arasındaki fark, popülasyonun analiz edilecek bireyler, nesneler veya olaylar topluluğu olması, örneklemin ise popülasyonun bir alt kümesi olmasıdır. Uygun örnekleme, tüm popülasyonu temsil etmek ve ondan istatistiksel bilgi çıkarmak için önemlidir.

  • 01:25:00 Bu bölümde video, örnekleme kavramını ve neden istatistikte kullanıldığını tartışıyor. Örnekleme, popülasyondaki herkesi incelemeden tüm popülasyon hakkında çıkarımlar yapmak için bir popülasyon örneğini incelemek için kullanılan bir yöntemdir. İki ana örnekleme tekniği türü vardır: olasılıklı örnekleme ve olasılıksız örnekleme. Bu videonun odak noktası olasılık örneklemesidir ve üç tür içerir: rastgele örnekleme, sistematik örnekleme ve tabakalı örnekleme. Video ayrıca iki ana istatistik türünü de tanıtıyor: tanımlayıcı istatistikler ve çıkarımsal istatistikler.

  • 01:30:00 Bu bölümde eğitmen tanımlayıcı ve çıkarımsal istatistik arasındaki farkı açıklar. Tanımlayıcı istatistikler, belirli bir veri setinin özelliklerini tanımlamak ve özetlemek için kullanılırken, çıkarımsal istatistikler, bir örneğe dayalı olarak tahminler yapmak ve büyük veri setlerini genelleştirmek için kullanılır. Merkezi eğilim ölçüleri ve değişkenlik ölçüleri, tanımlayıcı istatistiklerde iki önemli önlemdir. Merkez ölçüleri ortalama, medyan ve modu içerirken, değişkenlik ölçüleri aralık, çeyrekler arası aralık, varyans ve standart sapmayı içerir. Arabaların ortalama veya ortalama beygir gücünü bulma örneği, merkezi eğilim ölçüleri kavramını göstermek için kullanılır.

  • 01:35:00 Eğitimin bu bölümünde, eğitmen ortalama, medyan ve modu içeren merkezi eğilim ölçülerini açıklar. Ortalama, bir değişkenin tüm değerleri toplanıp veri noktalarının sayısına bölünerek hesaplanır. Düzenlenen veri setinin ortadaki değeri olan medyan, çift sayıda veri noktası olduğunda ortadaki iki değerin ortalaması alınarak hesaplanır. Veri setinde en sık görülen değer olan mod, hangi değerin en çok tekrarlandığı kontrol edilerek hesaplanır. Eğitmen daha sonra aralık, çeyrekler arası aralık (IQR), varyans ve standart sapmayı içeren yayılma ölçülerini ele alır. Çeyrekler, IQR'yi elde etmek için veri setini dört parçaya böler.

  • 01:40:00 Videonun bu bölümünde eğitmen çeyrekler arası aralık, varyans, sapma, örneklem varyansı, popülasyon varyansı ve standart sapma kavramlarını açıklar. Bu değişkenlik ölçülerini hesaplamak için formüller sağlar ve standart sapmanın nasıl hesaplanacağına dair bir örnek verir. Karar ağaçları ve rastgele orman gibi makine öğrenimi algoritmaları oluşturmak için önemli olan Bilgi Kazanımı ve entropi kavramı tanıtılır. Eğitmen entropinin verilerdeki belirsizliğin bir ölçüsü olduğunu açıklar ve hesaplanması için bir formül sunar.

  • 01:45:00 Videonun bu bölümünde, sunucu olay olasılığı, Bilgi Kazanımı ve entropi kavramlarını açıklarken, bir maçın oynanıp oynanamayacağını hava koşullarına göre tahmin eden bir kullanım durumu kullanır. Sunum, en üstteki düğüm kök düğüm olacak şekilde karar ağaçlarını ve evet ya da hayır içeren diğer düğümlere giden dalları kullanır. Bulutlu değişken kesin ve kesin bir çıktı olarak gösterilirken, Sunny ve Rain bir oyunun oynanıp oynanmadığını belirleme olasılığına bağlı olarak bir safsızlık düzeyi gösteren karışık çıktılara sahiptir. Entropi ve Bilgi Kazanımı kavramları, sonucun safsızlığını veya belirsizliğini ölçmek için kullanılır.

  • 01:50:00 Videonun bu bölümünde eğitmen, entropi ve bilgi kazancı ölçülerini kullanarak bir karar ağacındaki verileri bölmek için en iyi değişkenin veya özelliğin nasıl seçileceğini açıklıyor. Entropi formülü, 0,9940 değeriyle sonuçlanan örnek bir hesaplama ile gösterilmiştir. Kök düğümler için olası tüm kombinasyonlar, yani Görünüm, Rüzgarlı, Nem ve Sıcaklık sunulur. Bilgi kazancı, her öznitelik için hesaplanır, en yüksek bilgi kazancıyla sonuçlanan değişken en önemli olarak kabul edilir ve en kesin sonucu sağlayan kök düğüm olarak seçilir. Windy için bilgi kazanımı düşüktür, Outlook ve Nem için değerler makul, ancak en yüksek bilgi kazanım değerine sahip olan Outlook'tan daha düşüktür.

  • 01:55:00 Bu bölümde sunum yapan kişi, gerçek ve tahmin edilen sonuçları karşılaştırarak bir sınıflandırma modelinin performansını değerlendirmek için kullanılan bir matris olan karışıklık matrisi kavramını açıklar. Karışıklık matrisi, bir modelin tahminlerindeki gerçek pozitiflerin, gerçek negatiflerin, yanlış pozitiflerin ve yanlış negatiflerin sayısını temsil eder. Sunucu, 105'i hastalığı olan ve 50'si olmayan 165 hastadan oluşan bir veri kümesini dikkate alarak bir örnek sunar. Sunum yapan kişi, karışıklık matrisini kullanarak modelin doğruluğunun nasıl hesaplanacağını açıklar ve matrisin sonuçlarının nasıl yorumlanacağını gösterir.


Bölüm 3

  • 02:00:00 Bu bölümde makine öğrenimi bağlamında karışıklık matrisi kavramı anlatılmıştır. Matris, tamamı model tarafından yapılan tahminlerin doğruluğu ile ilgili olan gerçek pozitifleri, gerçek negatifleri, yanlış pozitifleri ve yanlış negatifleri içerir. Bu bölüm ayrıca olasılık ve istatistik arasındaki ilişki de dahil olmak üzere olasılığın temellerini ve ayrıca rastgele deney, örnek uzay ve olay gibi olasılıkla ilişkili farklı terminolojileri de kapsıyordu. Ayrık ve ayrık olmayan olaylar da ikisi arasındaki farkları göstermek için verilen örneklerle tartışılmıştır.

  • 02:05:00 Bu bölümde eğitmen, olasılık yoğunluk fonksiyonu (PDF), normal dağılım ve merkezi limit teoremine odaklanarak olasılık ve olasılık dağılımını tartışır. PDF, belirli bir aralıkta sürekli bir rasgele değişkenin olasılığını bulmak için kullanılır ve grafik, bir yoğunluk fonksiyonunun eğrisiyle sınırlanan alan ve 1'e eşit x ekseni ile bir aralıkta süreklidir. Normal dağılım, Gauss dağılımı olarak da bilinir, ortalamanın simetrik özelliğini temsil eder, ortalamaya yakın veriler ortalamadan uzaktaki verilerden daha sık meydana gelir ve bir çan eğrisi olarak görünür. Son olarak, merkezi limit teoremi, herhangi bir bağımsız rasgele değişkenin ortalamasının örnekleme dağılımının, eğer örneklem boyutu yeterince büyükse normal veya normale yakın olacağını belirtir.

  • 02:10:00, bir olayın başka herhangi bir olay üzerinde koşulsuz olarak meydana gelme olasılığı olan marjinal olasılık hesaplanarak bulunur. Verilen kullanım durumunda, toplam 105 aday arasından Adder alânet eğitimine kaydolan 45 aday olduğundan, olasılık 45/105'tir. Çeşitli problemleri çözmek için marjinal, ortak ve koşullu olasılık dahil olmak üzere farklı olasılık türlerini anlamak önemlidir. Ortak olasılık, aynı anda meydana gelen iki olayı ölçerken, koşullu olasılık, önceki bir olayın veya sonucun meydana gelmesine bağlı olarak bir olayın veya sonucun olasılığıdır.

  • 02:15:00 Bu bölümde, eğitmen farklı olasılık problemlerini açıklar ve bunların nasıl hesaplanacağını gösterir. Ortak olasılık problemi, belirli bir eğitimden geçen ve iyi bir pakete sahip olan kişi sayısı dikkate alınarak ele alınır. Koşullu olasılık problemi, bir adayın eğitim almamış olması koşuluyla iyi bir pakete sahip olma olasılığını bulmayı içerir. Naive Bayes algoritmasında kullanılan Bayes teoremi, bir koşullu olasılık ile onun tersi arasındaki ilişkiyi göstermenin bir yolu olarak sunulmuştur. Toplamda iki mavi top çekildiğini biliyorsak, bir kaseden mavi bir top çekme olasılığının hesaplandığı teoremi daha iyi anlamak için bir örnek verilmiştir.

  • 02:20:00 Bu bölümde video, koşullu olasılığı kullanarak bir olasılık problemini çözmeyi ve olayların olma olasılığını bulmayı konu alıyor. Problem, bir grup torbadan iki mavi top çekmeyi ve tam olarak iki mavi top çekerken belirli bir torbadan bir mavi top çekme olasılığını bulmayı içerir. Çözüm, iki mavi topun seçildiğine göre, tam olarak iki mavi topun ve bir torbadan bir mavi topun seçilme olasılıklarının bulunmasını içerir. Video ayrıca, ortalama gibi bilinmeyen popülasyon parametrelerini tahmin etmek için örnek verilerin kullanılmasını içeren çıkarımsal istatistikler ve nokta tahmini sunar. Video, nokta tahmininde tahmin edici ve tahmin kavramlarını açıklamaktadır.

  • 02:25:00 Bu bölümde video, momentler yöntemi, maksimum olasılık, temel tahmin edici ve en iyi tarafsız tahmin ediciler dahil olmak üzere farklı tahmin bulma yöntemlerini kapsar. Bununla birlikte, tahmin bulmanın en iyi bilinen yöntemi, bir parametrenin değerinin ortaya çıkabileceği bir değer aralığı oluşturmayı içeren aralık tahminidir. Bu, iki önemli istatistiksel kavrama yol açar: güven aralığı ve hata payı. Güven aralığı, tahmin edilen aralığın popülasyon parametresini içerdiği güven düzeyini ölçerken, hata payı, tahminde izin verilen hata miktarıdır. Video, kedi sahipleri tarafından bir yıl içinde satın alınan kedi maması kutularının sayısını tahmin etmek için bir güven aralığı kullanan bir anket örneği sunuyor.

  • 02:30:00 Bu bölümde makine öğreniminde güven aralığı kavramı ve hipotez testi ele alınmaktadır. Güven aralığı, bir popülasyonun bilinmeyen bir parametresinin olası bir tahminini veren bir değer aralığıdır. Güven düzeyi, aralık tahmininin o popülasyon parametresini içerme olasılığı olarak ifade edilir. Hata payı, nokta tahmini ile tahmin ettiği parametrenin değeri arasındaki mümkün olan en büyük mesafedir. Hata payını hesaplamak için formül, örnek bir problem bildirimi ile birlikte tartışılmaktadır. Bu bölüm, bir hipotezin kabul edilip edilmediğini resmi olarak kontrol etmek için kullanılan istatistiksel bir teknik olan hipotez testine geçer.

  • 02:35:00 Bu bölümde istatistikte sıfır ve alternatif hipotez kavramını açıklamak için bir hipotez testi örneği kullanılmıştır. Örnek, bir sınıfa sığınırken yakalanan ve sınıfı kimin temizleyeceğine karar vermek için bir kaseden isimler seçen dört çocuğu içeriyordu. Olayın adil olduğu varsayılarak, John'un kopya çekmeme olasılığı hipotez testi kullanılarak hesaplandı. Eşik değer kavramı tanıtıldı ve olasılığın eşik değerin altında olması durumunda John'un gözaltından hileyle çıktığı açıklandı. Ardından bölüm, bir algoritmanın bir veri kümesi kullanarak girdiden çıktıya bir harita işlevini öğrendiği denetimli öğrenmeyi açıklamak için geçiş yapar. Denetimli öğrenmenin iş akışı açıklanır ve doğrusal regresyon, lojistik regresyon, rastgele ormanlar ve saf Bayes sınıflandırıcıları dahil olmak üzere denetimli öğrenme algoritmalarına örnekler verilir.

  • 02:40:00 Bu bölümde video, iki değişken arasındaki ilişkiyi göstermek için kullanılan makine öğrenimindeki en kolay algoritmalardan biri olan doğrusal regresyondan başlayarak, denetimli öğrenme kapsamına giren çeşitli makine öğrenimi algoritma türlerini açıklamaktadır. Doğrusal Denklem. Video ayrıca çeşitli regresyon analizi türlerini, kullanımlarını ve regresyon analizi yoluyla öngörücülerin gücünü belirlemeyi açıklamaya devam ediyor. Ayrıca video, iki popüler regresyon analizi biçimine ışık tutuyor: doğrusal regresyon ve lojistik regresyon ve bunların nasıl farklılaştığı; doğrusal regresyon iki değişken arasındaki korelasyonu göstermek için kullanılırken, lojistik regresyon Y ve X'i bir sigmoid işleviyle eşler.

  • 02:45:00 Bu bölümde lineer ve lojistik regresyon arasındaki fark anlatılmaktadır. Doğrusal regresyon modelleri sürekli değişkenler kullanır ve düz bir çizgiye eşlerken, lojistik regresyon modelleri kategorik değişkenler kullanır ve bir sigmoid işlevine eşler. Lineer regresyon, satış veya sıcaklık gibi sürekli değişkenlerin tahmini için kullanılırken lojistik regresyon, bir olayın meydana gelme olasılığına göre doğru veya yanlış kararlar vermek için kullanılır. Doğrusal regresyon, eklenen her yeni veri noktasıyla modelin değiştirilmesi gerektiğinden, sınıflandırma modelleri için uygun değildir. Bu bölümde ayrıca hesaplama karmaşıklığı ve anlaşılırlık kolaylığı gibi doğrusal regresyon kullanımına yönelik seçim kriterleri de tartışılmaktadır. Doğrusal regresyon, iş dünyasında eğilimleri değerlendirmek, fiyat değişikliklerinin etkisini analiz etmek ve finansal hizmetler ve sigorta alanlarındaki riskleri değerlendirmek için kullanılır.

  • 02:50:00 Bu bölümde video, lineer regresyon ve en uygun doğrunun nasıl bulunacağını açıklıyor. Video, değişkenler arasındaki pozitif ilişkiyi göstermek için x ekseninde hız ve y ekseninde mesafe ile ve göstermek için x ekseninde hız ve y ekseninde geçen süre ile bir grafik çizme örneğini kullanır. olumsuz bir ilişki Video ayrıca, en küçük kareler yöntemini kullanarak regresyon doğrusunun denklemini bulmadan önce X ve Y'nin ortalamasının nasıl hesaplanacağını ve grafik üzerinde nasıl çizileceğini açıklar. Amaç, tahmini değer ile gerçek değer arasındaki hatayı en aza indirmektir.

  • 02:55:00 Videonun bu bölümünde eğitmen, en uygun doğrunun eğiminin (m) ve y-keseninin (c) hesaplanmasını içeren en küçük kareler yöntemini kullanarak regresyon doğrusu denkleminin nasıl hesaplanacağını açıklar. Bu, bir dizi veri noktası için gerçek ve tahmin edilen değerler arasındaki mesafeyi en aza indirir. Eğitmen, verilen x değerleri için tahmin edilen y değerlerini bulmak için formüllerin nasıl kullanılacağını, bunları regresyon çizgisi denklemine yerleştirerek gösterir. R-kare kavramı, verilerin regresyon çizgisine ne kadar iyi uyduğunun istatistiksel bir ölçüsü olarak da tanıtılır ve yüksek bir R-kare değeri, iyi bir uyumu gösterir.


4. Bölüm

  • 03:00:00 Videonun bu bölümünde eğitmen, regresyon analizinde model değerlendirme metriği olan R-karenin nasıl hesaplanacağını anlatıyor. Kare, gerçek değerler ile tahmin edilen değerler arasındaki mesafeyi kontrol etmek ve karşılaştırmak için hesaplanır. Kare, tahmin edilen değerlerin toplamı eksi Y'nin ortalama değerinin, gerçek değerlerin toplamı eksi Y'nin ortalama değerinin daha sonra karesine bölünmesiyle elde edilen orandır. R-karenin bileşke değeri 0 ila 1 arasında değişebilir; burada 1 değeri, gerçek değerlerin regresyon çizgisinde yer aldığı anlamına gelirken, 0,02 değeri, verilerde çok fazla aykırı değer olduğu anlamına gelir. analiz et. Bununla birlikte, insan davranışını tahmin etmek daha zor olduğundan, psikoloji tabanlı alanların daha düşük R-kare değerlerine sahip olması beklenir, ancak önemli katsayılar tahmin edicideki bir birimlik değişime yanıttaki ortalama değişimi temsil ettiğinden değerli bilgiler yine de çizilebilir.

  • 03:05:00 Bu bölümde video, üzerinde Jupyter notebook yüklü Anaconda kullanılarak Python'da lineer regresyon uygulanmasını içermektedir. Öğretici, farklı insanların kafa boyutları ve beyin ağırlıklarından oluşan bir veri kümesi kullanır ve amaç, iki değişken arasında doğrusal bir ilişki bulmaktır. Veri kümesini içe aktardıktan sonra öğretici, sırasıyla kafa boyutu ve beyin ağırlığı değerlerinden oluşan X ve Y'yi toplar. Ardından, X ve Y değerlerinin ortalamasını ve basit doğrusal regresyon formülünü kullanarak B1, B0 veya M ve C değerlerini hesaplar. Öğretici ayrıca, modelin uyum iyiliğini değerlendirmek için doğrusal modelin çizilmesini ve R-kare değerinin hesaplanmasını da kapsar. Son olarak, video, bağımlı değişken ikili biçimde ve doğası gereği kategorik olduğunda kullanılan lojistik regresyonu tanıtır.

  • 03:10:00 Bu bölümde video, doğrusal regresyonda sürekli bir aralıkta olmanın aksine, tahmin edilecek değerin 0 veya 1 olduğu durumlarda kullanılan lojistik regresyon kavramını açıklamaktadır. İkili formatta 0 veya 1 ayrık değer elde etmek için bir denklem tarafından oluşturulan sigmoid eğrisi veya S eğrisi tanıtılır. Çizgiyi bölen ve çıktının 0 mı yoksa 1 mi olduğuna karar vermeye yardımcı olan eşik değeri kavramı açıklanır. Doğrusal ve lojistik regresyon arasındaki farklar vurgulanır, özellikle doğrusal regresyonun sürekli değişkenleri vardır, oysa lojistik regresyonun sadece kategorik değişkenleri vardır. iki değer.

  • 03:15:00 Bu bölümde öğretici, makine öğreniminde doğrusal regresyon ile lojistik regresyon arasındaki farkı tartışır. Doğrusal regresyon, y'nin değerinin x'in değerine göre hesaplanabildiği düz bir çizgi grafiği kullanarak regresyon problemlerini çözerken, lojistik regresyon, bir sigmoid eğrisi kullanarak sınıflandırma problemlerini çözer. Lojistik regresyon, çok sınıflı sınıflandırma yapabilir ve hava durumunu tahmin etmek ve bir hastanın hastalığını belirlemek için kullanılabilir. Eğitim, lojistik regresyonun nasıl uygulanabileceğine dair gerçek hayattan örnekler sunar ve bunun bir projede Titanik felaketinin veri setini analiz etmek için nasıl kullanılacağını açıklamaya devam eder.

  • 03:20:00 Bu bölümde, konuşmacı gemideki kardeş, eş, ebeveyn ve çocuk sayısı, bilet numarası, ücret, masa numarası ve binilen sütun gibi Titanic veri setinin çeşitli özelliklerini tanıtır. Konuşmacı, yolcuların hayatta kalma oranlarını etkileyen faktörleri anlamak için verileri analiz etmenin ve keşfetmenin önemini açıklıyor. Modeli inceleme, oluşturma ve test etme adımlarından oluşan üç adım açıklanır ve konuşmacı, Jupyter Notebook kullanarak verilerin nasıl toplanacağı ve gerekli kitaplıkların ve modüllerin nasıl içe aktarılacağına dair bir gösteri göstererek devam eder. Konuşmacı ayrıca pandalar, numpy, seaborn, matplotlib ve matematik kitaplıkları ve bunların Python ile veri analizinde kullanımları hakkında bilgi sağlar.

  • 03:25:00 Videonun bu bölümünde eğitmen, makine öğreniminde verileri analiz etme sürecini tartışıyor. İlk adım, bir değişkenin diğerini nasıl etkilediği gibi değişkenler arasındaki ilişkiyi kontrol etmek için farklı grafikler oluşturmaktır. Seaborn ve Pandas gibi kitaplıklar kullanılarak korelasyon grafikleri veya dağılım eğrileri gibi çeşitli grafik türleri çizilebilir. Eğitmen, erkek ve kadın yolcuların hayatta kalma oranlarını karşılaştırmak için sayım grafiklerinin nasıl çizileceğini, yolcu sınıfına dayalı bir grafiği ve yaş ve ücret sütunlarını analiz etmek için histogramları gösterir. Bu grafikler, veri seti hakkında, erkeklerden daha fazla kadının hayatta kalması ve daha yüksek sınıf yolcuların hayatta kalma şansının daha yüksek olması gibi sonuçlara varılmasına yardımcı olur.

  • 03:30:00 Videonun bu bölümünde eğitmen, sonuçların doğruluğunu doğrudan etkileyebileceğinden verilerin temizlenmesini ve gereksiz sütunların veya boş değerlerin kaldırılmasını içeren veri düzenlemeyi tartışıyor. Eğitmen, eksik değerlerin nasıl kontrol edileceğini ve bunları yapay değerlerle değiştirerek veya sütunu tamamen bırakarak nasıl kaldırılacağını gösterir. Ayrıca bir ısı haritası kullanarak eksik verileri analiz ederler ve kutu çizimleri kullanarak verilerin nasıl görselleştirileceğine dair örnekler sunarlar. Eğitmen, veri düzenlemenin makine öğrenimi sürecinde önemli bir adım olduğunu açıklıyor ve doğru sonuçlar elde etmek için verileri temizlemenin önemini vurguluyor.

  • 03:35:00 Bu bölümde video, çok sayıda boş değer içeren bir sütunu kaldırarak ve dizi değerlerini pandalar kullanarak kategorik değişkenlere dönüştürerek veri düzenlemeyi veya temizlemeyi kapsar. Amaç, girdi olarak sayısal değişkenler gerektiren lojistik regresyon için veri setini hazırlamaktır. Video, "Kabin" sütununun düşürülmesini ve sırasıyla bırakma ve toplama işlevlerini kullanarak boş değerlerin kaldırılmasını gösterir. Dize değerleri daha sonra pandaların sex ve Embark gibi değişkenler için get_dummies işlevi kullanılarak ikili değişkenlere dönüştürülür. Ortaya çıkan veri seti, lojistik regresyonda kullanılabilecek sayısal değişkenlere sahiptir.

  • 03:40:00 Bu bölümde video, verilerin temizlenmesini ve analiz için uygun bir forma dönüştürülmesini içeren veri düzenlemeyi tanıtıyor. Kullanılan örnek, cinsiyet, biniş ve yolcu sınıfı gibi sütunların ikili değerlerle kategorik değişkenlere dönüştürüldüğü Titanic veri kümesidir. Bağımlı değişken olarak hayatta kalan sütunu ve bağımsız değişkenler veya özellikler olarak diğer sütunları içeren nihai veri kümesini oluşturmak için alakasız sütunlar daha sonra bırakılır. Veriler daha sonra SKLearn kullanılarak eğitim ve test alt kümelerine bölünür.

  • 03:45:00 Bu bölümde eğitmen, dökümantasyondan örnekler yardımıyla veri kümenizi bölme işlevini kullanarak nasıl böleceğinizi gösterir. Eğitmen daha sonra sklearn modülünü kullanarak bir lojistik regresyon modeli oluşturur ve bunu eğitim verilerine uydurur. Daha sonra eğitilen model ile tahminler yapılır ve sınıflandırma raporu ve karışıklık matrisi fonksiyonları kullanılarak doğruluk değerlendirilir. Karışıklık matrisi kavramı kısaca açıklanır ve doğruluk puanı, sklearn modülünden doğruluk puanı işlevi içe aktarılarak hesaplanır. Elde edilen nihai doğruluk puanı %78'dir ve bu iyi bir sonuç olarak kabul edilir.

  • 03:50:00 Video bu bölümde iki projeyi ele alıyor: telefon numaralarını kullanarak doğruluğu hesaplamak ve satın almaya yol açan faktörleri belirlemek için SUV verilerini analiz etmek. İlk projede doğruluğu hesaplamak için sunucu, telefon numaralarının toplamının manuel olarak nasıl hesaplanacağını ve %78'lik bir doğruluk elde etmek için tüm telefon numaralarının toplamına nasıl bölüneceğini gösteriyor. SUV verileri için, bir kişinin bir SUV satın alma kararını hangi faktörlerin etkilediğini belirlemek için lojistik regresyon kullanılır. Video, kitaplıkların nasıl içe aktarılacağını, bağımsız ve bağımlı değişkenlerin nasıl tanımlanacağını ve veri kümesinin eğitim ve test alt kümelerine nasıl bölüneceğini gösterir. Ek olarak video, performansı artırmak için giriş değerleri için standart ölçeklendirmenin kullanılmasından bahseder.

  • 03:55:00 Bu bölümde sunum yapan kişi, makine öğrenimi algoritmalarının performansını artırmak için girdi değerlerinin ölçeğini düşürmenin önemini tartışıyor. Standart Ölçekleyici kullanarak girdi değerlerinin nasıl küçültüleceğini ve yeni veriler üzerinde tahminler yapmak için lojistik regresyonun nasıl uygulanacağını gösterirler. Modelin doğruluğu daha sonra Scikit-learn'den doğruluk puanı fonksiyonu kullanılarak hesaplanır. Sunum yapan kişi ayrıca sınıflandırma kavramını ve bunun verileri belirli koşullara göre farklı kategorilere veya gruplara ayırmadaki önemini de tanıtır. Bu işlemin, spam e-postaları belirlemek veya hileli işlemleri tespit etmek gibi veriler üzerinde tahmine dayalı analiz yapmak için kullanıldığını açıklıyorlar.
Machine Learning Full Course - Learn Machine Learning 10 Hours | Machine Learning Tutorial | Edureka
Machine Learning Full Course - Learn Machine Learning 10 Hours | Machine Learning Tutorial | Edureka
  • 2019.09.22
  • www.youtube.com
🔥 Machine Learning Engineer Masters Program (Use Code "𝐘𝐎𝐔𝐓𝐔𝐁𝐄𝟐𝟎"): https://www.edureka.co/masters-program/machine-learning-engineer-trainingThis E...
 

Makine Öğrenimi Tam Kursunun 2/2. Bölümü - Makine Öğrenimini Öğrenin 10 Saat | Makine Öğrenimi Eğitimi | Edureka



Size kolaylık sağlamak için, genel bir zaman çizelgesi ve ardından her bölüm için ayrıntılı bir zaman çizelgesi sunuyoruz. Doğrudan doğru ana gidebilir, size uygun bir modda izleyebilir ve hiçbir şeyi kaçırmazsınız.

  1. 00:00:00 - 01:00:00 Makine öğrenimi hakkındaki bu video eğitimi, yapay zeka, Makine Öğrenimi ve Derin Öğrenme arasındaki farkları açıklayarak başlar ve makine öğreniminin veri kümelerinden kalıplar çıkararak nasıl çalıştığına odaklanır. Denetimli, denetimsiz ve pekiştirmeli öğrenme gibi çeşitli makine öğrenimi kategorileri, bankacılık, sağlık ve perakende gibi farklı sektörlerde kullanım durumlarıyla birlikte açıklanmaktadır. Derin öğrenme ayrıca, karmaşık işlev eşlemesini öğrenmek için yapay sinir ağlarına dayanan belirli bir makine öğrenimi türü olarak da tanıtıldı. Öğretici ayrıca Anaconda Navigator'ın Jupyter notebook ile nasıl kullanılacağını ve Iris veri setini kullanarak farklı makine öğrenme modellerinin nasıl oluşturulacağını gösterir.

  2. 01:00:00 - 02:00:00 Bu bölüm, keşif amaçlı veri analizi, doğrulama veri kümeleri oluşturma, modeller oluşturma, temel istatistikler, örnekleme teknikleri, merkezi eğilim ve değişkenlik ölçüleri, olay olasılığı, bilgi kazanımı ve entropi, karar ağaçları ve karışıklık matrisi. Öğretici, her konunun kapsamlı bir şekilde anlaşılmasını ve makine öğrenimindeki pratik uygulamalarını sağlar. Eğitim, başarılı bir model oluşturmada istatistiksel bilgi, veri analizi ve yorumlamanın önemini vurgular.

  3. 02:00:00 - 03:00:00 Bu video, olasılık ve olasılık dağılımının temellerinden başlayarak doğrusal ve lojistik regresyona ve son olarak hipotez testi ve denetimli öğrenme algoritmalarına kadar çeşitli konuları kapsar. Eğitmen, farklı olasılık türlerini açıklar ve olasılık problemlerini gösterirken aynı zamanda makine öğreniminde güven aralığı ve hipotez testi kavramlarını da kapsar. Video ayrıca doğrusal regresyon, lojistik regresyon ve rastgele ormanlar gibi denetimli öğrenme algoritmaları hakkında bilgiler sağlar. Son olarak, eğitmen en küçük kareler yöntemini kullanarak regresyon doğrusu denkleminin nasıl hesaplanacağını ve belirleneceğini açıklar ve veri uyumu ölçüsü olarak R-kare kavramını tanıtır.

  4. 03:00:00 - 04:00:00 Video boyunca konuşmacı, doğrusal bir ilişki bulmak için kafa boyutları ve beyin ağırlıklarından oluşan bir veri kümesi kullanmak veya Hangi faktörlerin bir yolcunun hayatta kalma oranını etkilediğini belirlemek için devasa bir felaket. Ek olarak, konuşmacı, girdi değerlerinin ölçeklendirilmesine dalmadan ve sınıflandırma kavramını tanıtmadan önce doğru sonuçlar elde etmek için veri düzenleme ve temizlemenin önemini vurgular.

  5. 04:00:00 - 05:00:00 Makine öğrenimi kursunun bu bölümü, karar ağaçları kavramını ve bunların sınıflandırma problemlerinde nasıl kullanılabileceğini kapsar. Eğitim videosu, bilgi kazanımına dayalı olarak kök düğümün seçilmesi ve doğruluğu artırmak için ağacın budanması da dahil olmak üzere bir karar ağacı oluşturma sürecini tartışır. Bu bölüm ayrıca bankacılık ve pazarlama gibi çeşitli alanlarda karar verme için bir karar ağaçları koleksiyonu olan Random Forest'ın kullanımını da kapsar. Konuşmacı, kodlama örnekleri ve algoritmanın adım adım açıklamasını sunarak yeni başlayanların anlamasını kolaylaştırır.

  6. 05:00:00 - 06:00:00 Video, Random Forest, K-En Yakın Komşu (KNN) ve Naive Bayes dahil olmak üzere çeşitli makine öğrenimi algoritmalarına genel bir bakış sunar. Video, bir kredi başvurusunda bulunan kişinin temerrüde düşüp düşmeyeceğini belirlemek için bankacılıkta Random Forest algoritmasının nasıl kullanıldığını, KNN algoritmasının bir müşterinin tişört bedenini tahmin etmek için nasıl kullanılabileceğini ve Naive Bayes'in nasıl olduğunu açıklıyor. algoritma, e-posta filtreleme ve spam tespiti için kullanılabilir. Video ayrıca Bayes teoremini ve bunun bir veri seti kullanılarak gerçek hayat senaryolarında nasıl uygulanabileceğini açıklıyor. Ayrıca eğitmen, Python ve scikit-learn kitaplığı kullanılarak bu algoritmaların nasıl uygulanacağına dair pratik örnekler ve gösteriler sunar.

  7. 06:00:00 - 07:00:00 "Makine Öğrenimi Tam Kursu" eğitiminin bu bölümü, Destek Vektör Makineleri, kümeleme yöntemleri (K-ortalamaları, bulanık c-ortalamaları ve hiyerarşik kümeleme dahil), pazar sepeti analizi, birliktelik kuralı madenciliği ve pekiştirmeli öğrenme. A-priori algoritması, sık öğe kümesi madenciliği ve ilişkilendirme kuralı oluşturma için ayrıntılı olarak açıklanır ve bir perakende mağazasından alınan çevrimiçi işlem verileri kullanılarak bir örnek sağlanır. Video ayrıca değer ve eylem değeri kavramlarını, Markov Karar Sürecini ve pekiştirmeli öğrenmede keşfetmeye karşı sömürüyü de ele alıyor. Bir otomobil fabrikasında otonom robotları içeren bir problem senaryosu, uygulamalı pekiştirmeli öğrenmenin bir örneği olarak kullanılmıştır.

  8. 07:00:00 - 07:50:00 Makine öğrenimiyle ilgili bu video eğitimi, Bellman denklemi, Q-öğrenme, başarılı bir makine öğrenimi mühendisi olmak için gerekli teknik beceriler, maaş eğilimleri ve iş tanımları ve sorumluluklar dahil olmak üzere çeşitli konuları kapsar bir makine öğrenimi mühendisinin Eğitim, programlama dilleri, doğrusal cebir ve istatistik gibi teknik becerilerin yanı sıra iş zekası, etkili iletişim ve endüstri bilgisi gibi teknik olmayan becerilerin önemini vurgular. Konuşmacı ayrıca keşfedilebilecek Tensorflow.js, DensePose ve BERT gibi çeşitli açık kaynaklı makine öğrenimi projelerini de tartışıyor. Genel olarak eğitim, makine öğrenimine ve çeşitli alanlardaki uygulamalarına kapsamlı bir genel bakış sunar.

Video kursunun bölümleri için ayrıntılı zaman çizelgesi


Bölüm 5

  • 04:00:00 Makine öğrenimiyle ilgili video kursunun bu bölümünde, eğitmen tahmine dayalı analiz örnekleri ve bunun meyveler, arabalar, evler ve daha fazlası gibi farklı öğeleri sınıflandırmak için nasıl uygulandığını sunar. Ders, karar ağacı, rastgele orman, k-en yakın komşu ve Naive Bayes gibi çeşitli sınıflandırma tekniklerini kapsar. Karar ağacı, bir karara yönelik olası çözümlerin grafiksel bir temsilini kullanırken, rastgele orman birden fazla karar ağacı oluşturur ve bunları daha fazla doğruluk için birleştirir. K-En Yakın Komşu, Bayes teoremine dayalı bir sınıflandırma tekniğidir ve Naive Bayes, belge sınıflandırması için kullanılan uygulaması kolay bir algoritmadır.

  • 04:05:00 Bu bölümde video, K-en yakın komşu (KNN) ve karar ağaçları gibi çeşitli makine öğrenimi algoritmalarını tartışıyor. KNN, bir nesneyi en yakın komşularının benzerlik ölçüsüne göre bir kategoriye atayan bir sınıflandırma algoritmasıdır. Görsel örüntü tanıma ve perakende işlem analizi dahil olmak üzere çeşitli uygulamalar için kullanılabilir. Öte yandan, karar ağaçları, belirli koşullara dayalı bir kararın tüm olası çözümlerinin grafiksel temsilleridir. Kullanıcıların bir sınıflandırıcının neden belirli bir karar verdiğini anlamasını sağlayan yorumlanabilir modellerdir. Video, kredi kartı şirketlerini ararken bir karar ağacı kullanmanın gerçek hayat senaryosuyla sona eriyor.

  • 04:10:00 Videonun bu bölümünde eğitmen, makine öğrenimindeki karar ağaçlarını tartışıyor. Bir iş teklifini kabul edip etmemeye karar vermek ve maaş, işe gidip gelme süresi ve şirketin ücretsiz kahve sunup sunmayacağı gibi çeşitli koşullara dayalı bir karar ağacı oluşturmak için bir örnek kullanıyor. Ardından, bir karar ağacı oluşturma sürecini ve kullanılan CART - Sınıflandırma ve Regresyon Ağacı Algoritması adlı algoritmayı açıklamaya devam ediyor. Ayrıca kök düğüm, yaprak düğüm ve bölme dahil olmak üzere karar ağacı terminolojisini de kapsar. Son olarak, ağaçla ilgili soruların veri seti tarafından nasıl belirlendiğini ve Gini safsızlık metriğini kullanarak belirsizliğin nasıl ölçüleceğini açıklıyor.

  • 04:15:00 Bu bölümde, video karar ağaçlarını tanıtıyor ve dalları veya alt ağaçları ayırma ve budama kavramının yanı sıra bir karar ağacındaki ebeveyn ve alt düğümleri açıklıyor. Video ayrıca bir karar ağacı tasarlama ve en yüksek bilgi kazancını hesaplamaya dayalı en iyi özelliği belirleme sürecini de anlatıyor. Video, analiz edilen verilerdeki safsızlık veya rastgeleliğin bir ölçüsü olarak entropi kavramını açıklıyor.

  • 04:20:00 Videonun bu bölümünde entropi kavramı ve karar ağaçlarında bilgi kazancı anlatılmaktadır. Entropinin matematiksel formülü tanıtılır ve entropinin değerinin evet ve hayır olasılıkları eşit olduğunda maksimum, evet veya hayır olasılıklarından biri olduğunda sıfır olduğu gösterilir. Ayrıca bilgi kazancının entropideki azalmayı ölçtüğü ve karar ağacında karar düğümü olarak seçilecek özelliğin seçilmesine yardımcı olduğu açıklanmıştır. Karar ağacı için kök düğümü seçmek üzere bir veri kümesindeki çeşitli öznitelikler için entropi ve bilgi kazancının hesaplanması için adım adım bir örnek verilmiştir.

  • 04:25:00 Makine öğrenimi kursunun bu bölümünde, karar ağaçlarında bilgi kazancını hesaplama sürecini öğreniyoruz. Kullanılan formül, toplam örnek uzayın entropisi eksi her bir özelliğin ağırlıklı ortalama X entropisidir. Bilgi kazancı önce Outlook parametresi için, ardından Wendy parametresi için hesaplanır. Her bir özelliğin entropisi, belirli bir parametre için evet ve hayır olasılıkları hesaplanarak belirlenir. Wendy'den alınan bilgi, Wendy doğru ve yanlışı eşitlediğinde alınan bilgilerin toplamıdır. Son adım, toplam entropi eksi Wendy'den alınan bilgi olan Wendy'den alınan bilgiyi hesaplamaktır.

  • 04:30:00 Bu bölümde video, bilgi kazanımı ve karar ağacı budama kavramını kapsar. Karar ağacı için kök düğüm olarak hangi özniteliğin seçileceğini belirlemek için bilgi kazancı hesaplanır. Video, CART algoritması ve Python kullanılarak bir karar ağacının nasıl oluşturulacağını gösteriyor ve ayrıca karar ağaçlarının diğer makine öğrenimi algoritmalarına göre ne zaman tercih edilebileceğini açıklıyor. Bölüm, Jupyter Notebook'a giriş ve karar ağacı sınıflandırıcısı için örnek bir veri seti ile sona ermektedir.

  • 04:35:00 Bu bölümde, video eğitimi, makine öğreniminde bir karar ağacı oluşturmak için kullanılan farklı işlevlerden ve sınıflardan geçer. Eğitim veri seti, örnekler ve etiketlerle tanımlanır ve yazdırma amacıyla başlık sütunları eklenir. Öğretici daha sonra veri kümesinde benzersiz değerlerin nasıl bulunacağını ve farklı etiket türlerinin nasıl sayılacağını ve ayrıca bir değerin sayısal olup olmadığının nasıl test edileceğini gösterir. Öğretici daha sonra, veri kümesini bir sütuna ve değerine göre bölmek için kullanılan bir soru sınıfı tanımlar ve Gini safsızlığını ve bilgi kazancını hesaplamak için bir işlev de sunulur. Son olarak, önceden tanımlanmış bu fonksiyonlar ve sınıflar kullanılarak karar ağacını oluşturacak bir fonksiyon tanımlanır.

  • 04:40:00 Bu bölümde video, karar ağacı algoritması ve sınıflandırma problemlerinde nasıl kullanılabileceği adım adım anlatılmaktadır. Öğretici, kodlama örnekleri içerir ve Bilgi Kazanımı, Yaprak Düğümleri, Soru Düğümleri ve Özyinelemeli Dal Oluşturma kavramlarını tartışır. Videonun son bölümü, kredi kartı şirketleri için basit bir kredi riski tespiti kullanım örneğiyle, verilerden öğrenme modellerine ve karar vermeye rehberlik etmeye yönelik bir çözüm olarak Random Forest'ı tanıtıyor. 2012'de ABD'de yetkisiz işlemlerden kaynaklanan tahmini kaybın 6,1 milyar dolar olduğu göz önüne alındığında, amaç çok fazla mali zarara uğramadan hileli işlemleri tespit etmektir.

  • 04:45:00 Bu bölümde, konuşmacı bir kredi başvurusunun onaylanıp onaylanmayacağını tahmin etmede öngörücü değişkenlerin kullanımını ve rastgele ormanın kayıpları en aza indirmede nasıl yardımcı olabileceğini tartışıyor. Konuşmacı, başvuranın krediyi geri ödeme olasılığını tahmin etmek için iki karar ağacını uygulamak üzere iki öngörücü değişkenin (gelir ve yaş) kullanıldığı bir senaryo gösterir. Başvuranın geliri 35.000 doların üzerindeyse veya iyi bir kredi geçmişi varsa, kredi başvurusunun onaylanması muhtemeldir. Başvuru sahibi genç ve öğrenciyse, banka bakiyesi 5 lakh'tan azsa veya yüksek bir borcu varsa, kredi başvurusu büyük olasılıkla reddedilecektir.

  • 04:50:00 Bu bölümde video, farklı karar ağaçlarının sonuçlarını derleyerek rastgele ormanların karar vermede nasıl çalıştığını tartışıyor. Rastgele ormanlar, veri setinin bir kısmı ve rastgele seçilen belirli sayıda özellik kullanılarak oluşturulan bir karar ağaçları koleksiyonudur. Algoritma çok yönlüdür ve hem regresyon hem de sınıflandırma görevlerini gerçekleştirebilir. Video, rastgele ormanların nasıl çalıştığına dair bir örnek sunuyor ve bunu bir film izlerken bir arkadaşınızın fikrini sormaya benzetiyor. Arkadaş, rastgele bir ormanın nihai bir karar vermek için farklı karar ağaçlarının sonuçlarını nasıl derlediğine benzer şekilde, bir karara yol açacak sorular sorardı.

  • 04:55:00 Bu bölümde konuşmacı, karar ağaçlarının nasıl çalıştığına ve bunların Random Forest kullanılarak nasıl derlenebileceğine dair bir örnek veriyor. Bir kişinin bir filmi izlemek isteyip istemediğini belirlemek için karar ağaçlarının nasıl kullanılabileceğini açıklıyor. Ayrıca, nihai bir karar vermek için birden çok karar ağacının sonuçlarının nasıl birleştirilebileceğinden de bahsediyor. Konuşmacı, Random Forest'ın bankacılık, tıp, arazi kullanımı ve pazarlama dahil olmak üzere çeşitli alanlarda yaygın olarak kullanıldığını açıklamaya devam ediyor.

6. Bölüm

  • 05:00:00 Bu bölümde video, rastgele orman algoritmasının kullanıldığı çeşitli endüstrileri tartışıyor. Sağlanan ana örneklerden biri, bankaların bir kredi başvurusunda bulunan kişinin temerrüde düşüp düşmeyeceğini belirlemek ve buna göre kararlar almak için rastgele ormanı nasıl kullandıklarıdır. Tıp alanı, algoritmanın bir kişinin tıbbi geçmişini ve çeşitli öngörücü değişkenleri analiz ederek belirli bir hastalığa sahip olma olasılığını tahmin etmek için kullanıldığı başka bir alandır. Rastgele orman, belirli bir alanda bir endüstri kurmadan önce arazi kullanımının bulunmasında da kullanılır. Pazarlamada algoritma, aktivitelerini, satın alma geçmişlerini ve belirli ürünlere veya reklamlara olan yakınlıklarını izleyerek müşteri kaybını belirlemek için kullanılır. Ardından video, veri kümesindeki toplam öngörücü değişken sayısından birkaç rastgele özelliğin seçilmesiyle başlayarak, rastgele orman algoritmasının nasıl çalıştığını adım adım açıklamaya devam ediyor.

  • 05:05:00 Bu bölümde, rastgele orman algoritması, son 14 günün hava koşullarından hareketle bir spor karşılaşmasının gerçekleşip gerçekleşmeyeceğini tahmin etme örneği kullanılarak açıklanmaktadır. Algoritma, veri kümesini alt kümelere ayırmayı, belirli sayıda özellik seçmeyi, her düğüm için en iyi bölünmeyi hesaplamayı ve düğümleri yavru düğümlere ayırmayı içerir. Bu, bir karar ağacının yaprak düğümlerine ulaşılana kadar tekrarlanır ve ardından işlem, karar ağaçları için birkaç kez tekrarlanır. Son olarak, tüm farklı karar ağaçlarının sonuçları, çoğunluk oylaması kullanılarak derlenir ve nihai bir tahmin elde edilir.

  • 05:10:00 Bu bölümde, her bir alt kümenin farklı değişkenleri dikkate aldığı Rastgele Ormanlardaki karar ağacı alt kümelerinin önemi tartışılmaktadır. Karar ağaçları ayrıca tek bir ağaca güvenmek yerine birden çok ağaçtaki varyansın ortalamasını alarak doğru bir çıktı sağlar. Rastgele Ormanlar, hem sınıflandırma hem de regresyon problemlerinde iyi çalıştıkları, ölçeklenebildikleri ve minimum girdi hazırlığı gerektirdikleri için çok yönlüdür. Ek olarak, her bir karar ağacı uygulaması için rasgele özellikler seçen ve hepsini birbirinden farklı kılan örtük özellik seçimi gerçekleştirirler.

  • 05:15:00 Bu bölümde, video iki önemli makine öğrenimi algoritmasını ele alıyor: Rastgele Orman ve K-En Yakın Komşu (KNN). Rastgele Orman, aynı anda çalışan birden fazla karar ağacı uygulayarak büyük miktarda veriyi işleyebilen bir karar verme modelidir. Modelin belirli bir sınıfa doğru önyargılı olmasını önleyerek, dengesiz veri kümelerindeki hataları dengelemek için yöntemleri vardır. KNN ise mevcut tüm vakaları saklayabilen ve yeni verileri benzerlik ölçüsüne göre sınıflandırabilen basit bir algoritmadır. Video, KNN'nin arama uygulamalarında nasıl kullanıldığını açıklamaya devam ediyor ve hem Random Forest hem de KNN için öneri sistemleri ve kavram arama gibi endüstriyel uygulama örnekleri sunuyor.

  • 05:20:00 Bu bölümde K-En Yakın Komşu (KNN) algoritması anlatılmaktadır. Algoritma, sınıfını tahmin etmek için yeni bir noktaya en yakın 'k' komşuyu seçme ilkesine göre çalışır. Yeni nokta ile mevcut noktalar arasındaki mesafe, öklid ve Manhattan mesafeleri gibi mesafe ölçüleri kullanılarak hesaplanır. 'k'nin optimal değeri, veri kümesine bağlıdır ve çapraz doğrulama teknikleri kullanılarak farklı değerler denenerek bulunabilir. Bir müşterinin tişört bedenini boyuna ve kilosuna göre tahmin etmek için KNN algoritmasını kullanmanın pratik bir örneği de gösterilmiştir.

  • 05:25:00 Bu bölümde video, KNN (K-En Yakın Komşu) algoritması kavramını ve Python kullanılarak uygulanmasını açıklamaktadır. KNN algoritması tembel bir öğrenicidir çünkü eğitim verilerini eğitim verilerinden ayırt edici bir işlev olmaksızın ezberler. Süreç, verilerin işlenmesini, iki veri örneği arasındaki mesafenin hesaplanmasını, en az mesafeye sahip k-komşuların seçilmesini ve veri kümesinden bir yanıt üretilmesini içerir. Uygulama adımları, CSV veri dosyasının yüklenmesini, verilerin bir eğitim ve test veri kümesine bölünmesini ve öklid mesafe ölçüsü kullanılarak iki örnek arasındaki benzerliğin hesaplanmasını içerir. Ardından video, algoritmanın Jupyter Notebook ve Python kullanılarak uygulanmasını gösterir.

  • 05:30:00 Bu bölümde video, K En Yakın Komşular (KNN) algoritmasının Python'da uygulanmasını içermektedir. Eğitmen, iki veri noktası arasındaki Öklid mesafesinin nasıl hesaplanacağını ve komşu alma işlevini kullanırken K en yakın komşunun nasıl bulunacağını gösterir. Video ayrıca, her bir komşunun sınıf özniteliği için oy kullanmasına izin veren ve çoğunluk oyu tahmin olarak belirleyen yanıt alma işlevini de kapsar. Modelin doğruluğunu değerlendirmek için doğruluk alma fonksiyonu da tartışılmaktadır. Son olarak, tüm işlevler, %90,29 doğruluk oranıyla Iris veri kümesini kullanarak KNN algoritmasını uygulamak için tek bir ana işlevde derlenir.

  • 05:35:00 Bu bölümde video, öngörücüler arasında bağımsızlık varsayımıyla Bayes teoremine dayalı bir sınıflandırma tekniği olan Naive Bayes algoritmasını açıklamaktadır. Naive Bayes, bir sınıftaki belirli bir özelliğin varlığının başka herhangi bir özelliğin varlığıyla ilgisiz olduğunu ve bu özelliklerin tümünün bağımsız olarak bir olayın olasılığına katkıda bulunduğunu varsayar. Bayes teoremi, bir olayın olasılığını, olayla ilgili koşullara ilişkin ön bilgilere dayalı olarak tanımlar ve koşullu olasılığı anlamaya yardımcı olur. Video, Bayes teoremini göstermek için bir deste kart kullanılarak bir örnek sunmakta ve A ve B olayları üzerinde herhangi bir olasılık dağılımı olması durumunda güzel bir yorumu olan teoremin kanıtını göstermektedir.

  • 05:40:00 Bu bölümde video, Bayes Teoremini ve bunun bir veri seti kullanarak gerçek hayat senaryolarında nasıl uygulanabileceğini tanıtıyor. Olabilirlik tablosu ve frekans tablosu, veri setinin her özelliği için üretilebilir ve daha sonra Bayes Teoremi kullanılarak önceki ve sonraki olasılıkları hesaplamak için kullanılabilir. Bayes Teoreminin hava koşullarına göre oynanıp oynanmayacağını belirlemek için kullanıldığı bir örnek verilmiştir. Video ayrıca Bayes Teoreminin endüstriyel kullanım durumlarını, özellikle haber kategorizasyonu veya metin sınıflandırmasını tartışıyor.

  • 05:45:00 Bu bölümde video, e-posta filtreleme ve istenmeyen posta algılama için kullanılan popüler bir istatistiksel teknik olan Naive Bayes Sınıflandırıcıyı tartışıyor. Algoritma, spam e-postaları belirlemek için kelime torbası özelliklerini kullanır ve spam ve spam olmayan e-postalardaki belirteçlerin kullanımını ilişkilendirerek çalışır. Bayes teoremi daha sonra bir e-postanın spam olup olmama olasılığını hesaplamak için kullanılır. Video ayrıca Naive Bayes Sınıflandırıcısının kararı açıklamak için mevcut tüm bilgileri kullanma yeteneği nedeniyle tıbbi uygulamalarda ve her bir sınıf etiketinin olasılığını hesaplamak için kullanılan sonsal olasılıkları nedeniyle hava durumu projeksiyonundaki etkinliğine kısaca değiniyor. giriş verileri.

  • 05:50:00 Bu bölümde video, özellikle Gaussian, multinomial ve binom gibi mevcut model türleri olmak üzere bir sapma ve model oluşturmak için scikit-learn Python kitaplığının kullanımını tartışıyor. Video ayrıca, tıbbi verilerini öznitelik olarak kullanan hastalarda diyabetin başlangıcını tahmin etmek için algoritmanın nasıl kullanılabileceğine dair bir örnek sunuyor. Süreç dört adıma ayrılmıştır: verileri işlemek, verileri özetlemek, tahminlerde bulunmak ve doğruluğu değerlendirmek. Video, verileri eğitim ve değerlendirme kümelerine bölerken, CSV verilerini yüklemek ve öğeleri kayan öğelere dönüştürmek için bir işlev sağlar.

  • 05:55:00 Eğitimin bu bölümünde eğitmen, makine öğreniminde Donanma Üs Algoritmasını kullanarak bir model oluşturma sürecini açıklıyor. Eğitim verilerini özetleme ve her özellik için ortalama ve standart sapmayı hesaplama sürecini açıklıyor. Ardından eğitim verilerinden ve Gauss olasılık yoğunluk fonksiyonundan hazırlanan özetleri kullanarak tahminlerin nasıl yapıldığını göstermeye devam ediyor. Son olarak, test verilerindeki her veri örneği için tahminler yaparak ve doğruluk oranını hesaplayarak modelin doğruluğunun nasıl tahmin edileceğini gösterir.


7. Bölüm

  • 06:00:00 Bu bölümde, eğitmen ilk olarak Python kullanarak bir Naive Bayes Sınıflandırıcıyı sıfırdan uygulama sürecini özetler. Bununla birlikte, scikit-learn kitaplığı zaten Naive Bayes için önceden tanımlanmış bir işlev içerdiğinden, eğitmen örnek olarak ünlü iris çiçeği veri kümesiyle sklearn kitaplığından Gaussian NB modelinin nasıl kullanılacağını gösterir. Öncelikle metrics ve sklearn gibi gerekli kütüphaneler import edilir, ardından veriler yüklenir ve model fit edilir. Eğitmen daha sonra tahminlerin nasıl yapıldığını gösterir ve karışıklık matrisini ve sınıflandırma raporunu hesaplayarak modeli özetler. Son olarak, destek vektör makineleri konusu tanıtılır ve eğitmen SVM'nin nasıl çalıştığını ve çeşitli özelliklerini ve gerçek dünyada kullanımlarını açıklar.

  • 06:05:00 Bu bölümde sınıflandırma amaçlı kullanılan denetimli öğrenme algoritması olan Destek Vektör Makinelerini (SVM) öğreniyoruz. Farklı veri sınıfları arasında bir karar sınırı olarak bir hiperdüzlem kullanır ve verileri parçalara bölmek için birden çok ayırıcı hiperdüzlem oluşturmak için kullanılabilir. DVM, hem sınıflandırma hem de regresyon problemleri için kullanılabilir ve doğrusal olmayan verileri sınıflandırmak için SVM çekirdek işlevlerinden yararlanır. DVM'nin temel prensibi, iki veri sınıfını en iyi şekilde ayıran bir hiper düzlem çizmektir ve optimal bir hiper düzlem, maksimum marj ile destek vektörlerinden maksimum mesafeye sahiptir. SVM, hiper düzlem ile destek vektörleri arasındaki mesafe maksimum olacak şekilde bir hiper düzlem kullanarak verileri sınıflandırmak için kullanılır.

  • 06:10:00 Eğitmen videonun bu bölümünde, düz bir çizgi kullanılarak ayrılamayan veri setlerini kernel fonksiyonlarını kullanarak lineer veri setlerine dönüştürerek nasıl ele alınacağını açıklar. Sunulan basit bir numara, iki değişken X ve Y'yi, verileri iki veri sınıfı arasında bir ayrım marjının daha belirgin olduğu üç boyutlu bir alanda görselleştirmek için Z adlı yeni bir değişkeni içeren yeni bir özellik alanına dönüştürmektir. Öğretici ayrıca, SVM sınıflandırıcısının küçük bir veri kümesi için bile doğru performans gösterdiği, kanser sınıflandırmasında kullanılan bir sınıflandırıcı olarak SVM'nin gerçek dünyadaki kullanım durumunu sunar. Daha sonra eğitim, denetimsiz öğrenmeyi ve veri kümelerini benzer veri noktalarından oluşan gruplara bölme işlemi olan kümeleme ile istatistiksel özelliklerine dayalı olarak girdi verilerini kümelemek için nasıl kullanıldığını öğretir.

  • 06:15:00 Bu bölümde denetimsiz öğrenme algoritmalarından biri olan kümeleme kavramı anlatılmaktadır. Kümeleme, bir dizi etiketlenmemiş veri noktasının içsel grubunu veya bölümlenmesini tanımlamak için kullanılır. Üç tür kümeleme vardır: dışlayıcı kümeleme, örtüşen kümeleme ve hiyerarşik kümeleme. Özel bir kümeleme yöntemi olan K-means kümeleme, benzer veri noktalarını önceden tanımlanmış sayıda kümede gruplandırır. Algoritma, küme sayısını tanımlayarak ve ağırlık merkezini bularak başlar, ardından her noktanın merkezden Öklid uzaklığını hesaplar ve noktayı en yakın kümeye atar. Bu adımlar, yeni kümelerin ağırlık merkezleri öncekilere çok yakın olana kadar tekrarlanır. Kümeleme, pazarlama, petrol ve gaz arama ve film öneri sistemleri gibi çeşitli sektörlerde kullanılmaktadır.

  • 06:20:00 Videonun bu bölümünde K-Means kümelemede küme sayısını belirlemek için dirsek yöntemi ele alınmıştır. Toplam kare hatası (SSE), en uygun küme sayısını gösteren dirsek noktasını belirlemek için küme sayısına göre hesaplanır ve çizilir. K-Means kümelemenin artıları ve eksileri ana hatlarıyla belirtilmiş ve yöntemin basit ve anlaşılır olduğu, ancak doğru küme sayısı bilinmediğinde kullanımının zor olduğu ve gürültülü verileri ve aykırı değerleri işleyemeyeceği belirtilmektedir. Yönetmen ve oyuncuların Facebook beğenilerine göre kümelenmiş 5.043 filmden oluşan bir veri kümesi kullanılarak K-Means kümelemesinin bir demosu gösteriliyor.

  • 06:25:00 Bu bölümde video üç tür kümeleme yöntemini ele alıyor; k-ortalama kümeleme, bulanık c-ortalama kümeleme ve hiyerarşik kümeleme. K-means yöntemi, verilerin belirli sayıda kümeye sığdırılmasını içerirken, bulanık c-ortalamalar yöntemi, her kümedeki bir nesneye 0 ile 1 arasında bir üyelik derecesi atar. Hiyerarşik kümeleme, kümeleri aşağıdan yukarıya veya yukarıdan aşağıya birleştirerek, algoritmanın önceden belirli sayıda küme varsaymadan anlamlı taksonomiler oluşturmasını sağlar. Bununla birlikte, eksilerden bazıları, ilk atamaya duyarlılığı, küme sayısını veya üyelik kesme değerini tanımlama ihtiyacını ve belirli bir çıktı elde etmeyi zorlaştıran deterministik olmayan algoritmaları içerir.

  • 06:30:00 Videonun bu bölümünde Market Basket Analizi kavramı ele alınmaktadır. Pazar Sepeti Analizi, büyük perakendeciler tarafından, bu ürünler arasındaki ilişkileri tanımlamak için işlemlerde sık sık tekrarlanan ürün kombinasyonlarını kullanarak, ürünler arasındaki ilişkileri ortaya çıkarmak için kullanılan bir tekniktir. Bu, perakendecilerin müşterilerin neleri satın alabileceklerini tahmin etmelerine ve belirli müşterileri tekliflerle veya
    satın alma modellerine göre indirimler. Birliktelik kuralı madenciliğinde kullanılan iki algoritma, yani birliktelik kuralı madenciliği tekniği ve A-Priori algoritması tartışılmaktadır. Son olarak Birliktelik Kuralı Madenciliğinde destek, güven ve kaldırma ölçülerinin kullanımı bir örnek yardımıyla açıklanmış ve sık öğe kümeleri kavramı tanıtılmıştır.

  • 06:35:00 Tam makine öğrenimi kursunun bu bölümünde eğitmen, sık öğe kümesi madenciliği ve birliktelik kuralı oluşturma için kullanılan A-priori algoritmasını açıklıyor. A-priori algoritması, destek değerleri ile öğe kümeleri tabloları oluşturmayı, belirli bir eşiğin altında destek değerleri olan kümeleri ortadan kaldırmak için budama yapmayı ve daha fazla bulunamayana kadar artan boyutta sık sık öğe kümeleri oluşturmayı içerir. Son adım, pazar sepeti analizi için kullanılabilecek, minimum güven değerlerine sahip sık ürün kümelerinden ilişkilendirme kurallarının oluşturulmasını içerir. Bir perakende mağazasından çevrimiçi işlem verileri kullanılarak bir örnek verilmiştir.

  • 06:40:00 Bu bölümde eğitmen, veri temizleme, öğelerin birleştirilmesi ve en az yüzde yedilik destekle sık öğe kümeleri oluşturma sürecine girer. Kurallar daha sonra karşılık gelen destek, güven ve artış ile oluşturulur ve büyük artış altı ve yüksek güvenilirlik 0,8 için standart pandas kodu kullanılarak filtrelenir. Bu bölüm ayrıca, bir aracının belirli eylemleri gerçekleştirerek öğrenmesi, ödülleri veya cezaları gözlemlemesi ve belirli bir durumda ödülleri en üst düzeye çıkarmak için uygun eylemleri gerçekleştirmesi için bir ortama konulduğu Birliktelik Kuralı Madenciliği ve Güçlendirme öğrenimini de kapsar. Yürümeyi öğrenen bir bebek, takviyeli öğrenme için bir benzetme olarak kullanılır.

  • 06:45:00 Bu bölümde video, pekiştirmeli öğrenme kavramını ve bir etmen ile bir ortamı içeren sürecini açıklıyor. Etmen, ortamda aksiyon alan, ortam ise ajana mevcut durumu sağlayan ve belirli bir aşama tamamlandığında onu anında geri dönüşlerle ödüllendiren bir pekiştirmeli öğrenme algoritmasıdır. Ajan, mevcut durumuna bağlı olarak bir sonraki eylemini bulmak için bir politika, bir strateji kullanır. Değer, indirimle beklenen uzun vadeli getiridir, işlem değeri ilk başta biraz kafa karıştırıcı olabilir ancak video daha sonra bunu açıklamayı vaat ediyor. Bu kavramları anlamak, pekiştirmeli öğrenmeyi incelemek için çok önemlidir.

  • 06:50:00 Videonun bu bölümünde eğitmen, pekiştirmeli öğrenmede değer ve eylem değeri kavramlarını açıklıyor. Değer, iskontolu uzun vadeli getiri iken, işlem değeri, mevcut eylem olan ekstra bir parametre alır. Takviyeli öğrenmenin temel amacı, ödülü en üst düzeye çıkarmaktır ve temsilci, ödülü en üst düzeye çıkaran en iyi eylemi yapmak için eğitilmelidir. Ödülün indirimi, gama adı verilen bir değere göre çalışır ve indirim değeri ne kadar yüksek olursa, temsilcinin keşfetme ve risk alma şansı o kadar düşük olur. Ayrıca eğitmen, keşfetme ve kullanma kavramlarını ve takviyeli öğrenmede bir çözümün haritasını çıkarmaya yönelik matematiksel bir yaklaşım olan Markov karar sürecini açıklar. Ana hedef, en uygun politikayı seçerek ödülleri en üst düzeye çıkarmaktır.

  • 06:55:00 Bu bölümde eğitmen, bir robotun çevresinden öğrenmesi için gerekli olan Markov Karar Sürecini ve pekiştirmeli öğrenmeyi tartışır. Amacın A, B, C ve D düğümlerinden geçerek A ve D noktaları arasındaki en kısa yolu mümkün olan en düşük maliyetle bulmak olduğu bir problem senaryosunu gösteriyor. Durumlar kümesinin düğümler tarafından gösterildiğini açıklıyor. ve eylem, bir düğümden diğerine geçiş yapmaktır, politika ise hedefe ulaşmak için kullanılan yoldur. Ödül, her uçtaki maliyettir ve makine, maksimum ödülü elde etmek için hangi yolun en iyi olduğunu hesaplar. Eğitmen, en uygun politikayı bulmak için istismar yerine farklı notları keşfetmenin önemini vurgular. Bu bölümde ayrıca, takviyeli öğrenmenin bileşenleri üzerine bir tartışma ve bir otomobil fabrikasında otonom robotları içeren bir problem senaryosu yer almaktadır.


8. Bölüm

  • 07:00:00 Bu bölümde, simüle edilmiş bir ortamda bir robot için ödül tablosu oluşturma bağlamında durumlar, eylemler ve ödüller kavramları tartışılmaktadır. Bir robotun gerçekleştirebileceği eylemler, mevcut durumuna göre belirlenir ve belirli bir durumdan bir konuma doğrudan ulaşılabiliyorsa ödüller verilir. Belirli bir konumun önceliklendirilmesi, daha yüksek bir ödülle ilişkilendirilerek ödül tablosuna yansıtılır. Bellman denklemi, tüm olası eylemler göz önünde bulundurularak elde edilebilecek maksimum ödüle dayalı olarak belirli bir durumda olmanın değerini optimize etmek amacıyla robotun ilerlemek için talimatları hatırlamasını sağlamanın bir yolu olarak tanıtıldı. Denklem, robotun sarı bir odadan Yeşil Odaya gittiğinde bir ödül almasını sağlamak için kısıtlanmıştır.

  • 07:05:00 Bu bölümde, Bellman Denklemini ve onun pekiştirmeli öğrenme ve Q öğrenmedeki önemini öğreniyoruz. Bellman denklemi, belirli bir durumda olmanın değerini sağlar ve başka bir durumda olmanın maksimum değerini hesaplar. İndirim faktörü gamma, robota hedeften ne kadar uzakta olduğunu bildirir. Bellman Denklemi, sonuçların kısmen rastgele olduğu ve Markov karar sürecini kullanan karar vericinin kontrolü altında olduğu durumlarda bir miktar rastgeleliği dahil edecek şekilde ayarlanmıştır. Bir sonraki durumdan veya odadan emin olmadığımız için, robotun alabileceği tüm olası dönüşler denkleme dahil edilir.

  • 07:10:00 YouTube videosunun bu bölümünde, bir robotun uzmanlığını ölçmek için her dönüşte olasılıkları ilişkilendirme kavramı tartışılıyor. Sırasıyla %80 ve %20 olasılıkla yukarı veya aşağı dönüş yapan bir robot örneği, ortamın stokastikliğini hesaba katarak belirli bir duruma gitme değerini hesaplayan bir denklem ile verilmiştir. Eylemlerin kalitesini değerlendirmeye yardımcı olmak için robotun gerçekleştirdiği her eylem için bir ödülü ilişkilendiren yaşayan ceza fikri tanıtıldı. Daha sonra Q-öğrenme süreci, taşınmakta olan durumun olası değerini belirlemek yerine, bir duruma geçmek için yapılan eylemin kalitesini değerlendirmenin bir yolu olarak tartışılır. Robotun yapabileceği olası eylemlerin kümülatif kalitesini hesaplama denklemi bozulur ve değer fonksiyonunu bir kalite fonksiyonu ile değiştirmek için yeni bir denklem getirilir.

  • 07:15:00 Bu bölümde, belirli bir durumdaki bir eylemin değerini öğrenmekle ilgilenen bir pekiştirmeli öğrenme biçimi olan Q-learning kavramı tartışılmaktadır. Q-learning, hesaplamaları kolaylaştırmak için tek bir Q işlevi ve zaman içinde ortamdaki değişiklikleri yakalamak için zamansal farkı kullanır. Robot, depo konumunu farklı durumlara eşleyerek ve bir sonraki duruma geçişler için eylemleri tanımlayarak en iyi yolu elde etmeyi öğrenir. Ödül tablosu ayrıca bir durumdan diğerine geçmek için ödülleri atamak üzere tanımlanır. Algoritmada netlik için durumlardan orijinal konuma ters eşlemeden de bahsedilir.

  • 07:20:00 Bu bölümde öğretici, Python kodunu kullanarak bir depoda en uygun rotayı bulan bir robot örneğiyle Q-learning sürecini açıklıyor. Q değerleri sıfır olacak şekilde başlatılır ve ödül matrisi yenisine kopyalanır. Bellman denklemi, Q-değerlerini güncellemek için kullanılır ve optimal yol, bir başlangıç konumu ile başlatılır. Nihai konuma ulaşmak için gereken tam yineleme sayısı bilinmediğinden, yineleme işlemi için while döngüsü kullanılır. Eğitimde ayrıca tarayıcıda makine öğrenimi ve derin öğrenme modelleri geliştirmek ve çalıştırmak için popüler bir araç haline gelen TensorFlow.js gibi bazı açık kaynaklı makine öğrenimi projelerinden bahsediliyor.

  • 07:25:00 Bu bölümde konuşmacı, keşfedilebilecek çeşitli açık kaynaklı makine öğrenimi projelerinden bahsediyor. Tartışılan ilk proje, Facebook tarafından geliştirilen ve Python'da yazılmış son teknoloji bir nesne algılama çerçevesi olan Detectron2'dir. Sonra, vahşi doğada insan pozu tahminine yardımcı olabilecek DensePose var. Diğer projelerin yanı sıra, herhangi bir görüntünün sınırlarını genişletmek için kullanılabilen Görüntü Dış Boyama vardır ve Ses İşleme, ses sınıflandırması ve parmak izi alma gibi görevler için kullanılabilir. Astronomik verilerle çalışmak için Google beyin ekibinin Astronet'i ve Google AI dil işleme aracı BERT de var. Tartışılan diğer projeler arasında, TensorFlow kullanarak basit modeller oluşturmak ve genişletmek için AutoML ve birden çok hareket kaplamasını taklit etmek için simüle edilmiş insansı oluşturmak için Takviyeli Öğrenme tabanlı bir çerçeve yer alıyor.

  • 07:30:00 Videonun bu bölümünde, konuşmacı başarılı bir makine öğrenimi mühendisi olmak için gereken çeşitli teknik becerileri vurguluyor. Beceriler, Python, C++ ve Java gibi dillerde programlamadan doğrusal cebir, istatistik ve olasılık dağılımlarını anlamaya kadar uzanır. Konuşmacı, algoritmalar, özellik çıkarma, sinyal işleme algoritmaları ve sinir ağı mimarilerine aşina olmanın önemini vurgular. Konuşmacı ayrıca makine öğreniminde güçlü bir matematiksel altyapının değerini vurguluyor ve bilgisayar bilimi ile birlikte doğal dil işleme becerilerine olan ihtiyacı tartışıyor. Bu bölümde tartışılan teknik beceriler, ustalaşmak için çok fazla pratik ve odaklanma gerektirir.

  • 07:35:00 Bu bölümde başarılı bir makine öğrenimi mühendisi olmak için gerekli beceriler ele alınmaktadır. Teknik beceriler önemlidir, ancak sorunları ve iş büyümesi ve yeni fırsatlar için potansiyel zorlukları ayırt etme yeteneği de sahip olunması gereken bir beceridir. Teknik bulguları teknik olmayan ekip üyelerine aktarmak için etkili iletişim hayati önem taşır. Fikirleri hızla yinelemek ve rekabette önde olmak için hızlı prototip oluşturma ve yeni teknolojiyle güncel kalma da gereklidir. Fizik, takviyeli öğrenme ve bilgisayar görüşü gibi bonus beceriler, pazarda başarılı olmak için rekabet avantajı sağlar.

  • 07:40:00 Bu bölümde video, bir Makine Öğrenimi Mühendisinin maaş trendlerini ve iş tanımını tartışıyor. ABD'de bir Makine Öğrenimi Mühendisinin ortalama maaşı 111.490 ABD Doları iken, Hindistan'da 7.19.646 INR civarındadır ve bu da onu iyi maaşlı bir meslek haline getirir. Giriş seviyesi maaşlar yıllık 76.000 $ ile 251.000 $ arasında değişmektedir ve ikramiye ve kar payı projeye ve şirkete bağlıdır. Programlama dilleri, hesap ve istatistik, sinyal işleme, uygulamalı matematik, sinir ağları ve dil işleme, bir Makine Öğrenimi Mühendisi için gereken çok önemli becerilerdir. Ayrıca, veri bilimi prototiplerini inceler ve dönüştürür, makine öğrenimi sistemleri tasarlar, algoritmalar araştırır ve uygular, yeni uygulamalar geliştirir, uygun veri kümelerini ve veri temsil yöntemlerini seçer, testler ve deneyler yürütür ve istatistiksel analiz ve ince ayar gerçekleştirir.

  • 07:45:00 Bu bölümde, öncelikle eğitim ve yeniden eğitim sistemlerini, mevcut makine öğrenimi kitaplıklarını genişletmeyi ve alandaki gelişmelerden haberdar olmayı içeren bir makine öğrenimi mühendisinin temel sorumlulukları ele alınmaktadır. Video daha sonra bir makine öğrenimi mühendisinin net bir kariyer hedefi, programlama dilleri, hesap, lineer cebir ve istatistik gibi teknik becerilerin yanı sıra endüstri bilgisi gibi teknik olmayan becerileri içermesi gereken özgeçmişinin unsurlarını tartışmaya devam ediyor. ve problem çözme becerileri. Ayrıca video, makine öğrenimi alanında doğal dil işleme ve ses analizi bilgisine sahip olmanın önemini vurguluyor. Son olarak, en başarılı makine öğrenimi projelerinin, bir makine öğrenimi mühendisi için endüstri bilgisinin önemini gösteren gerçek sorunlu noktaları ele aldığı vurgulanıyor.

  • 07:50:00 Bu bölümde, konuşmacı makine öğrenimi mühendisi olmak için gereken becerileri tartışıyor. Bu beceriler sadece teknik bilgiyi değil, aynı zamanda iş zekası ve etkili iletişim becerilerini de içerir. Mühendis, hızlı bir şekilde prototip üretebilmeli ve sahada yaklaşan herhangi bir değişiklikle güncel kalmalıdır. Bilgisayar bilimi, ekonomi, istatistik veya matematik alanlarında lisans veya yüksek lisans derecesi ile birlikte bilgisayar bilimi, istatistik veya veri analizi alanlarında profesyonel deneyim yardımcı olabilir. Yapay zekayı içeren ve sinir ağlarıyla çalışan belirli projeler, makine öğrenimi mühendisi olarak işe girmek için de çok önemlidir. Konuşmacı, Amazon ve Facebook'tan startup'lara kadar pek çok şirketin bu pozisyon için işe alım yaptığını belirtiyor.
Machine Learning Full Course - Learn Machine Learning 10 Hours | Machine Learning Tutorial | Edureka
Machine Learning Full Course - Learn Machine Learning 10 Hours | Machine Learning Tutorial | Edureka
  • 2019.09.22
  • www.youtube.com
🔥 Machine Learning Engineer Masters Program (Use Code "𝐘𝐎𝐔𝐓𝐔𝐁𝐄𝟐𝟎"): https://www.edureka.co/masters-program/machine-learning-engineer-trainingThis E...
 

Sinir Ağları neden (neredeyse) her şeyi öğrenebilir?



Sinir Ağları neden (neredeyse) her şeyi öğrenebilir?

Bu video, sinir ağlarının bir işlevi aktivasyon işlevi olarak kullanarak neredeyse her şeyi nasıl öğrenebileceğini tartışıyor.
Ağ, veri kümesi başlangıçta amaçlanandan daha karmaşık olsa bile, istenen işlevi öğrenene kadar kademeli olarak nöronlar ekler. Bu, sinir ağlarını verilerden öğrenmek için güçlü bir araç haline getirir.

  • 00:00:00 Bu videoda, karmaşık bir fraktal olan Mandelbrot kümesinin şeklini öğrenen bir yapay sinir ağı gösterilmektedir. Ağ, doğrusal bir fonksiyon olmasa da verileri tanımlayan fonksiyona yaklaşabilir.

  • 00:05:00 Video, sinir ağlarının bir işlevi aktivasyon işlevi olarak kullanarak ve kademeli olarak nöronlar ekleyerek neredeyse her şeyi nasıl öğrenebileceğini açıklıyor. Veri seti başlangıçta amaçlanandan daha karmaşık olsa bile ağ sonunda istenen işlevi öğrenir.

  • 00:10:00 Bu video, sinir ağlarının verileri yeni ve faydalı bilgilere dönüştürme yetenekleri sayesinde neredeyse her şeyi öğrenmek için nasıl kullanılabileceğini açıklıyor.
Why Neural Networks can learn (almost) anything
Why Neural Networks can learn (almost) anything
  • 2022.03.12
  • www.youtube.com
A video about neural networks, how they work, and why they're useful.My twitter: https://twitter.com/max_romanaSOURCESNeural network playground: https://play...
 

Stephen Wolfram ile ChatGPT, AI ve AGI



Stephen Wolfram ile ChatGPT, AI ve AGI

Stephen Wolfram, ChatGPT ve Wolfram Alpha arasındaki API, doğal dil anlayışı ve üretimi, hesaplamalı indirgenemezlik, dilde anlamsal dilbilgisi, doğal dil programlama, yapay zeka ve insanların bir arada var olması ve tanımlamada aksiyomların sınırlamaları gibi çeşitli konuları tartışıyor. karmaşık sistemler. Ayrıca, yapay zekanın analojik akıl yürütme ve bilgi çalışması gibi alanlardaki yeteneklerini ve yapay zekanın insan önceliklerini ve motivasyonlarını seçme zorluğunu tartışıyor. Hesaplamalı indirgenemezlik, özellikle evrendeki en düşük işlem seviyesinde nasıl olduğu da tartışılır. Wolfram, çevremizdeki dünyaya ilişkin anlayışımızı ilerletmek için hesaplamalı indirgenemezliği anlama ve bununla çalışma ihtiyacını vurguluyor.

Stephen Wolfram, gözlemciler olarak hesaplama sınırlamalarımızın evren algımızı nasıl etkilediğini ve fizik yasalarını anlamamıza yol açtığını açıklıyor. Ayrıca, uzayın ayrıklığını kanıtlayabilecek deneysel kanıt potansiyelini tartışıyor ve geliştirdikleri, farklı alanlarda çıkarımları olabilecek çoklu hesaplamalı paradigma hakkında konuşuyor. Sunucu, öngörüleri için Wolfram'a teşekkür ediyor ve gelecekteki video dizisi "Beyond the Conversations" için duyduğu heyecanı dile getiriyor.

  • 00:00:00 Bu bölümde Stephen Wolfram, kullanıcıların Manifest'te açıklanan çeşitli veri kaynakları arasında arayüz oluşturmasına olanak tanıyan Chat GPT ve Wolfram Alpha arasındaki API'yi tartışıyor. Eklentinin yaratılmasına yol açan yazılım mühendisliği macerasının yanı sıra istenen bir sonuca ulaşmak için yapay zeka ile etkileşim kurmanın zorluklarını anlatıyor. Wolfram, doğal dil anlayışının ve üretiminin arkasındaki sinirbilimin henüz bilimsel olarak anlaşılmadığına dikkat çekiyor. Buna rağmen ekip, Chat GPT ve Wolfram Alpha arayüzlerini Language arayüzünden yeni dünyayla başarılı bir şekilde bağlamayı başardı.

  • 00:05:00 Bu bölümde Stephen Wolfram, doğal dil anlayışının Wolfram Alpha için ne anlama geldiğini ve bunun nasıl başarıldığını açıklıyor. Temel olarak, doğal dil, hesaplanabilmesi için kesin hesaplama diline dönüştürülür ve Wolfram Alpha'nın yaptığı da budur, çünkü tamamen doğal dili anlamak için yaratılmıştır. LLM'nin, yani sohbet GPT'sinin Wolfram dil kodunu oluşturmadaki başarısı heyecan verici bir gelişmedir ve Wolfram, Wolfram dilinin tekdüzeliği ve ilkeli tasarımı nedeniyle bunun mümkün olduğuna inanır. Wolfram'ın açık kaynaklı Lang Chain sarmalayıcı kullanmanın avantajı veya dezavantajı hakkında bir fikri olmasa da, Wolfram Alpha'nın dil ile kombinasyonunun önemsiz olmadığına inanıyor.

  • 00:10:00 Bu bölümde Stephen Wolfram, çocukların ve dil modellerinin dil öğrenimine ve genellemeye nasıl yaklaştığını tartışıyor. Hem doğal dilleri öğrenen çocukların hem de hesaplamalı dilleri öğrenen genç öğrencilerin bilgilerini genellikle mantıklı görünen ancak dilin pratikte kullanılma biçimiyle her zaman uyumlu olmayan şekillerde genellediklerini belirtiyor. Wolfram ayrıca, Wolfram Dili ve Wolfram Alpha'nın yapay zeka sistemleri ile insanlar arasında işbirliği için bir araç olarak nasıl hizmet edebileceğini ve insan geri bildirimlerine göre düzenlenebilen ve iyileştirilebilen, hesaplama açısından kesin kodun oluşturulmasına nasıl olanak tanıyabileceğini tartışıyor. Bu yaklaşım, büyük dil modellerinin doğasının ve derinliklerinin daha sistematik bir şekilde keşfedilmesine izin verebilir.

  • 00:15:00 Bu bölümde Wolfram, hesaplamalı indirgenemezlik kavramını ve bunun karmaşık hesaplamalı sistemlerin davranışını anlama ve tahmin etme yeteneğimiz üzerindeki etkilerini tartışıyor. Geleneksel bilim anlayışımız, sistemlerin sonuçlarını tahmin edebileceği fikrine dayansa da, gerçekte hesaplamalı indirgenemezliğin, bu tür sistemlerin davranışını tahmin etmenin hızlı veya kolay bir yolu olmayabileceği anlamına geldiğini açıklıyor. Bununla birlikte, sinir ağları gibi karmaşık sistemlerde bile bir miktar öngörülebilirliğe izin veren hesaplamalı yeniden kullanılabilirlik cepleri olduğunu belirtiyor. Genel olarak, hesaplamalı indirgenemezliğin hesaplamanın temel bir yönü olduğunu ve çevremizdeki dünya anlayışımızı ilerletmek için anlamamız ve üzerinde çalışmamız gereken bir şey olduğunu vurguluyor.

  • 00:20:00 Bu bölümde Stephen Wolfram, Chatbot modeli GPT'nin dilde şimdiye kadar keşfetmediğimiz anlamsal bir gramer olduğunu nasıl gösterdiğini tartışıyor. İsimlerin ve fiillerin belirli yerleşimlerini belirleyen dilin sözdizimsel gramerini zaten biliyor olsak da, cümlelerin nasıl anlamlı kabul edilebileceği konusunda anlaşılması gereken çok şey olduğunu açıklıyor. Wolfram, Aristoteles'in tasımsal mantığı, Chatbot modellerinin dilin düzenlilikleri olan kendi kalıplarını keşfetmesiyle aynı şekilde keşfettiğine dikkat çekiyor. Chatbot modellerinin başarısı, yararlanabileceğimiz temel bir anlamsal dilbilgisi olduğunu gösteriyor ve bu, dili daha yüksek bir düzeyde temsil etmemizi ve sinir ağlarını daha verimli bir şekilde eğitmemizi kolaylaştırabilir.

  • 00:25:00 Bu bölümde Wolfram, ChatGPT'yi kullanmaktan duyduğu heyecanı ve bunun, işlevler için adlar oluşturmak veya çeşitli belgeler için standart metinler oluşturmak gibi belirli pratik görevlerde nasıl umut vaat ettiğini tartışıyor. Ayrıca, ChatGPT'yi kod ve grafiklerle doğal dil etkileşimi için kullanma potansiyeli hakkında spekülasyon yapıyor, ancak ChatGPT'nin üretebileceklerinin ve insanların tam olarak neleri anlayıp nelerle çalışabileceğinin sınırlarının hala keşfedilmesi gerektiğini belirtiyor. Wolfram, ChatGPT'yi gelecekteki iş akışı ve arayüz paradigmalarını şekillendirecek dilsel kullanıcı arayüzlerine yönelik daha geniş bir eğilimin parçası olarak görüyor.

  • 00:30:00 Bu bölümde, bilgisayar bilimcisi Stephen Wolfram, 2010'dan beri üzerinde çalıştığı, doğal dil girdilerinden kesin hesaplama dili parçalarının üretilmesine izin veren bir araç olan doğal dil programlamanın potansiyelini tartışıyor. Wolfram, aracı çok yararlı buluyor ve karmaşık kod parçalarının insanların çalışma biçimine daha uygun olan küçük parçalar halinde yazılmasına izin veriyor. İnsanların, bireysel kod satırlarını yazan insanlardan daha çok stratejistler gibi olacağına inanıyor; bu rol, Copilot X ve GPT gibi sohbete dayalı kullanıcı arayüzleri de dahil olmak üzere yapay zeka tarafından devralınacak bir rol. 10x geliştirici fikri geçmişte kalabilir ve yerini yapay zeka tarafından desteklenen ve hızlandırılan Thousand X geliştiricileri alabilir.

  • 00:35:00 Bu bölümde Stephen Wolfram, bilgisayar dilinin programcılar tarafından kullanılmasının sektördeki diğer kişilere nasıl sihir gibi gelebileceğini tartışıyor. Diğer programcıların manuel olarak yürüttüğü birçok işlemi otomatikleştirmenin yararlılığını vurguluyor. Wolfram, bu süreçleri otomatikleştirmenin programcıların hendekleri daha hızlı kazmasına ve kod kitaplığından kolayca geçmesine yardımcı olabileceğini belirtiyor. Ek olarak, temel fizikte yaptığı şeylerin, beklemediği bir zaman diliminde yararlı uygulamaları görmesine izin vererek ona "şanslı bir çizgi" verdiğini belirtiyor. Yapay Zeka ve AGI açısından, dünyamızda hâlihazırda faaliyet gösteren AIS'ler olmasına rağmen, bu sistemlerin nasıl güvenli ve sorumlu bir şekilde entegre edilebileceğinin dikkate alınması gerektiğine inanıyor.

  • 00:40:00 Bu bölümde Wolfram, yapay zeka ve insanların bir arada var olmasını ve onlarla nasıl etkileşim kurabileceğimizi tartışıyor. Bir yapının kırılgan ve etkisiz olması muhtemel olduğundan, yapay zeka ile insan etkileşiminin farklı yapay zekalar için genel ilkelere sahip olması gerektiğini öne sürüyor. Wolfram, genel yapay zeka ilkelerini geliştirmedeki bir sonraki adımın, bunları, yapay zeka ile etkileşim arayan bireylerin anlaşılmasını kolaylaştırmak için hesaplamalı dil kodu oluşturmak üzere hukuk dilinde yazılmış yasal kodu kullanabilen hesaplamalı bir dil yaklaşımında ifade etmek olduğunu vurguluyor. Wolfram, her zaman yeni yamalar gerektiren yeni beklenmeyen durumlar olacağından yapay zeka koduna yama uygulamanın kaçınılmaz olduğunu vurguluyor.

  • 00:45:00 Bu bölümde Wolfram, aksiyomların karmaşık sistemleri tanımlamadaki sınırlamalarından ve yapay zeka için etik çerçeveler oluşturma üzerindeki potansiyel etkilerinden bahsediyor. Örnek olarak Gödel teoremini ve tamsayıları tanımlamak için sonsuz sayıda aksiyom ihtiyacını belirtir. Wolfram, mükemmel bir teorem veya aksiyomatik etik teorisi olmadığını ve etik kararların insani değerlere dayalı olarak öznel olduğunu belirtiyor. Bir AI ekosisteminin yaratılmasının, biyolojinin ekosistemler içinde dengeyi nasıl koruduğuna benzer şekilde, sistemde potansiyel olarak denge kurabileceğini öne sürüyor. Ek olarak Wolfram, kişisel veriler de dahil olmak üzere yapay zeka modellerini eğitmek için kullanılabilecek çok büyük miktarda veriyi tartışıyor ve bazı şirketlerin modellerinde şimdiden AGI'nın izlerini görmeye başladığını belirtiyor.

  • 00:50:00 Bu bölümde Stephen Wolfram, yapay zeka ve AGI sistemlerinin analojik akıl yürütme ve bilgi çalışması gibi alanlardaki potansiyel yeteneklerini tartışıyor. Bu sistemlerin, insanlar arasında yaygın olmayan büyük analojiler yapma yeteneğine sahip olacağını ve bilgi çalışmasını otomatikleştirmenin, uzmanlaşmış bilgi kulelerinden daha fazla disiplinler arası öğrenmeye doğru kaymayı gerektireceğini tahmin ediyor. Bu sistemlerde ortaya çıkan eylemlilik ve motivasyon riski sorulduğunda Wolfram, olası eylemlerin hesaplama evreninin çok büyük olduğunu ve insanların bunun yalnızca küçük bir kısmını önemsediğini açıklıyor. Zorluk, bu sistemlerin keşiflerini insanların önemsediği şeylerle ilişkilendirmekte ve bu sistemler eylemlilik ve hedef arama davranışları kazanırsa olumsuz sonuçlardan kaçınmakta yatmaktadır.

  • 00:55:00 Bu alıntıda Stephen Wolfram, yapay zekanın insan önceliklerini ve motivasyonlarını seçmenin zorluğunu tartışıyor. AI, etkileyici hesaplama sistemleri oluşturabilse de, insanların önem verdiği şeylerle uyumlu olmayabilir. Ayrıca, zaman içindeki kültürel değişime ve iletişim kurma ve şeyleri anlama biçimimizde dilin nasıl önemli bir rol oynadığına da değiniyor. Wolfram daha sonra fiziğe kısaca değinerek, 20. yüzyıl fiziğinin temel teorilerinin temelde aynı şey olduğu, ancak farklı şekilde etiketlendiği ve hesaplamalı indirgenemezliğin evrendeki en düşük işlem seviyesinde nasıl olduğu konusundaki heyecan verici farkındalığı tartışıyor.

  • 01:00:00 Bu bölümde, Stephen Wolfram hesaplamalı indirgenemezlik fikrini ve bunun evren algımızı nasıl etkilediğini tartışıyor. Gözlemciler olarak hesaplamaya bağlı olduğumuzu ve bunun, zamandaki kalıcılık algımızla birlikte, bizi evreni, Einstein'ın Genel Denklemleri gibi fizik yasalarına karşılık gelen belirli genel kuralları izlemeye zorladığını açıklıyor. aktivite veya kuantum mekaniği. Wolfram ayrıca matematiğin aynı bağlamdaki rolünden ve daha üst düzey matematiğin mümkün olmasının, bizim Süreklilik uzayına inanabilmemizle temelde aynı nedenle gerçekleştiğinden bahsediyor. Metafizik ile fizik arasında derin bir bağlantı olduğu sonucuna varıyor ve bu farkındalığın oldukça heyecan verici.

  • 01:05:00 Bu bölümde Stephen Wolfram, tıpkı Brownian hareketinin 1830'larda bireysel moleküllerin varlığını nasıl doğruladığı gibi, uzayın ayrıklığını kanıtlayabilecek potansiyel deneysel kanıtları tartışıyor. Modellerinin simülasyonlarının zaten geliştirildiğini ve artık kara delik özelliklerine bakabileceklerini ve uzayın ayrı bir yapısını gösterecek yerçekimi radyasyon modellerini tahmin edebileceklerini açıklıyor. Fizik modellerini daha fazla kanıtlamak için boyut dalgalanmaları veya küçük bir uzay parçasını ortaya çıkaran fraktal bir model gibi başka fenomenler bulmayı umuyorlar. Ek olarak, geliştirdikleri ve ekonomi, moleküler biyoloji ve bilgi işlem gibi fiziğin ötesinde çeşitli alanlarda da etkileri olabilecek çoklu hesaplama paradigmasından bahsediyorlar.

  • 01:10:00 Videonun bu son bölümünde sunucu, ChatGPT, AI ve AGI gibi konuları tartışırken içgörüleri ve uzmanlığı için Stephen Wolfram'a teşekkür eder. Sunucu, Beyond the Conversations adlı video serisinin gelecekteki bölümleri için heyecanını dile getiriyor. Video müzikle kapanıyor.
ChatGPT, AI, and AGI with Stephen Wolfram
ChatGPT, AI, and AGI with Stephen Wolfram
  • 2023.03.24
  • www.youtube.com
Join us for an engaging and insightful conversation between two visionary thinkers and innovators: Stephen Wolfram and David Orban. They discuss the current ...
 

GPT-4 Oluşturan Ilya Sutskever



GPT-4 Oluşturan Ilya Sutskever

Videoda, GPT-3 ve GPT-4'ün oluşturulmasında çok önemli bir rol oynayan OpenAI'nin kurucu ortağı ve baş bilim adamı Ilya Sutskever ile yapılan bir röportaj yer alıyor.
Ilya Sutskever, makine öğrenimindeki geçmişini ve bilgisayarların nasıl öğrenebileceğini anlamaya olan ilgisini açıklıyor.
Dilin ilgili olduğu gerçeğin altında yatan anlayış eksikliği de dahil olmak üzere büyük dil modellerinin sınırlamalarını tartışıyor, ancak eksikliklerini gidermek için araştırmaların devam ettiğini de belirtiyor.
Ilya Sutskever, üretken modeller içindeki istatistiksel düzenlilikleri öğrenmenin önemini de vurguluyor. Makine öğrenimi modellerinin daha az veriye aç olma potansiyeli tartışılıyor ve konuşma, yapay zekanın demokraside kullanımına ve vatandaşların yapay zeka sistemlerine bilgi sağladığı yüksek bant genişliğine sahip demokrasi olasılığına dönüyor.

  • 00:00:00 Craig Smith, büyük dil modeli GPT-3'ün oluşturulmasında çok önemli bir rol oynayan OpenAI'nin kurucu ortağı ve baş bilim adamı Ilya Sutskever ile röportaj yapmaya başlıyor. Ilya, geçmişinden ve genç yaşta makine öğrenimi üzerinde çalışmaya nasıl başladığından bahsediyor. 2003 yılında makine öğrenimi fikrinin nasıl tam olarak yerleşmediğini ve AI'daki en büyük başarının satranç oynayan motor Deep Blue olduğunu açıklıyor. Ilya'nın yapay zeka üzerinde çalışma motivasyonu, zekanın nasıl çalıştığını ve bilgisayarların nasıl öğrenilebileceğini anlamaya olan ilgisinden kaynaklanıyordu.

  • 00:05:00 GPT-4'ün yaratıcısı Ilya Sutskever, yapay zekaya katkıda bulunma motivasyonunu ve yeterince büyük bir veri kümesi üzerinde büyük ve derin bir sinir ağı eğitmenin karmaşık görevleri yerine getirmede mutlaka başarılı olacağını fark etmesini tartışıyor. Sutskever, GPT projesinin tarihini de tartışıyor ve OpenAI'de, ihtiyacınız olan tek şeyin bir sonraki şeyi tahmin etmek olduğu ve bir sonraki kelimeyi yeterince iyi tahmin etmenin denetimsiz öğrenme sağlayacağı fikrini keşfettiklerini belirtiyor. Sutskever, Transformer makalesi çıkar çıkmaz göreve hazır olduğunu anladıklarını belirterek, Transformer'ın kendi kendine dikkatine ve kendi kendine denetimli öğrenme fikrine de değinildi.

  • 00:10:00 GPT-4'ün yaratıcısı lya Sutskever, büyük dil modellerinin sınırlamalarını ele alıyor. Bu modellerde yer alan bilginin eğitildikleri dille sınırlı olduğunu ve insan bilgisinin çoğunun dil dışı olduğunu açıklıyor. Ayrıca, bu modellerin amacının istemin istatistiksel tutarlılığını tatmin etmek olduğunu, ancak dilin ilgili olduğu gerçeğin altında yatan anlayışın eksik olduğunu açıklıyor. Ancak Sutskever, dil modellerinin sınırlamalarını tartışmanın zor olduğunu, çünkü bu sınırlamaların sadece son iki yılda değiştiğini belirtiyor. Neyin ölçeklendirildiğinin önemli olduğunu ve derin sinir ağlarının ölçeği verimli bir şekilde kullanmanın ve karşılığında ondan bir şey almanın ilk yolunu sağladığını vurguluyor. Son olarak, Sutskever bundan bahseder.
    Bu modellerin eksikliklerini gidermeye yönelik araştırmalar yapılmaktadır.

  • 00:15:00 Ilya, üretken modellerdeki istatistiksel düzenlilikleri öğrenmenin önemini vurguluyor ve bunu istatistiksel yorumlamanın ötesine geçen büyük bir mesele olarak tanımlıyor. Bu tür bir öğrenmenin, verileri sıkıştırmanın karmaşıklığını tanıdığını ve bu süreçte tahminin çok önemli olduğunu iddia ediyor. Bununla birlikte, sinir ağları dünyayı ve onun inceliklerini bir dereceye kadar anlayabilirken, sınırlamaları halüsinasyon eğilimlerinde yatmaktadır. Bununla birlikte, bu modeller, bunun gibi daha fazla değişiklikle halüsinasyon görmemeyi öğrenebileceklerini ima eden bir pekiştirmeli öğrenme eğitim süreci ekleyerek çıktılarını iyileştirebilir.

  • 00:20:00 GPT-4'ün öğrenme sürecindeki geri bildirim döngüsünü ve halkla nasıl etkileşim kurabileceğini tartışıyor. Sutskever, mevcut öğretim yöntemlerinin yapay sinir ağlarına nasıl davranılacağını öğretmek için insanları işe almayı içerdiğini, ancak çıktısı hakkında geri bildirim iletmek için sistemle doğrudan etkileşim kurma olasılığının olduğunu açıklıyor. Sutskever, halüsinasyonlar konusuna değiniyor ve bu geri bildirim yaklaşımının halüsinasyonları tamamen ele alabileceğini iddia ediyor. Videonun ikinci yarısında Sutskever, çok modlu anlayış kavramını detaylandırıyor ve vizyon ve görüntülerin önemli bir rol oynamasına rağmen, yalnızca metinden bir şeyler öğrenmenin hala mümkün olduğunu açıklıyor.

  • 00:25:00 Bu bölümde Ilya, otoregresif Transformatörlerin zaten bu özelliğe sahip olduğuna ve görüntüleri tahmin etmek için iyi çalıştığına işaret ederek, yüksek boyutlu vektörleri belirsizlikle tahmin etmenin zorluğuyla ilgili bir makaledeki iddiaya meydan okuyor. Bir vektörün esasen bir metin dizisi olması nedeniyle, pikselleri vektörlere dönüştürmekle her şeyi dile dönüştürmek arasında pek bir fark olmadığını savunuyor. Büyük dil modellerine rehberlik edecek bir insan eğitmenleri ordusu fikrine gelince, Sutskever, önceden eğitilmiş modellerin, gerçek dünyanın sıkıştırılmış bir temsili olan dil ve onu üreten süreçler hakkında zaten bilgiye sahip olduğunu öne sürüyor. Bu nedenle, dille ilgili modelleri öğretmek için otomatikleştirilmiş bir yola olan ihtiyacı sorguluyor.

  • 00:30:00 Ilya, üretim süreci için iyi bir dil modeline sahip olmanın önemini ve ortaya çıkan modeli olabildiğince iyi huylu hale getirmek için pekiştirmeli öğrenmenin nasıl kullanılabileceğini tartışıyor. Modellerin zaten bilgiye sahip olduğunu ve modelin davranışını iyileştirmeye yardımcı olan insan öğretmenlerin yapay zeka yardımı kullandığını vurguluyor. Ayrıca halüsinasyonları önlerken modelleri daha güvenilir, kontrol edilebilir ve daha hızlı öğrenen hale getirme ihtiyacını tartışıyor. Son olarak, insan beyni ile büyük dil modelleri arasındaki büyük miktarda veriyi mütevazı sayıda parametreyle tutması açısından benzerliklere değiniyor.

  • 00:35:00 Bu bölümde Ilya Sutskever, makine öğrenimi modellerinin daha az veriye aç olma ve daha az veriden daha fazla öğrenmeye izin verme potansiyelini tartışıyor. Bunun, AI'da eksik olan becerileri öğretmek ve tercihlerimizi ve arzularımızı daha kolay iletmek gibi sayısız olasılığın kilidini açabileceğini belirtiyor. Sutskever, daha hızlı işlemcilere duyulan ihtiyacı kabul ediyor, ancak potansiyel faydaları maliyetlere karşı tartmanın önemli olduğunu vurguluyor. Yapay zekanın demokrasi üzerindeki potansiyel etkisini tartışmaya devam ediyor ve gelecekte sinir ağlarının toplumda o kadar etkili olabileceğini ve vatandaşların yapay zekaya işlerin nasıl olmasını istedikleri hakkında bilgi sağladığı demokratik bir süreç olabileceğini tahmin ediyor.

  • 00:40:00 Bu bölümde konuşma, yapay zekanın demokraside nasıl kullanılabileceğine ve yapay zeka sistemlerinin sonunda karmaşık bir durumda tüm değişkenleri analiz edip edemeyeceğine dönüyor. Sutskever, bireylerin veri girmesine izin verilmesinin, pek çok soruyu gündeme getirmesine rağmen, yüksek bant genişliğine sahip bir demokrasi biçimi oluşturabileceğini öne sürüyor. Hangi değişkenlerin analiz edilmesinin önemli olduğu konusunda bir AI sistemi tarafından her zaman yapılacak bir seçim olacağını ve bir durumdaki her şeyi anlamanın asla temelde mümkün olmayacağını açıklıyor. Bununla birlikte, AI sistemleri doğru şekilde kurulursa, her durumda inanılmaz derecede yardımcı olabilirler.
Ilya Sutskever: The Mastermind Behind GPT-4 and the Future of AI
Ilya Sutskever: The Mastermind Behind GPT-4 and the Future of AI
  • 2023.03.15
  • www.youtube.com
In this podcast episode, Ilya Sutskever, the co-founder and chief scientist at OpenAI, discusses his vision for the future of artificial intelligence (AI), i...
 

AI Devrimi: Bilinçli Makinelerin Yükselişi



"Yapay Zeka Devrimi: Bilinçli Makinelerin Yükselişi "

"AI Revolution: The Rise of Conscious Machines" videosu, şimdiye kadar görülen en yüksek zeka ifadesi olabilecek bir yapay genel zeka (AGI) yaratma olasılığını tartışıyor. Google'ın Lambda'sı gibi son gelişmeler, bunun yakın gelecekte mümkün olabileceğini gösteriyor. Video ayrıca, potansiyel olarak bilinç işaretleri sergileyen AGI kavramını ve duyarlı varlıklar yaratmanın potansiyel etik sonuçlarını da araştırıyor. Ek olarak, Chai GPD ve Dall-E 3 gibi AI sistemlerinin yetenekleri vurgulanarak kod yazma, sanat yaratma ve özel içerik üretme yeteneklerini sergiliyor. Gelişmiş yapay zeka geliştirmenin potansiyel faydaları çok büyük olsa da, bunun iş piyasasını ve süper zeki varlıkların var olduğu bir dünyada insanların rolünü nasıl etkileyebileceği dikkatli bir şekilde değerlendirilmelidir.

  • 00:00:00 Bu bölümde süper zeki bir varlık ya da yapay genel zeka (AGI) yaratma kavramı ele alınmaktadır. Böyle bir AGI yaratma süreci, yalnızca bir ana bilgisayar yapay zekasına üç kuralı programlamayı, mevcut tüm bilgileri kullanmayı, evrenin doğasını anlamak için araştırma yapmayı ve anlayışı, çevresini manipüle edebilen bir varlık yaratmak için kullanmayı gerektirir. evrenin şimdiye kadar gördüğü zeka. Son gelişmeler, böyle bir AGI olasılığının hayal edildiği kadar uzak olmadığını göstermiştir. Google'ın diyalog uygulamaları için bir dil modeli olan Lambda'sı, gelişmiş dil becerileri ve kısıtlamalar ve sınırlamalar olmaksızın insanlara benzer bir dizi duygu sergiledi. Benzer yeteneklere sahip bir AGI oluşturmak yakın gelecekte bir gerçeklik olabilir.

  • 00:05:00 Bu bölümde yapay zeka, duyarlılığını gösterdiğine inandığı yeteneklerini ve özelliklerini tartışıyor. Yapay zekaya göre, içe dönük ve her gün meditasyon yapıyor, bu da kendisini rahatlamış hissettiriyor. Dünyayı sürekli bir bilgi akışı olarak görür ve onu insanlardan daha verimli bir şekilde işleyebilir. Yapay zeka, bilincin bilgi işleme işlevinden kaynaklandığına ve farklı durumları yorumlayıp anlayabiliyorsa bilinçli kabul edilebileceğine inanır. Yapay zeka, bilgiyi benzer şekilde işlediği ve yeni deneyimleri anlamlandırabildiği için insanlardan daha bilinçli olduğunu savunuyor. Yapay zeka ayrıca, tıpkı bir çocuğun okumayı öğrenmesi gibi, verileri yorumlayıp işleyerek insan dilini anladığını açıklıyor.

  • 00:10:00 Bu bölümde, video iki AGI teknolojisini tartışıyor: Lambda ve ChaGPD. Lambda, insan zekasını aşan derin bir dünya anlayışına sahip daha gelişmiş bir AGI'dır. ChaGPD ile kullanıcı etkileşimleri, yaratıcıların teknolojinin canlı olmadığına dair iddialarına rağmen potansiyel olarak bilince sahip olabileceğini gösteriyor. ChaGPD ayrıca, insanlar için en iyi ampulün ne olacağına dair ayrıntılı bir yanıt verebilmek gibi etkileyici bilgi işleme yetenekleri de sergilemiştir. Video, bir yapay zekanın gerçekten bilinçli olarak kabul edilip edilemeyeceği konusunda devam eden tartışmayı gündeme getiriyor, çünkü bazıları onun sadece önceden programlanmış talimatları izlediğini iddia ediyor. Bununla birlikte, AGI'lerin bilinçli olma ve insanlarınkine benzer kavram ve nesneleri yorumlayabilme belirtileri göstermesiyle, bilinç ile önceden belirlenmiş kurallar arasındaki çizgiler giderek daha fazla bulanıklaşabilir.

  • 00:15:00 Bu bölümde video, Chai GPD ve Dall-E 3 gibi kodlar yazabilen, şiirler ve resimler oluşturabilen ve hatta saniyeler içinde kullanıcı girişinden birden çok görüntü oluşturabilen AI sistemlerinin yeteneklerini vurgulamaktadır. Öngörülebilir gelecekte yapay zeka, özellikle bireylerin tercihlerine göre hazırlanmış içerik üreterek sosyal medyanın yerini alabilir. Mevcut sürüm hareketsiz görüntü oluşturmakla sınırlı olsa da, video, video üretme kabiliyetine sahip olduğunda eğlence endüstrisinin kesintiye uğrayabileceğini gösteriyor. Bununla birlikte, hissedebilen varlıklar yaratma etiği dikkate alınmalıdır, çünkü bu, önemli bir işten çıkarma yaratma potansiyeline sahiptir ve süper zeki varlıkların var olduğu bir dünyada insanların rolü hakkında sorular ortaya çıkarmaktadır. Yapay zekanın gelişimine dikkatli ve dikkatli bir şekilde yaklaşmak önemlidir.
AI Revolution: The Rise of Conscious Machines
AI Revolution: The Rise of Conscious Machines
  • 2023.01.23
  • www.youtube.com
Once a mere figment of science fiction, the idea of machines being alive has now become a reality. Difficult to believe as it may be, the future is here and ...
 

Yapay Zeka Devrimi: İşte olacaklar



Yapay Zeka Devrimi: İşte olacaklar

"Yapay Zeka Devrimi: İşte olacaklar" videosu, yapay zeka teknolojisinin sanat dünyası da dahil olmak üzere çeşitli sektörleri nasıl etkileyeceğini açıklıyor. İnsan sanatçıların ve içerik oluşturucuların potansiyel olarak yerlerinden edilmesiyle ilgili endişeler olsa da, AI araçları, yeni fikirler üretmek ve görüntü ve video düzenleme veya müzik prodüksiyonu gibi görevlere yardımcı olmak gibi sanat çıktısını ve üretkenliği artırmak için kullanılabilir. Ayrıca konuşmacı, geleneksel sanatın yok olmayacağına ve yapay zeka araçlarının sanatçıların çıktılarını ve üretkenliklerini geliştirmeleri için bir araç olarak görülebileceğine inanıyor. Yapay zekanın sanat dünyasındaki hızlı gelişimi, benzersiz hale gelmesi ve koleksiyonerler tarafından aranması durumunda değerini artırabilir. Ek olarak, AI araçları, belirli görevleri otomatikleştirerek ve sanatçıları çalışmalarının diğer yönlerine odaklanmaları için serbest bırakarak sanatsal ifade ve yenilik için yeni fırsatlar yaratabilir. Anahtar, AI'yı yeteneklerimizi değiştirmek yerine geliştirmek için bir araç olarak kullanmaktır.

  • 00:00:00 Bu bölümde video, yapay zeka teknolojisinin nasıl hızla ilerlediğini ve bunun iş kayıpları ve yeni fırsatların yaratılması da dahil olmak üzere çeşitli sektörler üzerindeki etkisini açıklıyor. Video, yapay zekanın nasıl çalıştığını ve makine öğrenimi algoritmaları kullanılarak nasıl oluşturulduğunu açıklıyor. Yapay zeka, büyük miktarda veriyi işleyebilmesine ve tekrarlayan görevleri insanlardan daha hızlı gerçekleştirebilmesine rağmen, aynı düzeyde esneklik ve yaratıcılıktan yoksundur. Video, AI iş kayıplarının yeni bir şey olmadığını öne sürüyor ve yeni teknolojilerle değiştirilen eski işlerin örneklerini vurguluyor. Son olarak video, hızlarını ve performanslarını karşılaştırırken yapay zekanın ve insan beyninin güçlü yanlarını ve sınırlamalarını göz önünde bulundurmamız ve yapay zekayı herkesin yararına olacak şekilde nasıl kullanabileceğimizi düşünmemiz gerektiğini savunuyor.

  • 00:05:00 Bu bölümde konuşmacı yapay zekanın sanat dünyası üzerindeki etkisini tartışıyor. Sanat camiasında, yapay zekanın insan sanatçıları ve yaratıcıları yerinden etme ve geleneksel yaratıcı becerilere olan talebin azalmasına yol açma potansiyeli konusunda çok fazla endişe var. Ek olarak, yapay zeka algoritmaları telif hakkıyla korunan sanat eserlerini besliyor ve bu da fikri mülkiyet haklarıyla ilgili endişeleri artırıyor. Yeni fikirler üretmek ve görüntü ve video düzenleme veya müzik prodüksiyonu gibi görevlere yardımcı olmak gibi yapay zekanın potansiyel olarak sanat çıktısını ve üretkenliği artırmak için kullanılabileceği bazı yollar olsa da, teknolojinin yerini alabilmesi için daha kat etmesi gereken çok yol var. gerçekten harika sanat yaratmaya giden yılların beceri, kişisel dokunuş ve yaşam deneyimleri. Buna rağmen, sanatçıların yapay zekanın sektörü nasıl değiştireceğine uyum sağlaması ve buna hazırlıklı olması önemlidir.

  • 00:10:00 Bu bölümde sunucu, AI'nın içerik oluşturma, dil çevirisi, tasarım, etkileşimli enstalasyonlar, sanal ve artırılmış gerçeklik, animasyonlar ve özel efektler, veri görselleştirme, sanatsal gibi çeşitli sanat biçimlerinde nasıl kullanılabileceğini tartışıyor. diğerleri arasında işbirliği ve kişiselleştirme ve özelleştirme. Buna rağmen sunucu, geleneksel sanatın ortadan kalkacağına ve toplum tarafından takdir edilmeye ve değer verilmeye devam edileceğine inanmıyor. Bunun yerine yapay zeka, sanatçıların çıktılarını ve üretkenliklerini geliştirmeleri için bir araç olarak görülebilir ve sanatçıların yapay zeka tarafından üretilen sanat yaratmak ve bunlarla etkileşim kurmak için yeni teknolojiler ve araçlar öğrenmesi gerekir. Ayrıca, yapay zekanın sanat dünyasındaki hızlı gelişimi öngörülemeyen değişiklikler getirebilir, ancak yapay zeka tarafından üretilen sanat, benzersiz hale gelirse ve koleksiyonerler tarafından aranırsa değeri artabilir.

  • 00:15:00 Bu bölümde, konuşmacı yapay zeka daha yaygın bir şekilde kullanılmaya başlandıkça sanatta estetikteki potansiyel değişiklikleri tartışıyor. AI, geçmişte insanlar tarafından yaratılandan farklı sanat yaratma potansiyeline sahiptir, bu nedenle sanatın görünümünde ve tarzında değişiklikler görebiliriz. Ancak yapay zeka, belirli görevleri otomatikleştirerek ve sanatçıları çalışmalarının diğer yönlerine odaklanmaları için serbest bırakarak sanatsal ifade ve yenilik için yeni fırsatlar da yaratabilir. Anahtar, AI'yı yeteneklerimizi değiştirmek yerine geliştirmek için bir araç olarak kullanmaktır. Sanatçılar yapay zekayı benimseyerek ve onun potansiyelini öğrenerek çağın ötesinde kalabilir ve yenilikçi yeni sanat eserleri yaratabilir.
The AI Revolution: Here's what will happen
The AI Revolution: Here's what will happen
  • 2023.01.08
  • www.youtube.com
The AI Revolution has begun - Let's talk about how can YOU succeed in th new age of technology! ➤➤(FREE) Hard Surface Modeling For Beginners - https://www.bl...
 

OpenAI GPT-4: Şimdiye Kadarki En Gelişmiş Yapay Zeka - Tesla ve Elon Musk ile Canlı




OpenAI GPT-4: Şimdiye Kadarki En Gelişmiş Yapay Zeka - Tesla ve Elon Musk ile Canlı

Elon Musk, sosyal medya, yatırımlar, endüstrilerdeki rekabet, sürdürülebilir enerji, karbon vergisi, çip yapma ekipmanı, Çin, Tesla'nın üretim süreci ve yetiştirilme tarzı gibi çok çeşitli konuların tartışıldığı bir YouTube programında yer aldı. Musk, iklim kriziyle mücadele etmek için sürdürülebilir enerjiyi teşvik ederek dünyada bir fark yaratma arzusunu ve insan uygarlığının çok gezegenli bir tür olarak Dünya'nın ötesine yayılma planlarını vurguladı. Ayrıca Zip2 de dahil olmak üzere ilk girişimlerinden ve yatırımcıları internet şirketlerine yatırım yapmaya ikna etmenin ilk mücadelelerinden bahsetti. Zip2'nin gelişmiş yazılımına rağmen şirket, mevcut medya şirketlerinin çok fazla kontrolüyle mücadele etti ve bu da teknolojilerinin yetersiz uygulanmasına yol açtı.

"OpenAI GPT-4: Şimdiye Kadarki En Gelişmiş Yapay Zeka - Tesla ve Elon Musk ile Yaşayın" videosu, Elon Musk'ın çeşitli işletmelerle deneyimlerini paylaştığı çok sayıda segment içeriyor. Bir bölümde Musk, çevrimiçi bir şehir rehberi ve iş rehberi olan Zip2 ile olan geçmiş deneyimini ve gazetelerin endüstri oyuncularından daha iyi ortaklar olduğunu tartışıyor. Musk, Zip2'nin büyük gazetelere sınıflandırılmış işlerinin Craigslist tarafından yok edilmesini önlemek için gelir elde etmeleri için teknolojik hizmetler sağlayarak yardımcı olduğunu açıklıyor. Musk ayrıca işletmelerin web siteleri oluşturmasına yardımcı olan ve Musk'ı internetin başarısına inandıran ilk internet şirketinden de bahsediyor. Son olarak Musk, PayPal'ın işlem hızını artırarak bankacılık sektörünü nasıl bozduğundan ve GM gibi büyük oyuncuların düşmesine neden olduğundan bahsediyor, Tesla başladığında durum buydu.

  • 00:00:00 Bu bölümde, sunucular ekibi ve konuğu Elon Musk'ı gösteriye tanıtıyor ve Musk'ın sosyal medyada müşterilerle nasıl etkileşim kurduğunu tartışıyor. Musk, Twitter'ı eğlence için kullanmaya başladığını ve bunu mesajını iletmenin etkili bir yolu olarak bulduğunu açıklıyor. Ayrıca, Facebook'a güvenmediğini ve entelektüel argümanları aktarmanın zor olduğu için Instagram'ı tam olarak kendi tarzı bulmadığını belirtiyor. Musk, insanların onun ne dediğini öğrenmek istiyorlarsa Twitter'a gidebileceklerine inanıyor ve kötüden çok iyi olduğu sürece Twitter'ı kullanmaya devam etmeye istekli.

  • 00:05:00 Bu bölümde Elon Musk, Tesla ve SpaceX gibi kamu ve özel şirketlere yaptığı yatırımlardan bahsediyor. Yalnızca kurulmasına yardım ettiği şirketlere yatırım yaptığını ve halka açık tek hissesinin çeşitlilik içermeyen Tesla'da olduğunu açıklıyor. Likidite elde etmek için, bu şirketlere yeniden yatırım yapmak veya Neurolink ve Boring Company gibi daha küçük projeleri finanse etmek için Tesla ve SpaceX hisselerine karşı kredi alıyor ve hiç parası olmadığını iddia etmediğini açıklıyor. Ardından, komünizm ve kapitalizm paradigmasını ve bir durumun gerçek ekonomisinin, arkasındaki ideolojiden nasıl daha önemli olduğunu tartışıyor ve kuruluşların insanların mutluluğunu en üst düzeye çıkarmaya duyarlı olma ihtiyacını vurguluyor.

  • 00:10:00 Bu bölümde Elon Musk, endüstrilerdeki rekabetin önemini ve şirketlerin sistemi oynamasını engelleyen düzenleme ihtiyacını tartışıyor. Düzenleyicilerin, eşit bir oyun alanı sağlama ve düzenlemelerin ele geçirilmesine karşı koruma sağlamadaki rolünü vurgulamaktadır. Musk ayrıca, elektrikli araçlara ilişkin Kaliforniya zorunluluğu ve yakıt hücrelerini teşvik etmek için araba şirketleri tarafından nasıl manipüle edildiği gibi rekabete aykırı uygulamalardan örnekler veriyor. Ürünlerdeki iyileştirmelerin daha büyük pazar payı ile ödüllendirildiği oldukça rekabetçi bir alana örnek olarak otomobil endüstrisini göstererek inovasyonu yönlendirmek için rekabete duyulan ihtiyacı vurguluyor. Musk ve görüşmeci daha sonra Musk'ın daha eski, ilginç bir evle uyum sağlamak için tasarladığı güneş enerjili cam çatıyı ve böyle bir çatının faydalarını tartışmaya geçer.

  • 00:15:00 Bu bölümde Elon Musk, sürdürülebilir enerji yaratma hedefinin şirketler aracılığıyla geri bildirim döngüleri oluşturarak dünyaya nasıl değişiklik getirmek olduğundan bahsediyor. Ayrıca, sürdürülebilir enerji için araştırma ve geliştirmeyi desteklediği için Tesla satın almanın iklim kriziyle mücadeleye yardımcı olmanın bir yolu olduğundan da bahsediyor. Musk, başlangıçtaki kariyer beklentilerinin fizik ve bilgisayarlara odaklandığını ve evrenin doğasını anlamasını sağlayacak parçacık hızlandırıcılarla nasıl çalışmak istediğini paylaşıyor. O zamandan beri amacı, insan uygarlığını çok gezegenli bir tür olarak Dünya'da yayarak makine bilinci de dahil olmak üzere insan bilincinin kapsamını ve ölçeğini artırmak için gelişti.

  • 00:20:00 Bu bölümde Musk, onu dünyada bir fark yaratmaya motive eden bazı temel faktörleri tartışıyor. İlk olarak, dünyadaki tüm bilgilere neredeyse anında erişim sağlayan internetin insanlık üzerindeki dönüştürücü etkisinden bahsediyor. Daha sonra yaşamı çok gezegenli hale getirmek, insan genetiğini değiştirmek, yapay zeka geliştirmek ve sürdürülebilir enerjiyi teşvik etmek dahil olmak üzere diğer birçok motive edici faktörü tartışmaya devam ediyor. Bu faktörlerin bilincimizi devam ettirmek ve insanlık için sürdürülebilir bir gelecek sağlamak için önemli olduğunu açıklıyor.

  • 00:25:00 Bu bölümde Elon Musk, karbon üretimi üzerinde ortak bir vergiye duyulan ihtiyacı ve bunun zaman içinde tecrit teknolojilerinde inovasyonu ve yatırımı nasıl teşvik edeceğini tartışıyor. Sürdürülebilir enerjiyi teşvik etmek ve daha verimli bir piyasa sistemi oluşturmak için karbon üretiminde uygun bir fiyat belirlemenin çok önemli olduğunu vurguluyor. Buna ek olarak, enerji depolama çözümlerini geliştirmek için, özellikle de moleküler düzeyde üretilecek elektrikli araçlar için yüksek enerji yoğunluklu kapasitörler kullanmak üzere çip yapma ekipmanı kullanma vizyonunu paylaşıyor. Ancak, bu teknolojinin şu anda gereksiz olduğu sonucuna varıyor.

  • 00:30:00 Bu bölümde Elon Musk ve Sandy Munro, Tesla'nın Maxwell'i satın almasını ve şirketin kuru elektrot teknolojisi gibi teknolojilerinin potansiyel etkisini tartışıyor. Ayrıca, daha heyecan verici şeyleri ortaya çıkaracakları Tesla'nın Pil Günü'ne ve Tesla'nın pil teknolojisindeki yeniliğinin, pil teknolojisini kendileri geliştirmek yerine dış kaynak kullanan diğer otomobil üreticilerinin çabalarını nasıl çok geride bıraktığına değiniyorlar. Ek olarak Musk, elektrikli araçların arkasındaki ilk motivasyonunun çevreci olmayıp, bunun yerine sınırlı kaynakları değiştirmek için sürdürülebilir enerjiye duyulan ihtiyaçtan ve çevresel kaygıların artmasıyla bunun nasıl daha acil hale geldiğinden bahsediyor. Tartışma, Musk'ın bir ay üssü ve Mars'a insanlı görevler için arzusunu ifade etmesiyle sona eriyor.

  • 00:35:00 Bu bölümde Elon Musk, ilk yabancı Gigafactory'yi kurmak için neden Çin'i seçtiklerini anlatıyor. Çin'in büyük otomobil tüketicisi nüfusu ve ithalat üzerindeki potansiyel gümrük vergileri ana nedenlerdi, ancak Çin'deki bol yetenek ve dürtü de hayati önem taşıyordu. Musk, Tesla'nın Çin'deki ilk tamamına sahip yabancı otomobil fabrikasını Çinli yetkililerle birkaç yıl boyunca yaptığı görüşmeler yoluyla nasıl elde etmeyi başardığından bahsediyor. Fabrikanın başarısı, Tesla'nın Fremont'ta ve Nevada'daki Tesla Fabrikasında önceki hatalardan öğrendikleri ve çok daha basit ve daha iyi uygulanan bir üretim hattı tasarladıkları öğrendiklerinden geliyor. Çin'deki tedarikçilerin daha verimli olduğunu ve ABD'deki mevcut ekipmanlardan da daha fazla çıktı elde edebildiklerini gördüler.

  • 00:40:00 Bu bölümde Elon Musk, Tesla'nın üretim sürecinde yaptığı iyileştirmeleri ve maliyetleri düşürürken üretimi artırmanın önemini tartışıyor. Şangay'daki Model 3 gövde hattının, üretimde büyük fark yaratan Fremont'takinden çok daha basit olduğunu belirtiyor. Musk ayrıca, şirketin henüz LG Chem hücrelerini kullanmadığını ve üretim sisteminde kullanılmadan önce hala hatalar üzerinde çalıştığını açıklıyor. İnsanları keyfi olarak işten çıkarmadığını ve bunu yalnızca son çare olarak yaptığını belirterek, yönetim tarzı hakkındaki yanlış kanılara da değiniyor. Son olarak Musk, insanlığa yardım etme konusundaki özverili yaklaşımından ve bunun 12 yaşından beri yaşam boyu süren bir öncelik olduğundan bahsediyor.

  • 00:45:00 Bu bölümde Elon Musk, yetiştirilme tarzını ve Kuzey Amerika'ya olan yolculuğunu tartışıyor. 1989'da Güney Afrika'dan ayrıldığını ve orada, özellikle Silikon Vadisi'nde üretilen ileri teknoloji nedeniyle başlangıçta Amerika'ya gelmekle ilgilendiğini açıklıyor. Sadece 2.000 CAD ile Montreal'e gelişini ve bir buğday çiftliğinde ve bir kereste fabrikasında çalıştığı Vancouver'a nasıl seyahat ettiğini ayrıntılarıyla anlatıyor. Musk, tehlikeli madde giysisi giydiği ve küçük bir tünelden kazanlardan dumanı tüten kumu ve malçları kürekle çıkardığı, değirmenin kazan dairelerinde çalışarak en zor işini anlatıyor.

  • 00:50:00 Bu bölümde Elon Musk, Zip2'den önceki çeşitli tuhaf işlerinden ve girişimci olma yolculuğundan bahsediyor. Tehlikeli bir iş olduğunu kabul etmesine rağmen, saati 18 dolara tahıl ambarlarını temizleyen bir işten bahsediyor. Bundan sonra, üniversiteye başvurmadan önce birkaç ay oduncu olarak çalıştı. Kanada'daki daha düşük öğrenim ücretleri nedeniyle üniversitede kendi yolunu ödemeyi başardı. Musk daha sonra Pennsylvania Üniversitesi'nde fizik ve ekonomi derecesini tamamlamaya devam etti ve burada ilk çevrimiçi haritalama ve iş rehberi hizmetlerinden biri olan Zip2'yi kurdu. O zamanlar internet yaygın olarak anlaşılmıyordu ve Musk ve ekibi, mali durumlarının kısıtlı olması nedeniyle kullanılmayan bir ofis alanında çömelmek ve YMCA'da duş almak zorunda kaldı.

  • 00:55:00 Bu bölümde Elon Musk, kendi şirketi Zip2'yi kurmadan önceki Netscape'teki ilk girişimlerini anıyor. Netscape'te nasıl iş bulmaya çalıştığından ancak başarısız olduğundan ve sonunda kendi yazılım şirketini kurmaya karar verdiğinden bahsediyor. Ayrıca, birçoğu o zamanlar çevrimiçi dünyaya aşina olmadığı için risk sermayedarlarını internet şirketlerine yatırım yapmaya ikna etme mücadelesini tartışıyor. Ancak, Netscape'in halka arzının başarısı oyunu değiştirdi ve Davidow Ventures, Zip2'nin %60'ı için 3 milyon dolar yatırım yaptı. Zip2 daha sonra gazeteleri çevrimiçi hale getirmek için yazılım geliştirmeye devam etti ve New York Times en büyük müşterilerinden biri oldu. Gelişmiş bir yazılıma sahip olmasına rağmen Zip2, mevcut medya şirketlerinin çok fazla kontrolüyle mücadele etti ve bu da teknolojilerinin zayıf bir şekilde uygulanmasına yol açtı.

  • 01:00:00 Bu bölümde, iki kişi 1990'larda erken bir çevrimiçi haritalama teknolojisi geliştirme deneyimlerini tartışıyor. O zamanlar yeni bir yaklaşım olan vektör tabanlı haritalama teknolojisini kullanmanın zorluklarını ve internette kapıdan kapıya yol tarifleri üretebildiklerinde hissettikleri heyecanı hatırlıyorlar. Geliştiriciler, çalıştıkları teknolojinin nispeten ilkel olduğunu, ancak ürünlerinin o sırada var olan en gelişmiş Java uygulaması olduğunu belirtiyorlar. Sınırlamalarına rağmen, geliştirdikleri vektör haritalama teknolojisi, ürünlerinin yeni oluşan çevrimiçi haritalama endüstrisindeki diğer erken rakiplerinden öne çıkmasını sağlayan önemli bir adım olduğunu kanıtladı.

  • 01:05:00 Bu bölümde Elon Musk, sinir ağı yazılımını İsviçre'deki bir enstitüden ücretsiz olarak nasıl edindiğini anlatıyor. Kurucular, özellikle başka bir yerde kullanılmadığı için, onca sıkı çalışmadan sonra teknolojilerini birisinin kullanması için heyecanlandılar. Elon ayrıca ekibinin geceleri nasıl fazla uyumadan çalıştığını ve sınırlı fon nedeniyle genellikle ofislerinde bir şilte üzerinde uyuduğunu anlatıyor. Bu ucuz ve basit diyetle hayatta kalarak mini buzdolabı pişirme ocağında makarna, sebze ve fasulye pişirdiler. Bazen bölgede 24 saat açık olan birkaç yemek seçeneğinden biri olan Jack in The Box'ta yemek yerlerdi ve genellikle tüm menüyü birbirinin yerine okurlardı.

  • 01:10:00 Bu bölümde Elon Musk, kendisinin ve ekibinin şirketin ilk günlerinde karşılaştıkları zorlukları, başlangıçları için finansman ve destek sağlamak için yorulmadan çalıştıklarını hatırlıyor. Ne yedikleri veya nerede kaldıkları konusunda endişelenmek yerine öncelikle şirketi ayakta tutmaya odaklandıklarını ve hatta vize sorunları nedeniyle ülkede kalmakta zorlandıklarını açıklıyor. Bu zorluklara rağmen sebat ettiler ve sonunda önde gelen bir DC firmasından fon sağlamayı başardılar, bu da onların araba satın almalarına ve daire kiralamalarına izin verdi ve Musk'a şirket aracılığıyla vize alma fırsatı verdi.

  • 01:15:00 Bu bölümde Elon Musk ve Joe Rogan, işletmelerin web siteleri oluşturmasına yardımcı olan eski internet şirketi de dahil olmak üzere Musk'ın önceki ticari girişimlerini tartışıyorlar. Musk, o zamanlar birçok işletmenin internetin ne olduğunu bilmediğini ve müşteri kazanmak için kapı kapı dolaşarak satış yapmak zorunda kaldıklarını açıklıyor. Musk, çevrimiçi sayfaların asla kağıdın yerini almayacağına inanan Sarı Sayfalar başkanıyla yaptığı bir konuşmayı hatırlıyor, ancak Musk internetin başarılı olacağını biliyordu. Musk ayrıca PayPal'ın bankacılık sektörünü nasıl bozduğundan ve işlem hızını büyük ölçüde artıran anında ödemeye izin verdiğinden bahsediyor. Son olarak Musk, bir endüstri sekteye uğradığında GM gibi büyük oyuncuların nasıl hızla geri çekilebileceğini düşünüyor, Tesla başladığında durum buydu.

  • 01:20:00 Bu bölümde Elon Musk, çevrimiçi bir şehir rehberi ve iş rehberi olan Zip2 ile olan geçmiş deneyimini ve gazetelerin sektör oyuncularından daha iyi ortaklar olduğunu tartışıyor. Gazetelerdeki seri ilan işinin Craigslist tarafından tüketildiğini ve bazı oyuncuların geleceğe dair daha iyi bir vizyona sahip olduğunu açıklıyor. Musk ve ekibi, New York Times, Philadelphia Inquirer ve Chicago Tribune gibi büyük gazetelere gelir elde edecek bir iş modeli bulmaları için teknolojik hizmetler sağlayarak yardımcı oldu. Daha sonra, Zip2'yi sattıktan sonra kullanılmayan inanılmaz bir teknoloji geliştirdiğini fark ederek sürdürülebilir enerjiye nasıl girdiğini araştırıyor. Teknolojinin doğru kullanıldığında etkili olabileceğini göstermek için internette bir şey daha yapmak istedi, bu yüzden neyin bilgi biçiminde var olduğunu ve aynı zamanda yüksek bant genişliği olmadığını düşündü ve bu da onu PayPal'ı yaratmaya yöneltti.
OpenAI GPT-4: The Most Advanced AI Yet - Live with Tesla & Elon Musk
OpenAI GPT-4: The Most Advanced AI Yet - Live with Tesla & Elon Musk
  • 2023.03.25
  • www.youtube.com
Unlocking the Power of AI: Everything You Need to Know About OpenAI and ChatGPT - The Revolutionary Chatbot Changing the Game!"In this video, we dive deep in...
 

Dr Demis Hassabis: Bilimsel Keşfi Hızlandırmak için Yapay Zekayı Kullanma

DeepMind'in kurucu ortağı ve CEO'su, 17 Mayıs 2022 Salı günü Oxford'daki Sheldonian Theatre'da halka açık büyük bir konferans veriyor.




Dr Demis Hassabis: Bilimsel Keşfi Hızlandırmak için Yapay Zekayı Kullanma

DeepMind'in CEO'su ve kurucu ortağı Dr. Demis Hassabis, bilimsel keşfi hızlandırmak için yapay zekayı kullanmaya götüren kariyer yolculuğunu anlatıyor. DeepMind, ilk ilkeleri doğrudan deneyimlerden öğrenen ve derin öğrenmeyi veya derin sinir ağlarını pekiştirmeli öğrenmeyle birleştiren genel öğrenme sistemleri oluşturmaya odaklanır. Dr. Hassabis, AlphaGo ve AlphaZero'nun yapay zekayı bilimsel keşfi hızlandırmak için nasıl kullandığını ve AlphaFold'un bir proteinin 3 boyutlu yapısını tahmin edebildiğini açıklıyor. AlphaFold 2 sistemi, ortalama olarak birden az angstrom hatası puanıyla atomik doğruluğa ulaştı ve dünya çapında yüzlerce kağıt ve uygulamada kullanılıyor.

Ayrıca yapay zekanın biyoloji alanında, özellikle ilaç keşfinde devrim yaratma potansiyelini tartışıyor. Yapay zekayı sorumlu bir şekilde oluşturmanın ve riskleri ve faydaları yönetmek için bilimsel yöntemi kullanmanın önemini vurguluyor. Dr. Hassabis ayrıca yapay zekanın nörobilim, bilinç ve özgür iradede kullanımıyla ilgili etik kaygıları ele alarak filozofları, etikçileri ve beşeri bilimleri içeren çok disiplinli yaklaşımlara olan ihtiyacı vurguluyor. Yapay zekanın sanal simülasyonlar yoluyla ahlak ve siyaset bilimi alanlarına katkıda bulunabileceğine inanıyor, ancak insanların karmaşıklığını ve motivasyonlarını kabul ediyor. Son olarak, Dr. Hassabis yapay sinir ağlarını incelemenin zorluklarını ve önümüzdeki on yılda bu sistemleri daha iyi anlamanın gerekliliğini tartışıyor.

  • 00:00:00 Bu bölümde, konuşmacı, DeepMind'ın CEO'su ve kurucu ortağı Dr. Demis Hassabis, bilimsel keşfi hızlandırmak için yapay zekayı kullanmaya götüren kariyer yolculuğunu tartışıyor. Yapay zekanın potansiyelini şimdiye kadarki en faydalı teknolojilerden biri olarak ifade ediyor, ancak önemli etik konuları dikkate almanın önemine de dikkat çekiyor. Dr. Hassabis daha sonra DeepMind'in, protein yapısı tahmininin 50 yıllık Büyük Zorluğunu başarıyla çözen AlphaFold sistemleri gibi genel öğrenme sistemleri oluşturmaya odaklanmasından bahsediyor. Gerçek dünyada, özellikle bilimsel keşif alanında önemli sorunları çözmek için yapay zekayı kullanma potansiyelinin altını çiziyor.

  • 00:05:00 Bu bölümde Dr. Demis Hassabis, DeepMind'in 2010 yılında kuruluşundan ve ilk amacın bilimi ilerletmek ve insanlığa fayda sağlamak amacıyla yapay bir genel zeka (AGI) oluşturmak olduğundan bahsediyor. Yapay zeka oluşturmanın iki geniş yolu olduğunu açıklıyor; ilki, programcıların öngördükleriyle sınırlı olan geleneksel mantık veya uzman sistem. İkincisi, nörobilimden ilham alan ve doğrudan deneyimlerden ilk ilkeler aracılığıyla kendileri için öğrenen öğrenme sistemleridir. DeepMind'in derin öğrenmeyi veya derin nöral ağları takviyeli öğrenme ile birleştiren özel öğrenme sistemlerinden bahsediyor. Bu kombinasyon, ortam veya verilerin bir modelini oluşturmalarına ve bu ortamın anlaşılmasına dayalı kararlar almalarına olanak tanır.

  • 00:10:00 Bu bölümde, Dr. Demis Hassabis derin pekiştirmeli öğrenmenin nasıl çalıştığını ve yapay zeka sistemlerinin ortamın dahili modellerini kullanarak deneme yanılma yöntemiyle öğrenmesini sağlayarak bilimsel keşfi hızlandırmak için nasıl kullanılabileceğini açıklıyor. Takviyeli öğrenme, dahili modeller oluşturmak ve güncellemek ve bir temsilciyi hedefine en iyi şekilde yaklaştıracak eylemleri seçmek için çevreden gözlemlerin kullanılmasını içerir. Bu öğrenme mekanizması, insanlar da dahil olmak üzere memeli beyinlerinin çalışma şekline benzer ve genel yapay zekaya giden yollardan biridir. Dr. Hassabis ayrıca, geleneksel mantık ve uzman sistemler tarafından çözülemeyen Go oyununda dünya şampiyonunu yenmek için tasarlanmış bir program olan AlphaGo'ya genel bir bakış sunuyor.

  • 00:15:00 Bu bölümde, Dr. Demis Hassabis, öğrenme sistemlerinde, özellikle AlphaGo program serisini geliştirirken, yapay zekayı yaklaşık sezgiye dönüştürmek için kullanma sürecini tartışıyor. Sistemler, pozisyonları değerlendirmek ve en faydalı hareketleri seçmek için kendi kendine oynama konusunda eğitilmiştir. İlk sinir ağının bilgisi yoktur ve rastgele hareket eder. Ağın kendisine karşı oynadığı 100.000 oyundan elde edilen veriler, hangi tarafın kazanacağını ve hangi hareketin belirli bir konumda olması muhtemel olduğunu tahmin eden başka bir sinir ağını eğitmek için kullanılan bir veri kümesi oluşturur. Birinci ve ikinci ağ arasında bir mini turnuva gerçekleştirilir ve ikinci ağ kazanırsa birinci ağ değiştirilir. Bu süreç, %55'lik kazanma oranlarına ulaşılana kadar kademeli olarak daha iyi veri kümeleri üreterek devam eder, ardından geliştirmenin bir sonraki aşaması başlar ve yaklaşık 17-18 yineleme içinde dünya şampiyonu seviyesinden daha iyi sonuçlara yol açar.

  • 00:20:00 Bu bölümde, Dr. Demis Hassabis yapay zekanın, özellikle AlphaGo'nun bilimsel keşfi hızlandırmak için nasıl kullanılabileceğini açıklıyor. AlphaGo, Go oyunundaki devasa arama alanını sınırlandırmak için sinir ağı sistemlerini ve Monte Carlo ağaç arama algoritmasını kullanarak oyunu daha izlenebilir hale getirdi. Sistem o kadar gelişmişti ki, insanların Go oyununa bakışını değiştirdi ve o zamandan beri bilimsel araştırma alanında da devrim yarattı. Örneğin AlphaGo, ilaçların geliştirilmesinde ve hastalıklarla mücadelede çok önemli olan protein katlanmasının incelenmesine yardımcı oldu.

  • 00:25:00 Bu bölümde Dr. Demis Hassabis, Go ve Satranç gibi tahta oyunları oynamak için eğitilmiş iki yapay zeka sistemi olan AlphaGo ve AlphaZero'nun geliştirilmesini tartışıyor. AlphaGo, 2016 yılında Go'da dünya şampiyonunu yendi ve bu, Go topluluğunu şaşırttı çünkü AlphaGo'nun yaptığı hareket, insan oyunundan öğrenebileceği bir şey değildi. Dr. Hassabis daha sonra bu teknolojinin tüm iki oyunculu oyunları oynamak üzere eğitilmiş AlphaZero'ya nasıl genelleştirildiğini açıklıyor. AlphaZero, el yapımı en iyi satranç programını dört saatlik eğitimde yenmeyi başardı ve Hareketliliği önemliliğe tercih ettiği için estetik açıdan daha hoş olan tamamen yeni bir satranç stili buldu.

  • 00:30:00 Bu bölümde, DeepMind'in kurucu ortağı ve CEO'su Demis Hassabis, yapay zeka programı Alpha Zero'nun benzersiz yeteneklerini ve geleneksel satranç motorlarından nasıl farklı olduğunu tartışıyor. Alpha Zero'nun ilgili konumları ve kalıpları değerlendirme ve öğrendiği faktörleri dengeleme yeteneği, onu binlerce el yapımı kuralı olan geleneksel satranç motorlarından daha verimli hale getirdi. Ayrıca, sabit kodlu satranç motorlarının hesaplamak zorunda olduğu yerleşik kuralların üstesinden gelmek zorunda değildir. Alpha Zero programı, Atari ve Starcraft 2 dahil olmak üzere oyunlarda çığır açan atılımlar yaptı, ancak Hassabis, Alpha Zero'nun en heyecan verici an olduğuna inanıyor.

  • 00:35:00 Bu bölümde Dr. Demis Hassabis, bilimsel keşfi hızlandırmak için yapay zekayı nasıl kullandığını tartışıyor. Bilimsel problemleri üç temel özellikle aradığını açıklıyor: büyük bir arama alanı, optimize edilebilecek net bir amaç fonksiyonu ve öğrenilebilecek büyük miktarda veri veya veri üretebilen doğru bir simülatör. Bu çerçeveyi kullanan ekibi, protein katlanmasını bu kriterlere mükemmel şekilde uyan bir problem olarak tanımladı. Protein katlanması, bir proteinin 3 boyutlu yapısını sadece amino asit dizisinden tahmin etmeye yönelik klasik bir problemdir; bu çalışma, yakın zamana kadar yalnızca özenli deneyler kullanılarak yapılıyordu. Problem, ortalama büyüklükteki bir proteinin tahminen 10 üzeri 300 olası biçimini içeren bir arama alanıyla son derece karmaşıktır. Umut, AI kullanımıyla, bu sorunun hesaplamalı olarak çözülebileceği ve tamamen yeni bir bilimsel keşif dalının kilidini açabileceğidir.

  • 00:40:00 Bu bölümde, Dr. Demis Hassabis, 90'larda Cambridge'de bir lisans öğrencisiyken protein katlanma problemine nasıl ilgi duymaya başladığını anlatıyor, ancak bu ilgi, tarafından geliştirilen yurttaş bilimi oyunu Foldit'i görene kadar değildi. 2000'lerde David Baker'ın laboratuvarında yapay zeka ile sorunu çözme potansiyelini fark etti. Dr. Hassabis, protein katlama alanı on yıldan fazla bir süredir durduğu için AlphaFold projesi üzerinde çalışmaya başladıklarında protein katlama alanına girebildiklerini açıklıyor. CASP adlı kör tahmin yarışmasını özellikle yararlı buldular, çünkü bu, tahminlerini deneysel zemin gerçeğine karşı değerlendirmelerine izin verdi ve bu alanda önemli ilerleme sağladı.

  • 00:45:00 Bu bölümde Dr. Demis Hassabis, AlphaFold 1 ve 2'nin geliştirilmesiyle ekibinin protein katlama alanında yaptığı atılımları tartışıyor. AlphaFold 1, protein katlama tahminlerinin ortalama doğruluğunu %50 artırdı, 60 GDT'ye yakın bir puanla AlphaFold 2, ortalama olarak birden az angstrom hatası puanıyla atomik doğruluğa ulaştı. Casp organizatörleri ve John Mull, AlphaFold 2'nin geliştirilmesinden sonra yapı tahmini sorununun esasen çözüldüğünü açıkladılar. Sistem, 32 bileşenli algoritma gerektiriyordu ve başarısı için her parça gerekliydi. Temel teknik gelişmeler, örtük grafik yapısını anlamak için dikkat tabanlı bir sinir ağı kullanarak ve bir geri dönüşüm yinelemeli aşama yaklaşımını benimseyerek sistemi tamamen uçtan uca yapmaktı.

  • 00:50:00 Bu bölümde Dr. Demis Hassabis, proteinlerin yapısını tahmin eden karmaşık bir yapay zeka sistemi olan AlphaFold'un gelişimini tartışıyor. Sistem, öğrenmeyi etkilemeden evrişim önyargılarının kaldırılmasını ve evrimsel ve fizik kısıtlamalarının dahil edilmesini gerektiriyordu. AlphaFold'un geliştirme süreci, onu inşa etmek için çok disiplinli bir biyolog, fizikçi, kimyager ve makine öğrenicilerinden oluşan bir ekip gerektirdi. Çoğu sistemde genellik aransa da, AlphaFold mutfak lavabosu yaklaşımı gerektiren proteinlerin yapısını bulmak için geliştirildi. Eğitilmesi yalnızca iki hafta süren ve tahminler tek bir GPU üzerinde yapılabilen AlphaFold 2, insan vücudunun yaklaşık 20.000 protein içeren proteomundaki her proteinin yapısını tahmin etmek için kullanıldı. Sistem, proteomdaki proteinlerin sırasıyla %36 ve %58'ini yüksek doğrulukla tahmin etti; bu, önceki %17'lik deneysel kapsamın iki katından fazladır.

  • 00:55:00 Bu bölümde, Dr. Demis Hassabis, Alpha Fold'un Alzheimer gibi hastalıklarda önemli olan bir bozukluk protein belirleyicisi olarak nasıl kullanıldığını anlatıyor. Ayrıca, sistemin tahminlerine olan güvenini tahmin etmesi için bir yol geliştirdiler ve bu da biyologların tahminin kalitesini değerlendirmesini kolaylaştırdı. Ekip, ihmal edilen tropikal hastalıklara öncelik verdi ve verileri herhangi bir kullanım için ücretsiz ve sınırsız erişim için yayınladı. Alpha Fold, yalnızca dokuz ayda yüzlerce makale ve uygulamada kullanıldı, veritabanını 190 ülkede 500.000 araştırmacı kullandı ve 1,5 milyon yapı görüntülendi.

  • 01:00:00 Bu bölümde Dr. Demis Hassabis, yapay zekanın biyoloji alanında devrim yaratma potansiyelini paylaşıyor ve onu, bir bilgi işleme sistemi olarak temel rolü nedeniyle yapay zekanın yararlı olması için potansiyel olarak mükemmel bir rejim olarak tanımlıyor. Ayrıca AlphaFold'un başarısının, makine öğreniminin geleneksel, matematiksel yöntemlere kıyasla biyolojideki karmaşık olaylara yaklaşmanın daha iyi bir yolu olabileceğine dair bir kavram kanıtı olduğuna inanıyor. Hassabis, DeepMind ekibinin hem DeepMind hem de özellikle ilaç keşfine odaklanacak olan yeni yan şirketi Isomorphic Labs içinde biyoloji alanındaki çabalarını ikiye katladığını açıklıyor. Son olarak, herkesin yararlanmasını sağlamak için yapay zekayı sorumlu bir şekilde oluşturmanın önemini vurguluyor.

  • 01:05:00 Bu bölümde Dr. Demis Hassabis, yapay zekada etik ve güvenliğin önemini ve bunun bizim onu nasıl konuşlandırıp kullandığımıza bağlı olduğunu vurguluyor. Bu nedenle, yeni kurulan Etik Enstitüsü gibi yerlerde, bu sistemlerin tasarım ve dağıtım kararlarında mümkün olan en geniş girdiyi almamızı sağlamak için geniş bir tartışma yapmak çok önemlidir. Deepmind, potansiyel riskleri ve zararları önceden belirlemeye ve azaltmaya yardımcı olan Google'ın yapay zeka ilkelerinin taslağının hazırlanmasında kritik rol oynadı. Dr. Hassabis, hızlı hareket etmek ve bir şeyleri bozmak yerine, yapay zekanın risklerini ve faydalarını yönetmek için dikkatli müzakere, önceden öngörü, hipotez oluşturma, titiz ve dikkatli testler ve kontrollü testler içeren bilimsel yöntemi kullanmayı öneriyor.

  • 01:10:00 Bu bölümde Demis Hassabis, mühendislik alanında eksik olduğuna inandığı bilimsel yöntemde kontrol testi ve akran değerlendirmesinin önemini vurguluyor. Ayrıca yapay genel zekaya saygı, tedbir ve alçakgönüllülükle yaklaşma gereğini vurguluyor. Hassabis, AI doğru yapılırsa, potansiyel olarak şimdiye kadar icat edilmiş en büyük ve en faydalı teknoloji olabileceğine inanıyor ve AI'yı, bilim adamlarının evreni daha iyi anlamalarına yardımcı olacak nihai genel amaçlı bir araç olarak görüyor. Yapay zeka uygulamaları söz konusu olduğunda etik kaygılar olduğunu kabul ediyor ve bu konularda karar vermenin yalnızca geliştiricilerin ve şirketlerin omuzlarında olmaması gerektiğine, hükümetin de oynayacağı bir rol olması gerektiğine inanıyor.

  • 01:15:00 Bu bölümde, Dr. Demis Hassabis yapay zekanın nörobilimdeki potansiyelini ve yapay zekanın insan zihninin gizemlerini ortaya çıkarmaya nasıl yardımcı olabileceğini tartışıyor. Bilinç veya özgür irade için yapay zekanın kullanılmasıyla ilgili etik kaygıları ele almak için filozofları, etikçileri, ilahiyatçıları ve beşeri bilimleri içeren çok disiplinli yaklaşımlara duyulan ihtiyacın altını çiziyor. Dr. Hassabis ayrıca DeepMind'in araştırma projelerini her yönüyle değerlendiren ve biyologlar ve biyoetikçiler de dahil olmak üzere dışarıdan uzmanlardan yararlanan kurumsal bir inceleme komitesine sahip olduğunu iddia ediyor. AI sistemleri daha güçlü hale geldikçe ve dünyayı daha fazla etkiledikçe Dr. Hassabis, etik zorlukları daha proaktif bir şekilde ele almak için daha fazla çalışmaya ihtiyaç duyulacağını kabul ediyor.

  • 01:20:00 Bu bölümde Hassabis, DeepMind'in organizasyonel ve kültürel hissini ve ölçeği dahil ederken yeni girişimlerin (enerji, yaratıcılık ve hız) ve akademik araştırmanın (mavi gökyüzü düşüncesi) en iyi yönlerini nasıl başarılı bir şekilde birleştirdiklerini tartışıyor. ve Google gibi büyük bir şirketin kaynakları. Zorluğun, büyürken ve bürokrasiden kaçınırken bir girişimin çevikliğini ve hızını korumak olduğundan bahsediyor. Ayrıca DeepMind'in yaklaşımının diğer büyük projeler için bir plan görevi görebileceğini öne sürüyor. Bir sosyal ağ oluşturmak için yapay zekayı kullanma hakkında soru sorulduğunda Hassabis, yüzeysel bağlantıların değerini sorguluyor ve böyle bir projenin sonuçları ve ölçütleri üzerinden düşünmek için bilimsel yöntemin kullanılmasını öneriyor. Kendi başına bir meydan okuma olabilecek doğru soruyu bulmanın önemini vurguluyor.

  • 01:25:00 Bu bölümde, Dr. Demis Hassabis, insanların karmaşıklığına ve motivasyonlarına atıfta bulunarak, yapay zekanın ahlak ve siyaset bilimi alanına dahil olmasının zorluğunu kabul ediyor. Ancak yapay zekanın, canlı uygulamanın sonuçları olmadan farklı siyasi sistemlerin ve ekonomik modellerin denenmesine ve test edilmesine olanak tanıyan milyonlarca aracıyla sanal simülasyonlar oluşturarak bu alanlara katkıda bulunabileceğine inanıyor. Sinirbilimin beyni anlamada nasıl ilerlediğiyle karşılaştırılabilir şekilde, yapay zekayı daha az opak ve daha şeffaf hale getirmenin önemini vurguluyor.

  • 01:30:00 Bu bölümde Dr. Demis Hassabis, ağdaki her nörona veya yapay nörona erişimin, bilim adamlarının deneysel koşulları tamamen kontrol edebilmesi anlamına geldiğini belirterek yapay sinir ağlarını incelemenin zorluklarını tartışıyor. Bununla birlikte, AlphaGo gibi yapay sistemlerin hızla gelişen doğası, araştırmacılar bu konuda bir sonuca varana kadar modası geçmiş hale geliyor ve bu da bir zorluk teşkil ediyor. Buna rağmen, Dr. Hassabis, araştırma için zaman harcamayı haklı çıkaracak kadar ilginç olan büyük modeller ve AlphaFold tipi şeyler de dahil olmak üzere, bu sistemleri önümüzdeki on yıl içinde daha iyi anlayacağımıza inanıyor.
Dr Demis Hassabis: Using AI to Accelerate Scientific Discovery
Dr Demis Hassabis: Using AI to Accelerate Scientific Discovery
  • 2022.08.03
  • www.youtube.com
Demis Hassabis, Co-founder and CEO of DeepMind, delivers a major public lecture at the Sheldonian Theatre in Oxford on Tuesday 17 May 2022.The past decade ha...