Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 3298

 
fxsaber #:

Görünüşe göre, insan beyni bilinçaltı bir düzeyde, son derece küçük miktarda veri üzerinde hala "kalıplar" bulabiliyor. Buna şans diyemezsiniz. Bu bir gizem.

Aslında bir tüccar, ticaretle ilgili olarak MO modellerinin yaptığından çok daha fazla bilgiyi aynı anda farklı şekillerde işler. ve ayrıca beyin, ticaretle ilgili olmayan, ancak ticaret görevlerini çözmeye yardımcı olan çeşitli bilgilerle donanmıştır.

 
Andrey Dik #:

burada, sahte verilerle önceden eğitilmiş bir beynin daha önce bilmediği belirli sorunları çözdüğünü kendiniz gösterdiniz. ve ekstra "bilgiye" ihtiyacınız olmadığını söylüyorsunuz.

Ben öyle bir şey demedim, yalan söylemeyi bırak 😀
İşaretler bilgi değildir.
 
Andrey Dik #:

"Ekstremum" kavramını "keskin tepe" (bir fonksiyonun türevinin olmadığı nokta) ile karıştırmaya devam ediyorsunuz.

Düz bir yüzeyin bile bir ekstremumu vardır.

Bir diğer husus ise FF'lerin her zaman FF yüzeyinin mümkün olduğunca pürüzsüz olmasını ve küresel ekstremumun tek olmasını sağlayacak şekilde seçim yapmaya çalışmasıdır. Tek küresel ekstremum, problemin tek kesin çözümü olmalıdır.

Eğer FF'nin global ekstremumu tek değilse ve dahası bir türevi yoksa, bu FF'nin (model değerlendirme kriteri) yanlış seçildiği anlamına gelir. Bunun yanlış anlaşılması "aşırı uyum" terimine yol açar, bunun yanlış anlaşılması ise bazı belirsiz yerel ekstremumların aranmasına neden olur.

Bir benzetme yapabiliriz: bir uzman - bir doktor - eğitilir, sertifikasyon için yeterlilik sınavları (FF) geliştirilir, bir doktor için "aşırı eğitimli" veya "aşırı donanımlı" kavramı olamaz, eğer bir doktor maksimum puanı alamazsa - bu onun yetersiz eğitimli olduğu anlamına gelir. Ve size göre, iyi bir doktor her zaman az eğitimli, bilim insanı olmayan biri olmalıdır.

Bir kez daha, "aşırı eğitim" ile ilgili sorun, modeli değerlendirmek için yanlış kriter seçimidir. Görünüşe göre forumda böyle havalı uzmanlar var, ancak aynı hataları tekrar tekrar tekrarlıyorlar. Doğru tahmin kriterleri geliştirmek, tahmin edicileri seçmekten daha az önemli değildir, aksi takdirde modeli yeterince tahmin etmek imkansızdır.

Bir itiraz telaşı bekliyorum, sorun değil, buna alışkınım. Eğer birilerinin işine yarayacaksa ne ala, yaramayacaksa da neyse, yani bu haliyle iyi olduğunu düşünüyorlar.

Süper uydurma modellerin optimizasyonla hiçbir ilgisi yoktur.

Bir alıntının ideal aşırı uyum modeli alıntının kendisidir. Tıpkı diğer model oluşturma durumlarında olduğu gibi: optimizasyon yoktur, böyle bir modelin tahmini dejenere olur, vs.

"Model" kelimesinin anlamını anlamıyorsunuz. Örneğin, Newton'un Evrensel Çekim Yasasının bir modeli. Bazı ideal, bazı ideal koşullarda uygulanabilir: vakum, evrende başka cisim yok. Bununla birlikte, pratik için yeterli doğrulukta çok sayıda hesaplama yapmanıza olanak tanır.

Ve bir model oluşturmanın tüm sorunu, gerçek verilerle hatası bize uygun olan bir model bulmaktır. Gördüğümüz hatanın mutlaka gelecekte olmayacağı, ancak bazı güven aralıklarında olacağı anlaşılmalıdır. Bu nedenle, pratikte kabul edilebilir aralıkta bir hataya sahip bir model arıyoruz. Ekstremumlara ihtiyacımız yok.

 
Forester #:

150 milyar nöron, nöron başına sadece bir çıktı değil, birçok çıktı. YZ bu zeka seviyesine uzun bir süre ulaşamayacak ya da hiç ulaşamayacak.
NS zeka seviyesi açısından bir hamamböceği ile karşılaştırılır - kaç, ısır - kaç.

İnsanlığın birkaç milyar bireyiyle çarpıldığında, mevcut uygarlık, süper küçük miktarda veriyle, gözlemlenen pek çok olguyu doğru bir şekilde tahmin edebilen ve hatta gözlemlenmemiş olguları yeniden yaratabilen hipotezler ortaya koymanın mümkün olduğunu göstermektedir.

 
Maxim Dmitrievsky #:
Tek seferlik öğrenme. Önceden eğitilmiş büyük bir NS (beyin) sadece birkaç örnekle sol veriler üzerinde önceden eğitildiğinde. Model başlangıçta dünyanın yasalarını öğrenmişse, üstünkörü bir bakışla yeni bir göreve kolayca tıklar.

Özellikle büyük dil modelleri yeni görevler için bu şekilde önceden eğitilir. Ancak bu yeni örnekleri uzun süre öğrenmeye zorlarsanız, önceki deneyimlerini unutmaya başlayacak ve yeni verilere karşı önyargılı hale gelecektir.
Bir grafik çizmek ilginç olurdu: yavrunun yaşına karşı Tek seferde öğrenmenin kalitesi.
 

İyi.... ağaçlarında optimizasyon vardır. En iyi bölünmenin seçilmesinde. Tüm sütunlar/özellikler kontrol edilir, farklı bölmeler yapılır ve sınıflandırma için minimum sınıf safsızlık değerine veya regresyon için maksimum doğruluğa sahip olan kullanılır.
Rastgele ormanlar için bu işlem burada sona erer. Daha sonra, örneğin özelliklerin %50'sinin rastgele verildiği bir dizi ağacın sonucunun ortalamasını alırız.
Bousting'de, her bir sonraki ağaç, önceki ağaçların toplamının hatasını öğrenir ve bu hatayı en aza indirir.

Ancak bunların hepsi kaputun altında kullanıcıdan gizlenir ve bunun hakkında konuşmanın bir anlamı yoktur. Bu, model için işaretleri veya öğretmenleri değiştiren bazı parametrelerin değerlerini arayarak (örneğin TP/SL'yi seçerek) test cihazında yaptığımız optimizasyona benzemez.

 
Maxim Dmitrievsky #:
İşaretler bilgi değildir.

İşaretlerin ne olduğunu sanıyorsun? Sakin ol.
Peki bilgi nedir?

Bugün optimizasyonun MO ile hiçbir ilgisi olmadığını söylediniz, sonra da olduğunu kabul ettiniz.
Bekle, şimdi işaretlerin bilgi olduğu noktaya geliyoruz.
 
fxsaber #:
Bir grafik çizmek ilginç olurdu: yavrunun yaşından itibaren Tek seferlik öğrenmenin kalitesi.

Büyük olasılıkla NS-beyin, özellikle NS oluşumunun en hızlı dönemi olan erken çocukluk döneminde çevreden (ve dijitalden) büyük ölçüde etkilenmektedir.

Aynı yaştaki bu tür NS'leri farklı görevlerde karşılaştırmak ilginç olurdu, bir NS - 2-3 yaşından itibaren gadget, diğeri - gadget olmadan.

Yani ne tür bir NS gelişiminin belirli görevlerin çözümünü olumlu/olumsuz etkilediğini anlamak için.


Belki de düşünceli TC icadı, yüzeysel klip düşüncesinden daha az başarıya sahiptir.

 
Andrey Dik #:

Sence işaretler nedir? Sakin olalım.
Peki bilgi nedir?

Bugün optimizasyonun MO ile hiçbir ilgisi olmadığını söylediniz, sonra da ilgisi olduğunu kabul ettiniz.
Bekle, şimdi işaretlerin bilgi olduğu noktaya geliyoruz.
Optimizasyonun IO ile ilgisi olmadığını nerede söyledim?

Lütfen bensiz gelin.
 
Maxim Dmitrievsky #:
Optimizasyonun Savunma Bakanlığı ile hiçbir ilgisi olmadığını nerede söyledim?

Lütfen bensiz gelin.

Biliyordum.
Ne dediğinizi tekrar okuyun.