Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 2788

 
Maxim Dmitrievsky #:
Aykırı değerlerin kaldırılması da dahil olmak üzere birçok tutarsızlık elde edersiniz. Farklı hesaplamalara göre bunlar genellikle veri kümesi boyutunun %10'u kadardır. Aykırı değer yakalandığında model neyi ve nasıl değiştirecek? )
Dönüşümler için de aynı durum söz konusudur.
Ön işlemeyi klasik olarak yaparsanız, sonuçlar ham veriden daha kötü hale gelir.
Ya da metriklerdeki rastgele iyileştirmeler sistemik olarak gösterilir.

Ders kitaplarını ve makaleleri okuduktan sonra hiçbir şey öylece yapılamaz - bu ayrı bir aşamadır ve öğrenme olarak adlandırılır. Sistematik istatistik bilgisi olmadan MOE'de yapılacak hiçbir şey yoktur.

Her zaman yapmak, hedefe ulaşmaya çalışmak gerekir.

Bir ara hedef alırsak - tahmin edicinin maksimum tahmin yeteneği, o zaman:

1. Aykırı değerlerin çıkarılması zorunludur. Kantilin %0,5'inden büyük değerler aykırı değer olarak kabul edilirse, aykırı değerler %1'den azdır. Bu arada, bu gelecekte tetiklenen durakların yüzdesidir. Ticaret sistemini kendimiz geliştiriyoruz, dijital sınırlamalarımız var.

2. Ön işleme zorunludur, ancak yine ne tür olduğuna bağlıdır. Tahmin edicinin tahmin yeteneğinden bahsediyorsak, tahmin yeteneğini artıran eğimleri düzeltemezsiniz. Bu bir örnektir. Genel olarak, bir ön işleme algoritması alırız ve bunun tahmin gücü üzerindeki etkisini değerlendiririz. Buradaki cevap şudur.

3. MO'nun anlamını her zaman aklınızda bulundurun, ki bu benim zihnimde bazı kalıpları aramaktır. En açık şekilde RF'de. örneğin 5000 çubukta ne kadar desen bulunur? Ya da hangi pencere değerinden itibaren desen sayısını artırmak hatayı azaltmaz? Ya da bazı sabit pencereler için desen sayısının hangi değerinden itibaren hata düşmeyi durdurur?

RF için yanıtlar.

1. Pencereyi 1500 barın üzerine çıkarmak mantıklı değildir.

2. Hata ile desen sayısı (ağaçlar) arasındaki ilişki grafikte açıkça görülebilir:

Minimum 50. Genellikle 100 ila 200 arasındadır. Pencere 5000'e kadar artırıldığında grafik değişmez.

Hedefi ve hedefe ulaşma kriterini her zaman net bir şekilde formüle etmelisiniz. Geri kalan her şey bla bla.

 
СанСаныч Фоменко #:

Ders kitaplarını ve makaleleri okuduktan sonra hiçbir şey öylece yapılamaz - bu ayrı bir aşamadır ve çalışma olarak adlandırılır. Sistematik istatistik bilgisi olmadan MEB'de yapılacak hiçbir şey yoktur.

Hedefe ulaşmaya çalışırken her zaman yapmak gerekir.

Eğer bir ara hedef alırsak - tahmin edicinin maksimum tahmin yeteneği, o zaman:

1. Aykırı değerlerin çıkarılması zorunludur. Kantilin %0,5'inden büyük değerler aykırı değer olarak kabul edilirse, aykırı değerler %1'den azdır. Bu arada, bu gelecekte tetiklenen durakların yüzdesidir. Ticaret sisteminin kendisini geliştiriyoruz, dijital kısıtlamalarımız var.

2. Ön işleme zorunludur, ancak yine de ne tür olduğuna bağlıdır. Eğer tahmin edicinin tahmin yeteneğinden bahsediyorsak, tahmin yeteneğini artıran eğimleri düzeltemezsiniz. Bu bir örnektir. Genel olarak, bazı ön işleme algoritmalarını alır ve tahmin gücü üzerindeki etkisini değerlendiririz. İşte cevap.

3. MO'nun anlamını her zaman aklınızda bulundurun, ki bu benim zihnimde bazı kalıpları aramaktır. En açık şekilde RF'de. örneğin 5000 çubukta kaç tane desen bulunur? Ya da hangi pencere değerinden itibaren desen sayısını artırmak hatayı azaltmaz? Ya da bazı sabit pencereler için, desen sayısının hangi değerinden itibaren hata düşmeyi durdurur?

RF için cevaplar.

1. Pencereyi 1500 çubuğun üzerine çıkarmanın bir anlamı yok.

2. Hata ile desen (ağaç) sayısı arasındaki ilişki grafikte açıkça görülebilir:

En az 50. Genellikle 100 ila 200 arasında. Pencere 5000'e kadar artırıldığında grafik değişmez.

Hedefi ve hedefe ulaşma kriterini her zaman net bir şekilde formüle etmek gerekir. Geri kalan her şey bla bla.

İzolasyon ormanı aracılığıyla emisyonları tespit ettim, sildim, eğitimin sonucu değişmedi. Emisyonlar üzerinde eğitmeyi denedim - değişiklik yok. Modelin (catbust) emisyonları önemsemediği izlenimini edindim. Sanki anormalliklerin aranması yoluyla iyi tanınıyorlar, ancak kaldırılmaları gerekli değil.
 
Maxim Dmitrievsky #:
İzolasyon ormanı aracılığıyla emisyonlar tespit edildi, silindi, eğitim sonucu değişmedi. Emisyonlar üzerinde eğitmeyi denedim - sonuç yok. Modelin (catbust) emisyonları önemsemediği izlenimini edindim. Sanki anomali arama yoluyla iyi tanınıyorlar, ancak kaldırılmaları gerekli değil.

Aykırı değerler tahmin gücünü güçlü bir şekilde etkiler ve tahmin gücünün istikrarı tahmin hatasının istikrarını etkiler.

Ve modelin kendisi için, özellikle eğitim örneği örnekten elde ediliyorsa, modele bağlıdır.

 
Aleksey Nikolayev #:

Aklıma yerel bir karar ağacı fikri geldi. KNN veya yerel regresyonun bir benzeri gibi bir şeydir (durağan olmama durumu için de potansiyel olarak uygundur). Buradaki fikir, yalnızca ilgilenilen noktayı içeren kutuyu kutulara ayırmamız (içinde en az belirli sayıda K noktasına kadar) ve kutuların geri kalanını önemsemememizdir. Sınıflar arasındaki sınırlar keskinse ve nokta böyle bir sınıra yakınsa KNN veya yerel regresyondan daha iyi olabilir.

Bu yaklaşımın mantıklı olup olmadığını merak ediyorum.

Bana öyle geliyor ki karşılaştırılamaz şeyleri karşılaştırıyorsunuz - ölçekleme ölçeklemedir (mesafe size uygun olduğu sürece isterseniz çok boyutlu bile olabilir) ve filtreleme-gürültü - türevlerle (1. ve 2.) yapabilirsiniz.-- Ya da etiketlenmiş verilerin kovaryans matrisleri aracılığıyla sınıf farklılıklarının (etiketlenmiş) önemini kanıtlamak ve ilgilendiğiniz konunun sınıflandırılması için onaylanmış önemi daha fazla kullanmak yerine, tamamen denetimsiz bir şekilde vektör matrislerine geçin...

hipotezler, beyler, hipotezler bir hesaplama yöntemi değil, bir kanıtlama (veya çürütme) konusudur ....

 
JeeyCi #:

Bana öyle geliyor ki karşılaştırılamaz şeyleri karşılaştırıyorsunuz - ölçekleme ölçeklemedir (mesafe size uygun olduğu sürece isterseniz çok boyutlu bile olabilir) ve filtreleme-gürültü - türevlerle (1. ve 2.) yapabilirsiniz.-- Ya da etiketlenmiş verilerin kovaryans matrisleri aracılığıyla sınıf farklılıklarının (etiketlenmiş) önemini kanıtlamak ve ilgilendiğiniz konunun sınıflandırılması için onaylanmış önemi daha fazla kullanmak yerine, tamamen denetimsiz bir şekilde vektör matrislerine geçin...

hipotezler, beyler, hipotezler bir hesaplama yöntemi değil, bir kanıtlama (veya çürütme) konusudur....

Hiçbir şey anlamadım ama çok ilginçti.

 
СанСаныч Фоменко #:

Aykırı değerler tahmin yeteneğini güçlü bir şekilde etkiler ve tahmin yeteneğinin kararlılığı tahmin hatasının kararlılığını oynatır.

Ve modelin kendisi için, özellikle eğitim örneği örnekten elde ediliyorsa, modele bağlıdır.

rastgele ormandan tahmin yeteneği ve özellik önemini belirleme yönteminiz arasındaki R2 değeri nedir?

 

Herkese merhaba.
Bir sorum var, bir hash'i tahmin edici olarak kullanmak gerçekçi mi?

Örneğin
LlLCmywDpe8dj_j8t8DWwoMjaIhTLnOedRh6KET7R7k

burada hedef
1.04.

Bunu bir şekilde sayıya veya başka bir forma dönüştürmek mantıklı mı?

 
Roman #:

Herkese merhaba.
Bir soru geldi, bir hash'i tahmin edici olarak kullanmak gerçekçi mi?

bunun gibi
LlLCmywDpe8dj_j8t8DWwoMjaIhTLnOedRh6KET7R7k

burada hedef
1.04

Bunu bir şekilde sayıya veya başka bir forma dönüştürmek mantıklı mı?

Yani 256 öğeli gösterimde bir sayıdır (dize ANSI kodluysa). Hash'ler sabit bir uzunluğa sahip olduğundan, bunları 0'dan 255'e kadar sayıların vektörleri olarak gösterebilirsiniz.

Bitcoin kırmak ister misiniz?)

 
Aleksey Nikolayev #:

Yani 256 öğeli bir kayıttaki bir sayıdır (dize ANSI kodluysa). Karmalar sabit bir uzunluğa sahip olduğundan, 0 ile 255 arasındaki sayıların vektörleri olarak da gösterilebilirler.

Bitcoin'i kırmak ister misin?)

Dostum,dizgi türü seni nasıl rahatlatıyor ki ANSI kodlamasınıunutuyorsun .
Hayır, bitcoin değil, çevrimiçi çekilişler :))))


 
Evgeni Gavrilovi #:

rastgele ormandan tahmin yeteneği ve özellik önemini belirleme yönteminiz arasındaki R2 değeri nedir?

Birçok kez açıkladım.