Neuronale Netze, wie beherrscht man sie, wo fängt man an? - Seite 9

 
Neutron >> :

Das ist richtig: Die biparametrische exponentielle Glättung ist der NS mit zwei Eingängen NICHT unterlegen.


Ein Vergleich zwischen exponentieller Glättung und NS ist nicht sinnvoll, da unterschiedliche mathematische Verfahren verwendet werden.

verschiedene Geräte.

 
budimir писал(а) >>

Ein Vergleich von exp. Glättung und NS ist nicht sinnvoll, da unterschiedliche mathematische Apparate verwendet werden.

verschiedene Geräte

also beweise das Gegenteil)))

 
Korey >> :

beweisen Sie also, dass es anders ist)))

Als ehemaliger Lehrer von SPEC-Fächern an einer Universität erkläre ich (kostenlos):

1. exp. smoothing bereinigt die Zeitreihe (in der Regel den Schlusskurs jedes Balkens)

Berücksichtigt man 2 oder 3 Parameter, so erhält man bei Berücksichtigung von 2 Parametern eine

exponentielle Glättung mit zwei Parametern, und wenn wir 3 Parameter berücksichtigen, erhalten wir

Exponentielle 3-Parameter-Glättung.

1. Parameter: Dies ist der Parameter für den Preisstandort

2. Parameter: Dies ist der Parameter für die Trendsteigung

3. Parameter: Dies ist ein Saisonalitätsparameter (Faktor)

Die ersten beiden Parameter werden anhand der wiederkehrenden Formeln berechnet:

S[n]=w*y[n]+(1-w)*(S[n-1]+T[n-1])

T[n]=t*(S[n]-S[n-1])+(1-t)*T[n-1]

dann ist der "vorhergesagte" Wert: y [n+1]=S[n]+T[n]

Als Anfangswerte für den 1. und 2. Parameter können wir

die Koeffizienten der linearen Regressionsformel entnehmen.

2. zur "Vorhersage" der Kursentwicklung verwenden Sie NS in Form von Klassifikatoren (aufwärts, abwärts,

Ich weiß es nicht) - wo ein grundlegend anderer mathematischer Apparat verwendet wird.

 

an Budimir

Annäherung an das Gehäuse Punktzahl 5
Als Nächstes sollten Sie den NS mit zwei (2=??) Eingängen im Vergleich zu 2XEMA aufschlüsseln und sehen, wo der Unterschied liegt)))

 

Шаг 1: Выбираем входные данные. Например,


x1 = WPR Per1

x2 = WPR Per2

x3 = WPR Per3

Gehe ich recht in der Annahme, dass mit den Eingangsdaten die Variablen in den externen EA-Parametern gemeint sind, mit denen die Koeffizienten verglichen werden?

 
Korey >> :

zu Budimir

Annäherung an das Gehäuse Punktzahl 5
Als Nächstes sollten Sie den NS mit zwei (2=??) Eingängen im Vergleich zu 2XEMA aufschlüsseln und sehen, wo der Unterschied liegt)))

Was ist der Unterschied zwischen NS mit 1000 Eingängen, die HIGH und LOW vorhersagen und 2xEMA ?

 

Wenn die Optimierungsaufgaben dieselben sind, beträgt der Unterschied

1) in NS-Redundanz

2) im Lärm von NS

Wenn die Optimierungsprobleme unterschiedlich sind, besteht der Unterschied in Folgendem
1. im Falle von 2xEMA wird die nachfolgende TK-Konstruktion manuell aus einigen Annahmen ergänzt
2. aber der NS selbst wird diese "Annahmen" angeblich in sich selbst finden und angeblich bestätigen und angeblich umsetzen, d.h. er wird angeblich für latente Gesetzmäßigkeiten geschärft.

= Macht und Struktur des mathematischen Apparats 2хЕМА+ТС sind ähnlich wie NS, d.h. ein Ring von Operationen 2хЕМА+ТС ist ähnlich wie ein Ring von Operationen NS

 

Шаг 1: Выбираем входные данные. Например,


x1 = WPR Per1

x2 = WPR Per2

x3 = WPR Per3

Gehe ich recht in der Annahme, dass mit den Eingangsdaten die Variablen in den externen Parametern des EA gemeint sind, mit denen die Koeffizienten verglichen werden?

So sehe ich die Koeffizienten eines einfachen , auf Fraktalen basierenden Expert Advisors:

Was soll ich mit all dem tun?



 
Korey >> :


= Macht und Zusammensetzung des mathematischen Apparates von 2xEMA+TS sind ähnlich wie bei NS, d.h. der Ring der Operationen von 2xEMA+TS ist ähnlich wie der Ring der Operationen von NS.

Wenn sie also ähnlich sind (in Bezug auf den mathematischen Apparat), dann kann man bei der Auswahl dieser Methoden das Kriterium der Preise für Neuro-Pakete und die Software verwenden,

Berechnung von 2xEMA+TS - der MetaTrader selbst kann als letzteres geeignet sein, d.h. der Expert Advisor und diese Formeln können in der mql-Sprache geschrieben werden,

Hinweis - KOSTENLOS!

 
Nun ja, das ist die Wahrheit über die Rückkehr zum einfachen MA nach einer langen Anstrengung der höheren Mathematik.