Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 500

 
Maxim Dmitrievsky:

Tut mir leid, aber Sie haben bisher in keiner meiner Fragen Ihren Wert unter Beweis gestellt, zumindest habe ich es nicht gesehen.

Und es hat keinen Sinn, wie Captain Obvious zu schreiben und alles auf den Kopf zu stellen, um sich selbst wieder ein bisschen wichtig zu machen.


Sie verwechseln die Grundlagen. Lernen Sie - Sie müssen lernen, zu Ihrem eigenen Besten. Lernen Sie, anstatt zurückzuschlagen...


ss

Und ich brauche Ihnen nichts zu beweisen.

 
Oleg Avtomat:

Sie sind verwirrt über die Grundlagen. Lernen Sie - Sie müssen lernen, zu Ihrem eigenen Besten. Lernen Sie, anstatt zurückzuschlagen...


.

Und ich muss Ihnen nichts beweisen.


eine andere aus... anstatt die einfache Frage zu beantworten, ob man aus dem Gerüst extrapolieren kann oder nicht :D

Ich habe ein klares Beispiel genannt: Nein. Man hat mit mir gestritten, aber niemand konnte es erklären, und jetzt muss ich ein Buch lesen, weil niemand etwas weiß :)

Es war eine sehr einfache Frage für diejenigen, die viel über MO wissen, aber es stellte sich heraus, dass das niemand tut.

Und natürlich sind alle dumm, besonders auf hubra und alle, die Artikel schreiben, und anscheinend ist auch Leo Brayman dumm

 
Maxim Dmitrievsky:

eine andere oberste... anstatt die einfache Frage zu beantworten , ob das Gerüst extrapoliert werden kann oder nicht :D

Ich habe ein klares Beispiel genannt: Nein. Ich habe argumentiert, aber niemand konnte es erklären, und jetzt muss ich ein Buch lesen, weil niemand etwas weiß :)

Es war eine sehr einfache Frage für diejenigen, die viel über MO wissen, aber es stellte sich heraus, dass das niemand tut.


Wenn Sie eine solche Frage stellen, zeigen Sie bereits, wie gut Sie verstehen und sich dessen bewusst sind.

 
Oleg Avtomat:

Wenn Sie die Frage so stellen, zeigen Sie bereits, dass Sie etwas verstehen und wissen.


alle, auf Wiedersehen )

 
Maxim Dmitrievsky:

Also auf Wiedersehen.)


Prost. Lernen.

 
Dr. Trader:

Fast richtig, es gibt auch eine Verzerrung, die dem Ergebnis zusätzlich hinzugefügt wird

Höchstwahrscheinlich werden die Werte von y1, y2 und y3 in der inneren Neuronenschicht verwendet, und diese Werte selbst sollten auch als Eingabewerte für die nächste Schicht verwendet werden

Oder wenn Y1,Y2,Y3 Ausgabewerte sind, dann werden mehrere Ausgangsneuronen für die Klassifizierung verwendet - zum Beispiel wenn der größte Wert unter Y1,Y2,Y3 Y1 ist, dann ist das Ergebnis "Klasse 1", wenn der größte Wert Y2 ist, dann ist das Ergebnis "Klasse 2", wenn der größte Wert Y3 ist, dann ist das Ergebnis "Klasse 3". Wenn ein Neuron für die Regression und nicht für die Klassifizierung verwendet wird, gibt es nur ein Ausgangsneuron. Wenn wir zwei Klassen haben, können wir nur ein Ausgangsneuron verwenden (wenn das Ergebnis <0,5 ist, dann ist es Klasse1, wenn >=0,5, dann ist es Klasse2).

Es ist sehr einfach, ein Sigmoid für die Aktivierungsfunktion eines Neurons hinzuzufügen, Sie benötigen eine solche Funktion

Damit erhält man bereits ein vollwertiges Neuron mit einer inneren Schicht (mit drei Perceptrons) und einem Output-Perceptron.

Ergebnis = perceptron4[0]


Vielen Dank für die Antwort! Das ist für mich sehr hilfreich.

Ich nehme an, es handelt sich um ein Bias-Neuron? In der Beschreibung steht, dass es hilft, wenn die Eingabe Null ist. Wozu dient Ihrer Meinung nach ein Bias-Neuron und welche Gewichte sollten dafür ausgewählt werden? Im Grunde ist es nur ein Gewicht.

Ist es besser, den Schwellenwert nach der Sigmoidtransformation oder danach zu prüfen?

 
Dr. Trader:

Die Anzahl der Gewichte in einem Neuron kann mehrere zehntausend oder mehr betragen. In mql und R gibt es spezielle Bibiloteks zum Erstellen und Trainieren von Neuronen. Es ist besser, mit diesen zu arbeiten und nicht ein eigenes Neuron von Grund auf zu programmieren.


Ich meinte damit, dass es zum Beispiel in mql4 möglich war, bis zu 15 Parameter gleichzeitig zu optimieren, und in mql5 mehr.

Und es scheint, dass eine Ebene angepasst wird, und dann die zweite Ebene mit der optimierten ersten, usw. Es wäre jedoch schön, wenn wir alle Schichten auf einmal optimieren könnten, aber die Rechenleistung lässt dies nicht zu.

Ich habe die Vermutung, dass, wenn die Ebenen einzeln optimiert werden, einige Muster vom System nicht erkannt werden.

Selbst wenn eine Ebene analysiert wird, basieren die nächsten Ebenen auf den Annahmen der ersten Ebene.

 
Maxim Dmitrievsky:

eine andere oberste... anstatt die einfache Frage zu beantworten, ob die Wälder zur Extrapolation fähig sind oder nicht :D


ein weiteres Hoch... anstatt eine einfache Frage zu beantworten - können Wälder extrapolieren oder nicht :D

Sie können auch eine Frage stellen: Sind zufällige Wälder süß oder salzig? Im Allgemeinen können Sie einen Haufen idiotischer Fragen stellen und sogar Hinweise im Internet finden.


Man müsste nicht antworten, wenn ein paar systematisch gebildete Forumsmitglieder nicht so zimperlich bei diesem Thema wären.


Zufallswälder können NICHT extrapolieren, da das Wort EXTRAPOLATION auf sie überhaupt nicht zutrifft. Random Forests können, wie andere Modelle des maschinellen Lernens, zukünftige Werte vorhersagen, aber es ist KEINE EXTRAPOLATION, denn der Begriff EXTRAPOLATION ist in der Statistik überhaupt nicht anwendbar.


Und hier ist der Grund dafür.

Ursprünglich bezog sich der Begriff EXTRAPOLATION auf Funktionen, gewöhnliche Funktionen, die eine Formel haben.

Zum Beispiel.

у = а+ bх

Nach dieser Formel können Sie die Werte einer Funktion innerhalb des ursprünglichen Definitionsbereichs (Interpolation) und außerhalb (Extrapolation) berechnen.


In der Statistik gibt es keine solchen Formeln.

Und diese ganze "kann ein Zufallswald extrapolieren"-Sache hat etwas damit zu tun, denn in der Statistik sieht das Analogon so aus:

у ~ а + bх

Um eine lineare Funktion von einer linearen Regression zu unterscheiden, wird eine Tilde anstelle eines Gleichheitszeichens verwendet.

Mit dieser Unterscheidung wird der Tatsache Rechnung getragen, dass "a" in einer linearen Gleichung nicht "a" in einer linearen Regression ist, was durch die Tilde angezeigt wird. Das Gleiche gilt für "b".

Während in der ersten Gleichung "a" eine Konstante ist, ist "a" in der zweiten Gleichung die mathematische Erwartung, die von einem Varianzwert und einer Schätzung mit der Wahrscheinlichkeit der Nullhypothese begleitet wird, dass dieser Wert von "a", den wir sehen, nicht existiert. Wenn die Wahrscheinlichkeit, dass dies NICHT der Fall ist, mehr als 10 % beträgt, kann der Wert von "a" vernachlässigt werden.


Nun zu Ihrer Frage:

- Können wir von der Regressionsgleichung extrapolieren?

- Nein, das können Sie nicht. Aber Sie können den zukünftigen Wert einer Zufallsvariablen vorhersagen, die einen Wert innerhalb eines Konfidenzintervalls annimmt. Wenn dieses Konfidenzintervall 95 % beträgt (5 % Wahrscheinlichkeit unter der Nullhypothese), dann erhalten wir "y" innerhalb dieses Konfidenzintervalls. Und wenn Sie eine Schätzung für "a" mit einer Varianz erhalten, die ein Vielfaches dieses Wertes ist, können Sie überhaupt nichts vorhersagen.


Ich hoffe, ich habe ausführlich erklärt, dass Ihre Frage, die in Gegenwart von Funktionen Sinn macht, in der Statistik überhaupt keinen Sinn macht.

 
SanSanych Fomenko:


Nun zu Ihrer Frage:

- Können Sie aus der Regressionsgleichung extrapolieren?

- Nein, das können Sie nicht. Es ist jedoch möglich, den zukünftigen Wert einer Zufallsvariablen vorherzusagen, die einen Wert innerhalb des Konfidenzintervalls annimmt. Wenn das Konfidenzintervall 95 % beträgt (5 % Wahrscheinlichkeit unter der Nullhypothese), dann erhalten wir "y" innerhalb dieses Konfidenzintervalls. Und wenn Sie eine Schätzung für "a" mit einer Varianz erhalten, die ein Vielfaches dieses Wertes ist, können Sie überhaupt nichts vorhersagen.


Hören Sie gut zu, es gab keine solche Frage... )

Es wurde eine Frage gestellt, wie z.B.

Dr. Trader:

Die Extrapolation beinhaltet die Vorhersage neuer Daten, die über die beim Training bekannten Prädiktorenwerte hinausgehen.

Ich würde hinzufügen, dass es sich nicht um Prädiktoren, sondern um Ziele handelt, denn wenn es sich um Prädiktoren handelt, haben wir es mit Interpolation und nicht mit Extrapolation zu tun.

Ein Random Forest kann also interpolieren (er braucht die Eingaben nicht einmal zu normalisieren), aber er kann nicht extrapolieren.

In derStatistik ist es die Ausweitung festgestellter Trends aus der Vergangenheit auf einen zukünftigen Zeitraum (die zeitliche Extrapolation wird für prospektive Bevölkerungsschätzungen verwendet); die Extrapolation von Stichprobendaten auf einen anderen Teil der Bevölkerung, der nicht beobachtet wurde (räumliche Extrapolation).

Wenn Sie einen Regressionsbaum nehmen, wird er nicht in der Lage sein, seine Ergebnisse auf NEUE Daten zu übertragen, z. B. auf Kurse über 1,4500, und er wird immer eine Vorhersage von 1,4500 geben, aber nie mehr und nie weniger als 1,3000, weil er z. B. auf einer Stichprobe von 1,3000-14500 trainiert wurde (als Ziel), und das kommt vom Prinzip der Entscheidungsbäume

Im Gegensatz zu Bäumen können die lineare Regression und ein neuronales Netz dies problemlos tun, da sie nach unterschiedlichen Prinzipien aufgebaut sind

Noch einmal: Neue Daten außerhalb des Trainingsintervalls können in die Eingänge des neuen RF-Samples eingespeist werden, und es interpoliert sie perfekt. Bei der Ausgabe wird jedoch nicht extrapoliert, d. h. die vorhergesagten Werte werden nie über das Ausgabeintervall hinausgehen, auf dem es trainiert wurde.

 
Maxim Dmitrievsky:

Hören Sie gut zu, es gab keine solche Frage... )

Es stellte sich eine Frage, wie zum Beispiel die folgende

Dr. Trader:

Die Extrapolation beinhaltet die Vorhersage neuer Daten, die über die Werte der beim Training bekannten Prädiktoren hinausgehen.

Ich würde hinzufügen, dass es sich nicht um Prädiktoren, sondern um Ziele handelt, denn wenn es sich um Prädiktoren handelt, haben wir es mit Interpolation und nicht mit Extrapolation zu tun.

Ein Random Forest kann also interpolieren (er braucht die Eingaben nicht einmal zu normalisieren), aber er kann nicht extrapolieren.

In derStatistik ist es die Ausweitung festgestellter Trends aus der Vergangenheit auf einen zukünftigen Zeitraum (die zeitliche Extrapolation wird für prospektive Bevölkerungsschätzungen verwendet); die Extrapolation von Stichprobendaten auf einen anderen Teil der Bevölkerung, der nicht beobachtet wurde (räumliche Extrapolation).

Wenn Sie einen Regressionsbaum nehmen, wird er nicht in der Lage sein, seine Ergebnisse auf NEUE Daten zu übertragen, z. B. auf Kurse über 1,4500, und er wird immer eine Vorhersage von 1,4500 geben, aber nie mehr und nie weniger als 1,3000, weil er z. B. auf einer Stichprobe von 1,3000-14500 trainiert wurde (als Ziel), und das kommt vom Prinzip der Entscheidungsbäume

Im Gegensatz zu Bäumen können die lineare Regression und ein neuronales Netz dies problemlos tun, da sie nach unterschiedlichen Prinzipien aufgebaut sind

Noch einmal: Neue Daten außerhalb des Trainingsintervalls können in die Eingänge des neuen RF-Samples eingespeist werden, und es interpoliert sie perfekt. Bei der Ausgabe wird jedoch nicht extrapoliert, d. h. die vorhergesagten Werte werden nie über das Intervall der Ausgaben hinausgehen, auf die es trainiert wurde.


Sie haben nichts von meinem Beitrag verstanden. Überhaupt nichts.


Entschuldigung für den Beitrag wegen Ihrer Anwesenheit.