Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 598

 
Aleksey Terentev:
1) Wie läuft es in der Ausbildung? Mir ist nicht klar, wie die Gewichte angebracht werden.
2) Sind die Gewichte des Neurons selbst verfügbar?
3) Als Mittelwert können Sie die Ableitung des Schlusskurses oder des schnellen MA der 1-4ten Ordnung nehmen. Oder Inkremente.
4) Ich würde die Größe der versteckten Schicht gleich der Eingabe setzen.

die gewichte gehen bis zu den addierern, alles ist klassisch, dann wird das gewicht der aktivierungsfunktion zugeführt. es war einfach unbequem, alles auf dem touchpad zu unterschreiben

als "Umgebung" - hier gehen wir von einer Aktion aus, die vom NS bereits extern durchgeführt wurde, z. B. eine Transaktion... d. h. Systemspeicher für n Aktionen rückwärts; dasselbe gilt für Rückmeldungen - welche Aktion führte zu welchem Ergebnis

Ich werde also eine interne Ebene erstellen, die der Eingabeschicht entspricht... und vielleicht später eine weitere hinzufügen

 
Yuriy Asaulenko:

Sie werden nur Ihre Zeit verschwenden. Sie funktioniert nicht mit echten Daten.

Ein Beispiel: Eine falsche Antwort von NS wirkt sich auf alle nachfolgenden Antworten aus.


Nun, nicht wirklich, nur ns wird die Serialität und Effektivität der Transaktionen als zusätzlichen Faktor berücksichtigen... das ist nur eine Option, ich sage nicht, dass sie endgültig ist

Deshalb bitte ich um weitere Ideen.

+ Es ist ein eingebettetes adaptives Element... wie ein Transistor

und der Haupt-NS hat andere fi

 
Maxim Dmitrievsky:

die gewichte gehen bis zu den addierern, alles ist klassisch, dann wird das gewicht der aktivierungsfunktion zugeführt. es war einfach unbequem, alles auf dem touchpad zu unterschreiben

als "Umgebung" - hier gehen wir von einer Aktion aus, die vom NS bereits extern durchgeführt wurde, z. B. eine Transaktion... d. h. Systemspeicher für n Aktionen rückwärts; dasselbe gilt für Rückmeldungen - welche Aktion führte zu welchem Ergebnis

Ich werde also eine innere Schicht einfügen, die der Eingabeschicht entspricht... und vielleicht später eine weitere hinzufügen

Dann als eine Option die Summe der Gewinne in Pips. Ein erfolgreicher Handel -> Wachstum und umgekehrt.
Der Clou ist jedoch, dass wir in diesem Fall darüber nachdenken sollten, die Q-Funktion hinzuzufügen, da sie als Belohnung angesehen werden sollte. Oder leiten Sie eine Lernformel mit Blick auf die Belohnung ab.
 
Aleksey Terentev:
Wie sieht es dann mit der Summe der Gewinne in Pips aus? Ein erfolgreicher Handel -> Wachstum und umgekehrt.
Das Problem ist jedoch, dass wir in diesem Fall darüber nachdenken sollten, die Q-Funktion hinzuzufügen, da sie als Belohnung betrachtet werden muss. Oder leiten Sie eine Lernformel mit Blick auf die Belohnung ab.

Ja, ok :) gute Option.

Bisher ist die Formel einfach - separate Neuronen, denen vergangene Handelsergebnisse zugeführt werden, nicht einmal Neuronen, sondern einfach Werte werden dem Kombinator zugeführt. Ich habe noch nicht wirklich über Coolerings gelesen

 
Maxim Dmitrievsky:

Ja, ok :) gute Option.

Bis jetzt ist die Formel einfach - separate Neuronen, denen die vergangenen Ergebnisse des Handels zugeführt werden, nicht einmal Neuronen, sondern einfach Werte werden dem Addierer zugeführt. Ich habe noch nicht wirklich über Coolerings gelesen

Sie erstellen zwei identische NS, trainieren einen mit traditionellen Bildern und den anderen mit direkter Übertragung von Gewichten, dosiert nach den Ergebnissen der Vorhersage des ersten, d.h. der zweite soll nur aus positiven Erfahrungen lernen.
 
Iwan Negreshniy:
Sie schaffen zwei identische NS, unterrichten einen durch traditionelle Bilder und den anderen durch direkte Übertragung von Skalen, dosiert nach dem Ergebnis der Vorhersage des ersten, d.h. der zweite soll nur aus positiven Erfahrungen lernen.

Es gibt eine solche Variante, bei der zunächst mehrere NS auf verschiedene Zeiträume trainiert werden, dann werden sie zu einem zusammengefasst... raffinierte Anpassung :)

Ich möchte, dass es versteht, wenn es zu wackelig arbeitet und sich neu organisiert.

 
Maxim Dmitrievsky:

Es gibt eine solche Variante, bei der zunächst mehrere NS auf verschiedene Zeiträume trainiert werden, dann werden sie zu einem zusammengefasst... raffinierte Anpassung :)

Ich möchte, dass es versteht, wenn es zu schlau wird und sich selbst einstellt

Sie haben offensichtlich die falsche Struktur für solche Zwecke.
 
Yuriy Asaulenko:
Sie haben offensichtlich die falsche Struktur für solche Zwecke.

Wie machen Sie das?

 
Maxim Dmitrievsky:

Wie machen Sie das?

Ich habe keine Ahnung). Aber auf keinen Fall so.
 
Maxim Dmitrievsky:

Es gibt eine solche Variante, bei der zunächst mehrere NS auf verschiedene Zeiträume trainiert werden, dann werden sie zu einem zusammengefasst... raffinierte Anpassung :)

Ich möchte, dass es versteht, wann es anfängt, scharf zu arbeiten und sich selbst wiederherzustellen.

Erstens - nicht gerade eine Anpassung, wie es bewiesen ist, dass die Ausschüsse besser arbeiten, kann es erklärt werden, zum Beispiel auf entgegengesetzte Vorzeichen Abweichungen von separaten Modellen, was zu einer erhöhten Genauigkeit. Zweitens ist das vorgeschlagene NS-Tandem ein einziges, sich selbst anpassendes Modell, das sich auch bei Methoden des Verstärkungslernens als vorteilhaft erwiesen hat.