SOM: Kochmethoden - Seite 8

 
Sych:

Kann ich den vollständigen Bericht sehen (Kopfzeile)? Der untere Teil wurde abgeschnitten.

Ich habe sie aktualisiert.

alexeymosc:

Das ist cool. Was ist die Strategie? Wird das Geschäft nach der Anzahl der Takte (nach Zeit) oder auf andere Weise abgeschlossen?

Nun wird jedes Signal separat verarbeitet. D.h. geöffnet, wenn ein schiefes Neuron ausfällt, geschlossen nach einer bestimmten Zeit.
 

Ich hab's. Verzerrt bedeutet wahrscheinlich mit einer Wahrscheinlichkeitsabweichung von 50%? Und die Abschlussbedingung ist an jedes Neuron gebunden? Was ist schief? 55%? 60%?

 
alexeymosc:

Verstehe: Schief muss heißen, mit einer Wahrscheinlichkeitsabweichung von 50%? Und die Abschlussbedingung ist an jedes Neuron gebunden? Was ist schief? 55%? 60%?

Ja. Ungefähr ein Faktor von 1,5, was ungefähr 60\40 entspricht - hier ist ein Stück Code:

{
   if (positive/(negative + 1.0) > 1.5 && count > 3)
   {
      OpenBuy(Magic, TP, SL, TradeLot);
   }
   
   if (negative/(positive + 1.0) > 1.5 && count > 3)
   {
      OpenSell(Magic, TP, SL, TradeLot);
   }
}

Habe einen kleinen Fehler gefunden... Es wird bald wieder normal sein.

 
Großartig!
 
TheXpert:

Aktualisiert.

Es gibt zwar Optimismus, aber nicht viel.

Sie können diese Zahlen verbessern:

Durchschnittvorteilhafte Transaktion121.33Verlustgeschäft-130.51
Maximale Anzahlkontinuierliche Gewinne (Gewinn)17 (1227.10)Kontinuierliche Verluste (Verlust)11 (-2390.10)

?

D.h. - entweder die durchschnittlichen Verlustgeschäfte im Verhältnis zu den Gewinngeschäften reduzieren oder die Anzahl der kontinuierlichen Verluste verringern.

Ich verstehe, dass es sich um ein OOS handelt, aber das, was Sie lehren, ist, wie es sich verhalten wird.

Vielleicht wird die Korrektur des entdeckten Fehlers das Ergebnis verbessern, das wird interessant zu sehen sein.

 

Leute, Expertenrat zu SOM ist gefragt.

Insbesondere interessiert mich, wie man die Verteilung der Anzahl der Muster auf die Cluster kontrollieren kann.

 

Guten Tag!

Ich habe seit einer Woche keinen richtigen Internetzugang mehr gehabt. Ich schreibe spät.

Ich habe es hier gelesen: http://www.eicstes.org/EICSTES_PDF/PAPERS/The%20Self-Organizing%20Map%20(Kohonen).pdf

Das Problem der optimalen Verteilung der Eingangsvektoren auf die Zellen eines CCS hängt in erster Linie von einem angemessenen Training des CCS ab. Kohonen schreibt, dass die Anzahl der Trainingsiterationen mindestens das 500-fache der Anzahl der Neuronen im Netz betragen muss! Wenn wir z.B. ein Netz mit 100 Neuronen (10 mal 10) trainieren, muss die Anzahl der Iterationen mindestens 50 000 betragen. Um ehrlich zu sein, dauert das Training eines solchen Netzes auf einem normalen PC mehrere Tage, sofern der Eingabevektor sehr groß ist (sagen wir 40). Die von Kohonen vorgeschlagene Heuristik besagt, dass es mindestens 10.000 Iterationen des Trainings geben sollte. Das ist IMHO zu viel, aber als Option können wir die Größe des Eingabevektors reduzieren und sehen, was passiert.

Der zweite Punkt, der mit dem SCS-Lernen zusammenhängt, stammt aus demselben Artikel und besagt, dass die Größe des Eingabevektors keinen Einfluss auf die Anzahl der Lerniterationen hat, d.h. alles hängt von der PC-Leistung ab.

Drittens sollte der Radius des Neuronentrainings, wie im Artikel vorgeschlagen, anfangs sehr groß sein (er kann mehr als die Hälfte des ACS-Durchmessers betragen), um die grundlegende "topologische Ordnung" auf dem ACS festzulegen; dann wird der Radius umgekehrt proportional zur Anzahl der Iterationen bis auf 0 reduziert, d. h., wenn die Korrektur der Gewichte nur eines Neurons erfolgt. Dabei wird die ursprüngliche topologische Ordnung, die zu Beginn des Trainings festgelegt wurde, nicht aufgehoben, sondern in lokalen Bereichen der Karte verfeinert. Siehe dort.

Eine weitere Sache, die mit dem Lernen zusammenhängt, ist ein Lernschritt, der am Anfang ebenfalls groß sein sollte (etwa 1) und dann umgekehrt proportional zur Anzahl der Iterationen abnimmt, und die Funktion der Abhängigkeit des Schritts von der Anzahl der durchlaufenen Iterationen kann sowohl linear als auch nichtlinear sein. Am Ende des Trainings bleibt der Schritt für eine lange Zeit sehr klein, weniger als 0,01, um eine Feinabstimmung des LCS vorzunehmen.

In dem Artikel geht es auch um die Vorverarbeitung von Daten für das Training, allerdings in der Anwendung auf Sprach- und Bilderkennung. In unserem Fall handelt es sich um eine Zeitreihe, also müssen wir woanders suchen. Ich weiß, dass es eine Menge Diskussionen über die Anwendung von SOM auf Zeitreihen gibt.

 

Auf welcher Grundlage glauben Sie, dass SOM beim Autotrading überhaupt möglich ist?

Um Ihren Blick auf etwas zu richten, müssen Sie wissen, was es ist.

Es gibt eine fast unendliche Anzahl möglicher Preisbewegungen bei historischen Daten (aus denen das Netz lernen soll). Wie soll das Netz selbst herausfinden, was zu tun ist und worauf es zu achten gilt?

Stellen Sie sich ein Kind vor, das von unzähligen Spielsachen umgeben ist. Trotz der zahllosen Spielzeuge (oder besser gesagt, gerade deshalb) wird das Kind nie wissen, dass dieses Spielzeug ein Auto und jenes ein Teddybär ist. Sie als Elternteil sollten Ihrem Kind zunächst sagen, dass dieses Spielzeug Auto heißt, und es mehrmals versuchen lassen, dieses bestimmte Spielzeug unter den anderen zu finden. So kann das Kind das Auto identifizieren und verwechselt es nicht mit dem Teddybär.

Das SOM kann nur ausgelöst werden, wenn das Netz weiß, worauf es abzielt, denn nur dann kann es seine Sicht fokussieren. Dies könnte durch die Identifizierung eines Kfz-Kennzeichens oder die Suche nach dem richtigen Wort/Satz mit einem automatischen Übersetzer geschehen. Allerdings müssen Sie dem Netz zunächst beibringen, Zahlen oder Wörter zu erkennen, und es erst dann frei schwimmen lassen.

Was wollen/können Sie dem Netz über den Strom historischer Daten anbieten? Und worauf zählen Sie?