Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2493
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Lesen Sie die TensorFlow Dokumentation, alles ist in Konstruktorform... praktisch. In Wirklichkeit sind es Black Boxes. Wenn Sie daran interessiert sind, kann ich Ihnen den Code des manuell geschriebenen Perzeptrons zur Verfügung stellen, der übrigens ausschließlich aus Matrixberechnungen besteht, auf denen alles basiert
Ich bin gerade auf den Beitrag von Evgeny Dyuka und seinem ServerNN (lesen Sie den Code) über TensorFlow zurückgekommen
weil ich auf eine Art Kritik an Python-Bibliotheken im Hobbybereich gestoßen bin
Die Pakete xgboost und lightGBM im Sklearn-Stack verfügten über integrierte Methoden zur Schätzung der Merkmalsbedeutung für "Holzmodelle":
1.Gain
Dieses Maß zeigt den relativen Beitrag jedes Merkmals zum Modell. Um dies zu berechnen, gehen wir zu jedem Baumknoten, sehen uns an, welches Merkmal zu einem Knotensplit führt, und wie stark die Modellunsicherheit gemäß der Metrik (Gini-Unreinheit, Informationsgewinn) reduziert wird.
Für jedes Merkmal wird sein Beitrag über alle Bäume summiert.
2.Cover
Zeigt die Anzahl der Beobachtungen für jedes Merkmal an. Nehmen wir an, Sie haben 4 Merkmale, 3 Bäume. Angenommen, fich 1 in den Knoten enthält 10, 5 und 2 Beobachtungen in den Bäumen 1, 2 bzw. 3. Dann wäre die Bedeutung des gegebenen fich 17 (10 + 5 + 2).
3.Frequency
Zeigt an, wie oft ein bestimmtes Merkmal in Baumknoten vorkommt, d.h. es zählt die Gesamtzahl der Baumaufteilungen für jedes Merkmal in jedem Baum.
Das Hauptproblem bei all diesen Ansätzen ist, dass unklar ist, wie genau ein bestimmtes Merkmal die Modellvorhersage beeinflusst. Wir haben zum Beispiel gelernt, dass die Höhe des Einkommens für die Beurteilung der Fähigkeit eines Bankkunden, einen Kredit zurückzuzahlen, wichtig ist. Aber wie genau? Wie stark verändern höhere Einkommen die Modellvorhersagen?
Ich möchte hier "Holzmodelle" vermeiden, weil sie eine Menge Arbeitsspeicher verbrauchen (und ich bin ein Fan von Geschwindigkeit und Kompaktheit)...
- Wie auch immer, die Antwort auf Ihre Frage lautet: BEQUEMLICH, INTERESSIERT... Ja, das dachte ich mir, Neuronale Netze sind allesamt Matrizenberechnungen (deshalb habe ich danach gefragt und nach Bibliotheken dafür)
p.s.
Ich verstehe nur nicht, wenn diese Bibliotheken, die in dem Zitat sind nicht vorhersagen können polynomial Koeffizienten (Antwort: um wie viel), dann wie können sie beschreiben ein dynamisches Modell? (nicht linear, nicht Regression [was dasselbe ist])... deshalb habe ich bisher über die Erstellung eines Modells nachgedacht (ich versuche mich an die Unterscheidung zu erinnern... mit Schwierigkeiten)
Ich bin gerade auf einen Beitrag von Evgeny Dyuka gestoßen
weil ich auf eine Art Kritik an Python-Bibliotheken im Hobbybereich gestoßen bin
Die Pakete xgboost und lightGBM im Sklearn-Stack verfügten über integrierte Methoden zur Schätzung der Merkmalsbedeutung für "Holzmodelle":
Dieses Maß zeigt den relativen Beitrag jedes Merkmals zum Modell. Um dies zu berechnen, gehen wir zu jedem Baumknoten, sehen uns an, welches Merkmal zu einem Knotensplit führt, und wie stark die Unsicherheit des Modells gemäß der Metrik (Gini-Verunreinigung, Informationsgewinn) reduziert wird.
Für jedes Merkmal wird sein Beitrag über alle Bäume summiert.
Zeigt die Anzahl der Beobachtungen für jedes Merkmal an. Ein Beispiel: Sie haben 4 Merkmale, 3 Bäume. Angenommen, fich 1 in den Knoten enthält 10, 5 und 2 Beobachtungen in den Bäumen 1, 2 bzw. 3. Dann ist die Wichtigkeit für diesen fich 17 (10 + 5 + 2).
Zeigt an, wie oft ein bestimmtes Merkmal in Baumknoten vorkommt, d.h. es wird die Gesamtzahl der Baumknoten gezählt, die für jedes Merkmal in jedem Baum aufgeteilt wurden.
Das Hauptproblem bei all diesen Ansätzen ist, dass unklar ist, wie genau ein bestimmtes Merkmal die Modellvorhersage beeinflusst. Wir haben zum Beispiel gelernt, dass die Höhe des Einkommens eine wichtige Rolle bei der Beurteilung der Zahlungsfähigkeit eines Bankkunden für einen Kredit spielt. Aber wie genau? Wie stark verändern höhere Einkommen die Modellvorhersagen?
Für meinen Geschmack wird Python von denen kritisiert, die nicht wissen, wie man ihn kocht. Alle anderen Dinge sind einfacher zu tun, nicht mit vorgefertigten Lösungen und schreiben Sie sie mit Bibliotheken, und durch die Art und Weise mit zum Beispiel numpy Sie wahrscheinlich mehr Geschwindigkeit als C + + zu bekommen, wie es in Fortran geschrieben ist. Umso mehr ist Python jetzt leicht mit MT5 integriert, sozusagen in gerader Linie, es erlaubt, AI ohne Server mit Sockets zu benutzen.
Ich bin gerade auf einen Beitrag von Evgeny Dyuka gestoßen
weil ich auf eine Art Kritik an Python-Bibliotheken im Hobbybereich gestoßen bin
Die Pakete xgboost und lightGBM im Sklearn-Stack verfügten über integrierte Methoden zur Schätzung der Merkmalsbedeutung für "Holzmodelle":
Dieses Maß zeigt den relativen Beitrag jedes Merkmals zum Modell. Zur Berechnung wird jeder Baumknoten betrachtet, welches Merkmal zu einem Knotensplit führt, und wie stark die Unsicherheit des Modells entsprechend der Metrik (Gini-Verunreinigung, Informationsgewinn) reduziert wird.
Für jedes Merkmal wird sein Beitrag über alle Bäume summiert.
Zeigt die Anzahl der Beobachtungen für jedes Merkmal an. Ein Beispiel: Sie haben 4 Merkmale, 3 Bäume. Angenommen, fich 1 in den Knoten enthält 10, 5 und 2 Beobachtungen in den Bäumen 1, 2 bzw. 3. Dann ist die Wichtigkeit für diesen fich 17 (10 + 5 + 2).
Zeigt an, wie oft ein bestimmtes Merkmal in Baumknoten vorkommt, d.h. es zählt die Gesamtzahl der Baumknoten-Partitionen für jedes Merkmal in jedem Baum.
Das Hauptproblem bei all diesen Ansätzen ist, dass unklar ist, wie genau ein bestimmtes Merkmal die Modellvorhersage beeinflusst. Wir haben zum Beispiel gelernt, dass die Höhe des Einkommens eine wichtige Rolle bei der Beurteilung der Fähigkeit eines Bankkunden spielt, einen Kredit zurückzuzahlen. Aber wie genau? Wie stark verändern höhere Einkommen die Modellvorhersagen?
Alle diese Methoden sind ungeeignet. Hier ist ihre Validierung https://www.mql5.com/ru/blogs/post/737458
Bäume und Wälder sind schnell gezählt - Sie können auch einfach Merkmale einzeln hinzufügen/entfernen. Und finden Sie diejenigen, die das Ergebnis verbessern und diejenigen, die es verschlechtern.
Was die Modelle betrifft, so geht es nicht um sie, sondern um die Tatsache, dass die KI im Wesentlichen ein Näherungswert ist, und das ist ihre Stärke in allen anderen Fällen außer auf dem Markt, da es zu viele Fische und Gänse unter dem glatten Meer gibt, die Preiswellen verursachen. Das Postulat, dass alles im Preis inbegriffen ist, ist zwar richtig, aber es gibt zu viel davon. Das neuronale Netz kann nur ein kleiner Teil eines Systems sein, und wer das bestreitet, betreibt Selbsttäuschung.
Und wer auch immer die KI-Approximatoren anruft, was tun sie? )
Nun, es war wahrscheinlich falsch, es als KI zu bezeichnen, da ich nur ein neuronales Netz meinte, das ein Spezialfall der KI ist. Ich bin auf dieselbe Weise wie alle anderen auf der Suche nach dem Gral, und zwar fakultativ, ohne Fanatismus.) Suda kam auf der Suche nach Ideen über Modelle (genau im Sinne eines neuronalen Netzes), da gibt es etwas zu teilen. 20 Jahre Erfahrung ist sicherlich nicht vorhanden, aber für hundert Varianten des NS bin ich durchgegangen. Die maximale Effizienz auf kurze Entfernungen, die ich erreicht habe, liegt bei etwa 68 %, aber Sie verstehen wahrscheinlich, dass das nicht stabil und situationsabhängig ist.
Ja, natürlich verstehe ich...
Ich habe nichts gegen den Code, wenn die Person gut ist). Übrigens habe ich den Artikel von Mihail Marchukajtes gelesen . Ich verwende auch einige Ideen, die dort verwendet wurden, aber meine Gründe waren völlig anders als die des Autors. Es wäre interessant zu diskutieren, welche Modellvarianten mit welchen Schichten am effektivsten sind. Mikhail scheint, nach indirekten Hinweisen zu urteilen, vollverknüpfte Schichten Sequential() zu verwenden.
Er benutzt überhaupt keine Neuronen, er benutzt ein vorgefertigtes, mittelmäßiges Programm des Autors (es ist ein Hybrid aus SVM und MGUA), er programmiert nicht in Python oder R-Code, daher ist ihm das Wort Sequental() unbekannt, 20 Jahre Erfahrung mit neuronalen Netzen, es ist noch zu früh, sich damit zu beschäftigen...