Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2493

 
eccocom #:
Lesen Sie die TensorFlow Dokumentation, alles ist in Konstruktorform... praktisch. In Wirklichkeit sind es Black Boxes. Wenn Sie daran interessiert sind, kann ich Ihnen den Code des manuell geschriebenen Perzeptrons zur Verfügung stellen, der übrigens ausschließlich aus Matrixberechnungen besteht, auf denen alles basiert

Ich bin gerade auf den Beitrag von Evgeny Dyuka und seinem ServerNN (lesen Sie den Code) über TensorFlow zurückgekommen

weil ich auf eine Art Kritik an Python-Bibliotheken im Hobbybereich gestoßen bin

Die Pakete xgboost und lightGBM im Sklearn-Stack verfügten über integrierte Methoden zur Schätzung der Merkmalsbedeutung für "Holzmodelle":

1.Gain
Dieses Maß zeigt den relativen Beitrag jedes Merkmals zum Modell. Um dies zu berechnen, gehen wir zu jedem Baumknoten, sehen uns an, welches Merkmal zu einem Knotensplit führt, und wie stark die Modellunsicherheit gemäß der Metrik (Gini-Unreinheit, Informationsgewinn) reduziert wird.
Für jedes Merkmal wird sein Beitrag über alle Bäume summiert.

2.Cover
Zeigt die Anzahl der Beobachtungen für jedes Merkmal an. Nehmen wir an, Sie haben 4 Merkmale, 3 Bäume. Angenommen, fich 1 in den Knoten enthält 10, 5 und 2 Beobachtungen in den Bäumen 1, 2 bzw. 3. Dann wäre die Bedeutung des gegebenen fich 17 (10 + 5 + 2).

3.Frequency
Zeigt an, wie oft ein bestimmtes Merkmal in Baumknoten vorkommt, d.h. es zählt die Gesamtzahl der Baumaufteilungen für jedes Merkmal in jedem Baum.

Das Hauptproblem bei all diesen Ansätzen ist, dass unklar ist, wie genau ein bestimmtes Merkmal die Modellvorhersage beeinflusst. Wir haben zum Beispiel gelernt, dass die Höhe des Einkommens für die Beurteilung der Fähigkeit eines Bankkunden, einen Kredit zurückzuzahlen, wichtig ist. Aber wie genau? Wie stark verändern höhere Einkommen die Modellvorhersagen?

Ich möchte hier "Holzmodelle" vermeiden, weil sie eine Menge Arbeitsspeicher verbrauchen (und ich bin ein Fan von Geschwindigkeit und Kompaktheit)...

- Wie auch immer, die Antwort auf Ihre Frage lautet: BEQUEMLICH, INTERESSIERT... Ja, das dachte ich mir, Neuronale Netze sind allesamt Matrizenberechnungen (deshalb habe ich danach gefragt und nach Bibliotheken dafür)

p.s.

Ich verstehe nur nicht, wenn diese Bibliotheken, die in dem Zitat sind nicht vorhersagen können polynomial Koeffizienten (Antwort: um wie viel), dann wie können sie beschreiben ein dynamisches Modell? (nicht linear, nicht Regression [was dasselbe ist])... deshalb habe ich bisher über die Erstellung eines Modells nachgedacht (ich versuche mich an die Unterscheidung zu erinnern... mit Schwierigkeiten)

Машинное обучение в трейдинге: теория, практика, торговля и не только
Машинное обучение в трейдинге: теория, практика, торговля и не только
  • 2021.10.23
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 
JeeyCi #:

Ich bin gerade auf einen Beitrag von Evgeny Dyuka gestoßen

weil ich auf eine Art Kritik an Python-Bibliotheken im Hobbybereich gestoßen bin

Die Pakete xgboost und lightGBM im Sklearn-Stack verfügten über integrierte Methoden zur Schätzung der Merkmalsbedeutung für "Holzmodelle":

  1. Gewinn
    Dieses Maß zeigt den relativen Beitrag jedes Merkmals zum Modell. Um dies zu berechnen, gehen wir zu jedem Baumknoten, sehen uns an, welches Merkmal zu einem Knotensplit führt, und wie stark die Unsicherheit des Modells gemäß der Metrik (Gini-Verunreinigung, Informationsgewinn) reduziert wird.
    Für jedes Merkmal wird sein Beitrag über alle Bäume summiert.
  2. Cover
    Zeigt die Anzahl der Beobachtungen für jedes Merkmal an. Ein Beispiel: Sie haben 4 Merkmale, 3 Bäume. Angenommen, fich 1 in den Knoten enthält 10, 5 und 2 Beobachtungen in den Bäumen 1, 2 bzw. 3. Dann ist die Wichtigkeit für diesen fich 17 (10 + 5 + 2).
  3. Häufigkeit
    Zeigt an, wie oft ein bestimmtes Merkmal in Baumknoten vorkommt, d.h. es wird die Gesamtzahl der Baumknoten gezählt, die für jedes Merkmal in jedem Baum aufgeteilt wurden.


Das Hauptproblem bei all diesen Ansätzen ist, dass unklar ist, wie genau ein bestimmtes Merkmal die Modellvorhersage beeinflusst. Wir haben zum Beispiel gelernt, dass die Höhe des Einkommens eine wichtige Rolle bei der Beurteilung der Zahlungsfähigkeit eines Bankkunden für einen Kredit spielt. Aber wie genau? Wie stark verändern höhere Einkommen die Modellvorhersagen?

Für meinen Geschmack wird Python von denen kritisiert, die nicht wissen, wie man ihn kocht. Alle anderen Dinge sind einfacher zu tun, nicht mit vorgefertigten Lösungen und schreiben Sie sie mit Bibliotheken, und durch die Art und Weise mit zum Beispiel numpy Sie wahrscheinlich mehr Geschwindigkeit als C + + zu bekommen, wie es in Fortran geschrieben ist. Umso mehr ist Python jetzt leicht mit MT5 integriert, sozusagen in gerader Linie, es erlaubt, AI ohne Server mit Sockets zu benutzen.

 
JeeyCi #:

Ich bin gerade auf einen Beitrag von Evgeny Dyuka gestoßen

weil ich auf eine Art Kritik an Python-Bibliotheken im Hobbybereich gestoßen bin

Die Pakete xgboost und lightGBM im Sklearn-Stack verfügten über integrierte Methoden zur Schätzung der Merkmalsbedeutung für "Holzmodelle":

  1. Gewinn
    Dieses Maß zeigt den relativen Beitrag jedes Merkmals zum Modell. Zur Berechnung wird jeder Baumknoten betrachtet, welches Merkmal zu einem Knotensplit führt, und wie stark die Unsicherheit des Modells entsprechend der Metrik (Gini-Verunreinigung, Informationsgewinn) reduziert wird.
    Für jedes Merkmal wird sein Beitrag über alle Bäume summiert.
  2. Cover
    Zeigt die Anzahl der Beobachtungen für jedes Merkmal an. Ein Beispiel: Sie haben 4 Merkmale, 3 Bäume. Angenommen, fich 1 in den Knoten enthält 10, 5 und 2 Beobachtungen in den Bäumen 1, 2 bzw. 3. Dann ist die Wichtigkeit für diesen fich 17 (10 + 5 + 2).
  3. Häufigkeit
    Zeigt an, wie oft ein bestimmtes Merkmal in Baumknoten vorkommt, d.h. es zählt die Gesamtzahl der Baumknoten-Partitionen für jedes Merkmal in jedem Baum.


Das Hauptproblem bei all diesen Ansätzen ist, dass unklar ist, wie genau ein bestimmtes Merkmal die Modellvorhersage beeinflusst. Wir haben zum Beispiel gelernt, dass die Höhe des Einkommens eine wichtige Rolle bei der Beurteilung der Fähigkeit eines Bankkunden spielt, einen Kredit zurückzuzahlen. Aber wie genau? Wie stark verändern höhere Einkommen die Modellvorhersagen?

Alle diese Methoden sind ungeeignet. Hier ist ihre Validierung https://www.mql5.com/ru/blogs/post/737458
Bäume und Wälder sind schnell gezählt - Sie können auch einfach Merkmale einzeln hinzufügen/entfernen. Und finden Sie diejenigen, die das Ergebnis verbessern und diejenigen, die es verschlechtern.

Сравнение разных методов оценки важности предикторов.
Сравнение разных методов оценки важности предикторов.
  • www.mql5.com
Провел сравнение разных методов оценки важности предикторов. Тесты проводил на данных титаника (36 фичей и 891 строки) при помощи случайного леса из 100 деревьев. Распечатка с результатами ниже. За
 
Was die Modelle anbelangt, so geht es nicht um sie, sondern um die Tatsache, dass die KI im Wesentlichen ein Näherungswert ist, und das ist ihre Stärke in allen anderen Fällen außer auf dem Markt, da es zu viele Fische und Gänse unter dem glatten Meer gibt, die Preiswellen verursachen. Das Postulat, dass alles im Preis inbegriffen ist, ist zwar richtig, aber es gibt zu viel davon. Ein neuronales Netz kann nur ein kleiner Teil eines Systems sein, und wer das bestreitet, betreibt Selbsttäuschung.
 
eccocom #:
Was die Modelle betrifft, so geht es nicht um sie, sondern um die Tatsache, dass die KI im Wesentlichen ein Näherungswert ist, und das ist ihre Stärke in allen anderen Fällen außer auf dem Markt, da es zu viele Fische und Gänse unter dem glatten Meer gibt, die Preiswellen verursachen. Das Postulat, dass alles im Preis inbegriffen ist, ist zwar richtig, aber es gibt zu viel davon. Das neuronale Netz kann nur ein kleiner Teil eines Systems sein, und wer das bestreitet, betreibt Selbsttäuschung.
Und wer nennt Updater AI, was tun sie? )
 
mytarmailS #:
Und wer auch immer die KI-Approximatoren anruft, was tun sie? )
Wahrscheinlich war es falsch, es KI zu nennen, denn ich meinte nur ein neuronales Netz, aber es ist ein Spezialfall von KI. Ich mache es wie alle anderen, ich suche den Gral, ich mache es fakultativ, ohne Fanatismus). Ich bin hierher gekommen, um Ideen für Modelle (im Sinne eines neuronalen Netzes) zu finden, habe selbst etwas mitzuteilen. 20 Jahre Erfahrung sind sicherlich nicht vorhanden, aber für hundert Varianten des NS bin ich durchgegangen. Maximale Effizienz auf kurze Entfernungen, die ich etwa 68% erreicht, aber Sie verstehen wahrscheinlich, dass es nicht stabil und situationsabhängig ist.
 
eccocom #:
Nun, es war wahrscheinlich falsch, es als KI zu bezeichnen, da ich nur ein neuronales Netz meinte, das ein Spezialfall der KI ist. Ich bin auf dieselbe Weise wie alle anderen auf der Suche nach dem Gral, und zwar fakultativ, ohne Fanatismus.) Suda kam auf der Suche nach Ideen über Modelle (genau im Sinne eines neuronalen Netzes), da gibt es etwas zu teilen. 20 Jahre Erfahrung ist sicherlich nicht vorhanden, aber für hundert Varianten des NS bin ich durchgegangen. Die maximale Effizienz auf kurze Entfernungen, die ich erreicht habe, liegt bei etwa 68 %, aber Sie verstehen wahrscheinlich, dass das nicht stabil und situationsabhängig ist.
Ja, natürlich weiß ich das...
Aber hüten Sie sich vor Experten mit 20 Jahren Erfahrung, die um Code von anderen betteln ;)
 
mytarmailS #:
Ja, natürlich verstehe ich...
Aber achten Sie auf den Experten in den 20ern, der um Code von anderen bettelt ;)
Der Code ist mir egal, solange die Person gut ist). Übrigens habe ich den Artikel von Mihail Marchukajtes gelesen , und einige der dort verwendeten Ideen kommen auch bei mir zum Einsatz, aber ich habe ganz andere Gründe als der Autor. Es wäre interessant zu diskutieren, welche Modellvarianten mit welchen Schichten am effektivsten sind. Mikhail scheint, indirekten Hinweisen nach zu urteilen, vollverknüpfte Sequential()-Schichten zu verwenden.

Mihail Marchukajtes
Mihail Marchukajtes
  • 2021.10.12
  • www.mql5.com
Профиль трейдера
 
eccocom #:
Ich habe nichts gegen den Code, wenn die Person gut ist). Übrigens habe ich den Artikel von Mihail Marchukajtes gelesen . Ich verwende auch einige Ideen, die dort verwendet wurden, aber meine Gründe waren völlig anders als die des Autors. Es wäre interessant zu diskutieren, welche Modellvarianten mit welchen Schichten am effektivsten sind. Mikhail scheint, nach indirekten Hinweisen zu urteilen, vollverknüpfte Schichten Sequential() zu verwenden.

Er verwendet überhaupt keine Neuronen, er verwendet ein vorgefertigtes, mittelmäßiges Programm des Autors (eine Mischung aus SVM und MSUA), er programmiert weder in Python noch in R, daher ist ihm das Wort Sequential() unbekannt, er hat 20 Jahre Erfahrung mit neuronalen Netzen, es ist zu früh, sich dafür zu interessieren...


 
mytarmailS #:
Er benutzt überhaupt keine Neuronen, er benutzt ein vorgefertigtes, mittelmäßiges Programm des Autors (es ist ein Hybrid aus SVM und MGUA), er programmiert nicht in Python oder R-Code, daher ist ihm das Wort Sequental() unbekannt, 20 Jahre Erfahrung mit neuronalen Netzen, es ist noch zu früh, sich damit zu beschäftigen...


)))). Ich sehe, Sie haben offenbar ein großes Kommunikationsproblem. Ich selbst schreibe wahrscheinlich 8 von 10 Hindu-Codes)), würde aber trotzdem gerne meine Erfahrungen weitergeben. Und es wäre toll, diejenigen zu finden, die in Python schreiben und nicht nur das neuronale Netz, sondern die gesamte Struktur der EAs im Allgemeinen.