Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1912
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Mit anderen Worten, der Algorithmus wird diesen beiden nahe beieinander liegenden Vektoren.... ein unangemessen hohes Gewicht zuweisen.
Aber warum ist es unvernünftig? Wenn etwas oft wiederholt wird, sagen wir 100 Mal, und zu einem statistisch signifikanten Ergebnis führt, dann ist es nur angemessen, dem mehr Gewicht zu geben als einem Beispiel mit einer Beobachtung und einem unklaren Ergebnis.
1) Sie haben 100 Mal Wolken gesehen und in 70 % der Fälle hat es geregnet.
2) Dein Knie hat einmal gejuckt und es hat geregnet.
warum glauben Sie, dass diese beiden Muster gleich gewichtet werden sollten? die ganze Welt denkt anders, so auch die Neuronik :)
Aber warum ist das nicht gerechtfertigt? Wenn etwas häufig wiederholt wird, z. B. 100 Mal, und ein statistisch signifikantes Ergebnis liefert, ist es angemessen, ihm mehr Gewicht zu geben als einem Beispiel mit einer Beobachtung und einem unklaren Ergebnis.
1) Sie haben 100 Mal Wolken gesehen und in 70 % der Fälle hat es geregnet.
2) Dein Knie hat einmal gejuckt und es hat geregnet.
warum sollten diese beiden muster Ihrer Meinung nach gleich gewichtet werden? die ganze welt sieht das anders, und auch neuronics :)
und diese Statistiken lehren Sie nichts?
Sie machen 100 Mal Geld und gewinnen XZix Mal.
;)
Aber warum ist das nicht gerechtfertigt? Wenn etwas oft wiederholt wird, sagen wir 100 Mal, und ein statistisch signifikantes Ergebnis liefert, ist es angemessen, ihm mehr Gewicht zu geben als einem Beispiel mit einer Beobachtung und einem unklaren Ergebnis.
1) Sie haben 100 Mal Wolken gesehen und in 70 % der Fälle hat es geregnet.
2) Dein Knie hat einmal gejuckt und es hat geregnet.
warum sollten diese beiden muster Ihrer Meinung nach gleich gewichtet werden? die ganze welt denkt anders, auch die neuronics :)
Liebe Kolleginnen und Kollegen, verzeihen Sie mir bitte, aber ich habe mich in meiner Erklärung verlaufen. Obwohl ich einen Trainingssatz habe, der aus weniger Zeilen als Spalten besteht. Das Training selbst findet jedoch an einer Stichprobe von 11 Spalten statt. Jedenfalls habe ich es nicht mit Absicht getan. Ich wusste nicht, was ich da tat :-(
(Verzeihen Sie mir) wenn Sie aufmerksam waren, haben Sie es verstanden...
Aber ich habe immer noch keine Antwort auf meine einfache Frage erhalten - WARUM sind eindeutige Werte besser als statistisch signifikante Werte?
Auch wenn Sie alle Zeilen einzigartig machen wollen, habe ich Ihnen eine Idee gegeben, wie Sie das machen können.
===============================================
Cooles Video - wie und auf welche Weise REALE Probleme in MO gelöst wurden, es gibt auch ein Problem mit BP, sehr interessant
verzeihen Sie mir) haben diejenigen, die genau hingesehen haben, verstanden...
Aber ich habe immer noch keine Antwort auf meine einfache Frage erhalten - WARUM sind eindeutige Werte besser als statistisch signifikante Werte?
Auch wenn Sie alle Zeilen einzigartig machen wollen, habe ich Ihnen eine Idee gegeben, wie Sie das machen können.
===============================================
Cooles Video - wie und auf welche Weise REALE Probleme in MO gelöst wurden, es gibt auch ein Problem mit BP, sehr interessant
Ja, danke für den Code, ich habe ihn gespeichert, aber noch nicht wirklich studiert... Ich denke, ich werde es mir in der Woche ansehen...
Denn statistisch signifikante Vektoren können ohne NS frontal verwendet werden. Beim Lernen von NS ist es besser, die Vektoren zu lernen, die in demselben Bereich geclustert sind. Wenn in der Zukunft die gleichen Vektoren auftauchen, ist es in Ordnung, aber wenn in der nächsten Zukunft ein Vektor auftaucht, der aber zu einer anderen Klasse gehört, wird das Netz einen 100%igen Fehler machen, weil es nicht erkannt hat, dass diese Gruppe zu einer bestimmten Klasse gehört. IMHO
Wenn aber ein Vektor in der Nähe auftaucht, der zu einer anderen Klasse gehört, dann macht das Netz einen 100%igen Fehler, weil es mitgeteilt hat, dass diese Gruppe zu einer bestimmten Klasse gehört. IMHO
Ahhhhh, nun, ich verstehe, was du meinst...
Es tut mir leid, dass ich dich angeschnauzt habe, manchmal bin ich nicht in Ordnung.
Die Frage ist, wie ein neuronales Netz den Wunsch der Bank vorhersagen kann, ein bestimmtes Währungsvolumen (zum Beispiel) zu kaufen oder zu verkaufen. Ein neuronales Netzwerk kann nur dann die Trägheit in der Richtung erfassen, wenn spekulative Volumina verkauft werden und der Preis sich aktiv bewegt. Aber ein neuronales Netzwerk wird nie den genauen Zeitpunkt des Eintritts des Teilnehmers anzeigen, der den Preis verändern wird (Preistreiber), obwohl dies nicht notwendig ist - in 99%, wenn Sie wissen, wie Sie den Preistreiber und seine Richtung identifizieren können, werden Ihre Transaktionen immer vor der Implementierung sein und Sie werden einen stabilen Gewinn haben. Meine Firma hat auch eine Abteilung für algorithmischen Handel, aber sie ist mehr auf sehr schnelles Scalping ausgerichtet - das neuronale Netz fängt auch die Trägheit der hft-Algorithmen auf und auf der Grundlage seiner Analyse machen unsere Roboter Geschäfte, indem sie den hft vollständig kopieren (nur für bestimmte Märkte und Symbole). Der grundlegende Handel wird auf die alte Art und Weise von Hand durchgeführt, weil der Preistreiber nicht vorhergesagt werden kann (und auch nicht muss), man kann ihn nur sehen = das Auto wird Ihnen den Indikator zeigen, bevor es die Richtung ändert (Sie verstehen, dass das neuronale Netz nicht vorhersagen kann, wann der Indikator dieses oder jenes Autos anspringt).
beschlossen, zu sehen, wie typische Daten für das 3D-Training von NS aussehen würden ))
Daten 31 Indikatoren sind, ist das Ziel ein Zickzack
Ich habe die Dimensionalität auf drei Dimensionen mit drei Algorithmen reduziert - pca, t-sne, umap (die letzten beiden gelten als die fortschrittlichsten)
Was ist das überhaupt -https://en.wikipedia.org/wiki/Dimensionality_reduction
how it can help -https://ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%BE%D0%BA%D0%BB%D1%8F%D1%82%D0%B8%D0%B5_%D1%80%D0%B0%D0%B7%D0%BC%D0%B5%D1%80%D0%BD%D0%BE%D1%81%D1%82%D0%B8
Also Daten 31 Indikator Ziel Zickzack , zuerst haben wir PCA
nächste t-sne
umap
wie wir sehen können, können wir es nicht nach Klassen unterteilen, also ist entweder das Ziel Müll oder Merkmale, oder alles zusammen)))
Eine Oberfläche mit guter Trennbarkeit sollte so aussehen, aber es gibt hier drei Klassen, aber ich denke, Sie werden die Idee verstehen
eine Frage: Wie kann ein neuronales Netz vorhersagen, ob die Bank ein bestimmtes Volumen an Devisen kaufen oder verkaufen will?
Große Käufe werden nicht in einer Sekunde getätigt, sondern brauchen Zeit. Während dieser Zeit zeigt der Preis ein Muster für diese Käufe an, und dieses Muster kann mit Hilfe von Algorithmen des maschinellen Lernens ermittelt werden.