Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2097

 
mytarmailS:

ahaha )) die dänische Krone regiert den Euro )))

Ich habe mich gerade erinnert... entweder Burrito oder Sardelle... Boruta, richtig?

 
Maxim Dmitrievsky:

Mir fällt gerade ein... entweder Burrito oder Sardelle... Boruta, richtig.

Ich bin davon nicht beeindruckt.

 

dieser Hut soll den Merkmalsraum so komprimieren, dass die Ns nicht auf irgendetwas, auf irgendein Geräusch, zurücktrainieren

Die Rakete macht dasselbe, aber ohne neuronales Netz und alle Kerne sind zufällig. Und dann werden die besten ausgewählt, durch Entropie oder was auch immer

 

Das Problem bei Faltungsnetzen ist die Auswahl der Architektur, daher sollten Sie auf Standardmodelle, Restnetze usw. zurückgreifen.

Frage an die Journalisten: Was passiert am 4. oder 5. eines jeden Monats?

Eine weitere Frage zum Scaffolding: Kann das Ziel als "Gewinnmaximierung" und nicht als Klasseneinteilung oder Regression festgelegt werden?

 
Rorschach:

Das Problem bei Faltungsnetzen ist die Auswahl der Architektur, daher sollten Sie auf Standardmodelle wie Restnetze usw. zurückgreifen.

Fertigprodukte wofür? Sie müssen sie selbst herstellen, das ist nicht so schwer... es ist schwieriger, damit anzufangen.

 
Maxim Dmitrievsky:

Wofür? Du musst es selbst machen, das ist nicht so schwer... der Anfang ist schwieriger

Vorgebildet. Für die Bilderkennung werden vor allem Faltungsprogramme verwendet. Jede Schicht hebt einige Merkmale hervor (Streifen, Ecken), ähnlich wie beim Gehirn. Sie können ein vorgefertigtes Netz (das auf Supercomputern trainiert wurde) nehmen und es anhand Ihrer Beispiele trainieren.

Lesen Sie mehr (von What Our Image Recognizer Learned)
 
Rorschach:

Vorgebildet. Für die Bilderkennung werden vor allem Faltungsprogramme verwendet. Jede Schicht hebt bestimmte Merkmale hervor (Streifen, Ecken), wie im Gehirn. Sie können ein vorgefertigtes Netz (das auf Supercomputern trainiert wurde) nehmen und es anhand Ihrer Beispiele trainieren.

Lesen Sie mehr (von What Our Image Recognizer Learnt)

Haben Sie verstanden, was ich gerade gesagt habe? ) ein SEAL-trainiertes Netzwerk nehmen und es in Inkrementen trainieren?

diese Eugenik ist neu für mich

 
Maxim Dmitrievsky:

dieser Hut soll den Merkmalsraum so komprimieren, dass die Ns nicht auf irgendetwas, auf irgendein Geräusch, zurücktrainieren

Die Rakete macht dasselbe, aber ohne neuronales Netz und alle Kerne sind zufällig. Und dann werden die besten ausgewählt, durch Entropie oder was auch immer.

Versuchen Sie es, ich bin nicht gut darin.

Rorschach:

Eine weitere Frage zum Scaffolding: Ist es möglich, als Ziel die "Gewinnmaximierung" und nicht die Aufteilung in Klassen oder die Regression festzulegen?

Gewinnmaximierung ist eine Optimierungsaufgabe, es gibt andere Algorithmen, Genetik, Annealing...

Forces ist lehrergestütztes Lernen, Sie brauchen Partitionierung...

Ich frage mich, wie das zusammenpasst.

 
Maxim Dmitrievsky:

Haben Sie verstanden, was ich vorgeschlagen habe? ) Man nehme ein SEAL-trainiertes Netzwerk und trainiere es schrittweise?

das ist die größte Eugenik, die ich je gesehen habe

Sehen Sie sich den Link an und scrollen Sie nach unten, dann bekommen Sie einen Eindruck

 
Rorschach:

Sehen Sie sich den Link an und scrollen Sie nach unten, dann bekommen Sie einen Eindruck.

Ja, lustig, das werde ich mir merken.