トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1328

 
マキシム・ドミトリエフスキー

PythonよりもRに力を入れる必要があるようです。Renatは、松葉杖を使わずに直接バンドルできるようになると書いています。

つまり、mt5から1行でcatbustを実行できる。

レナートは特に何も言いませんでした。ギフトはどちらかというと別のリブに近い、それだけです。
Rを差し込むとホラーになるという話でした。そうでした。
 
アレクセイ・ニコラエフ

具体的に何か明らかになったことはありますか?プレゼント」についての投稿を見ただけで、詳細は不明です。

もっと具体的に言うと、お菓子とビスケットじゃないかな。

 
マキシム・ドミトリエフスキー

純粋に研究目的で、ウサギの穴の深さに興味があります

わからないものですね。とても深くて、手が届かないし、見ることすらできない。

マキシム・ドミトリエフスキー

それは、多くの人にとって理解しがたい、不思議なことかもしれません。しかし、最終的には皆さんは、このような呆気ない機能構築やターゲットなどの幼稚園児的なものを抜きにして、ブルートフォースに辿り着くことになるのです。そして、それがどのように実装されるかの詳細のみを議論したいという欲求が出てきます。

特性、ターゲット、サブサンプルに関することは、もうこれ以上議論したくありません。

正しい」ブルートフォースのための賢明なアイデアにのみ反応するようにします。

結局、みんなブルートフォースに来るんですよ。しかし、ブラシフォースは少なくとも数倍は減らせます。ただ、サインやサブサンプルなど、いろいろな工夫が必要です。多くの問題では、解の一部が既に知られており、解に関する予備的な情報が既に存在し、その利用によりブルートフォースを大幅に削減することが可能である。実は17年11月の時点でもそうだったんです)。

次の日から、もうPythonでやり直します。そろそろ新バージョンを作ろうか。

 
ユーリイ・アサウレンコ

わからないものですね。とても深くて、手が届かないし、見ることすらできない。

結局、みんなブルートフォースに来るんですよ。しかし、ブルートフォースは、あらゆる種類の機能、サブサンプルなどによって、少なくとも数倍は削減することができます。多くの問題では、解の一部が既に知られており、解に関する予備的な情報が既に存在し、その利用によりブルートフォースを大幅に削減することが可能である。実は17年11月の時点でもそうだったんです)。

次の日から、もうPythonでやり直します。新バージョンのリベットの時間です。

バリエーションは無限にあると思います。ある特性が他の特性より優れているということはなく、全ては対象との相対的な関係です。

市場やニュースなどのツールから形成されるサインと、偶然のプロセス(BP)から形成されるサインは別物であることは明らかです。

 
アレクセイ・ヴャジミキン

例えば、子供の描いた絵から家を見つけるのに、NSは非常に時間がかかりますが、ツリーはこの物体の座標を素早く判断し、単純にベクトルに変換してくれます。しかし、縮尺を変えると、ツリーはこの家を識別できなくなりますが、NSは識別できるはずです。

NSは本当にスケーリングが嫌いなんですね。価格帯で訓練された - 100から120、価格は超えて行く - それはだ、中止する。私は、価格に関連するすべてのものを価格自体で割って、そこから1を引き、比率を使って変数を適切なダイナミックレンジに追い込んでいくだけです。

 
マキシム・ドミトリエフスキー

バリエーションは無限にあり、ある機能が他の機能より優れているということはなく、すべては対象との相対的な関係であると思います。

市場やニュースなどのツールから形成される兆候と、偶発的なプロセス(BP)から生まれる兆候は別物であることは明らかである。

まあ、例えば、MAが上がったらショートはしないほうがいいということは分かっています。ロング、当然ながら疑問視されている。ロングの学習サンプルは、「行かない方が良い場所」が除外されるため、すぐに半減します。そういう前提条件をいろいろと工夫して、トレーニング(ブルートフォース)を何倍かに減らすことができる。実際の仕事でも、同じような選別を行って、NSに行かない方が良いデータは、手に入らないだけです。また、NSに様々なゴミを積まない。

 
ユーリイ・アサウレンコ

まあ、例えば、MAが上がったらショートはしないほうがいいということは分かっています。ロングは、当然ながら疑問が残る。ロングの学習サンプルは、「行かない方が良い場所」を除外するため、すぐに半減してしまう。そういう前提条件をいろいろと工夫して、トレーニング(ブルートフォース)を何倍かに減らすことができる。実際の仕事でも、NSに行かない方がいいようなデータも、同じように選別して、単純に取得しないようにしています。

これは人為的なケースであり、他の状況ではこれらの条件は正反対に満たされます。

専門家の評価は、それが適切であれば、何らかの形でプリオールという形で加えられるが、そうでなければ何の意味もない

 
マキシム・ドミトリエフスキー

これはすべて人工的なケースであり、別の状況では、これらの条件はまったく逆に満たされるでしょう。

これが私の仕事のやり方です。NSに無意味なことは教えない、バザーを事前にフィルターにかける。NSがなくても判断できるのに、なぜNSを搭載するのか?NSはより簡単になり、リソースはより繊細なタスクのために解放され、トレーニング時間は、短縮されないまでも、トレーニングの質は向上するのです。

さらに、マーケットシグナルのような人工的なプレトレーニングも試してみたいです。その次のステップとなるものです。さっきも書いたけど。

 
ユーリイ・アサウレンコ

それが私の仕事です。NSにはデタラメを教えず、事前にデタラメをフィルタリングしているんです。NSがなくても識別できるのに、なぜNSに負担をかけるのか?NSはより簡単になり、リソースはより繊細なタスクのために解放され、トレーニング時間は、短縮されないまでも、トレーニングの質は向上するのです。

さらに、マーケットシグナルのような人工的なプレトレーニングも試してみたいです。その次のステップとなるものです。さっきも書いたけど。

ここでもまた、異なるアプローチについて話しています

あなたは、最初にプリオールを使うので、先生と一緒にトレーニングしますが、私は先生なしでトレーニングします。

 
マキシム・ドミトリエフスキー

ここでもまた、異なるアプローチについて話しています

先生と一緒に練習するのは、一から始めるからで、私は先生なしで練習しています。

先生がいなくても、同じことができるのです。違いがわからない。

ニューロンの束が学習し、2、3個のif文で解決される問題を解くことを想像してください。NSの脳はこのくだらなさでいっぱいで、美しいことを考えるどころか・・・・・・))