トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 1271

 
正規分布が期待できるのは完成された過程のみであり(単なる思いつき-確認していない)、市場はそうではないので、その偏在性や非定常性に関するすべての仮定は推測に過ぎず、市場が存在する限り検証できない、という考えが浮かんだのです。
 
マキシム・ドミトリエフスキー

市場にとっては、技術が同じなので、まったく同じように訓練されます。影響力」については、あなたが想像しているような方法で明示的に教えられることはありません。戦略セット、最適戦略などがあります。(RLではポリシーと呼ばれる)。

もし、ボットクリエイターがいたら、彼に一連の質問をし、その答えにとても驚かされることでしょう。これらのRLはいずれも文房具的な環境影響を学習するのに適していますが、他のプレーヤーと対戦する場合は、ここでは裸のRLは使えません。このあたりは深く勉強していないので、勘違いしているかもしれません。しかし、環境の変化との明確な相互作用があり、ボットの行動からは何も期待できない、全く見えない、自分と相手の両方にダメージを与える確率のコントロールがあり、単に誤算があり、負の結果の可能性を減らす方向に行動するが、それはゲーム開始時にポリシーによって指定された確率ではなく、環境の変化に対する影響であること。

 
読ませていただきました。数回投稿して、理論が延々と続くことに気づく。でも、練習を始めるとびっくりするんですよ。モデルを作り、新しいソリューションを探すことは、すべてをセットアップし、配置し、待つ......という実際の取引とは比べものにならないのです。その後、最初のシグナルが表示され、ロボットが取引を開始します。しかし、最悪なのは、このトレードの結果とその(ロボットの)判断を分析するときです。このまま儲かるか、そろそろ変えるか。私の経験では、最適化の後、彼は1、3回負けトレードをして、その後上昇に転じるのが普通です。そして、そんな時、自分も大騒ぎして確認するようになるのです。上がるか上がらないか。検索や最適化の時には考えもしなかったような問題に、実際の取引で直面するということです。ですから、早く練習を始めれば始めるほど、実践的なトレーダーの問題に直面するのが早くなります。当然、I.M.O.
 
 
ロシア語のビデオと解説を見ましたが、資産評価がある、結果の確率がある、マイクロコントロールがある、開発のための初期戦略が詐称されているなど、自分の行動に対する考え方が非常に正しかったことに驚きさえ覚えました。マイクロコントロールの効率で、経済的な観点から最も効果的に見えるように、戦うユニットを正確に選択することに非常に重点を置いており、プラス他のものは、戦いが早く勝利するように、必要ありません。一般に、明らかに多くの構成要素があり、1つのニューロンではない可能性が高く、異なる構成要素を担当する異なるモデルが存在します。それに加えて、開発者自身が基本戦略のモデルを使い分けていると明言していますから、何らかのランダム性はあるでしょうね。
 

皆さん、こんにちは。ここにいらっしゃる方々は非常に知的であり、これは皮肉ではなく事実を述べたものであることがわかりましたので。MEという分野は知性に欠けているわけではないので、コミュニティに質問があるのです。UBUNTUを管理したことのある方はいらっしゃいますか?行政の話です。問題はこれだ。最適化の際には、このプロセスをシステムのコアの数だけ実行し、並列化する。

質問:2つまたは4つのコアを、1つの実行中の非分割プロセスに強制的に奉仕させることは可能ですか?まあ、あくまで私の場合ですが...誰か知っているかもしれませんね...。

 

グーグルは今日も働いている

https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/

OK 昨日また無駄な言い争いになってしまった。

 
マキシム・ドミトリエフスキー

グーグルは今日も働いている

https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/

よし、昨日も無駄な言い争いになってしまった

なお、戦いの結果の期待値のグラフには、まさに私が言っていた確率、つまり状況的なものがあり、それがニューロンのフィードバックを活性化させます。この確率が、双方のスカウトやユニットの損失によってどのように変化するか、つまりパワーバランスと自分の期待値を常に再計算していることがよくわかります。これは明らかに古典的なRLのバリエーションではありません。


 
アレクセイ・ヴャジミキン

戦いの期待値のグラフには、まさに私が言っていた確率、つまりニューロンのフィードバックを活性化させる状況的確率があることに注目してください。この確率が、双方のスカウトやユニットの損失によってどのように変化するか、つまりパワーバランスと自分の期待値を常に再計算していることがよくわかります。これは明らかに古典的なRLのバリエーションではありません。


だから、あなたはとても不器用で、私はそれをあなたに伝えようとしたのだと思いました :D

リンク先のナッシュ均衡についても、昨日、読まずにアルゴリズム1 in 1を説明しました。

ポイントは、ゲームには確率の見積もりがなく、ゲームには有効性があることです。

当たり前が古典的な深層RL笑 話題になってないのにゴミを語るのはやめましょう

 
マキシム・ドミトリエフスキー

だから、あなたはとても不器用で、私があなたに説明しようとしているのはそういうことなんだと思いました :D

リンク先のナッシュ均衡についても読んでください。私は昨日、アルゴリズム1 in 1を読まずに説明しました。

ポイントは、ゲームには確率の見積もりがなく、ゲームには有効性があることです。

定番のディープなRLしか見てない笑 話題になってないのに無意味なこと言うのやめろよ。

トレーディング、自動売買システム、トレーディング戦略のテストに関するフォーラムです。

私は以前から外国為替市場での取引に興味があり、これこそ機械学習を教える最良の方法だと確信しています。

アレクセイ・ヴャズミキン さん 2019.01.25 17:15

私は少し違った見方をしていて、玩具には従来、ボットの数とその潜在能力、資産、お金など多くの要素からなるそれぞれの側の数学的評価があり、相手はこの評価数値を減らして自分の評価数値を相手より高く 保つ、つまり結果にかけるエネルギーを少なくすることを目指して います。その結果、ユニットを犠牲にすることで相手の推定資産価値をユニットの推定値よりも多く減らせることが明らかであれば、これは正しい判断であり、そうでなければ正しくないという、相互に影響しあうシステムになります。そして、トレーディングでは保証はなく、確率のみですが、おもちゃでは数学的に計算できる保証があります。

状況を左右することはできませんが、ゲームの中では、自分たちで有利な状況を作り出すことも含めて可能なのです。

トレーディング、自動売買システム、トレーディング戦略のテストに関するフォーラム

トレーディングにおける機械学習:理論と実践(トレーディングだけでなく)

アレクセイ・ヴャズミキン, 2019.01.26 00:06

もし、ボットクリエイターがいたら、いろいろな質問をして、その答えにとても驚かれることでしょう。これらのRLはいずれも環境に影響を与える要因を定常的に学習することに長けていますが、他のプレーヤーと対戦する場合は、裸のRLはここでは機能しません。このあたりは深く勉強していないので、勘違いしているかもしれません。しかし、環境の変化との相互作用は明確にあります。ボットの行動からは、何か期待するものがあるのか、全く見えません。自分と相手の両方にダメージを与える確率のコントロールがあり、単純に誤算があり、負の結果の確率を下げる方向に行動しますが、それは ゲーム開始時のポリシーで与えられた確率ではなく、環境の変化に対する効果 です。


本から得た概念で考えることに脳が慣れているのかもしれませんが、私はあまり高尚でない事柄の方が操作しやすいので、自分の言葉で表現してみました。
理由: