トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 789 1...782783784785786787788789790791792793794795796...3399 新しいコメント forexman77 2018.03.30 12:51 #7881 AUTO ARIMA はすべて自分で計算するので、私は見積もりをロードするだけでよいという理解で合っていますか? いくつかのサイトで確認したところ、ARIMA(0,1,0)モデルはどこにでも出てきますね。 Mihail Marchukajtes 2018.03.30 12:51 #7882 アナトリー・ザイニチコフスキーこれがその様子です。3本前にこのドロップを見たからと言って、今それを考慮しているわけではありません。 いい写真ですね、例として使わせていただきます・・・。 では、もし予測に誤差がなければ、下落があると見た場合、どのようにマイナスを得ることができるのでしょうか。ゼロバーが逆のサインで閉じると、やはり下落があることが分かります。この写真を見て、疑問が湧かないことを祈ります...。窓はランダムに選びましたが、この窓の中のすべてのバーを予測し、その結果、3本目のバーがゼロになり、予測に大きな違いが見られたら、売ります。しかし、最初のバーで予測にわずかな弾性率の違いが見られたとき、どのバーで大きく伸びるかはすでに分かっている。ただ、問題になっているのは2つの誤解です。まず、当たり前と思われる点を省いて説明します。2つ目は、経験不足で理解できていないことです。でも、質問するのは当たり前なので、続けましょう・・・。 Anatolii Zainchkovskii 2018.03.30 12:56 #7883 ミハイル・マルキュカイツいい写真ですね、例として使わせていただきます...。 だから、予報に誤差がない状態で、下落があることがわかるのに、どうしてマイナスになるのか。ゼロバーが逆のサインで閉じると、やはり下落があることが分かります。この写真を見て、疑問が湧かないことを祈ります...。窓はランダムに選びましたが、この窓の中のすべてのバーを予測し、その結果、3本目のバーがゼロになり、予測に大きな違いが見られたら、売ります。しかし、最初のバーで予測にわずかな弾性率の違いが見られたとき、どのバーで大きく伸びるかはすでに分かっている。ただ、問題になっているのは2つの誤解です。まず、当たり前と思われる点を省いて説明します。2つ目は、経験不足で理解できていないことです。でも、質問するのはいいことだから、続けよう...。統計を見ると、予測に基づいているとは思えないし、予測に基づくべきとも思えないが、予測に基づいているのかもしれない。しかし、100%の予測ではすべて超一級品ですが、90%の予測でも10%の間違った予測ではバランスが崩れるので、どうしたらいいでしょうか。 Mihail Marchukajtes 2018.03.30 13:16 #7884 今日は帰りが遅くなりそうですが、数日前から長い記事を書きたかったので。今やって見ます。その前に小さな余談を。 書かれた部分は確かにブログに掲載され、リンクが張られます。それから、この記事の代わりに、「機械学習で働くための方法論ガイドライン」みたいなものをもう1本書き始めました。ある日、街を歩いていて、大学のように、やっていいことと悪いことの基本的なルールを水も漏らさずに説明する方法論があってもいいのではと思ったんです。それなら、よく言われるように、待てばいいんです。そして、今回の長文投稿のテーマです。肝心の中身は......。 今月中に私は突破口を作ったとあなたはそれを明確に参照してください、誰かがそれを認識し、誰かが反論するが、誰も私が長い間持っていたReshetovaのオプティマイザが、良いモデルを得ることを疑問を持っていない、私は先生が私に説明とPからコマンドを埋めるときに開始し、次の日私はすべての15年間で見たことがないというテストの結果を受信しました。リールがどうとか、楽天が頑張ってるのはわかるけど、本人がどうこう言うことじゃない。ただ、世界で唯一のオプティマイザーが最高の仕事をするわけではないことは、100%間違いないでしょう。もちろん、そんなことはありません。ほとんどのPパッケージは、それと同じように機能します。では、何が問題なのか。なぜこんなに結果が悪く、機械学習支部のバックボーン全体が検索しても出てこないのでしょう。答えは簡単です。モデルの準備の段階で、ある段階でミスをするんですね。論理的には、ある予測や変換を選択するときに正しいことをしているつもりでも、自分が正しいと思っているうちに、実はそうでないという小さなミスを犯してしまうのです。 だから、できることとできないことを把握するために、回帰の議論を始めたんです。私は、次のように自分の誤解に向き合いました。論理的に考えればね。より多くの入力と長い多項式を持つモデルは、より賢く、よりパラメトリックであると考えられていますが、実際には、フィードバックに関する最小限の入力数を持つモデルが、より多くの入力を持つモデルより多くの利益を得るという全く逆の結果が示されています。理屈では正しいと思っていても、実際にはそうでないことが判明した場合の例です。 しかし、機械学習の問題は、モデルを得る方法や、超秘密の変換を用いることにあるのではないことが判明した。主なアキレス腱は別のもので、例で説明すれば理解できるだろうし、同時にマキシムの写真を叩き割ることもできる。 回帰モデルや分類モデルを取得するためのシステムを作ったとします。そして、設計 時に重大なミスはしていないと考えています。仮に トレーニングファイルがあります。最適化のために10回実行し、10個のモデルを取得します。そこで、私にとって最も難しい問題がありました。鍛えすぎず、鍛えなさすぎず、市場に合ったモデルをどう選ぶか、など。この疑問こそが、アキレス腱なのです。AIシステムを作り、その中でいくつかの間違いを犯したとしても、そのシステムが汎化モデルを生成できないことを意味するわけではありません。 AIシステムの品質は、正確には最適化の総数に対する適切なモデルの数で定義される。例えば、100回の最適化のうち、あるシステムでは使えるモデルが1つしか出ず、同じ100回の最適化のうち、2番目のシステムでは使えるモデルが20個出たとします。同じ量の最適化を行った場合、2番目のシステムの方が1番目のシステムよりも正しいモデルが多いので、2番目のシステムが1番目のシステムよりも優れていることは明らかです。例えば、オプティマイザーReshetovaは、4つのモデル(原則として4つ以下にする)のうち、1つから2つのモデルが適していることを示します。4つでは足りないこともある。問題ありません。5回目、6回目、10回目の最適化で市場に適したモデルを提供します。そして今、最も興味深いのは、このモデルをどのように識別し、見つけ出すかということです。私は方法を見つけました。私は次のような方法で行っています。トレーニングファイルを生成し、4つのトレーニングを行う。そして、これらのモデルを評価し、適切なものを選択します。そのためには、トリップの過程で検証やテストが行われるセクションがあればよいのです。OOSの小さなセクションを3~4個の信号で残して、最終的にこれだと納得してもらい、道路に出しています。だからこそ、TSを準備する際に、モデル選択の問題は最も重要なことの一つなのです。続けます。 СанСаныч Фоменко 2018.03.30 13:42 #7885 FXMAN77 です。AUTO ARIMA はすべて自分で計算するので、私は見積もりをロードするだけでよいという理解で合っていますか? いくつかのプロットで確認したところ、どこでもARIMA(0,1,0)と表示されました。auto.arima {forecast} > y <- dd$OPEN > auto.arima(y) Series: y ARIMA(3,1,5) Coefficients: ar1 ar2 ar3 ma1 ma2 ma3 ma4 ma5 0.3956 0.4421 -0.6151 -0.4159 -0.4165 0.6288 -0.0257 -0.0515 s.e. 0.0904 0.0701 0.0827 0.0905 0.0708 0.0797 0.0105 0.0115 sigma^2 estimated as 3.406 e-06: log likelihood=66279.3 AIC=-132540.6 AICc=-132540.6 BIC=-132473 Mihail Marchukajtes 2018.03.30 13:43 #7886 書いたら掲示板が不具合になったので、こう読んでください。書き直せない...。 Maxim Dmitrievsky 2018.03.30 13:57 #7887 ミハイル・マルキュカイツ今日は帰りが遅くなりそうですが、数日前から長い記事を書きたかったので。今やって見ます。その前に小さな余談を。 書かれた部分は確かにブログに掲載され、リンクが張られます。それから、この記事の代わりに、「機械学習で働くための方法論ガイドライン」みたいなものをもう1本書き始めました。ある日、街を歩いていて、大学のように、やっていいことと悪いことの基本的なルールを水も漏らさずに説明する方法論があってもいいのではと思ったんです。それなら、よく言われるように、待てばいいんです。そして、今回の長文投稿のテーマです。肝心の中身は......。 今月中に私は突破口を作ったとあなたはそれを明確に参照してください、誰かがそれを認識し、誰かが反論するが、誰も私が長い間持っていたReshetovaのオプティマイザが、良いモデルを得ることを疑問を持っていない、私は先生が私に説明とPからコマンドを埋めるときに開始し、次の日私はすべての15年間で見たことがないというテストの結果を受信しました。リールがどうとか、楽天が頑張ってるのはわかるけど、本人がどうこう言うことじゃない。ただ、世界で唯一のオプティマイザーが最高の仕事をするわけではないことは、100%間違いないでしょう。もちろん、そんなことはありません。ほとんどのPパッケージは、これと同じように機能します。では、何が問題なのか。なぜこんなに結果が悪く、機械学習支部のバックボーン全体が検索しても出てこないのでしょう。答えは簡単です。モデルの準備の段階で、ある段階でミスをするんですね。論理的には、ある予測や変換を選択するときに正しいことをしているつもりでも、自分が正しいと思っているうちに、実はそうでないという小さなミスを犯してしまうのです。 だから、できることとできないことを把握するために、回帰の話をするようになったんです。私は、次のように自分の誤解に向き合いました。論理的に考えればね。より多くの入力と長い多項式を持つモデルは、より賢く、よりパラメトリックであると考えられていますが、実際には、フィードバックに関する最小限の入力数を持つモデルが、より多くの入力を持つモデルより多くの利益を得るという全く逆の結果が示されています。理屈では正しいと思っていても、実際にはそうでないことが判明した場合の例です。 しかし、機械学習の問題は、モデルを得る方法や、超秘密の変換を用いることにあるのではないことが判明した。主なアキレス腱は別のもので、例で説明すれば理解できるだろうし、同時にマキシムの写真を叩き割る こともできる。 回帰モデルや分類モデルを取得するためのシステムを作ったとします。そして、設計時に重大なミスはしていないと考えています。仮に トレーニングファイルがあります。最適化のために10回実行し、10個のモデルを取得します。そこで、私にとって最も難しい問題がありました。オーバートレーニングでもアンダートレーニングでもなく、市場に適したモデルをどう選ぶか、など。この疑問こそが、アキレス腱なのです。AIシステムを作り、その中でいくつかの間違いを犯したとしても、そのシステムが汎化モデルを生成できないことを意味するわけではありません。 AIシステムの品質は、正確には最適化の総数に対する適切なモデルの数で定義されます。例えば、100回の最適化のうち、あるシステムでは使えるモデルが1つしか出ず、同じ100回の最適化のうち、2番目のシステムでは使えるモデルが20個出たとします。同じ量の最適化を行った場合、2番目のシステムの方が1番目のシステムよりも正しいモデルが多いので、2番目のシステムが1番目のシステムよりも優れていることは明らかです。例えば、オプティマイザーReshetovaは、4つのモデル(原則として4つ以下にする)のうち、1つから2つのモデルが適していることを示します。4つでは足りないこともある。問題ありません。5回目、6回目、10回目の最適化で市場に適したモデルを提供します。そして今、最も興味深いのは、このモデルをどのように識別し、見つけ出すかということです。私は方法を見つけました。私は次のような方法で行っています。トレーニングファイルを生成し、4つのトレーニングを行う。そして、これらのモデルを評価し、適切なものを選択します。そのためには、トリップの過程で検証やテストが行われるセクションがあればよいのです。OOSの小さなセクションを3~4個の信号で残して、最終的にこれだと納得してもらい、路上に出すのです。だからこそ、TSを準備する際に、モデル選択の問題は最も重要なことの一つなのです。続けます。もうこんなくだらない記事読めないよ、殺す気かよ。 その他諸君は、明白なキャプテンと明確なジャンダルムである。 黙って消えろ) Forester 2018.03.30 14:02 #7888 マキシム・ドミトリエフスキーもうこんなキチガイの戯言は読めないよ、殺す気か? 残りの皆さんは、「明白さ」のキャプテンと「明確さ」のジャンダルムです。 黙って消えろ)酔っぱらって二晩も起きていたと書いている。話」をしたいと言っていた))。 ミハイル・マルキュカイツ だいたい、ミハイル、夜は寝た方がいいんだよ。 Anatolii Zainchkovskii 2018.03.30 14:05 #7889 マキシム・ドミトリエフスキー: もうこんな精神異常者の戯言は読んでられないよ、殺す気か?残りの皆さんは、「明白さ」のキャプテンと「明確さ」のジャンダルムです。もう帰るよ)マックスは確かにグレイルを 見つけた)) Alexander_K2 2018.03.30 14:16 #7890 マキシム・ドミトリエフスキー: この話題は理屈の域を出ません。一部の人々は、オーバートレーニングや "パケット "に固執するようになって久しいのです。国防総省のアホと同じような人がまだいるんだな。話題がどこかに行ってしまったのではなく、「あやふや」なのです。定期的な節制がない。私のスレッドよりもっとひどいパイルもあります。 しかし、聖杯を 持つ男が表舞台に出てくるのを待つしかない。 待つのです。 1...782783784785786787788789790791792793794795796...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
AUTO ARIMA はすべて自分で計算するので、私は見積もりをロードするだけでよいという理解で合っていますか?
いくつかのサイトで確認したところ、ARIMA(0,1,0)モデルはどこにでも出てきますね。
これがその様子です。3本前にこのドロップを見たからと言って、今それを考慮しているわけではありません。
いい写真ですね、例として使わせていただきます・・・。
では、もし予測に誤差がなければ、下落があると見た場合、どのようにマイナスを得ることができるのでしょうか。ゼロバーが逆のサインで閉じると、やはり下落があることが分かります。この写真を見て、疑問が湧かないことを祈ります...。窓はランダムに選びましたが、この窓の中のすべてのバーを予測し、その結果、3本目のバーがゼロになり、予測に大きな違いが見られたら、売ります。しかし、最初のバーで予測にわずかな弾性率の違いが見られたとき、どのバーで大きく伸びるかはすでに分かっている。ただ、問題になっているのは2つの誤解です。まず、当たり前と思われる点を省いて説明します。2つ目は、経験不足で理解できていないことです。でも、質問するのは当たり前なので、続けましょう・・・。
いい写真ですね、例として使わせていただきます...。
だから、予報に誤差がない状態で、下落があることがわかるのに、どうしてマイナスになるのか。ゼロバーが逆のサインで閉じると、やはり下落があることが分かります。この写真を見て、疑問が湧かないことを祈ります...。窓はランダムに選びましたが、この窓の中のすべてのバーを予測し、その結果、3本目のバーがゼロになり、予測に大きな違いが見られたら、売ります。しかし、最初のバーで予測にわずかな弾性率の違いが見られたとき、どのバーで大きく伸びるかはすでに分かっている。ただ、問題になっているのは2つの誤解です。まず、当たり前と思われる点を省いて説明します。2つ目は、経験不足で理解できていないことです。でも、質問するのはいいことだから、続けよう...。
統計を見ると、予測に基づいているとは思えないし、予測に基づくべきとも思えないが、予測に基づいているのかもしれない。しかし、100%の予測ではすべて超一級品ですが、90%の予測でも10%の間違った予測ではバランスが崩れるので、どうしたらいいでしょうか。
今日は帰りが遅くなりそうですが、数日前から長い記事を書きたかったので。今やって見ます。その前に小さな余談を。
書かれた部分は確かにブログに掲載され、リンクが張られます。それから、この記事の代わりに、「機械学習で働くための方法論ガイドライン」みたいなものをもう1本書き始めました。ある日、街を歩いていて、大学のように、やっていいことと悪いことの基本的なルールを水も漏らさずに説明する方法論があってもいいのではと思ったんです。それなら、よく言われるように、待てばいいんです。そして、今回の長文投稿のテーマです。肝心の中身は......。
今月中に私は突破口を作ったとあなたはそれを明確に参照してください、誰かがそれを認識し、誰かが反論するが、誰も私が長い間持っていたReshetovaのオプティマイザが、良いモデルを得ることを疑問を持っていない、私は先生が私に説明とPからコマンドを埋めるときに開始し、次の日私はすべての15年間で見たことがないというテストの結果を受信しました。リールがどうとか、楽天が頑張ってるのはわかるけど、本人がどうこう言うことじゃない。ただ、世界で唯一のオプティマイザーが最高の仕事をするわけではないことは、100%間違いないでしょう。もちろん、そんなことはありません。ほとんどのPパッケージは、それと同じように機能します。では、何が問題なのか。なぜこんなに結果が悪く、機械学習支部のバックボーン全体が検索しても出てこないのでしょう。答えは簡単です。モデルの準備の段階で、ある段階でミスをするんですね。論理的には、ある予測や変換を選択するときに正しいことをしているつもりでも、自分が正しいと思っているうちに、実はそうでないという小さなミスを犯してしまうのです。
だから、できることとできないことを把握するために、回帰の議論を始めたんです。私は、次のように自分の誤解に向き合いました。論理的に考えればね。より多くの入力と長い多項式を持つモデルは、より賢く、よりパラメトリックであると考えられていますが、実際には、フィードバックに関する最小限の入力数を持つモデルが、より多くの入力を持つモデルより多くの利益を得るという全く逆の結果が示されています。理屈では正しいと思っていても、実際にはそうでないことが判明した場合の例です。
しかし、機械学習の問題は、モデルを得る方法や、超秘密の変換を用いることにあるのではないことが判明した。主なアキレス腱は別のもので、例で説明すれば理解できるだろうし、同時にマキシムの写真を叩き割ることもできる。
回帰モデルや分類モデルを取得するためのシステムを作ったとします。そして、設計 時に重大なミスはしていないと考えています。仮に
トレーニングファイルがあります。最適化のために10回実行し、10個のモデルを取得します。そこで、私にとって最も難しい問題がありました。鍛えすぎず、鍛えなさすぎず、市場に合ったモデルをどう選ぶか、など。この疑問こそが、アキレス腱なのです。AIシステムを作り、その中でいくつかの間違いを犯したとしても、そのシステムが汎化モデルを生成できないことを意味するわけではありません。
AIシステムの品質は、正確には最適化の総数に対する適切なモデルの数で定義される。例えば、100回の最適化のうち、あるシステムでは使えるモデルが1つしか出ず、同じ100回の最適化のうち、2番目のシステムでは使えるモデルが20個出たとします。同じ量の最適化を行った場合、2番目のシステムの方が1番目のシステムよりも正しいモデルが多いので、2番目のシステムが1番目のシステムよりも優れていることは明らかです。例えば、オプティマイザーReshetovaは、4つのモデル(原則として4つ以下にする)のうち、1つから2つのモデルが適していることを示します。4つでは足りないこともある。問題ありません。5回目、6回目、10回目の最適化で市場に適したモデルを提供します。そして今、最も興味深いのは、このモデルをどのように識別し、見つけ出すかということです。私は方法を見つけました。私は次のような方法で行っています。トレーニングファイルを生成し、4つのトレーニングを行う。そして、これらのモデルを評価し、適切なものを選択します。そのためには、トリップの過程で検証やテストが行われるセクションがあればよいのです。OOSの小さなセクションを3~4個の信号で残して、最終的にこれだと納得してもらい、道路に出しています。だからこそ、TSを準備する際に、モデル選択の問題は最も重要なことの一つなのです。続けます。
AUTO ARIMA はすべて自分で計算するので、私は見積もりをロードするだけでよいという理解で合っていますか?
いくつかのプロットで確認したところ、どこでもARIMA(0,1,0)と表示されました。
書いたら掲示板が不具合になったので、こう読んでください。書き直せない...。
今日は帰りが遅くなりそうですが、数日前から長い記事を書きたかったので。今やって見ます。その前に小さな余談を。
書かれた部分は確かにブログに掲載され、リンクが張られます。それから、この記事の代わりに、「機械学習で働くための方法論ガイドライン」みたいなものをもう1本書き始めました。ある日、街を歩いていて、大学のように、やっていいことと悪いことの基本的なルールを水も漏らさずに説明する方法論があってもいいのではと思ったんです。それなら、よく言われるように、待てばいいんです。そして、今回の長文投稿のテーマです。肝心の中身は......。
今月中に私は突破口を作ったとあなたはそれを明確に参照してください、誰かがそれを認識し、誰かが反論するが、誰も私が長い間持っていたReshetovaのオプティマイザが、良いモデルを得ることを疑問を持っていない、私は先生が私に説明とPからコマンドを埋めるときに開始し、次の日私はすべての15年間で見たことがないというテストの結果を受信しました。リールがどうとか、楽天が頑張ってるのはわかるけど、本人がどうこう言うことじゃない。ただ、世界で唯一のオプティマイザーが最高の仕事をするわけではないことは、100%間違いないでしょう。もちろん、そんなことはありません。ほとんどのPパッケージは、これと同じように機能します。では、何が問題なのか。なぜこんなに結果が悪く、機械学習支部のバックボーン全体が検索しても出てこないのでしょう。答えは簡単です。モデルの準備の段階で、ある段階でミスをするんですね。論理的には、ある予測や変換を選択するときに正しいことをしているつもりでも、自分が正しいと思っているうちに、実はそうでないという小さなミスを犯してしまうのです。
だから、できることとできないことを把握するために、回帰の話をするようになったんです。私は、次のように自分の誤解に向き合いました。論理的に考えればね。より多くの入力と長い多項式を持つモデルは、より賢く、よりパラメトリックであると考えられていますが、実際には、フィードバックに関する最小限の入力数を持つモデルが、より多くの入力を持つモデルより多くの利益を得るという全く逆の結果が示されています。理屈では正しいと思っていても、実際にはそうでないことが判明した場合の例です。
しかし、機械学習の問題は、モデルを得る方法や、超秘密の変換を用いることにあるのではないことが判明した。主なアキレス腱は別のもので、例で説明すれば理解できるだろうし、同時にマキシムの写真を叩き割る こともできる。
回帰モデルや分類モデルを取得するためのシステムを作ったとします。そして、設計時に重大なミスはしていないと考えています。仮に
トレーニングファイルがあります。最適化のために10回実行し、10個のモデルを取得します。そこで、私にとって最も難しい問題がありました。オーバートレーニングでもアンダートレーニングでもなく、市場に適したモデルをどう選ぶか、など。この疑問こそが、アキレス腱なのです。AIシステムを作り、その中でいくつかの間違いを犯したとしても、そのシステムが汎化モデルを生成できないことを意味するわけではありません。
AIシステムの品質は、正確には最適化の総数に対する適切なモデルの数で定義されます。例えば、100回の最適化のうち、あるシステムでは使えるモデルが1つしか出ず、同じ100回の最適化のうち、2番目のシステムでは使えるモデルが20個出たとします。同じ量の最適化を行った場合、2番目のシステムの方が1番目のシステムよりも正しいモデルが多いので、2番目のシステムが1番目のシステムよりも優れていることは明らかです。例えば、オプティマイザーReshetovaは、4つのモデル(原則として4つ以下にする)のうち、1つから2つのモデルが適していることを示します。4つでは足りないこともある。問題ありません。5回目、6回目、10回目の最適化で市場に適したモデルを提供します。そして今、最も興味深いのは、このモデルをどのように識別し、見つけ出すかということです。私は方法を見つけました。私は次のような方法で行っています。トレーニングファイルを生成し、4つのトレーニングを行う。そして、これらのモデルを評価し、適切なものを選択します。そのためには、トリップの過程で検証やテストが行われるセクションがあればよいのです。OOSの小さなセクションを3~4個の信号で残して、最終的にこれだと納得してもらい、路上に出すのです。だからこそ、TSを準備する際に、モデル選択の問題は最も重要なことの一つなのです。続けます。
もうこんなくだらない記事読めないよ、殺す気かよ。
その他諸君は、明白なキャプテンと明確なジャンダルムである。
黙って消えろ)
もうこんなキチガイの戯言は読めないよ、殺す気か?
残りの皆さんは、「明白さ」のキャプテンと「明確さ」のジャンダルムです。
黙って消えろ)
酔っぱらって二晩も起きていたと書いている。話」をしたいと言っていた))。
ミハイル・マルキュカイツ
だいたい、ミハイル、夜は寝た方がいいんだよ。
もうこんな精神異常者の戯言は読んでられないよ、殺す気か?
残りの皆さんは、「明白さ」のキャプテンと「明確さ」のジャンダルムです。
もう帰るよ)
マックスは確かにグレイルを 見つけた))
この話題は理屈の域を出ません。一部の人々は、オーバートレーニングや "パケット "に固執するようになって久しいのです。
国防総省のアホと同じような人がまだいるんだな。
話題がどこかに行ってしまったのではなく、「あやふや」なのです。定期的な節制がない。私のスレッドよりもっとひどいパイルもあります。
しかし、聖杯を 持つ男が表舞台に出てくるのを待つしかない。
待つのです。