Метод Группового Учета Аргументов применяется в самых различных областях для анализа данных и отыскания знаний, прогнозирования и моделирования систем, оптимизации и распознавания образов. Индуктивные алгоритмы МГУА дают уникальную возможность автоматически находить взаимозависимости в данных, выбрать оптимальную структуру модели или сети, и...
当時はまだRを学び始めたばかりで、スクリプトはほぼ全てrattle(Rのデータマイニング用ビジュアル環境)で生成されており、そのため非常に複雑で、あらゆる場面でカスタマイズされているのです。
この1枚
に変更する必要があります...
大丈夫なはずです。
一般的には、このような方法で入力の重要性を定義するのは良くないことです。その時はなぜか効果があったのですが、それ以来、一度も役に立っていません。
さらに実験してみると...
隠れ層に1〜2個のニューロンを設定すると、重要な入力が数倍違ってきます。
152.33, 7.82, 132.57, 12.19, 132.86, 10.54, 135.56, 19.16, 137.32, 14.84, 127.36, 7.43, 11.35, 6.66, 13.6, 10.18, 10.74, 10.66, 11.18, 8.95 (ニューロン1個).
10にすると(2回目の実験のように)、重みがニューロン上に散らばり、重要なものとノイズのものを区別できなくなるのです。
113963.27, 91026.57, 100833.22, 134980.44, 154190.05, 146455.03, 198703.01, 135775.2, 184353.78, 160766.79, 152433.73, 105753.11, 151673.83, 135421.64, 165343.94, 70277.93, 175038.87, 150342.56, 59153.02, 121012.76 (10ニューロン) ・・・・・・。
どうやらその論理問題では、1ニューロンが最適であるようだ。
また、alglibの決定木は、mlpよりもカウントが速く、良い値を持っています。Diplerningも高速化されていますが、alglibではそうではありません。
要はスピードとクオリティの比です、1週間も1日も1時間も待ってどうするんだ、正しい組み合わせは無理だろう)。もし、モデルの学習に数秒かかるなら、パラメータや予測変数のオートシミュレーションに遺伝学を使うことができ、それは純粋なAIであり、そうでなければゴミである)
1列目を削除すると、5%ではなく、もっと悪くなっています。
ForestはMLPと同程度の誤差を与える(ただしカウントは速い)
学習プロットの平均誤差(60.0%) =0.264 (26.4%) nTrees=100 codResp=1
検証時の平均誤差 (20.0%) plot =0.828 (82.8%) nTrees=100 codResp=1
テスト時の平均誤差 (20.0%) plot =0.818 (81.8%) nTrees=100 codResp=1
1列目を削除すると、5%ではなく、もっと悪くなる...。
ForestはMLPと同程度の誤差を与える(ただしカウントは速い)
学習プロットの平均誤差(60.0%) =0.264 (26.4%) nTrees=100 codResp=1
検証時の平均誤差 (20.0%) plot =0.828 (82.8%) nTrees=100 codResp=1
テスト時の平均誤差 (20.0%) plot =0.818 (81.8%) nTrees=100 codResp=1
そう、クラシックMLPはフォレストに対して何のアドバンテージもない。少なくとも私は、スピードとクオリティの点で、常にフォレストが勝っている。
ところで、diplerningも利点がないかもしれません。スタジオのニューラルネットワークはdiplerningと似ていて、層さえありませんが、いくつかの畳み込みネットワークがあります。
なんて言ったらいいのかわからない。報告書から一例を挙げるとすれば。最適化の結果は このようになり、どのようにでも解釈できますが、最適化が終了すると、次のようになります。
* 汎化能力感度:55.12820512820513%。
* 汎化能力の特異性:55.5045871559633%。
* 一般化能力: 55.309734513274336%。
* TruePositives: 129
* 偽陽性:105件
* TrueNegative: 121
* FalseNegatives: 97
* 統計処理されたサンプルのパターン数:452個
赤で示したのは、汎化能力の総合結果です。1つ目は1を当てる割合、2つ目は0を当てる割合、3つ目は合計です。
Reshetovの分類器は少なくともmlpより良い結果を出し、再学習しない、それが利点です...しかし、あなたのセットでカウントするには長い時間がかかります、昨日私はカウントに2時間、今日は冬眠の後に再び続けました...私はエラーを比較できるようにカウントが終わるのを待っています:)
とはいえ、mql5で書き換えて、ここでOpenCLに変換して効率的に使いたい。それならgoogleクラウドを借りてテスラで数分(数秒?)でニューラルネットワークを計算するか、テスラを50万で買え :)3000キューダコアから
Reshetovの分類器は少なくともmlpより良い結果を出し、再学習しない、それが利点です...しかし、あなたのセットでカウントするにはとても時間がかかります。)
とはいえ、mql5で書き換えて、ここでOpenCLに変換して効率的に使いたい。そして、google cloudを借りて、テスラでニューロネットを数分(数秒?)で計算するか、テスラを50万円で購入する :)3000 cudaコアの場合
まあ、これが大きなメリットで、毎回モデルが複雑になるにもかかわらず、再トレーニングをしないのです。そこで、再トレーニングされない最も複雑な(大きな)モデルを得ることができるのです。だから、モデルはよりスマートに、タプカみたいなものになるんです。すでにIntel Xeonの演算コプロセッサを考えていたのですが、200kもするんですね。60コアと120ロジックコアを搭載しています。考えてみてください。5秒でモデルを構築し、あなたが言うようにこれさえも大きなセットではなく、コチル通貨のような最も複雑な非定常プロセスに適したモデルを得ることができるでしょうか?適切なモデルを得るためには、十分なマシンタイムを費やす必要があります。そうすれば、モデルもそれなりになり、長持ちするようになります。
やはりGPUで動かしてみたいですね。せめて10倍の性能があれば良いのですが...。やっぱりうまくいくかも?
重要度評価の結果は、以下の通りです。表中の予測値は高いほど良い。VVolum6, VDel1, VVolum9, VQST10 のみが合格しました。
rattleでは、この4つの予測因子に対して一度に6つのモデルを構築することができ、SVMは検証データとテストデータで約55%の精度を示しています。悪くないですね。
でも、このインプットを投げて、彼が何を出すか、このモデルはどうなるのか......必ず見てみます。ありがとうございました。
しかし、あなたのsethでカウントするのはとんでもなく時間がかかります、昨日は2時間かかり、今日はハイバネーション後にまた続きました...エラーを比較するためにカウントが終わるのを待っています :)
とはいえ、mql5で書き換えて、ここでOpenCLに変換して効率的に使いたい。それならgoogleクラウドを借りてテスラで数分(数秒?)でニューラルネットワークを計算するか、テスラを50万で買えばいい :)3000 cudaコアの場合
繰り返しになりますが、計算には何コアが使われているのでしょうか?4コアを100%で負荷をかけているのですが、452行のフルセットを実行するのは1週間、いやそれ以下という感じなので、あえてしませんでした......。
繰り返しになりますが、計算には何コアが使われているのでしょうか?4コアを100%に負荷をかけているのですが、452行のフルセットを実行する勇気はなく、1週間どころではない気がするので......。
とにかく、私はパラレリングがあるプログラムの最新版をいじりましたが、最新版は最初のものとは異なる動作をします。委員会には2つのニューラルネットワーク、mlpと著者がいて、結果を得るときにそれらが相互作用します、多くのコード、著者に敬意を表します :)最新版の説明、理論はどこかにないのでしょうか?
特にTHISが 使われているのは、何かとても硬派な感じがします。コードの勉強に多くの時間を費やす必要があります。
作者本人に連絡を取ってみて、電話してみると、もしかしたら自分で並列化するかもしれない...というジェスチャーがあるため
まあ、それが大きなメリットなんですが、再トレーニングをしないので、毎回モデルが複雑になってしまうんです。そこで、最も複雑な(大きな)モデルを得るのですが、これは再トレーニングされません。だから、モデルはよりスマートに、タプカみたいなものになるんです。すでにIntel Xeonの演算コプロセッサを考えていたのですが、200kもするんですね。60コアと120ロジックコアを搭載しています。考えてみてください。5秒でモデルを構築し、あなたが言うようにこれさえも大きなセットではなく、コチル通貨のような最も複雑な非定常プロセスに適したモデルを得ることができるでしょうか?適切なモデルを得るためには、十分なマシンタイムを費やす必要があります。そうすれば、そのモデルは十分な性能を発揮し、より長く使えるようになります。
やはりGPUで動かしてみたいですね。せめて10倍の性能があれば良いのですが...。結局、うまくいくかもしれない。
とにかく、私はプログラムの最後のバージョンを掘りました。そこには並列処理がありますが、最後のバージョンは最初のバージョンとは異なる動作をします。委員会には2つのニューラルネットワーク、mlpと著者のものがあり、結果を得るときにそれらが相互作用します。多くのコード、著者への敬意 :)最新版の説明、理論はどこかにないのでしょうか?
特にTHISが 使われているのは、何かとても硬派な感じがします。コードの勉強に多くの時間を費やす必要があります。
作者本人に連絡を取ってみて、電話してみると、もしかしたら自分で平行移動するかもしれない......というジェスチャーがあるように
作者には通じないと思います、両方書きました。彼は何も言いません。でも、私が知る限り、彼はその中ですべてを平行移動させたと書いているんです。はい、委員会で働く2つのグリッドは、確かにトレーニングを受けています。記事にも書きました。両方が「はい」なら「はい」、「いいえ」なら「いいえ」、両方が「混合」なら「わからない」です。最新版はわかりませんが、説明はgoogle、いただいたリンクを参考にしています。 一度WWWサーバーでバージョン3を動かしてみたところ、残念なことにオプティマイザーは1コアしかロードしませんが、最近のバージョンではすべてのコアを均等にロードするので、やはりディスパーレリングはあるのだと思います。あとは、小さなことが一つあるだけだった。コア数を増やすため :-)