トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3081 1...307430753076307730783079308030813082308330843085308630873088...3399 新しいコメント СанСаныч Фоменко 2023.05.23 08:00 #30801 この記事は、つまらない結果を宣伝する広告の典型例である。 Causal Effects」というタイトルそのものが、我々の後進性を突いている。というのも、様々な正弦を研究している我々は、これが入力データを正弦 入力に与えて結果を得ることによるCausal Effects の結果であることに気づかなかったからである。 著者はRFを 取り、入力データを入力に与え、結果としてエラーを得る。 我々がMOの全く新しい方向を扱っていることを皆に理解してもらうために、入力データ(予測変数)は共変量と呼ばれ、RF アルゴリズムは メタ学習者と呼ばれ、プロセス全体はCausal Effects と呼ばれる。 Causal Effect sの擁護者たちは,ロシア語では共変量体が,ターゲット変数だけでなく,隣接する予測変数にも効果を持つ予測変数であることがあることに気づいていない. RF アルゴリズムを "メタ学習者 "と呼ぶことは,Causal Effectsの もう1つの宣伝である.しかし、機械学習における宣伝の観点からは、学習者が 存在すべきであり 、「メタ」と「バスタ」の重要性のためである。 この論文では、基本 アルゴリズムとしてRFを 選択したことを詳細に正当化しており、特に、RFの 代わりに任意の(?)MOアルゴリズムを使用できると述べている。この思想の一般化として、nuisance(不快、不愉快、 迷惑 )という用語が使われている。文字で表すなら、「ノイズの関数」、つまりRF アルゴリズム 「ノイズの関数」と訳すべきだろう。しかし、なんと複雑で美しい響きだろう。そして何より、RFは 何らかの誤差を伴うルールを生み出すものだと思っていた読者は、ただそれを楽しむのだ。 我々は続けることができるが、上記は、このすべての因果 、純粋な広告に言及するのに十分である。ところで、本当のナンセンスが販売され、スタンフォード大学の教授としての場所を得たとき、非常に成功し、新しい高度なトレンドについていきたい信者を得た。 では、MEの最新トレンドの著者は誰なのか?参考文献の数から判断すると、ヴィクトル・チェルノジューコフという人物で、90年代初頭に農学部を卒業した、何のプロフィールも持たない男である。私はこの時代をよく覚えている。何百万人ものチェルノジューコフが、教育と事実に曇りのない意識の叫びの下で、あらゆるナンセンスに走り、動いた。 今日、全世界は広告の法則に従って生きている。いや、違う。 Forester 2023.05.23 08:23 #30802 СанСаныч Фоменко #:この記事は、つまらない結果を宣伝する広告の典型例である。 Causal Effects"という名前そのものが、私たちの後進性を鼻で突いている。なぜなら、様々な正弦を研究している間、私たちはこれがCausal Effects の結果であることに気づかなかったからである。 著者はRFを 取り、入力データを与え、結果としてエラーを得る。 我々がMOの全く新しい方向性を扱っていることを皆に理解させるために、入力データ(予測変数)は共変量と呼ばれ、RF アルゴリズムは メタ学習者と呼ばれ、プロセス全体はCausal Effectsと 呼ばれる。 Causal Effects の擁護者たちは,ロシア語では共変量体が,ターゲット変数だけでなく,近隣の予測変数にも効果を持つ予測変数であることがあることに気づいていない. RF アルゴリズムを "メタ学習者 "と呼ぶことは,Causal Effectsの もう1つの宣伝である.しかし、機械学習における宣伝の観点からは、「メタ」と「バスタ」の重要性を示す学生がいる はず である。 この論文では、基本 アルゴリズムとしてRFを 選択したことを詳細に正当化しており、特に、RFの 代わりに任意の(?)MOアルゴリズムを使用できると述べている。この思想の一般化として、nuisance(不快、不愉快、 迷惑 )という用語が使われている。文字で表すなら、「ノイズの関数」、つまりRF アルゴリズム 「ノイズの関数」と訳すべきだろう。しかし、なんと複雑で美しい響きだろう。そして何より、RFは 何らかの誤差を伴うルールを生み出すものだと思っていた読者は、ただそれを楽しむのだ。 続けることは可能であるが、上記は、このすべての因果 、純粋に広告に言及するのに十分である。ところで、本当のナンセンスが売れ、スタンフォード大学の教授の地位を得たとき、非常に成功し、新しい高度なトレンドについていきたい信者を得た。 では、MEの最新トレンドの著者は誰なのか?参考文献の数から判断すると、ヴィクトル・チェルノジューコフという人物で、90年代初頭に農学部を卒業した、何のプロフィールも持たない男である。私はこの時代をよく覚えている。何百万人ものチェルノジューコフが、教育と事実に曇りのない意識の叫びの下で、あらゆる種類のナンセンスを実行し、動かしていた。 今日、全世界は広告の法則に従って生きている。いや、違う。 分析してくれてありがとう。同じトピックに関するビデオで十分だった。 Maxim Dmitrievsky 2023.05.23 08:29 #30803 СанСаныч Фоменко #:この記事は、つまらない結果を宣伝する広告の典型例である。 Causal Effects"という名前そのものが、私たちの後進性を鼻で突いている。なぜなら、様々な正弦を研究している間、私たちはこれがCausal Effects の結果であることに気づかなかったからである。 著者はRFを 取り、入力データを与え、結果としてエラーを得る。 我々がMOの全く新しい方向性を扱っていることを皆に理解させるために、入力データ(予測変数)は共変量と呼ばれ、RF アルゴリズムは メタ学習者と呼ばれ、プロセス全体はCausal Effectsと 呼ばれる。 Causal Effects の擁護者たちは,ロシア語では共変量体が,ターゲット変数だけでなく,近隣の予測変数にも効果を持つ予測変数であることがあることに気づいていない. RF アルゴリズムを "メタ学習者 "と呼ぶことは,Causal Effectsの もう1つの宣伝である.しかし、機械学習における宣伝の観点からは、「メタ」と「バスタ」の重要性を示す学生がいる はず である。 この論文では、基本 アルゴリズムとしてRFを 選択したことを詳細に正当化しており、特に、RFの 代わりに任意の(?)MOアルゴリズムを使用できると述べている。この思想の一般化として、nuisance(不快、不愉快、 迷惑 )という用語が使われている。文字で表すなら、「ノイズの関数」、つまりRF アルゴリズム 「ノイズの関数」と訳すべきだろう。しかし、なんと複雑で美しい響きだろう。そして何より、RFは 何らかの誤差を伴うルールを生み出すものだと思っていた読者は、ただそれを楽しむのだ。 続けることは可能であるが、上記は、このすべての因果 、純粋に広告に言及するのに十分である。ところで、本当のナンセンスが売れ、スタンフォード大学の教授の地位を得たとき、非常に成功し、新しい高度なトレンドについていきたい信者を得た。 では、MEの最新トレンドの著者は誰なのか?参考文献の数から判断すると、ヴィクトル・チェルノジューコフという人物で、90年代初頭に農学部を卒業した、何のプロフィールも持たない男である。私はこの時代をよく覚えている。何百万人ものチェルノジューコフが、教育と事実に曇りのない意識の叫びの下で、あらゆる種類のナンセンスを実行し、動かしていた。 今日、全世界は広告の法則に従って生きている。いや、違う。 これは、新しい情報がボウルに入らないとき、あなたの専門的不手際の神格化である。あるいは翻訳の問題か。私はただ同情することしかできない。) Aleksey Vyazmikin 2023.05.23 09:23 #30804 Maxim Dmitrievsky #:新しい情報が何一つお椀に入らなくなるのは、あなたの冒涜の頂点に過ぎない。あるいは翻訳の問題。同情しかない)すべての用語はねじ曲げられ、基本的な情報は認識できないほど歪められている。 歪んでいない情報を庶民に伝えることができますか? Aleksey Vyazmikin 2023.05.23 09:31 #30805 СанСаныч Фоменко #:...この論文では、基本 アルゴリズムとしてRFを選択したことを詳細に正当化しており、特にRFの代わりに任意の(?)MOアルゴリズムを使用できることを明記している。この考え方の一般化として、nuisance(不快、不愉快、迷惑)という用語が使われている。文章で表現するなら、「ノイズの関数」、つまりRFアルゴリズムは「ノイズの関数」であると訳すべきだろう。しかし、なんと複雑で美しい響きなのだろう。そして何より、これまでRFは多少の誤差を伴うルールを生み出すものだと思っていた読者が、ただそれを楽しんでいるのだ。... 私はこの記事の実用的な応用例を探していたのですが、見つからなかったのですか? 私には、この記事は、トレーニングが行われたサンプルからの総サンプル面積の偏差の測定を評価するためのツールを提供することになっているように思えた。したがって、このツールがあれば、サンプルの異常な部分を検出することができる。あると思いますか、ないと思いますか? Maxim Dmitrievsky 2023.05.23 09:42 #30806 Aleksey Vyazmikin #:庶民に純粋な情報を伝えられるか? 共感できる mytarmailS 2023.05.23 09:53 #30807 СанСаныч Фоменко #:フェラチオしてもらってるのかと思った......。ああ、違う。私も同じ意見だ。)この深い言葉がこのスレッド全体を表している СанСаныч Фоменко 2023.05.23 11:26 #30808 Aleksey Vyazmikin #:私はこれを実践的に応用する方法を読み、探した。この記事には、トレーニングが行われたサンプルからのサンプル総面積の偏差の測定を評価するためのツールが示されているはずだ。したがって、このツールがあれば、サンプルの異常な部分を検出することができる。あると思いますか、ないと思いますか? 記事にはありません。 クロス検証を含む、元の予測変数の異なる分割による通常のフィッティングが記述されています。言葉でカモフラージュされたルーチン。 Aleksey Vyazmikin 2023.05.23 11:29 #30809 СанСаныч Фоменко #:記事には書かれていない。クロス検証を含む、元の予測変数の異なる分割による通常のフィッティングが記述されている。言葉でカモフラージュされたルーチン。 専門家の意見に感謝する。 СанСаныч Фоменко 2023.05.23 11:43 #30810 Maxim Dmitrievsky #: そして、厄介な関数(またはパラメータ)は、ノイズ関数ではなく、補助的な関数であり、特定のタスクのターゲット関数ではない。 これらの "補助的な "関数についての見解へのリンクを記事中に設けてもいいですか? 同時に、基本関数と呼ばれ、作業の結果として多くの情報を計算するRFを使用する理由が、かなり詳細に記述されています: randomForest クラスの オブジェクトは、以下の構成要素を持つリストである: コール randomForest の 元の呼び出し タイプ 回帰 , 分類 , 教師なし の いずれか . 予測値 バッグ外サンプルに基づく入力データの予測値。 重要度 nclass + 2 列(分類の場合)または 2 列(回帰の場合)を 持つ 行列.分類の場合, 最初の nclass 列は ,精度の平均減少として計算されるクラス固有の尺度である.nclass + 1番目の 列は ,すべてのクラスでの精度の平均減少である.最後の列は,ジニ指数の平均減少である.回帰では,最初の列が精度の平均低下で,2番目の列がMSEの平均低下である.importance=FALSE の 場合でも,最後のメジャーはベクトルとして返される. importanceSD 並べ替えベースの重要度測度の "標準誤差"。分類の場合は , 重要度行列の 最初の nclass + 1 列に 対応する p x nclass + 1 行列 .回帰の場合は, 長さ p の ベクトル . localImp ケースごとの重要度指標を含む p x n 行列で,その [i,j] 要素は,j番目のケースでのi番目の変数の重要度 . localImp=FALSE の 場合は NULL. ntree 成長した木の本数. mtry 各ノードで分割するためにサンプリングされた予測変数の数. forest (森全体を含むリスト; randomForest が 教師なしモードで実行されている 場合 ,または keep.forest=FALSE の 場合は NULL . err.rate (分類のみ) 入力データに対する予測値の誤差率ベクトル。i番目の要素は、i番目までのすべての木に対する(OOB)誤差率。 混同 (分類のみ) (OOBデータに基づく)予測値の混同行列。 票 (分類のみ) 各入力データに1行、各クラスに1列の行列で、ランダムフォレストからの(OOB)「投票」の割合または数を与える。 oob.times ケースが'out-of-bag' となった回数(したがって、OOBエラー推定値の計算に使用される)。 近接度 randomForest 呼び出し 時に proximity=TRUE の 場合 、入力間の近接度測定の行列(データ点のペアが同じ終端ノードにある頻度に基づく)。 mse (回帰のみ) 平均2乗誤差のベクトル: 残差の2乗和を n で 割ったもの. rsq (回帰のみ) "擬似R2乗": 1 - mse / Var(y). 検定 テスト集合が(xtest 引数 または 追加 ytest 引数で )与えられた場合,このコンポーネントは,テスト集合の 対応する predicted, err.rate, confusion, votes ( 分類の場合) または predicted, mse および rsq ( 回帰の場合)を含むリストである.proximity=TRUE の 場合 ,proximity という コンポーネントもあり,これはテスト集合間の近接度とテストデータと訓練データ間の近接 度を含む. 著者が上記のリストから正確に何を使用しているかは不明ですが、RFを使用するとき、分類誤差や回帰誤差を決定するための他のソースは単純に存在しませんし、その必要もありません。 RFが生み出す誤差は、入力データの組み合わせによって異なる。これが著者が研究し、誤差の分散と、どのように計算されたかは不明だがある種のバイアスについての結論を導き出したものである。 1...307430753076307730783079308030813082308330843085308630873088...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
この記事は、つまらない結果を宣伝する広告の典型例である。
Causal Effects」というタイトルそのものが、我々の後進性を突いている。というのも、様々な正弦を研究している我々は、これが入力データを正弦 入力に与えて結果を得ることによるCausal Effects の結果であることに気づかなかったからである。
著者はRFを 取り、入力データを入力に与え、結果としてエラーを得る。
我々がMOの全く新しい方向を扱っていることを皆に理解してもらうために、入力データ(予測変数)は共変量と呼ばれ、RF アルゴリズムは メタ学習者と呼ばれ、プロセス全体はCausal Effects と呼ばれる。
Causal Effect sの擁護者たちは,ロシア語では共変量体が,ターゲット変数だけでなく,隣接する予測変数にも効果を持つ予測変数であることがあることに気づいていない.
RF アルゴリズムを "メタ学習者 "と呼ぶことは,Causal Effectsの もう1つの宣伝である.しかし、機械学習における宣伝の観点からは、学習者が 存在すべきであり 、「メタ」と「バスタ」の重要性のためである。
この論文では、基本 アルゴリズムとしてRFを 選択したことを詳細に正当化しており、特に、RFの 代わりに任意の(?)MOアルゴリズムを使用できると述べている。この思想の一般化として、nuisance(不快、不愉快、 迷惑 )という用語が使われている。文字で表すなら、「ノイズの関数」、つまりRF アルゴリズム 「ノイズの関数」と訳すべきだろう。しかし、なんと複雑で美しい響きだろう。そして何より、RFは 何らかの誤差を伴うルールを生み出すものだと思っていた読者は、ただそれを楽しむのだ。
我々は続けることができるが、上記は、このすべての因果 、純粋な広告に言及するのに十分である。ところで、本当のナンセンスが販売され、スタンフォード大学の教授としての場所を得たとき、非常に成功し、新しい高度なトレンドについていきたい信者を得た。
では、MEの最新トレンドの著者は誰なのか?参考文献の数から判断すると、ヴィクトル・チェルノジューコフという人物で、90年代初頭に農学部を卒業した、何のプロフィールも持たない男である。私はこの時代をよく覚えている。何百万人ものチェルノジューコフが、教育と事実に曇りのない意識の叫びの下で、あらゆるナンセンスに走り、動いた。
今日、全世界は広告の法則に従って生きている。いや、違う。
この記事は、つまらない結果を宣伝する広告の典型例である。
Causal Effects"という名前そのものが、私たちの後進性を鼻で突いている。なぜなら、様々な正弦を研究している間、私たちはこれがCausal Effects の結果であることに気づかなかったからである。
著者はRFを 取り、入力データを与え、結果としてエラーを得る。
我々がMOの全く新しい方向性を扱っていることを皆に理解させるために、入力データ(予測変数)は共変量と呼ばれ、RF アルゴリズムは メタ学習者と呼ばれ、プロセス全体はCausal Effectsと 呼ばれる。
Causal Effects の擁護者たちは,ロシア語では共変量体が,ターゲット変数だけでなく,近隣の予測変数にも効果を持つ予測変数であることがあることに気づいていない.
RF アルゴリズムを "メタ学習者 "と呼ぶことは,Causal Effectsの もう1つの宣伝である.しかし、機械学習における宣伝の観点からは、「メタ」と「バスタ」の重要性を示す学生がいる はず である。
この論文では、基本 アルゴリズムとしてRFを 選択したことを詳細に正当化しており、特に、RFの 代わりに任意の(?)MOアルゴリズムを使用できると述べている。この思想の一般化として、nuisance(不快、不愉快、 迷惑 )という用語が使われている。文字で表すなら、「ノイズの関数」、つまりRF アルゴリズム 「ノイズの関数」と訳すべきだろう。しかし、なんと複雑で美しい響きだろう。そして何より、RFは 何らかの誤差を伴うルールを生み出すものだと思っていた読者は、ただそれを楽しむのだ。
続けることは可能であるが、上記は、このすべての因果 、純粋に広告に言及するのに十分である。ところで、本当のナンセンスが売れ、スタンフォード大学の教授の地位を得たとき、非常に成功し、新しい高度なトレンドについていきたい信者を得た。
では、MEの最新トレンドの著者は誰なのか?参考文献の数から判断すると、ヴィクトル・チェルノジューコフという人物で、90年代初頭に農学部を卒業した、何のプロフィールも持たない男である。私はこの時代をよく覚えている。何百万人ものチェルノジューコフが、教育と事実に曇りのない意識の叫びの下で、あらゆる種類のナンセンスを実行し、動かしていた。
今日、全世界は広告の法則に従って生きている。いや、違う。
この記事は、つまらない結果を宣伝する広告の典型例である。
Causal Effects"という名前そのものが、私たちの後進性を鼻で突いている。なぜなら、様々な正弦を研究している間、私たちはこれがCausal Effects の結果であることに気づかなかったからである。
著者はRFを 取り、入力データを与え、結果としてエラーを得る。
我々がMOの全く新しい方向性を扱っていることを皆に理解させるために、入力データ(予測変数)は共変量と呼ばれ、RF アルゴリズムは メタ学習者と呼ばれ、プロセス全体はCausal Effectsと 呼ばれる。
Causal Effects の擁護者たちは,ロシア語では共変量体が,ターゲット変数だけでなく,近隣の予測変数にも効果を持つ予測変数であることがあることに気づいていない.
RF アルゴリズムを "メタ学習者 "と呼ぶことは,Causal Effectsの もう1つの宣伝である.しかし、機械学習における宣伝の観点からは、「メタ」と「バスタ」の重要性を示す学生がいる はず である。
この論文では、基本 アルゴリズムとしてRFを 選択したことを詳細に正当化しており、特に、RFの 代わりに任意の(?)MOアルゴリズムを使用できると述べている。この思想の一般化として、nuisance(不快、不愉快、 迷惑 )という用語が使われている。文字で表すなら、「ノイズの関数」、つまりRF アルゴリズム 「ノイズの関数」と訳すべきだろう。しかし、なんと複雑で美しい響きだろう。そして何より、RFは 何らかの誤差を伴うルールを生み出すものだと思っていた読者は、ただそれを楽しむのだ。
続けることは可能であるが、上記は、このすべての因果 、純粋に広告に言及するのに十分である。ところで、本当のナンセンスが売れ、スタンフォード大学の教授の地位を得たとき、非常に成功し、新しい高度なトレンドについていきたい信者を得た。
では、MEの最新トレンドの著者は誰なのか?参考文献の数から判断すると、ヴィクトル・チェルノジューコフという人物で、90年代初頭に農学部を卒業した、何のプロフィールも持たない男である。私はこの時代をよく覚えている。何百万人ものチェルノジューコフが、教育と事実に曇りのない意識の叫びの下で、あらゆる種類のナンセンスを実行し、動かしていた。
今日、全世界は広告の法則に従って生きている。いや、違う。
これは、新しい情報がボウルに入らないとき、あなたの専門的不手際の神格化である。あるいは翻訳の問題か。私はただ同情することしかできない。)
新しい情報が何一つお椀に入らなくなるのは、あなたの冒涜の頂点に過ぎない。あるいは翻訳の問題。同情しかない)
すべての用語はねじ曲げられ、基本的な情報は認識できないほど歪められている。
歪んでいない情報を庶民に伝えることができますか?
...
この論文では、基本 アルゴリズムとしてRFを選択したことを詳細に正当化しており、特にRFの代わりに任意の(?)MOアルゴリズムを使用できることを明記している。この考え方の一般化として、nuisance(不快、不愉快、迷惑)という用語が使われている。文章で表現するなら、「ノイズの関数」、つまりRFアルゴリズムは「ノイズの関数」であると訳すべきだろう。しかし、なんと複雑で美しい響きなのだろう。そして何より、これまでRFは多少の誤差を伴うルールを生み出すものだと思っていた読者が、ただそれを楽しんでいるのだ。
...
私はこの記事の実用的な応用例を探していたのですが、見つからなかったのですか?
私には、この記事は、トレーニングが行われたサンプルからの総サンプル面積の偏差の測定を評価するためのツールを提供することになっているように思えた。したがって、このツールがあれば、サンプルの異常な部分を検出することができる。あると思いますか、ないと思いますか?
庶民に純粋な情報を伝えられるか?
共感できる
フェラチオしてもらってるのかと思った......。ああ、違う。
私も同じ意見だ。)
この深い言葉がこのスレッド全体を表している私はこれを実践的に応用する方法を読み、探した。
この記事には、トレーニングが行われたサンプルからのサンプル総面積の偏差の測定を評価するためのツールが示されているはずだ。したがって、このツールがあれば、サンプルの異常な部分を検出することができる。あると思いますか、ないと思いますか?
記事にはありません。
クロス検証を含む、元の予測変数の異なる分割による通常のフィッティングが記述されています。言葉でカモフラージュされたルーチン。
記事には書かれていない。
クロス検証を含む、元の予測変数の異なる分割による通常のフィッティングが記述されている。言葉でカモフラージュされたルーチン。
専門家の意見に感謝する。
そして、厄介な関数(またはパラメータ)は、ノイズ関数ではなく、補助的な関数であり、特定のタスクのターゲット関数ではない。
これらの "補助的な "関数についての見解へのリンクを記事中に設けてもいいですか?
同時に、基本関数と呼ばれ、作業の結果として多くの情報を計算するRFを使用する理由が、かなり詳細に記述されています:
randomForest クラスの オブジェクトは、以下の構成要素を持つリストである:
randomForest の 元の呼び出し
回帰 , 分類 , 教師なし の いずれか .
バッグ外サンプルに基づく入力データの予測値。
nclass + 2 列(分類の場合)または 2 列(回帰の場合)を 持つ 行列.分類の場合, 最初の nclass 列は ,精度の平均減少として計算されるクラス固有の尺度である.nclass + 1番目の 列は ,すべてのクラスでの精度の平均減少である.最後の列は,ジニ指数の平均減少である.回帰では,最初の列が精度の平均低下で,2番目の列がMSEの平均低下である.importance=FALSE の 場合でも,最後のメジャーはベクトルとして返される.
並べ替えベースの重要度測度の "標準誤差"。分類の場合は , 重要度行列の 最初の nclass + 1 列に 対応する p x nclass + 1 行列 .回帰の場合は, 長さ p の ベクトル .
ケースごとの重要度指標を含む p x n 行列で,その [i,j] 要素は,j番目のケースでのi番目の変数の重要度 . localImp=FALSE の 場合は NULL.
成長した木の本数.
各ノードで分割するためにサンプリングされた予測変数の数.
(森全体を含むリスト; randomForest が 教師なしモードで実行されている 場合 ,または keep.forest=FALSE の 場合は NULL .
(分類のみ) 入力データに対する予測値の誤差率ベクトル。i番目の要素は、i番目までのすべての木に対する(OOB)誤差率。
(分類のみ) (OOBデータに基づく)予測値の混同行列。
(分類のみ) 各入力データに1行、各クラスに1列の行列で、ランダムフォレストからの(OOB)「投票」の割合または数を与える。
ケースが'out-of-bag' となった回数(したがって、OOBエラー推定値の計算に使用される)。
randomForest 呼び出し 時に proximity=TRUE の 場合 、入力間の近接度測定の行列(データ点のペアが同じ終端ノードにある頻度に基づく)。
(回帰のみ) 平均2乗誤差のベクトル: 残差の2乗和を n で 割ったもの.
(回帰のみ) "擬似R2乗": 1 - mse / Var(y).
テスト集合が(xtest 引数 または 追加 ytest 引数で )与えられた場合,このコンポーネントは,テスト集合の 対応する predicted, err.rate, confusion, votes ( 分類の場合) または predicted, mse および rsq ( 回帰の場合)を含むリストである.proximity=TRUE の 場合 ,proximity という コンポーネントもあり,これはテスト集合間の近接度とテストデータと訓練データ間の近接 度を含む.
著者が上記のリストから正確に何を使用しているかは不明ですが、RFを使用するとき、分類誤差や回帰誤差を決定するための他のソースは単純に存在しませんし、その必要もありません。
RFが生み出す誤差は、入力データの組み合わせによって異なる。これが著者が研究し、誤差の分散と、どのように計算されたかは不明だがある種のバイアスについての結論を導き出したものである。