記事「データサイエンスと機械学習(第02回):ロジスティック回帰」についてのディスカッション

 

新しい記事「データサイエンスと機械学習(第02回):ロジスティック回帰」はパブリッシュされました:

データ分類は、アルゴトレーダーとプログラマーにとって非常に重要なものです。この記事では、「はい」と「いいえ」、上と下、買いと売りを識別するのに役立つ可能性のある分類ロジスティックアルゴリズムの1つに焦点を当てます。

線形モデルはロジスティック関数「(sigmoid/p) =1/1+e^t」に渡されます。ここで、tは線形モデルであり、結果は0~1の値です。これは、データポイントがクラスに属する確率を表します。

線形モデルのyを従属として使用する代わりに、その関数は「p」が従属として使用されるように示されます。

p = 1/1+e^-(c+m1x1+m2x2+....+mnxn) 、複数の値の場合

前述のように、シグモイド曲線は無限大の値をバイナリ形式(0または1)の出力に変換することを目的としています。しかし、0.8にデータポイントがある場合、値が0であるか1であるかはどのように判断できるでしょうか。ここで役立つのがしきい値です。

ロジスティック回帰 - シグモイドしきい値

しきい値は勝ち負けの確率を示し、0.5(0と1の中心)にあります。

0.5以上の値は1に丸められるため、勝者と見なされます。0.5未満の値は0に丸められるため、敗者と見なされます。この時点で線形とロジスティック回帰の違いがわかります。

作者: Omega J Msigwa