記事「独自のLLMをEAに統合する(第3部):CPUを使った独自のLLMの訓練」についてのディスカッション

 

新しい記事「独自のLLMをEAに統合する(第3部):CPUを使った独自のLLMの訓練」はパブリッシュされました:

今日の人工知能の急速な発展に伴い、言語モデル(LLM)は人工知能の重要な部分となっています。私たちは、強力なLLMをアルゴリズム取引に統合する方法を考える必要があります。ほとんどの人にとって、これらの強力なモデルをニーズに応じて微調整し、ローカルに展開して、アルゴリズム取引に適用することは困難です。本連載では、この目標を達成するために段階的なアプローチをとっていきます。

本連載の前回の記事では、大規模言語モデルを実行するための基本的な環境設定について説明し、WSLでllama.cppを使ってシンプルなLLMインスタンスを実行しました。最もエキサイティングなのは、強力なGPUがなくても、純粋にCPUだけで例を実行できることです。この一連のチュートリアルでは、ハードウェアの必要条件をできる限り下げ、読者がハードウェアの問題に邪魔されることなく、サンプルを試したり検証したりできるように努めています。もちろん、モデル訓練の部分では、純粋なCPUバージョンや、AMDグラフィックカードのアクセラレーションコンピューティングをサポートするバージョンなど、さまざまなハードウェアプラットフォーム用のブランチも紹介する予定です。

もちろん、CPUで学習させたモデルは役に立つのか、このようなモデルの意義は何なのかなどの疑問をお持ちかもしれません。確かに、複雑な関数を持つモデルを学習させたり、CPUを使って複雑なタスクを解決しようと思えば、これはかなり難しいですが、それでも、ある特定の比較的単純な関数を実装するために使用することは可能です。


この記事では、CPUを使った大規模言語モデルの学習方法と、大規模言語モデルの学習に必要な金融データセットの作成方法について説明します。私の他の記事で述べた知識が関係してくるかもしれませんが、ここでは繰り返しません。より深く知りたい場合は、私の関連記事をご覧ください。

作者: Yuqiang Pan