Dmitriy Gizlyk
Dmitriy Gizlyk
  • 情報
11+ 年
経験
0
製品
0
デモバージョン
134
ジョブ
0
シグナル
0
購読者
Professional writing programs of any complexity for MT4, MT5, C#.
Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第78回):Transformerを用いたデコーダなしの物体検出器(DFFT)
ニューラルネットワークが簡単に(第78回):Transformerを用いたデコーダなしの物体検出器(DFFT)

この記事では、取引戦略の構築という問題を別の角度から見てみようと思います。将来の値動きを予測するのではなく、過去のデータの分析に基づいた取引システムの構築を試みます。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第77回):Cross-Covariance Transformer (XCiT)
ニューラルネットワークが簡単に(第77回):Cross-Covariance Transformer (XCiT)

モデルでは、しばしば様々なAttentionアルゴリズムを使用します。そして、おそらく最もよく使用するのがTransformerです。Transformerの主な欠点はリソースを必要とすることです。この記事では、品質を損なうことなく計算コストを削減する新しいアルゴリズムについて考察します。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第76回):Multi-future Transformerで多様な相互作用パターンを探る
ニューラルネットワークが簡単に(第76回):Multi-future Transformerで多様な相互作用パターンを探る

この記事では、今後の値動きを予測するというトピックを続けます。Multi-future Transformerのアーキテクチャーをお見せします。その主なアイデアは、未来のマルチモーダル分布をいくつかのユニモーダル分布に分解することで、シーンのエージェント間の相互作用のさまざまなモデルを効果的にシミュレートすることができるというものです。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第75回):軌道予測モデルのパフォーマンス向上
ニューラルネットワークが簡単に(第75回):軌道予測モデルのパフォーマンス向上

私たちが作成するモデルはより大きく、より複雑になっています。そのため、訓練だけでなく、運用にもコストがかかります。しかし、決断に要する時間はしばしば重要です。この観点から、品質を損なうことなくモデルのパフォーマンスを最適化する手法を考えてみましょう。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第74回):適応による軌道予測
ニューラルネットワークが簡単に(第74回):適応による軌道予測

本稿では、様々な環境条件に適応可能なマルチエージェントの軌道予測について、かなり効果的な手法を紹介します。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第73回):値動きを予測するAutoBot
ニューラルネットワークが簡単に(第73回):値動きを予測するAutoBot

引き続き、軌道予測モデルを訓練するアルゴリズムについて説明します。この記事では、「AutoBot」と呼ばれるメソッドを紹介します。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第72回):ノイズ環境における軌道予測
ニューラルネットワークが簡単に(第72回):ノイズ環境における軌道予測

前回説明した目標条件付き予測符号化(GCPC)法では、将来の状態予測の質が重要な役割を果たします。この記事では、金融市場のような確率的環境における予測品質を大幅に向上させるアルゴリズムを紹介したいとおもいます。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第71回):目標条件付き予測符号化(GCPC)
ニューラルネットワークが簡単に(第71回):目標条件付き予測符号化(GCPC)

前回の記事では、Decision Transformer法と、そこから派生したいくつかのアルゴリズムについて説明しました。さまざまな目標設定手法で実験しました。実験では、さまざまな方法で目標を設定しましたが、それ以前に通過した軌跡に関するモデルの研究は、常に私たちの関心の外にありました。この記事では、このギャップを埋める手法を紹介したいと思います。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第70回):閉形式方策改善演算子(CFPI)
ニューラルネットワークが簡単に(第70回):閉形式方策改善演算子(CFPI)

この記事では、閉形式の方策改善演算子を使用して、オフラインモードでエージェントの行動を最適化するアルゴリズムを紹介します。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第69回):密度に基づく行動方策の支持制約(SPOT)
ニューラルネットワークが簡単に(第69回):密度に基づく行動方策の支持制約(SPOT)

オフライン学習では、固定されたデータセットを使用するため、環境の多様性をカバーする範囲が制限されます。学習過程において、私たちのエージェントはこのデータセットを超える行動を生成することができます。環境からのフィードバックがなければ、そのような行動の評価が正しいとどうやって確信できるのでしょうか。訓練データセット内のエージェントの方策を維持することは、訓練の信頼性を確保するために重要な要素となります。これが、この記事でお話しする内容です。

JimReaper
JimReaper 2023.12.22
Hi Dmitriy, seems like the article is incomplete.
Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第68回):オフライン選好誘導方策最適化
ニューラルネットワークが簡単に(第68回):オフライン選好誘導方策最適化

最初の記事で強化学習を扱って以来、何らかの形で、環境の探索と報酬関数の決定という2つの問題に触れてきました。最近の記事は、オフライン学習における探索の問題に費やされています。今回は、作者が報酬関数を完全に排除したアルゴリズムを紹介したいと思います。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第67回):過去の経験を活かした新しい課題の解決
ニューラルネットワークが簡単に(第67回):過去の経験を活かした新しい課題の解決

この記事では、訓練セットにデータを収集する方法について引き続き説明します。明らかに、学習プロセスには環境との絶え間ない相互作用が必要です。しかし、状況はさまざまです。

JimReaper
JimReaper 2023.12.09
THIS IS GENIUS WORK Dmitriy! I Love this!
Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第66回):オフライン学習における探索問題
ニューラルネットワークが簡単に(第66回):オフライン学習における探索問題

モデルは、用意された訓練データセットのデータを使用してオフラインで訓練されます。一定の利点がある反面、環境に関する情報が訓練データセットのサイズに大きく圧縮されてしまうというマイナス面もあります。それが逆に、探求の可能性を狭めています。この記事では、可能な限り多様なデータで訓練データセットを埋めることができる方法について考えます。

JimReaper
JimReaper 2023.12.05
You are the best! Thank you so much for your research. Beautifully done.!
Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第65回):Distance Weighted Supervised Learning (DWSL)
ニューラルネットワークが簡単に(第65回):Distance Weighted Supervised Learning (DWSL)

この記事では、教師あり学習法と強化学習法の交差点で構築された興味深いアルゴリズムに触れます。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第64回):ConserWeightive Behavioral Cloning (CWBC)法
ニューラルネットワークが簡単に(第64回):ConserWeightive Behavioral Cloning (CWBC)法

以前の記事でおこなったテストの結果、訓練された戦略の最適性は、使用する訓練セットに大きく依存するという結論に達しました。この記事では、モデルを訓練するための軌道を選択するための、シンプルかつ効果的な手法を紹介します。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第63回):Unsupervised Pretraining for Decision Transformer (PDT)
ニューラルネットワークが簡単に(第63回):Unsupervised Pretraining for Decision Transformer (PDT)

引き続き、Decision Transformer法のファミリーについて説明します。前回の記事から、これらの手法のアーキテクチャの基礎となるTransformerの訓練はかなり複雑なタスクであり、訓練のために大規模なラベル付きデータセットが必要であることにすでに気づきました。この記事では、ラベル付けされていない軌跡をモデルの予備訓練に使用するアルゴリズムについて見ていきます。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第62回):階層モデルにおけるDecision Transformerの使用
ニューラルネットワークが簡単に(第62回):階層モデルにおけるDecision Transformerの使用

最近の記事で、Decision Transformerを使用するためのいくつかの選択肢を見てきました。この方法では、現在の状態だけでなく、以前の状態の軌跡や、その中でおこなわれた行動も分析することができます。この記事では、階層モデルにおけるこの方法の使用に焦点を当てます。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第61回):オフライン強化学習における楽観論の問題
ニューラルネットワークが簡単に(第61回):オフライン強化学習における楽観論の問題

オフライン訓練では、訓練サンプルデータに基づいてエージェントの方策を最適化します。その結果、エージェントは自分の行動に自信を持つことができます。しかし、そのような楽観論は必ずしも正当化されるとは限らず、模型の操作中にリスクを増大させる可能性があります。今日は、こうしたリスクを軽減するための方法の1つを紹介しましょう。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第60回):Online Decision Transformer (ODT)
ニューラルネットワークが簡単に(第60回):Online Decision Transformer (ODT)

最後の2つの記事は、望ましい報酬の自己回帰モデルの文脈で行動シーケンスをモデル化するDecision Transformer法に費やされました。この記事では、この方法の別の最適化アルゴリズムについて見ていきます。

Dmitriy Gizlyk
パブリッシュされた記事ニューラルネットワークが簡単に(第59回):コントロールの二分法(DoC)
ニューラルネットワークが簡単に(第59回):コントロールの二分法(DoC)

前回の記事では、Decision Transformerを紹介しました。しかし、外国為替市場の複雑な確率的環境は、提示した手法の可能性を完全に実現することを許しませんでした。今回は、確率的環境におけるアルゴリズムの性能向上を目的としたアルゴリズムを紹介します。