2026-04-30

自動売買への道 (2026-04-30)

楽天証券の口座でデイトレの自動売買に挑戦しようと、Windows / Excel 上で動作する マーケットスピード II RSS を利用した Python アプリ (Kabuto) を開発しています。

今日の日経平均株価

現在値 59,284.92 -632.54 -1.06% 15:45
前日終値 59,917.46 04/28 高値 59,560.57 09:00
始値 59,484.71 09:00 安値 58,928.20 13:32

※ 右の 15 分足チャートは Yahoo! Finance のデータを yfinance で取得して作成しました。

【関連ニュース】

強化学習の沼

5 月の連休にゆっくりバックテストができそうなので、それまでにどれだけ強化学習モデルを育てられるかに挑んでいます。

エージェント

学習・推論用の環境は、下記のように分離しました。ただし、推論環境 InferenceEnv は、学習環境 TrainingEnv を継承しています。

graph LR
    subgraph make_env_training
        A[TrainingEnv] --> B[[Monitor]]
    end
    subgraph make_env_inference
        C[InferenceEnv] --> D[[Monitor]]
    end
    B --> E[[DummyVecEnv]]
    D --> E[[DummyVecEnv]]

今までの進捗を振り返って、強化学習が実用上使い物になるレベルまで洗練されるには時間がかかりそうです。それまで、粛々と学習と推論の評価を続けるわけにもいかないので、推論用の環境では、エントリ(建玉)と、利確・ロスカットによる返済の妥当性を確認するロジックを加えています。

このやり方を突き詰めると「アルゴリズムで建玉や返済を決めれば良い」ということになり、「わざわざ強化学習モデルを使う必要があるのか?」という本質的な疑問にぶつかってしまいました。

再びアルゴリズムのみの取引に戻すかどうか決めかねていますが、おそらくは、週末からアルゴリズムのみに戻してプログラムを整理してバックテストを始めることになりそうです。

今日、明日は、今までの取り組みを継続します。

学習環境 TrainingEnv(gymnasium.Env)

学習環境の概略です。

行動空間 Action Space
  1. HOLD : 何もしない
  2. BUY  : 「買建」または「返済」
  3. SELL : 「売建」または「返済」
「返済」を行動空間に加えると学習が進まなかったことを踏まえ「返済」は環境側で制御。ナンピン禁止を行動マスクで制御
PositionType に対する mask [HOLD, BUY, SELL]
  • WARMUP [True, False, False](寄り付き後、売買できない期間を設定)
  • NONE   [True, True,  True ]
  • LONG   [True, False, True ]
  • SHORT  [True, True,  False]
観測空間 Observation Space
株価、インジケータなど
  1. MA1 / 始値     : 短周期の移動平均
  2. MA2 / 始値     : 長周期の移動平均
  3. Momentum       : モメンタム
  4. Profit         : 含み損益
  5. ProfitMax      : 最大含み損益
  6. n_trade        : 約定回数
  7. count_negative : 含み損の継続カウンタ
  8. cost_contract  : 約定コスト
  9. dd_ratio       : ドローダウン率
クロス・オシレータ関連
  1. DiffMA   : MA乖離率 = (MA1 - MA2) / MA2
  2. DiffVWAP : VWAP乖離率 = (MA1 - VWAP) / VWAP
  3. RSI      : 相対力指数
ポジションを One-Hot エンコーディング
  1. SHORT [1. 0. 0.]
  2. NONE  [0. 1. 0.]
  3. LONG  [0. 0. 1.]
報酬 Rewards
  • 建玉なし    : ゴールデン/デッド クロス・シグナル近辺の報酬分布の一部をペナルティとして付与
  • 建玉保持    : 含み損益の一定割合を付与+前ステップの含み益からの増減の一定割合を付与
  • 返済時      : 直前の含み損益を付与
  • 約定コスト  : 建玉、返済時いずれも固定の約定コスト+α(前回約定時との時間差に応じて)をペナルティとして引く
  • 連続含み損  : 許容回数を超えたらペナルティを急激に増大
終了条件 Episode End
  1. terminated
    • "目的を達成した/失敗した" など、エージェント側の原因で終了
    • 終端として扱う(価値は 0)
    1. なし(「約定回数の上限で終了」を評価予定)
  2. truncated
    • 時間制限・ステップ制限・データ終端など “外的理由” で終了
    • 終端ではない(価値を bootstrap)
    1. ティックデータが最終行に達した時
      • 終了時、建玉があれば強制返済。報酬条件、約定コストは同じ
      • 約定回数に応じて報酬付与。現在は 25 回が極大になる式を適用(ただし約定回数は偶数)。

複数のティックデータで学習

特徴量のスケーリングを委ねようと VecNormalize を使用していましたが、問題に直面して使用を諦めたので、まだ特徴量のスケーリングの対応が不十分ですが、少し確認してパフォーマンスを確認しました。

過去データの学習 (5 episodes / day) における報酬 (episord_reward)、損益 (pnl)、約定回数 (transactions) トレンド by TensorBoard

推論用環境

推論トレンド

学習に使用したティックデータ + 本日収集したティックデータを順番に推論しました。

収集したティックデータに対する推論トレンド

本日分の推論詳細を示しました。

本日分のティックデータに対する推論の詳細

現在、「強化学習モデル+エントリと返済の妥当性を確認アルゴリズム」と、アルゴリズムのみにした場合のパフォーマンス差を評価する検討をしています。

参考サイト

  1. マーケットスピード II RSS | 楽天証券のトレーディングツール
  2. マーケットスピード II RSS 関数マニュアル
  3. 注文 | マーケットスピード II RSS オンラインヘルプ | 楽天証券のトレーディングツール
  4. PythonでGUIを設計 | Qtの公式Pythonバインディング
  5. Python in Excel alternative: Open. Self-hosted. No limits.
  6. Book - xlwings Documentation
にほんブログ村 株ブログ 株日記へ
PVアクセスランキング にほんブログ村

0 件のコメント:

コメントを投稿