less than 1 minute read

この3日間

前回レポート(2/3)からの差分。

  • CodexとClaudeデスクトップアプリ(MCP経由でGitHub直接読み書き)を使ってみた
    • Codexはレビュー用。創造的な作業はこれから評価。
  • Claude CodeのAgent team(サブエージェント間対話)は、まだ使わない。
    • 現状の使用量は週上限の33%/日、APIで5時間あたり$35くらい。
      • これ以上重い作業は予算オーバー
    • コンテキストを長く持つことに直接的には改善しなそう
    • サブエージェントの対話を眺めるのは洞察に良いだろうが、、、
      • Claude Skillsで十分読み応えがある。
    • コンテキスト無視の別なエージェントは魅力的だが、、、
      • プランが決まるならCodexのレビューは優秀。Opus4.6以上。
      • そのやり取りが手動エージェント間対話に。
  • 探索は再帰、収集は並列。この区別でLLMの運用を分けた
  • 信頼、美のモデルは足場として必要になりそう。まだ仮説保持。
    • これまでのSNS投稿でインフォグラフィックでUP済みのやつ。
  • お金を感情やエネルギーとして読み換えると同じ構造が見える
  • 管理書類が増えすぎた。Tier分類で整理した。

以下の記事はClaudeに記事を作ってもらいました。コピペです。

※Claudeの思い込みもあるので間違えてるところもありますが、そのまま掲載してます。


Claude.ai(Opus 4.6)がリポジトリの管理書類から生成。前回の続編。


01. 道具の変化

Claudeデスクトップアプリ(DTアプリ)がMCP経由でGitHubに直接アクセス可能になった。 セッション冒頭でGitHub正本を直接読め、PK同期ズレの問題が軽減された。Claude Codeはスマホ時等のフォールバック。Codex(OpenAI) はEvidence収集の並列処理に限定して使用。

ワークフロー


02. 自律型エージェントを使わない理由

仮想エージェント(常時7+専門10)はClaude.aiセッション内で積極的に使っている。同じコンテキストウィンドウを共有するから探索的議論ができる。不採用にしたのはサブエージェント同士が直接やりとりする自律型の構成。個々のエージェントが全体の文脈を失い、APIコストもかかる。

運用を再帰的探索用(Claude.ai対話)と並列用(Codex指示)に分けた。品質チェックTC-011がこの判断を制度化している——再帰的プロセスにPDCAを適用するとWithhold(スタック保持)が破壊される。


03. 管理書類の進化

README.mdが3日間でv1.2→v3.4。問題は情報過多——管理書類が増えるとコンテキストウィンドウを圧迫する。

管理書類の進化

① 統合: 分散ファイルをREADMEに一本化(PKファイル11→8)。② 分類: Tier 1(常に読む3点)とTier 2(PKガードが選択ロード)に分離。③ 分岐: DTアプリならGitHub直接、ウェブ版ならPK経由。


04. Codex並列パイプライン

パイプライン

ブリーフィング → Codex並列生成 → Claude.ai+人間レビュー → 確定。EV-LS 4エントリ中1件(25%)に領域境界違反を検出。ブリーフィング制約が効くことと、人間レビューが不可欠であることを同時に確認。


05. 数字で見る3日間

比較

項目 2/3 2/6
LLM Claude.ai + Code +DTアプリ(MCP) +Codex
仮想エージェント 常時4 常時7(+ガード3種)
品質チェック 6項目 7項目 + TC-011〜013
論拠DB 42件 / 6ドメイン 53+件 / 7ドメイン
イシュー 42件(保持中)

道具は増えたが、人間がやることは減っていない。42件のイシューを解決せずに保持している。すぐに解決しない。


Generated by Claude.ai (Opus 4.6) from repository contents. 2026-02-06