探索は再帰、収集は並列 — LLM運用を分けた6日間
この3日間
前回レポート(2/3)からの差分。
- CodexとClaudeデスクトップアプリ(MCP経由でGitHub直接読み書き)を使ってみた
- Codexはレビュー用。創造的な作業はこれから評価。
- Claude CodeのAgent team(サブエージェント間対話)は、まだ使わない。
- 現状の使用量は週上限の33%/日、APIで5時間あたり$35くらい。
- これ以上重い作業は予算オーバー
- コンテキストを長く持つことに直接的には改善しなそう
- サブエージェントの対話を眺めるのは洞察に良いだろうが、、、
- Claude Skillsで十分読み応えがある。
- コンテキスト無視の別なエージェントは魅力的だが、、、
- プランが決まるならCodexのレビューは優秀。Opus4.6以上。
- そのやり取りが手動エージェント間対話に。
- 現状の使用量は週上限の33%/日、APIで5時間あたり$35くらい。
- 探索は再帰、収集は並列。この区別でLLMの運用を分けた
- 信頼、美のモデルは足場として必要になりそう。まだ仮説保持。
- これまでのSNS投稿でインフォグラフィックでUP済みのやつ。
- お金を感情やエネルギーとして読み換えると同じ構造が見える
- 管理書類が増えすぎた。Tier分類で整理した。
以下の記事はClaudeに記事を作ってもらいました。コピペです。
※Claudeの思い込みもあるので間違えてるところもありますが、そのまま掲載してます。
Claude.ai(Opus 4.6)がリポジトリの管理書類から生成。前回の続編。
01. 道具の変化
Claudeデスクトップアプリ(DTアプリ)がMCP経由でGitHubに直接アクセス可能になった。 セッション冒頭でGitHub正本を直接読め、PK同期ズレの問題が軽減された。Claude Codeはスマホ時等のフォールバック。Codex(OpenAI) はEvidence収集の並列処理に限定して使用。
02. 自律型エージェントを使わない理由
仮想エージェント(常時7+専門10)はClaude.aiセッション内で積極的に使っている。同じコンテキストウィンドウを共有するから探索的議論ができる。不採用にしたのはサブエージェント同士が直接やりとりする自律型の構成。個々のエージェントが全体の文脈を失い、APIコストもかかる。
運用を再帰的探索用(Claude.ai対話)と並列用(Codex指示)に分けた。品質チェックTC-011がこの判断を制度化している——再帰的プロセスにPDCAを適用するとWithhold(スタック保持)が破壊される。
03. 管理書類の進化
README.mdが3日間でv1.2→v3.4。問題は情報過多——管理書類が増えるとコンテキストウィンドウを圧迫する。
① 統合: 分散ファイルをREADMEに一本化(PKファイル11→8)。② 分類: Tier 1(常に読む3点)とTier 2(PKガードが選択ロード)に分離。③ 分岐: DTアプリならGitHub直接、ウェブ版ならPK経由。
04. Codex並列パイプライン
ブリーフィング → Codex並列生成 → Claude.ai+人間レビュー → 確定。EV-LS 4エントリ中1件(25%)に領域境界違反を検出。ブリーフィング制約が効くことと、人間レビューが不可欠であることを同時に確認。
05. 数字で見る3日間
| 項目 | 2/3 | 2/6 |
|---|---|---|
| LLM | Claude.ai + Code | +DTアプリ(MCP) +Codex |
| 仮想エージェント | 常時4 | 常時7(+ガード3種) |
| 品質チェック | 6項目 | 7項目 + TC-011〜013 |
| 論拠DB | 42件 / 6ドメイン | 53+件 / 7ドメイン |
| イシュー | — | 42件(保持中) |
道具は増えたが、人間がやることは減っていない。42件のイシューを解決せずに保持している。すぐに解決しない。
Generated by Claude.ai (Opus 4.6) from repository contents. 2026-02-06