AIの最新情報、追いかけるの大変じゃないですか?
毎日のようにX(Twitter)やQiita、Zennに流れてくるAI関連の投稿。
気になるものをブックマークしても、結局読み返す時間がない。
お客様に「最近のAIトレンドってどうなってます?」と聞かれても、パッとまとまった回答ができない。
そんな状況、ありませんか?
僕もまさにそうでした。で、考えたんです。「情報を貯めても分析もレポート化も、全部AIにやらせたらいいんじゃないか?」と。
Claude Codeを使って、142件のAI関連記事を自動分析し、テーマ別に分類されたリンク付きHTMLレポートを生成できました。
できたレポートはこちら
この記事では、その一部始終をお伝えします。
そもそも142件の記事はどこから来たのか
まず前提として、僕は「info_researcher」という自作の情報収集システムを動かしています。
仕組みはシンプルで、僕が日々気になったAI関連の記事やX投稿を自分宛にメールで送ってためておき、そこからURLを自動抽出して、記事の内容を要約し、SQLiteデータベースに保存するというもの。Notionにも自動同期しています。
2026年3月21日〜26日の5日間で、このシステムが集めた記事が142件でした。
内訳はこんな感じです。
- X(Twitter)の投稿: 134件(94%)
- Web記事(Qiita・Zenn・@IT等): 8件(6%)
- ユニークな情報発信者: 40人以上
5日間で142件。毎日約28件のペースです。これを人力で読んで整理するのは、正直厳しいです、しんどいですね。
Claude Codeにデータベースを読ませる
ここからが本題です。
Claude Codeはターミナルから直接SQLiteデータベースにアクセスできます。まず、データベースの中身を確認してもらい、142件分の要約テキスト、全部で約36万文字。これをClaude Codeに読み込ませました。
Web記事はURLを実際に巡回
データベースにはURLも保存されているので、Web記事8件については実際にURLを巡回して、より詳しい内容を取得しました。
8つのカテゴリに自動分類
142件の記事を読み込んだClaude Codeに、テーマ別に分類させました。結果、8つのカテゴリに整理されました。
- Claude Code / Cowork 活用最前線 — 一番多かったカテゴリ
- AIエージェント&自動化 — LINE Harness、SNS自動投稿など
- AI開発環境・ツール — ローカルLLM、MCP、開発環境
- AIビジネス活用 — EC、SEO、LLMO、補助金
- AI技術トレンド — マルチエージェント、世界モデル
- Web技術記事ピックアップ — Qiita・Zenn記事の詳細
- セキュリティ・インフラ — BOT対策
- その他
今週の3大キーワードが浮かび上がった
分析の結果、特に注目度が高かった3つのキーワードが見えてきました。
#1 Claude Cowork — マーケ業務92%削減
山本伸弥氏(@arupoki)の投稿が大きな反響を呼んでいました。Claude Coworkを使って、マーケティング業務の92%を削減した事例です。
具体的な数字がすごい。
| 業務 | Before | After | 削減率 |
|---|---|---|---|
| 月次レポート | 8時間 | 2分 | 99.6% |
| KW選定 | 4時間 | 3分 | 98.8% |
| フォーム営業100件 | 25時間 | 1時間 | 96.0% |
| 合計 | 60時間 | 約5時間 | 約92% |
月60時間が5時間になる。月額$20(約3,000円)のProプランで、です。
#2 AIエージェント自律化 — 24時間自走の時代
「24時間自走するAIエージェント」の実装事例が一気に増えていました。
特に目を引いたのが、野田修一氏のLINE Harness。LINE公式アカウントの全機能をClaude Codeから自然言語で操作できるOSSです。「セミナー参加者にリマインド送って」と言うだけ。
従来、LINE運用の構築に数十万〜数百万円かかっていた業務が、無料のOSSで実現できてしまう。
#3 LLMO(LLM最適化)— AIに名前を呼ばれる時代
SEOの次のフロンティアとして「LLMO」という概念が具体化していました。AIに「名前を呼ばれる」存在になるための戦略です。
従来のSEO被リンクがURLのリンクを重視するのに対し、LLMOでは「固有名詞の文脈的言及」を重視する。設計思想が根本的に違うんですね。
HTMLレポートの生成
分析が終わったら、いよいよHTMLレポートの生成です。
レポートはこちら
Claude Codeに指示したのは、こんな構成。
- 表紙 — KPIカード(収集数・ソース比率・発信者数・カテゴリ数)
- 目次 — アンカーリンク付き
- エグゼクティブサマリー — 3大キーワードをカード形式で
- カテゴリ別詳細 — 比較表・数値データ・引用ブロック付き
- アクションアイテム — 5つの具体的提案(緊急度付き)
- 全ソース一覧 — 142件すべてリンク付き
ここで大事なのは、全URLがクリック可能なリンクになっていること。
お客様がレポートを読んで「この記事、気になるな」と思ったら、ワンクリックで元記事に飛べます。
レスポンシブ対応なので、スマホでも読みやすい。印刷用CSSも入れてあるので、PDF化もきれいにできます。
出来上がったHTMLは78KB。ブラウザで開くと、なかなかいい感じのレポートになりました。
完成したレポートの特徴
- 142件の全記事をカバー — 1件も漏れなし
- 8カテゴリに自動分類 — 流し読みでも全体像がわかる
- 全URLリンク付き — 元記事にワンクリックでアクセス
- 比較表・数値データ付き — 92%削減、3.4倍、10.1倍などの数字を赤/緑で強調
- アクションアイテム5つ — 「で、何すればいいの?」に答える
- レスポンシブ対応 — スマホでもPCでも読みやすい
スキル化して再利用可能に
この一連の流れを、Claude Codeの「スキル」として登録しました。スキルを呼び出せば、データベースの読み込みからHTML生成まで全自動で実行されます。
毎週のレポート生成が、コマンド一発になったということです。
やってみて感じたこと
人間が142件の記事を読んで、テーマ別に分類して、比較表を作って、リンク付きHTMLにまとめる。これを手作業でやったら、まる1日はかかります。
それがClaude Codeなら、URLの巡回からHTML生成まで含めて、約20分で完了する。
その間、僕は他の作業を進めることができます。
もちろん、AIの出力をそのままお客様に渡すわけではありません。分類の妥当性を確認したり、アクションアイテムの優先順位を調整したり、人間のチェックは必要です。でも、「ゼロから作る」のと「60点の叩き台をレビューする」のでは、作業量がまったく違います。
まとめ
- info_researcherで自動収集した142件のAI記事を、Claude Codeで一括分析
- 8カテゴリに自動分類し、全URLリンク付きのHTMLレポートを生成
- マーケ業務92%削減、LINE自動化など、今週のAIトレンドが一覧できる
- スキル化して
/make-reportで毎週再利用可能に - 人間の確認は必要だが、ゼロから作るより圧倒的に速い
AIの情報洪水に飲まれそうになっている方、「収集→分析→レポート化」の流れをAIに任せたらできちゃって、世界が変わったの感じます。







