Claudeのトークン料金を「半分」に節約する最強スキル

BBetter Stack
Computing/SoftwareSmall Business/StartupsInternet Technology

Transcript

00:00:00節約したい方や、LLM特有の話し方が苦手な方には、
00:00:03これがぴったりかもしれません。
00:00:07「Caveman(原始人)」という、出力トークンを最大75%削減しつつ、
00:00:10技術的な正確さを維持すると謳う、新しいトレンドのスキルです。
00:00:12すべてはケビンの賢い言葉のおかげです。
00:00:13「なぜ時間を無駄にする? 少ない言葉で十分だ」
00:00:16これはClaudeやCodexなどで動作し、無駄な言葉の多い
00:00:20「長すぎて読めない」回答を、正確さを保ったまま、
00:00:24簡潔な要約へと変えてくれます。カスタマイズも可能で、
00:00:29文言モードや簡潔なコミット、1行コードレビューなどの機能もあります。
00:00:30最初は少し奇妙に思えるかもしれませんが、科学的な根拠もあります。
00:00:34それでは、詳しく見ていきましょう。
00:00:40以前、Claude codeでテストしていたのですが、ダミーの認証機能を
00:00:44搭載したNext.jsのデモアプリを使って、
00:00:48「このアプリの認証の実装方法を説明して」と質問しました。
00:00:49これはスキルをインストールしていない、通常のClaude codeです。
00:00:53「これは模擬的な認証システムです」といった、
00:00:56無駄な言葉がすぐに目に入ります。「バックエンドなし、
00:01:00パスワードなし、実質的なセキュリティなし、Better Stack RUMの
00:01:03ユーザー追跡のデモ用です」といった具合に。その後、主要なファイルや
00:01:06仕組みを説明しますが、すべて普通の英語で書かれています。
00:01:08同じ質問をCavemanスキルを使って行うと、
00:01:11要点だけを伝えてくるので、非常に簡潔です。
00:01:13最初の文は「デモ専用。クライアントサイド認証。セキュリティなし。
00:01:17Better Stack RUM追跡デモ用」となります。
00:01:18無駄な言葉やエムダッシュなどは一切ありません。
00:01:21きちんとした文章を作る必要はなく、
00:01:25技術的な情報をすぐに伝えることができるのです。
00:01:26仕組みのセクションや、フロー、統合ポイントについても同様です。
00:01:29「仕組み」を平易な英語で説明する代わりに、
00:01:33「アプリ起動→ローカルストレージの保存ユーザーを確認」と表示されます。
00:01:36とにかく簡潔で、正直なところ、私が重視しているのはそこです。
00:01:39自然な英語である必要はなく、
00:01:43技術的な情報さえ得られればいいのです。
00:01:44この簡潔さが一番の魅力ですが、もう一つのセールスポイントは、
00:01:47出力トークンを削減できるため、理論的にはClaude codeの
00:01:51サブスクを最大限活用でき、APIトークンの節約にもなる点です。
00:01:55ただ、少し注意点があると思っています。
00:01:57これは以前に行った比較テストの結果ですが、
00:02:00通常の回答と、単に「簡潔に」と指示した場合、
00:02:04そしてCavemanスキルを使った場合を比較しました。
00:02:07「git rebaseとgit mergeの違いは?」といった10個の質問を使いました。
00:02:11結果は非常に良好でした。
00:02:14Cavemanスキルは通常時と比べて出力トークンを45%削減し、
00:02:18単に「簡潔に」と指示した場合よりも39%削減できました。
00:02:22これは当然コストにも直結します。出力トークンにおいて
00:02:2645%の節約になり、通常は約8セントかかるところが、
00:02:31Cavemanなら約4セントで済みます。
00:02:32ここまでは非常に順調に見えます。
00:02:34面白くなるのは、入力トークンのコストを考慮した時です。
00:02:37当然ながら、
00:02:38Cavemanスキルを使用すると、大量のテキストを含むMarkdownファイルを
00:02:41読み込むことになります。1文のプロンプトを送るだけなら、
00:02:45通常は1セントの何分の一かですが、
00:02:49このスキルを使うと、入力だけで約4セントかかります。
00:02:50入力と出力の合計コストを算出すると、平均してCavemanの方が
00:02:54通常より10%高くなってしまいます。出力で節約した分が、
00:02:58入力トークンで相殺されてしまったからです。
00:03:01しかし、これでCavemanの負けというわけではありません。
00:03:04これが当てはまるのは、特定のシナリオに限られるからです。
00:03:05短いプロンプトを1回送り、追記の質問をしない場合に限ります。
00:03:10追加の質問を始めると、プロンプト・キャッシュが効いてきます。
00:03:14そうなると形勢は逆転し、Cavemanの方が39%も
00:03:19コストを抑えられるようになります。
00:03:20少し細かい話になりましたが、Cavemanを使う合理性は証明されました。
00:03:23さらに別の利点として、ある研究によると、
00:03:27大規模モデルに簡潔な回答を強制することで、特定のベンチマークで
00:03:31正確さが26%向上したという結果も出ています。
00:03:34つまり、ケビンこそが賢かったということで、チャンネル登録も賢い選択です。
00:03:38このスキルは、vscelのスキルパッケージを使用して、
00:03:41このようなコマンドを実行することで試せます。指示内容も見ることができます。
00:03:45aやan、theなどの冠詞を省く、無駄な言葉を省く、挨拶を省く、
00:03:49曖昧な表現を避ける、といったルールがあります。
00:03:50また、短い類義語を使う(extensiveの代わりにbig、
00:03:54implement a solutionの代わりにfixなど)よう指示し、
00:03:58技術用語、コードブロック、エラーは維持するように設定されています。
00:04:00構成のパターンも決まっており、
00:04:03対象、アクション、理由、ネクストステップの順で記述します。
00:04:05非常に簡潔です。
00:04:07「原始人度」を調整できる強度モードも用意されています。
00:04:10LightからUltraまでの範囲があります。
00:04:12私はデフォルトのFullを使っていましたが、Ultraではすべてを略し、
00:04:17接続詞を削り、矢印で因果関係を示し、
00:04:21一言で済むなら一言だけで回答します。
00:04:22また、最もトークン効率が良い、漢文を使用する「文言モード」もあります。
00:04:26残念ながら私は読めないので、
00:04:27あまり役には立ちませんが。
00:04:30Cavemanの機能はこれだけではなく、
00:04:33特定の場面で使えるスキルが他にもいくつかあります。
00:04:34簡潔で的確なConventional Commitsを書く「Caveman Commit」、
00:04:381つの指摘につき1行で簡潔に書く「Caveman Review」、
00:04:42そして、自然言語のファイルを原始人化して、
00:04:46入力トークンを節約して再利用できる「Compress」スキルです。
00:04:49気に入ったものがあればコメントで教えてください。
00:04:52チャンネル登録も忘れずに。それではまた次回の動画でお会いしましょう。

Key Takeaway

Cavemanスキルは、不要な装飾語や文法構造を排除することで出力トークンを45%削減し、プロンプト・キャッシュを併用することで対話全体のコストを39%抑えつつ回答の正確性を向上させる。

Highlights

Cavemanスキルは、ClaudeやCodexなどのLLMからの出力トークンを最大75%削減する。

技術的な正確さを維持したまま、出力トークンを通常時より45%、「簡潔に」という指示よりも39%節約できる。

特定のベンチマークにおいて、回答を簡潔に強制することでAIの正確さが26%向上する。

1回限りの短いプロンプトでは入力コストが10%増えるが、プロンプト・キャッシュを利用する継続的な対話では合計コストを39%削減できる。

冠詞(a, an, the)や挨拶、曖昧な表現を排除し、extensiveをbig、implement a solutionをfixなどの短い類義語に置き換える。

LightからUltraまでの強度設定があり、Ultraモードでは接続詞を削り、因果関係を矢印で表現する。

Timeline

Cavemanスキルの概要と特徴

  • 不必要な言葉を削ぎ落とし、出力トークンを最大75%削減しながら技術的正確性を維持する。
  • 自然な文章よりも要点の簡潔さを優先する「原始人」のような話し方をLLMに強制する。
  • Claude Codeなどのツールで動作し、冗長な回答を実用的な要約へと変換する。

LLM特有の丁寧すぎる、あるいは冗長な回答を改善するための手法が提供される。ケビンの「少ない言葉で十分」という考えに基づき、正確性を保ちながら情報の密度を高める。科学的な根拠に基づき、カスタマイズ可能な複数のモードが用意されている。

通常回答とCavemanスタイルの比較実演

  • 通常のClaudeは「これは模擬的なシステムです」といった説明的な文章を多用する。
  • Cavemanスキル適用後は「デモ専用。セキュリティなし」といった断片的な事実のみを提示する。
  • 動作の仕組みも平易な文章ではなく「アプリ起動→ユーザー確認」というフロー形式で出力される。

Next.jsのデモアプリの認証実装を説明させるテストでは、従来のような「きちんとした英語」による解説が排除される。ユーザーが真に必要とするのは文法的な正しさではなく、技術的な情報そのものであるという前提に立つ。その結果、情報の読み取り速度が向上し、ノイズが最小限になる。

トークン消費量とコスト構造の分析

  • 出力トークンの消費量は通常時と比較して45%減少する。
  • プロンプト・キャッシュが効かない単発の質問では、指示プロンプトの読み込みにより総コストが10%増加する。
  • 継続的な対話においてはプロンプト・キャッシュの効果により、全体のコストを39%削減できる。

10個の技術的な質問を用いたテストの結果、出力トークンの節約は明白である。出力単価は8セントから4セントへと半減する。一方で、Cavemanスキルの指示内容自体が大きなMarkdownファイルであるため、入力コストへの影響を考慮する必要がある。しかし、プロンプト・キャッシュを活用する環境下では、この入力コストが相殺され、明確な経済的メリットが発生する。

正確性の向上と具体的な制御ルール

  • 簡潔な回答を強制することで、特定のベンチマークでの正確性が26%向上する。
  • 冠詞の省略や短い類義語への置き換えにより、1トークンあたりの情報密度を極限まで高める。
  • 対象、アクション、理由、ネクストステップという固定されたパターンで情報を構成する。

大規模言語モデルは、簡潔さを求めることで推論の質が上がることが研究で示されている。具体的な指示には、挨拶の禁止や曖昧な表現の回避が含まれる。さらに、技術用語やコードブロック、エラーメッセージなどの重要な情報はそのまま維持されるよう設計されている。

多様なプリセットと拡張機能

  • 強度はLightから、接続詞すら削るUltraまで調整できる。
  • コミットメッセージ作成用の「Caveman Commit」やコードレビュー用の「Caveman Review」が存在する。
  • 既存の自然言語ファイルを原始人化して再利用し、入力トークンを節約する「Compress」機能が提供される。

デフォルト設定のFullモード以外にも、より極端な省略を行うUltraモードや、最もトークン効率が良いとされる漢文を用いた文言モードがある。開発ワークフローの各段階(コミット、レビュー、ドキュメント圧縮)に応じた専用のスキルが用意されており、実務におけるトークン管理を包括的に支援する。

Community Posts

View all posts