AIサブスクリプションの魅力が低下している理由

MMaximilian Schwarzmüller
컴퓨터/소프트웨어창업/스타트업경제 뉴스

Transcript

00:00:00今朝Xでこの投稿を見かけました。Anthropicがどうやら
00:00:09ProプランからCloud Codeプラグインを外し、より高価な
00:00:17サブスクリプションプランでないとCloud Codeを使えなくしたという話です。
00:00:22これに対し、Anthropicはすぐにコメントを出しました。
00:00:27これは新規Prosumer登録者のわずか2%を対象とした小さなテストだと述べています。
00:00:32このようなテストを行うのは少し奇妙ですし、Anthropicは
00:00:40こうしたテストがどのような波紋を呼ぶか、事前に予測できたはずです。
00:00:47企業のイメージやユーザーの反応を考えれば、これは明らかに
00:00:53私たちが最近感じている流れ、つまりサブスクの利用価値が低下し、
00:00:59制限が厳しくなり、モデルの性能も低下しているという
00:01:08ここ数週間の状況に合致するからです。Anthropicは
00:01:14Cloud Code以外でのサブスク利用にも厳しく制限をかけてきました。
00:01:21例えばOpen Cloudでの利用を制限したことなど、全体像がはっきりと見えてきます。
00:01:28そして、その流れを裏付けるように、GitHubが数日前に
00:01:37GitHub Copilot Pro、Pro Plus、Studentプランの新規受付を一時停止し、
00:01:43個人プランの利用制限を強化するというニュースを発表しました。
00:01:49最も重要なのは、ProプランでOpusモデルが利用不可になった点です。
00:01:56当然の流れとも言えますが、何が起きているのかその経済的背景を
00:02:02深く掘り下げて理解する必要があります。今後、私たちにどう影響するのか。
00:02:07無制限の利用や手厚い補助の時代は明らかに終わりを迎えています。
00:02:17これを理解するには、サブスクリプションとトークン利用の
00:02:25経済性を知らなければなりません。Anthropic、
00:02:34OpenAI、GitHubが提供するサブスクリプションモデルは、
00:02:43大多数のユーザーが利用上限まで使い切らないという前提で成り立っています。
00:02:49これはAIに限った話ではありません。例えばNetflixを
00:02:5624時間365日見続けるユーザーは、収益性の高い顧客とは言えませんが、
00:03:02大半の人はそうではありません。それがサブスクの収益モデルです。
00:03:10今や、AIリクエストの真の価格に近いものが見えています。
00:03:19各社のAPI料金ページを見るとそれがわかります。例えば
00:03:26Anthropicの最新モデルClaude Opus 4.7は、入力トークンが
00:03:35100万トークンあたり5ドル、出力トークンが25ドルです。
00:03:42これを他のモデルや、
00:03:47OpenAIのモデルと比較してみましょう。例えばGPT 5.4は
00:03:54入力料金が100万トークンあたり2.5ドルで、Opus 4.7の半分です。
00:04:03出力料金は22.5ドルで、Opusより少し安くなっています。
00:04:11これらのAPI価格は、各社が損益分岐点あるいは
00:04:20わずかな粗利を確保できる水準だと考えていいでしょう。
00:04:29推論コストだけを見れば、API経由での利用で利益が出ているはずです。
00:04:36ここで重要なのは、AIモデルの実行コストが
00:04:43主にトレーニングと推論の2つの要素で決まるということです。
00:04:53この2つの要因がAI企業の収益に直結します。
00:04:59トレーニング費用は一度きりのコストです。
00:05:06モデルの学習は非常に高額ですが、一度完了すれば終わりです。
00:05:12もちろん次々と新しいモデルを学習させるので費用はかさみますが、
00:05:18一度完成したモデル自体には、ファインチューニングなどを除けば
00:05:25継続的なトレーニングコストは発生しません。しかし推論は違います。
00:05:33これはリクエストごとの継続的なコストです。
00:05:41推論とは、送信されたプロンプトに対して具体的な出力を生成するプロセスであり、
00:05:48Cloud CodeやCodex、あるいは
00:05:53ChatGPTなど、あらゆる利用シーンで絶えず発生するものです。
00:05:58ここがAPI料金設定で少なくとも損益分岐を目指したい領域です。
00:06:07リクエストごとに赤字を出すわけにはいきません。市場シェア拡大のため
00:06:13一時的にそうすることはあっても、長期的に見れば
00:06:19事業が立ち行かなくなります。
00:06:25もちろん、トレーニング費用もどこかで回収しなければなりません。
00:06:34推論コストで十分な粗利を稼ぎ出し、
00:06:41人件費やトレーニング費用をカバーする必要があります。これが
00:06:48AIモデル運営の経済学です。前述した通り、
00:06:57API価格は各社が大きく損をしないラインですが、
00:07:02消費者の立場から見れば、Opusを従量課金で
00:07:10Cloud Codeに使い続ければ、サブスクプランよりもはるかに高額になります。
00:07:18例えば200ドルのMaxサブスクリプションなら、
00:07:26数百万トークンもの膨大な利用が可能です。
00:07:34出力トークンの通常価格を見ると、
00:07:39入力トークンを無視したとしても(本来は無視できませんが)、
00:07:44200ドルでは1000万トークン分も利用できません。なぜなら、
00:07:51100万トークンで25ドルかかるため、わずか800万トークン分です。
00:07:56入力トークンを含めればさらに少なくなります。Cloud Codeで
00:08:02長時間セッションを1週間ほど続ければ、トークン消費量は
00:08:08確実にその上限を超えてしまいます。企業がサブスクの利用に
00:08:14制限をかけようとする理由は明らかです。
00:08:19近い将来、間違いなくサブスク料金の値上げがあるでしょう。
00:08:25しかし、企業にとって単純な値上げは簡単ではありません。
00:08:30市場シェアを重視しているからです。各社は積極的に
00:08:37シェアを奪い合っています。コーディングエージェントの標準になれば、
00:08:45多くの企業が将来的に高い料金を払ってくれるようになるからです。
00:08:51早すぎる値上げで顧客を競合に奪われたくはありません。
00:08:57一方で、会社を倒産させるわけにもいきません。
00:09:02例えばOpenAIは最近1220億ドルを調達しましたが、
00:09:09これは次世代AI開発への投資です。
00:09:17この資金での運営期間(ランウェイ)は約18か月でしょう。
00:09:26補助金を出し続けることは不可能です。倒産すれば顧客は競合へ流れるだけですから。
00:09:32そこには難しいトレードオフが存在します。
00:09:39それが現在の各社の経済状況です。ゲーマーの方なら
00:09:44ご存知かもしれませんが、現在AIブームにより
00:09:52深刻な計算資源の不足と高コスト化に直面しています。
00:10:01メモリからデータセンター関連まで、すべてが不足しています。
00:10:08推論には大容量のメモリが必要であり、
00:10:13ローカルで実行しようとすればそれがよく分かります。
00:10:19メモリだけでなく、ネットワーク機器も同様です。トレーニングと
00:10:25推論を単一のチップではなく、巨大なクラスターで行うため、
00:10:31チップ間をつなぐ高速な接続が必要です。
00:10:36巨大GPUのようなシステムを作るためのネットワーク機器は高額です。
00:10:43さらに電力とデータセンターの問題もあります。
00:10:52データセンター建設が進む一方で、電力が足りません。
00:10:58既存の電力網では対応できず、供給能力が全く不足しています。
00:11:05そのため、新しいデータセンターは電力網に頼らない
00:11:12オフグリッド解決策へ移行しています。ガス発電や
00:11:21原子力など、敷地内で直接発電する形です。しかし、これには
00:11:28時間と部品が必要です。発電所を建設できる企業や
00:11:35必要な部品も限られています。そのすべてが、推論や
00:11:42トレーニングに回せる計算資源を制限しています。
00:11:481~2年前までは、計算資源のほとんどをトレーニングに
00:11:54投入するのが当然でした。モデル性能こそがAI競争の肝だったからです。
00:12:00今でもその重要性は変わりませんが、
00:12:07現在では「推論」の重要性がさらに高まっています。
00:12:14推論こそが顧客を獲得し、市場で存在感を示す手段だからです。
00:12:19優れたモデルがあっても、誰も使えなければ市場シェアは取れません。
00:12:25企業は限られた計算資源とデータセンター容量を、
00:12:30トレーニングと推論に奪い合わせなければなりません。
00:12:38特に今年に入ってからのユーザーの利用行動の変化も大きいです。
00:12:45GitHubの記事にある通り、エージェントワークフローが
00:12:51Copilotの計算需要を根本から変えてしまいました。
00:12:57長時間続く複雑な処理が、かつてのプラン構造を大きく上回る資源を消費します。
00:13:04AnthropicやOpenAIでも同じです。ほんの1年前までは、
00:13:10基本的には時々チャットを行うのがメインでした。
00:13:20ユーザーは必要な時に質問し、
00:13:27簡単なやり取りをするだけで、
00:13:33今のエージェント型ワークフローに比べれば消費トークンはわずかでした。
00:13:39しかしコーディング等のエージェントワークフローでは、
00:13:44何百万トークンもの消費があっという間に発生します。
00:13:51かつてのチャット利用とは桁が違います。
00:13:58しかも、最近のモデルは「思考するモデル」なので、
00:14:05プロセスで消費されるトークン量も増えています。
00:14:12最終的な回答に見えなくても、内部で多くのトークンが使われます。
00:14:17結果として、1、2年前とは比較にならないほどトークン消費が激化しました。
00:14:24推論の重要性が高まっているのは、生成されるトークン量が増え、
00:14:29それをさばくための膨大な推論パワーが必要だからです。
00:14:37API経由で利用すると高額になる理由もそこにあります。
00:14:43それ以上にサブスクモデルが危機的な理由もです。
00:14:49かつて設定された料金体系の時より、トークン消費量が激増しているのです。
00:14:56同じ料金で、当時よりはるかに多くの資源を使われているのが現状です。
00:15:03Anthropicは特に厳しい状況かもしれません。
00:15:09API価格を見る限り運用コストが高そうなだけでなく、
00:15:16歴史的にビジネス顧客が多いという背景もあります。
00:15:22安定した収益源にはなりますが、
00:15:29OpenAIが消費者(一般ユーザー)中心だったのとは対照的です。
00:15:38もちろんOpenAIもビジネス向けにシフトしていますが、
00:15:43一般ユーザーを多く抱えていたのがOpenAIの歴史です。
00:15:50Anthropicの痛手は、まさにそれらのビジネス顧客こそが
00:15:55エージェント型ワークフローを激しく回す層である点です。
00:16:00一般ユーザーはそんな使い方はしません。
00:16:06しかし企業は使います。Anthropicにとって、
00:16:11一般ユーザーがまだ多いOpenAI以上にサブスクの維持が難しいはずです。
00:16:18彼らも同様に痛みを感じているはずです。
00:16:24Anthropicのテストのような動きは、私たちに何を意味するのか。
00:16:32将来的にさらなる制限強化は避けられないでしょう。
00:16:38いずれ、サブスクに払う価値を感じなくなる時が来るかもしれません。
00:16:42その時が、実質的な値上げのタイミングになると思います。
00:16:48エージェント型のサブスク料金が、将来的に月額数千ドルになっても
00:16:55決して不思議ではありません。今年ではないにしても。
00:17:03企業がサブスクのコストを
00:17:10人件費と比較し始める時が来るからです。決して良いニュースではありません。
00:17:17予測が外れることを願いますが、そうなる可能性は高いです。
00:17:23人件費と比較すれば、値上げの余地は非常に大きいですから。
00:17:30当然、一般ユーザー向けのサブスクは別物になるでしょう。
00:17:35ライトな利用制限のプランが用意されるはずです。
00:17:41一般のチャットには十分でも、エージェントワークフローには足りないような。
00:17:47市場シェアを考慮していつになるかは分かりませんが、
00:17:52最終的にはそうならざるを得ません。
00:17:58OpenAIもAnthropicも運営資金には限りがあります。
00:18:03事業継続のため、1年以内にそういった動きが出るだろうと私は予想します。

Key Takeaway

エージェント型ワークフローによるトークン消費の激増と推論コストの高さが収益性を圧迫しており、サブスクリプションの無制限利用や低価格維持は限界を迎えている。

Highlights

AnthropicはProプランからCloud Codeプラグインを除外し、高額なプランへ利用を限定するテストを実施した。

GitHubはCopilot ProおよびStudentプランの新規受付を一時停止し、個人プランの利用制限を強化した。

Claude Opus 4.7モデルのAPI料金は、入力トークン100万あたり5ドル、出力トークン100万あたり25ドルに設定されている。

エージェント型ワークフローへの移行により、単純なチャット利用と比較して消費トークン量は桁違いに増加している。

AI企業は限られた計算資源をトレーニングと推論に配分する必要があり、推論コストの上昇がサブスクリプション収益を圧迫している。

今後1年以内に、AIサブスクリプションの利用制限強化や実質的な大幅値上げが行われる可能性が高い。

Timeline

AIサブスクリプションの価値低下と制限強化

  • AnthropicがProプランの一部機能を制限するテストを導入した。
  • GitHubはCopilot Proの新規受付停止と利用制限の強化を決定した。
  • サブスクリプションプランでの上位モデル利用が段階的に制限されている。

Anthropicが一部ユーザーを対象にCloud Codeプラグインのアクセス権を変更するなど、サービスの制限を強めている。同様の動きとしてGitHubもCopilot Proの新規受付を一時停止し、ProプランにおけるOpusモデルの利用を不可とした。これらの事例は、AIサブスクリプションにおける無制限利用の時代が終焉しつつあることを示唆している。

トークン消費と経済的背景

  • AIサブスクリプションは、大多数のユーザーが上限まで使い切らないという前提で運営されている。
  • Claude Opus 4.7の出力トークン単価は100万トークンあたり25ドルであり、API利用は従量課金だと高額になる。
  • 推論コストはリクエストごとに継続的に発生するため、赤字を出さないための損益分岐点の確保が不可欠である。

サブスクリプションモデルは、動画配信サービスと同様に平均的な利用量に基づく収益設計がなされている。しかし、API料金から計算されるAIの推論コストは高く、高頻度で利用するユーザーにとってサブスクリプションは割安な価格設定となっている。企業は市場シェア拡大のために一時的な損失を許容しているが、長期的な事業維持のためには収益の適正化が必要となっている。

計算資源の不足とワークフローの変化

  • データセンター建設や電力供給の限界により、計算資源が深刻な不足状態にある。
  • エージェント型ワークフローの普及が、かつてのチャット利用とは比較にならないトークン消費を引き起こしている。
  • 思考モデル(推論モデル)の普及により、内部で消費されるトークン量も増大している。

AIブームに伴うGPU、メモリ、ネットワーク機器の不足に加え、電力が供給能力を超過しているため、データセンターの運営コストが高騰している。さらに、コーディング等の長時間かつ複雑な処理を行うエージェント型ワークフローや、思考プロセスを伴うモデルの登場により、以前のチャット利用時とは比較にならないほどのトークン消費が発生しており、これがサブスク運営を圧迫している。

将来の予測と市場への影響

  • ビジネス顧客が多くエージェント利用が激しいAnthropicにとって、サブスクリプション維持は特に困難である。
  • 将来的にエージェント型のサブスク料金が人件費と比較される水準まで引き上げられる可能性がある。
  • 1年以内に一般ユーザー向けとエージェント向けでプランが明確に分離されると予想される。

特に企業利用が多いAnthropicでは、エージェントワークフローによる負荷が顕著であり、サブスクリプションの維持が困難になりつつある。今後は市場シェアを考慮しつつも、実質的な値上げや、一般チャット向けとエージェント向けでのプランの分断が避けられない。いずれの企業も資金調達分での運営期間には限界があり、短期間のうちに大きな料金体系の変更が予測される。

Community Posts

View all posts