chatweb.ai と teai.io を運営しています。今回、サービスの現状と今後の方針について、チーム内で経営会議を行いました。スタートアップの透明性が大事だと思っているので、その中身をほぼそのまま公開します。

数字で見る現状

まず、いまのchatweb.aiの立ち位置を正直に。

指標数値
日次APIリクエスト30,000+
登録ユーザー数210人
月間LLMコスト約$800(≒12万円)
ユーザーあたり月コスト約$3.8
コールドスタート50ms未満
対応チャネル14(Web, LINE, Telegram, Discord等)
搭載ツール35種類

ユーザーあたりの月コストが$3.8。無料プランのユーザーが大半なので、正直に言えば 全員分赤字 です。

衝撃のコスト構造

会議で最も議論が白熱したのがLLMコストでした。

現在、メインで使っているモデルはMiniMax M2.5(OpenRouter経由)。入力$0.50/100万トークン、出力$1.50/100万トークン。フェイルオーバー先にはGPT-4oやClaude Sonnetがいて、そっちに流れるとコストが跳ね上がります。

3万リクエスト/日ということは、月間約90万リクエスト。1リクエストあたり平均$0.0009。薄利どころかマイナスです。

救世主: Nemotron日本語モデル

ここで登場するのがNVIDIAのNemotron Nano 9B v2 Japanese

モデル入力/100万tok出力/100万tok
MiniMax M2.5(現行)$0.50$1.50
GPT-4o(フェイルオーバー先)$2.50$10.00
Claude Sonnet(最終手段)$3.00$15.00
Nemotron Nano 9B JP$0.04$0.16

入力コスト比で現行の1/12.5、出力コストは1/9.4。月間コストの試算は $800 → 約$52。

9Bパラメータと聞くと「品質大丈夫?」と思いますよね。正直、Claude OpusやGPT-4oには及びません。でもchatweb.aiのユーザーの8割は日本語での日常会話。天気を聞いたり、文章を直してもらったり、ちょっとした調べものをしたり。そういう用途なら、日本語に特化した9Bモデルで十分なんです。

高品質が必要なタスクは、ティアシステムで上位モデルに自動ルーティングします。普段使いはNemotron、ここぞという時はClaude Sonnet。この使い分けがコスト最適化のカギです。

アーキテクチャの話: なぜ全部1つのLambdaなのか

chatweb.aiもteai.ioも、裏側は1つのRustバイナリ1つのAWS Lambdaで動いています。

Web UI、REST API、LINE/Telegramのwebhook、OAuth、音声合成 — 全部が1つのcargo buildでデプロイされます。HTMLすらバイナリに埋め込んでいるので、S3もCDNも使っていません。

「マイクロサービスにすべきでは?」とよく聞かれます。答えは「個人開発なので、運用の単純さが最優先」。デプロイが1回で済み、ログが1箇所に集まり、デバッグが1つのバイナリで完結する。この運用コストの低さが、月$52のインフラで3万リクエスト/日を捌ける理由の一つです。

競合との差別化

AIチャットサービスは群雄割拠です。ChatGPT、Claude、Gemini、Perplexity。巨人たちと正面から戦っても勝てません。

chatweb.aiの差別化ポイントは3つ:

  1. マルチモデル自動選択: ユーザーはモデルを意識しない。裏側で最適なモデルが自動選択され、障害時は自動フェイルオーバー
  2. マルチチャネル統合: LINE、Telegram、Web、Discordを横断して同じ会話が続く。日本ではLINE連携が強い
  3. 音声ファースト: Push-to-talkで話しかけて、音声で返答。ブラウザだけで完結するSTT + サーバーサイドTTS

特に日本市場では「LINEで使えるAIアシスタント」というポジションに可能性を感じています。

収益化の課題

現在の料金プラン:

プラン月額クレジット
Free$0100
Starter$925,000
Pro$29300,000

正直に言って、FreeからStarterへの壁が高すぎる。100クレジットは数回の会話で消えますが、$9を払うモチベーションが生まれる前に離脱してしまう。

Nemotron導入でコストが1/15になれば、Freeプランのクレジットを100→500に引き上げられます。「もっと使いたい」と思った時点で課金する、という自然な導線を作れるはずです。

おわりに

210人のユーザーと月$800のLLMコスト。数字だけ見れば厳しい状況です。でも、30,000リクエスト/日を処理できるインフラが$52/月で運用できる目処が立った。Rustで書いたシングルバイナリが50ms未満で起動する。14チャネルに対応し、35のツールが使える。

技術的な土台はできました。あとは、この仕組みをどれだけ多くの人に届けられるか。

個人開発のAIサービスがどこまで行けるのか、引き続きオープンに共有していきます。


chatweb.ai は日本発の音声ファーストAIアシスタントです。chatweb.ai で無料で試せます。 ソースコードは GitHub で公開しています。