ChatGPTの登場以降、生成AIは新規事業の切り札として注目を集めてきました。しかし2025年現在、状況は大きく変わりつつあります。高性能な大規模言語モデル(LLM)は急速に低価格化・一般化し、誰でも使える“当たり前のインフラ”になりました。

その結果、「どのAIモデルを使うか」では、もはや競争優位は生まれません。多くの企業がPoC止まりで成果を出せない一方、着実に事業成長へとつなげている企業も存在します。この差はいったいどこから生まれるのでしょうか。

本記事では、新規事業開発に携わる方に向けて、LLMコモディティ化の本質と、その環境下で競争力を再構築する鍵となる「独自データ」の考え方を整理します。国内外の具体事例や市場データ、日本特有の法制度まで踏まえながら、AI時代に“実装まで進める事業”を構想するための視点を提供します。

LLMはなぜコモディティ化したのか:2025年の市場環境

2025年において大規模言語モデルが急速にコモディティ化した背景には、技術進化と市場競争が同時多発的に進んだことがあります。かつてLLMは、一部の巨大テック企業だけが扱える希少な戦略資産でした。しかし現在では、**高性能な知能が誰でも、低コストで利用できる状態**が当たり前になりました。

象徴的なのが、2025年初頭に起きたいわゆるDeepSeekショックです。中国発のDeepSeek-V3は、推論やコーディングなどの主要ベンチマークでGPT-4クラスと同等水準を示しながら、API価格を桁違いに引き下げました。入力100万トークンあたり0.28ドルという価格設定は、知能の限界費用がほぼゼロに近づいたことを市場に強烈に印象付けました。

プロバイダー モデル 入力単価($/100万) 戦略的特徴
DeepSeek V3 0.28 圧倒的コストリーダー
OpenAI GPT-4o 約2.5〜5.0 ブランドと安定性
Google Gemini 2.5 Pro 約1.25〜2.5 ティア制割引

この価格崩壊は単なる値下げ競争ではありません。MoEアーキテクチャの最適化、推論インフラの効率化、プロンプトキャッシングの普及などにより、計算資源あたりの知能生産性が飛躍的に高まりました。結果としてLLMは、高価な専門家ではなく、**電気やクラウドと同じユーティリティ**として扱われ始めています。

加えて、性能面でも差別化が困難になりました。MetaのLlama 3.1やMistral、DeepSeekといったオープンウェイトモデルは、知識蒸留やアーキテクチャ革新により、クローズドモデルとの差を急速に縮めています。スタンフォードやMetaの研究者が指摘するように、ベンチマーク性能はもはや数か月単位で収束し、優位性は持続しません。

投資動向もこの現実を裏付けています。Menlo Venturesの分析によれば、企業のAI支出はモデル学習から推論利用へとシフトし、API消費額は半年で倍増しました。これは、**自社でモデルを作るより、使い倒す方が合理的**だという経済判断が広く共有された結果です。

こうした環境下では、「どのLLMを使っているか」は競争優位になりません。新規事業において重要なのは、モデル選定そのものではなく、いつでも切り替え可能な前提でLLMを扱えることです。LLMがコモディティ化した2025年は、技術選択の巧拙よりも、その後段に何を乗せるかが問われる市場へと完全に移行した年だと言えます。

価格破壊と性能収束が新規事業に与えるインパクト

価格破壊と性能収束が新規事業に与えるインパクト のイメージ

LLM市場における価格破壊と性能収束は、新規事業の成立条件そのものを根底から変えつつあります。かつては高性能なAIを使えること自体が参入障壁でしたが、2025年現在、その前提は完全に崩れています。知能のコストが急激に下がり、誰でも同水準の性能を使える状況が生まれたことで、新規事業における競争軸は別の場所へと移動しました。

象徴的なのが、DeepSeekをはじめとする新興プレイヤーによる価格破壊です。入力100万トークンあたり0.28ドルという水準は、OpenAIやGoogleの従来価格と比べて桁違いに安く、AIを「慎重に使う資源」から「前提として使うインフラ」へと変質させました。Menlo Venturesの分析によれば、企業のAI支出は学習ではなく推論に集中し、実運用フェーズへ一気に移行しています。これは新規事業にとって、PoCでの差別化が極めて難しくなったことを意味します。

観点 価格破壊・性能収束前 2025年以降
AIコスト 高く、利用量が制約 極めて低く、大量利用が前提
モデル差 性能差が明確 実用上ほぼ同等
事業上の差別化 モデル選定が鍵 モデル以外が鍵

さらに重要なのが、オープンウェイトモデルとクローズドモデルの性能収束です。MetaのLlama 3系やDeepSeek-V3は、主要ベンチマークでトップティアのクローズドモデルと遜色ない結果を示しています。AlphaCorp AIなどの比較レポートが示す通り、推論やコーディングといった実務領域では、モデル間の体感差は急速に縮小しています。「最新モデルを使っている」こと自体が価値にならない時代が到来したと言えます。

新規事業においては、AIの性能差ではなく「どこに、どれだけ深く組み込めているか」が競争力を左右します。

この環境下で起きている最大の変化は、参入障壁の低下と同時に、模倣速度の加速です。ある機能をAIで実装しても、数週間から数か月で同等機能が市場に溢れます。結果として、機能単体では価格競争に陥りやすく、付加価値を別のレイヤーで構築できない新規事業は消耗戦に巻き込まれます。Deloitteが指摘するように、AIはもはや競争優位そのものではなく、競争の前提条件になっています。

新規事業開発の現場では、この現実を直視する必要があります。価格破壊と性能収束は、チャンスと脅威の両面を持ちます。初期投資を抑え、スピーディに市場投入できる一方で、AIそのものに頼った価値提案は成立しません。AIを使って何を実現し、どこに継続的な差を生むのかを設計できるかどうかが、この環境下で生き残れる新規事業とそうでない事業を分ける分水嶺になります。

「モデル選定」では勝てない理由とプラットフォームリスク

新規事業で生成AIを活用する際、多くのチームが最初に悩むのが「どのLLMを選ぶべきか」です。しかし2025年時点では、モデル選定そのものでは競争に勝てない構造が明確になっています。背景にあるのは、LLMの急速なコモディティ化と、それに伴うプラットフォームリスクの顕在化です。

まず前提として、主要なLLMの性能差は急速に縮小しています。MetaのLlama 3系やDeepSeek-V3などのオープンウェイトモデルは、推論やコーディング能力においてクローズドモデルと同等水準に達しています。スタンフォード大学やarXiv上の複数の評価研究でも、特定モデルが持つ優位性は数か月単位で失われることが示されています。

観点 短期的影響 中長期的影響
モデル性能差 一時的なUX向上 後発モデルにより急速に解消
API価格 コスト優位の獲得 価格戦争で差別化不能
ベンダー依存 開発スピード向上 戦略的自由度の低下

この環境下で問題となるのがプラットフォームリスクです。特定ベンダーのAPIに深く依存した事業は、価格改定、仕様変更、利用規約やデータポリシーの変更といった外部要因に業績を左右されます。実際、OpenAIやGoogleは過去にAPI価格や提供条件を複数回変更しており、プロダクト設計の見直しを迫られた企業も少なくありません。

デロイトやMenlo Venturesの分析によれば、API利用が本格運用フェーズに入った企業ほど、こうした外生リスクがP/Lに与える影響は大きくなります。とくに新規事業では、技術選択の誤りがそのまま撤退リスクに直結するため、モデル一点張りの戦略は危険です。

さらに見落とされがちなのが、モデル進化による価値の逆転です。今日の「最高性能モデル」を前提に作ったUXや業務フローが、半年後には安価な別モデルで代替可能になるケースが頻発しています。このとき、価値の源泉がモデルにある事業ほど、模倣されやすく価格競争に巻き込まれます。

IBMの生成AI戦略担当者が指摘するように、「顧客はどのモデルを使っているかではなく、どんな文脈で自分の課題を理解してくれるか」にしか関心を持ちません。モデル選定に過度な意思決定コストをかけること自体が、戦略的なミスになりつつあります。

だからこそ2025年の新規事業では、単一モデルへの最適化ではなく、モデルを入れ替え可能な前提で設計することが重要です。モデルは消耗品、プラットフォームは外部環境と捉え、その変動を吸収できる構造を持たない限り、モデル選定で勝ち続けることはできません。

競争優位の源泉としての「独自データ」とは何か

競争優位の源泉としての「独自データ」とは何か のイメージ

LLMが急速にコモディティ化した現在、競争優位の源泉はアルゴリズムやモデル選定ではなく、**そのAIに何を学習・参照させるか**に移っています。その中核に位置づけられるのが「独自データ」です。独自データとは、インターネット上に広く公開されていない、特定の企業や組織だけが継続的に取得・蓄積できる情報資産を指します。

IBMが生成AI戦略に関する考察の中で述べているように、すべてのAIベンダーは公開情報を持っていますが、**自社の業務プロセスや顧客接点から生まれるデータは、その企業だけのもの**です。この非対称性こそが、LLM時代の競争の堀になります。同じGPTクラスのモデルを使っていても、入力される文脈が異なれば、アウトプットの価値は決定的に変わります。

重要なのは、独自データが単なる量の多さではなく、**事業活動と不可分に結びついた一次情報である点**です。顧客とのやり取り、現場の判断履歴、意思決定の背景といった情報は、第三者が後追いで取得することが極めて困難です。これらは時間と運用の積み重ねによってのみ形成され、模倣耐性が非常に高い資産になります。

観点 公開・汎用データ 独自データ
入手可能性 誰でもアクセス可能 特定企業のみが保有
AI出力の差別化 限定的 高い
模倣難易度 低い 極めて高い

Sansanの名刺データや、メルカリの出品・取引データが象徴的ですが、これらは「AIのために集めたデータ」ではありません。**本業を回し続けた結果として自然に蓄積されたデータ**であり、だからこそ業務理解や顧客理解と深く結びついています。生成AIは、その価値を増幅させる触媒として機能しているにすぎません。

また、近年の研究では、RAGやファインチューニングに用いるデータの品質が、ハルシネーションの発生率や業務精度に直結することが示されています。誤りを含むデータが2割程度混入しただけで、ドメイン特化タスクの性能が著しく低下するという報告もあり、**独自データは「持っていること」以上に「正確であること」**が問われます。

独自データとは、AI時代における一過性の武器ではなく、事業活動そのものが生み出す複利的な競争資産です。

新規事業開発の文脈で重要なのは、すでに社内に存在するデータを洗い出し、それがどの意思決定や顧客価値に結びついているのかを再定義することです。**モデル選定の議論より先に、自社にしか語れないデータは何かを言語化できるかどうか**が、LLMコモディティ化時代の成否を分けます。

データの種類別に見るAI活用価値の違い

AI活用の成否を分ける要因はモデル選定ではなく、どの種類のデータを、どの文脈で使うかにあります。特にLLMがコモディティ化した現在、データの種類ごとにAIが生み出す価値の質が大きく異なる点を理解しておくことは、新規事業の設計に直結します。

まず押さえるべきは、構造化データと非構造化データの違いです。POSや決済履歴などのトランザクションデータは、事実が明確で量も多く、需要予測や異常検知に向いています。一方で、LLMの強みである言語理解や生成能力を最大化できるわけではありません。

対照的に、メール、商談メモ、チャットログ、議事録といったインタラクションデータは、AI活用価値が極めて高い領域です。ここには顧客の感情や意思決定の背景、トップパフォーマーの暗黙知が含まれています。Sansanやリクルートが成果を出しているのは、この非構造化データをAIで再解釈し、事業価値に転換しているためです。

データの種類 主な特徴 AI活用価値の方向性
トランザクションデータ 高精度・構造化・量が多い 予測・最適化・異常検知
インタラクションデータ 非構造化・文脈依存 洞察抽出・自動要約・提案生成
専門ナレッジ 社内限定・更新が必要 RAGによる業務支援・判断補助
画像・動画・センサー マルチモーダル 状態認識・自動レポーティング

IBMの生成AI戦略に関する分析によれば、競争優位を生むのは「他社も持つ公開データ」ではなく、「自社だけが蓄積してきた文脈付きデータ」です。特にインタラクションデータは、量だけでなく時間軸を含む点が重要で、顧客や現場の変化をAIに学習させることで、単なる効率化を超えた価値創出が可能になります。

また、専門知識や社内ナレッジはRAGの中核となるデータですが、注意点もあります。研究や業務マニュアルは陳腐化しやすく、更新されないままAIに参照させると誤った判断を助長します。近年の研究では、不正確なデータが2割程度混入するだけで、LLMのドメイン性能が大きく劣化することが示されています。

画像や動画、IoTセンサーなどのセンシングデータは、マルチモーダルAIの進化によって価値が急上昇しています。製造現場の異常検知や、物流状況を自然言語で説明する用途では、従来の分析手法よりも意思決定スピードを大きく高めます。NVIDIAや主要クラウドベンダーの技術動向からも、この領域への投資が加速していることが読み取れます。

重要なのは、データの量ではなく「そのデータでしか得られない問いと答えがあるか」という視点です。

新規事業開発においては、自社が保有するデータを種類別に棚卸しし、どのデータがLLMの強みと結びつくかを見極めることが不可欠です。AIは万能ではありませんが、適切なデータと組み合わさった瞬間に、事業の再定義を可能にするレバレッジとなります。

データ品質が成果を左右する理由:ハルシネーションとの関係

生成AIを新規事業に組み込む際、成果を左右する最大の要因の一つがデータ品質です。特にハルシネーションとの関係は見過ごされがちですが、**どれだけ高性能なLLMを使っても、入力データの質が低ければ「もっともらしい嘘」を量産するリスクが高まります**。

近年の研究では、学習や検索対象データに誤りやノイズが含まれる割合が一定の閾値を超えると、モデル性能が非線形に劣化することが示されています。arXivに掲載された2025年の研究によれば、**不正確なデータが10〜25%混入するだけで、ドメイン特化タスクの精度が著しく低下**し、回復には大規模な再学習が必要になるケースも確認されています。

これはRAGのような仕組みでも同様です。検索で引き当てた社内文書やナレッジが古い、矛盾している、あるいは非公式なメモである場合、LLMはそれらを前提に自然な文章を生成します。その結果、利用者は誤りに気づきにくく、意思決定にまで影響が及びます。**ハルシネーションはモデルの問題ではなく、データ供給プロセスの問題として発生する**のです。

データの状態 LLMの挙動 事業への影響
正確・最新・検証済み 一貫性のある回答を生成 意思決定の高速化と信頼性向上
古い・表記ゆれあり 文脈依存で回答が揺れる 現場での混乱、手戻り増加
誤情報・非公式資料 高確率でハルシネーション 誤判断による損失リスク

国際的な学術誌に掲載された別の研究でも、**査読済み論文や公式記録など信頼度の高いデータソースのみを用いることで、ハルシネーション発生率を有意に低減できる**ことが報告されています。ここから分かるのは、モデル選定以上に「どのデータを、どの状態で食べさせるか」が重要だという点です。

新規事業の現場では、スピードを優先して既存資料をそのままAIに接続してしまいがちです。しかし、表記ゆれの統一、重複削除、更新日の明示といった地道なクレンジング作業こそが、最終的なアウトプット品質を決定づけます。**ハルシネーション対策は追加機能ではなく、データ品質管理そのものが本質的な解決策**だと捉える視点が、AI活用を成果につなげる分水嶺になります。

RAGとファインチューニングに見る実践的アーキテクチャ

RAGとファインチューニングは、しばしば二者択一のように語られますが、実務では役割の異なる部品として組み合わせることが現実解になります。**LLMがコモディティ化した2025年において重要なのは、どのモデルを使うかではなく、どの層で差別化するか**です。その判断軸を誤ると、コストだけが増え、価値が積み上がらないアーキテクチャに陥ります。

まずRAGは「事実性」と「更新頻度」が問われる領域に最適です。IBMが指摘するように、企業競争力の源泉は公開知識ではなく、社内に眠る独自データにあります。RAGはその独自データを検索レイヤーとして外付けし、LLMに一時的な文脈として渡す仕組みです。これにより、社内規程、製品仕様、契約条件のように変更が頻繁で誤りが許されない情報を、モデルを書き換えずに扱えます。

一方でファインチューニングは、「振る舞い」や「型」を身体化させる技術です。メルカリのエンジニアリングブログでも示されている通り、GPT-4クラスの出力を教師データとして軽量モデルを調整することで、特定属性の抽出や定型判断において、高精度かつ低コストな推論が可能になります。**毎回同じ形式で出力させたい、専門用語を誤解なく使わせたい、といった要求はRAGではなくファインチューニングの守備範囲**です。

観点 RAG ファインチューニング
主な役割 最新かつ正確な知識の注入 出力の癖・判断基準の固定化
変更耐性 データ更新のみで即時反映 再学習が必要
コスト構造 検索基盤の運用コストが中心 学習コストは高いが推論は軽量

実践的なアーキテクチャでは、この二つを直列に配置します。具体的には、RAGで事実データを取得した上で、その情報を前提条件としてファインチューニング済みモデルに解釈・生成させます。NVIDIAの技術ブログでも示されているように、この構成はハルシネーション抑制と応答品質の両立に有効です。検索で事実を縛り、学習で振る舞いを縛る、という役割分担が明確になります。

新規事業で見落とされがちなのは、初期段階からファインチューニングに手を出してしまうことです。前提となるデータが未整理な状態でモデルを調整すると、arXivの研究が示す通り、わずかな誤情報混入でも性能が大きく劣化します。**まずRAGで価値仮説を検証し、勝ち筋が見えた業務だけをファインチューニングで固定化する**。この順序こそが、コストと学習リスクを最小化します。

RAGとファインチューニングは技術選定の話ではなく、事業設計の話です。どの業務を柔軟に保ち、どの業務を型化するのか。その切り分けを明確にできた企業だけが、LLM時代に再現性ある競争優位を築けます。

日本市場の強み:著作権法とAI法がもたらす戦略的優位

日本市場がAI時代において特異な競争優位を持つ理由は、技術力ではなく法制度にあります。とりわけ著作権法と2025年施行のAI法は、新規事業開発におけるデータ活用の自由度を飛躍的に高めています。**LLMがコモディティ化した今、この法的非対称性そのものが戦略資産**になっています。

まず、日本の著作権法第30条の4は、世界的に見ても極めて踏み込んだ規定です。文化庁の整理によれば、思想又は感情の享受を目的としない情報解析であれば、営利目的であっても著作物を許諾なく利用できます。これはAIの学習や分析を明確に想定した条文であり、学術論文や出版物、放送データなどを横断的に解析することが、原則として合法とされています。

欧米では、米国の報道機関や作家団体が生成AI企業を相手取った訴訟を相次いで提起しており、法的解釈の不確実性が事業リスクそのものになっています。これに対し日本では、適法に入手したデータを解析する限り、学習段階での差止リスクは極めて低いとされています。**この安心感は、PoCを越えて本番実装に踏み切る際の意思決定スピードに直結**します。

観点 日本 欧米主要国
AI学習と著作権 情報解析目的なら原則適法 訴訟・係争リスクが高い
法解釈の明確性 文化庁が継続的に見解提示 判例待ちで不透明
事業スピードへの影響 迅速な実装が可能 リーガルチェックがボトルネック

さらに2025年に施行されたAI関連技術開発・活用推進法は、日本の立ち位置を決定づけました。EUのAI Actが罰則を伴うハードローであるのに対し、日本はガイドライン中心のソフトローを採用しています。政府自身が「世界で最もAIに親和的な国」を掲げ、企業との対話を前提とした設計になっています。

この結果、新規事業においては「まずやってみる」ことが制度的に許容されます。リスク評価や透明性確保は求められるものの、事前に過剰な規制対応を求められないため、独自データを用いた業務特化型AIやバーティカルAIを素早く市場投入できます。**法令順守とイノベーションがトレードオフにならない点**は、他国にはない強みです。

もちろん万能ではありません。個人情報保護については、個人情報保護委員会が厳格な注意喚起を行っており、入力データの管理や学習利用の可否確認は必須です。しかしこれは制約というより、信頼性を担保するための前提条件です。著作権とAI法が攻めの武器だとすれば、個人情報保護は守りの基盤になります。

新規事業開発の視点では、**日本の法制度は「独自データを大胆に使い、早く学習し、早く改善する」ための滑走路**を提供しています。LLMそのものでは差がつかない時代において、この滑走路をどう使い切るかが、日本発AIビジネスの成否を分けます。

成功企業に学ぶ独自データ活用のパターン

成功企業の事例を詳細に見ると、独自データ活用にはいくつかの明確なパターンが存在します。共通しているのは、AIを主役に据えるのではなく、自社が長年の事業活動の中で蓄積してきたデータを、どのように再解釈し、価値に変換するかに焦点を当てている点です。

例えばメルカリでは、30億点を超える出品データという圧倒的な独自資産を保有しています。同社は、LLM単体にすべてを任せるのではなく、LLMで高精度に分類した一部データを教師として、既存の機械学習モデルに展開するハイブリッド手法を採用しました。Mercari Engineering Blogによれば、この構成により精度とコストの両立が可能になり、カテゴリ再編という事業インパクトの大きい施策を現実的なものにしています。

Sansanの事例は、アナログ起点のデータを競争優位に変えた典型例です。名刺という一見すると汎用的な情報も、「誰が、いつ、どの役職で、どの企業に所属していたか」という正確な履歴データとして構造化されることで、他社には再現困難なデータ資産になります。Eightでは、LLMを用いて職歴やスキルを自動要約する機能を提供し、ユーザーの入力負荷を減らしながらマッチング精度を高めています。これはAIが価値を生んだのではなく、独自データの価値をAIが顕在化させた事例です。

企業 独自データの源泉 価値創出のポイント
メルカリ 出品・取引データ LLMと既存MLの組み合わせによる高精度・低コスト運用
Sansan 名刺画像・人脈データ アナログ情報の構造化とUX改善への直結

これらの企業に共通するもう一つの特徴は、データ活用の目的が極めて具体的である点です。IBMが指摘するように、競争優位の源泉は「他社が持っていないデータ」にありますが、それだけでは不十分です。そのデータが、業務効率化、UX向上、意思決定の高速化といった明確なKPIに結びついて初めて、事業成果に転換されます。

成功企業に学ぶべき本質は、最新モデルの採用スピードではありません。自社の事業プロセスに深く根ざしたデータを見極め、磨き上げ、AIが最も力を発揮する形で接続する設計力こそが、LLMコモディティ化時代における独自データ活用の勝ち筋だと言えます。

新規事業リーダーが描くべきAI×データ戦略ロードマップ

新規事業リーダーが描くべきAI×データ戦略ロードマップの本質は、技術導入の順番ではなく、競争優位がどこで生まれ、どこで失われるかを時間軸で設計することにあります。2025年時点では、LLMそのものは電力やクラウドと同様のインフラになりつつあり、モデル選定は戦略ではなく調達の問題に近づいています。したがってロードマップの起点は、AIではなく自社データの現在地から始める必要があります。

まず初期フェーズで問われるのは、「どのデータが事業価値に直結するか」を見極める判断力です。IBMが指摘するように、すべての企業が同じ公開知識を使える環境では、未公開の業務データや顧客接点データこそが差別化の源泉になります。特にメール、商談記録、問い合わせ履歴といったインタラクションデータは、感情や文脈を含むため、生成AIとの相性が極めて高いとされています。

次に重要なのが中期フェーズにおけるデータ整備の優先順位付けです。多くの企業がAI導入で失敗する原因は、モデル精度ではなくデータ品質にあります。arXivで公開された研究によれば、学習や検索に用いるデータに10〜25%の誤りが含まれるだけで、ドメイン特化タスクの性能が大きく劣化することが示されています。ロードマップ上では、派手なユースケースよりもクレンジングと構造化への投資を先行させる設計が不可欠です。

フェーズ 主な焦点 リーダーの意思決定
短期 価値ある独自データの特定 AI活用対象を限定し、PoCを乱発しない
中期 データ品質と接続性の向上 データ基盤を恒久資産として内製化
長期 AIを前提とした事業設計 人とAIの役割分担を再定義

後半フェーズでは、AIが業務を支援する存在から、事業そのものに組み込まれた存在へと進化します。メルカリが実践しているように、RAGや軽量ファインチューニングを組み合わせることで、汎用LLMを自社業務に最適化しつつ、コストと柔軟性を両立させることが可能になります。ここで重要なのは、特定モデルへの依存を避けたモデルアグノスティックな設計です。

さらに長期視点では、ロードマップは技術計画から組織計画へと拡張されます。Menlo Venturesの分析が示す通り、AI投資はすでに実運用段階に入り、推論コストへの支出が急増しています。この環境下では、SQLやコードを書ける人材よりも、データの意味と意思決定をつなげられるリーダーシップが成果を左右します。

AI×データ戦略ロードマップとは、未来の技術を予測する地図ではありません。自社が保有するデータと、日本市場特有の法的・運用環境を踏まえ、どのタイミングで何に賭けるかを明確にする意思決定のフレームです。この設計が描けているかどうかが、新規事業がPoCで終わるか、持続的な成長曲線を描けるかの分水嶺になります。

参考文献