LLM(大規模言語モデル)を活用したセマンティックな商品推薦の仕組み

「赤い服」は探せても「春っぽい服」が見つからないECの限界。LLM検索導入でCVR1.2倍を実現した現場の全記録

約14分で読めます
文字サイズ:
「赤い服」は探せても「春っぽい服」が見つからないECの限界。LLM検索導入でCVR1.2倍を実現した現場の全記録
目次

記事本文

イントロダクション:なぜ今、EC検索に「意味理解」が必要なのか

「お客様は、欲しい商品の名前を知っているとは限らない。」

これが、実務の現場でEC事業者向けのAI導入を支援する中で見えてきた明確な課題です。AIソリューションアーキテクトの視点から見ると、生成AIモデルの開発やシステム最適化において、この課題の解決は非常に重要です。

皆さんの運営するECサイトで、「赤い ワンピース」と検索すれば、当然赤いワンピースが表示されるでしょう。しかし、「春っぽい デート服」や「キャンプで寒くない服」と検索されたとき、適切な商品を提案できているでしょうか。

従来のキーワードマッチング型の検索エンジンでは、商品データに「春っぽい」や「寒くない」というテキストが含まれていなければ、検索結果は「0件」か、全く見当違いの商品が並ぶことになります。これは、実店舗で店員に相談すれば即座に解決するようなニーズに対し、ECサイトが「耳を塞いでいる」のと同じ状態です。

今、この構造的な限界を突破する技術として、LLM(大規模言語モデル)を活用した「セマンティック検索(意味検索)」が注目されています。

今回は、月商数億円規模のアパレルECプラットフォームでAI検索の導入を指揮された、AI推進室長の高橋氏をゲストにお迎えしました。

「技術的に可能なこと」と「ビジネスとして成立すること」の間には、常に深い溝があります。特にLLMのような最新技術では、コストやレスポンス速度(レイテンシー)が大きな壁となります。高橋氏がその壁をどう乗り越え、「CVR(コンバージョン率)1.2倍」「検索ヒットなし率 40%削減」という成果を叩き出したのか。その裏側にある、泥臭い試行錯誤とエンジニアリングの工夫を論理的かつ明快に紐解いていきます。

キーワード検索の限界を感じている事業責任者の方にとって、これは単なる技術トレンドの話ではなく、明日の売上を作るための実践的で実証に基づいたガイドとなるはずです。


ゲスト紹介

高橋 氏
大手アパレルECプラットフォーム AI推進室長。
データサイエンス部門の立ち上げから参画し、レコメンドエンジンの内製化を主導。2023年よりLLMを活用した検索・接客システムの開発プロジェクトを統括している。


Q1:従来のレコメンドエンジンとLLMは何が決定的に違うのか?

佐藤:本日はよろしくお願いします。まず単刀直入に伺いたいのですが、高橋氏のプラットフォームでは以前から協調フィルタリングなどのレコメンドエンジンを使っていましたよね。なぜ、わざわざ計算コストのかかるLLMやベクトル検索の導入に踏み切ったのでしょうか。

高橋氏:よろしくお願いします。最大の理由は、「一見さん(新規顧客)」への対応力です。従来の協調フィルタリングは「この商品を買った人は、あわせてこれも買っています」というロジックですよね。これは強力なんですが、「過去の行動履歴」がないと機能しないという致命的な弱点があります。

佐藤:いわゆる「コールドスタート問題」ですね。

高橋氏:そうです。新規のお客様や、普段とは違うジャンルの商品を探している既存のお客様に対して、我々は無力でした。一方で、LLMを使った検索は「言葉の意味」を理解します。お客様が入力した検索クエリそのものから意図を汲み取れるので、履歴がなくてもその場で最適な提案ができるんです。

「単語の一致」から「意図の合致」へのパラダイムシフト

佐藤:ここで、技術的な背景を少し補足します。
従来の検索は、データベースの中にある文字と、検索窓に入力された文字が「一致するかどうか」を見ていました。これを字面(じづら)のマッチングと呼びます。

一方、LLMを活用した検索(ベクトル検索)では、言葉を数値の列(ベクトル)に変換します。これをエンベディング(埋め込み)と言います。

例えば、「春」という言葉と「桜」という言葉は、文字は全く違いますが、意味的には近いです。AIはこれを「数値的に近い場所にある」と認識します。同様に、「キャンプで使える」と「保温性が高い・耐久性がある」も、意味空間上では近くに配置されます。

高橋氏:まさにその通りです。導入現場において、特に効果的だったのが「ふんわりした検索」への対応でした。

例えば、「週末の京都旅行に着ていく服」という検索があったとします。従来の検索エンジンでは「京都」「旅行」というキーワードが入った商品を探してしまい、結果として「京都ガイドブック」や「旅行用ポーチ」が出てきてしまう(笑)。服を探しているのに、です。

佐藤:よくある課題ですね。

高橋氏:でもLLMなら、「京都の気候」「旅行に適した動きやすさ」「写真映えするデザイン」といった文脈を補完して解釈してくれます。その結果、歩きやすいスニーカーや、シワになりにくいワンピースを提案できる。これが「意図の合致」です。

行動履歴データがない「一見さん」への対応力

佐藤:ECにおいて、新規ユーザーの離脱を防ぐことは至上命題ですね。検索結果が的外れだと、ユーザーは「このサイトには欲しいものがない」と判断して、二度と戻ってきません。

高橋氏:おっしゃる通りです。実際、ログを分析すると、具体的な商品名(例:「ナイキ エアフォース1」)で検索する人は、全体の3割程度しかいませんでした。残りの7割は、「白いスニーカー」や「疲れない靴」といった、より抽象的なニーズを持っています。

この7割の層に対して、これまでは「キーワードが含まれていない」という理由だけで商品を提示できていませんでした。LLM導入によって、この埋もれていた7割のニーズを拾えるようになったのが、ビジネスとしての最大のインパクトです。

佐藤:なるほど。技術的に言えば、「クエリ(検索語句)とアイテム(商品情報)のセマンティックギャップ(意味の断絶)」をLLMが埋めてくれたわけですね。ユーザーが使う「日常語」と、データベース上の「スペック用語」の翻訳機として機能しているとも言えます。


Q2:導入の壁「コスト」と「レイテンシー」をどう乗り越えたか

Q1:従来のレコメンドエンジンとLLMは何が決定的に違うのか? - Section Image

佐藤:ここからは少しシビアな話をさせてください。LLM、特にAPI経由で高性能なモデルを利用する場合、「コスト(従量課金)」と「レイテンシー(応答速度)」が大きな課題になります。検索ボタンを押してから結果が出るまでに数秒もかかっていたら、ECとしては致命的です。このあたり、どう対策されたのでしょうか。

高橋氏:そこは本当に苦労しました(笑)。最初のPoC(概念実証)では、すべての検索クエリを当時のハイエンドモデルに投げて解釈させようとしたんですが、レスポンスに時間がかかりすぎてしまい、コスト試算もとんでもない額になりました。

佐藤:全クエリを重量級のモデルに通すのは、計算資源の観点から非効率ですね。現在はより高速で高機能なモデルも登場していますが、それでもすべてのトラフィックをLLMのAPIで直接処理するのは現実的ではありません。

高橋氏:はい。そこで、「ハイブリッド検索」という現実解に辿り着きました。

ハイブリッド検索という現実解

佐藤:キーワード検索とベクトル検索を組み合わせる手法ですね。

高橋氏:そうです。具体的には、以下のようなフローを組みました。

  1. キャッシュ確認: 過去に同じ検索クエリがあれば、キャッシュを返す(0.01秒)。
  2. キーワード検索: まずは従来の高速な検索エンジン(Elasticsearchなど)で候補を絞る。
  3. ベクトル検索: キーワード検索でヒット数が少なかった場合、または抽象的なクエリの場合のみ、ベクトル検索を実行する。
  4. リランキング: 最終的な並び順の調整にのみ、軽量なAIモデルを使用する。

つまり、「AIを使うべきクエリ」と「使わなくていいクエリ」を振り分けたんです。「型番」のような明確なキーワードなら、従来検索の方が速くて正確ですから。

佐藤:非常に合理的です。技術的視点で補足すると、LLMの役割を「検索そのもの」ではなく、「クエリの拡張」や「結果の並び替え」に限定することで、計算コストを抑えているわけですね。

API課金とレスポンス速度のトレードオフ

高橋氏:また、使用するモデルも適材適所で使い分けました。ユーザーの意図解釈のような複雑なタスクには推論能力の高い最新モデルを使いますが、商品のベクトル化(数値化)には、より軽量で高速なモデルを採用しています。

佐藤:OpenAIのAPIを利用する場合、モデルの選定だけでなく、移行のライフサイクル管理も重要ですね。たとえば2026年2月には、GPT-4oやGPT-4.1といったレガシーモデルが廃止され、長い文脈理解や高度な推論に優れたo1モデルが新たな標準モデルとして統合される予定です。こうしたアップデートに合わせて、用途ごとに軽量なモデルや自社ホスティングのモデルを適切に組み合わせるアーキテクチャが求められます。

高橋氏:はい。特に商品データのベクトル化は、商品登録時に一度行えば済むので、バッチ処理で夜間に回しています。リアルタイムで処理が必要なのは「ユーザーが入力したクエリのベクトル化」だけです。これなら、APIコストも許容範囲内に収まりますし、モデル移行時の影響も最小限に抑えられます。

佐藤:ここは導入を検討している企業の皆さんにとって重要なポイントですね。

  • 静的データ(商品情報): 事前にベクトル化しておく(コスト安)。
  • 動的データ(検索クエリ): リアルタイムでベクトル化する(要高速化)。

この分離設計ができていないと、運用フェーズで破綻します。また、レガシーモデルに依存しているシステムがある場合は、早急にo1モデル環境でプロンプトを再テストし、移行ステップを踏む必要があります。

高橋氏:実際、初期の設計では商品情報が変わるたびに再計算する仕組みにしていて、クラウド破産しかけました(笑)。今は更新差分のみを処理するパイプラインを構築しています。


Q3:【実績公開】導入3ヶ月で見えた数字と定性的な変化

Q2:導入の壁「コスト」と「レイテンシー」をどう乗り越えたか - Section Image

佐藤:さて、実証データとして重要な「成果」についてお聞かせください。苦労してハイブリッド検索を導入した結果、ビジネス指標はどう変化しましたか。

高橋氏:導入から3ヶ月時点での主な成果は以下の通りです。

  • 検索経由のCVR(コンバージョン率): 1.2倍に向上。
  • 「検索結果0件」の発生率: 40%削減。
  • ロングテール商品の閲覧数: 約3倍に増加。

佐藤:これは非常に興味深いデータです。特に「検索結果0件」が4割も減ったというのは、顧客体験の観点から見ても劇的な改善と言えます。

「検索結果0件」ページへの到達率が40%減少

高橋氏:はい。「0件ヒット」は、お客様に「お帰りください」と言っているようなものですから。ここが減ったことが、直接的にCVR向上に寄与しています。

面白かったのは、「表記揺れ」や「誤字」への対応力です。これまでは辞書登録で地道に対応していましたが、LLMは文脈から推測して補正してくれます。例えば「アディダス」を「アデダス」と打っても、当たり前のようにアディダスの商品が出てくる。

佐藤:人間が文脈から推測するプロセスを、AIが自然言語処理によって再現しているわけですね。

ロングテール商品の閲覧数が急増した理由

高橋氏:もう一つの大きな変化は、これまで埋もれていたニッチな商品が売れ始めたことです。

例えば、ある特定の機能素材を使ったスポーツウェアがありました。商品名にはその素材名は入っているのですが、一般的な名称ではないため、誰も検索していませんでした。しかし、商品説明文に「汗をかいてもすぐに乾く」「肌触りがサラサラ」といった記述があったため、LLM導入後は「夏 涼しい Tシャツ」といった自然言語検索でヒットするようになったんです。

佐藤商品説明文(テキスト)の意味が検索対象になったことで、商品名を知らなくても商品に辿り着けるようになったわけですね。

高橋氏:そうです。マーチャンダイザー(MD)からも、「なぜ急にこの古い品番の商品が動き出したんだ?」と驚きの声が上がりました。AIが商品の新しい価値(切り口)を発見し、お客様とマッチングさせたと言えます。

佐藤:これこそが、セマンティック検索の真骨頂ですね。
キーワード検索は「指名買い」には強いですが、「ウィンドウショッピング」のような探索的な購買行動には弱かった。LLMは、ECサイト上で「接客を受けながら商品を探す体験」を擬似的に再現しているとも言えます。


Q4:これから導入する企業への「失敗しないためのアドバイス」

Q3:【実績公開】導入3ヶ月で見えた数字と定性的な変化 - Section Image 3

佐藤:最後に、これからLLM検索や推薦システムの導入を検討している担当者に向けて、実践的なアドバイスをお願いします。特に留意すべきポイントはありますか。

高橋氏:一番伝えたいのは、「AIモデルを選ぶ前に、データを磨け」ということです。

データクレンジングがAIの賢さを決める

高橋氏:どんなに高性能なLLMを持ってきても、読み込ませる商品データがスカスカだったり、誤った情報が入っていたりすれば、まともな検索結果は出ません。

導入初期の現場では、商品説明文が「SALE!」としか書かれていない商品が大量にあって、AIが何も理解できないという事態に直面しました。まずは、商品データ(タイトル、説明文、スペック、カテゴリ)をリッチにすること。実はここが一番泥臭くて大変ですが、一番重要です。

佐藤:Garbage In, Garbage Out(ゴミを入れたらゴミが出る)の原則ですね。AIエンジニアの視点からも、この点は非常に重要だと考えます。
ベクトル検索を行う際、AIはテキスト情報を元にベクトルを作ります。そのテキスト情報が貧弱だと、ベクトルの精度も低くなり、類似性判定がうまくいきません。

高橋氏:もし商品データが不足しているなら、それこそ生成AIを使って商品説明文を自動生成・拡充するところから始めるのも一つの手です。画像認識AIを活用して、商品画像から色や形の特徴をテキスト化し、それを検索用のメタデータに追加する取り組みも行いました。

小さく始めて大きく育てるステップ論

佐藤:導入の進め方についてはどうでしょうか。

高橋氏:いきなり全商品を対象にしたメインの検索エンジンを置き換えるのはリスクが高すぎます。おすすめは、「特集ページ」や「FAQボット」、「特定のカテゴリ」など、限定的な範囲からスモールスタートすることです。

初期段階では、「ギフト検索」という特設ページだけでLLM検索を導入しました。「30代男性へのプレゼント」といったクエリはLLMの得意分野ですから、そこで成功体験を作り、社内の信頼を得てから全社展開しました。

佐藤:仮説検証を繰り返し、小さな成功事例(Quick Win)を積み重ねることは、プロジェクト推進において不可欠ですね。

高橋氏:はい。「AIを入れたら魔法のように売上が上がる」という過度な期待を持たせず、「まずはここを改善します」とスコープを絞る。そして数字で証明する。これがAIプロジェクトを成功させる鉄則だと思います。


まとめ:検索窓は「問い合わせフォーム」ではない

高橋氏との対談を通じて、LLM活用による商品推薦の本質が見えてきました。

これまでの検索窓は、データベースへの「問い合わせフォーム」でした。正確なキーワードを入力しなければ、システムは答えてくれませんでした。
しかし、LLMとベクトル検索によって、検索窓は「コンシェルジュへの相談窓口」へと進化しました。「春っぽい服」という曖昧な言葉を投げかけても、意図を理解し、提案してくれる。

技術的なポイントを振り返ります。

  1. ハイブリッド構成: キーワード検索の「速さ・正確さ」と、ベクトル検索の「意味理解」を組み合わせるのが現実解。
  2. データの質: AIの精度は、学習・参照させる商品データの質(メタデータの豊かさ)に依存する。
  3. 段階的導入: 特集ページなど、LLMの強みが活きやすい領域から小さく始める。

もし、あなたのECサイトで「検索結果0件」のログが積み上がっているなら、そこには巨大な機会損失と、同時に大きな伸び代が眠っています。

まずは自社の商品データを見直し、メタデータが十分に整備されているか確認することから始めてみてはいかがでしょうか。それが、次世代のEC体験を作る第一歩になるはずです。

「赤い服」は探せても「春っぽい服」が見つからないECの限界。LLM検索導入でCVR1.2倍を実現した現場の全記録 - Conclusion Image

コメント

コメントは1週間で消えます
コメントを読み込み中...