「小さな規模のサイトにレコメンドは適さない」といわれることがあります。
なぜかというと、レコメンド・エンジンがきちっとしたおすすめを出すには、それなりの量のデータを必要とするからという理由からです。
これは実は、レコメンド・エンジンの多くに使用されている協調フィルタリングという技術のもつ問題に関係しています。
協調フィルタリング技術は、数十ではきかないほどの、多くのバリエーションが存在しており、「協調フィルタリング」を使っています,
といってもその内容は千差万別ですが、とはいえ簡単に説明すると、同じ嗜好の持ち主をグルーピング化していき、それをもとに、おすすめを算出するという技術です。
たとえば私はイギリスのコメディが好きですが、友人で同じようなコメディを好きな人がおすすめしてくれたものは安心してみることができるという考え方が根底にあります。
この絵のように、緑のシャツと紫のシャツがそれぞれアイテムに対してどのような反応をしたかのマトリックスつくって、どの人同士が似ているかを見ていくというようなイメージです。
そうすると、同じような好みの人たちをグルーピングしていくためには、かなりな量のデータの蓄積がいることになりますね。そうしないとよいおすすめが計算できない。
これがいわゆる協調フィルタリング技術におけるSparsity(データの不足や稀薄性)問題とよばれるものです。
そこで、小規模サイトの件に戻るとすると、
小規模サイト→購買数や訪問客が少ない→データが不足している→レコメンドは適さない
という論理の流れができちゃったということなのでしょう。
ところで、小規模サイトに本当にレコメンドは適さないのかということに対してですが、適さないことはないと思っていますが、もちろん各々のサイトの状況に因るでしょう。基本的には、いろいろと探さなければ簡単に多くの商品を見れないという場合は、十分にレコメンドのニーズはあると思いますが、これはまた別の機会にお話したいと思います。
さておいても、「それではどうするんだ!小規模なサイトに協調フィルタリング系のレコメンドを入れても効果がでないのか!」ということですが、ちょっとお待ちを。
このSparsityの問題を解決するいろいろな工夫がされています。
たとえば、アマゾンが採用しているアイテム・ベースの協調フィルタリング技術というのもその一つです。(弊社のアイジェントASPも同じ考え方です。)これはいろいろなところで説明がされていると思うので説明は割愛しますが、上記のSparsity問題に対応する試みのひとつです。
なかなか、どれぐらいのデータがあれば、十分なんだというところの具体的な数字はでていないのですが、このSparsity問題というのは、小規模サイトだけでなく、より大きなサイトにおいても問題として認識されるべきものです。
結論としては、規模の大小にかかわらず、レコメンドを導入を検討する場合に、レコメンド結果の精度に大きく影響を与えるこのSparsity問題がどのように考えられて対応されているかということやこの問題に対する認識の度合いを確かめてみるのも検討材料のひとつになるのではないかと思います。