第38回マイニング探検会(京都)を開催しました
第38回マイニング探検会
http://www.facebook.com/events/604510619577273/
====================
日時 8月3日(土)16:00?18:00
場所:京都 鍵屋荘
スケジュール:
係分担:
- 記録係:是住
- 中継係:嶋田
- 懇親会係:
- タイマー係:山田(奈)
====================
Togetter:http://togetter.com/li/543384
Ustream:http://www.ustream.tv/recorded/36773363
【記録】
■清田さんから「ユーザーエンゲージメント」についてスライドを用いて説明
前回の東京での議論・話題として、「ユーザーとしての自由とコントールをどうバランスを取るか。どのような形がユーザーに受け入れられるか。人間同士のコ ミュニケーションルールと同様に、人間とコンピュータとの間のコミュニケーションでも守るべきルールがある」というような内容が話題となった。
今回は、Microsoft Officeに以前搭載されていたエージェント(カイルくん、冴子先生、クリッパー)を取り上げる。
これらのキャラクターは質問すれば答えを返してくれる機能があり、初心者にとっては親しみやすいという意見がある一方で、すごく嫌われていた。
どうすればこのようなユーザーインタフェースの失敗を防げるか
アンケートだけでは不十分で、ユーザーの行動を注意深く観察することが必要。
今回の話題として、サービスが利用者に好まれているかをどうやって測るかを考える。
二つの文献を紹介
・Janete Lehmannらが書いた「Models of User Engagement」
User engagementがマーケティングの分野やインタラクション(インターフェース)の分野で注目されてくるようになった。
サービスを計る手法として、クリックされた割合や滞在時間を用いるエンゲージメント指標がよく利用されているが、サービスの性質によって、使うべき指標は異なるのではないかと考えられる。例えばSNSならば滞在時間が長い方が良いし、検索エンジンならば短い方が良い。
この論文では、Yahoo!Toolbarによって収集された閲覧データを、PopularityやActivity、Loyaltyなど8つの指標によって解析している。
(詳細はスライド参照)
・Georges DupretとMounia Lalmasが書いた「Absence time and user engagement: evaluating ranking functions」
CTR(クリックされた割合)や滞在時間はengagementとは必ずしも結びつかない。
absence time(同一ユーザーの2回の訪問の間の時間間隔)を医療分野で用いられているSurvival analysis(生存時間分析)とし、yahoo知恵袋の2週間分のデータを用い、ユーザーはサイトを訪問するたびに死亡、離れると蘇生するとして、生 存率曲線を描いた。
(詳細はスライド参照)
情報サービスの評価指標をどう考えるか
利用人数や利用回数は重要だがそれだけではない
一見同じ行動でも、その裏に隠された意味は大きく違う場合がある
OPACの平日昼間の検索と深夜の検索はニーズが違うのではないか
■ディスカッション
カイル君が不要な人必要な人が出てくるのはユーザーレベルが違うから。大学図書館でも、シングルサインオンでまず認証をかけてその人の属性を特定する必要があると思い始めている。属性を知った上でユーザーにあったサービスを提供いくべきじゃないのか。
ユーザー側が利用履歴などの情報を取得されることについて、図書館で同じことをするならば、企業よりもリスクの説明が必要だし、求められるセキュリティレベルも厳しい(ゼロリスクを期待されている)のではないか。
ユーザーが個人情報・プライバシー情報を取得されることについて
利用規約をきちんと読む人は多くない。同意しないとサービスが使えないからよく読まずに同意する傾向がある。
提供側はサービスを広めたいという要求があるから、初期設定が公開になっているものもある。
コンビニではレジに何十代、性別とかを登録していたり、自動販売機でもカメラで性別とか年代を認識しているものがある。
レファレンス記録に利用者の情報(性別・年齢・所属等)を記録して、サービスに活かす。
ICタグで、何をどう対応したかというのを記録する。
eBookでは、どのページを開いたとか、どこに線を引いたかとかのアクセス数を取れる。そういったデータをどう活用していくか。
データのメリットは大きい。個人の要素は入れずにデータを取ることが大事なのではないか。
今あるデータはリピーターがほとんどで、新規開発したい場合、データ自体をどうやってとっていけばいいのか。
→Cookieを使って分析したり、ある種KPI(キーパフォーマンスインジケータ)みたいなものになるのかも。
二次元バーコードとかで、情報媒体によってURLを変えて、その媒体を使って訪れた人がどれくらいいたか測るとか。戦略を立ててどれくらい上手くいったか分析するのは今の枠組みでもできるのではないか。
図書館でTwitterを使って情報発信をしているところも増えてきたが、単にフォロー数を増やすだけでなく、twitterでどういう人にフォローされているか、フォローしてくれた人が、リンクを踏んでくれているかなどの分析を行うというのも一つの方向性。
自分たちが何を価値として提供していきたいかが重要で、決められた指標だけを使っているとうまくいかない。指標は複数持って総合的にやっていかないとずれていく。自分たちで指標を作り出す必要がある。