米Facebookが実験のためにユーザーの投稿表示内容を無断で意図的に操作「Facebook上にも情動感染は存在」
米Facebookが行った心理実験が色んな意味で話題になっています。約70万人のユーザーのニュースフィードに表示する投稿を実験のために意図的に操作したことが、米国科学アカデミーの機関誌PNASで公開された論文で明らかになりました。事前にデータ使用に関するポリシーに同意してもらっているので問題無いとのことですが、パーソナルなコンテンツを扱うFacebookだけに、倫理的にどうなの?と感じている人も少なくないようです。
ポジティブな文章を見るとポジティブに、逆もまたしかり
この実験では68万9003人の英語を使うFacebookユーザーを対象にニュースフィードのアルゴリズムを操作して、ポジティブな言葉を含む投稿の表示を減らした場合のユーザーの投稿にネガティブな言葉が増えるかどうか、また、その逆の場合はどうかを確認する実験を行いました。
実験の結果として、
- ポジティブなコンテンツを多く見た人はポジティブに
- ネガティブなコンテンツを多く見た人はネガティブに
という情動感染がFacebook上にも存在する事が証明されたとしています。
下記が実験結果を表すグラフになります。ポジティブなコンテンツ表示を減らされたユーザーにはネガティブな言葉が多く含まれ、逆にネガティブなコンテンツの表示を減らされたユーザーにはポジティブな言葉が多く含まれていた事を示しています。
ユーザーに無断で投稿内容を操作して問題無し?
今回、物議を醸しているのは、実験結果ではなくFacebookの「実験のやり方」です。対象となった約70万人のユーザーは知らぬ間にアルゴリズムを操作され、本来見れるべきであったコンテンツを見逃してしまったことになります。
Facebook側としては、この実験はFacebookの「データ使用に関するポリシー」に準拠しているので問題無いとしています。サービス使う前に、長文で同意させられるいつものアレですね。ちゃんと全部読んでいる人は、ほとんどいないとは思いますが。
法的には問題無いですが、パーソナルなコンテンツを扱うFacebookなだけに、ヘビーに使っている人ほど「知らぬ間に操作されてしまった」事には抵抗感を感じてしまうように思います。
倫理的にどうなの?と感じる人も多く、このような実験を行う場合には少なくとも事前にユーザーに通知すべきという声も多く上がっています。事前に通知してしまうと実験結果も変わってしまいそうなので、微妙なところですが。
あとがき @aiza_waiさんをフォロー
日本人のFacebook離れが進んでいるとはよく聞きますが、私も例に漏れず最近はFacebookを見る機会が大幅に減ってしまいました。Facebookは、Twitterなど他のSNSと比べるとほとんどがポジティブなコンテンツ投稿のように感じますが、この傾向は日本人だけなのでしょうか。
ポジティブなコンテンツを見れば見る程、自分もポジティブになれるのであれば、モチベーションを上手にコントロールするためにもFacebookに限らずこの「情動感染」はうまく利用していきたいものです。