スクリーンショット_2019-10-12_21

テクノロジーの光と影と幸せ


 昨日、ラスベガスで幸せに関する講演をした。
 
https://www.hitachivantara.com/en-us/news-resources/resources.html#vid=6093907569001
(1:02:57から私の講演になりますので、よろしければご笑覧ください)
 
 私の前日にZeynep Tufekci氏による「テクノロジーの負の側面」に関する講演があった。このTufekci氏の講演を聞いているうちに、これは私の講演と大いに関係があると思うようになった。
 
 まず、Tufekci氏の講演の骨子を紹介したい(詳しくは、下記のリンクを見てください)。
 何か理由でYouTubeの映像を見た時に、お勧めに従ううちに、何本も映像を見てしまい、長い時間を費やしてしまった経験を持っている人は多いであろう。私にも経験がある。
 Tufekci氏は、トランプ候補の選挙活動に関する調査中に、トランプ候補に関する映像をみた。その時に、お勧めされた映像を見ていくうちに、「白人至上主義」や「ホロコーストは本当はなかった」などのより極端な内容に誘導されたというのである。
 同様に、ベジタリアンの映像を見た後にお勧めに従ううちに、より極端なビーガン(人間が動物から搾取することを禁止する考え方)に関する映像に誘導されたという。
 すなわち、YouTubeは、普通の人たちのちょっとした機会を捉え、より極端な方向に誘導するアルゴリズムになっているというのである。
 結果として、社会を分断する仕組みが知らないうちに組み込まれているというのである。
 このYouTubeのお勧めのアルゴリズムの開発者は、おそらく視聴者の視聴時間を伸ばすことを目的にアルゴリズムを作り、YouTubeのビジネスである、広告効果を純粋に高めるように設計したのだと想定される。そこには、社会を分断することなどは意図していないであろう。
 しかし、結果として、10億人規模で「社会の分断」を起こす恐ろしい媒体になっているというのである。これは将来の脅威に関するものではない。既に今、10億人単位で起きている脅威である。
 
 これに対する対策として、Tufekci氏は、テクノロジーが「何か悪い影響を与えていないか」を常に問うことが重要だと締めくくった。この点に関しては、まったく同感である。
 テクノロジーによって、社会に大規模な悪影響を及ぼす事象は、工業化社会においては、公害や環境汚染などで、人類は既に経験していた。ただ、今回のYouTubeの例は、規模はこれ以上に大きく、より見えにくく、予測しにくい。工業生産の際に、企業が、自らの活動の社会的な影響に対し注意深くなったように、情報サービスにおいても、このような配慮が必要な時代になったということである。
 
 これを組織の配慮だけに頼らず、システム化する方法はないであろうか。
 
 実は、人工知能や機械学習では、どんな変数を高めるかを明示的に決めるのが普通である(これを目的変数と呼ぶ)。この目的変数を倫理的に常に正しい変数にすることを義務づけることで、システマティックに悪影響を少なくできると考えられる。
 上記のYouTubeの場合には、この目的変数が、おそらくユーザー毎の視聴時間や広告クリック数などになっているはずである。これには、明らかに倫理的な視点が抜けている。
 サービスの使用により、社会が、不幸せになっていないかを常にモニタリングするならば、上記のような事象は防げるであろう。従来は、人の幸せを定量化するのは、簡単ではなかったが、アンケート(質問紙)でも、人の幸せはある程度は計測可能になった。
 さらに客観的には、我々のスマホを用いた加速度センサによる計測で、ユーザーとその関係者の幸せに関する状況をリアルタイムにモニタリングすることができる。
 このようなことを真剣に考える時がやってきたのである。
 
 イギリスの哲学者ジェレミ・ベンサムは「最大多数の最大幸福」という言葉で有名であるが、その心は、善悪を判断する究極の問いは、それが人々の幸せを高めるか、低くするかにある、という指摘である。
 すなわち、善悪の判断と幸福の測定とは、極めて強い関係があるのである。
 
https://www.hitachivantara.com/en-us/news-resources/resources.html#vid=6093539090001
(2:03:30からTufekci氏の講演が見られます)

この記事が気に入ったらサポートをしてみませんか?