見出し画像

スマートシティのアカウンタビリティ問題を考える

トヨタ自動車が裾野市で未来都市「Woven City」の構想を発表したり、国会でも「スーパーシティ法案」が成立するなど、スマートシティの議論は盛り上がりを見せている。スマートシティといえば、自動運転やキャッシュレス決済など、華々しい新サービスの導入に注目が集まるが、今回は少し違った側面、すなわちアカウンタビリティの問題に焦点を当てたい。都市のスマート化は誰が、誰に対して、どのような説明責任を果たすべきなのか、という問題である。

スマートシティ・プロジェクトの落とし穴

2020年5月7日、それまでスマートシティをリードする未来都市構想として高い注目を集めてきたカナダ・トロントにおけるプロジェクトの終了が発表された。

グーグルの親会社であるアルファベット社傘下のSidewalk Labsという企業が手掛けていたこのプロジェクトは、街じゅうのあらゆるデータをセンサーで収集して分析し、交通渋滞や大気汚染、騒音の緩和を図ることが含まれていた。

しかし上記Wiredの記事にあるように、アルファベットがどのように個人のデータを保護するのか、どのような形で保有するのかについては議論になっていた。また、以下の記事でも、トロントのプロジェクト中止の背景には、プライバシーへの懸念があったとされる。住民の行動が全て記録されるのに対して、収集した個人データを分析して得られる収益が企業のものになることに対して、住民が不信感を抱いていたとされる。

データをめぐる都市の特異性

ところで、データとプライバシーの関係は今に始まった問題ではない。日本では個人情報保護法が2003年から施行されており、欧州ではより包括的なプライバシー保護の取り組みとしてGDPR(一般データ保護規則)が2018年に導入されている。

スマートシティに関するサービスは、一つ一つを個別に見て行けば、鉄道会社、バス会社、タクシー会社、グーグルのようなIT企業、グルメサイト、地図会社、エネルギー企業、そして自治体など多様な主体が提供するサービスの集合体という一面がある。それぞれの企業がサービスを提供する際は、従来のプライバシー保護規制に則って対応するだろう(都市OSについては後述)。

それにもかかわらず、スマートシティのプロジェクトにおいては、以下のように都市特有の問題がある。以下にそれらを列記したい。

公共性

都市空間は、多くの人が集い、利用する場所である。オンラインバンキングであれば、特定のユーザー以外にはほとんど影響がなく、ユーザーと企業の関係で完結する。しかし、都市においてはある一人の行動は他の人の環境に影響を与える。こうした公共性(経済学の用語で言えば外部性)が大きいことが特徴の一つである。

非任意参加性

例えば画像センサーで交通量や人流調査を行う場合、そこを通行する人のデータは匿名化されたとしても、全て何らかの処理がなされる。一定のデータの規模や収集率を実現しなければ、意味のあるインサイトを得ることが難しいからだ。プライバシーの観点から言えば、オプトアウトできないという問題である。

個別介入性

スマートシティのサービスを使っていけば、自らの行動に制約が出る場合がある。例えば、特定の時間帯には渋滞緩和や大気汚染緩和のために通行できない、あるいは、より高い料金を支払う必要があるといったことや、電力を消費する作業は電気代が安い夜間に行うよう誘導される、といった具合である。多くの人が参加しないとスマートシティの効果が発揮されないとすれば、多かれ少なかれ個人の生活にも制約が出る可能性がある。上記の「非任意参加性」が受動的なオプトアウト不可能性を示しているのに対して、「個別介入性」は具体的に自らの行動に影響が出るという意味でここでは区別した。

これらに加えて、都市OSのような基盤を通じて、サービスを相互に連携させて、データを共有することになれば、さらに複雑性を増すことになる。誰がどの範囲の説明責任を果たすのか、どこまでの影響範囲があるのかをどのように確定できるのか、といったことも考える必要が出てくるだろう。

以上は試論であるため、より適切な用語や、他の特徴もあるかもしれないが、上記だけでも通常のサービスとは異なることがわかるだろう。

AIのアカウンタビリティ問題

ここで参考になるのは、AI(人工知能)のアカウンタビリティに関する議論である。日本政府は2018年12月に「人間中心のAI社会原則」を策定したが、そこで掲げられている7つの原則のうち1つは「公平性、説明責任及び透明性の原則」である。また、OECDにおいても2019年に人工知能に関する新原則が採択されている。

上記の「公平性、説明責任及び透明性の原則」から、説明責任の項を引用してみたい。

(6) 公平性、説明責任及び透明性の原則
「AI-Ready な社会」においては、AI の利用によって、人々が、その人の持つ背景によって不当な差別を受けたり、人間の尊厳に照らして不当な扱いを受けたりすることがないように、公平性及び透明性のある意思決定とその結果に対する説明責任(アカウンタビリティ)が適切に確保されると共に、技術に対する信頼性(Trust)が担保される必要がある。
・ AI の設計思想の下において、人々がその人種、性別、国籍、年齢、政治的信念、宗教等の多様なバックグラウンドを理由に不当な差別をされることなく、全ての人々が公平に扱われなければならない。
・AI を利用しているという事実、AI に利用されるデータの取得方法や使用方法、AI の動作結果の適切性を担保する仕組みなど、状況に応じた適切な説明が得られなければならない。
・人々が AI の提案を理解して判断するために、AI の利用・採用・運用について、必要に応じて開かれた対話の場が適切に持たれなければならない。
・上記の観点を担保し、AI を安心して社会で利活用するため、AI とそれを支えるデータの信頼性(Trust)を確保する仕組みが構築されなければならない。

上記の「AI」を「スマートシティのアプリケーション」と読み替えると、通じるというだけでなく、スマートシティにおける問題の重要性がより浮き彫りになるのではないだろうか。

先に示したように、全ての人に事前同意を取ることが難しい「公共性」や「非除外性」を考慮すると、アカウンタビリティを発揮していくためには、上記のうちで、特に「状況に応じた適切な説明」や「開かれた対話の場」が重要だと考えられる。

市民参加の合意形成

そこでもう一つ参考になるのは、長い歴史を持つ市民参加における合意形成の取り組みである。一般市民の参加によって公共的な政策に関する合意形成をどう実現していくかを取り扱った研究だ。筆者も参加した研究の成果をまとめた「市民参加と合意形成」(学芸出版社)では、市民参加においてフォーラム・アリーナ・コートという3つの場を想定している。

誰もが参加できる自由な討論の場としての「フォーラム」、そしてフォーマルな決定につながる意思形成を行う「アリーナ」、そして決定に不服がある場合に申し立てを行い、紛争解決の場となる「コート」の3つの場を有機的に連携させることが、不特定多数の市民の参加による合意形成をうまく進めるための要諦の一つである。

スマートシティのアカウンタビリティ実現へ向けて

上記の「フォーラム・アリーナ・コート」は、「公民館・議会・裁判所」かもしれないし、「SNS・諮問会議・第三者機関」かもしれない。様々なレベル感で設計が可能である。いずれにせよ、今後のスマートシティプロジェクトの成功のためには、そこに関わる人々の参加や合意形成は重要なものだと考えられる。

スマートシティの取り組みが本格化するにつれて、アカウンタビリティの問題はより重要になってくるだろう。今後、スマートシティの文脈において、市民参加によるアカウンタビリティがどのように実現されるのか、注目していきたい。




この記事が気に入ったらサポートをしてみませんか?