2019年4月10日水曜日

不作為の傾き


 図書館の雑誌に掲載されたAI関連の記事だったのか、TVの報道番組だったのか、気になったこと。これが、どんな雑誌のだれが書いた記事か、どのTV局の番組だったか、すっかり忘れているのだが、ま、本筋に直接関係するわけではないので、このまま話をすすめる。

 報道内容は、アメリカのある町で警察官の動きを効率化するためにAIを活用している、というもの。その町の居住区ごとに、そこに住む居住者の人種、年齢層、家庭、職業、収入、商店の種類、外灯の有無、交通機関の種類や頻度、などなどベーシックなビッグ・データにかぶせて、天候や気温、湿度などの自然条件の推移、逮捕歴、職務質問を受けた回数、犯罪の発生などなど、治安にかかわる諸々のデータを入力して「犯罪の発生予測」をAIにさせると、(今日のこの時間帯には)町のどこで犯罪が発生する可能性があるかを地図上に表示する。それに合わせてパトカーや警察間の配置を重点的に行うようにしたら、犯罪の発生が20%だか30%抑えられるようになった、というもの。つまり警察が、発生した犯罪の捜査や取り締まりをするのではなく、予防を行う態勢へ切り替わっていくという最新のアーキテクチャーを紹介していた。

 
 その態勢に対して、黒人の住民が職務質問などが恣意的に行われているから、職務質問を受けたなどを入力データに活用するのは公正でないと抗議しているのに対して、そのシステムを入力している技術者が、「データは公正です。どれをどう重視するかは、AIが統計的に判断すること。システムが偏っていることはありません」という趣旨の弁明をしていた。えっ、そうかい? と思った。

 ひとつ、AIのソフトをプログラミングするときに、どんな要素を盛り込み、どんな要素を排除するかを指定するのは、「偏り」ではないのか。いつだったか、ノーベル文学賞を受賞した作家クッツェーの話を知ったときの、驚きがあった。彼は南アフリカ生まれ、イギリスとアメリカの大学を卒業し、アメリカの大学教師も務めていたとき、アメリカ国籍を申請した。すると、彼が大学在籍中に(授業料の値上げだったかもっと政治的なテーマだったか)何かの反対闘争があり、大学の構内で何百人という学生が逮捕され田中に、クッツェーも含まれていた。不起訴・釈放となったが、そのときの逮捕歴が記録されていて、彼のアメリカ国籍の取得は却下されたというもの。いま彼はオーストラリアに暮らしている。つまり、逮捕歴という中に、逮捕の不当性をいささかでも斟酌する要素は入っていない。先の、街での職務質問も、(取り締まる警察官の)人種的な偏見に基づいて行われる蓋然性も考慮されていない。つまりそれらの要素をプログラミングするときに、その要素自体が持つかもしれない「逸脱」をチェックする要素を組み込んでいないと、AIの判断に「自省」という要素の入り込む機会がない。これって、「偏見」ではないのか。

 いつだったか、昭和時代の終わりか平成のはじまりのころ、ある大新聞のジャーナリストと話す機会があった。彼は、自分たちは中立であり公正に報道していると自負を語っていた。えっ、そうかい? と私が問うた。彼は「死亡記事だって、横のものを縦にするだけ」と例証していったから、でも紙面に載せるかどうか、報道するかどうかは「偏見」に満ちているんじゃありませんか? と切り返した。彼は何を言ってるんだ、死亡したという事実を報道しているだけだと反論したが、どこのだれがなぜ死亡したかというときに、名のある人、ワケのある死に方、それが起こった時と場合によって「報道」と採否の判断が働いているんだから、「公正」だとか「中立」だとか言っちゃいけないよと、やり取りしたことがある。むしろ、いつでも「じぶん」のやっていることには、「じぶん」の偏見がいつ知らず染み込んでいるのだから、それをチェックする言葉を「自分」の内部に持たないと「校正」とは言えない。そんなことを話すと、当の記者は黙ってしまったことがあった。

 不作為の傾きがあるということを言いたいのわけはなく、「公正」ということをいう場合には、不作為の傾きをも検証するだけのことばをもたなくてはならないと思うのだ。AIにそれをどのようにプログラミングすることが出来るのか、私にはわからない。だがそうでない限り、ビッグデータの統計的処理によってコトの予測をすることには、必ず「傾き」が含まれてしまっていると承知しなければならない。それをAIの判断のせいにするのは、プログラマーの怠慢ではないのか。

 平成の初めのころには、バブルの時代ということもあってか、モノゴトの取り扱いに、ずいぶんとちゃらんぽらんなところがあった(と思う)。金感情も大雑把だったろうし、人との向き合い方も、雑であったかもしれない。だが、人と向き合うのが雑であるということは、見ていないところが多々ある反面、自分に対して締まりが悪いこともあり、他人に対して目こぼしのところが多くあったのではないかと、思う。馴れあいと言って非難することもできようが、他面で「相見互い」の感情部分がつきまとってほどよい関係を築いていたのではないか。
   
 ところが機械化が進み、機能的な判断だけがきっちりとまかり通るようになると、相見互いも関係も蒸発してしまう。何万円の決済において1円でも足りないと、領収の判断は下されない。誰にでもそうであることが公正であるという(機能的な判断軸)ことは通用するが、それ以外の社会的要素は捨象されて、現れない。私たちは機械と「かんけい」をもつが、他人と関係を持っているとは思えない社会に暮らしていることになる。つまりそのようにして、機能的関係だけが社会の基軸になり、それに適応する人間は、人間であることを忘れる方向へ「傾く」。AIはその傾きを統計的に処理して公正さを人間社会らしく残してくれるだろうか。

0 件のコメント:

コメントを投稿