2023年4月14日金曜日

AIも根拠を語らない

 いま、対話型AI(人工知能/チャットGPT)を使った遣り取りが評判になっている。ごく自然な言葉が繰り出される。文章にしても、ヒトが応答するよりも簡にして要を得ていると好評のようだ。他人事のように言うことはない。スマホの音声検索を利用すると、wikipediaなどを用いて音声の回答が返ってくる。どこまでそれがこれまでの検索と違うかなどは調べていないから善し悪しは分からないが、文章検索に見劣りするところはない。

 国会質問を(条件を入れて)チャットGPTに作成させ、それへの回答も(野党の質問に担当大臣が答えると条件を入れて)求めたら、これまたきちんとした文章が打ち出されてきたと今回の質疑応答でも遣り取りが為されている。役人の長時間勤務を軽減できるんじゃないかと政府も前向きになっているようだが、となると今度は、AIの出力した回答に手を入れるなと、入れたとしたらどこを、なぜ、どう手直ししたのかと質問が繰り出されるようになるかもしれない。エリート役人の、政府の意向を忖度した回答よりも、AIのそれの方が誠実となると、何だエリート官僚は要らないじゃないか、それよりも、情報をAIに読ませる入力を手仕事でする下っ端の方が(なにを、なぜ、どれくらい、いつ入力したかという)大切な役割を果たすことになる。いや、いまの反っくり返っている上意下達型官僚組織より余程誠実、忠実ってことになるかもしれない。いや、かもしれないというより、すでにそれは始まっている。つまりシンギュラリティは進行しているのだが、人がソレに追いついていない。

 面白いのは、同じように条件付けて問いを発しても出て来る回答は同じものとはならない。なぜ異なるのかと聞くとどう応えるかなと興味は湧くが、同じにならないというのは、ワカル。対話型AIだって、どの情報をどう処理してこうなったと出力の径庭と来歴を対象化してみることを仕組んでいないからだ。そうする必要がない。

 なぜ? ヒトだってそうだ。自分がなぜそのように回答するのかと自問したら、ワカラナイと応えるのが、自然。もし誠実に回答しようとしたら、これまでの人生の総覧を開陳することになろうが、それはしようとしてもできる相談ではない。つまり、対話型AIだってブラックボックスなのだ。

 ところが為政者はワカラナイといって済ませるわけにはいかない。辻褄合わせにテキトーなことを言うと信用を失墜する。ヒトは、忘れちゃいましたととぼけることができる。ついうっかり、ということもないわけではない。つまりヒトは、それに立ち会うヒトの人間観も相乗して、「だってニンゲンだもの」と許してしまういい加減さを感覚としてもっていて、必要なところでそれを使いこなす。そうすることによって急場/窮場を切り抜ける。こういう誤魔化しやオトボケをAIがどう学習し、応答に繰り込むか、大変興味深い。

 哲学者の東浩紀が「憲法2・0」の中で、ITを用いた国会の議員の役割を大きく変える提案をしていたことを思い出す。ソレを最初に目にしたときは、ほんの冗談のように思って受けとっていた。だがそうじゃないんだね。もう目前のこと。とすると、憲法審査会を開いている国会議員たちも、本気でAIを用いた大改革を、国民投票法も含めて大元から引っ繰り返して考えて貰いたいものだ。

 早く手を付けないと、アメリカでいま騒いでいるTikTokのように、too big to ban (禁止するには大きすぎる)と言われるように、多くの人が関わり、それに利害関係が生じてきて、いまさら中国政府が情報収集しているからって、それで禁止にされちゃあ堪らないと反発が出て来る。つまり国際関係に不都合があっても、存在することがデファクト・スタンダードになってしまうかもしれない。根拠を語らない機械的な処理社会にヒトが生き延びるには、ちょっと知恵を絞らなくちゃならないのかもしれない。イヤそうじゃないか。少々知恵を絞ったくらいで太刀打ちできる事態じゃないのかもしれない。ま、アナログ世代が口を挟む領域じゃないけどね。

0 件のコメント:

コメントを投稿