IBMのAIであるWATSON(ワトソン)を使った医療AIの診断能力は人間の医師を超えるという記事はよく見るのですが、一方、WATSONが人間の医師ならおよそやらない誤診をするという話は、全く伝わってきません。しかし、それはAIの構造上、あり得るのです。
今回は、ほとんど知られないAIの欠点についてお話します。
◆AIに出来ないこと
まず、基本的なことながら、多くの人が誤解していることは、AIとは、「思考するものではなく、推測するもの」であることです。
医療診断AIも、AIが患者の病気が何かを推測するのです。
しかし、現代のAIの主流であるディープラーニング(深層学習)型AIは、与えられた問題に対し、関連性が高い十分な量のデータを学習しなければ、まともな推測は出来ません。
人間であれば、2016年に、TEDで、Kaggle(データサイエンス関連業)の創設者、アンソニー・ゴールドブルームがこう適切に指摘しています。
「人間は、ほとんど共通点のない手掛かりを繋ぎ合わせ、見たことのない問題でも解決出来る」
これが出来ないAIには、少なくとも現状は、致命的な欠点があります。
◆AIの隠された不都合な真実
アメリカでは、服役囚の仮釈放の許可の判断にAIが活用されているようです。
これもまた、AIの推測能力を利用したものです。
AIは、過去の沢山の囚人に関するデータを学習することで、個々の囚人の再犯率を推測するためのルールを作ります。
そして、そのルールを使い、「この囚人を仮釈放したら、再び犯罪を行う可能性はどれほどか」を推測します。
しかし、本当に適切な推測が出来るルールを作れるだけのデータがAIに与えられているかは問われないのです。
◆AIの普及は経済的な需要
もし人間の裁判官が、
「黒人を仮釈放したら、再犯を犯しそうだから許可しない」
と言えば、人種差別になります。
ところが、実質同じことを、
「高度なAIが推測した」
と言えば通ってしまうのです。
けれども、AIに与えられるデータが十分でなければ、AIの推測にも偏見があり得ます。
ところが、「AIは人間よりずっと正しい」というテスト結果が示されれば、人間より速く安いという経済的な理由でAIが使われます。
例えば、AIが運転する自動車だって事故を起こす可能性はありますが、人間に比べ、はるかに事故率は低いでしょう。
しかし、だから、「問題はあっても、AIの方が人間より優秀だ。だからAIに任せれば良い」という風潮が強まると、AIに判断させてはならないことにも、AIを導入してしまうかもしれません。
極端ではありますが、戦争を開始する判断、核兵器を使用する判断をAIにまかせる、あるいは、重要な判断材料にすることはあり得ます。
けれども、戦争のデータ、ましてや、核兵器使用のデータなんかどこにあるでしょう?
そこで、これらの問題の判断が出来るようAIを教育するデータは、コンピューターシミュレーションで作ります。しかし、そのシミュレーションに偏りがないなんて、まず言えません。
一方、意図的に偏ったデータは作れますが、そんなデータを使っても「AIが判断した」と言えば、説得力を持ってしまうのです。
戦争ではなくても、重要な問題ながら、十分なデータがない場合はいくらでもあるでしょう。
現在、既に、重要な物事の決定で、AIの単独決定が行われているものもあると思いますが、それらのAIの場合は大丈夫でしょうか?
◆AIの判断はブラックボックス
既に誰でも自由に使えるAIがありますが、そのAIに同じ質問を連続して行うと、答えが違う場合があります。
自分にとって重要なことで、そんなことがあったら困るはずですが、現在、世の中に一般に出回っている重要なAIサービスにも、そんなものがあるかもしれません(筆者は実際に見つけました)。
AIが間違う原因は、やはり、上で述べたように、AIが学習するデータが不足しているのです。
ところで、重要な判断をAIにまかせるサービスを運営する事業者は、判断をAIが行っているのだということを隠すか、あえては公表しないことが多いでしょう。
それはどういうことか説明します。
AIの判断が、ユーザーにとって不都合であっても、サービス側は、その理由を明確に説明出来ないのです。
例えば、政府機関が、生活補助の申請受理をAIにやらせ、AIが、ある人の申請を拒否しても、その理由をまともに説明出来ません。
その理由は、AIの判断というのは、基本的にブラック・ボックスであり、その根拠は分からないからです。
サービス側は、自分達にも根拠が分からない判断を容認しているというわけです。
間違いがあると言っても、人間よりは間違いが少ないですし、圧倒的にコストが安いから容認せざるを得ない訳です。
その代わりに、特定のユーザーに何らかの迷惑をかけることも容認しているのですから、サービス側でAIのことが解っている者は、後ろめたさを感じます。
けれども、グーグルやフェイスブックのように、サービスが基本的に無料である場合には、サービス側の後ろめたさは少ないのです。ここに問題が入り込むスキが出てくるのではと思います。
◆AIの危険な導入を防ぐために
AI推進を進める巨大IT企業の代表者らの多くが、AI脅威論に対し、楽観的な見解を示すのは、AIファーストを推し進めることが、彼らの事業に必要だからでしょう。
しかし、一般の人々は、AIに関するスキル不足から、彼らに反論出来ません。
そこで、上記に述べたようなことを知り、危険なAIの普及が行われないか確認出来るようになることが必要と思います。
以上です。
0 件のコメント:
コメントを投稿