このBlogは2020年7月に作成したものです。
ともかく、顔識別技術は禁止!!
ジョージ・フロイド氏の事件を発端にしたBLM(Black Lives Matter)の高まりから、顔識別技術(Facial Recognition Technology)の問題・危険性が語られる場面が増えた様に感じます。San Franciscoは全米で先んじて、この技術の法的機関における使用を禁止しましたが、この技術規制への流れはBoston等の他都市、また大手Tech企業へも波及しています。
<https://www.aclu.org/news/privacy-technology/how-is-face-recognition-surveillance-technology-racist/>
ボストン - 人種差別的なテクノロジーや、基本的権利を脅かすテクノロジーを使用するべきではないと言う理由から使用を禁止。
Amazon - ジョージ・フロイド氏事件への抗議を鑑み、(一次的に)警察組織での利用禁止を発表
IBM - Facial Recognitionから撤退
Microsoft - 適切な法規制がなされる迄は、警察組織への提供を禁止(議会に同技術への規制を要請)
Association for Computing Machinery(世界最大のコンピューティンググループ) - 民族、人種、性別等により結果が導き出される、言わばバイアスが存在するテクノロジーは受け入れられない
この「うねり」は政府を動かし、6月25日、法的機関における同技術の利用を禁止する、「The Facial Recognition and Biometric Technology Moratorium Act(顔認証・生体認証技術の利用一時禁止法)」が下院・上院の共同で発表されました。
確かにこの使い方は変だ・・
アメリカ社会が「ともかくFacial Recognissionはダメ、顔識別技術は禁止!!」へと一気に傾いた印象を受け、エンジニアとしては若干の違和感を感じたのですが、色々と調べてみると、確かに問題となる使われ方がある事がわかりました。
米国では、FBIとICE(移民・関税執行局)は、所有者の許可無しで運転免許証の写真を顔識別に使用しているそうです。また、裁判所では誰を仮釈放するかの決定にAI技術が使われていると言われています。
<https://www.wired.com/2017/04/courts-using-ai-sentence-criminals-must-stop-now/>
顔認識システムには多くの顔写真データが必要となりますが、そのデータは警察内のデータを含め、様々な場所から集められます。そして不幸な事に、それらは(歴史的に)Black Peopleを否定的に捉えたデータが多く含まれています。故に、このようなデータで構成されるAIはバイアスが掛かっていると言える訳です。そしてそのバイアスを基に、無実の人が拘束されるともあるのです。結果的にその無実の人は開放さる事になるのですが、その際に顔写真や指紋をとられてシステムに組み込まれ、以降、警察システムで検索可能となり、更にBlack Peopleへの否定的なバイアスが強まってしまうのです。
事例:ミシガン州での強盗
ミシガン州デトロイドで時計の強盗被害が発生、犯罪歴のないロバート・ウィリアムズ氏が誤って逮捕された。AIが彼の運転免許証の写真を万引き犯の警備映像と誤って照合したためであり、彼はその後釈放されたが、この時、彼のマグショットを作成して警察システムにデータを入れてしまった。
<AIのミスで間違えて逮捕されてしまったロバート・ウィリアムズさん, https://www.aclu.org/news/privacy-technology/wrongfully-arrested-because-face-recognition-cant-tell-black-people-apart/>
顔識別技術だけでもなさそうだ
これまで、顔識別技術だけではなく、広くAIはPredictive PolicingというKeywordで犯罪予測にも活用されてきました。
Predictive Policingには大きく2つの方式があるのですが、1つは位置情報ベースであり、「場所とこれまでの犯罪発生率」を分析する事で、これから犯罪が起きそうな場所を推定するものです。もう1つは人間ベースと言われていて、「性別・年齢・結婚歴・違法薬物使用歴・逮捕歴」、などから今後犯罪を起こしそうな人物を予測するものです。
ここで問題になるのが、人間ベースのアルゴリズムが「犯罪歴」ではなくて「逮捕歴」を使っている点です。と言うのも、米国では黒人は白人より逮捕され易い、と言うデータがあります。実際の犯罪有無に拘らず、黒人であるとの理由から白人の5倍、警察に呼び止められてしまうのです。そして、そこには一定数の誤認逮捕もあるのですが、このデータも、人間ベースのPredictive Policingにデータとして使われてしまう訳です。
これではまるで、「AIテクノロジーがアメリカが抱える社会構造問題を加速している」ように見えてしまいます。
BLMの高まりから、最近では警察のDefunding(解体)が叫ばれるようにもなりました。しかし、警察解体は警察官の人数削減をも意味する訳です。一方、当然ながら法と秩序を守らなくてはならず、DefundingによりAIがデフォルトで警察組織に組み込まれてしまうのではないか、このような懸念も生まれています。
結局のところ、テクノロジーは使い方
しかし、警察組織における、AI活用の良い事例もあります。シカゴ近くのEnglewoodでも、Predictive Policingを活用した犯罪予測が取り組まれています。従来の考え方では、その予測後に警官が派遣されて取締りがなされるのですが、この事例では代わりに、地域コミュニティーのリーダーに連絡して連携するアプローチをとっているそうです。そして、この取組により、犯罪率は下がったと言われています。
バイアスが介在してしまうAIを重要な意思決定の第一に使うのではなく、AIを単純にToolとして位置付け、人々のコラボレーションに活用した事例と言えるでしょう。月並みですが、「やはり、テクノロジーは使い方が重要なんだなぁ・・」と感じます。
テックサイドからの規制検討
どのようにAIをコントロールするべきか?、という議論も活発になりました。様々な角度で議論はなされていますが、Accountability(説明責任)とTransparency(透明性)が、どうやら鍵となるようです。
薬のラベルには成分や効能・副作用などの注意事項が明記され、それらはFDA(Food and Drug Administration - USの食品医薬品局)のような第三者が厳格に管理していますが、これと同じ発想をAIにも適用しよう、という考えです。
このようなAIを監視する第三者機関の設置の声は高まっていて、M.I.Tの研究者がリードするAlgorithmic Justice Leagueや、National Algorithm Safety Board(University of Maryland)は、「AIによる問題が発生したとき、または大手企業でAIアルゴリズムの変更が検討された場合は、第三者機関が検査する。」、このような仕組みを目指しています。飛行機や鉄道で事故が発生した時に航空・鉄道事故調査委員会が徹底的に調査しますが、このイメージに近いようです。
<https://www.ajl.org/>
Fake Text AIが画像を作る時代に
様々な問題を抱えつつも、AIの進化は止まりません。
先日、GPT2(テキスト生成AI)のアルゴリズムを画像の生成にも使える、と言うニュースを見ました。GPT2はInternet上の膨大なテキストデータを基に作成された文章生成AIなのですが、このモデルTraining時にSelf Supervised Predictionと呼ばれる方法を採用しています。これは文書の次に来る単語を予測し、そして自分で答え合わせをする方式でして、自身で答え合わせをする事からラベルデータが必要ない、と言われています。
画像はピクセルの配列で構成されるので、単語の代わりにピクセルをAIモデルに入力して次に来るべきピクセルを予想する、という方法論で画像が作り出されたようです。中にはクスッと笑ってしまうような画像もAIは作り出していますが、その多くは中々の出来栄えと思えます。
<https://openai.com/blog/image-gpt/>
言語用のアルゴリズムが視覚的な表現にも活用出来たと言うことは、より人間に近い、所謂、AGI(Artificial General Intelligence)に近いたと言えるのかもしれません。
テクノロジーの進化は止まりませんが、「我々は何を重要と考えるのか?」、というベーシックな問いを今一度考えるべきなのかな・・、と思いました。