AIガバナンス入門

リスクマネジメントから社会設計まで
未読
AIガバナンス入門
AIガバナンス入門
リスクマネジメントから社会設計まで
未読
AIガバナンス入門
出版社
出版日
2023年12月20日
評点
総合
4.0
明瞭性
4.0
革新性
4.0
応用性
4.0
要約全文を読むには
会員登録・ログインが必要です
新規会員登録
ログイン
本の購入はこちら
書籍情報を見る
本の購入はこちら
おすすめポイント

暴走したAIが人類に牙を剥き、金属骨格のアンドロイドが人間を駆逐する。少し前まで、一般に理解されているAIのリスクとはそうしたサイエンスフィクション風味なものが多かった。だがAIが日常社会に浸透した現在、少なくとも今のところは筋骨隆々のアンドロイドが人に脅威を与える未来にはなっていない。AIリスクはもっと複雑で多様なものとして我々の前に現れた。本物そっくりの画像や生成文章の真偽、デマの拡散や著作権の問題。そうしたフィクションとは程遠く生々しいものが、我々の知るAIリスクだ。

それまでの技術革新がそうだったように、AIは激しい賛否を巻き起こした。時にそれは感情論にエスカレートし、まったく実態とかけ離れた持論を見かけることもある。

AIリスクとは何か。AIに対し、国や専門家はどのような取り組みをしてきたのか。こうした問いかけに、ハッキリと答えられる人は意外と少ないのではないのだろうか。AIリスクは議論の途上にあるし、政府も様々な団体と利害関係を調整してAIの発展を促進しようと試みている。ここで一個人が感情的に利害を嘆いても、その声が制度に反映される望みは薄いだろう。

本書の素晴らしい部分は、AIのルール作りをするにあたって、必要な情報をわかりやすくかつ詳細に整理しているところだ。一体AIの何が問題で、各国ではどのように議論をされてきたのかを理解できるようになっている。AIは技術的にはかつてないほどのインパクトを孕んでいる。だからこそ本書を読んで、一度情報を整理しておきたい。

著者

羽深宏樹(はぶか ひろき)
1985年生まれ。京都大学法政策共同研究センター特任教授、東京大学法学部客員准教授、スマートガバナンス株式会社代表取締役CEO。弁護士(日本・ニューヨーク州)。森・濱田松本法律事務所、金融庁、経済産業省等を経て現職。東京大学法学部・法科大学院、スタンフォード大学ロースクール卒(フルブライト奨学生)。2020年、世界経済フォーラムおよびApoliticalによって「公共部門を変革する世界で最も影響力のある50人」に選出された。

本書の要点

  • 要点
    1
    AIはかつてないほどのスピードで社会に実装される。しかし、AIはその複雑性ゆえに、責任の所在がわかりづらい上に、そう判断した理由を説明することも難しい。
  • 要点
    2
    AIガバナンスの目的は、AIのリスクを社会が許容できるギリギリまで抑制しつつ、その恩恵を可能な限り受容することにある。
  • 要点
    3
    AIシステムのバリューチェーン上にいる多数の主体それぞれがアカウンタビリティを尽くさなくてはならない。

要約

AIのリスク

AIを採用すべきか否か

生成AIが生み出す画像や文章は人間のそれと見分けがつかないレベルに達している。プログラミングコードの記述や顧客との対話、財務分析など幅広い分野で活用が期待される。しかし、そこにはリスクもついてくる。虚偽情報の生成はデマの拡散に繋がるし、インプットした個人情報や秘密情報がAIによって他者に開示されるかもしれない。

こうした利便性とリスクを天秤にかけた時、あなたは社内でのAI利用を許可できるだろうか。AIの急速な発展に伴い、その判断は喫緊の経営課題となっている。ステークホルダーが受容可能な水準でAIのリスクを適切にマネジメントしつつ、AIのもたらす便益を最大化しようとする取組みを、本書では「AIガバナンス」と呼ぶ。

またここでの「AI」を、「機械学習の一種である深層学習(ディープラーニング)を用いて、人間の知能に類似した振る舞いを行うシステム」と定義する。ディープラーニングは2010年代以降の人工知能ブームをもたらし、現在のAIリスクの大きな原因ともされているからだ。

2つのリスク
Parradee Kietsirikul/gettyimages

非常に精度の高いアルゴリズムを作り出せるディープラーニングは、それゆえにガバナンス上で大きく分ければ2つの難点を示す。1つは「AIの技術的な特徴に由来するリスク」、もう1つは「AIが社会に実装されることで生じるリスク」だ。

「技術的リスク」は、AIが与えられたデータに基づいて新たな結果を出力するシステムだからこそ発生する。もとのデータが不正確な場合や不適切なバイアスを含んでいる可能性があるし、そもそも「完璧なAI」は作りようがない。また、用いられる関数が極めて複雑であるために、AIの判断の予測や事後的な説明を、人間が行うのは困難である。だからこそ、AIガバナンスでは「透明性」「説明可能性」といった言葉がよく用いられるのだ。

「社会的リスク」は、AIの性能の高さゆえに起きてしまう問題である。ソーシャルメディアが「見たいものだけを見せる」アルゴリズムを採用することで、世論の分断を招き、民主主義そのものをリスクに晒してしまうケースがその一例だ。

ガバナンスの難しさ

AIのリスクはその対象が多岐にわたるだけでなく、サポートレベルなのか完全に人間の代替をしたいのかといった目的レベルでも状況は変わる。それに、たとえば「社会的リスク」であるプライバシーへの影響を回避するためにAIに学習させるデータを制限してしまうと、AIの精度が落ちて「技術的リスク」が増加するという、トレードオフの問題もある。

さらに、AIシステムのバリューチェーンには、学習データの提供者、AIアルゴリズムの開発者、そしてユーザー自身など多くのステークホルダーがリスクの創出に関わっており、誰が何について責任を負うべきかが見えにくい。しかもAIは、クラウド、OS、基盤モデル、アプリなど、異なる主体による独立したシステムがより大きなシステムを作る「システム・オブ・システムズ」になっているため、これがまた予測不可能性や責任所在の不明瞭さを高めている。

その他、「信頼できるAI」、「AI倫理」の問題などAIリスクの状況はその技術進歩に伴い常に更新されていく。生成AIのような「汎用モデル」の登場は、リスクシナリオを異次元に拡大している。

AIシステムのガバナンスはこのように一筋縄ではいかないものだが、自分事として捉え、「誰もが自らの意見を持ち寄って議論できる領域」にしていかなくてはならない。

【必読ポイント!】 AIガバナンスとは

ガバナンスのためのAI原則
LightFieldStudios/gettyimages

AIガバナンスの目的は、「基本的人権・民主主義・経済成長・サステナビリティなど」の「基本的な価値」にある。まずはそれを具体的な状況に即して検討しなくてはならない。そして、AIはそれを達成するための手段、またはリスク要因にすぎない。「AI原則」は、こうした基本的価値を実現するために配慮すべき、プライバシーや公平性、透明性といった事柄を指す。

もっと見る
この続きを見るには...
残り1691/3330文字
会員登録(7日間無料)

3,400冊以上の要約が楽しめる

要約公開日 2024.05.26
Copyright © 2024 Flier Inc. All rights reserved.
一緒に読まれている要約
改訂版 勝つ投資 負けない投資
改訂版 勝つ投資 負けない投資
片山晃(五月)小松原周
未読
経済評論家の父から息子への手紙
経済評論家の父から息子への手紙
山崎元
未読
崖っぷちだったアメリカ任天堂を復活させた男
崖っぷちだったアメリカ任天堂を復活させた男
大田黒奉之(訳)レジー・フィサメィ
未読
生成AI時代を勝ち抜く事業・組織のつくり方
生成AI時代を勝ち抜く事業・組織のつくり方
梶谷健人
未読
ユーザーファースト 穐田誉輝とくふうカンパニー
ユーザーファースト 穐田誉輝とくふうカンパニー
野地秩嘉
未読
〈新版〉日本語の作文技術
〈新版〉日本語の作文技術
本多勝一
未読
図解 人的資本経営
図解 人的資本経営
岡田幸士
未読
ウェルビーイングのつくりかた
ウェルビーイングのつくりかた
ドミニク・チェン渡邊淳司
未読
法人導入をお考えのお客様