【3次元】ざっくりまとめ「アシロマAI23原則」でAIの脅威は防げるのだろうか?
ソパ!
ルール守ってる?
校則とか社則とか世の中はいろんなルールが必要だ。
交通ルールもしっかり守らないと命の危険があるもんね。
今回は、とうとうAIのルールが出来たという話題。
もくじ
「アシロマAI23原則」とは?
アシロマグールプ集合写真
AIの研究者たちがあつまって、AIの基礎ルールを作成したようだ。
その名を「アシロマAI23原則」という。
この「アシロマAI23原則」と呼ばれるルールに強制力はない。
守るも破るも研究者の良心次第だ。
ただ、今後のAI研究が間違った方向にいかないようには出来るかもしれない。
ちなみに、「アシロマAI23原則」の策定には、技術者、プログラマー、ロボット工学者、物理学者、経済学者、哲学者、倫理学者、法学者など様々なひとたちが参加した。
「アシロマAI23原則」を支持する著名人も多い。
物理学者、スティーブン・ホーキング。
実業家、イーロン・マスク。
未来学者、レイ・カーツワイル。
特に、ホーキングとマスクは「AIの脅威」について懸念していた。
そのふたりが支持するという「アシロマAI23原則」はAI研究にとって重要なルールになるだろう。
「アシロマAI23原則」の内容
実際どんな内容なのか、以下に簡単にまとめる。
- AI研究の目標は、無秩序な知能ではなく有益な知能の開発である
- AIへの投資は、コンピューター科学、経済、法律、倫理、社会学の観点から有益と考えられる研究に向ける
- AI研究者と政治家の間で、建設的で健全な対話を行なう
- 研究者や開発者の間には協力、信頼、透明性の文化を育くむ。
- AIの開発チーム同士での競争により安全基準を軽視することがないよう、チーム同士で協力しあう
- AIシステムはその一生を通して、できる限り検証可能な形で安全、堅牢である
- AIシステムが害をなした場合、原因を確認できるようにする
- 自動システムが司法判断に関わる場合、権限を持つ人間が監査し、納得のいく説明を提供できるようにする
- AIシステムの開発者は、システムの使用、悪用、結果に倫理的な関わりがあり、どう使用されるかを形作る責任と機会がある
- 自動的なAIシステムは、目標と行動が倫理的に人間の価値観と一致するようデザインする
- AIシステムは、人間の尊厳、権利、自由そして文化的多様性と矛盾しないようデザイン、運営しなければならない
- AIには人間のデータを分析し、利用する力があるため、データを提供する人間は自分のデータを閲覧、管理、コントロールする権利が与えられる
- AIによる個人情報の利用は、人間が持つ、あるいは持つと思われている自由を理不尽に侵害してはならない
- AI技術は可能な限り多くの人間にとって有益で力をあたえるべきだ
- AIによる経済的な利益は広く共有され、人類全てにとって有益であるべきだ
- 人間によって生まれた目標に関して、AIシステムにどのように決定を委ねるのか、そもそも委ねるのかどうかを人間が判断すべきだ
- 高度なAIシステムによって授かる力は、社会の健全に不可欠な社会課程や都市過程を阻害するのではなく、尊重、改善させるものであるべきだ
- 危険な自動兵器の軍拡競争が起きてはならない
- 一致する意見がない以上、未来のAIの可能性に上限があると決めてかかるべきではない
- 発達したAIは地球生命の歴史に重大な変化を及ぼすかもしれないため、相応の配慮と資源を用意して計画、管理しなければならない
- AIシステムによるリスク、特に壊滅的なものや存亡の危機に関わるものは、相応の計画と緩和対策の対象にならなければならない
- あまりに急速な進歩や増殖を行なうような自己改善、または自己複製するようにデザインされたAIは、厳格な安全、管理対策の対象にならなければならない
- 超知能は、広く認知されている倫理的な理想や、人類全ての利益のためにのみ開発されるべきである
以上。
23項目。
目がチカチカする。
何を言ってるのかよく分からない。
というわけで、筆者が独自にざっくりまとめたので、コチラをどうぞ。
「アシロマAI23原則」さらにざっくりまとめ
23項目も見てられないので、独自にざっくりまとめてみた。
- AIの研究はテキトウにやらずに目的をもってやろう
- AIは人間の生活の邪魔をしないように
- AIがやりすぎたら開発者は責任とろうね
- AIの戦争はなるべくしないように
- AIの良い所はみんなでシェアしよう
こんな感じかな。
全体的にふんわりした感じになっている。
というのも、現段階ではAIは研究中のもの。
これからドンドン発展する技術なので、あまりガチガチに縛ると研究が進まなくなるからだ。
こうした、やんわり原則でも無いよりマシ。
無軌道なAI研究に歯止めがきくからね。
まぁ、もちろんマッドサイエンティストが「そんなの無視だぜ!」といって、恐怖のAIを作る可能性も否定できないけど…。
少なくとも、こんな事は防げるのかも?
まとめ
とりあえず、難しいことはおいといて、AIで「すごーい!」とか「たのしー!」とか言っていたいんだけどな~。
こういう決まりができるってことは、AI市場が大きくなってきたってことかな?
ほうっておくと恐いことになるんだろうなぁ。
そのうち、AIが人生のご意見番みたいになったりして?
AIマツコ・デラックスみたいなのは面白いかもw
他の方のブログも見たいかたはコチラからどうぞ
▼▼▼ブログで仲間をあつめよう▼▼▼