違うブログ

答えを出しながら、変わっていく。

人工知能研究の倫理とは?

こんばんは。最近再び読書を再開した作者です。読みたい本タグをつけてブックをマークしていて、最近その消化に取り掛かっているわけです。

はてなブックマークというものはなんとも便利ですね。タグ付け機能を使って、ブックマークを体系的に管理できます。

さて、人類を脅かすと言われる人工知能ですが、その研究に倫理規範があるのか?というのが今回の疑問です。

 

人工知能学会の倫理規範の案

http://ai-elsi.org/wp-content/uploads/2016/06/倫理綱領案_Ver3.1.pdf

日本の人工知能学会は、2016年6月に倫理綱領の案を作成・公開しています。その内容についてはまだ議論がなされているようで、今回参照するものは最終決定版というわけではないようです。

では、中身を見ていきましょう。

 

人類の安全

人工知能研究開発者は人工知能を設計、開発、運用する際には専門家として人類の安全への脅威を排除しなくてはならない。  

そういえば、爆弾を搭載した小型ドローン兵器に顔認証技術を導入する、という架空のプロジェクトのプロモ映像を見たことがあります。顔認証技術も一種の人工知能です。

その架空プロジェクトで紹介されていたのは、抹殺対象の顔をドローンに認識させ、対象に体当たりして自爆することで抹殺するという架空のドローンでした。ドローンを大量に対象の潜伏エリアに投入することで、徹底的に抹殺対象を追い込むドローン軍団の出来上がりです。

これは明らかに人類への脅威ですよね。

 

人工知能への期待が高い

人工知能研究開発者は専門家として虚偽や不明瞭な主張を行わず、人工知能を構成するシステムの技術的限界や問題点について科学的に真摯に説明する義務を負う。  

人工知能に限らず、IoT、ブロックチェーンなど様々なワードがもてはやされています。ですが、これらの限界を我々は知らないのです。技術に可能性があることは知って損ではありませんが、その技術にどんな限界があるのかを知らないのは損です。

サイエンスコミュニケーションが最近話題ですが、高みに到達したそうした技術を、我々にもわかるようにしてもらえると、社会がより豊かになりますよね。

 

説明責任

人工知能研究開発者は研究開発が意図せず他者に危害を加える用途に利用される可能性があることを認識し、もしも人工知能が悪用されていることを発見した際には、技術を悪用する者に対して説明を求め、その説明が正当なものでない場合には、悪用されることを防止する措置を講じなければならない。

これは面白いですね。悪用とはまた違うかもしれませんが、核開発とそれに加担したことを嘆いたアインシュタインの話を思い出します。

技術の悪用って、果たして何なのでしょうか。例えばハッキングは技術の悪用でしょうか。ブラックハッカーのハッキングは悪用で、ホワイトハッカーのハッキングは悪用でない、というのは、いささか変な気もしますよね。

更にいえば、悪用されることを防止する措置というのは、一体どういう措置なのでしょうね。

 

人工知能認知心理学的なアプローチもあって非常に興味深いです!今後も色々調べようと思ってます。