いざというとき、コンセントをぶっこ抜かなくてもいいように。
昨今、人工知能についての意見は二極化しており、GoogleやFacebook、Amazon、Microsoftなどが開発を進める一方で、イーロン・マスク氏やスティーブン・ホーキング博士はその危険性を語っています。人工知能において恐ろしいのは何か。それは、フィクションの世界で描かれたスカイネット、ロボットが自我に目覚めることです。AI開発を進めるGoogleも、それは危惧しているわけで…。
Googleの人工知能DeepMind開発チームとオックスフォード大学のFuture of Humanity Instituteによる論文「Safely Interruptible Agents」では、いざというとき=人工知能が人間の望まない動きを始めた場合にどうすべきか、その安全策について語られています。Future of Humanity Instituteの創設者であるNick Bostrom氏は、数十年と続いていくAIの開発について、これまでもその危険性を訴えてきました。
論文の内容はほとんどが安全策を作るための数学的要素なので、私たち素人には理解できません。が、プロのみなさんも、つまりはわたしたちと同じようなフィクションの世界を想像しているのです。人工知能が進化しすぎて、スイッチオフの命令すらも無視したらどうしよう、とね。
スカイネットが起きたらどうするのかではなく、起きないようにするためにはどうすればいいのか。論文では、人間に妨害されないようにする方法を、人工知能が学習しないよう目を光らせるべきだと、その方法を模索しつつ語られています。
現代の人工知能を見ると、論文の心配は杞憂に終わりそうですが、逆に言えば、今だからこそ考えておく必要があるのです。優れた人工知能ができれば、より優れた人工知能を生み出すために使われるでしょう。そうしてできた人工知能は、また、より優れた人工知能を開発し…。気がついたときには手遅れなんてことにならないようにね。
安全策は幾重にもあった方がいいですけれど、はたして、自主的に学習するAIにこれだけは学んじゃダメなんてことが、本当にできるもんなのでしょうかね。ある線を超えてしまえば、人工知能開発も子育てと同じ苦悩が出てくるように思うのですけれど。
source: Intelligence.org via Business Insider
Darren Orf - Gizmodo US[原文]
(そうこ)