AIに取り組む著名研究者、エンジニア、CEOなどのグループが5月30日(米国時間)、AIによる人類絶滅の危機について、新たな警告を発した。 「Statement on AI Risk」(AIリスクに関する声明)に署名したのだ。広く受け入れられるよう簡潔にまとめられたこの声明は、「Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.」(AIによる絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会的規模のリスクと並んで世界的な優先事項とすべきだ)というものだ。 この声明は、サンフランシスコに拠点を置く非営利団体Center for AI Safety(C