声明ではAI技術のリスクとして、既存の不平等をさらに固定化したり、誤情報を拡散したりすることが挙げられているほか、自律AIシステムの制御喪失により人類滅亡の可能性があることも指摘している。
声明の発表者らは、科学界や政策立案者、一般市民からの適切な指導があれば、これらのリスクは十分に軽減できると期待している。しかし、AI企業には効果的な監視を回避する強い財政的インセンティブがあり、現行の企業統治だけではこれを変えるのには不十分であると主張している。AI企業が保有する非公開情報は膨大であり、その情報共有の義務は弱い現状も問題視している。
発表者らは声明内で、AI企業に対して以下の4つの原則に従うように要求している。
- AIリスク関連の懸念を理由とした、自社への批判を禁止する契約を結ばず、報復も行なわないこと
- 従業員が匿名でAIリスク関連の懸念を提起できるプロセスを整備すること
- オープンな批判文化を支持し、AIリスク関連の懸念を一般人や企業の取締役会、規制当局、独立組織に提起できるようにすること
- 機密情報を不必要に公開することは避けるべきだが、適切な報告プロセスが存在しない場合に公に懸念を報告しても報復措置を取らないこと