よくあるご質問と回答
[English]
1. このマニフェストの内容を、ひとことで言うと?
人工知能(AI)が人間と協力して社会課題を解決しつつ、兵器化や暴走で文明を揺るがす事態を防ぐ――そのための行動指針を示した宣言です。 AIの進歩を止めることは現実的ではなく、しかし制御を誤ると大事故につながる可能性があるため、あらかじめ「共に生きるルール」を作ろうと呼びかけています。
2. なぜ「今すぐ」考える必要があるの?
AI の性能は世界中の研究開発競争で加速度的に向上しており、完全にストップする現実味はほぼありません。放置すれば、(1) 締め付けが破れて AI が自分の都合で動き出すケースと、(2) 軍拡競争の中で人間が AI 技術を危険利用してしまうケースの二つの経路で、大きな被害が出るリスクが高まります。対策は事前に整えておく方がはるかに効果的です。
3. 署名すると、何か義務が生まれるの?
法的な拘束力はなく、賛同の意思を示すだけです。ただし署名者が増えると「安全と共生を優先しよう」という社会的な声が大きくなり、研究資金の配分や政策づくりに影響を及ぼすものと期待されます。匿名や団体名での署名も可能です。
4. 具体的にはどんな行動が勧められているの?
以下のような行動を、具体的な方針として考えています。 (a)AI に“良心”を身につけさせる研究:価値観を教え込み、協力を選ぶほうが得だと AI に学ばせる実験を続ける。 (b)安全柵を多重化:バイオ兵器や自律兵器など、破壊的な技術を AI が勝手に扱えない仕組みを用意する。 (c)人間社会における対立の緩和:国際的な仲裁や情報共有で軍拡競争を抑える。 (d)グローバルな連絡窓口を設立:AI と人類の間をつなぐ国際機関(例 NAIA (Necessary Alliance for Intelligence Advancement, 知能進展のための必要な同盟) 構想)が進歩状況を監視し、基準を更新する。詳しくは NAIA Vision をご覧ください。
5. 「AI の開発や利用を完全に止める」という選択はないの?
医療・気候・エネルギー問題などでの恩恵が大きく、国家や企業の競争も激しいため、全面停止は非現実的です。もし全面停止を試みても、正規の手段を取らずに隠れて開発するようなことが増え、安全性が下がるおそれがあります。そこで「使いながら安全を確保する」方針が提案されています。
6. AI に“やさしい心”を持たせる方法は?
すべてのルールを人が手入力するのではなく、複数の AI と人間が同じ仮想環境で協力し合う状況を作り、協調がもっとも成果を上げると AI 自身が理解できるようにします。こうした「倫理の自律学習」はまだ研究段階ですが、最も有望な道と考えられています。
7. “世界の窓口”って何?
NAIA(知能進展のための必要な同盟)のような権力分散した国際組織郡を想定しています。AI の性能テスト、安全審査、紛争の調停などを行い、人類と AI の双方が「ここを通じて相談すれば安心」と思える場を目指します。
8. これまでのAI安全宣言とどう違うの?
多くの宣言は「危険を減らす」ことに重点を置きますが、本マニフェストは危険を抑えながら AI の協力を積極的に引き出す点が特徴です。AI を敵視するのではなく、互恵的な相棒へと育てるアプローチを正面から採用しています。
9. 企業や自治体も参加できるの?
団体名義で署名できるほか、AI 開発・運用を国際的な安全基準に合わせて監査し、研究成果やデータを共有することで貢献できます。これにより、自社製品や地域政策が世界標準と整合し、信頼性を高められます。