人工知能(AI)の安全性を検証する米国の非営利団体「センター・フォー・AIセーフティー(CAIS)」が、AIには人類を滅亡させるリスクがあるとし、警鐘を鳴らした。
「人類絶滅リスクの軽減は世界の優先事項」
5月30日付で発表した声明には、AI研究の第一人者として知られるジェフリー・ヒントン氏や、対話AI「Chat(チャット)GPT」を開発した米オープンAIのサム・アルトマンCEO(最高経営責任者)など、350人以上が共同で署名した。
「AIによる(人類)絶滅のリスクを軽減することは、パンデミックや核戦争などの社会的なリスクと同様に、世界の優先事項であるべきです」
上述したように、声明はわずか1行の簡潔なものだった。だが、それには理由があるという。
CAISによれば、AIの専門家やジャーナリスト、政策立案者、そして一般の人々は、AIによってもたらされる重要かつ緊急的なリスクについて議論するようになってきた。だが、重大なリスクがあるにもかかわらず、懸念を表明することが困難な場合があるという。今回の簡潔な声明文は、この障壁を克服し、議論を開始することを目的としているという。また、このリスクを深刻に受け止めている専門家や公人が増えていることを社会に周知させる目的もあるという。
本記事は、日本ビジネスプレス社のサイト「JBpress(日本ビジネスプレス)」向けに弊社が執筆した記事「AIに「核戦争と同じ滅亡リスク」、テック幹部ら警鐘 オープンAIやグーグルの幹部ら350人超が共同声明」の一部です。全文は、JBpress(日本ビジネスプレス)のサイトにてお読みください。