米グーグルの持ち株会社、米アルファベットが、自社の「Bard(バード)」も含め、対話AI(人工知能)の使用方法について従業員に注意喚起していると、ロイター通信が報じた。
機密情報の入力禁止
グーグルは、米オープンAIの「Chat(チャット)GPT」に対抗するべく、BardをはじめとするAIサービスの開発に力を入れている。しかし、情報漏えいへの懸念を理由に機密情報を対話AIに入力しないよう従業員に指示した。ロイターによると、アルファベットは、同社が長年導入している情報保護に関する社内規定を例に示し、その事実を認めた。
利用者がChatGPTやBardに入力する会話は、サービス提供会社の担当者が内容を読む可能性がある。AIは、機械学習の際にプログラムによって吸収されたデータを再現できる、と研究者らは指摘している。
また、アルファベットはエンジニアらに対して、AIが生成したコンピューターコードをそのまま使用しないようにと警告した。
グーグルはロイターの質問に対し、「Bardは望ましくないコードを提案する可能性があるが、それでもプログラマーの助けになる」と述べた。グーグルはまた、自社技術の限界について透明性を確保するとも述べた。
本記事は、日本ビジネスプレス社のサイト「JBpress(日本ビジネスプレス)」向けに弊社が執筆した記事「グーグル、社内で対話AIの利用制限 情報漏えい懸念 業務でChatGPT制限 広がる新しいセキュリティー標準」の一部です。全文は、JBpress(日本ビジネスプレス)のサイトにてお読みください。