ソフトバンクや他の日本企業、ChatGPTの使用制限へ


インタラクティブAIは高い効率性を約束するが、機密データの漏洩リスクも

ChatGPTはリリースからわずか2か月後の1月に1億人以上のユーザー数を記録した。© Reuters

東京 — ソフトバンクや日立製作所を含む日本の企業が、情報漏洩やその他の懸念から、ChatGPTなどのインタラクティブな人工知能サービスの業務での使用を制限し始めている。

「会社の特定可能な情報や機密データを入力しないでください」と、ソフトバンクは先月、ChatGPTや他の業務アプリケーションの使用について従業員に警告した。

クラウドサービスやインタラクティブAIの使用に関するガイドラインはすでに存在していたが、最近チャットボットが注目を集めていることを受け、改めてルールが強調された。

ソフトバンクは、どの業務でこの技術を使用できるか、どのアプリケーションが使用可能かを定めるルールを策定する予定だ。

ChatGPTは、簡単な文章指示に基づいてデータを収集し、プログラムを生成できる。これにより業務の効率化や生産性の向上が期待される。

3月1日、開発元のOpen AIは、企業がChatGPTを自社サービスに統合できる有料のアプリケーション・プログラミング・インターフェース(API)を公開した。このサービスから収集されたデータは性能向上に使用されないと開発元は述べている。

しかし、同社のウェブサイトでは、無料でサービスを利用する場合、「提供されたデータをモデルの改善に使用する可能性がある」と示唆されている。この場合、開発中の製品などの入力情報が、他の企業の質問に対する回答に使用される可能性がある。

日立製作所は、インタラクティブAIの使用やデータの適切な利用に関する新たな倫理ルールの策定を検討する。同社は2021年に定めたAI活用のガイドラインをさらに具体化する予定だ。

テクノロジーグループの富士通は先月、ChatGPTや他のインタラクティブAIサービスに関する法的・倫理的問題(情報保護を含む)について従業員に通知した。AIの使用に関する意思決定を行う部署も設立された。

2022年2月、富士通はAIを組み込んだ製品の開発や業務利用における倫理的問題を扱うガバナンスオフィスを設立。このオフィスを通じて、インタラクティブAIのリスクについて一般に警告する予定だ。

ChatGPTはリリースからわずか2か月後の1月に1億人以上のユーザー数を記録した。マイクロソフトは、インタラクティブAIを導入した翌月に、Bing検索エンジンのデイリーユーザーが初めて1億人を突破した。この技術の企業での利用も大幅に増加すると予想される。

しかし、より多くの人々や企業がインタラクティブAIを使用するにつれて、懸念も高まっている。この技術は誤った情報の拡散やデータ漏洩を引き起こす可能性があり、一部の企業は使用を禁止している。

みずほフィナンシャルグループ、三菱UFJ銀行、住友 Mitsui 銀行は、ChatGPTや他のサービスの業務での使用を禁止している。みずほは、従業員が業務端末からサイトにアクセスできないよう制限を設けており、「従業員の不適切な使用による顧客情報や金融取引などの重要情報の漏洩を防ぐ」ためとしている。

情報技術企業のNECも、従業員によるChatGPTの使用を禁止している。

情報セキュリティ研究所の大学院教授である後藤厚宏氏は、「パソコンで簡単に使えるインタラクティブAIは、従業員の警戒心を下げるため、機密データが意図せずに入力され、社外で使用されるリスクがある」と述べた。

同氏は、「専任の社内チームがサービスをテストし、使用ルールや入力可能な情報を明確にするべきだ」と語った。

パナソニックホールディングスのグループ会社であるパナソニックコネクトは、データ漏洩やその他の問題を防ぐ措置を講じた後、インタラクティブAIを使用して文書を作成し始めた。データ漏洩のリスクを軽減するため、ソフトウェアの共同開発者であるマイクロソフトと、コンテンツをAIトレーニングなどの二次目的に使用しない契約を結んだ。

従業員には個人情報を入力しないよう警告も行われている。