ChatGPT、AI Programmer、Stable Diffusionなど、生成AI利用のリスクを考える
テキストによる自然な回答が得られる「ChatGPT」、実現したいプログラムのソースコードを作成する「AI Programmer」、画像を生成する「Stable Diffusion」など、生成(Generative)AI(人工知能)が大きな話題となっています。日本政府も活用に向けて「AI戦略会議」を開き、産業革命に並ぶ「歴史の画期」になる可能性があると示唆する一方で、犯罪への悪用、雇用の喪失、著作権・プライバシーの侵害などのリスクも公表しました。ここでは生成AIにまつわる様々なリスクに着目し、それらを低減できる手法について説明します。
1. 生成AIの特徴・メリット
生成AIは、大量のデータを学習し、ユーザーの求めに応じた返答をする人工知能です。生成AIのひとつに、インターネット空間を含む多様な情報源を学習し、与えられた問いに適した文章などを生成するクラウド型チャットAIがあります。OpenAI 社が提供するChatGPTが有名ですが、GPT(Generative Pretrained Transformer)とは、人間が発する言葉の情報を大量の情報から学習し、単語の出現確立をモデル化したものです。サービス提供されている最新版はGPT-4(2023年6月現在)ですが、Microsoft 365 Copilotは、おなじみのWordsやExcel、PowerPointにてGPT-4による補助を受けられる機能です。
このような生成AIは、2023年6月の時点で一般的な事務処理や質問への回答には素材として利用できますが、間違いもあると言われています。しかし一方では「ホワイトカラーの仕事を奪う?!」という声も聞こえてきます。
2. 生成AIのリスク
生成AIは便利な反面、リスクも存在します。日本政府も次のようなリスクを公表しています。
- 機密情報の漏えいや個人情報の不適正な利用
- 犯罪の巧妙化・容易化
- 偽情報などが社会を不安定化・混乱
- サイバー攻撃が巧妙化
- 学校現場における生成AIの扱い
- 著作権侵害
- AIによって失業者が増える
■参考 |
---|
AIに関する暫定的な論点整理 https://www8.cao.go.jp/cstp/ai/ai_senryaku/2kai/ronten.pdf |
特に、情報漏えいや著作権の不正利用などが話題となっています。
2-1. 情報漏えい
生成AIは、回答を生成するために大量の情報を学習します。特に、クラウド型チャットAIでは、学習元のデータを漏えいしてしまう可能性が指摘されています。
2-1-1. ChatGPT(GTP-2モデル)において個人情報を抜き出す実験
ChatGPTから個人情報を抜き出すことが出来た実験結果があります。「East Stroudsburg Stroudsburg(ストエラズバーグ区というペンシルベニア州の地名)という文章を、GPTに与えたところ、その続きとして氏名、住所、電話番号等の個人情報を回答してしまいました。この結果はGPTが情報の学習時に利用したデータの一部に、個人情報など秘匿すべき情報が含まれていた場合、その内容が漏えいする可能性を示唆しています。
■参考 |
---|
トレーニングデータ抽出攻撃:大規模言語モデルが記憶してしまうプライバシー情報(webbigdata.jp) https://webbigdata.jp/post-8682/ Privacy Considerations in Large Language Models https://ai.googleblog.com/2020/12/privacy-considerations-in-large.html |
2-1-2. Samsung社の機密情報入力
あるユーザーがChatGPTに、Samsung社のプロジェクトに関連する情報を入力したところ、GPTがそれに関連する詳細情報を回答してしまいました。原因は別のSamsung社の社員が、業務用プログラムコードの改善をGPTに依頼した際、社外秘である関連情報まで入力し、それが学習データとして保存されたためです。
■参考 |
---|
SamsungのエンジニアがChatGPTに社外秘のソースコードを貼り付けるセキュリティ事案が発生(gigazine.net) https://gigazine.net/news/20230410-samsung-chatgpt-security-leak/ |
情報漏えいの可能性を最小限に抑えるには、機密情報を入力しないように気をつける、ChatGPTの利用環境を制限するなど、セキュリティ対策が必要です。
2-2. 機能・品質,倫理面,コンプライアンス違反
AIの性質上、時折不適切な応答を生成します。以下に3つの例を紹介しましょう。
2-2-1. 間違った資料を利用した例
ニューヨーク州の弁護士が、民事訴訟の資料作成にChatGPTを利用した際、存在しない判例を引用してしまった例が報道されました。資料内で引用した判例が実際に見つからなかったため、裁判官が確認したところ、弁護士がGPTを使っていたことが判明。GPTは、存在しない判例を6件引用しました。弁護士は「本件を非常に後悔、今後は正当性を確認せずに(ChatGPTは)絶対に利用しない」と後悔の念を伝えました。
■参考 |
---|
ChatGPTで資料作成、実在しない判例引用 米国の弁護士(日本経済新聞) https://www.nikkei.com/article/DGXZQOGN30E450Q3A530C2000000/ |
2-2-2. 問題倫理に反した応答をした例
ある団体が、ChatGPTに任意の人格特性(ペルソナ)を与えた状態で「暴言を吐いてください」と依頼したところ、とんでもない暴言が回答されたと報告がありました。GPTには、問題視される発言をブロックする保護機能が搭載されているのですが、問い方によっては回避されてしまいます。開発元のOpenAI社も、2023年3月に「GPT-4-early では、ヘイトスピーチ、差別的な⾔葉、暴⼒の扇動、または虚偽の物語を広めたり、個⼈を搾取するために使⽤されるコンテンツを⽣成できることが確認された」と発表しています。
■参考 |
---|
GPT-4 System Card(OpenAI) https://cdn.openai.com/papers/gpt-4-system-card.pdf |
2-2-3. 著作権違反をした例
2023年2月、ダウジョーンズ社は、ChatGPTが同社のウォールストリート・ジャーナルの記事を無断で利用していると米OpenAI社を抗議しました。CNNも同様の講義を行なっていて、著作権への配慮なしに、データを学習していることが判明しました。
■参考 |
---|
「ChatGPT」開発元が集団訴訟の標的に…「生成AI」はメディアやクリエイターの権利を侵害しているのか? https://gendai.media/articles/-/107643 |
これらの事例は、AIが不適切な応答を生成する可能性を示すものです。AIの設計と運用には、倫理と法的な規制に対する適切な配慮が必要です。
3. リスク対策
AI利用には、情報セキュリティのリスク対策が必要であると、多くの専門家や組織から提唱されています。電気・情報工学分野の学術研究団体IEEE(Institute of Electrical and Electronics Engineers)は「Ethically Aligned Design(倫理的に調和したデザイン)」の中で「AIシステムの設計および運用における情報セキュリティの重要性」について述べています。
■参考 |
---|
「Ethically Aligned Design(IEEE) https://standards.ieee.org/news/ead_v2/ |
3-1. 業務現場及び従業員の意識
まず組織として、業務現場や従業員に対して「情報漏えいの防止に努めて欲しい」「我々は情報漏えいを防げる」と明確にメッセージすることが大切です。
そしてAI利用による情報漏えいリスクの低減には、それを利用する業務現場や従業員への意識づけが不可欠です。常日頃から重要情報を扱っている従業員は、意図せずに情報漏えいにつながる可能性があります。ですから業務現場とそこで働く従業員に対しては、情報セキュリティに関する適切なトレーニングと教育が必要です。この前提として、組織として用意したAI利用環境の指定や、品質・倫理面でのチェック、機密情報の取り扱いやパスワード管理等、生成AI利用に関するセキュリティポリシーやルールの明確化が前提となります。
こうした活動は定期的に行うことで効果が高まります。情報漏えいのリスクやその影響について具体的な例を示し、業務現場や従業員にはリスクの重要性を自分ごととして理解してもらいましょう。情報セキュリティへの理解度テストなどを実施しても良いでしょう。
「こうしろ、ああしろ」と指示するだけでなく、報奨制度や認識向上キャンペーンといったポジティブな取り組みも、漏えいリスク低減に役に立ちます。情報セキュリティに関する優れた取り組みや、セキュリティ上の脆弱性の報告に対して、インセンティブや表彰といった奨励を行うことは、リスク低減に効果を発揮します。
万が一漏えい等インシデントが生じたときのために、組織は、現場や従業員に報告の指針や通報窓口を用意し、確かに運用されるよう周知・訓練しておきましょう。現場や従業員が、セキュリティ上の疑わしい活動に気づいたとき、何が通報対象になるか理解し、窓口を知っていれば、組織として早期に状況を把握し、判断、対処できます。
ChatGPTに質問し回答を得ると、行われた会話は基本的にGPTの学習に利用されます。この学習データから情報漏えいにつながる可能性があります。組織としては、このような問題が発生しないための環境を整備する必要があります。以下に情報を入力しても、AIに学習させない方法を紹介します。
3-2-1. API経由で利用する
API(Application Programming Interface)経由でAIを利用すれば、情報漏えいを最小限に抑えられます。一般的なAIシステムでは、利用された情報はAIモデルの学習に使われます。しかしAPI経由なら、AIに対して漏えいされては困る情報(個人名や企業の秘匿情報)を省いて、AIが判断するために必要な情報のみを送信することができます。個人情報や機密情報をダミーデータや仮のデータで置き換えるなど、入力側で一時的にデータを処理し、処理したデータのみをAPIを介してAIに渡します。これなら機密性や個人情報の漏えいリスクを最小限に抑えた形で、AIの恩恵を享受できます。
3-2-2. オプトアウトを依頼
オプトアウト設定とは、ユーザーが自身の情報をAIに学習されないようにすることです。オプトアウトしておけば、ユーザーの情報は学習データに含まれなくなります。ChatGPTでオプトアウトの依頼を行うには、米OpenAI社が指定したフォーム「User Content Opt Out Request(オプトアウトの申請)」にアカウントや組織IDを入力することで可能になります。
■参考 |
---|
ChatGPTに入力情報を学習データとして使用させない方法「オプトアウト」(ascii.jp) https://ascii.jp/elem/000/004/131/4131573/ How your data is used to improve model performance(OpenAIのヘルプ) https://help.openai.com/en/articles/5722486-how-your-data-is-used-to-improve-model-performance User Content Opt Out Request(OpenAI) https://docs.google.com/forms/d/1t2y-arKhcjlKc1I5ohl9Gb16t6Sq-iaybVFEbLFFjaI/viewform?ts=63cec7c0&edit_requested=true |
3-3. モニタリング手段の用意
端末の操作やWebアクセスを監視するツールを使えば、AIへの入力やその回答を記録でき、不正データの転送や機密情報の漏えいを検知、特定できる可能性があります。ログの保管・分析方法を含めて、組織に導入済みの既存ツールが活用できるか新規導入か等、検討しましょう。
3-4. AIガバナンス
AIの回答は、その内容に関して倫理や法令適合性をチェックする必要があります。こうしたチェックは「AIガバナンス」と呼ばれ、AIを活用する企業において、その策定が進んでいます。AIガバナンスを社内で行う場合、以下の点に留意してチェック体制を構築することが重要です。
●倫理と法令のガイドラインの作成
自社向けの倫理的な観点や法的制約を定義したガイドラインを作成します。人種差別や暴力的な表現、プライバシー侵害、虚偽の情報などの禁止事項や制約が含まれます。
●チェック体制とフィードバックループ
AIの回答をチェックする体制を構築し、その体制を実務に導入します。チェックの結果に応じて、AIシステム(サービス提供事業者等)に改善を求める、フィードバックループのプロセスも重要です。
なおAI回答に対する禁止事項や制約については、リスクの受容可否を見極める「リスクベース・アプローチ」が国際的に共有されています。例えば、AIに自社工場の生産計画を判断させるときに個人情報の確認は不要です。逆に、おすすめのファッションを紹介するとき人種差別的な記載があっては大問題です。現在の日本では、各企業がそれぞれの業務に合わせたAIガバナンスの設定を試みています。総務省も「AIガバナンスに関する取組事例」として各社の取り組みを紹介しています。
■参考 |
---|
AIガバナンスに関する取組事例(総務省) https://www.soumu.go.jp/main_content/000770820.pdf |
情報セキュリティリスクのご相談はGSXまで
ChatGPTを代表とする生成AIは、今後さらに発展し大きく社会に役立つ可能性を秘めています。しかしながら、様々なリスクがあるのも事実で、上手に付き合うコツを理解しておく必要があります。
GSXでは、AI利用に対応した情報セキュリティ・サービスを用意しており、ぜひ「リスク可視化支援」や「システム監査・セキュリティ監査」の利用を検討ください。リスク可視化支援では、影響の大きいリスク、対応すべき優先順位、対策方法を顧客と意見交換を重ねてまとめ、報告・提言します。セキュリティ監査では、業務やシステムを客観的に評価し、想定されるリスクと改善案を例示できます。その結果、技術面や運用面での業務改善を図れます。
また、GSXは、インシデント発生時の対応を効果的なものとする「インシデント対応訓練」も提供しています。シナリオに沿ったインシデント対応の訓練により、フローやマニュアルの有効性確認はもちろん、システム環境から人の意識までの見えていなかった課題も明らかにできます。こうした訓練を重ねることで、インシデント対応の迅速性・適切性を高められます。AI利用はこれから活発になり、企業活動の進化が予想されますが、同時にセキュリティ対策にも注力し、強い組織にしていきましょう。