ChatGPTのセキュリティ問題・リスクとセキュリティ対策

ChatGPTとは、自然言語処理技術を用いたAIチャットボットであり、対話形式で高精度な文章を生成できるサービスです。日常的なやり取りはもちろん、業務効率化やアイデア出し、コーディング支援など、企業における活用も広がっています。一方で、機密情報の取り扱いや不正利用、出力される情報の正確性など、セキュリティ面での課題も指摘されています。活用を進めるにあたっては、利便性とリスクを両立させる対策が求められます。

企業版生成AI導入アプローチ
目次

ChatGPTのセキュリティ問題

ChatGPTは、OpenAIが開発した自然言語処理モデルGPTを搭載したテキスト生成AIチャットボットです。ユーザーが入力した質問に対して、人間のような自然な文章で返答します。会話を楽しむ用途にとどまらず、業務効率化やカスタマーサポート、コンテンツ生成など、さまざまな分野で活用されています。企業での導入も進んでおり、ビジネスシーンでの利用が広がっています。

一方で、ChatGPTにはセキュリティ上の懸念があります。2023年3月には有料版ChatGPT Plusの会員情報が流出する事故が発生しました。同時期には海外の電子機器メーカーにおいて、ChatGPTの利用を通じて開発情報が漏洩した可能性があると報じられました。このような事例からも、利便性と同時に情報管理のリスクに十分な配慮が求められます。

ChatGPTは2022年11月に公開されましたが、その基となるGPTの初期バージョンは2018年に開発されています。チャット形式のインターフェースを採用したことで、自然な対話が可能となり、社会現象といえるほど急速に普及しました。公開から5日でユーザー数が100万人を突破したことからも、その注目度の高さがうかがえます。

法人利用が進む中でのセキュリティ意識

ChatGPTは個人利用だけでなく、企業や自治体でも導入が進んでいます。たとえば、政府のデジタル庁では約半数が生成AIを活用しているという調査結果があります。特に大企業や官公庁では、機密性の高い情報を扱う機会が多く、セキュリティへの配慮が一層重要となります。

業務効率化を図る中で、従業員が社外秘の売上目標や製品別の売上状況といった内部情報を、意識せずにChatGPTに入力してしまうケースが懸念されます。こうした状況は、Google翻訳など他のツールでも同様です。利便性が高いツールほど、情報漏洩への意識が薄れがちです。

OpenAIのFAQでは、「機微情報は会話で共有しないでください」と書かれています。「入力」ではなく「共有」という言葉が使われており、ChatGPTとの会話内容がOpenAIに共有される場合があるため、入力内容が第三者に閲覧される可能性を常に考慮する必要があります。

プライバシーポリシーの確認と情報の扱い

ツールやサービスを利用する際には、セキュリティ対策やプライバシーポリシーの内容を確認することが重要です。OpenAIのプライバシーポリシーには、サービスの改善や不正利用の防止、研究目的などで個人情報を利用する可能性があると記載されています。ただし、個人情報は匿名化され、再識別の試みは行わないと明記されています。

また、法的要件や事業譲渡などの特定の状況では、個人情報が第三者に開示される可能性があるとされています。このような対応は他の多くのサービスでも見られますが、利用者としては運営母体やその方針について定期的に把握しておくことが求められます。

ChatGPTに入力したデータは、OpenAIのサーバに保存され、一部のデータは開発や改善のために分析される場合があります。その際も、個人情報が特定されないよう匿名化処理が行われるとされています。

データの保存先と技術的対策

OpenAIが提供するAPIのガイドラインでは、インフラはアメリカ合衆国に設置されているとされています。また、今後は冗長性確保のためにグローバル展開を検討していると明記されています。米国の法律に従い、国家安全保障関連の要請によりデータへのアクセスが行われる可能性もあります。この点は、日本国内での法執行対応と同様と考えることができます。

サービスを導入する際には、運営元が公開している情報をもとにセキュリティ体制を確認し、必要に応じて監査などの対応を行うことが重要です。ChatGPTに関する公開情報では、暗号化、アクセス制御、ファイアウォール、サーバの監視、データのバックアップなど、複数の技術的・組織的対策が実施されているとされています。

ChatGPTのセキュリティリスク

ChatGPTは、OpenAIが開発した自然言語処理モデルを基にしたAIチャットボットで、あらゆるトピックに対する自然な対話を実現します。企業でも業務効率化や顧客対応、コンテンツ生成などで導入が進んでおり、サイバーセキュリティ分野にも大きな影響を与えています。

新しい技術には利便性と同時にリスクが伴います。ChatGPTも例外ではなく、悪用される可能性や悪意がない利用でも情報漏洩につながる危険性が存在します。

機密情報やアカウント情報の流出

ChatGPTは入力された情報を学習データとして扱う可能性があるため、機密情報や個人情報を入力すると、他のユーザーへの出力に含まれるリスクがあります。FAQでも「機密情報は共有しないでください」と明記されており、履歴から特定のプロンプトを削除することもできません。

Web版では学習が行われる仕様のため、特に注意が必要です。また、アカウント情報の流出によっても情報漏洩の可能性があります。実際に、シンガポールのセキュリティ企業Group-IBは、10万件以上のChatGPTアカウント情報がダークウェブで取引されていると報告しています。

このようなリスクを避けるためには、業務で機密性の高い情報を扱わない、または情報を遮断する設定やアカウント管理を徹底する必要があります。

参考:https://xtech.nikkei.com/atcl/nxt/column/18/00676/070900138/

誤情報・ハルシネーションのリスク

ChatGPTは自然な文章を生成する能力に優れていますが、出力される内容が必ずしも正確とは限りません。ChatGPTはユーザーの入力に対して次の言葉を予測して生成する仕組みであり、情報の正誤を判断する機能はありません。

このため、もっともらしい文章であっても、誤情報を含む可能性があります。こうした誤った情報の出力はハルシネーションと呼ばれ、特に医療や法律などの分野では深刻な影響を及ぼしかねません。

また、ChatGPTが生成するプログラミングコードにも注意が必要です。生成されたコードにセキュリティ上の欠陥がある場合、それを本番環境に導入すると不正アクセスなどのリスクが生じます。AIが生成したコードや情報は必ず人の目で確認し、リスク評価を行う必要があります。

不正利用・悪用のリスク

生成AIを利用した不正行為のリスクも見逃せません。2024年5月には、生成AIを用いてコンピュータウイルスを作成したとして、男性が逮捕されました。生成AIによる違法コンテンツの生成は、法的責任を問われる可能性があります。

社内で生成AIを安全に利用するためには、明確な利用ポリシーを策定し、従業員による悪用を防ぐ体制づくりが必要です。

参考:https://www.trendmicro.com/ja_jp/jp-security/24/e/breaking-securitynews-20240529-02.html

退職後のアカウント管理の不備

従業員が個別にChatGPTのアカウントを作成・利用していた場合、退職後もそのアカウントが残り、企業情報にアクセスできるリスクがあります。組織としてのアカウント管理やアクセス制限を明確にすることが求められます。

法人向けGPTサービスにおける課題

ChatGPTにはWeb版とAPI版があり、法人ではAPI版を用いたサービスが提供されています。API版ではログ管理やフィルタ機能が追加されることが多い一方、ベンダーによっては必要な機能が不十分な場合もあります。導入時には、禁止ワード設定や監視機能の有無など、セキュリティ機能を必ず確認する必要があります。

知的財産権侵害のリスク

ChatGPTが生成する文章が既存の著作物に類似している場合、著作権侵害に該当する恐れがあります。ChatGPTは著作権の有無を自動で判断できず、第三者の権利を侵害する表現を含む可能性があります。

生成されたコンテンツをそのまま公開・販売することは避け、企業ブログや記事で活用する場合は必ず内容をチェックし、独自性を加える必要があります。

サイバー攻撃に悪用されるリスク

ChatGPTは高度な言語生成能力を悪用される可能性もあります。例えば、フィッシングメールの作成指示に対して、それらしい文章を短時間で生成できるケースがあります。こうした指示に対しては、ChatGPTが応答しないよう設計されていますが、プロンプトの工夫により突破される例もあります。

また、ChatGPT自体がサイバー攻撃の対象になることもあり、連携サービスを通じて企業情報が漏洩するリスクも考えられます。ビジネスでChatGPTを活用する場合は、サイバー攻撃リスクも視野に入れて対応する必要があります。

ChatGPTのセキュリティ対策

法人がChatGPTを安全に活用するには、明確な利用ポリシーの策定、アクセス管理、情報の取り扱いに関する技術的対策が不可欠です。従業員の個別判断での利用を防ぎ、組織全体での統一的な運用が求められます。

利用ポリシーの策定とアクセス制限

ChatGPTの利用可否や活用範囲を明確にしたポリシーを定め、全社員に周知することが必要です。ポリシーの中では、機密情報の入力禁止や出力データの取り扱いルールも明記します。

また、利用を制限する場合は、プロキシやWebフィルタリングなどを用いて技術的にアクセスを制御する仕組みが重要です。全社員禁止や一部社員のみに許可するなど、業務実態に応じた運用を行いましょう。

入力情報の制限と技術的防御

セキュリティを強化するには、ChatGPTへの入力内容の制御も必要です。たとえば、特定のファイルや情報のコピー&ペーストを制限する仕組みを設けることで、誤入力のリスクを低減できます。また、入力内容のモニタリング体制を設け、上長や情報システム部門がチェックできるようにするのも有効です。

チャット履歴の無効化設定

ChatGPTのChat History & Training設定(チャット履歴)をオフにすると、会話内容が学習データとして利用されなくなります。Web版でこの設定を行うことで、情報漏洩リスクを軽減できますが、個人設定に依存するため法人利用では補完的な対策が求められます。

法人向けサービスの活用

ChatGPT EnterpriseやAPI版、Azure OpenAI Serviceのような法人向けプランを利用することで、AI学習からの除外やSOC2準拠のセキュリティ機能など、高いレベルの対策を講じることができます。特にAPI経由での利用では、入力内容がモデルの学習に使われず、より安全に情報を扱うことが可能です。

正しい利用方法のガイドライン整備

社内ルールとして、ChatGPTの利用に関するガイドラインを整備することが重要です。利用シーンや入力可能な情報、出力結果の使い方などを明示することで、従業員が迷うことなく運用できるようになります。

生成AIに関する外部のガイドラインも参考にしながら、自社に最適な基準を設けましょう。

機密情報の入力禁止とリテラシー向上

最も基本的なセキュリティ対策は機密情報を入力しないことです。ChatGPTの出力精度が高くても、機密情報の誤入力がトラブルの原因になることは避けられません。従業員に対しては、生成AIに関する基礎知識とセキュリティリスクに関する教育を継続的に実施し、「知らなかった」では済まされないリスクへの備えを強化します。

出力内容のチェックと修正

ChatGPTが生成する文章やコードは、必ずしも正確とは限りません。誤情報や著作権に抵触する内容、セキュリティ上の欠陥を含む可能性があります。

出力結果は必ず人間が確認し、必要に応じて修正・補強してから活用するよう徹底します。専門知識が必要な内容(法律、医療、プログラミングなど)は、社内の有識者によるチェックを推奨します。

フィッシング対策としての公式確認

ChatGPTの利用にあたっては、ChatGPT公式サイトやアプリを利用するように注意喚起を行いましょう。不正なURLや偽アプリの存在も報告されており、登録時やアクセス時には正当性の確認が必要です。

学習させるデータへの配慮

業務でChatGPTを使用する場合、学習対象となるデータに配慮し、個人情報や機密情報が含まれないように注意する必要があります。設定により学習機能を無効化できるため、該当するオプションを必ず有効にし、入力内容が蓄積されないよう対処します。

あわせて、チャット履歴と学習設定が分離された最新の仕様を踏まえ、履歴保存と情報制御を適切に運用してください。

最後に

ChatGPTの活用が進む中で情報漏洩や誤情報の拡散、知的財産の侵害といったリスクへの理解と対応が重要となっています。法人利用においては、技術的な制限やガイドラインの整備に加え、従業員のリテラシー向上も不可欠です。API版や専用プランの導入、学習設定の管理などを通じて、適切なセキュリティ対策を講じることが求められます。安心して生成AIを活用するためには、組織としての継続的な取り組みがカギとなります。

企業版生成AI導入アプローチ
ProFabのAI導入サービスを詳しく見る!!

生成AIコンサルティング

全社に広くAIを普及させたい方。AI活用の構想策定、要件定義、ChatGPTなどAIツールの活用法をレクチャー。


AIアプリケーション開発

AIによる効果を深く享受したい方。AIワークフロー開発ツールDify、RAG、LLMを用いてAIアプリケーションを開発。

シェアをお願いします!

執筆者

慶應義塾大学卒業後、総合化学メーカーを経てデロイトトーマツコンサルティングに在籍。新規事業立ち上げ、M&A、経営管理、業務改善などのプロジェクトに関与。マーケティング企業を経て、株式会社ProFabを設立。ProFabでは経営コンサルティングと生成導入支援事業を運営。

TechTechでは、技術、ビジネス、サービス、規制に関する最新ニュースと、各種ツールの実務的な活用方法について、初心者でも理解できる明瞭な発信を心掛ける。日本ディープラーニング協会の実施するG検定資格を保有。

目次