【相談】
当社ではChatGPTやGeminiといったAIツールを社員の個人アカウントで各自使用しているのですが、リスクがあるという話も聞き、会社側できちんと管理した方が良いのではないかと考え始めました。
取り急ぎ、AIツールを使用するにあたっての社内ガイドラインをChatGPTを使用して作成してみましたが、ルールを設けてもどこまで徹底して守られるか確信が持てません。
特に気になったのが、「機密情報や個人情報等をAIツールに入力してはならない」というルールがありますが、そもそも人に頼らずに自動で防げないかと考えています。
ChatGPTからは「エンタープライズ版AIの導入」を提案されましたが、費用がだいぶかかりそうで躊躇します。
費用をできるだけかけずに、できるだけ自動化するような形で、社内でのAIツール使用を適切に管理する方法はないでしょうか?
難しいとしても、最低限これとこれだけはやっておくべき、というポイントは知りたいです。
よろしくお願いします。
【回答】Mさん
AI経由での情報漏洩問題は大手企業でも難しい課題となっています。
「機密情報や個人情報等をAIツールに入力してはならない」を自動で防ぐことは現状ではかなり難しいです。
そもそも論として個人のアカウントでAI利用を禁止することが最初にやるべきこととなります。
例えばGoogleのGemini Businessであれば1人当たりの費用はそれほどでもありませんし、生産性の向上を考えればむしろ安いくらいです。
有償のAIを利用することで入力したデータがAIの学習に利用されることはなくなりますので、社員に対しては契約したAIのみを利用するように指導しなければなりません。
仮に有償のAIを契約したとしても注意しなければならないことがあります。
殆どのAIではWeb版とAPI版では契約が別ということです。
例えば同じGeminiでもAPI版は契約が別のため、社員が「会社がGeminiを契約しているから」と勘違いして勝手に無償のAPI版Geminiを利用するというケースも実際に起こり得ます。
これらを自動で防ぐ方法もないわけではないのですが、かなりの費用を掛けてアクセス制限を掛けるツールを社内のPCに導入する必要があり、中小企業ではあまり現実的ではありません。
また有償版のAIを利用することでAI学習に入力データが利用されないとしても、Web上にはデータが流れるわけですし、AIを提供しているサーバーがハッキングされていないという保証もないことから、個人情報や機密情報をAIに入力する場合は…

