目次
概要
職場で使う生成AIの5大リスクと正しい対処法
内容
生成AIを利用している企業が抱える課題
- 不正アクセス
- コストの増加
- 情報漏洩
- ハルシネーション
- 法規制対応の遅れ
不正アクセス
内容
ネットワーク設定の不備や権限の過剰付与、退職者のアカウントを利用した業務データの不正使用
対策
「接続させない(ネットワーク制御)・使わせない(権限制御)」ための基本構成の徹底。
コストの増加
内容
従量課金型サービスの過剰利用による高額請求。
対策
クラウドコストの最適化を図るFinOps(Financial Operations)の考え方が鍵。コストの「見える化」「無駄の抑制」「リソースの最適化」という3つの観点から、継続的にコストを管理、最適化することが重要。
情報漏洩
内容
プロンプト入力を通じて意図せず機密情報が外部に流出など。
プロンプトとは?
AIに特定の指示や質問を与えるための入力文のことです。生成AIに「何を」「どのように」生成してほしいかを伝えるための命令文であり、プロンプトの内容によってAIの出力結果が大きく変わるため、その質が重要になります。
対策
情報に関わるリスク管理が重要であり、本記事では「インプットにおけるリスク」「アウトプットにおけるリスク」「外部環境に起因するリスク」「内在的なリスク」に分類して説明されている。
- インプットにおけるリスク:ユーザーが入力した機密情報がAIモデルに学習され、意図せずに情報漏洩につながる危険性
- アウトプットにおけるリスク:AIが事実と異なる情報や偏見を含む内容、いわゆるハルシネーションを生成し、それがユーザーや顧客に提供される
- 外部環境に起因するリスク:AIに関する法規制への対応遅れや企業イメージに悪影響を及ぼすレピュテーションリスク
- 内在的なリスク:著作権の侵害や個人情報の不適切な扱い
レピュテーションとは?
一般的に「評判」や「風評」を意味する言葉で、ビジネスや情報セキュリティの分野で使われます。ビジネスにおいては、企業やブランドに対する世間からの評価を指し、情報セキュリティにおいては、ファイルやサーバーの過去の利用状況や実績を基にした信頼性の評価を指します。
これらのリスクに対して、「セキュア・バイ・デザイン」と「責任あるAI」という2つの原則に基づいたアプローチを提示。
前者はAIシステムの設計段階からセキュリティを組み込むことで、より安全かつ持続可能な運用を実現する考え方。(セキュリティテストやシステムの堅牢化、ID管理、認証・認可、データ保護、セキュリティ運用体制の整備など)
その中でもID基盤の設備が極めて重要だと強調。ID管理とロールベースアクセス制御(RBAC)、ソフトウェアサプライチェーン対策を組み合わせる。
ソフトウェアサプライチェーン対策とは?
ソフトウェアの設計、開発、配布、保守といったライフサイクル全体にわたるセキュリティリスクを管理し、攻撃から保護するための対策のことです。サードパーティのコードやコンポーネント、開発環境、委託先など、ソフトウェアに関わるあらゆる要素を対象に、脆弱性や不正アクセス、改ざんなどを防ぐための対策を講じます。
後者は、AIシステムに関わる倫理、プライバシー、セキュリティなどの潜在的な課題に対して、企業や組織が主体的かつ継続的に取り組む姿勢。
ハルシネーション
内容
事実に基づかない情報を正確なもののように出力する。
対策
情報漏洩の対策と同様
法規制対応の遅れ
内容
欧州連合(EU)のAI規制法などの法規制への対応が遅れると、欧州市場での事業展開に支障をきたす。
対策
特にグローバルにビジネスを展開する企業にとって重要性が高く、EUのAI規制法をはじめ国際的な法制度において、自社に関連するリスクレベル、利用条件、順守すべき要件を正確に把握する必要がある。
最後に
AIのリスク対策に対する基本的な考え方は大きく変わらず、アクセス制御やコスト管理、データ保護が重要であることや、今後の戦略としてこれらを高いレベルで顧客に提供することが競争性で優位に働くことを理解しました。
参考
https://kn.itmedia.co.jp/kn/articles/2506/27/news004.html