catch-img

必見!生成AI画像・動画の活用で企業が注意すべきポイントとは?

近年AI技術は目覚ましい発展を遂げています。WEBサービスや電子機器など、様々なものにAIが組み込まれ、今や私たちの生活の一部と言っても過言ではないでしょう。
 
そんな中、ひときわ注目を集めているのが「生成AI」です。人が入力した質問や問いかけに対して自然な会話を返す「ChatGPT」はその代表例であり、今では誰もが一度は名前を聞いたことがあるのではないでしょうか。

ChatGPTは過去のコラムで取り上げたこともありますので、宜しければそちらもご覧ください。
https://www.wise-works.com/information/media-23004

また、最近ではある飲料メーカーが日本で初めて生成AIタレントをCMで起用し、大きな話題となりました。その仕上がりは本物の人間と見分けがつかないほどで、今後様々な業界での貢献も期待されています。
 
一方で、生成AIはその有用さから悪用される事例も後を絶ちません。また、著作権をはじめとした複数の問題が指摘されており、使い方を誤れば世間からのバッシングを受ける危険性も存在します。
今回はそんな生成AIについて、企業が注意すべき点を解説したいと思います。

目次[非表示]

  1. 1.生成AIとは
  2. 2.生成AIの問題点
    1. 2.1.①著作権の侵害による批判
    2. 2.2. ②フェイク画像・動画による情報の錯綜の発生
    3. 2.3.③情報漏えい
    4. 2.4.④嫌悪感の喚起
  3. 3.企業が注意すべきリスク
    1. 3.1.①企業ロゴや発信素材の悪用
    2. 3.2.②ビジネスメール詐欺(BEC)の危険性
    3. 3.3.③セキュリティリスク
  4. 4.生成AIへの対応策
    1. 4.1. ①従業員のリテラシー向上
    2. 4.2. ②モニタリング機能による異常検知
    3. 4.3. ③信頼できる環境の構築
  5. 5.まとめ


生成AIとは

生成AIとは、文章や画像、音声などを自動で生成するAIのことです。生成のために学習を行うことが大きな特徴であり、画像や言語のパターンや構造を学習することで、人間のようにクリエイティブな成果物を生み出すことができます。
 
また、生成AIを活用すれば加工した画像や映像、音声を合成し、誰でも簡単に実在しない内容をリアルに再現することもできます。このような生成物は「ディープフェイク」とも呼ばれ、エンターテイメントや学術的な分野での応用が期待されています。
※ディープフェイクは、ディープラーニング(深層学習)とフェイク(偽物)を組み合わせた造語
 
企業や自治体でも、冒頭でご紹介したAIタレントを起用したCMの他、作成業務効率化や書類作成支援、自動ニュース配信などの様々な用途で生成AIが活用されており、その影響は今なお広がり続けています。

生成AI問題点

生成AIは上手に利用すれば私たちの生活をより豊かにしてくれる一方で、複数の問題点も指摘されています。代表的なものでは、学習プロセスにおいて著作権に抵触するデータが使用されている場合がある点や、高度なフェイク動画による情報の錯綜などが挙げられます。こうした状況を踏まえ、過去に生成AIが問題となった事例を見ていきましょう。

①著作権の侵害による批判

大手寿司チェーンは、自社で提供するサーモンの魅力を伝えるために、AIで生成したサーモンの画像を複数枚X(旧:Twitter)に投稿しました。しかし、AIが生成する画像はインターネット上の既存のイラストや写真を無断で使用している可能性があることから、著作権の侵害に該当するのではないかと非難する響きが多く寄せられました。

 
②フェイク画像・動画による情報の錯綜の発生

2022年に台風の影響で発生した水害をめぐり、「ドローンで撮影された静岡県の水害」と称してX(旧:Twitter)に投稿された画像が、生成AIによるものであった事例が注目を集めました。実際の被災状況とは大きく異なる内容が描かれていたことから、フェイク画像が情報の錯綜を招いたとして物議を醸しました。
その他、直近では岸田首相の顔と声を用いて卑猥な発言をさせるフェイク動画が大きな話題となりました。海外にも目を向けると、アメリカの国防総省付近での爆発を偽装したフェイク画像がニューヨーク株式市場に影響を与えた事例や、ウクライナの大統領夫人のフェイク画像がロシアによる情報戦の一環として使用された事例も見られます。


③情報漏えい

海外の総合家電・電子製品メーカー(B社)では、社員が企業秘密である情報をAIに入力したことで、AIの開発元の企業にB社の保有する技術情報が漏えいする事態となりました。さらに、この問題は第三者がAIに疑問を行った際にその企業秘密を参考にした回答を行うという危険性にもつながっています。

④嫌悪感の喚起

生成AIの利用は倫理的な観点から問題視される場合もあり、安易な利用が世間からのバッシングにつながったという例も存在します。

2023年にアメリカで銃乱射事件が発生した際に、ある大学から送られた追悼メッセージが生成AIによって作成されていたことが判明しました。「感情の無い機械に追悼文を書かせるなんて」「追悼文に効率を求めるのはおかしい」など、不適切な利用だとの批判が噴出し、後日問題となった大学はこの騒動に対する謝罪文を公表しています。
 
日本でも、学校紹介ポスターにAIイラストが利用されたことで、「この高校は信頼できない」「他人の作品を平気で盗用するようなモラルを教えるのか?」といった批判が寄せられた事例も存在します。

企業注意すべきリスク

また、自身で生成AIを利用していなくても、他者(社)が生成AIを悪用することで被害を受ける可能性も考えられます。ここでは、特に注意したいリスクを3つ紹介します。

①企業ロゴや発信素材の悪用

AI技術を使えば、企業の公式ロゴや広告素材を模倣し、それを不正な広告や情報発信に利用することが可能です。このような行為が行われることで、企業のブランドイメージが損なわれる恐れがあります。

②ビジネスメール詐欺(BEC)の危険性

AIを利用したリアルな音声や文書を生成することで、企業の幹部や重要な取引先を装った詐欺目的のメッセージが送られてくる可能性があります。現在はAIで生成された文章や音声には違和感が残る場合も多いですが、今後のテクノロジーの発達により被害の増加が予想されます。


③セキュリティリスク

先ほど生成AIを利用することで情報漏えいのリスクがあるとご紹介しましたが、自身がAIを使わずとも情報漏えいが発生するリスクも考えられます。より高度なマルウェアが短時間で作成されたり、生体認証が突破される危険性も高まっており、フィッシング詐欺やシステムへの侵入に対する警戒を強める必要があります。

生成AIへの対応

では、企業としてこのような生成AIリスク面に対しどのような対策を行えばよいでしょうか。

最後に考えられる対策を3つ紹介したいと思います。

 
①従業員のリテラシー向上

最も重要な対策の一つは、従業員のAIリテラシーを向上させることです。従業員がAIの基本的な原理、潜在的なリスク、および適切な使用方法を理解することで、誤った情報の発信や機密情報の漏えいを防ぐことができます。そのためには研修や、生成AIに対する方針を盛り込んだ社内のガイドラインを策定することが望ましいと言えるでしょう。

 
②モニタリング機能による異常検知

もう一つの対策は、モニタリングシステムの導入です。自社のネット上の風評に対するモニタリング機能を設けることで、不正確または不適切な情報が拡散される前にこれを検出し、迅速な対処が可能になります。

 
③信頼できる環境の構築

生成AIの安易な利用や、意思決定を委ねるような使い方をすれば、今回紹介したような問題が発生する可能性が高いです。人間の視点と判断を必ず反映させることを徹底し、あくまで補助的なツールとして生成AIを位置づけることが大切と言えるでしょう。

まとめ

生成AIの発展はあまりにも急速であり、リスク対策は間に合っていないのが現状です。企業にどのような形で不利益がもたらされるのか、その予想は更に困難になっていると言えるでしょう。AIとの上手な付き合い方をしっかりと考えていきたいですね。

株式会社ワイズワークスプロジェクトでは、リスク情報のモニタリングをはじめ、炎上が発生した際の対応などに対応するリスクマネジメントサービスもご提供しております。
お問い合わせはこちらから


危機管理情報調査部
危機管理情報調査部
サービスや商品に対する悪質な風評や、内部告発、ネガティブな口コミ、炎上など、 企業にとってリスクとなるWEB上の情報を対象に調査・分析を行うプロフェッショナル人材が揃っています。