ChatGPTをはじめとした生成AIの威力が注目される中、生成AIを会社の業務で安全に利用するためのポイントについて整理しておく。
TOC
機密情報の漏洩に注意
入力情報をAIが学習し、他者への回答に使われることで機密情報が漏洩するリスクがある。
利用する生成AIサービスが、入力情報を学習に利用するのか、他の組織への回答に利用するのか、についてもチェックする必要がある。
プライバシーの侵害に注意
上述の取り、入力情報をAIが学習し、他者への回答に使われる可能性がある。そのため、他人のプライバシーに関わる情報を入力すると、それが他者への回答に使われることで当該人のプライパシー侵害につながる可能性がある。
著作権の侵害に注意
生成された内容が、既存の著作物と同一だったり似通っていた場合、それを複製、配布すると著作権侵害となる可能性がある。
間違った回答が生成される可能性に注意
“大規模言語モデル(LLM)の原理は、「ある単語の次に用いられる可能性が確率的に最も高い単語」を出力することで、もっともらしい文章を作成していくもの“である(日本ディープラーニング協会『生成AIの利用ガイドライン』第1版より)。
そのため、ChatGPT等の生成AIの回答には誤った内容が含まれる場合がある。
現に、ChatGPTを使っていると実在しない店や商品の名前をもっともらしくげてきたりする。
名誉棄損に注意
上述の通り、生成AIは誤った内容の回答を返す場合があり、個人に対する情報も誤っている可能性がある。個人に対する誤った情報を配信したりすると、名誉棄損にあたる可能性がある。
入力時(=インプット)、出力時(=アウトプット)の2つの側面で整理
実際の利用にあたっては、入力時(=インプット)、出力時(=アウトプット)の2つの側面で整理するとよさそう。
インプットにおける注意点
- 入力した情報が学習に使われ、他者に表示される可能性があるため、機密情報を入力しない。
- 同様の理由で、個人情報が漏洩する可能性もあるため、個人情報も入力しない。
アウトプットにおける注意点
- ChatGPT等の生成AIの回答には誤った内容が含まれる場合があるので、最終的には知見を有した人間の判断が必須となる。
- 広く配布・配信する場合は特に、著作権、知的財産権等、既存の権利を侵害しない内容であることを慎重に確認する。
- また、個人のプライパシー侵害、名普楽損とならないかについても慎重に確認する。
- ヘイトスピーチ等、人権侵害につながる表現が含まれていないことを確認する。
以上
Comments