株式会社エアー

AIR NOTE生成AIシリーズ Vol.4

AI

ChatGPTが抱えるリスク
生成AIシリーズ 第4回

ChatGPTが抱えるリスク

前回は日本国内の生成AIの開発や、活用例を取り上げました。今回は生成AIシリーズの最終回として、ChatGPT利用時のリスクを紹介します。

ハルシネーション(幻覚)

一見正しく見えるものの、事実ではない情報を生成することです。生成AIは基本的に情報の真偽を判定する機能がないため、もっともらしく見えても偽の情報が含まれることがあります。
実際に、存在しない商品や作品、人物の経歴を出力する例が報告されています。ChatGPTはインターネット上のデータを大量に学習していますが、Web上にあまり情報がない分野はこうした現象が起きやすいようです。

将来的には生成AIの学習データの多くを、それ以前の生成AIの出力データが占めるかもしれません。これを繰り返すとデータが劣化し、最終的にモデルの崩壊が起きるという問題が「再帰の呪い」論文で指摘されています。

情報漏えい

サービスによっては入力した情報をAIの学習に使うことがあるので、公開前の情報や個人情報の入力は避けたほうがよいでしょう。

サムスン電子社では、社員が機密にあたるソースコードや会議を文字起こししたデータをChatGPTに入力したことが分かりました。発覚後は情報流出につながる恐れがあるとして、生成AIサービスの社内利用を禁止しています。

支援サービスの紹介

ここまで4回にわたって生成AIの仕組みや国内外の動向、そのリスクを見てきました。ChatGPTが公開されて以来、AIの脅威や利便性が大きく取り上げられてきましたが、AIはあくまでもツールであり、ツールを使うことよりもそれで何をするかという戦略の策定が重要です。

自社での取り組みが難しい場合、第三者の手を借りることもご検討ください。弊社はコンサルティングから開発支援、教育、製品サポートまでワンストップで対応できます。

お知らせ:新入社員・異動者向けセミナー

「Talend社公式トレーニング(Data Integration開発基礎コース)」では、Talendの基本の使い方をマスターできます。少人数の講習で疑問点を訊きやすく、入社や異動で4月から新たにTalend担当になった方にオススメです。

DXやAIプロジェクト、データ活用・分析でお悩みがあればぜひ一度ご相談ください。

ご相談はこちらから

データ分析に関わるメルマガの新規購読は以下からお申込みください。

購読を申し込む
contact

お問い合わせ・
お見積もりはこちらから