目次:ハルシネーション(幻覚)/ 情報漏えい/ 支援サービスの紹介/ お知らせ
目次:ハルシネーション(幻覚)/ 情報漏えい/ 支援サービスの紹介/ お知らせ
一見正しく見えるものの、事実ではない情報を生成することです。生成AIは基本的に情報の真偽を判定する機能がないため、もっともらしく見えても偽の情報が含まれることがあります。
実際に、存在しない商品や作品、人物の経歴を出力する例が報告されています。ChatGPTはインターネット上のデータを大量に学習していますが、Web上にあまり情報がない分野はこうした現象が起きやすいようです。
将来的には生成AIの学習データの多くを、それ以前の生成AIの出力データが占めるかもしれません。これを繰り返すとデータが劣化し、最終的にモデルの崩壊が起きるという問題が「再帰の呪い」論文で指摘されています。
サービスによっては入力した情報をAIの学習に使うことがあるので、公開前の情報や個人情報の入力は避けたほうがよいでしょう。
サムスン電子社では、社員が機密にあたるソースコードや会議を文字起こししたデータをChatGPTに入力したことが分かりました。発覚後は情報流出につながる恐れがあるとして、生成AIサービスの社内利用を禁止しています。
ここまで4回にわたって生成AIの仕組みや国内外の動向、そのリスクを見てきました。ChatGPTが公開されて以来、AIの脅威や利便性が大きく取り上げられてきましたが、AIはあくまでもツールであり、ツールを使うことよりもそれで何をするかという戦略の策定が重要です。
自社での取り組みが難しい場合、第三者の手を借りることもご検討ください。弊社はコンサルティングから開発支援、教育、製品サポートまでワンストップで対応できます。
「Talend社公式トレーニング(Data Integration開発基礎コース)」では、Talendの基本の使い方をマスターできます。少人数の講習で疑問点を訊きやすく、入社や異動で4月から新たにTalend担当になった方にオススメです。
シリーズ一覧
エアーノート一覧
エアートップページ