http://www.asyura2.com/25/holocaust8/msg/334.html
| Tweet |
「《若手の一言》で会議室が凍りつき商談即中止、顧客ゲキ切れ
『AIで御社の課題を整理しました!』『分かりやすい資料を作りたかった・・・』」
(横山信弘・東洋経済 2026/2/25)
https://toyokeizai.net/articles/-/933552
「御社の課題をChatGPTで整理しました。AIで分析した結果がこちらです!」
ある若手営業のこの一言で、会議室の空気が凍りついた。お客様は顔色を変え、「うちの情報を勝手にAIに入力したのか?」と激怒したのだ。商談はその場で打ち切り。その後、信頼関係は完全に崩壊した。
若手営業に悪気はなかった。「分かりやすい資料を作り、喜んでもらおう」という気持ちが強かった。だが、AIの便利さに目を奪われ、最も基本的なセキュリティリスクを忘れてしまった。
そこで今回は、ChatGPTを例にAIツールを使う営業が陥りがちな情報漏洩リスクと、AI時代に営業が持つべき姿勢について解説する。顧客情報を扱うすべての営業パーソンは、ぜひ最後まで読んでもらいたい。
■ ChatGPTは社内ツールではない
多くの人が誤解してしまうのが、「ChatGPTは自分の作業を助けてくれる便利ツール」ということ。極端な話、「社内システムと同じ」と錯覚してしまう。しかしこれは極めて危険な思い込みだ。
現在、ChatGPTの無料版やPlus版では、デフォルトで入力内容が保存され、モデル改善(学習や調整)に利用される可能性がある。つまり、営業が入力した個人情報や機密情報が、他者への回答の中に断片として出てしまうリスクがある。これは、完全に削除できない可能性もある。
つまり、お客様から預かった情報を、許可なく第三者のシステムに渡したと評価されても仕方がないということだ。
機密保持契約(NDA)を結んでいた場合、重大な問題になるかもしれない。契約違反とみなされ、場合によっては損害賠償請求の対象にもなり得るのだ。「便利だから使った」では済まされない。
「うちはChatGPT Enterpriseを使っているから安全だ」
そう考えている営業もいるだろう。確かに、ChatGPT Enterpriseといった法人向けのプランなら、入力内容が学習に使われない、通信が暗号化される、などのセキュリティ強化が図られている。
しかし、それでも問題は残る。
「お客様の同意なしに外部システムで処理した」という事実そのものが信頼を壊すのだ。
たとえセキュアな環境であっても、お客様からすれば「許可なく入力した」と認識されることもある。技術的な安全性と、お客様との信頼関係は別の問題だと捉えよう。
(以下略)
--------(引用ここまで)--------------------------------
ChatGPTなどのAIツール、自動翻訳などはリモートサーバーを利用するサービスであり、
情報が社外に漏れます。
通信を暗号化してもサーバー側にバックドアがあって復号化できると考えるべきです。
これらのサービスを悪用して、アチラ側はありとあらゆる情報を盗み蓄積しているのです。
まともな企業は、これらのサービスの利用に関するルールを定めているはずで、
社員に不用意に使わせることはありません。
とくに守秘契約を結んだ相手の情報には細心の注意が必要です。
(関連情報)
「Google ドライブに保存したファイルが検閲された クラウドストレージは絶対に使わないこと」
(拙稿 2024/5/25)
http://www.asyura2.com/23/iryo12/msg/591.html
「[注意喚起] マイクロソフト・ウィンドウズのアップデートで“OneDrive”が勝手にオンにされ、
ファイル、データが吸い上げられる」 (拙稿 2026/2/16)
http://www.asyura2.com/25/holocaust8/msg/301.html
|
|
|
|
最新投稿・コメント全文リスト コメント投稿はメルマガで即時配信 スレ建て依頼スレ
|
|
スパムメールの中から見つけ出すためにメールのタイトルには必ず「阿修羅さんへ」と記述してください。すべてのページの引用、転載、リンクを許可します。確認メールは不要です。引用元リンクを表示してください。