(記者周德瑄/綜合報導)隨著人工智慧(AI)聊天機器人如ChatGPT與Gemini在日常生活與工作上的應用越來越普及,許多人開始依賴它們解決問題、撰寫文件,甚至傾訴情感困擾。不過,專家提醒,儘管AI功能強大,仍有五類資訊千萬不能與它們分享,否則恐將個人與企業資料暴露於高度風險之中。
史丹佛大學「人本人工智慧研究中心」(HAI)研究員珍妮佛.金(Jennifer King)指出,一旦將敏感資料輸入聊天機器人,使用者便喪失了對該資訊的掌控權。即使AI平台業者如OpenAI與Google皆在官方聲明中呼籲用戶避免輸入機密訊息,許多民眾仍未意識到潛在風險。
示意圖/研究員呼籲不要將敏感資訊告訴聊天機器人。(擷取自Pixabay)
專家整理出「絕不該輸入AI的五大類資訊」如下:
企業資訊
許多公司仰賴AI工具協助撰寫電郵、製作報告,然而一旦不小心將客戶資料或商業機密輸入,就可能造成資訊外洩。除非企業使用經安全設計、具有資料保護機制的企業版AI系統,否則應避免將敏感工作內容暴露給AI。
登入資訊
無論是社群平台還是工作系統的帳號密碼,都不應交給AI代管。儘管這看似方便,但AI並非專業密碼管理工具,缺乏保護帳戶安全的能力。專家建議改用專門的密碼管理器,才能有效防止帳號遭駭。
醫療資料
雖然醫療體系通常受隱私法保護,但AI聊天機器人並不涵蓋在此保障範圍內。若希望透過AI協助理解檢查結果,建議事先移除姓名、身分證號等個資,只保留必要的檢測數據。
身分資訊
包括社會安全碼、護照號碼、出生日期、地址與電話等個人資料,都不應出現在與AI的對話中。即使部分AI系統具備敏感資料過濾機制,也無法保證資料絕對安全,最保險的作法仍是避免透露。
金融帳戶資料
將銀行或投資帳戶資訊交由AI處理,可能引來駭客覬覦。一旦資料被盜用,後果恐不堪設想。財務相關資訊應留在專業且加密的系統中,切勿透過AI平台分享。
若用戶仍希望與AI討論較為私密的內容,專家建議可採取數項防護措施,包括設定強密碼、啟用多重驗證機制,並於對話結束後主動刪除紀錄。人工智慧公司Anthropic資安長克林頓(Jason Clinton)提醒,用戶標記為刪除的內容,企業端通常會在30天內移除,但真正的數據安全仍需由使用者自行把關。
更多引新聞報導