過(guò)去一年中,生成式人工智能(AI)的快速發(fā)展引發(fā)了許多隱私和倫理問(wèn)題,包括對(duì)從受版權(quán)保護(hù)的作品中學(xué)習(xí)生成式人工智能的倫理和合法性的討論。例如,一些作者以侵犯版權(quán)為由對(duì)ChatGPT的所有者OpenAI提起訴訟。也有人擔(dān)心生成式人工智能可能使用個(gè)人信息的方式。例如,出于隱私相關(guān)考慮,意大利數(shù)據(jù)保護(hù)局暫時(shí)禁止了ChatGPT。
生成式人工智能可以創(chuàng)建文本并與用戶(hù)聊天,這是一個(gè)獨(dú)特的挑戰(zhàn),因?yàn)樗梢宰屓藗兏杏X(jué)自己在與人互動(dòng)。擬人化是指將人類(lèi)屬性或個(gè)性賦予非人類(lèi)。人們經(jīng)常將人工智能(尤其是生成式人工智能)擬人化,因?yàn)樗梢詣?chuàng)造類(lèi)似人類(lèi)的輸出。
這種虛假的關(guān)系可能會(huì)有問(wèn)題。ELIZA效應(yīng)描述了“當(dāng)一個(gè)人將人類(lèi)水平的智能歸因于人工智能系統(tǒng),并錯(cuò)誤地將包括情感和自我意識(shí)在內(nèi)的意義附加到人工智能上時(shí)”的現(xiàn)象。一名男子與聊天機(jī)器人分享了他對(duì)氣候變化的擔(dān)憂(yōu),聊天機(jī)器人為他提供了自殺的方法。不幸的是,他自殺身亡,他的妻子聲稱(chēng),如果不是因?yàn)樗c聊天機(jī)器人的關(guān)系,他不會(huì)這么做。
這些產(chǎn)生類(lèi)似人類(lèi)輸出的算法玩起來(lái)很有趣,但它們帶來(lái)了嚴(yán)重的隱私問(wèn)題。對(duì)面向消費(fèi)者的生成式人工智能的企業(yè)來(lái)說(shuō)需要考慮擬人化的人工智能有與隱私相關(guān)的利弊。
隱私優(yōu)勢(shì)
將人工智能擬人化的一個(gè)與隱私相關(guān)的好處是,它可以幫助用戶(hù)將過(guò)度的數(shù)據(jù)收集置于情境中。當(dāng)信息由企業(yè)或應(yīng)用程序收集時(shí),它可能看起來(lái)像是一大堆1和0,沒(méi)有任何意義。但是,如果一個(gè)陌生人似乎在告訴用戶(hù)關(guān)于自己的私人信息,這似乎令人反感,共享數(shù)據(jù)的后果就會(huì)變得具體而有形。
應(yīng)用程序可能被要求包含他們?cè)趹?yīng)用程序商店中收集的信息描述,但用戶(hù)通常不會(huì)閱讀,因?yàn)樗軓?fù)雜,或者他們不確切地了解數(shù)據(jù)收集的內(nèi)容。相比之下,讓人工智能聊天將這些信息投入使用可能更具影響力。以Snapchat的人工智能聊天機(jī)器人My AI為例。盡管蘋(píng)果應(yīng)用商店通知用戶(hù)Snapchat可以訪(fǎng)問(wèn)位置數(shù)據(jù),但圖1更實(shí)際地說(shuō)明了訪(fǎng)問(wèn)位置數(shù)據(jù)的含義。例如,我讓My AI推薦我附近的一家好咖啡店。
應(yīng)用程序用戶(hù)可能知道應(yīng)用程序可以訪(fǎng)問(wèn)位置數(shù)據(jù),但與一個(gè)命名特定社區(qū)企業(yè)的看似人類(lèi)的聊天機(jī)器人進(jìn)行對(duì)話(huà),可以更好地說(shuō)明與應(yīng)用程序共享位置數(shù)據(jù)意味著什么。這可能有助于人們更多地了解隱私問(wèn)題,從而使消費(fèi)者對(duì)他們共享的信息更加謹(jǐn)慎,并采取措施保護(hù)他們的隱私。
隱私弊端
當(dāng)與人工智能聊天機(jī)器人交談時(shí),如果聊天機(jī)器人聽(tīng)起來(lái)像人類(lèi)并使用第一人稱(chēng)或第二人稱(chēng)語(yǔ)言,用戶(hù)可能會(huì)更愿意分享信息。提供給聊天機(jī)器人的信息可能會(huì)被一個(gè)友好的人分享,而不是一個(gè)可能將這些數(shù)據(jù)用于各種目的的企業(yè)。例如,人們可能會(huì)與聊天機(jī)器人交談一段時(shí)間,最終泄露敏感信息(例如,他們正在努力解決的健康問(wèn)題)。大多數(shù)聊天機(jī)器人在用戶(hù)提供敏感信息時(shí)不會(huì)發(fā)出警告。
個(gè)人的輸入或人工智能平臺(tái)的輸出有可能用于訓(xùn)練未來(lái)的反應(yīng)。這可能意味著與聊天機(jī)器人共享的敏感數(shù)據(jù)或秘密信息可能會(huì)與他人共享,或影響他人收到的輸出。例如,盡管OpenAI改變了政策,但它最初是根據(jù)提供給ChatGPT的數(shù)據(jù)進(jìn)行模型訓(xùn)練的。人工智能進(jìn)行數(shù)據(jù)訓(xùn)練后,很難再次對(duì)其進(jìn)行訓(xùn)練。
隱私聲明通常很難理解,消費(fèi)者可能會(huì)繞過(guò)它們,但是會(huì)接受人工智能聊天機(jī)器人關(guān)于隱私對(duì)話(huà)式、易于理解的回應(yīng)。用戶(hù)可能認(rèn)為聊天機(jī)器人提供的信息是全面的。但是,如果不深入研究提供商的隱私聲明,可能會(huì)對(duì)提供商收集的信息有不準(zhǔn)確的了解。
例如,我問(wèn)Snapchat的聊天機(jī)器人該應(yīng)用程序收集了哪些信息,但它向我提供的信息不完整。圖2顯示了My AI收集的數(shù)據(jù),但這并不是一個(gè)完整的列表。圖1證實(shí)了該應(yīng)用程序還收集位置數(shù)據(jù)。
從業(yè)者的收獲
使用人工智能聊天機(jī)器人的企業(yè)中的隱私專(zhuān)業(yè)人士應(yīng)該考慮聊天機(jī)器人提供關(guān)于隱私實(shí)踐信息的方式。對(duì)有關(guān)收集的數(shù)據(jù)、如何使用數(shù)據(jù)和消費(fèi)者權(quán)利的問(wèn)題的回答必須準(zhǔn)確并且全面,以避免誤導(dǎo)數(shù)據(jù)主體。
使用人工智能聊天機(jī)器人的企業(yè)還必須考慮用戶(hù)的年齡,并確保未成年人受到保護(hù)。例如,59%的青少年表示他們使用Snapchat,只有付費(fèi)訂閱Snapchat+的用戶(hù)才能刪除其My AI功能。這意味著使用免費(fèi)版Snapchat的未成年人和未成年人的父母不能刪除My AI功能。青少年可能不了解它的缺陷或他們的信息如何被使用,他們正在使用My AI來(lái)進(jìn)行心理健康咨詢(xún),這可能存在危險(xiǎn)。為未成年人提供人工智能服務(wù)的企業(yè)應(yīng)告知他們提供敏感信息的后果,并強(qiáng)調(diào)輸出可能不準(zhǔn)確。
我問(wèn)My AI頭痛該怎么辦,雖然它最初拒絕提供醫(yī)學(xué)上的建議,但最終建議我服藥(圖3)。盡管它推薦了相對(duì)無(wú)害的非處方藥,但未成年人可能不知道這些推薦的藥物是否會(huì)與任何處方藥產(chǎn)生相互作用。
即使是不使用生成式人工智能的公司,也需要了解將會(huì)如何影響日常運(yùn)營(yíng)。員工可能會(huì)覺(jué)得,向ChatGPT尋求幫助起草電子郵件類(lèi)似于向同事求助,但兩者不可比較:ChatGPT是第三方服務(wù),不遵守工作場(chǎng)所保密規(guī)范。公司必須制定一項(xiàng)關(guān)于生成式人工智能使用的政策。這需要多個(gè)部門(mén)的投入,而不僅僅是隱私團(tuán)隊(duì)。管理者還應(yīng)制定關(guān)于什么樣的工作可以利用人工智能工具的指導(dǎo)方針(例如,可以允許使用ChatGPT起草社交媒體帖子,但使用它起草機(jī)密電子郵件可能是不可接受的)。未制定關(guān)于GPT和其他人工智能工具使用的政策可能會(huì)導(dǎo)致員工濫用技術(shù),從而可能會(huì)導(dǎo)致隱私問(wèn)題。
在隱私意識(shí)培訓(xùn)中,隱私專(zhuān)業(yè)人員可以利用人工智能的擬人化元素對(duì)信息被不當(dāng)披露會(huì)產(chǎn)生的影響進(jìn)行說(shuō)明。非隱私工作人員可能不理解為什么某些數(shù)據(jù)被認(rèn)為是敏感的,或者為什么信息被泄露很重要,但Snapchat的AI等例子可以有效地說(shuō)明如果位置數(shù)據(jù)等信息被不當(dāng)共享可能會(huì)發(fā)生的后果。
結(jié)論
許多企業(yè)利用類(lèi)似人類(lèi)的人工智能工具,許多員工的工作也可能依賴(lài)它們。人工智能被擬人化的同時(shí)讓它看起來(lái)不那么值得信賴(lài),但從隱私的角度來(lái)說(shuō)更值得信賴(lài)。制定一項(xiàng)關(guān)于人工智能使用的政策,并確保消費(fèi)者了解與人工智能共享數(shù)據(jù)的含義,可以促進(jìn)更有效、更值得信賴(lài)的人工智能工具。
編者按: 本文于2023年9月14日首次發(fā)表于ISACA官網(wǎng)News and Trends/Industry News。尾注略。文章內(nèi)容僅代表作者本人觀點(diǎn)。
作者:SAFIA KAZI, CSX-F, CIPT,是ISACA隱私專(zhuān)業(yè)實(shí)踐負(fù)責(zé)人。在這個(gè)職位上,她專(zhuān)注于開(kāi)發(fā)ISACA的隱私相關(guān)資源,包括書(shū)籍、白皮書(shū)和審查手冊(cè)。Kazi在ISACA工作了9年,之前曾在ISACA? Journal工作,并開(kāi)發(fā)了屢獲殊榮的ISACA Podcast。2021年,她獲得了AM&P Network頒發(fā)的新興領(lǐng)袖獎(jiǎng),該獎(jiǎng)項(xiàng)表彰35歲以下的創(chuàng)新協(xié)會(huì)出版專(zhuān)業(yè)人士。
翻譯:楊皓然(AdySec),CISSP,CISM,CISA,CDPSE,CRISC,CGEIT,PMP,CCSK,CZTP,CDSP,CCSSP,RHCE,CCNP,ISACA微信公眾號(hào)特邀通訊員,致力于安全運(yùn)營(yíng)、云安全、零信任等方向研究。
校對(duì):唐雅琪(Andrea Tang),F(xiàn)IP, CIPP/E, CIPM,ISO 27001 LA,ISACA微信公眾號(hào)特邀通訊員小組組長(zhǎng),任職于安永企業(yè)咨詢(xún)有限公司。