Image
全國統一(yī)服務熱線
0351-4073466

AI代寫愈加火(huǒ)熱,人工(gōng)智能潛在隐患又(yòu)該如何防範?


編輯:2024-01-05 11:39:28

時值年末,又(yòu)到了一(yī)年一(yī)度寫年終總結的時候,*近,武漢的一(yī)家公司在朋友圈發布的招聘啓事引發關注。内容說:“今年在AI的協助下(xià),大(dà)緻會撰寫35萬份以上報告(去(qù)年是26萬份),年底來臨,有不少總結性報告要寫,招多個兼職報告撰寫人員(yuán)。”據了解,有了AI加持,這家公司在精簡10%-20%人力的基礎上,單量卻比去(qù)年同期增加20%-30%。


此外(wài),據報道,在某線上購物(wù)平台,輸入“年終總結AI”“代寫”等關鍵詞,立刻蹦出許多相關産品。商(shāng)家在産品介紹中(zhōng)寫下(xià)宣傳語:“AI智能原創、寫作必備”“懶人辦公”“三分(fēn)鍾急速交稿”等。産品銷量一(yī)般在幾千單左右,有的店(diàn)鋪月銷量達6萬單以上。


随着科技快速發展,人工(gōng)智能(AI)應用越來越廣泛,它深入到醫療、教育、娛樂等各個領域。如今,伴随各類年度總結任務的集中(zhōng)湧來,AI代寫業務火(huǒ)了,然而,這看似*輕松的背後,卻隐藏着巨大(dà)的風險!


那麽

人工(gōng)智能應用使用過程中(zhōng)

隐藏哪些風險呢?

下(xià)面跟着小(xiǎo)密一(yī)起來看!


圖片


人工(gōng)智能在促進社會發展進步的同時,也伴随着一(yī)些風險隐患,以今年爆火(huǒ)的ChatGPT爲例,若被不當使用或濫用很有可能影響到國家安全、社會穩定、企業利益和個人用戶權益等諸多方面。


而ChatGPT類大(dà)模型加速了數字******和物(wù)理******的深度融合,引領人工(gōng)智能進入新的發展階段。與此同時,人工(gōng)智能固有的不确定性、不透明性、難以解釋、事實性錯誤等能力局限,對經濟發展、國際政治和全球治理等方面帶來深遠影響,引發了全球對大(dà)模型廣泛應用安全風險的熱議。如何應對人工(gōng)智能風險并把握人工(gōng)智能發展的戰略主動,有效保障國家安全,已成爲我(wǒ)國國家安全治理的重要議題。


大(dà)模型技術引發新的安全風險和治理挑戰。随着技術的更新叠代,人工(gōng)智能的應用門檻持續降低,伴随着誤用濫用情況的增加,經濟社會領域的多重安全風險也在交織疊加。


01




隐私洩露風險





根據相關報道,ChatGPT的訓練使用了45TB的數據、近1萬億個單詞(大(dà)概是1351萬本牛津詞典的單詞量)。其中(zhōng)很有可能就包括未經同意獲取的個人信息。除前述海量數據外(wài),ChatGPT還能夠在與用戶一(yī)對一(yī)的對話(huà)互動中(zhōng)獲取信息。


在該軟件隐私政策不明了的情況下(xià),個人信息是否會被存儲、洩露,甚至被惡意使用都不得而知(zhī)。


02




知(zhī)識産權風險





ChatGPT龐大(dà)的網絡語料庫中(zhōng)或許包含着他人擁有著作權的作品,故其生(shēng)成的文本也存在嫁接他人作品的可能性。但它在輸出内容時卻未必能夠識别,也不一(yī)定會對用戶進行提示。在沒有得到原作者授權的情況下(xià),ChatGPT産生(shēng)的文本如果被使用,那麽則很有可能是使用者承擔知(zhī)識産權侵權的法律風險。


03




虛假信息風險





盡管ChatGPT被視爲有史以來*智能的AI,但它畢竟也不是全知(zhī)全能。比如在一(yī)段涉及《紅樓夢》的對話(huà)當中(zhōng),ChatGPT就言之鑿鑿地宣稱,賈寶玉是賈元春的兒子。


盡管它在文字組織上的确能夠做到語句通暢,有條有理,但是并不能保障内容的真實準确。當用戶在自己不熟悉的領域向ChatGPT咨詢問題時,就很有可能因爲這些看似“高大(dà)上”的回複,錯信了有誤甚至是虛假的信息,從而産生(shēng)決策失誤、傳播虛假信息等諸多法律風險。


04




數據洩密風險




在高度智能化、自動化的應用場景中(zhōng),ChatGPT在數據獲取、處理、結果展示等環節都存在重大(dà)的數據安全風險。


一(yī)是數據獲取階段。用戶在使用ChatGPT時,可能會輸入自己或他人的信息數據,從而導緻隐私洩露。如果員(yuán)工(gōng)使用ChatGPT輸入各類工(gōng)作數據,就可能導緻公司敏感信息洩露。而一(yī)旦輸入涉及國家秘密或敏感内容的信息,則無疑會導緻洩密。


二是數據處理階段。ChatGPT會将用戶輸入、交互的數據用于後續持續的叠代訓練,這就導緻這些信息很可能被其他用戶獲取,從而構成數據非授權共享,進而出現數據洩密問題。


随着人工(gōng)智能的不斷深入

我(wǒ)們在面對AI帶來的種種風險時

又(yòu)該如何應對呢?

且聽(tīng)小(xiǎo)密爲你一(yī)一(yī)道來~


圖片


行業:
倡導AI技術合規使用和加強行業自律

******,建立行業監管制度并開(kāi)展合規性評估審查。建立健全AI服務行業監督管理相關制度與标準。包括算法分(fēn)級分(fēn)類管理、算法推薦服務安全管理、AI 濫用舉報等,并開(kāi)展AI應用安全合規性評估審查與處置,實現行業監管閉環。

第二,創新研究應用人工(gōng)智能賦能網絡安全技術。一(yī)方面,利用AI技術賦能針對複雜(zá)網絡攻擊的防禦能力,使用 AI 技術應對其帶來的網絡安全風險;另一(yī)方面,研究利用AI技術提升企業組織在網絡安全攻擊檢測、數據資(zī)産識别與風險監測、業務安全風控、不良信息識别、電(diàn)信反詐、安全威脅分(fēn)析、深度僞造識别等方面的能力。

第三,做好元宇宙等AI融合場景的安全風險梳理與防護技術儲備。對于元宇宙和AI融合關鍵場景,要抓緊開(kāi)展安全技術研究儲備,提早防範大(dà)規模人工(gōng)智能安全事件發生(shēng)。


圖片


企業:加強AI安全防護體(tǐ)系建設


PART.01





一(yī)是制定出台企業組織AI安全總體(tǐ)策略,編制企業标準規範與技術指南(nán);


PART.02





二是配備AI安全領域專業人員(yuán),支撐AI安全新技術新業務安全風險評估與創新技術研究;


PART.03





三是對員(yuán)工(gōng)在日常工(gōng)作或對外(wài)服務中(zhōng)使用ChatGPT等AI應用行爲進行規範,防範企業組織及客戶數據洩露等風險;


PART.04





四是強化安全技術手段建設,建設涵蓋網絡安全、算法安全、數據安全與隐私保護等功能的AI安全管控能力,爲企業組織的AI能力與應用提供安全防護,保障AI業務健康發展。


圖片


個人如何防範人工(gōng)智能潛在隐患


對于個人而言,除了避免陷入虛假宣傳,更重要的是面對花樣翻新的AI詐騙,必須保持防範意識。


保護信息,提高警惕。公衆要謹慎提交個人信息及企業數據,防範AI應用個人隐私竊取、有害言論誤導誘導等風險,防範利用ChatGPT熱點或者仿冒知(zhī)名AI應用收集敏感信息實施詐騙等行爲。


多重驗證,确認身份。如果有人自稱"熟人""領導"等通過社交軟件、短信以各種理由誘導彙款,或涉及網絡轉賬交易行爲時,務必通過電(diàn)話(huà)、見面等多途徑核驗對方身份,不要未經核實随意轉賬彙款。


如不慎被騙或遇可疑情形,請注意保護證據,并立即撥打96110報警。




小(xiǎo)密提醒


随着AI産品的不斷更新,不少AI軟件推出了公文寫作闆塊,人工(gōng)智能開(kāi)始悄然影響公文寫作等日常政務工(gōng)作,作爲機關、單位幹部職工(gōng),如果偷懶用AI代寫,各種文件和數據洩露的後果将不堪設想!


不僅如此,由于AI寫作内容相對比較籠統,語言僵硬,不貼合實際情況,使用過程中(zhōng)還可能涉及信息洩露風險、侵犯知(zhī)識産權等法律問題,所以小(xiǎo)密建議大(dà)家,在工(gōng)作中(zhōng)盡量不要使用AI寫作,多積累理論知(zhī)識和實踐案例,才能成爲真正的“筆杆子”!

圖片




END



來源:成華密語

Image
Image
版權所有:山西朋友你好科技有限公司  
咨詢熱線:0351-4073466 
地址:(北(běi)區)山西省太原市迎澤區新建南(nán)路文源巷24号文源公務中(zhōng)心5層
           (南(nán)區)太原市小(xiǎo)店(diàn)區南(nán)中(zhōng)環街529 号清控創新基地A座4層
Image
©2021 山西朋友你好科技有限公司 晉ICP備15000945号 技術支持 - 資(zī)海科技集團