- +1
馬上評|AI“一鍵脫衣”?警惕黑科技被用于造黃謠
近日,廣州一女子在地鐵上的照片被AI“一鍵脫衣”,造謠者說她在地鐵上拍裸照,照片在網絡廣泛傳播引發關注。
事實上,照片的女主角是小紅書的一名博主,而所謂的“裸照”則是她去年7月在平臺分享的一張照片。原圖中她衣著正常,完全沒有任何不妥之處,但卻被別有用心之人通過AI技術移花接木造黃謠,并刻意在全網散播。目前當事人已在社交平臺表示會進行維權。

用AI“一鍵脫衣”生成圖片,是對女性的公開羞辱和無差別攻擊,無異于“高科技作惡”。一張圖片,就可以編出無數的謠言,貶損女性的名譽。而此類圖片大量傳播會給當事人帶來何種惡劣的影響,是不難想象的。
更令人氣憤的是,被造黃謠的女性很難自證清白,就像《離騷》里的那句“眾不可戶說兮”,當事人很難挨家挨戶地澄清事實。何況即使這么做,還有可能引來更多麻煩。此類圖片對于好事者只是一鍵生成,但給當事人帶來的可能是毀滅性的打擊。因此,對此類科技作惡的行為必須嚴打。
所謂AI“一鍵脫衣”,其實早就是被封禁的技術,已成為地下黑產。問題在于,在互聯網上找到類似的替代技術并不難,好事者的獲取成本并不高。
另一方面,由于互聯網的信息來源復雜,想找到當事人也并不容易。此前,有一位安徽女子在社交媒體上傳了訂婚照,卻被污蔑為某按摩會所的“技師”。后來女子報警,并表示要依法追責,但至今尚未有公開報道的后續。
這可能正是此類事件層出不窮的原因——別有用心之人動動手指,就能憑借“先進”的技術手段在網絡上作惡,與之形成鮮明對比的是,受害者的維權成本極高,讓不少人只能無奈放棄。
據媒體報道,演員劉昊然也曾遭遇“換臉”后公開打假,向警方報案;前不久,還有人利用視頻合成技術,將電視劇中與某知名女星親吻的男主角換成自己,引發熱議。可見,不管是普通老百姓還是名人明星,所有人都有可能受到此類地下黑科技的困擾。
在被造黃謠女子的社交平臺下,有這樣一則留言:“底下評論區小姐姐是保護你,也是為了保護她們自己?!贝_實如此,如果任由“科技作惡”泛濫,那么無論性別、職業、年齡,每一個人都可能成為下一個受害者。
因此,全社會都應參與到對此類AI黑科技的治理與抵制之中,只有形成合力才能更有效地打擊此類“科技作惡”的行徑。相關部門應當加大摸排巡查,封堵技術漏洞;同時各大應用、信息平臺,也應當加強對上架應用和類似信息的查刪,絕不給這些違規的產品留下生存空間。
當然,最重要的還是揪出始作俑者,只有讓作惡之人付出肉眼可見的代價,才能真正起到震懾的效果。先進的科技手段給我們的日常生活帶來的應該是便捷,而不是令人厭惡的黃謠。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司




