青少年正在互相傳播深度偽造裸照。這不是玩笑

青少年正在互相傳送同學的深度偽造裸照,擾亂了他們的生活。學校、技術開發者和家長現在需要採取行動

Silhouette of little girl using mobile phone

艾哈邁特·亞拉里/蓋蒂圖片社

本文是《大眾科學》專欄“育兒科學”的一部分。更多內容,請點選此處

今年二月,比佛利山莊的一群初中生透過使用人工智慧分享深度偽造的同學裸照,侵害了 16 名同學。據報道,在新澤西州,一所高中的男生以 30 多名女生為目標,之後才被學校官員發現。

學校和家庭正在努力應對線上應用程式,這些應用程式允許某人將普通的著裝照片變成偽造的裸照。加利福尼亞州和新澤西州的事件只是眾多涉及青少年、技術和意外法律後果的事件中的兩起。雖然家長和學校官員通常知道青少年拍攝或分享另一個孩子的裸照是一種違法行為,但許多人並不理解,從真實孩子的著裝照片製作和分享偽造的色情影像是聯邦犯罪,而且大量的“裸化”或“脫衣”應用程式使得擁有手機的青少年很容易觸犯法律。這些應用程式使用人工智慧(AI)生成看起來逼真的個人著裝照片的裸體版本,這些照片通常來源於社交媒體。


關於支援科學新聞報道

如果您喜歡這篇文章,請考慮支援我們屢獲殊榮的新聞報道,方法是 訂閱。透過購買訂閱,您正在幫助確保關於塑造我們今天世界的發現和想法的具有影響力的故事的未來。


在這些應用程式出現之前,犯罪者可以使用 Photoshop 將孩子的臉貼上到成人色情演員的身體上(或者,更糟糕的是,另一個受虐兒童的虐待影像上)。但這需要時間、筆記型電腦或臺式電腦,以及一些技術熟練程度。現在,這些人工智慧驅動的應用程式將完成所有工作,快速且免費,使得在受害者不知情或不同意的情況下快速建立多個受害者的照片變得容易。

雖然一些警察和州立法者越來越關注,但學校、管理人員甚至警察部門在青少年使用這些技術時常常措手不及。這些地方實體最終辜負了受害者,受害者絕大多數是女性。家長可以透過儘早與孩子談論身體自主權和同意,並鼓勵尊重和同情心,來幫助防止自己的孩子成為施害者。當青少年確實製作或分享深度偽造裸照時,學校和執法部門必須採取適當行動,保護青少年的生活免受干擾。

聯邦法律將兒童性虐待材料(CSAM)定義為不僅包括實際虐待的真實影像,還包括經過處理看起來像真實、可識別的兒童(例如班級中的特定學生,或兒童名人)正在從事性行為或姿勢的影像。聯邦調查局最近釋出的警報警告說,這包括使用生成式人工智慧修改的影像。

一些州現在禁止這些所謂的“變形”影像,包括佛羅里達州路易斯安那州南達科他州華盛頓州,其他地方也在等待類似的法案。教育部最近認為,未經同意分發深度偽造裸照是學校必須根據第九條處理的性別歧視性騷擾形式。作為一名研究人工智慧對兒童安全影響的研究人員,我希望這些更新將使更多學生和學校認真對待深度偽造裸照——不像西雅圖郊區的一所學校的官員那樣,儘管學生們投訴,但他們認為這些影像不值得向警方報告,因為它們是假的。

在罪行發生之前阻止這些罪行的眾多原因之一是,成年人的反應可能會使情況變得更糟。在邁阿密,兩名男孩,年齡分別為 13 歲和 14 歲,於去年冬天被捕,並面臨三級重罪指控。這是已知的第一起兒童因深度偽造裸照而被捕和指控的案例,並且應該成為最後一起。對兒童的刑事起訴是適得其反的:我們充斥著虐待行為的少年司法系統對年輕罪犯造成持久的損害。對於早期青少年來說,這種情況尤其難以證明是合理的,因為他們可能不理解自己所做的事情為什麼是錯誤的,因為他們的道德推理能力尚未完全發展。他們可能認為深度偽造裸照是一個有趣的惡作劇,或者未能預料到副本可能會失控傳播。

儘管如此,未經同意的裸體深度偽造是極度厭女的,而“男孩就是男孩”的舊藉口不是(而且從來都不是)對性欺凌的可接受回應。深度偽造裸照的受害者可能會遭受“重大”的情感和名譽損害。製作或分享這些影像的青少年需要承擔責任,但除了刑事定罪之外還有其他選擇。比佛利山莊的初中開除了五名學生,新澤西州的一名深度偽造受害者正在起訴她的同學。

除了懲罰之外,另一種方法是“恢復性司法”,它側重於治癒和建立相互尊重,同時接受對自身行為的責任。學校中恢復性實踐的一個例子是使用討論圈,其中受害者和被告都有機會被傾聽,並要求被告對造成傷害並彌補傷害承擔責任。恢復性司法方法並不容易,但它在學校可以成功,並且對於所有相關人員來說,可能比起訴、訴訟或開除更具建設性和治癒性。

對於家長和教育工作者來說,阻止深度偽造裸照的最佳方法是預防,而不是反應。這意味著與孩子們溝通——即使這會變得尷尬。

青少年對性感到好奇或對同齡人有好感並不是不健康的,但家長通常不願意與孩子討論性和性行為,而且學校通常沒有充分解決這些話題。教導您的青少年或少兒深度偽造裸照是不可以的,原因與我們教導年幼的孩子關於安全與不安全接觸的原因相同:“你的身體屬於你,所以你可以設定界限並對你的身體做出選擇。其他人對自己的身體有隱私權和自主權,你需要尊重他們的,就像他們需要尊重你的那樣。”

這種身體自主權包括影像。從受害者的角度來看,深度偽造裸照不是一個有趣的惡作劇,無害的好奇心放縱,比性更安全,或比看色情片更出格。這是一種界限侵犯,就像不必要的觸控一樣。製作或分享這樣的影像可能會讓孩子惹上麻煩,但更重要的是,它傷害了其他孩子的隱私、自主權、尊嚴和名譽。它對別人的身體做出了不屬於任何人的選擇。

如果您的孩子成為深度偽造裸照的受害者或旁觀者,信任和開放將至關重要。如果您的孩子知道其他孩子成為目標,他們需要有信心和正直地告訴您或學校。如果您的孩子是受害者,他們需要知道他們可以將問題告訴您,並聽到這不是他們的錯,他們不必感到羞恥。您的孩子需要知道您會支援他們

除了圍繞性和性自主權的對話之外,家長還可以做幾件具體的事情來阻止深度偽造裸照的傳播。與您的孩子談論他們訪問的網站和手機上的應用程式。適合年齡的家長控制可以發揮作用,但請記住,孩子們也應該享有隱私,年齡越大越是如此。在他們的裝置上安裝監控軟體會破壞親子信任,同時使侵入個人生活的監視行為正常化。此外,許多“家長專用”監控應用程式只是家庭虐待者使用的重新包裝的跟蹤軟體

倡導您孩子的學校制定一項關於深度偽造裸照的全面計劃,並徵求家長和學生的意見。該計劃應包括對教育工作者進行關於管理偽造(和真實)裸照影像的法律以及學生侵害其他學生時的法律義務的培訓、為受影響學生提供諮詢和支援,以及將深度偽造裸照和相關主題(如性勒索)納入性教育課程。

孩子們可以透過應用商店、搜尋引擎和社交媒體上的廣告找到裸化應用程式。蘋果InstagramXPatreon 等公司往往對不良公關做出回應——人工智慧服務本身也 CSAM 責任感到恐懼。呼籲科技平臺加強努力,並踢出裸化應用程式和未經同意的裸照影像;並呼籲人工智慧公司承諾確保其產品的負責任使用。

如果您的孩子出現在網上流傳的裸照影像(真實或偽造)中,一項名為 Take It Down 的服務可以將其從參與的社交媒體服務中刪除。這是國家失蹤和受虐兒童中心提供的一項免費工具。聯邦政府新的 Know2Protect 運動為兒童和家庭提供了其他資源。

雖然新的州法律和新的 第九條規則 可能有助於解決學校中深度偽造裸照的問題,但厭女症和兒童性虐待是古老的問題,兩者的新技術將始終層出不窮。完全根除裸化應用程式是不現實的,但關閉一些不良行為者是可能的。為了獲得最大效果,目標應該是可疑的開發者,他們知道自己的軟體正在助長 CSAM,而不是他們的青少年使用者。創傷兒童的答案不是創傷更多的孩子。

這是一篇觀點和分析文章,作者或作者表達的觀點不一定代表《大眾科學》的觀點。

© .