苹果被指未能阻止儿童性虐待内容出现在 iCloud 和 iOS 设备上

CNBC 2 月 19 日报道,美国西弗吉尼亚州总检察长对苹果公司提起消费者保护诉讼,理由是苹果公司未能阻止 iOS 设备和 iCloud 服务上存储和分享儿童性虐待内容。共和党人约翰·“JB”·麦卡斯基指责苹果将其隐私品牌和自身商业利益置于儿童安全之上,而谷歌、微软和 Dropbox 等其他大型科技公司也存在类似问题。他们更具攻击性,并使用 PhotoDNA 等系统来对抗此类物质。 PhotoDNA 由微软和达特茅斯学院于 2009 年开发,使用“散列和匹配”技术来自动识别和阻止儿童性虐待材料 (CSAM) 图像(如果这些图像被识别并向当局报告)。 2021 年,苹果测试了自己的 CSAM 检测功能,该功能可自动检测并删除儿童剥削 images.il,并将上传到美国 iCloud 的图像通知国家失踪和受剥削儿童中心然而,由于隐私倡导者担心该技术可能会为政府监控创建后门,并被应用和滥用来审查 iOS 设备上的其他类型内容,该公司撤回了这些功能的计划。此后该公司的努力并没有令许多批评者满意。总部位于英国的防止虐待儿童协会在 2024 年表示,苹果公司没有充分监控、汇总或向当局报告其产品中的儿童性虐待材料。 2024 年,在加州北区提起的一起诉讼中,数千名儿童性虐待幸存者起诉苹果公司,声称该公司不应该放弃其检测虐待材料或儿童性虐待功能的最初计划,并允许此类材料在网上传播,导致受害者重温创伤。自首席执行官蒂姆·库克 (Tim Cook) 2014 年发表关于隐私问题的公开信以来,苹果公司已将自己定位为最注重隐私的大型科技公司。西弗吉尼亚州的诉讼成功,苹果将被迫对其设计和数据安全做出改变。该州有可能寻求法定和惩罚性赔偿以及禁令救济,以迫使苹果有效检测儿童性虐待材料。苹果发言人在一份电子邮件声明中告诉 CNBC:“保护用户(尤其是儿童)的安全和隐私是我们工作的核心。”该公司表示,它提供家长控制和通信安全功能,“当在消息中检测到裸体时,自动干预孩子的设备。”天哪,照片共享、AirDrops,甚至实时 FaceTime 通话,”这表明了其为用户提供“安全、保障和隐私”的承诺。“我们每天都在不断创新,以应对不断变化的威胁,并为孩子们维护最安全、最值得信赖的平台,”发言人补充道。(由 Whip Bullsman 编辑)
特别提示:以上内容(含图片、视频、如有)来自自有媒体平台“网易”。否。”用户上传发布时,本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。

admin

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注