苹果高管:外界对儿童保护功能理解混乱,此功能被误解
鞭牛士 8月16日消息,苹果公司近日推出了三条打击儿童性犯罪的和性侵害的功能:机器筛查Messages信息,当孩子收到色情图片时,图片会变得模糊,并且Messages应用程序会显示一条警告;儿童性虐待内容(简称CSAM)检测,该功能让苹果检测存储在iCloud云端照片中的这类图像特征信息,如果确定有此类图像,苹果会向执法部门报告;Siri和搜索功能改进,人们可询问Siri如何报告儿童性虐待内容或性剥削,Siri将告诉用户在哪可以汇报给有关部门。
但这些也引发了人们对隐私保护的担忧,其中引发争议的主要是第一二条。对此,负责软件工程的高级副总裁克雷格·费德里吉(Craig Federighi)表示,同时引入这两个功能是造成这种混乱的一个缘由,对这些功能的批评集中在苹果正在分析用户iPhone照片上,他表示苹果公司是在分析图像是否与国家失踪和受虐儿童中心提供的已知CSAM图像数据库匹配,而不是分析图片本身。
