原汁原味的内容在这里

身为一线的智慧型装置领导品牌,苹果的一举一动都是媒体关注的焦点,日前Apple对外宣布,未来装置会透过更新导入neuralMatch客户端的分析工具,可让Apple扫描存储在客户端的iCloud和iOS设备上的照片,藉此打击儿童色情、甚至是儿童性虐待等素材,简单来说,neuralMatch将扫描用户上传到 iCloud 照片的任何照片、图片,并与现有儿童色情数据库比对,若有出现匹配的情况,将会通知相关单位进行处理。

为了打击儿童色情,Apple对外宣布未来的安全更新,将允许Apple扫描上传到 iCloud的所有图像,并标记任何与 NCMEC的儿童性虐待材料 (CSAM) 数据库中、已知图片匹配的影像…

但这个举动,让很多家长反弹,因为生儿育女的过程中,一定会为宝贝拍摄很多的照片或者影片,其中尔偶也会出现小孩穿着内裤、或者光屁股的照片,这样是否会被有心人士拿来利用举报呢?

苹果表示,他们是根据「美国非营利组织国家失踪和受虐儿童中心」,目前所收集的大约20万张性侵等照片进行比对,只要用户上传到iCloud的每张照片都会得到一张“安全凭证”,上面写着是否可疑,一旦有一定数量的照片被标记为可疑,就会启动解密所有照片,如果影像图片违法的话,将立即报告给当局!

所以并不是拍自己的小孩光屁股就会出事…主要还是会透过比对

既然会透过资料比对,代表用户的隐私权是否就被APPLE给侵犯了呢?许多专家认为这可能会对用户的隐私构成威胁,因为如果苹果这样做,这可以为全球用户监控数百万台设备打开大门,因此在经过「热烈」的攻防之後,苹果在九月初正式对外宣布,这个原定在美国先行推出的更新,将蒐集更多资料後再议!

其实苹果还是很保护隐私权的,常常都会出现执法机关要求苹果解锁手机遭到拒绝的案例!

(´◔ ₃ ◔`) 是说儿童色情比成人色情更容易比对吗?

相关宅文

Σ>―(〃°ω°〃)♡→老司机的福音!《Apple Map》支援测速照相警示,COVID-19机场旅行指南资讯也上线啦!

Σ>―(〃°ω°〃)♡→车震!苹果要推自驾车?电动车?还是电动自驾车?《Apple Car》将引发一连串车市震动!

Σ>―(〃°ω°〃)♡→《资深动画师谈儿童向作品》女生的裙子宛如铜墙铁壁 强调胸部的动画师请去画同人志

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论