到目前为止,你或许现已听说过一些国家的社会信誉评分体系。它结合了面部辨认技能和各种个人数据来判断你是否是一个好公民。例如,乱穿马路,你会在一分钟内被罚款,另外你的社会信誉分数也会被扣分。假如你被看到和“不利于社会”的人呆在一同,你终究也或许会被列入黑名单。你肯定不想出现在名单上,除非您希望自己的网速变慢或被制止乘坐公共交通工具。
在美国,也有相似的痕迹,从被踢出一个交流平台,到被制止进入酒吧。还有,人寿稳妥公司能够依据用户在交际媒体中的发帖内容来计算保费,比方用户交际媒体账号中的照片:显现用户在攀岩或进行其他冒险运动;或许显现用户在黄石公园中一手拿着马提尼酒,一手拿着油炸食品,嘴里还叼着烟;或许显现用户在做瑜伽。然后,稳妥公司依此来添加或削减用户的稳妥费用,或许拒绝为该用户供给稳妥服务。
但经过深思熟虑后,我变得更加忧虑。在最坏的状况下会发作什么,来自咱们智能家居内部的交际数据会被用来抵挡咱们?
在某种程度上,这现已发作了,虽然不是以让我所忧虑的方法。
例如,你能够挑选一家汽车稳妥公司,让他们监控你的驾驭模式几个星期:一个小型的物联网设备插到你的汽车上,收集驾驭数据,然后将其发送回稳妥公司。假如数据显现你是一个负责任的司机,那么你就能够取得更低的稳妥费率。
咱们还看到了一些事例,其中来自可穿戴设备或智能数字助理的数据现已被用于刑事诉讼。即便如此,这些状况大多也只是个例。
假如这些从个例变为常态呢?我认为这是最坏的状况,并存在令人担忧的潜力。
由于你自愿供给驾驭数据的时间有限(接受稳妥公司数周监控),因而稳妥公司给了你一个安全驾驭稳妥折扣,假如你的智能家居摄像头注意到你一向坐着抽烟或喝酒,稳妥公司想必也会对此十分感兴趣,到时,你在汽车稳妥上节省的费用就会出现人寿稳妥账单中。我信任潜在的雇主也会希望在未来的国际里看到相同的摄像头——或许至少是来自摄像头的数据,然后面试或许就会因而而终结。
这乃至不用忧虑侵略隐私或有那么大的影响,想想咱们装置的物联网恒温器。你是一个“坏公民”,由于你不像一般公民那样节约能源,只因你喜爱屋里凉快或温暖如春。在今日的国际里:这是你的房子,只需你支付水电费,一切都很好,对吧?但在未来的国际里,无所不知的公用事业公司或许会以比其他住户更高的费率来冲击你,只是由于你是资源的耗费者。
此外,在GPS和手机定位服务之间,更不用说带有面部辨认功用的视频门铃和摄像头了,看谁进出你家并不困难。假如某个访客在一个可疑的“不利于社会”名单上,你或许会因而而受到牵连。
在本周早些时候与我的一次谈话中,史黛西提到了她个人的一个真实比如,这个比如充分说明了咱们的智能家居设备及它们收集的数据是怎么引发这些问题的。史黛西的老公问她“你跟上床了?”这听起来像是一个古怪的问题,但她正在测验睡眠传感器,传感器数据告诉她老公“床上有2个人”。实际上是:史黛西和她的女儿。
这里的关键不是说“不要在有智能家居的房子里有外遇”,而是,咱们并不总是知道智能家居的数据能够用来做什么。并且我想用户也会用这些数据来诈骗“老大哥”:例如,我能够在狗身上装置一个跟踪器来诈骗健康稳妥公司;或许,咱们或许会看到一些GPS诈骗运用(其中有些现已存在),这些运用向老板显现咱们在办公室里作业,但实际上咱们正在球场踢球。
咱们会跟从某些国家的脚步取得全面的社会信誉评分吗?应该不会。虽然如此,咱们数据的或许性和未开发的运用,特别是在智能家居中,让我比以往任何时候都更加忧虑。