戴上头盔,蒙上口罩,走进售楼处瞧一瞧。如此魔幻的一幕并非电影中的黑色幽默,而是现实中的“科技恐慌”。前不久,网上流传的购房者“蒙面看房”视频引发热议。按照房产圈的解释,房企用人脸识别技术将到访客户划分为自然来访和中介渠道,再分别给出不同的购房折扣。购房者担心被“划错阵营”,无奈出此下策。因涉嫌不当收集、使用个人信息,目前南京市相关部门已通知多家售楼处,要求拆除人脸识别系统。

用科技手段将客户分成“三六九等”后进行区别对待,企业无论怎么粉饰这种行为,都难以掩盖商业道德上的瑕疵。企业追求利润无可厚非,社会大众担心的不是企业营销策略上的精打细算,而是在智能技术的帮助下,企业“看人下菜”变得更简单,隐形歧视变得更常见,消费者合法权益更难得到保障。前有手机APP“大数据杀熟”,今有售楼处“同人不同价”,若不能为智能技术划定使用边界,像“蒙面看房”这样荒诞的事情就会一再上演,人们对智能技术就会产生怀疑,甚至是恐慌。

一些企业对智能技术的不当运用,看似是“脑洞大开”,实际上是“万事俱备只欠东风”。对企业来说,理想的消费者最好搞不清商品的质量怎么看、供求是否紧张、品牌价值有多大。信息越是不对称,企业的营销就越灵活,赚取高额利润的可能性也就越大。很多企业刻意维持信息不对称的优势,但消费者可以通过观察、对比、问询等方式掌握一定的信息,特别是互联网技术的发展一举打破了传统的信息垄断。但智能技术的出现,让企业再一次掌握了主动权。消费者的购买力、行为习惯甚至是性格偏好都可以通过数据收集、智能分析得出,一旦被精准画像,消费者在商家的营销攻势面前,就丧失了相当程度的选择权和知情权。

小到打车费用的几元几角,大到购房优惠的数千数万,仅仅是商业上的价格歧视就让人难以接受。然而,智能技术的运用空间远不止于此,它活跃在安检、招聘甚至司法审判领域,带来了不少社会问题。以人工智能为例,它在自我学习的过程中也会接触、吸收人类社会的偏见与负面信息,遭到“数据污染”;甚至在算法设计上就存在偏差,用看似客观的数据得出充满偏见的结论。美国亚马逊公司曾解散过一个人工智能招聘团队,因为他们设计出的人工智能程序极端“重男轻女”,会自动给女性求职者降低分数。可见,智能技术摆脱不了人的影响,做不到足够客观,若是一些企业再出于一己私利使用不当,产生的影响将难以想象。

智能技术的自身缺陷需要通过科技进步逐渐解决,而使用时的“规矩”则应一开始就立下,在坚持中不断完善。我们要向人脸识别系统的滥用说不,明确在哪些场合能够使用,在程序上有哪些步骤,数据又该怎么管理。我们要向大数据系统的滥用说不,理顺整体数据分析和个别数据使用之间的关系,防止大数据沦为“割韭菜”的工具。我们要向人工智能系统的滥用说不,在确保技术的透明与公正之前,在技术的使用中留下足够的温度。为智能技术立规矩,法律要跟上,企业应配合,社会需重视,这不是一座城市、一个行业的事情,而应成为公共治理中的日常图景。