你所在的位置: 首页 > 正文

AI时代的“数据隐私”与“算法歧视”

2020-01-24 点击:1549

科技自助媒体/刘志刚

如果说在过去的20年中有任何科技成果可以与上个世纪计算机的发明相媲美,那么这一荣誉一定属于基于深度学习算法的人工智能技术,因为学习算法的诞生使得信息时代的海量信息和数据能够首次为人们提供商业化价值,从而开启了人类“人工智能”的时代。

但是,进入人工智能时代的人们在获得许多技术创新的同时,也付出了自己的代价:在这个以数据为生产力的时代,我们在数据人工智能时代不断“裸奔”,数据人工智能不断与互联网相连。

人工智能智能、算法和数据

如今,无处不在的智能手机、街道监控、地铁安全检查和其他设备都在不同程度上集成到人工智能技术中。事实上,当前的“人工智能”只是算法在线性规划规则下高效“检索”大数据的结果,并通过深入学习不断改进“检索模式”和“反馈模式”。它没有真正独立思考的能力,所以也被称为“弱人工智能”或“轻人工智能”。

然而,即使是没有思考能力的人工智能,在分析和处理海量数据方面仍然比人力有“革命性”的优势。然而,数据、算法和计算力是数据驱动的“准人工智能”的三大要素,决定了人工智能能力和价值空间的上限。其中,算法和计算力是数据载体。如果人工智能算法与引擎相比较,那么数据本身就是人工智能的“燃料”。

对于大数据,百度百科这样定义:“它是指在一定时间范围内,常规软件工具无法捕捉、管理和处理的数据集合。这是一项庞大、高增长和多样化的信息资产,需要一种新的处理模式来拥有更强的决策、洞察和发现能力以及流程优化能力。”小发猫使用5V来表示大数据的特征,即:容量、速度、多样性、价值和真实性。

人工智能与数据尤其密切相关。一方面,大数据为人工智能提供了数据资源,使其能够持续增长和发展。另一方面,人工智能通过数学模型分析来分析和搜索庞大的数据库,以充分挖掘数据背后的潜在价值。维克托迈尔-勋伯格(Victor Mayr-schoenberg)在《大数据时代》中这样描述道:“大数据并不提供最终答案,而只是指答案,并为我们提供临时帮助,以便等待更好的方法和答案。这也提醒我们,在使用这个工具时,我们应该谦虚,记住人性的本质。”

“数据人工智能”和个人隐私是“二元对立”的

毫无疑问,逐渐应用的“数据人工智能”技术在很大程度上为我们的生活创造了极大的便利,如离线人脸识别支付系统的便利体验、人工智能人脸识别应用在安全领域对安全检查效率的有效提高、基于用户数据肖像的数字营销等。基于“数据人工智能”,人们可以实现有效的风险控制和行为预测。随着“数据人工智能”的商业应用,人们在享受便利的同时,也在承担隐私泄露的风险和担忧。

想象一下,在数据世界中,你习惯使用的社交软件可能最了解你的家庭和社会关系,你常用的支付软件可能最了解你的财务状况,你经常在网上购买的平台可能最了解你的购物习惯和购买力。如果您将这些数据结合起来,它将是数据的完整和准确的描述。如果这些数据被泄露,你将完全暴露在数据世界中,被陌生人监视,甚至被用于非法商业交易。

据《华尔街日报》报道,一家英国子公司的首席执行官接到“老板”的电话,要求他在一小时内调到“供应商”。他成功地被罪犯利用人工智能语音技术诈骗了22万欧元。

人工智能语音不仅存在隐私和安全问题,事实上,人工智能视频变脸也存在隐私安全漏洞。以最近在屏幕上闪现的人工智能面板应用程序ZAO为例。随着人气的高涨,其广受批评的用户协议和变脸合成视频的隐私和安全问题也使其陷入舆论漩涡。原因是变脸合成视频触及了人们的隐私红线

目前,人工智能技术的发展要求人们公开他们的数据。另一方面,在现实中,个人数据的开放将不可避免地导致数据泄露的风险。目前,大多数公司必须通知用户并获得他们的同意,才能通过他们的软件收集用户信息。根据一项调查,如果他们想完全阅读隐私政策,这意味着消费者每年需要花费200多个小时。显然,没有人愿意在这件事上浪费时间。

本质上,数据开放和隐私保护原本是二元对立的。一方的利益必然意味着另一方的风险和损失。然而,在现阶段,还没有有效的“数据黑匣子”机制来确保个人数据的绝对安全。对于刚刚进入人工智能时代的人来说,数据开放也成为一种“趋势”。在数据生产力时代,以数据集成、流通和数据反馈为主导的“数据价值创造”将带来效率的飞跃。

数据价值和隐私权之间的动态平衡“妥协”。

人们对数据披露的担忧源于他们对自身利益的担忧。事实上,开放数据的人也可以获得人工智能带来的便利服务。一项调查显示,虽然他们对自己没有影响,可以确保绝对的数据安全,但相当多的人愿意分享与隐私相关的数据。

另一方面,对于一些不愿意分享自己数据的人来说,路人的无意识行为也可能导致人工智能技术下个人数据泄露的可能性。例如,在广场上有牌照的人可以捕捉一些路人的面部数据,而在面部识别技术下,这些路人将被识别,数据将被存储。对他们来说,在未知情况下创建的数据将决定未来数据泄露的风险。

此外,数据本身的价值已经成为数据泄漏的原因之一。事实上,基于智能手机的信息收集比其他方法更容易。通过智能手机的后门软件,你可以收集你的手机号码和地址簿等信息。如果用户没有足够的安全意识,许多软件安装默认会收集各种信息。通过智能手机的唯一识别信息,可以轻松整合数据和定位身份信息。

由于人工智能时代数据资源的性质,大量的用户数据是企事业单位广告投放优化的关键。因此,数据公开意味着巨大的商业价值。在生态布局下,巨人可以通过全链数据路径获得准确完整的用户肖像,巨人也更容易将数据商业化。

对于人工智能技术的提供者来说,在数据价值的指导下收集数据是非常必要的。起初,人们会感到不安,因为数据被第三方使用,从而声称自己的隐私。事实上,如果数据本身的应用不会给用户带来麻烦并带来方便的服务,那么此时一些用户会愿意接受共享数据。因此,人工智能技术的提供者应该对数据价值的商业应用持更加谨慎的态度。

在我看来,在人工智能数据时代,数据的商业价值和用户的隐私权之间需要有一个动态的平衡,也就是说,在法律范围的临界点内,需要有一个数据收集器和用户之间的连接机制,以确保在数据生产者的控制下,数据的商业价值能够得到有限程度的利用,并且能够在隐私保护和人工智能技术的便利性之间达成妥协。然而,在隐私法、财产法等相关法律对数据所有权权益没有明确立法的现状下,数据的有限使用仍然需要依靠企业的自觉意识。

数据算法偏差下的人工智能判别。

在大数据时代,数据的存储成本非常低,这也意味着在数据驱动人工智能时代,一旦数据生成,就很难完全消除它。在降低数据存储成本规模的作用下,完全删除数据的成本更高,因此,数据存在的时间更长,甚至超过了创建者本人的寿命。随着存储成本的进一步降低,个人数据可能在不久的将来被无限期地存储。

大数据的意义在于直接应用数据分析结论,而不是探究事物的“规律性”。因此,大数据通常用于结果预测。事实上,t

换句话说,如果收集的数据本身有一定的趋势,那么从它训练出来的人工智能自然也有这种趋势。美国的一项调查证明了这一点。在基于数据分析的族群预测算法中,该算法通常在预测族群时预测那些生活在有黑人歧视历史的地区的人,但事实并非如此。

作为另一个例子,在STEM(科学、技术、工程、数学)的招聘广告中,广告商发现广告很少以女性为目标,而事实上广告商希望广告是中性的。然而,在“双曲线贴现”效应下,数据的及时性导致数据“不准确”,进而导致“算法歧视”。

双曲线贴现也称为非理性贴现,这是行为经济学的一个概念。这种现象描述了贴现率不是一个常数,特别是,人们在评估未来收入的价值时,倾向于在近期使用较低的贴现率,在远期使用较高的贴现率。

例如,大多数人可能更喜欢一年后取今天的60元而不是100元,因为今天的60元收入可能更有价值,而如果人们选择一年后取60元或两年后取100元,大多数人会在两年后选择100元。也就是说,人们会因为收入时间的不同而做出不同的决定。

因此,在双曲线贴现的情况下,人们短期决策行为产生的数据会导致数据本身不准确,从而在数据偏差导致算法偏差后更容易在应用层面造成“算法歧视”。因此,对于数据人工智能的用户来说,算法的应用需要更加谨慎和小心。

结束:

数据人工智能时代的个人隐私问题和数据偏见下的“算法歧视”都是大数据人工智能发展中不可避免的问题。对人们来说,数据收集端的隐私侵犯和人工智能应用层面的“算法歧视”都是道德甚至法律的边缘诱惑。对于仍处于“婴儿期”的人工智能技术来说,如何根据人类价值观和道德标准正确引导和影响其发展,创造更大的价值,是一个值得人工智能创造者深入思考的问题。

科技自媒体刘志刚,订购游行编号:互联网江湖,微信号:13124791216,转载并保留作者版权信息,违者将被起诉。

辣炒鸡丝

日期归档
科尔沁资讯网 版权所有© www.rcgclub.cn 技术支持:科尔沁资讯网 | 网站地图