查看原文
其他

人工智能的负面思考

一次性进群,长期免费索取教程,没有付费教程。

教程列表见微信公众号底部菜单

进微信群回复公众号:微信群;QQ群:16004488



微信公众号:计算机与网络安全

ID:Computer-network

人工智能给我们带来价值的同时,也存在着潜在风险。


人工智能伦理问题开始出现个案


2017 年 1 月,在加利福尼亚州阿西洛马举行的 Beneficial Al 会议上,近千名人工智能相关领域的专家,联合签署了著名的《阿西洛马人工智能 23 条原则》。


随后,各种关于人工智能伦理道德的讨论、会议,以及相关协会和科技组织开始出现在公众视野里。


《23 条原则》的主要内容,就是呼吁人工智能不能损害人类的利益和安全,同时人工智能必须可以被人类控制,同时人类要尽量尊重人工智能和机器人的安全。


听起来颇有点科幻的味道,但是在各行各业开始部署 AI,尤其开始利用 AI 进行自动化决策的时候,人工智能的伦理与道德问题或许真的会浮出水面。

比如说,自动驾驶车辆在马上要发生事故时,是优先保护路人还是乘客?假如 AI 诊断系统,给出的建议是安乐死,那么它算是杀人吗?为了避免更大损失,AI 系统是否能打破规则,自行其是?


这其中最著名的,是谷歌批评上海交大某团队进行的“看脸定罪犯”研究。引发了媒体对于 AI 价值观的大量讨论。


在各个产业场景开始使用 AI 技术时,随之而来的边界问题、责权问题、道德选择问题这些在实验室中不会出现的矛盾将很可能被引发。


人类还从未真正讨论过这些。假如人工智能的落地化足够快,伦理问题的苗头或许会临近。

难以根治的的算法歧视


之前微软曾推出过聊天机器人 Tay,却因为用户教给它大量种族歧视和脏话,一天内就被暂时下线。这引出了一个极具争议的话题:机器学习会吸收人类的知识和信息来塑造自己,那么假如它吸收的信息含有大量“不那么纯良”的东西呢?


现在,算法歧视问题非但没有被解决,各种各样新的问题还应运而生。比如谷歌大脑会给女性图片打上很多关于家庭、弱势的标签,显然有悖于女权主义精神;而把黑人识别为大猩猩,则点燃了 AI 种族歧视的话题关注度。

所谓的算法歧视,对于普通消费者来说,最有可能在内容推荐和电商推荐两个地方感觉到。比如说消费者刚看过宽大的衣服,电商就推荐减肥药,很可能让消费者联想到算法在歧视自己胖;再比如打开今日头条这类软件的时候,大家可能都出现过这种情况:偶尔点了一个推荐来的猎奇或者伪色情内容,然后再一刷新。好嘛,蜂拥而至的类似内容啊,你本来想看的兴趣内容和专业内容瞬时间化为乌有。甚至你怎么点我不关心不喜欢,平台还是给你推荐。这就是因为算法的归类方式给你贴上了标签。这种歧视感也蛮严重的,好像背后有个人奸笑着对你说:“承认吧,你就是这么低俗……”


这类问题的根源,是机器学习技术进行个性推荐,今天还必须建立在两个逻辑的基础上:以过去算将来,以群体算个体。算法会吸收以前有过的经验来给你特定的某些东西,但很有可能歧视信息就包含在机器吸收的经验里。


在个性推荐系统越来越多场景应用可能的今天,我们恐怕短期内还难以根治算法的歧视。


私人数据与机器学习的矛盾日益凸显


人工智能和个人隐私,似乎从来都是一对天敌。


因为人工智能技术假如想要提供个性化、完全符合个人习惯的服务,那么就必然要学习和理解用户本身。而这其中,就涉及对用户私人数据的学习。


但出于隐私的考虑,以及对网络安全的不信任,大部分用户显然是不希望透露自己数据给机器的。


从而“鸡生蛋蛋生鸡”的矛盾就产生了。


近年来,用 AI 来读取用户个人数据这件事一直处在被压抑和不能提的状态。更早一点的时候,苹果和谷歌等大公司都推出过让 AI 读懂用户的产品,但很快就被舆论抨击给关停了。即使这样,谷歌去年推出的家用 AI 相机还是饱受诟病。

我们看到了 AI 芯片拉开了风云际会的争夺序幕。但是搭载 AI 芯片的硬件一定要有的放矢,有任务可以完成。于是让硬件读懂用户、让系统根据用户数据提供千人千面的服务,势必会重新回到公共视野里。


其实从大趋势上看,把个人数据交给机器似乎是人类不可避免的归宿。无论是医疗健康、金融服务还是社会安全,机器肯定都比人类更靠谱。只是这其中经历的不适感和安全风险是巨大的。


未来,无论是手机、音箱、穿戴设备、VR,在启用了机器学习能力后,似乎都要重新沾惹隐私数据这条红线。


究竟怎么处理这个矛盾,也是挺让人头疼的。


真假越来越难分


就目前来看,希望 AI 能像人一样对话和理解,显然还是为时过早的一件事。但是让 AI 来造假,似乎已经问题不大了。


视频和直播换脸的可能从整个技术进度来看,基于 GAN 的仿真和替换技术正在整体成熟。无论是模拟替换音频还是视频文件,AI 都已经能够得心应手的处理。


但这肯定不会是什么好事。在著名的 Face2Face 软件推出的时候,国外网友就惊呼,假如跟我视频聊天的人被替换了怎么办?

而在开发框架和数据资源越来越丰富、算法越来越强劲的今天,大概我们可以很肯定的说:未来用 AI 来伪造视频音频将更加天衣无缝。


这是 AI 对未来技术的探索,却很可能引发社交媒体和网络传播的动荡:当我们看到的视频都可以完全造假的时候,这个世界还有什么可以相信呢?


假作真时真亦假,只能期望反 AI 造假的 AI 系统也尽快出现吧。


黑客攻击有更多花样


2017 年年末,谷歌 TensorFlow 被惊人的爆出框架漏洞,虽然是被白帽子找到,没有造成危险,但这还是点醒了我们一点:AI 并不安全。


至此,我们已经见识过了各种黑客攻击和 AI 技术结合的可能性:用 AI 来伪造文件信息实施攻击和诈骗;利用 AI 技术来提升黑客攻击效率;以 AI 系统为目标的攻击。随着 AI 和物联网体系的结合,未来物联网攻击中很可能也会加入 AI 的身影。


AI 技术的成熟,让网络黑客们找到了更多的目标、更多的工具以及更多的技巧。虽然 AI 同样给我们提供了各种保护互联网安全的方式。但无论如何,AI 带给了黑客更多可能性是毫无疑问的。

微信公众号:计算机与网络安全

ID:Computer-network

【推荐书籍】

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存