首页 - 新闻中心 - AI人工智能真假难辨,是否有变坏的可能

AI人工智能真假难辨,是否有变坏的可能

来 源:http://www.ggyhgs.com/发布时间:2017-10-30


  在生活中智能因素无处不在,AI时代的较量已经从最初的信息技术的比拼上升到人工智能算法的较量。因极客的技术破解,人们更在意AI的安全性。珍岛无锡谷歌推广的小编为大家一一讲解。

  AI伪造真人字迹以假乱真

  在此次GeekPwn国际安全极客大赛上,来自中国的选手,利用AI机械臂成功复制了人类的笔迹,并写下了一张真假难分的“欠条”事实上,由于个人书写习惯等因素影响,AI机械臂在学习过程中,需要学习和模仿字迹特有的笔触、线条宽度、书写习惯、字体倾斜程度等,才能成功复制人的书写笔迹。

  据选手介绍,这种技术称之为GAN(生成对抗网络),会提前输入真的书写数据,让AI进行学习,随后利用生成算法来模拟生成一部分假数据,再把两个数据交由判别算法进行辨别,这个机器裁判就像人类笔迹鉴定专家,直到机器裁判都判断不出真假时训练才停止。笔迹是我们日常生活中经常使用的,应用范围之广可以想象,但一旦不法分子成功仿造笔迹,将有可能会盗刷信用卡、签署文件甚至造假等一些列安全问题。早在今年2月,OpenAI 在发表的最新研究中就曾指出AI安全领域的另一大隐忧对抗样本。针对图像识别问题中,攻击者将对抗样本输入机器学习模型,让机器在视觉上产生幻觉,从而让系统产生误判。

  对于AI是否会学坏的问题

  既然人工智能可以通过神经网络学习人类的行为和笔迹、那么是否需同样会自我学习做坏的事情?事实上由于机器人自身程序运行异常而制造的混乱在全球范围内不断出现。

  在2016年时,俄罗斯彼尔姆市就有一个只能销售机器人跑出实验室并奔向马路,后来才知道是由于工程师外出工作忘记关闭院子大门所致,而同年七月,美国硅谷斯坦福购物中心一个安保机器人击打了一个只有16个月大的小孩的头部,导致其扑倒在地。甚至,据美国食品药品监督管理局统计,在2000年至2013年间,将AI融入到手术中的手术机器人引起死亡的事件至少就有144起,伤害案例更是多大1000多个,其中包括脱落的零件掉入患者体内,电火花引起的组织烧伤以及系统故障导致的手术时间过长等。

  对此,GeekPwn发起者称“本次大赛展现的是人工智能技术在安全场景中的应用,而AI会搞破坏,本质上还是人在坐坏,而真正的难点在于AI目前只是个‘婴儿’,成长过程中是否会学坏,还很难断定”。

  对此,上海谷歌推广代理商认为人工智能领域的安全之难,在于机器进行深度学习的时候,运行过程就像一个“黑匣子”,我们无法论证它是如何学习、如何成功的,也反推不过来它是怎么失败的。而通过“神经网络”学习的机器人,也是因为人类输入了相关的资料与学习信息,如果不在某个节点上对安全进行把控,必将会带来不良的影响,所以人工智能时代必须做到安全先行。