• 2020-04-09 15:00:14
  • 阅读(6736)
  • 评论(3)
  • 人工智能年代怎么"杀毒" RealAI推出可在线测评算法模型安全渠道

    中新网北京4月9日电 (记者 张素)大规模网络进犯曾倒逼杀毒软件的诞生,人工智能年代针对算法缝隙这一"新式病毒",又该怎么"杀毒"?记者9日从RealAI(瑞莱才智)得悉,他们推出针对算法模型自身安全的检测渠道,相当于人工智能年代的"杀毒软件"。

    RealAI是一个孵化自清华大学人工智能研究院的立异团队,相关研究成果已被FoolBox等开源软件录入为规范。RealAI还与清华方面组成战队,在人工智能范畴多项国际大赛中斩获冠军。

    RealAI的首席执行官田天介绍,团队最新推出的RealSafe人工智能安全渠道能够供给从测评到防护完好的解决计划,快速缓解对立样本进犯要挟。

    因为人工智能或可完结对人脑的代替,因而,在每一轮人工智能开展浪潮中,人们都十分重视其安全问题和道德影响。业界专家以为,当时针对"人工智能安全"的界说首要来源于"赋能安全运用"和"防备技能危险"两个层面。

    其间,后者是对现阶段因为人工智能技能不成熟以及歹意运用所导致的安全危险,包含模型缺点、算法不行解说性、数据强依赖性等,本质上由人工智能"技能短板"所形成的,是约束人工智能开展最显着的"软肋"。而在我国信息通讯研究院2018年编制的《人工智能安全白皮书》中,"算法安全"是人工智能六大安全危险之一。白皮书还指出"对立样本进犯诱使算法辨认呈现误判漏判"这一算法模型缺点为算法安全的重要危险项。

    田天解说,对立样本原本是机器学习模型的一个风趣现象,经过在源数据上添加人类难以经过感官辨识到的纤细改动,让机器学习模型承受并做出过错的分类决议。可是经过不断晋级演化,对立样本进犯已不只停留在数字国际。

    "在路面上粘贴对立样本贴纸仿照兼并哈萨克斯坦试管婴儿条带误导自动驾驶轿车拐进逆行车道、佩带对立样本生成的眼镜容易破解手机面部解锁、胸前粘贴对立样本贴纸即可完结隐身……"他举例说,对立样本会导致人工智能体系被进犯和歹意侵扰,成为要挟到人工智能体系的"人工智能病毒",在人脸辨认、自动驾驶等范畴或将形成难以拯救的丢失。

    但是,业界关于怎么点评算法模型的安全性并没有清楚的界说,对立样本等算法缝隙检测存在较高的技能壁垒,现在市面上缺少自动化检测评价东西。

    田天表明,相较于现在常见的开源东西需求自行布置、编写代码,RealSafe渠道支撑零编码在线测评,用户只需供给相应的数据即可在线完结评价。为协助用户进步对模型安全性的概念,该渠道依据模型在对立样本进犯下的体现进行评分,还供给模型安全性晋级服务,支撑五种去除对立噪声的通用防护办法。部分第三方的人脸比对API经过运用RealSafe渠道的防护计划加固后,安全性可进步40%以上。

    "推出安全检测渠道是躲避危险的一条途径,未来还需求联合各界力气一起推进人工智能安全相关的国家规范、行业规范、联盟规范的拟定,为人工智能产品安全评价评测的一致参阅。"他说。(完)

    来源:版权归属原作者,部分文章推送时未能及时与原作者取得联系,若来源标注错误或侵犯到您的权益烦请告知,我们会及时删除。联系QQ:110-242-789

    27  收藏