使用AI要防止“数据裸奔” 安全市场2023年将达400亿

  • 日期:08-22
  • 点击:(1695)


?

使用人工智能防止“数据肆虐”中国的数据安全市场将在2023年达到400亿元人民币

金叶

在1982年发行的电影《银翼杀手》中,人类在2019年掌握了人工智能(AI)和复制人的技巧。那些敏捷且能够复制的人经常被用于各种高风险的工作。

尽管这部电影呈现出一个虚构的世界,但实际上,在2019年,人工智能技术也经常应用于医疗保健,智能制造和教育等许多领域。

新兴技术的发展往往是一把“双刃剑”。虽然AI推动了社会各个领域的发展,但作为AI技术的关键因素,数据也成为关键的保护对象。

欧洲市场研究和咨询服务公司kbvresearch已发布预测报告称,数据安全市场将以18%的复合年增长率增长,预计到2023年将达到209亿美元;如果估计到2023年达到全球GDP的20%,中国市场的规模将达到约400亿元。未来,人工智能在数据安全治理领域仍具有巨大的应用潜力。

硬币的两面

在数字经济时代,海量数据不仅可以帮助深度学习所代表的AI算法的设计和优化,而且还可以显着提高数据采集和管理以及数据挖掘的能力。

在上海电力风电的iwind数据中心,大屏幕上实时显示了全国5500多台风力发电机组的情况。这些不同颜色的粉丝有不同的含义。

上海电气集团数字技术有限公司总经理程燕告诉记者,不同的颜色代表了每台风机的健康性能。绿色表示正常操作,黄色表示警报状态,白色表示尚未上载最新的健康数据。利用这些实时数据,他们无需像以前那样手动完成半年度或年度检查。

“台风日也将自我预测这些风扇,在台风路前几个小时停止运行以避免损坏。”数据中心技术人员告诉记者。

大数据分析和人工智能技术的使用不仅仅在工业领域。从具有虹膜识别功能的安全摄像头到装有自动驾驶仪的自动驾驶汽车,人工智能技术的使用已经开始渗透到水和电等经济和社会发展的各个方面。

这些AI应用程序的基础,除了构建底层算法外,更重要的是数据的使用。但是,技术使用的不确定性也会带来隐患。

在2018年曝光的“Facebook数据披露”事件中,剑桥分析公司使用广告导向和行为分析等智能算法推送虚假广告。去年8月,腾讯安全团队发现了亚马逊智能音箱的后门,可实现远程窃听和录音.

中国信息通信研究院最近发布的《人工智能数据安全白皮书》(以下简称“白皮书”)也表明,人工智能应用可导致个人数据过度收集,增加隐私泄露的风险。随着各类智能设备(如智能手环,智能扬声器)和智能系统(如生物识别系统,智能医疗系统)的普及,人工智能设备和系统更加直接和全面地用于个人信息收集。

与用户收集用户在线习惯和消费记录等信息相比,人工智能应用程序可以收集具有强大个人属性的生物信息,如用户面部,指纹,声纹,虹膜,心跳和基因。这些信息是独特的,不变的,一旦被披露或滥用,就会对公民的权利产生严重影响。

“在数据安全方面,像上海电气这样的自建内联网,主要是B2B企业更好。如果公司或个人在没有保护系统的情况下访问终端,很容易出现安全问题。”中国电信和中国东方分公司的首席规划师何仁龙告诉记者,人工智能技术涉及设备安全,数据安全,控制安全,网络安全和应用安全五个方面。其核心是数据安全性。在这方面,医疗领域面临高风险。例如,医疗设备未经过反复测试,患者数据已泄露。而且,这种问题的部分原因是缺乏信息化的专业人员来预防和控制。

电子科技大学教授周涛持相同观点。在最近接受“第一财经”杂志记者专访时,他说,在人工智能时代,医疗行业并不像金融业那么严格,数据泄漏是一个非常严重的问题。 “因此,我们可以尝试对患者的数据进行预先敏感。毕竟,姓名和电话数据与案件没有直接关系,因此对患者的邮箱,电话号码,家庭住址和其他信息进行脱敏也可以减少隐私泄露。”/p>

改善人工智能治理

由于世界主要国家已将人工智能作为提高国家竞争力和维护国家安全的主要战略,因此还引入了一系列涵盖技术产业和治理的规划政策。

上海科学院科技发展研究中心主任王迎春认为,目前的全球人工智能竞争是在两个方面进行的:一是抓住技术和工业的制高点,另一个是竞争有权制定AI治理规则。 “人工智能正在对经济发展,社会进步和国际政治经济模式产生重大而深远的影响。我们需要加强人工智能与社会治理的结合,加强潜在的风险分析和预防人工智能的发展,并加强相关法律,道德和社会。研究问题,建立和完善法律,法规,制度体系和道德规范,确保人工智能的健康发展。“

今年2月,美国总统特朗普签署《美国人工智能倡议》,指出在资源配置方面,联邦政府的数据,算法和计算机处理资源将对美国人工智能开发商和企业更加开放,并提出加强数据安全问题。应对。自6月以来,美国发布了新版本《国家人工智能研究和发展战略计划》,要求所有机构负责人审查各自的联邦数据和模型,重点是保护数据安全,隐私和机密性。

例》,遵守道德和道德法律原则,竞争法等;第二个是“设计安全”,即人工智能在设计之初必须考虑网络安全的保护和相关执法活动的便利化。

同样,在重视数据收集和建设与发展的同时,中国也在推动人工智能的安全应用,以防止人工智能数据风险。《新一代人工智能发展规划》,《促进新一代人工智能产业发展三年行动计划(2018-2020年)》等,都提出了一些来自数据开放和数据风险防范的计划。

特别是在过去两年中,在国家和行业层面都经常采取行动。

2018年9月,《人工智能安全发展上海倡议》在世界人工智能会议期间发布。该倡议提出,人工智能的开发需要保护用户的数据安全。它绝不能牺牲用户隐私。需要加强数据保护立法,丰富人工智能技术路线,不断加强人工智能应用中的用户隐私保护。

今年6月,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则发展负责任的人工智能》,提出了人工智能治理的框架和行动指南,明确提出了和谐,友好,公平,公正,包容的共享,尊重隐私,安全和控制,分担责任。开放式协作和敏捷治理的八项原则。百度,阿里,腾讯和视觉技术也有一些具体措施来促进道德标准和技术保护。

周涛告诉记者,建立人工智能治理专业委员会表明,中国已经开始认真考虑这些问题,这也是一种非常负责任的做法。 “没有关于数据,人工智能和其他事件的明确规定,他们处于自发状态。通过这个委员会,他们将在一步中得到改善。”

然而,白皮书指出,与早期强调一些先进国家人工智能数据安全的伦理原则相比,中国大多数相关的道德原则最近都已公布。此外,长期以来公众对公众数据保护的意识和重要性存在很大差异。人工智能数据安全伦理的社会影响是有限的。

此外,中国还没有形成完善的人工智能数据安全法律法规,数据安全和个人信息保护立法相对滞后,迫切需要加快完成高层次的数据安全立法。根据当前的新技术和新格式保护个人信息。为人工智能的健康发展提供法律支持。

王迎春还写道,中国应坚持技术,产业和规则,建立更加充满活力的动态治理空间,积极实现动态平衡,促进社会创新和有序演进,既促进创新,又防止系统性风险提供保障。人工智能的健康发展。应努力形成务实有效的方法,高度包容创新,高度警惕可能存在的风险,并加强多部门协作治理,以应对新出现的问题。