HICOOL专访|张宏江:AI技术发展需要建立隐私保护共识

2021年12月18日/ 浏览 97

9月11日,HICOOL2021全球创业者峰会在京举办,会后北京智源人工智能研究院理事长张宏江接受了新京报的专访,就目前人工智能的现状和发展分享了自己的看法。  

智源人工智能研究院是在科技部和北京市委市政府指导和支持下的新型研究机构。张宏江表示,建立智源研究院的初衷就是保持和发展北京市在人工智能科研和创新方面的领军地位,建立不到三年取得的成绩还算令人满意。  

近年来,人工智能发展迅速,但在隐私、数据安全、算法推荐等方面仍存在一些技术悲观论。对此,张宏江表示,技术带来的算法推荐、偏见等隐忧是可控的,数据安全和隐私保护也是未来技术发展的基本原则,解决这类问题需要建立一个共识,“这种共识就是,我们一定要保护个人的隐私,这并不意味着我们人工智能不能用个人的数据,而是一定要在当事人知情的情况下,用完后一定不要侵犯这个人的隐私,这都是基本的原则。”  

而对于企业的数据安全,他期待未来能够把这种共识变成企业的规则,嵌入到企业的服务设计中,除此之外更重要的是法律方面的完善,“不可能有任何一个机构能够控制所有企业的行为或者个人的行为,最后控制个人和企业行为的一定是法律,而不是行政手段。”  

提到AI偏见,张宏江认为这不是个负面词汇,“AI偏见是基于数据的偏见,未来通过数据的不断补充,这方面的问题也可以解决。”  

关于人工智能的未来,在张宏江看来,还有很大的增长空间,大模型时代的到来将为人工智能领域带来非常大的变化。  

所有事情都要在保护和发展中达成一种共识  

新京报:前不久,网信办出台了规定,严管企业的算法推荐,你怎么看待这件事?算法推荐算是人工智能带来的负面影响吗?  

张宏江:推荐算法本身是人工智能的一个非常好、非常有效的应用,有问题的是算法背后的人,推荐什么一定是由设计算法的团队来确定的,那么它是基于用户习惯来推荐还是针对某个法律要求来推荐,其实是可控的。  

比如在购物平台购买推荐、天气预报推荐就是比较好的应用,这个算法一定是有用处的,而且大大地帮人提高效率,只是说把它用在什么地方,这是人可以控制的。  

新京报:随着AI技术的发展,出现了很多代替人的技术,比如无人驾驶、智能家居包括和我们相关的AI采访,未来人工智能和人类的关系是怎样的?  

张宏江:我们为新华社做了一个AI记者,AI永远是人的工具,目前我们还看不到AI有意识的那一天。  

新京报:人工智能被越来越多地运用于决策制定,比如面试评估、风险评估、信贷预测等,人们普遍认为没有意识、情感的AI会做出更公平中立的决策,但最近有研究显示存在AI偏见,你怎么看?  

张宏江:AI偏见是目前做AI的服务和产品工程领域的人都在花时间留意的,“偏见”这个词在英文里面是bias,这是一个中性词,不是负面的词,偏见是长大过程中形成的概念。如果你把一个孩子放在可控的环境里面长大,他就只知道的环境里面他被教育的事情,比如你从来没有看过黑人,你看黑人会问出一些“他是不是人”这种非常蠢的问题,比如你就在北京长大,从来没有听别人说过外地的方言,你认为这个世界说的话就应该是普通话,那你听到方言的时候,就会觉得很奇怪,这也是一种偏见。  

所以,偏见这件事情跟你有没有接触过,你的形成过程,你的知识是否完备有关。人工智能的偏见很大程度上是因为人工智能的训练本身靠数据来做,有些数据没有,有些数据太强都可能形成偏见。  

新京报:所以,还是数据不够全面,未来能够解决这个问题吗?  

张宏江:当然,原来人脸识别对于女性不友好,识别率不高或者是准确率不高,是因为它的数据不够多,多放点女性的数据进去,在训练中再加以调整,就可以解决。  

新京报:你也提到AI是建立在数据的基础上,近两年,数据保护受到越来越多的重视,不管是个人隐私还是企业数据上,如何平衡数据保护和技术发展的关系?  

张宏江:这块也是智源研究院一开始就非常注意的一个方面。我们在2018年年底成立以后到2019年5月,就发布了一个《人工智能北京共识》,谈了15个原则,很重要一条就是关于数据和隐私保护。随着人工智能的普及,就像移动互联网的普及一样,人工智能的普及一定会把数据保护和隐私保护带到日常当中来,我们所有的事情都一定要在保护和发展中去达成一种共识或妥协。  

这种共识就是我们一定要保护个人的隐私,当然并不意味着我们人工智能就不能用个人的数据,但是一定要在当事人知情的情况下,用完以后一定不要侵犯这个人的隐私,这都是基本的原则。所以,在立法这个层面当中,也经过了多年的考虑,我们有研究机构专门研究隐私、大数据、AI之间的政策和伦理这一系列的内容。我相信经过大家的研究,会达到都能够接受的共识。然后能够在伦理、法规方面有所建树。  

新京报:这其中有一个问题是,现在很多数据存在企业手里,我们怎么去管控这个企业去维护个人的利益?  

张宏江:完全可以用法律法规手段做这件事,除此之外,智源在大力推广的就是在企业中建立共识,让这种共识变成企业的规则、企业的规范。这种规范包括把我刚才说的这些原则嵌入到服务设计中去,不可能有任何一个机构能够控制所有企业的行为或者个人的行为,最终一定是法规法律来规范个人和企业的行为,而不是说简单的行政手段,因为行政手段也跟不上技术的发展。  

人工智能大模型时代到来,未来人工智能还有很大的发展空间  

新京报:那你觉得现在进入后疫情时代,AI将会发挥怎样的作用?另外你怎么看待最近的元宇宙概念?  

张宏江:我想在疫情时代,大家开始隔离,减少物理上的活动,减少在工作场所的聚集,这样其实推动了虚拟办公的发展,像腾讯会议、美国的ZOOM、微软一系列办公的技术得以广泛的应用,这背后其实也有很多是AI在驱动。经过一年半的疫情,人们逐渐适应了远距离的交流、办公,我想也会让人们改变一些行为的方式,这是为什么有很多美国的企业到现在还都是远程办公,企业对时间效率非常在意,科研开发的效率是否有所降低?事实上是有所改善,而不是降低。  

人们习惯的改善,我认为未来会很大程度上影响到新技术的发展,也会推动AI的发展,而AI反过来也是这样。另外,元宇宙的背后一定是互联网、AI、区块链的驱动。  

新京报:你未来最期待的人工智能技术是什么?  

张宏江:我在大会上讲的大模型的技术,就是语言大模型,它的核心在于以前在自然语言的任何应用上,包括图形的任何应用上,都会需要安置一定的应用场景来训练自己的模型,形成了无数多个小模型。大模型把大量的语料放在一起,通过大规模的计算,搭起了1.7万亿的参数大模型,从而使得在不同的应用里面,只需要一些具体的调试,就能够应用。  

这背后的话是什么意思?相当于100年前,建个工厂的话,第一件事买个发电机自己建发电厂,要不然的话就没有电。今天做大模型的意思就是相当于100年前所有工厂把自己发电机拆掉,接的是电网。大模型就是智能源,以后接上它就可以做很多事情,这带来的变化实际上是非常有意义的,也会让我们看到无论机器翻译、对话甚至设计,说一句话做一个设计图,AI自动把图设计出来。或者我发朋友圈的时候想配上一首诗,这些大模型都能够做。  

所以,整体来说是潜移默化的。  

新京报:最后一个问题,智源研究院当时建立的初衷是什么?这三年有没有达到你的预期?  

张宏江:初衷就是保持和发展北京市在人工智能科研和创新方面的领军地位,我们是通过挖掘北京市的科研人员,把他们变成智源学者,带动北京的科研,进一步靠创立创新中心的方式,让创业成果变成创业公司,逐渐挖掘出商业价值。  

三年下来的话,尤其大模型的发布,还不错。  

新京报贝壳财经记者 宋美璐 编辑 徐超 校对 贾宁  

picture loss