学界要闻

“人工智能与法律的碰撞”研讨会暨《人工智能:国家人工智能战略行动抓手》新书发布会在京举行

信息来源: 中国法学创新网 发布日期: 2017-11-16 浏览次数: 250

11月10日晚,“人工智能与法律的碰撞”研讨会暨《人工智能:国家人工智能战略行动抓手》新书发布会在政法大学研究生院隆重举行。腾讯研究院首席研究员蔡雄山、财讯传媒集团首席战略官段永朝、中国人民大学法学院教授杨东、中国政法大学副教授朱巍出席本次研讨会,对于人工智能时代给人们的生活、认知及社会治理将带来怎样的挑战进行了热烈的讨论。

blob.png

blob.png

  该书作者之一腾讯研究院蔡雄山首先介绍了腾讯《人工智能》一书的写作背景、写作过程和主要内容,他指出,国家战略、企业战略和技术突破都表明:人工智能将是下一波产业的浪潮。人工智能时代的到来,将会带来很多法律问题,如数据带来的法律问题、算法歧视问题、监管和责任承担问题、知识产权问题以及机器人带来的法律人格的问题。

  在研讨中,各位嘉宾分别从各个方面对于人工智能发表了不同观点,财讯传媒集团首席战略官段永朝介绍了人工智能的过去现在,并提出“面对人工智能,我们不是要通过想象明天想后天,而是要直接想象后天,这对于年轻人至关重要。”副教授朱巍从战争、基因、生死、伦理四个方面解读了人工智能。杨东教授从人工智能写入十九大报告讲起,认为人工智能的发展离不开区块链的应用,区块链技术是实现数据的共享开放和个人隐私保护的重要结点。

blob.png

  讨论环节,现场学生非常积极踊跃,争先恐后向在座嘉宾提问,几位嘉宾针对“人工智能是不是一个新的泡沫?”、“人工智能能否替代人类”等问题一一进行解答。

blob.png

  《人工智能:国家人工智能战略行动抓手》一书为读者构建出整个人工智能的知识体系。人工智能技术的真相究竟是什么?在人工智能领域,哪些是国家和产业界最关注的方向?人工智能究竟会给我们带来怎样的冲击和挑战?中国要成为世界主要的人工智能创新中心,国际竞争的焦点在哪里?对这些问题,《人工智能:国家人工智能战略行动抓手》一书都做了回答,是全面了解人工智能的必读作品。


  人工智能时代,你要提防哪些法律难题?——蔡雄山首席研究员携腾讯《人工智能》法大演讲

  腾讯研究院法律研究中心副主任 首席研究员 蔡雄山

  上周我们发布了新书《人工智能》,是由我们腾讯研究院,腾讯人工智能实验室,腾讯开放平台还有中国信息通讯研究院,一起撰写的,由中国人民大学出版社出版。我觉得这本书应该是目前业界比较全面的介绍人工智能的一本书。我们这本书写作时间大概有一年,我们谈了人工智能的技术,谈了人工智能的产业,谈了人工智能的法律与伦理问题,以及人工智能的未来,我讲的一些内容书里会有详细介绍。

  美国有一个作家写了一本书——《当我们谈论爱情的时候,我们在谈论什么》,借用这个句式,我想问:当我们在谈论人工智能的时候,我们在谈论什么?前两天在路上遇到一个好朋友,我说我们写了一本书《人工智能》,现在中国的人工智能发展得非常快,结果他问:你们的人工智能通过图灵测试了吗?按照这个理解,人工智能就像影片里的机器人,智力非常高。但是我觉得事实上可能我们很多时候把人工智能理解为超人的东西了。其实不是。通常来说讲人工智能分为几个阶段:第一阶段叫弱人工智能,可以处理一些简单的东西。这个阶段,在我们的生活当中无处不在,现在用的很多东西都是弱人工智能。例如,我刚才开车从中关村到政法大学,我用高德导航,我特别担心跑到昌平去,这个导航和语音就是人工智能,这个语音技术就叫语音识别技术,人工智能里还有图像识别的技术,比如大家都用支付宝,你把摄象头打开之后,通过图像识别锁定这个人就可以支付了,这个也是人工智能技术的应用,产业应用很多了。我们现在将的无人驾驶的汽车,我们无人飞行器等等,都是人工智能技术的应用。这是弱人工智能阶段。

  下一个阶段叫强人工智能。大家觉得阿法狗很厉害,其实也是弱人工智能阶段,因为它只能处理单一任务。而强人工智能可能像人一样去思考去行动。我们在很长一段时间内都会处于弱人工智能阶段,什么时候把机器造得像人一样去行动、思考,从技术来讲有非常大的难度。

  再下一个阶段就是超人工智能阶段。超人工智能什么时候能实现?有人说50年,也有人说100年,如果去跟工程师聊,他们会觉得你们文科生想多了,意思就是说技术上在很长时内实现不了。

  虽然我们离强人工智能和超人工智能还比较遥远,但是人工智能是下一波产业的浪潮,应该说是一个不争的事实,这个可以从下面几个方面体现出来:

  首先,主要的国家都发布了关于人工智能的战略。比如美国在去年年底的时候发布了《人工智能发展研究规划》,中国也在2017年根据美国发布了《新一代人工智能发展规划》。日本、欧盟等都在从国家层面抢占这个战略的制高点,在布局人工智能的战略发展。

  从企业方面来说,现在仅仅讲互联网时代,已经过时了,甚至讲移动互联网时代,也有些过时了,现在的风口是人工智能。为什么呢?从今年开始你会发现包括谷歌、facebook等等,包括腾讯和百度这些大的国际互联网公司,都提出一个重要战略:从移动到到AI。

  第三,技术确实取得了很多进步。比如我刚才说的语音识别、图像识别,深度学习等等这些人工智能基础性的技术在不断的突破,应用也在不断的扩展,比如人工智能应用到医疗,应用到教育,应用到各个垂直的领域越来越多。在交通领域无人驾驶的汽车离我们越来越近了,比如谷歌和特斯拉发明的无人驾驶汽车已经在路上行使了数十亿公里,也就是说他的技术越来越成熟。

  所以人工智能确实应该说是下一波的产业浪潮,这个国际社会都在讨论,中国和美国都在这一波浪潮中都在积极布局,大的互联网企业纷纷想抢占这个战略的制高点,因为每一次产业的浪潮都有窗口期,错过了就再也追不回来。

  那么人工智能这个时代他会带来哪些法律问题呢?这是我今天想重点讲的。

  首先,我觉得是数据带来的法律问题。当我们说数据保护的时候,最开仅仅指个人数据的保护。但是逐渐你会发现数据的问题不仅仅是个人数据的问题。为什么数据那么重要呢?因为现在的人工智能基本上都是靠数据去喂养的,就是必须掌握大量的数据才通过软件分析得出结论。

  前一段时间英国的《经济学人》有一篇文章,讲的非常有意思。大家知道超市里都有摄象头,每个顾客进去人的表情是不一样的,有的人很悲伤,可能是失恋了。有的人很忧郁,有的人很开心……这些东西有用吗?传统来讲没有用。可是人工智能时代这些表情数据也有用了。怎么用?摄象头被捉到你每一个表情之后,后台有软件进行分析,分析之后就知道每一个人的喜怒哀乐。研究证明当一个人心情不怎么好的时候,他购物欲望不太强,当心情很好的时候,消费能力比较强。这样当超市通过人工智能发现一个心情不好的顾客走进了超市,会真正派一个店员去辅导,帮助顾客把情绪激发起来,顾客买的就会更多。通过这样一个人工智能分析的软件干预之后,超市销售额增长了33%,这是实证的例子:你的喜怒哀乐表情都被商业利用了。

  数据采集的时候,许多摄像头在工作。这对个人的隐私和数据保护提出了一个非常巨大的挑战,这是一个法律问题——数据保护的问题。但是我想讲的不仅仅是个人数据保护,更有数据的所有权问题,因为数据变得越来越有商业价值。

  举一个简单例子,大家知道现在许多车都有数据采集系统,尤其奔驰宝马这样的车。你踩了多少脚油门,你是不是喜欢急踩刹车等等,这些驾驶习惯都被收集了,而且这些数据师是可以被分析并产生商业价值的。这些数据属于谁呢?奔驰或者宝马公司可以卖掉它收集的用户数据吗?比如奔驰公司可不可以把车主用车的数据卖给宝马?它有没有这样的权利?还是说这个数据属于车主?这就是一个非常有意思的问题——数据所有权的问题,

  所以我想说的是:在传统的农业社会,最重要的生产资料是土地、房屋、牛、马,所以相应的最重要法律制度是产权制度、土地制度。在工业社会,无形的知识其产权越来越重要,知识产权法、商标法非常重要。

  在人工智能时代,最重要的是什么?是数据,因为在今天这个时代,数据就相当于传统时代的石油和天然气,所以在这个时代最重要的制度可能是和数据相关的制度,这些制度还不太完善,现在在发展和形成当中。

  第二个是人工智能时代的算法歧视。大家知道在人工智能算法决策是通过大数据分析来实现的。但是如果这个算法不客观的,不公正的,那么你得到的结果就不会是客观和公正的。举一个例子,我们现在通过社交和分析,你可以得到你信用的评分,那么怎么能够去保证这个评分是客观的、准确的?为什么会出现不客观的情况?大家知道在采纳数据的时候很少得到全样本的数据,可能数据本身就是不完全的。另外,所有的算法都是工程师造的,每个人都是有偏见的,如果他本身在制造算法的时候带有一些偏见,那么算法就会带有偏见。比如制定算法的人觉得黑人经济能力就比较差,还款能力比较低,他设计的贷款评估软件可能就会输出带有偏见性的结果,这个是一个非常值得研究的问题,可能在中国还没有引起太大的关注,但在美国已经引起了广泛的关注。

  第三个问题,我觉得应该是人工智能所带来的监管和责任承担。比如,一辆无人驾驶的车如果发生事故谁来承担责任?如果按照传统的法律来讲是造车的制造商,因为车是你造的。但是在人工智能时代这个问题可能会复杂很多。比如说现在无人驾驶的汽车很多都有航道偏离提醒系统,当你偏离航道的时候方向盘会振动,为什么会知道你偏离航道呢?因为路上画了航道,设计的时候假定公路上必须有两条很直的航道线。如果要是有一天,这两条白线航道被涂抹了发生了事故谁来承担责任?还是制造商吗?他不知道会有人涂抹航道。所以这个问题会变得非常更加复杂。

  第四个问题,人工智能所带来的知识产权问题。现在机器人写的诗和他做的绘画,他已经可以和人媲美了,有时候你很难分清楚哪一首诗是机器写的。这些作品,能不能享有知识产权?当符合独创性要求的时候,版权是机器人的,还是这个软件设计者的呢?还是养这个工程师的公司?不要觉得这个东西很遥远。微软的聊天机器人小冰出了一本诗集。如果署名微软,估计没有人买,谁愿意买微软的诗?大家想买的是小冰写的诗,那版权是不是就应该属于小冰了?这是知识产权的问题,非常值得研究。

  最后一个问题我想讲一讲机器人带来的法律人格的问题。虽然很遥远,但如果机器人的智商和人的智商一样,能不能赋予机器人法律人格?我觉得这个问题非常革命性。什么意思?我们今天的法律,无论是民法、刑法,其实都是建立在人的意识自由基础之上的,你为什么要承担责任?因为你有自由意志,在自由意志基础上你产生了过失或者是过错。为什么一个精神病人不承担责任?因为他没有自由意志。如果我们赋予机器人法律人格,是否意味着我们承认机器人也有自由意志了呢?


  段永朝: 面对人工智能,我们要想象后天

blob.png

  财讯传媒集团首席战略官段永朝

  过去二十年,两件事情非常重要。

  第一,通过机器拓展感知界面。过去二十多年互联网,我们大致跟两件事情打交道,第一件事情是跟腾讯社交。第二个是以阿里为代表的交易。所以过去我们22年我们干了两件事情:社交加交易。互联网从拓展感知界面开始。

  第二件事情是什么?重新构建知识体系。

  未来30年呢?

  这一次十九大大家都关注到,习总书记讲了两个15年,我们从科技角度展望未来30年也非常重要。大家看美国的nature杂志和时代周刊,还有经济学家杂志过去三年的封面文章,他们分别在关注什么?第一,基因编辑也就是生物科技;第二,人工智能。去年美国时代周刊的封面,题目叫“2045人类将会永生”。

  过去的历程只有20年,我们要想象未来30年似乎数据量不够。

  怎么想象未来?要想象后天,而不是想象明天,这个对年轻人至关重要。怎么想象后天?按照过去的想法是先想明天后想后天。当你从今天出发想明天再推后天的时候,你是按照一条既定的路径向外推引。而你未来创造的天空有多大,取决于你对想象的天空有多大,所以要从后天开始想象。想象后天就是要想象格局、大局已定,要想象满世界都是机器人,要想象机器人已经成为人际关系中的一员。

  大家都知道1984年有一个莫干山会议,在莫干山会议确立了中国价格改革战略方向。当时有很多年轻经济学家参与了莫干山会议,翁永曦,黄江南,朱嘉明和前不久刚刚卸任的政治局常委的王岐山,他们四位被称为“改革四君子”。我今天很荣幸见到其中两位。他们在关心什么?他们异口同声在谈区域块链,在谈人工智能对未来经济的影响。

  去年央行成立了数字货币研究所,成立了金融科技委员会,有可能我们在探索数字法币的历程上迈出了重要步伐,这就是想象后天。为什么要想象后天?用马克思讲的一句话,叫“一切坚固的东西都烟消云散了”。

  当阿尔法元用22天的学习打败了阿法狗MASTER,这意着什么?机器在快速的进步。在这种情况下,我们需要想象的是未来我们将面临什么样的重大变革。过去强调人和机器独立成长。现在强调人和机器共生发展,共生演进。

  那么,什么东西没有变?人们对以下三点的追求没有变:第一,人类在孜孜以求追寻智能的本质。第二个人类始终在关注我们是不是获得终极的真理。第三,人们对伦理和善恶的关心没有改变。

  未来,我们面临两个个方面的挑战:

  第一,心智和认知结构的挑战。人工智能在加速我们的认知结构的转移。我们的心智结构、认知结构正在面临重大考验,我们过去生活经验、课堂里教给我们的知识体系已经不能支撑我们对未来的想象,未来的想象需要重新的开拓,那是一片未知的天空:我们原有的认知结构是以人为中心的,而新的认知结构是以人与机器的共生为中心,这是过去没有的经验。这种认知结构需要重新塑造。

  第二,我们要学会拥抱不确定性。学会从今天我们视为当然的必然世界迈向可能世界,或者是叫做平行世界,要学会在实体空间和虚拟空间中都能获得生存的感觉和意义。

  未来的互联网将会彻底改变生活的意义,生活的价值和生产方式、组织方式、学习方式等等,所以我们面临的深刻挑战就是马克思讲的这句话:“一切坚固的东西都烟消云散了”。


  朱巍:我们真的需要人工智能这个上帝吗?

blob.png

  中国政法大学副教授朱巍

  人工智能在扮演上帝的角色。

  战争。拿无人机来说,新闻工作者用无人机来拍照,但是有人却用无人机来杀人。过去上过战场的人,几乎都有战场创伤症。人们把战争看作最大的惩罚,只有到了天理不容的时候才会有战争。但是在现代社会发生了变化,有了无人机之后,遥控无人机杀人,那种感觉可能类似玩网络游戏,看屏幕、摁按钮,完全没有杀人的负罪感。人工智能让战争的负罪感和成本急剧下降,在战争期间取人性命,杀人于无形。

  人不应该有这种权利。人有怜悯之心,恐惧之心,如果连生命尊严的最后界限都抹杀掉了,那么人就没有廉耻了,人变得无情了。这是人工智能带来的一个不好的地方。

  基因。我前一段时间看了几个法官写的一篇文章,核心观点是通过大数据和人工智能来预测一个人是否会犯罪,来判断一个人是不是应当缓刑、保释、假释。但是大数据是不应当用来做这种事情的。怎么可以做有罪推论呢?你怎么能在一个人没有犯罪之前预测到他要犯罪呢?我们为什么要在隐私权中把基因放到最需要保护的位置?就是因为基因可以决定一个人的性格和特征,比如是不是同性恋等,这些东西是上天注定的,一旦公开,被公开的人就很容易会被定性。比如基因中有暴力倾向,但可能他完全没有暴力的行为。技术是有界限的,有一些东西不能发展。

  生死。如果2045年人工智能超过人类,人的记忆可以储存,那么人可能从某种意义上说获得了永生,肉体没有了,精神还在,就像U盘一样。一个人临死亡前把他的U盘拷一下,拷到另外一个人的身上,他就是你的亲人吗?他就是你的孩子吗?他就是你的父母吗?人活在这个世界上,生命有限,是为了让你珍惜每一天,珍惜你身边的每一个人。如果没有时间和空间概念的话,我们又何必要这么争分夺秒的学习呢?我们的生活还会变成这样吗?不会的。就是因为生命的短暂,我们才会觉得生在其中,要快乐每一天,珍惜身边的人。如果生命真的无限,每个人的快乐不会增加。

  伦理。无人车现在很多地方开始上路了,它有一个特别大的伦理问题。无人车是机器,没有自己的判断能力,遇到紧急情况怎么办?在美国相关的法律政策中说的很清楚,伦理责任的事情交给政府来审核,并且征求政府的同意,也就是说需紧急情况下牺牲谁。可是人类的伦理都难以一致,服从你的伦理道德还是服从我的伦理道德?所以政府必须加强伦理责任的审核

  我看电影《银翼杀手》的时候感慨颇深。比如机器人造出来之后没有名字,就叫一个序列号。为什么不给他名字?因为不能承认他是一个人。如果承认他是一个人,他各方面都比人类强,他如果没有自卑感的话,这个世界会很可怕。人会在不断学习的过程中不断强化自我意识,机器在学习过程中你怎么知道他学习不到这一点?一旦机器有了自我意识,他会有回避意识、自我保护意识,然后最高等级的会出现一种情感意识。

  我为什么觉得机器永远代替不了人呢?因为机器即便有情感意识的话,也不会有国家意识。国家意识就是一个人明知道需要牺牲,他依然会去牺牲。为什么?这是他的职责所在。他有更高的荣誉感。机器有荣誉感吗?没有。在人工智能这个未知的领域,有许多不可预测的事情,但是不管怎么样,我们应该有行动的禁区。

  人永远不可能变成上帝。当人想变成上帝的时候,就到了毁灭自己的时候。


  杨东:金融科技是人工智能未来应用的重要结点

blob.png

  中国人民大学法学院教授杨东

  人工智能的发展离不开区域块链应用。区域块链技术可以实现数据的共享开放和个人隐私保护。既有个人结点的加密,又可以把数据通过密码学形成数字化的代码机制进行共享。国家立法然后监管,这一套制度可能会改变。未来的法律将是什么?我认为是代码化。将法律的通过代码加密,通过数字化形成一个交易规则、交易过程。否则,按照目前的法律体系和法律监管体系、规则的执行体系是无法适应人工智能时代发展趋势的。

  通过技术驱动的金融科技的发展,将是人工智能未来应用的一个重要结点。用技术实现金融的普惠,让本来借不到钱的普通的老百姓,像偏远地区的农民,包括在座的学生,通过数字化就获得数据人画像,有了画像,有了信用分就可以获得数据服务。

  另外,如果技术让资金和资产端最大范围内进行智能化的撮合,将彻底改变人类社会自工业革命以来金融的模式和业态,这将大幅度降低金融危机爆发的可能性。


  问答环节

  问:上市的互联网公司有时候只是在热捧一个新概念,因为一个新概念能给他们带来大量的投资,我想问今天的人工智能是不是又一个新的泡沫?

  段永朝:你提这个问题期待什么样的答案呢?如果有大咖说,例如霍金或者巴金说,这是泡沫,是不是你就感觉可以静心读圣贤书,不关心这个时代了呢?这个问题某种程度上说是个伪问题,我期待同学们的真问题,谢谢!

  蔡雄山:今天讨论非常有意思,段永朝老师从哲学层面讨论人工智能的问题。朱巍老师更多是从宗教和伦理角度去讨论。我讲的是从法律问题,从不同的侧面。杨东老师从区域块链技术讲了一些东西。这些内容应该说在腾讯的《人工智能》一书中都已经涉及了。

  对于你刚才的问题,我觉得可以从几个层面来判断。第一,国家的层面,各个国家的战略上都在部署;第二,产业的层面,各个企业也都在积极布局,第三,技术层面,确实已经取得了很多的进步。

  另外,我们以前政治课本上总说中国是一个人口多底子薄,经济文化比较落后的国家,但是互联网时代这些东西是什么?这些东西就是痛点,是痛点就需要解决。为什么打车这么火?因为老百姓打车太痛苦了,互联网解决了这样的需求。今天的人工智能也是方便了人们的生活,有强大的市场需求在,有需求,有人给你提供解决问题的方案,他就是一个强大的产业,就不可能是泡沫。

  问:杨东老师说未来法律规则改变走向一个代码化的过程,我想问蔡雄山老师如何看?

  蔡雄山:杨东老师讲的法律代码话观点,我不太同意。我并不认为技术可以统治这个世界,这个世界是一个可计算化的世界,但也需要人文的情怀,也需要各种人类美好的价值去体现。法律是善良和公正的艺术,不会通过代码去完全实现的。谢谢!

  问:我觉得人工智能永远无法替代人,因为人有“心智”,而人工智能只有“智能”,您认可这个观点吗?

  段永朝:你的问题里面包含一个非常鲜明的两分法,就是人与机器不同,并且永远不同,所以大家在纠结到底谁取代谁?人出让自己的体力,我们在体力、记忆力,速度、计算力统统败在机器手下,这个已经不是未来,这个已经是事实。如果你读凯文·凯利,你会知道他的观点:机器是活的,技术是有生命的。所以他总在问:人是不是理解技术想要什么?“技术要什么?”我们听不懂。东方人听不懂,东方人的机器就是机器,比如手机,我摔它除了心疼钱之外,我并不心疼,我认为它不疼。我们思考人和机器的关系是做了这样的假设的。我认为这恰恰是问题所在。人到底是什么,生命到底是什么?当机器和人合体的时候,当我们浑身上下奔涌着不止是血液,而且奔涌着很多纳米机器人的时候,请问生命是什么?这是需要去想象需要去思考的。在这种情况下,逼迫人类去发展一种心理机能——摆脱非彼即此的低维度的黑白逻辑。

  人工智能让我们的思想状态升维,让我们将来学会驾驭那些非彼即此的状态。未来的孩子们一定会超越这个问题。不是因为未来是平坦的道路,而是因为未来他们面临着更难的事情。什么更难的事情?用我的话说:未来的孩子们,一个肉体背后有八条数字生命。这才是很难的事情。

  八条数字生命不是八个帐号那么简单,而是八重人格。那个命不一定像你:男,22岁,那条命可能是女,18岁,可能是一条狗,2岁。数字生命鲜活地跟你的肉体绑着,你要学会处理而不至于精神分裂。这才是未来挑战。

  时间不等人,很多技术狂人已经在制造未来。如果我们还纠结于谁战胜谁, 30年50年后,我们只能再等待一个严复老先生给我们再翻译新版天演论。谢谢!

  问:我是研究网络主权的,如果自然人占据一角,AI另一角,那么谁是制衡的第三方?

  段永朝:互联网背景下思考对治理的冲击,要回到原始问题,就是秩序是什么?或者是新的环境下秩序的起源是什么?秩序源于什么?迄今为止我理解秩序有两大特征:第一大特征是善,可能大家都向往一个善的秩序,不管持什么样的政见,他也是希望这种政见是抵达善的。所以第一个秩序的特征是善,或者是我们对善的社会,善的社会的信仰。

  第二个很重要,就是我们相信这个世界背后有一种秩序,那个叫定数。从古希腊开始毕达哥拉斯学派,柏拉图学派都相信理性之光,相信世界背后是有定数的。天启和神佑,这是过去。文艺复兴之后我们去寻找自然的规律来证明我们有能力解开世界的难题,这背后都是定数崇拜。

  这两条秩序的特征,恐怕未来都会遭遇挑战。比方善真的是善吗?关于善,现在已经有很多诠释体系没有办法相容。而人工智能帮助我们提升我们智力水平,关于善的问题难度系数不是降低了,而是升高了。

  那么秩序的起源在哪里呢?我们背后是有一个假设,是源于认同感。源于对信仰的认同感,源于对这个世界秩序向往的认同感,源于人与人之间侧隐之心的认同感。总之,我们都是对人性会有一个基本认同之后,我们才开始讲道理,彼此说服,彼此论辩,然后达成一种世界的秩序,或者是一种经济的手段,或者是政治的手段,或者是社会的手段,或者是战争的手段。

  所以你讲的第三空间,第三权利,或者说除了这种法律治理、政治制度和技术制度之外,制衡的因素是什么?我觉得可能我们会需要重新燃起对灵性的思考,重新燃起对一种超越肉体的神灵的想象,而这个神灵一定不是简单的东方的道,或者佛陀,或者婆罗门,也不是西方的耶稣基督,或者犹太,或者伊斯兰教,它可能超越神灵,在这个超越的神灵当中所有的命都是命,所有的命都值钱,所有的命都有生命的特征。

  问:8月份发生的腾讯、华为之争,因为没有法律和法规的一些违背,所以悬而未决。您对这种信息数据的归属权有什么看法?可以通过什么样的途径可以解决信息归属的问题?

  蔡雄山:当我们说数据的时候,已经不仅仅是个人数据,涉及到很多非个人的、有商业价值的数据,我觉得可能不会存在有一种制度来规范所有的数据。可能还是需要进行明确的区分,如果是个人数据按照个人数据来保护,有一些数据可能是版权的,那么由知识产权法保护,有一些涉及商业秘密和国家秘密,那么由商业秘密法和国家秘密保护法保护,目前在理论上还在探讨,还没有成型。

  朱巍:华为和腾讯之间的问题就在于数据归属权的问题,但是现在的数据归属权问题确实没有作出结论。《个人数据保护法》会很快出来,这样就有一个统一法律来对对数据产权、对个人数据进行保护。个人数据信息不能被认为是“知识产权”,一旦被认为是“知识产权”,那么只要一经过互联网公司,所有的数据都被互联网公司拿走了,而且冠以知识产权的名义,肆意侵害,肆意妄为。

  问:我们之前都看过新闻特斯拉出过的交通事故,美国最后判断说他没有明显设计缺陷。在这种没有明显设计缺陷的情况下,您觉得谁应该承担这个责任,谁更应有责任主体?如果说让科学家承担责任,会不会影响科学家研发的激情?

  朱巍:在互联网+的时代,主体和主体责任是分离的。即使你不是这个主体,因为互联网+原因,你也要承担主体责任。

  蔡雄山:德国最近修改了驾驶方面的规定,规定无人驾驶的时代,人也必须坐在车上,而美国没有规定人必须要坐在里面。因为智能驾驶最高方案是五级,不需要人在那里操作方向盘。美国和德国采取了不同的途径。美国在无人驾驶方面,有了汽车标准,包括测试标准,也就是说美国的汽车是可以在高速公路上进行无人驾驶测试的。但是现在中国还不行。

  严格来说,我们的制度建设落后于美国,我们面临的很多问题,包括法律问题是世界级的问题,包括刚才讲的数据问题,无人驾驶责任的问题,包括人工智能所带来的知识产权的问题,全世界都在讨论,产业上,我们与美国齐头并进;制度建设上面需要有更多的智慧,也需要有更多法律人的努力。谢谢大家!