这天被聊偏了……
其实柳唯找进来是想跟宁为聊聊关于露西·罗恩进实验室这件事的。真要说起来,柳唯觉得露西·罗恩还真没那个资格进去,因为人工智能核心实验室其实保密级别还是很高的。
学生进去实习问题不大,毕竟学生们都比较听话,只要做好保密分级,让他们在核心实验室外围做一些基础的科研工作积累经验,非常容易管理。但像露西·罗恩这样的,就不那么好管理了。
鉴于露西·罗恩可以划归于国际友人的范畴,这样应付过去其实也不太好。
谁知道他给宁为倒了一杯水,然后宁为开始跟他探讨学术问题,以开口还是能吓死人那种。因为柳唯跟宁为天天呆在一起,经常还要帮宁为收拾他那些稿纸的关系,所以他总有渠道能知道一些东西。
比如智囊团已经开始分析后人工智能时代的社会特征以及可能出现的社会主要矛盾转移等等问题。
科技进步带来了社会进步,要适应社会进步往往意味着政策、法律法规的变更。最简单的比方,如果有一天自动驾驶技术真的成熟了,数据统计自动驾驶能够有效的减少交通事故数量,减少因为交通事故死亡人数开始全国推行,那么交通立法上该如何管理?保险该由谁来买?
驾驶人在使用自动驾驶的情况下,发生了交通事故该如何定性?责任人应该是厂家还是车主又或者其他交通参与者?如果都有责任,那么责任如何分配?这些问题不解决,推行自动驾驶都会没有底气。
显然人工智能一旦普及,带来的影响远比自动驾驶这一项要大很多。
三月在外网上发起的劝学风暴并不是什么秘密,宁为连身边的人都没瞒着,更给许多人敲响了警钟。事实已经证明了,机器比人更容易理解各类软件的推送算法,类似三月这样的强人工智能还能很轻易的钻这些算法的空子,通过巧妙来隔绝机器审核,以极为恐怖的速度快速传播内容。
这就好比人钻规则的空子其实是一个道理,区别大概在于人类钻规则的空子往往是自作聪明,而三月钻算法的空子却显得真的很聪明……
所以这玩意得管理,但怎么管理,得有个章法,现在都还没有定论。
换句话说,第一代的三月大家都还整明白,如果这个时候出现第二代的三月,可能会让人感觉爆炸。最重要的是担忧肯定还是有的。
人工智能能造福人类自然是最好的,万一出点问题,世界网络安全够不够这东西玩的需要进行充分的风险论证。暂时还没让宁为直接参与论证,是因为这玩意儿就是他设计出来的,而且宁为已经提交了许多材料来论述三月的思维模式,以及如何限制三月的互联网活动,在让宁为来跟大家探讨意义不大,因为这东西目前来说除了他外谁也不敢拍着胸脯说自己肯定懂,这其实是件很尴尬的事情,因为即便宁为是忽悠人的,也很难被发现。
所以这个时候需要更多懂的人来判断跟分析这种新技术,这也是宁为那些废弃的草稿纸都被收集起来的原因,说不定这些被宁为废弃的草稿纸就能给其他数学家灵感了呢?
更重要的还是这些稿纸留档之后肯定不能随随便便的流传出去,万一自己人没启发到,启发了别人呢?
所以许多人认为现在真的需要更多的人能跟上宁为的思路。科学进步从大方向上看,一定是好的,但得循序渐进,最好是能潜移默化的以润物细无声的方式来改变才好。而不是突然的变化,造成社会的脱节跟混乱。尤其是宁为的年纪太年轻了,年轻也意味着很多时候思考问题不那么成熟,不太让人放心。