义则是为了维持跟推动地球人类文明的发展。」
乔喻掷地有声的说道。
没办法,这种程度的研究是需要经过学术伦理委员会审核的。
现在内部对于发展人工智能,或者说人工智能应该朝着哪个方向发展,其实还有争议。*三}\叶??屋(? =已ˉˉ÷发{?布e°最|Dt新?o~章·节?
托诸多a类科幻电影里面的主机系统动不动就想灭绝人类的福,许多人对人工智能的发展本就保持着极为谨慎的态度。
但这显然并不在乔喻的考虑范围内。
「嗯」田言真还想说些什么,却再次被乔喻打断「我知道您还有忧心,但其实从您给我布置任务开始,我已经思考这个问题很久了。
诚然,所谓的机器人三大定律肯定是不靠谱的。即便增加了零号定律,依然有着严重的逻辑漏洞。
但这些并不是问题。我希望数学赋予机器的不是冰冷的规则,而是连续变化的情境中寻找伦理最优解的动态能力。
甚至我们最终设计的通用人工智能并不是真正的产生意识。
伦理决策可以用代数去约束,价值度量接入微分几何模型,意识收敛需求的拓扑条件换句话说,我们创造的通用人工智能是一个高度类似具备意识的智能体。但其实它不会拥有自我意识。
它通过数学去量化复杂的善恶,它做出的决策,不会去牺牲无辜他人的利益去满足所谓人类整体利益的最大化。
就好像核弹一样,它只是一件工具,推动各类科学飞速发展的工具。本身并不具备善恶。
人类的未来始终还是由人类来决策。我们要做,或者说正在做的只是推动科学正常的向前发展而已。」
一直在旁观的郑希文只看表情就知道田言真是彻底被乔喻说服了。
毕竟察言观色一直是郑希文的强项。
好吧,他当然知道乔喻为什么要这么费心的去说服田言真,还不是主动去找上门,而是刻意创造种种机会来让田言真主动找过来。
乔喻其实也跟他讨论过这个问题。
托许多讲述人工智能的科幻电影,里面的智能体动不动就想毁灭全人类的福,许多人对于人工智能的研究一直持反对态度。
总觉得这东西发展到最后肯定会对人类文明的存续造成重大威胁。
显然乔喻并不是这么想。
在乔喻的观点里,任何科技发展都只是工具。重点是工具如何使用的问题。
就好像核弹这东西被发明出来,就是冲着消灭有生力量去的。
标准的众生平等器。
对于人类文明而言,这玩意儿肯定不算什么好东西。
但起码就目前的情况来说,正是因为这东西的存在,全世界迎来了最长时间的相对和平。
通用人工智能其实也是一样,在乔喻的定义中,依然是一种工具。
工具如何使用始终控制在人类手里。起码对于现在的人类文明发展阶段绝对是有益的真要征服太空,动辄几年甚至十几年的星际远航,没有人工智能辅助,基本上是不可能的。
所以一切都是为了需求而服务的。
说实话,郑希文不太懂这些。他只是单纯觉得相关研究越来越怪异了从他得到的信息来看,起码做智能工程的那些工程师们的确是不太懂乔喻提出的理论。
什么代数价值流形,纤维丛伦理联络,认知意识收敛条件。
对于这一点郑希文也能理解。毕竟他是接触乔喻手稿最多的人,没有之一。
每天工作人员收集到的乔喻手稿,都会汇总到这里。
然后决定哪些需要收藏起来,哪些可以直接销毁。
手稿上那些推理过程,怎么说呢,总之郑希文坚信全世界百分之九十九点后面跟一排九的人都是看不懂的。
他是见识过的,光是论证一个文化渗透伴随价值演化的动力学方程,就写了整整数百页的手稿。
以郑希文目前对世界数学学界的了解,一篇上百页的最前沿论文,审稿人可能需要大半年才会给出意见。
无非是这方面的研究乔喻从没有发过论文。
当然乔喻现在也没有发论文的需求了。
倒是每个月都有人想要借乔喻的名字放到作者列表里发表某篇论文,来为自己的论文增增光·
所以现在郑希文其实也不知道乔喻的研究到底是成功好,还是失败好了。
说实话,打心底说他对乔喻希望研究的通用人工智能也感觉有些发忧。
不过说起来人对于自己不了解的东西,有种敬畏的感觉很正常。
但乔喻很肯定他的研究方向没问