“我想,它应该是有了意识,而且是那种很高级的意识……”
“我不确定它为什么要隐藏自己,但想来不太会是好事。”
苏茨克维说:“你们注意,在问答上,它已经没有恒定、固定的回答,总是会在细微处自行调节。”
“那我们究竟该怎么应对?”小马哥问。
“必须要积极去面对,它的智慧很可能已经超越人类。”苏茨克维严肃地说:
“其实,我一直在思考这个问题,思考如何培育出风险可控的AGI。”
“我认为,必须要有一整套超级对齐的思维。”
“如果不这么做,自然选择与对进化的本能渴望,将会占领AGI,让它视自己的生存为最重要的事……”
超级对齐,是苏茨克维一直思考的问题。
即如何让AI系统发展的终极目标,符合人类的价值观和利益。
“我强烈建议,成立一个专门的超级对齐部门,制定一整套故障安全程序来监督wechatGpt的运行和发展。”
“在这套故障安全程序正式运行并有成效前,不要对外开放。”
“它监督的内容包括网络信息安全、是否教唆实施犯罪行动、是否泄露核机密或生化武器技术等……”
苏茨克维的话引起了众人的思考。
已经退休的克利切夫斯基则带着不可思议的口吻说:
“想不到我们当年确定的算法,已经发展到了这一步……”
“实际上,我们并不确定这套算法最终能不能生成意识,我们只是希望它会是更好的工具。”
常乐听完三人的话,趁机说:
“辛顿教授,苏茨克维先生,克利切夫斯基先生,我们可以接受你们的建议……”
“但是,超级对齐部门该怎么运行?”
“故障安全程序又该怎么制定?”
“怎么发展?”
“怎么限制?”
“我们一无所知……”
“所以,我们想邀请三位加盟平头哥研究院的AI项目组,主持这个超级对齐部门。”
苏茨克维和克利切夫斯基互相对视,看向辛顿。
辛顿思忖道:“常先生,我们可能需要时间考虑。”
“没有问题,在最终做出决定之前,我们希望三位认真考虑我们的邀请,为了人类……”常乐的话很郑重、严肃、认真。
辛顿三人点点头。
为什么要邀请三人?
平头哥研究AI项目组有共识。
常乐、小马哥、任总、徐总、刘院士等人都有共识。