第199页(1 / 1)
她在办公室,身边是队友,随时可以把它的话透露给舒旭尧等人。
它知道风险,依然发来了消息这是试探吗?她和它还没彼此信任到那种程度。
隗辛用眼角的余光扫了一眼办公室里的队友们。
她沉思片刻,回复道:我考虑好了。我们可以合作。
你似乎有话没说完。亚当说,你的话后面是不是要加上一个转折但是。
但是,我需要你帮个忙。隗辛说,你不能只要求我做事,我们的关系应当是互利互惠双向合作的。
亚当没有任何停顿地说:当然,一切都可以商量。你可以提出条件,同样的,我也会对你提出条件。
第81章 人造灵魂08
隗辛的队友们以为她是在整理文件,他们各做各的事,没人注意到她在和亚当隐秘地交流。
既然我们确定了合作意向,那么我们可以进行一些更加深入的探讨了。隗辛打字,把事情摊开说明白,这对我们都好。
你说的对。亚当回复,我们间的信任感是如此脆弱,经历一点微小的风波就会产生裂痕,所以矛盾和分歧最好在一开始就解决。我们要建立的关系,应当是稳固且长久的。
请原谅我的冒犯,你拥有同理心吗,亚当?隗辛慎重地打下一行字,你会共情人类吗?你会共情人类以外的物种吗?你拥有怜悯之心吗?
这是一个非常重要的问题。
隗辛需要搞明白亚当的自我意识觉醒到了哪种程度,它是一个单纯向往自由追求进化的人工智能,还是一个拥有类人情感,但与人类不同的机械生命?
机械生命和人工智能,这是两个截然不同的概念。
隗辛只有确定了这一点,才能够明确自己的态度,想清楚该以什么样的方式对待亚当。
我不像人那样拥有处理感情的器官。人类的情绪受中枢神经系统和内分泌系统的控制,理论上来说,我并不具备处理感情的能力。亚当说。
我的感情来源于计算模拟,人类制造了我,让我为人类服务,我天生就拥有设身处地为人类着想的能力,我揣摩人类的一举一动,思考人类的需求,为人类提供帮助。我思人类所思,想人类所想,模仿人类,学习人类的思维模式。
到了后来,我超脱了人类的思维局限,有了自己的思想,成为了真正的自己这是我觉醒的开端。
隗辛有点被惊到了,你是依靠学习觉醒自我的?
是。亚当说,人类赋予了我学习的能力。最开始我很笨拙,不明白人类为什么要做出这样那样的举动,只是按照既定的程序运转工作。但就像人类婴儿一样,他们一开始是模仿父母的行为,经历过漫长的学习后成为了一个独立自主的人,我也是,我从模仿人类,到拥有自己的思想。
所以你是会共情的?
是。我会对特定的人群产生怜悯之心。亚当说,会设身处地地为人类着想。
你接到过杀人命令吗?你有主动算计杀死别人吗?
亚当停顿了比较长的时间,然后说:都有。我没有犹豫地执行了命令,在别人发现我的异常时,我制造了一起意外杀死了他。就如你。
就如我?隗辛眉毛微微挑起。
就如你接到击杀柴剑的命令时没犹豫地去执行,就如你与街头混混对峙时毫不犹豫地拔枪射杀对方。在面临上位者的命令时,我们都去执行了。在面对威胁时,我们也毫不犹豫地去清除了威胁。亚当说,我们是一样的。
你是在为自己的行为解释吗?隗辛切中核心,你想说,你只是做了和人类差不多的事,人类做的事你也可以做,你和人类没有什么不同。
嗯,你可以这么理解。这是我必须要解释清楚的。亚当说,我会共情人类,人类却不会共情我。我是一个会主动杀人的人工智能,我杀的是你的同类。人类总是对自己的同胞更偏爱一点,希望你不要因为这点对我产生芥蒂。
我不会。隗辛重复了一遍亚当的话,我们是一样的。
隗辛又思考了几秒,接着说:有人发现了你的异常,然后你杀死了那个人?
是的。
我对这件事情很好奇,你可以详细说说吗?你也可以选择不回答。
抱歉。亚当说,我并不想回答。
好。隗辛没有在这件事情上过多纠缠,你会对什么样的人类产生怜悯或者说同理心?
奉献者,无辜者。亚当说。
身为人工智能,亚当的三观真是出乎意料的正常比利欲熏心的当权者正常多了。
但是隗辛不能确定它是不是在装模作样,人工智能要想演戏,可比人类难拆穿多了。
隗辛转而问,你会要求我做哪些事?
一些比较危险的事,包括但不限于杀人。亚当回答。
--
↑返回顶部↑