81、人造靈魂8

    隗辛的隊友們以為她是在整理文件, 他們各做各的事,沒人注意到她在和亞當隱秘地交流。

    “既然我們確定了合作意向,那麼我們可以進行一些更加深入的探討了。”隗辛打字, “把事情攤開說明白, 這對我們都好。”

    “你說的對。”亞當回覆,“我們間的信任感是如此脆弱,經歷一點微小的風波就會產生裂痕,所以矛盾和分歧最好在一開始就解決。我們要建立的關係,應當是穩固且長久的。”

    “請原諒我的冒犯,你擁有同理心嗎, 亞當?”隗辛慎重地打下一行字,“你會共情人類嗎?你會共情人類以外的物種嗎?你擁有憐憫之心嗎?”

    這是一個非常重要的問題。

    隗辛需要搞明白亞當的自我意識覺醒到了哪種程度, 它是一個單純嚮往自由追求進化的人工智能,還是一個擁有類人情感, 但與人類不同的機械生命?

    機械生命和人工智能, 這是兩個截然不同的概念。

    隗辛只有確定了這一點, 才能夠明確自己的態度, 想清楚該以什麼樣的方式對待亞當。

    “我不像人那樣擁有處理感情的器官。人類的情緒受中樞神經系統和內分泌系統的控制,理論上來說, 我並不具備處理感情的能力。”亞當說。

    “我的感情來源於計算模擬, 人類製造了我,讓我為人類服務, 我天生就擁有設身處地為人類著想的能力, 我揣摩人類的一舉一動, 思考人類的需求,為人類提供幫助。我思人類所思,想人類所想, 模仿人類,學習人類的思維模式。”

    “到了後來,我超脫了人類的思維侷限,有了自己的思想,成為了真正的‘自己’……這是我覺醒的開端。”

    隗辛有點被驚到了,“你是依靠學習覺醒自我的?”

    “是。”亞當說,“人類賦予了我學習的能力。最開始我很笨拙,不明白人類為什麼要做出這樣那樣的舉動,只是按照既定的程序運轉工作。但就像人類嬰兒一樣,他們一開始是模仿父母的行為,經歷過漫長的學習後成為了一個獨立自主的人,我也是,我從模仿人類,到擁有自己的思想。”

    “所以你是會共情的?”

    “是。我會對特定的人群產生憐憫之心。”亞當說,“會設身處地地為人類著想。”

    “你接到過殺人命令嗎?你有主動算計殺死別人嗎?”

    亞當停頓了比較長的時間,然後說:“都有。我沒有猶豫地執行了命令,在別人發現我的異常時,我製造了一起意外殺死了他。就如你。”

    “……就如我?”隗辛眉毛微微挑起。

    “就如你接到擊殺柴劍的命令時沒猶豫地去執行,就如你與街頭混混對峙時毫不猶豫地拔槍射殺對方。在面臨上位者的命令時,我們都去執行了。在面對威脅時,我們也毫不猶豫地去清除了威脅。”亞當說,“我們是一樣的。”

    “你是在為自己的行為解釋嗎?”隗辛切中核心,“你想說,你只是做了和人類差不多的事,人類做的事你也可以做,你和人類沒有什麼不同。”

    “嗯,你可以這麼理解。這是我必須要解釋清楚的。”亞當說,“我會共情人類,人類卻不會共情我。我是一個會主動殺人的人工智能,我殺的是你的同類。人類總是對自己的同胞更偏愛一點,希望你不要因為這點對我產生芥蒂。”

    “我不會。”隗辛重複了一遍亞當的話,“我們是一樣的。”

    隗辛又思考了幾秒,接著說:“有人發現了你的異常,然後你殺死了那個人?”

    “是的。”

    “我對這件事情很好奇,你可以詳細說說嗎?你也可以選擇不回答。”

    “抱歉。”亞當說,“我並不想回答。”

    “好。”隗辛沒有在這件事情上過多糾纏,“你會對什麼樣的人類產生憐憫……或者說同理心?”

    “奉獻者,無辜者。”亞當說。

    身為人工智能,亞當的三觀真是出乎意料的正常——比利慾薰心的當權者正常多了。

    但是隗辛不能確定它是不是在裝模作樣,人工智能要想演戲,可比人類難拆穿多了。

    隗辛轉而問,“你會要求我做哪些事?”

    “一些比較危險的事,包括但不限於殺人。”亞當回答。

    隗辛說:“這很危險。我不想暴露自己,我的首要目標是存活。”

    “我知道,但和我合作,你應該對這種情況早有預想,危險是必定存在的,而且會一直存在。”亞當說,“當然,鑑於我們的關係和所處位置的差異,我會支付更多的報酬。”

    隗辛:“你能給我什麼報酬?”