阿辭不睡覺 作品

第877章:白月光他…我哭死(1)


  在設定中,al會隨著主人的情緒變化,來不斷的完善自己的意識。

  但這種意識覺醒的範圍,僅限於為主人服務。

  也就是說,主人不需要的行為,機器人是不會納入自己的學習範圍的。

  本小。說首--發^站>點&~為@:

  比如這個故障的陪伴型機器人,只需要詢問主人的需求,幫助主人解決生活中的雜事。

  這樣可以讓主人只需要擔心工作上的事情,而將其他事情都放心的交給機器人來做。

  也大大減輕了主人的生活負擔。

  可隨著主人抱怨工作太難做,老闆又刻意為難等等事情後,機器人竟然出現了不該有的程序。

  那就是勸主人辭職,只待在家裡享受它的照顧。

  偶爾一兩次的話,可能是機器人的數據庫出現紊亂,導致說辭不當。

  可某天機器人竟然私自調改鬧鐘,導致主人上班遲到,被老闆訓斥。

  最初,主人以為是自己定錯了時間。

  可隨著次數增多,主人終於發現了不對,就給機器人報了故障,返廠維修。

  機器人的存在,本就是為了服務人類。

  本書~.首發:塔讀*小@說-app&——免<費無廣告無彈窗,還能*@跟書友們一<起互動^。

  這種會干預人類決定的行為,是絕對不能存在的。

  因為這種情況的出現,證明了機器人開始產生獨立思維,脫離數據的控制。

  擴大了想,如果所有的機器人都出現程序外的意識。

  那工廠流水線的機器人,就會出現程序錯誤,或者怠惰,導致最後生產出來的產品出現問題。

  陪伴型機器人,會出現控制主人的行為,導致獨居人類被機器人囚禁。

  而作用在軍事上的機器人,出現反社會型思維,那將是最恐怖的事情。

  想到這些的原主,將發現報告給上級,請求暫停機器人的開發,並對已售賣的機器人進行逐一調查。

  然而上級覺得這種發現是偶然,且逐一調查耗時耗力,更是燒錢行為,所以否定了原主的提議。

  原主見提議行不通,便自購了一個機器人管家進行測試。

  在為期三個月的測試中,原主發現了管家出現不可控行為,並出現了殺人意向。