一碗酸梅湯 作品
第444章 判若兩ai
“奕星”存在的問題,江寒總結了一下。
一個是訓練不夠。
初代阿法狗在訓練時,動用了幾百塊gpu。
對戰李世石的版本,也動用了48塊tpu、十幾臺高性能計算機。
訓練時長更不是奕星能比的,至少都在半年以上。
其次,“奕星”在打造時,參考了初代阿法狗,其訓練過程離不開人類棋譜。
在這種情況下,示範數據的質量,將極大影響它的成長。
甚至學到某些錯誤的著法,也不足為奇。
雖然有胡大力這樣的行家幫忙,但收集到的棋譜數量仍不夠充足。
並且其中有一些還存在質量問題,有濫竽充數的嫌疑。
這是手工篩選很難避免的。
最後,奕星欠缺了一點運氣,無論現場發揮還是訓練過程中,都不夠幸運。
沒錯,“人工神經網絡”的訓練和運行過程中,包含著一定的運氣成分。
複雜到這種程度的算法,人類只能掌握原理,但具體訓練出什麼東西,是沒法完全讀懂,並加以解釋的。
對於人類來說,機器學習中的一些算法,其實自帶“黑箱”屬性!
有句“格言”在機器學習圈子裡流傳很廣:
如果一個算法簡單到能被大腦理解,又怎麼能模擬複雜的大腦?
同理,如果一個算法連大腦都能模擬,那麼其一定複雜到無法被大腦理解……
大概就是這麼個意思。
落實到具體的點上,在這次對局中,大概率是“奕星”的“快速走子”模塊出了問題。
在正常情況下,錯誤的下法會被“價值判斷網絡”否決,但在極其罕見的某些特定情況下……
比如:“快速走子”下出了問題手,然後在模擬後續走子時,“價值判定網絡”認為其中一半情況對手大優,另外一半情況中,己方大優,平均下來己方略好……
但事實上,這並不絕對可靠。
如果找不準棋形上的關鍵點,就有可能導致全盤崩潰。
“奕星”下出的無理手,大概率就是這麼來的。
事實上,即使原版的阿法狗,也存在類似的問題。
2016年,阿法狗挑戰李世石。
在第四局比賽中,李世石突然下出“神之一挖”,阿法狗應對失誤,最終全盤崩潰。
但其實,李世石那一手是有問題的,甚至可以說並不成立!
然而,阿法狗卻錯誤地將形勢判斷為己方大劣……
今天的情況,就與那一次差相彷彿。
江寒瞬間想通了很多,頓時精神一振,翻身而起。
迅速打開筆記本電腦,然後倒在床上,進入了虛擬空間。
排除bug、修改程序並不困難,但需要時間,而現在留給他的時間,只有一個晚上。
一個是訓練不夠。
初代阿法狗在訓練時,動用了幾百塊gpu。
對戰李世石的版本,也動用了48塊tpu、十幾臺高性能計算機。
訓練時長更不是奕星能比的,至少都在半年以上。
其次,“奕星”在打造時,參考了初代阿法狗,其訓練過程離不開人類棋譜。
在這種情況下,示範數據的質量,將極大影響它的成長。
甚至學到某些錯誤的著法,也不足為奇。
雖然有胡大力這樣的行家幫忙,但收集到的棋譜數量仍不夠充足。
並且其中有一些還存在質量問題,有濫竽充數的嫌疑。
這是手工篩選很難避免的。
最後,奕星欠缺了一點運氣,無論現場發揮還是訓練過程中,都不夠幸運。
沒錯,“人工神經網絡”的訓練和運行過程中,包含著一定的運氣成分。
複雜到這種程度的算法,人類只能掌握原理,但具體訓練出什麼東西,是沒法完全讀懂,並加以解釋的。
對於人類來說,機器學習中的一些算法,其實自帶“黑箱”屬性!
有句“格言”在機器學習圈子裡流傳很廣:
如果一個算法簡單到能被大腦理解,又怎麼能模擬複雜的大腦?
同理,如果一個算法連大腦都能模擬,那麼其一定複雜到無法被大腦理解……
大概就是這麼個意思。
落實到具體的點上,在這次對局中,大概率是“奕星”的“快速走子”模塊出了問題。
在正常情況下,錯誤的下法會被“價值判斷網絡”否決,但在極其罕見的某些特定情況下……
比如:“快速走子”下出了問題手,然後在模擬後續走子時,“價值判定網絡”認為其中一半情況對手大優,另外一半情況中,己方大優,平均下來己方略好……
但事實上,這並不絕對可靠。
如果找不準棋形上的關鍵點,就有可能導致全盤崩潰。
“奕星”下出的無理手,大概率就是這麼來的。
事實上,即使原版的阿法狗,也存在類似的問題。
2016年,阿法狗挑戰李世石。
在第四局比賽中,李世石突然下出“神之一挖”,阿法狗應對失誤,最終全盤崩潰。
但其實,李世石那一手是有問題的,甚至可以說並不成立!
然而,阿法狗卻錯誤地將形勢判斷為己方大劣……
今天的情況,就與那一次差相彷彿。
江寒瞬間想通了很多,頓時精神一振,翻身而起。
迅速打開筆記本電腦,然後倒在床上,進入了虛擬空間。
排除bug、修改程序並不困難,但需要時間,而現在留給他的時間,只有一個晚上。