close
「AlphaGo 之父」Hassabis 親臨中國開講,擊敗人類之後他還想幹些什麼?
原標題:「AlphaGo 之父」Hassabis 親臨中國開講,擊敗人類之後他還想幹些什麼?
汽車音響電容推薦
在昨天柯潔和 AlphaGo 的第一盤棋結束之後,大傢關註的焦點除瞭人類不可避免的失敗之外,基本上都集中在瞭「AlphaGo 到底有多強」這個問題上。所以,雖然今天沒有比賽,但烏鎮吸引的關註度仍然不低,因為在今天的 AI 論壇上,Alphabet 董事長 Eric Schmidt、DeepMind CEO Demis Hassabis、AlphaGo 團隊負責人 David Silver、Google Brain 資深研究員 Jeff Dean 等一眾大咖紛紛到場,在國內來說,絕對含金量滿滿。
當然,一天聽下來,除瞭大神 Jeff Dean 也許是為瞭照顧有的圍棋愛好者,隻是做瞭又一次的人工智能普及之外,DeepMind CEO Demis Hassabis 及其同事、也是 AlphaGo 團隊負責人 David Silver 的演講最為吸引人,因為他們二位一邊為我們介紹瞭 AlphaGo 的最新進展,同時也向外界透露瞭他們的長遠目標。
首先介紹 AlphaGo 一年來的進展
在今天的演講及之後的專訪中,Hassabis、AlphaGo 團隊負責人 David Silver 以及 Jeff Dean 分別為我們闡釋瞭 AlphaGo 在這一年時間中做的事。
(Jeff Dean)
低音喇叭電容
計算能力的變化
首先,讓我們來看看計算量的變化。我們要註意到,在計算量上,這一版本的 AlphaGo 在計算量上僅為李世石版本的十分之一,雖然在訓練中用到瞭更多的數據和運算,但因為在算法上獲得瞭效率的提升,所以計算量僅需原來的十分之一,訓練時間也從幾個月縮減到瞭幾個星期。
這裡的「計算量(computing resources)」經 Silver 解釋,是其整體的計算資源消耗,包括瞭電力消耗及計算資源的消耗量,整體是原來的十分之一。
同時,在硬件需求上,李世石版本的 AlphaGo 需要使用 Google Cloud 上的 50 塊 TPU 工作,但到瞭 Master 和柯潔的版本,隻需要一個單機版 TPU 服務器中的 4 塊 TPU 就夠瞭。不過這裡面使用的 TPU 均為第一代 TPU,而非剛剛在 I/O 上發佈的第二代。
其次,在算法上,這一版本的 AlphaGo 已經不需要外在的「導師」,能實現自我學習瞭。雖然還無法完全擺脫人類棋譜的幫助,徹底自我成長,但已經能逐漸從自己的搜索裡學習瞭。並且,更重要的是,這種算法是通用的,可以被用到其他領域。
他們在現場也反復舉出瞭我們在去年就為大傢報道過的項目:為 Google 的數據中心節能減排。通過使用機器學習技術,它已經能減少 Google 數據中心冷卻裝置 40% 的能耗,在總量上也會減少 15%。
AlphaGo 本身棋力的進化
再談到 AlphaGo 本身能力的進化。據介紹,相較於之前使用 12 層卷積神經網絡訓練的 AlphaGo,此次出戰的「柯潔版」AlphaGo 已經使用瞭 40 層神經網絡來訓練,性能較今年年初在網上和人類高手大戰 60 場的 Master 也有瞭增強。
Hassabis 也用瞭一幅圖清晰地展示瞭 AlphaGo 自身棋力的變化過程:
在這幅圖中,我們可以看到,目前版本的 AlphaGo 能讓李世石版本三個子,李世石版本的能讓樊麾版本三個子,樊麾版 AlphaGo 則能讓 Zen 圍棋四個子。
這樣的一個進步速度無疑讓人感到非常震驚,要知道,李世石在一年前也隻贏瞭 AlphaGo 一盤棋,而今天的 AlphaGo 已經能讓李世石版的 AlphaGo 三個字瞭。不過處於嚴謹考慮,David Silver 在下午又發佈瞭一段聲明:
「新版本的 AlphaGo, 已經過幾百萬次的自我訓練,並在檢測舊版本弱點方面表現出色。也因此,新版本的 AlphaGo 可以讓舊的版本三個子。但當 AlphaGo 與從未對弈過的人類棋手對局時,這樣的優勢就不復存在瞭,尤其是柯潔這樣的圍棋大師,他可能幫助我們發現 Alphago 未曾展露的新弱點。這樣的衡量標準是無法比較的。」
這也許能讓得知這一消息的柯潔心理稍微好受一點吧。
而在具體的技術方面,相信大傢也有所耳聞,AlphaGo 使用的是兩種深度神經網絡——「策略網絡」(policy network) 和「價值網絡」(value network)。第一種策略網絡的作用是選擇在哪裡落子,第二種價值網絡的作用是衡量走這一步對全局的影響。其中,他們用到瞭監督學習及強化學習兩種機器學習的方法,而又進一步將其整合起來,對 AlphaGo 進行訓練。
而這次 Hassabis 和 Jeff Dean 又再次為大傢展示瞭這套網絡系統運行的狀況,下面為大傢附上相關的 PPT:
而如果你隻是想要簡單地知道這場論壇的總結性重點,那看看黃博士的朋友圈也許就瞭解瞭:
然後,DeepMind 還想幹什麼?
「遊戲是用來培訓算法最有效的方式,但最終的目的不是玩遊戲。」
在 Hassabis 看來,未來將會是人機結合的時代,機器的角色有點像望遠鏡或是顯微鏡,都是工具,它們能幫助我們人類探索宇宙,發現新的奧秘,也能在材料設計、新藥研制等方面讓人類有更多的發揮空間。
前級擴大機推薦
在演講的後半部分,他講瞭下面這部分表達自己未來志向的話。一如他之前接受的各種采訪一樣,充滿著對這個行業未來的向往,並一如既往地提醒人們要「正確地」使用 AI,這表示:1. 不用 AI 做壞事;2. 不止讓少數人使用 AI。
AlphaGo 是人類的新工具。就像天文學傢利用哈勃望遠鏡觀察宇宙一樣,通過 AlphaGo,棋手們可以去探索圍棋的未知世界和奧秘。我們發明 AlphaGo,也希望能夠推動人類文明進步,更好地瞭解這個世界。
我們的願景是盡可能優化他,讓它變得更加完美。就像圍棋 3000 年以來都沒有答案,科學、技術、工程等領域也正面臨著同樣的瓶頸,但是,現在有瞭 AI,我們迎來瞭新的探索機會。
圍棋比賽是我們測試人工智能的有效平臺,但我們的最終目的是把這些算法應用到更多的領域中。人工智能(特別是強人工智能)將是人們探索世界的終極工具。
當今世界面臨著很多挑戰,不少領域本身有著過量的信息和復雜的系統,例如醫療、氣候變化和經濟,即使是領域內的專傢也無法應對這些問題。
我們需要解決不同領域的問題,人工智能是解決這些問題的一個潛在方式,從發現新的材料到新藥物研制治愈疾病,人工智能可以和各種領域進行排列組合。
當然,人工智能必須在人類道德基準范圍內被開發和利用。
我的理想就是讓 AI 科學成為可能。另外,我對人類的大腦運作非常感興趣,開發 AI 的同時,我也瞭解自己的大腦運作,例如大腦如何產生創意等,這個過程中我也更深入地瞭解瞭我自己。
原標題:「AlphaGo 之父」Hassabis 親臨中國開講,擊敗人類之後他還想幹些什麼?
汽車音響電容推薦
在昨天柯潔和 AlphaGo 的第一盤棋結束之後,大傢關註的焦點除瞭人類不可避免的失敗之外,基本上都集中在瞭「AlphaGo 到底有多強」這個問題上。所以,雖然今天沒有比賽,但烏鎮吸引的關註度仍然不低,因為在今天的 AI 論壇上,Alphabet 董事長 Eric Schmidt、DeepMind CEO Demis Hassabis、AlphaGo 團隊負責人 David Silver、Google Brain 資深研究員 Jeff Dean 等一眾大咖紛紛到場,在國內來說,絕對含金量滿滿。
當然,一天聽下來,除瞭大神 Jeff Dean 也許是為瞭照顧有的圍棋愛好者,隻是做瞭又一次的人工智能普及之外,DeepMind CEO Demis Hassabis 及其同事、也是 AlphaGo 團隊負責人 David Silver 的演講最為吸引人,因為他們二位一邊為我們介紹瞭 AlphaGo 的最新進展,同時也向外界透露瞭他們的長遠目標。
首先介紹 AlphaGo 一年來的進展
在今天的演講及之後的專訪中,Hassabis、AlphaGo 團隊負責人 David Silver 以及 Jeff Dean 分別為我們闡釋瞭 AlphaGo 在這一年時間中做的事。
(Jeff Dean)
低音喇叭電容
計算能力的變化
首先,讓我們來看看計算量的變化。我們要註意到,在計算量上,這一版本的 AlphaGo 在計算量上僅為李世石版本的十分之一,雖然在訓練中用到瞭更多的數據和運算,但因為在算法上獲得瞭效率的提升,所以計算量僅需原來的十分之一,訓練時間也從幾個月縮減到瞭幾個星期。
這裡的「計算量(computing resources)」經 Silver 解釋,是其整體的計算資源消耗,包括瞭電力消耗及計算資源的消耗量,整體是原來的十分之一。
同時,在硬件需求上,李世石版本的 AlphaGo 需要使用 Google Cloud 上的 50 塊 TPU 工作,但到瞭 Master 和柯潔的版本,隻需要一個單機版 TPU 服務器中的 4 塊 TPU 就夠瞭。不過這裡面使用的 TPU 均為第一代 TPU,而非剛剛在 I/O 上發佈的第二代。
其次,在算法上,這一版本的 AlphaGo 已經不需要外在的「導師」,能實現自我學習瞭。雖然還無法完全擺脫人類棋譜的幫助,徹底自我成長,但已經能逐漸從自己的搜索裡學習瞭。並且,更重要的是,這種算法是通用的,可以被用到其他領域。
他們在現場也反復舉出瞭我們在去年就為大傢報道過的項目:為 Google 的數據中心節能減排。通過使用機器學習技術,它已經能減少 Google 數據中心冷卻裝置 40% 的能耗,在總量上也會減少 15%。
AlphaGo 本身棋力的進化
再談到 AlphaGo 本身能力的進化。據介紹,相較於之前使用 12 層卷積神經網絡訓練的 AlphaGo,此次出戰的「柯潔版」AlphaGo 已經使用瞭 40 層神經網絡來訓練,性能較今年年初在網上和人類高手大戰 60 場的 Master 也有瞭增強。
Hassabis 也用瞭一幅圖清晰地展示瞭 AlphaGo 自身棋力的變化過程:
在這幅圖中,我們可以看到,目前版本的 AlphaGo 能讓李世石版本三個子,李世石版本的能讓樊麾版本三個子,樊麾版 AlphaGo 則能讓 Zen 圍棋四個子。
這樣的一個進步速度無疑讓人感到非常震驚,要知道,李世石在一年前也隻贏瞭 AlphaGo 一盤棋,而今天的 AlphaGo 已經能讓李世石版的 AlphaGo 三個字瞭。不過處於嚴謹考慮,David Silver 在下午又發佈瞭一段聲明:
「新版本的 AlphaGo, 已經過幾百萬次的自我訓練,並在檢測舊版本弱點方面表現出色。也因此,新版本的 AlphaGo 可以讓舊的版本三個子。但當 AlphaGo 與從未對弈過的人類棋手對局時,這樣的優勢就不復存在瞭,尤其是柯潔這樣的圍棋大師,他可能幫助我們發現 Alphago 未曾展露的新弱點。這樣的衡量標準是無法比較的。」
這也許能讓得知這一消息的柯潔心理稍微好受一點吧。
而在具體的技術方面,相信大傢也有所耳聞,AlphaGo 使用的是兩種深度神經網絡——「策略網絡」(policy network) 和「價值網絡」(value network)。第一種策略網絡的作用是選擇在哪裡落子,第二種價值網絡的作用是衡量走這一步對全局的影響。其中,他們用到瞭監督學習及強化學習兩種機器學習的方法,而又進一步將其整合起來,對 AlphaGo 進行訓練。
而這次 Hassabis 和 Jeff Dean 又再次為大傢展示瞭這套網絡系統運行的狀況,下面為大傢附上相關的 PPT:
而如果你隻是想要簡單地知道這場論壇的總結性重點,那看看黃博士的朋友圈也許就瞭解瞭:
然後,DeepMind 還想幹什麼?
「遊戲是用來培訓算法最有效的方式,但最終的目的不是玩遊戲。」
在 Hassabis 看來,未來將會是人機結合的時代,機器的角色有點像望遠鏡或是顯微鏡,都是工具,它們能幫助我們人類探索宇宙,發現新的奧秘,也能在材料設計、新藥研制等方面讓人類有更多的發揮空間。
前級擴大機推薦
在演講的後半部分,他講瞭下面這部分表達自己未來志向的話。一如他之前接受的各種采訪一樣,充滿著對這個行業未來的向往,並一如既往地提醒人們要「正確地」使用 AI,這表示:1. 不用 AI 做壞事;2. 不止讓少數人使用 AI。
AlphaGo 是人類的新工具。就像天文學傢利用哈勃望遠鏡觀察宇宙一樣,通過 AlphaGo,棋手們可以去探索圍棋的未知世界和奧秘。我們發明 AlphaGo,也希望能夠推動人類文明進步,更好地瞭解這個世界。
我們的願景是盡可能優化他,讓它變得更加完美。就像圍棋 3000 年以來都沒有答案,科學、技術、工程等領域也正面臨著同樣的瓶頸,但是,現在有瞭 AI,我們迎來瞭新的探索機會。
圍棋比賽是我們測試人工智能的有效平臺,但我們的最終目的是把這些算法應用到更多的領域中。人工智能(特別是強人工智能)將是人們探索世界的終極工具。
當今世界面臨著很多挑戰,不少領域本身有著過量的信息和復雜的系統,例如醫療、氣候變化和經濟,即使是領域內的專傢也無法應對這些問題。
我們需要解決不同領域的問題,人工智能是解決這些問題的一個潛在方式,從發現新的材料到新藥物研制治愈疾病,人工智能可以和各種領域進行排列組合。
當然,人工智能必須在人類道德基準范圍內被開發和利用。
我的理想就是讓 AI 科學成為可能。另外,我對人類的大腦運作非常感興趣,開發 AI 的同時,我也瞭解自己的大腦運作,例如大腦如何產生創意等,這個過程中我也更深入地瞭解瞭我自己。
AUGI SPORTS|重機車靴|重機車靴推薦|重機專用車靴|重機防摔鞋|重機防摔鞋推薦|重機防摔鞋
AUGI SPORTS|augisports|racing boots|urban boots|motorcycle boots
全站熱搜
留言列表