close
AlphaGo兇猛來襲:Intel、NVIDIA危險瞭
日前,去年擊敗世界圍棋第一人李世石,由Google收購的DeepMind開發的圍棋AI AlphaGo移師中國,再戰目前等級分排名世界第一的中國棋手柯潔九段,且率先拿下一局暫時領先的消息再次引發瞭業內對於AlphaGo的關註。
那麼問題來瞭,AlphaGo緣何如此的 聰明 和超乎人類的思考和反應能力?
就在AlphaGo與柯潔 人機大戰 不久前,Google I/O 2017大會上,,Google 移動為先 向 AI優先 再次升級,其中最典型的表現之一就是更新和升級瞭去年I/O 2017 大會上公佈的TPU(Tensor Processing Unit)。
TPU是一款Google自己高度定制化的AI(針對AI算法,例如其自己開發的Tensor Flow深度學習架構)芯片,也是AlphaGo背後的功臣。
AlphaGo能以超人的熟練度下圍棋都要靠訓練神經網絡來完成,而這又需要計算能力(硬件越強大,得到的結果越快),TPU就充當瞭這個角色,更重要的是借此顯現出瞭在AI芯片領域相對於Intel的CPU和NVIDIAGPU的優勢。
何以見得?
據稱,在去年的 人機大戰 中,起初AlphaGo的硬件平臺采用的是CPU + GPU,即AlphaGo的完整版本使用瞭40個搜索線程,運行在48顆CPU和8塊GPU上,AlphaGo的分佈式版本則利用瞭更多的芯片,40個搜索線程運行在1202顆CPU和176顆GPU上。
這個配置是和當時樊麾比賽時使用的,所以當時李世石看到AlphaGo與樊麾的對弈過程後對 人機大戰 很有信心。
但是就在短短的幾個月時間,Google就把運行AlphaGo的硬件平臺換成瞭TPU,之後對戰的結果是AlphaGo以絕對優勢擊敗瞭李世石,也就是說采用TPU之後的AlphaGo的運算速度和反應更快。
究竟TPU與CPU和GPU相比到底有多大的優勢(例如性能和功耗)?
據Google披露的TPU相關文件顯示,其TPU與服務器級的Intel Haswell CPU和NVIDIA K80 GPU進行比較,這些硬件都在同一時期部署在同個數據中心。測試負載為基於TensorFlow框架的高級描述,應用於實際產品的NN應用程序(MLP,CNN 和 LSTM),這些應用代表瞭數據中心承載的95%的NN推理需求。
盡管在一些應用上利用率很低,但TPU平均比當前的GPU或CPU快15~30倍,性能功耗比(TOPS/Watt)高出約30~80倍。此外,在TPU中采用GPU常用的GDDR5存儲器能使性能TPOS指標再高3倍,並將能效比指標TOPS/Watt提高到GPU的70倍,CPU的200倍。
盡管NVIDIA對於上述的測試表示瞭異議,但TPU相對於CPU和GPU存在的性能功耗比的優勢(不僅體現在AI,還有數據中心)已經成為業內的共識。
值得一提的是,在剛剛舉辦Google I/O 2017 大會上發佈的新一代TPU已經達到每秒180萬億次的浮點運算性能,超過瞭NVIDIA剛剛推出的GPU Tesla2 V100每秒120萬億次浮點運算的性能。
那麼是什麼造就TPU如此的優勢?
簡單來說,CPU是基於完全通用的訴求,實現的通用處理架構,GPU則主要基於圖像處理的訴求,降低瞭一部分通用性,並針對核心邏輯做瞭一定的優化,是一款準通用的處理架構,以犧牲通用性為代價,在特定場合擁有比CPU快得多的處理效率。
TPU,則針對更明確的目標和處理邏輯,進行更直接的硬件優化,以徹底犧牲通用性為代價,獲得在特定場合和應用的極端效率,也就是俗話所言的 萬能工具的效率永遠比不上專用工具 ,而這正好迎合瞭當下諸多炙手可熱的人工智能的訓練和推理等均需要大量、快速的數據運算的需求。
到目前為止,Google的TPU已經應用在各種領域的應用中,例如Google圖像搜索(Google Image Search)、Google照片(Google Pho台中通馬桶價錢to)、Google雲視覺API(Google Cloud Vision API)、Google翻譯以及AlphaGo的圍棋系統中。實際上我們上述提到的Google I/O 2017 大會推出和更新的諸多AI產品和服務背後均有TPU的硬件支持。
當然,我們在此並非否認CPU和GPU在AI中的作用,例如鑒於CPU的通用性,其靈活性最大,不僅可以運行各種各樣的程序,也包括使用各種軟件庫的深度學習網絡執行的學習和推理。GPU雖然不像CPU那樣通用和靈活,但它在深度學習計算方面更好,因為它能夠執行學習和推理,並且不局限於單個的軟件庫。
相比之下,TPU則幾乎沒有靈活性,並且隻能在自傢的TensorFlow中效率最高,這也是為何Google對外聲稱TPU不對外銷售,且仍會繼續采用CPU和GPU。
但Google的這一做法印證一個芯片產業的發展趨勢,即在AI負載和應用所占數據中心比重越來越大的今天和未來,像諸如Google、微軟、Facebook、亞馬遜、阿裡巴巴、騰訊等這些數據中心芯片采購的大戶,其之前對於CPU和GPU的通用性需求可能會越來越少,而針對AI開發和應用的兼顧性能和能效的定制化芯片會越來越多。
作為通用芯片廠商的Intel和NVIDIA,如何順應這一芯片產業在A社區公寓大廈抽肥I驅動下的變化和發展趨勢未雨綢繆,則關系著其在AI時代到來之時,其能否繼續滿足客戶的需求和引領產業的發展。
文章糾錯
微信公眾號搜索" 驅動之傢 "加關註,每日最台中市抽化糞池新的手機、電腦、汽車、智能硬件信息可以讓你一手全掌握。推薦關註!【微信掃描下圖可直接關註】
閱讀更多:英特爾 英偉達 CPU處理器 AlphaGo
日前,去年擊敗世界圍棋第一人李世石,由Google收購的DeepMind開發的圍棋AI AlphaGo移師中國,再戰目前等級分排名世界第一的中國棋手柯潔九段,且率先拿下一局暫時領先的消息再次引發瞭業內對於AlphaGo的關註。
那麼問題來瞭,AlphaGo緣何如此的 聰明 和超乎人類的思考和反應能力?
就在AlphaGo與柯潔 人機大戰 不久前,Google I/O 2017大會上,,Google 移動為先 向 AI優先 再次升級,其中最典型的表現之一就是更新和升級瞭去年I/O 2017 大會上公佈的TPU(Tensor Processing Unit)。
TPU是一款Google自己高度定制化的AI(針對AI算法,例如其自己開發的Tensor Flow深度學習架構)芯片,也是AlphaGo背後的功臣。
AlphaGo能以超人的熟練度下圍棋都要靠訓練神經網絡來完成,而這又需要計算能力(硬件越強大,得到的結果越快),TPU就充當瞭這個角色,更重要的是借此顯現出瞭在AI芯片領域相對於Intel的CPU和NVIDIAGPU的優勢。
何以見得?
據稱,在去年的 人機大戰 中,起初AlphaGo的硬件平臺采用的是CPU + GPU,即AlphaGo的完整版本使用瞭40個搜索線程,運行在48顆CPU和8塊GPU上,AlphaGo的分佈式版本則利用瞭更多的芯片,40個搜索線程運行在1202顆CPU和176顆GPU上。
這個配置是和當時樊麾比賽時使用的,所以當時李世石看到AlphaGo與樊麾的對弈過程後對 人機大戰 很有信心。
但是就在短短的幾個月時間,Google就把運行AlphaGo的硬件平臺換成瞭TPU,之後對戰的結果是AlphaGo以絕對優勢擊敗瞭李世石,也就是說采用TPU之後的AlphaGo的運算速度和反應更快。
究竟TPU與CPU和GPU相比到底有多大的優勢(例如性能和功耗)?
據Google披露的TPU相關文件顯示,其TPU與服務器級的Intel Haswell CPU和NVIDIA K80 GPU進行比較,這些硬件都在同一時期部署在同個數據中心。測試負載為基於TensorFlow框架的高級描述,應用於實際產品的NN應用程序(MLP,CNN 和 LSTM),這些應用代表瞭數據中心承載的95%的NN推理需求。
盡管在一些應用上利用率很低,但TPU平均比當前的GPU或CPU快15~30倍,性能功耗比(TOPS/Watt)高出約30~80倍。此外,在TPU中采用GPU常用的GDDR5存儲器能使性能TPOS指標再高3倍,並將能效比指標TOPS/Watt提高到GPU的70倍,CPU的200倍。
盡管NVIDIA對於上述的測試表示瞭異議,但TPU相對於CPU和GPU存在的性能功耗比的優勢(不僅體現在AI,還有數據中心)已經成為業內的共識。
值得一提的是,在剛剛舉辦Google I/O 2017 大會上發佈的新一代TPU已經達到每秒180萬億次的浮點運算性能,超過瞭NVIDIA剛剛推出的GPU Tesla2 V100每秒120萬億次浮點運算的性能。
那麼是什麼造就TPU如此的優勢?
簡單來說,CPU是基於完全通用的訴求,實現的通用處理架構,GPU則主要基於圖像處理的訴求,降低瞭一部分通用性,並針對核心邏輯做瞭一定的優化,是一款準通用的處理架構,以犧牲通用性為代價,在特定場合擁有比CPU快得多的處理效率。
TPU,則針對更明確的目標和處理邏輯,進行更直接的硬件優化,以徹底犧牲通用性為代價,獲得在特定場合和應用的極端效率,也就是俗話所言的 萬能工具的效率永遠比不上專用工具 ,而這正好迎合瞭當下諸多炙手可熱的人工智能的訓練和推理等均需要大量、快速的數據運算的需求。
到目前為止,Google的TPU已經應用在各種領域的應用中,例如Google圖像搜索(Google Image Search)、Google照片(Google Pho台中通馬桶價錢to)、Google雲視覺API(Google Cloud Vision API)、Google翻譯以及AlphaGo的圍棋系統中。實際上我們上述提到的Google I/O 2017 大會推出和更新的諸多AI產品和服務背後均有TPU的硬件支持。
當然,我們在此並非否認CPU和GPU在AI中的作用,例如鑒於CPU的通用性,其靈活性最大,不僅可以運行各種各樣的程序,也包括使用各種軟件庫的深度學習網絡執行的學習和推理。GPU雖然不像CPU那樣通用和靈活,但它在深度學習計算方面更好,因為它能夠執行學習和推理,並且不局限於單個的軟件庫。
相比之下,TPU則幾乎沒有靈活性,並且隻能在自傢的TensorFlow中效率最高,這也是為何Google對外聲稱TPU不對外銷售,且仍會繼續采用CPU和GPU。
但Google的這一做法印證一個芯片產業的發展趨勢,即在AI負載和應用所占數據中心比重越來越大的今天和未來,像諸如Google、微軟、Facebook、亞馬遜、阿裡巴巴、騰訊等這些數據中心芯片采購的大戶,其之前對於CPU和GPU的通用性需求可能會越來越少,而針對AI開發和應用的兼顧性能和能效的定制化芯片會越來越多。
作為通用芯片廠商的Intel和NVIDIA,如何順應這一芯片產業在A社區公寓大廈抽肥I驅動下的變化和發展趨勢未雨綢繆,則關系著其在AI時代到來之時,其能否繼續滿足客戶的需求和引領產業的發展。
文章糾錯
微信公眾號搜索" 驅動之傢 "加關註,每日最台中市抽化糞池新的手機、電腦、汽車、智能硬件信息可以讓你一手全掌握。推薦關註!【微信掃描下圖可直接關註】
閱讀更多:英特爾 英偉達 CPU處理器 AlphaGo
AUGI SPORTS|重機車靴|重機車靴推薦|重機專用車靴|重機防摔鞋|重機防摔鞋推薦|重機防摔鞋
AUGI SPORTS|augisports|racing boots|urban boots|motorcycle boots
文章標籤
全站熱搜
留言列表