【熱點】VAR和智能晶片亮相世界盃賽場 | 法國隊成最大贏家

1.VAR和智能晶片亮相世界盃賽場 法國隊成最大贏家; 2.GPU, FPGA晶片成為增強機器學習的 '左膀右臂' ; 3.Intel 10nm處理器曝光 小批量出貨

1.VAR和智能晶片亮相世界盃賽場 法國隊成最大贏家;

中新網北京6月16日電 本屆世界盃, 國際足聯推出重要改革: 首次推出VAR (視頻助理裁判) , 並在比賽用球內植入智能晶片. 在16日比賽進行到第三個比賽日, 法國隊在與澳大利亞隊的對決中再次成為受益者, 雙雙獲得第一個有利判罰.

北京時間6月16日18時, 2018俄羅斯世界盃C組首輪法國隊與澳大利亞的較量在喀山打響. 法國隊格裡茲曼打入世界盃曆史上, 首粒因VAR技術而改判產生的十二碼. 全隊身價達10.8億歐元, 高居32強之首的法國隊本來計劃輕取澳大利亞, 不過卻遭到了作風頑強的 '袋鼠軍團' 的阻擊. 直到第58分鐘, 法國隊鋒線大將格列茲曼在禁區內被對方球員裡斯登碰倒, 才打破場上僵局. 當值的烏拉圭裁判庫尼亞開始並沒有搭理格列茲曼, 示意沒有十二碼, 讓比賽繼續. 不過, 此時遠在千裡之外的視頻助理裁判卻通過連線提醒裁判: 這個球可以判十二碼!

經過與視頻助理裁判的溝通, 庫尼亞給法國隊改判了一個十二碼. 格列茲曼輕鬆將球射入, 使得法國隊依靠VAR的改判, 先下一城. 這也是VAR第一次改判產生的十二碼.

這個判罰引發了各方爭議. 在賽後的新聞發布會上, 法國隊主教練德尚表示, 這個球正如前一天葡萄牙對西班牙隊比賽中獲得的十二碼一樣, 可判可不判, 這完全取決於裁判本人的決定. 澳大利亞隊的荷蘭籍教練範馬爾維克則認為那是一次誤判: '雖然我還沒看錄影回放, 但我在現場位置很好, 看得很清楚, 那不該是一個十二碼. 裁判的位置離得更近, 但他最初說沒有十二碼, 示意比賽繼續. 我們是VAR的受害者, 但我們不會去挑戰這個決定. '

圖為格裡茲曼禁區內被侵犯倒地. 中新社記者 田博川 攝 4分鐘後, 法國隊後衛烏姆蒂蒂在禁區內手球犯規, 澳大利亞攻入十二碼將比分追平. 比賽進行到第81分鐘, 法國隊中場大將博格巴在大禁區外勁射, 皮球被澳大利亞隊的球員擋了一下後稍微變線, 擊中橫樑後彈到地上又反彈出球門上方. 經過智能晶片技術和鷹眼技術的回放, 裁判最終確認這個球整體越過球門線, 法國隊喜獲鎖定勝局的第二球, 以2比1險勝對手.

法國隊在本屆世界盃上連續從VAR和智能晶片獲利, 也延續了他們之前的幸運. 1998年, 國際足聯正式在世界盃上推出 '金球突然死亡' 和後來的銀球技術. 在1998年世界盃與巴拉圭的八分之一決賽中, 法國隊後衛布蘭科攻入世界盃曆史上的第一粒金球, 幫助法國隊晉級. 憑藉著這粒價值連城的金球, 晉級後的法國隊一路過關斬將, 最終在本土捧起了大力神杯. 由於這一規則偶然性太大且過於殘酷, 施行了兩屆之後, 2004年國際足聯取消了金球制和銀球制.

為了推動足球運動的發展, 保護球員且保障比賽的連貫性, 國際足聯一直在嘗試修改一些規則. 不過, 有人歡喜有人愁. 1970年, 在墨西哥舉行的第九屆世界盃上首次使用紅黃牌, 第一張黃牌得主是前蘇聯的洛普契夫. 1974年在聯邦德國的第十屆世界盃智利對西德的比賽中, 土耳其的球證巴巴坎向智利球員卡斯澤利發放了世界盃史上的第一張紅牌, 將其罰下. (完)

2.GPU, FPGA晶片成為增強機器學習的 '左膀右臂' ;

【網易智能訊6月17日消息】在商業軟體中, 電腦晶片已被遺忘. 對於商業應用程序來說, 這是一種商品. 由於機器人技術與個人硬體設備聯繫更為緊密, 因而製造應用程序仍然更側重於硬體部分.

自20世紀70年代以來, 整體上看, 人工智慧 (AI) 的現狀, 以及具體到深度學習 (DL) 領域, 硬體與軟體的關係比任何時候都聯繫地更加緊密. 而我最近幾篇 '管理人工智慧 (management AI) ' 的文章與過度擬合和偏見有關, 機器學習 (ML) 系統中存在的兩個主要風險. 本專欄將深入探討許多管理人員, 尤其是業務線經理可能會處理的硬體縮略詞問題, 這些縮略詞在機器學習系統中被不斷提及: 圖形處理單元 (Graphics Processing Unit , GPU) 和現場可編程門陣列 (Field Programmable Gate Array , FPGA) .

這有助於理解GPU的價值, 因為GPU加速了深度學習應用程序所需的張量 (tensor) 處理. FPGA的興趣點則在於尋找研究新AI演算法的途徑, 訓練這些系統, 並開始部署現在正在許多工業AI應用中研究的低容量定製系統. 儘管這是關於FPGA進行訓練的能力研究討論, 但我認為早期使用是源於F, 現場 (field) 的使用.

例如, 訓練一個推理引擎 (機器學習 '機器' 的核心) 可能需要千兆位元組, 甚至兆兆位元組的數據. 在數據中心運行推理時, 計算機必須管理一個潛在的不斷增加中的並發用戶請求數. 在邊緣應用程序中, 無論是在用於檢查管道的無人機中還是在智能手機中, 設備都必須很小且仍然有效, 而且還具有適應性. 簡單地說, 一個CPU和一個GPU是兩個器件, 而一個FPGA可以有不同的塊做不同的事情, 並有可能提供一個穩健的晶片系統. 鑒於所有這些不同的需求, 最好了解可支援不同需求的系統架構的當前狀態.

有兩類主要的晶片設計可以驅動當前的ML系統, GPU和FPGA. 在未來的中期 (至少幾年) , 也有可能成為遊戲轉換者的新技術暗示. 讓我們來看看.

圖形處理單元 (GPU)

機器學習世界中最大的晶片是圖形處理單元GPU. 這個主要用於電腦遊戲, 讓其在計算機顯示器上看起來更好的東西是如何變得對機器學習至關重要的? 要理解這一點, 我們必須回到軟體層.

機器學習目前的冠軍是Deep Learning (DL) 系統. DL系統基於各種演算法, 包括深度神經網路 (DNN) , 卷積神經網路 (CNN) , 遞歸神經網路 (RNN) 以及許多其他變體. 你在這三個術語中看到的關鍵詞是 '網路 (network) ' . 演算法是一個主題的變體, 主題是幾層節點, 節點和層之間有不同類型的通信.

正在處理的是多個陣列或矩陣. 矩陣 (matrix) 的另一個更為精確的術語是張量 (tensor) , 因此它在整個機器學習行業中用於諸如TensorFlow之類.

現在回到你的電腦屏幕. 您可以將它按行和列看作是像素或點的矩陣. 這是一個二維矩陣或張量. 當你添加顏色, 添加到每個像素的位大小, 想要一個快速變化的一致映像的時候, 計算可以很快變得複雜並且在一步一步的CPU中佔用周期. 而GPU擁有自己的記憶體, 可以將整個圖形映像保存為矩陣. 然後可以使用張量數學計算映像中的變化, 然後只更改屏幕上受影響的像素. 這個過程比每次更改映像時重新繪製整個屏幕要快得多.

NVIDIA於1993年, 旨在建立一個晶片來解決諸如CPU等通用計算機無法解決的矩陣問題. 這是GPU的誕生.

矩陣運算並不關心最終產品是什麼, 而只是處理元素. 這是一種輕微的過度簡化, 因為不同的運算依稀疏矩陣 (當有很多零時) 與密集矩陣的不同而有不同的工作方式, 但內容不會改變運算, 這個事實依然存在. 當深度學習理論學者看到GPU的發展時, 他們很快就採用其來加速張量運算.

GPU對機器學習的發展至關重要, 推動了數據中心的訓練和推理. 例如, NVIDIA Volta V100 Tensor Core在其基本架構和以更低精度運行推理的能力方面繼續加速推進 (這將是另一個話題, 意味著更少的位, 即意味著更快的處理) . 但是, 當涉及物聯網時還有其他問題需要考慮.

現場可編程門陣列 (FPGA)

在現場 (field) 中, 所有類型的應用程序都有不同的需求. 有很多不同的應用領域, 車輛, 管線, 機器人等等. 不同行業可以為每種類型的應用設計不同的晶片, 但這可能會非常昂貴並且會破壞公司的投資回報率. 還可能推遲上市時間, 錯過重要的商業機會. 對於那些不能提供足夠規模經濟市場的高度個性化需求而言, 情況尤其如此.

FPGA是幫助公司和研究人員解決問題的晶片. FPGA是一種整合電路, 可以編程為多種用途. 它有一系列 '可編程邏輯塊' 和一種編程塊和塊之間關係的方法. 它是一種通用工具, 可以為多種用途進行定製. 主要供應商包括賽靈思 (Xinlinx) 和美國國家儀器 (National Instruments) .

值得注意的是, 晶片設計成本較低的問題並不能使FPGA成為低價位的選擇. 它們通常最適用於研究或工業應用. 電路和設計的複雜性使其可編程, 不適用於低成本的消費類應用.

由於FPGA可以重新編程, 這使得其對於新興的機器學習領域來說很有價值. 不斷增加演算法, 並通過重新編程塊來針對不同演算法進行微調. 此外, 低精度推斷的低功耗FPGA對於遠程感測器來說是一個很好的組合. 雖然發明人將 '現場 (field) ' 更多地稱為 '客戶 (customer) ' , 但FPGA在實現AI應用方面的真正優勢在實際領域中. 無論是對於工廠, 道路和管道等基礎設施, 還是無人機遠程檢測, FPGA都允許系統設計人員靈活地使用一塊硬體, 以實現多種用途, 從而實現更簡單的物理設計, 從而可以更加容易地進行現場應用.

新體繫結構即將到來

GPU和FPGA是目前正在幫助解決如何擴大機器學習對許多市場影響的挑戰的技術. 他們所做的是讓更多人關注這個行業的發展, 並試圖及時建立新的架構來應用.

一方面, 許多公司試圖在GPU上學習張量運算的教訓. 惠普, IBM和英特爾都有開發專門用於深度學習的下一代張量運算設備的項目. 與此同時, 像Cambricon, Graphcore和Wave Computing這樣的初創公司也在努力做同樣的事情.

另一方面, Arm, Intel和其他公司正在設計架構, 以充分利用GPU和CPU, 並使器件也瞄準機器學習市場, 據稱能夠做的不僅僅是集中張量運算, 對於圍繞核心AI流程的其他處理也更加強大.

雖然上述一些組織專註於數據中心和其他物聯網, 但現在談論其中的任何一個都為時尚早.

從全球公司到初創公司, 一個告誡是, 除了最早的資訊外, 還沒有其他資訊出現. 如果我們最遲在2020年看到最早的器件樣品, 那麼這將是一個驚喜, 所以它們至少在五年內不會上市.

(選自: forbes 作者: David A. Teich 編譯: 網易智能 參與: nariiy)

3.Intel 10nm處理器曝光 小批量出貨

Intel 10nm工藝因為良品率不達標, 大規模量產已經推遲到2019年, 眼下只是小批量出貨, 產品已知的只有一款15W熱設計功耗的低壓版Core i3-8121U(家族代號Cannon Lake), 而且只有聯想在用.

i3-8121U的規格為雙核心四線程, 主頻2.2-3.2GHz, 三級緩存4MB, 記憶體支援雙通道DDR4/LPDDR4-2400 32GB, 熱設計功耗15W.

核顯部分資訊未公布, 應當是因為良率問題屏蔽禁用了, 所以聯想才增加了一塊AMD獨立顯卡.

德國硬體媒體ComputeBase公開了i3-8121U的第一張 '果照' , 可以看到封裝布局與此前產品基本一致, 仍是一顆處理器核心, 一顆晶片集核心封裝在一起, BGA整合封裝方式焊接在主板上.

我們又找到了一張Intel官方給出的八代酷睿低壓版照片, 可以發現處理器, 晶片集核心都變小了, 封裝焊點和電容元件也發生了很大變化, 應該是不再相容.

ComputeBase測量後發現, i3-8121U的整體封裝尺寸為45×24毫米(和官方指標一致), 其中處理器部分面積大約71平方毫米, 晶片集部分大約47平方毫米.

儘管根據研究發現, Intel 10nm工藝的晶體管密度超過了每平方毫米1億個, 相當於甚至高於三星, 台積電, GlobalFoundries 7nm的水平, 但是對比自家14nm產品, 變化似乎並不大.

要知道, Intel第一代14nm Broadwell-U的處理器部分面積也不過82平方毫米, 10nm只是縮小了13%而已, 而且大家都是雙核心四線程, 都是4MB三級緩存, 只是核顯執行單元從24個增加到40個, 並支援AVX512指令集.

另外, 45×24毫米的整體封裝, 也比目前14nm低壓版的42×24毫米略微大了一點. 快科技

2016 GoodChinaBrand | ICP: 12011751 | China Exports