當前位置:首頁 » 自動清洗 » 怎樣在自動駕駛方面學習
擴展閱讀
倉鼠怎樣畫簡單又好看 2024-10-13 15:03:26

怎樣在自動駕駛方面學習

發布時間: 2022-04-19 06:25:28

A. 怎樣實現自動駕駛的技術路線

在自動駕駛技術方面,我們可以依靠環境感知、高精度語義地圖、數據驅動的駕駛決策和產品級軟體實現自動駕駛。

Momenta正是通過這些核心技術,讓無人駕駛成為可能。

一、環境感知

道路識別:在黑暗、逆光、惡劣天氣和缺乏清晰的車道線的情況下,做到高性能地識別多個車道、交通標志和信號、可行駛區域。

B. 自動駕駛的技術原理包含哪些專業知識

智能駕駛、自動駕駛到無人駕駛是技術層層遞進、范圍層層縮小的關系。

無人駕駛

汽車在無駕駛員介入的情況下,能在限定環境乃至全部環境下完成全部駕駛任務。

自動駕駛

指汽車至少在某些或者全部具有關鍵安全件的控制功能方面(如轉向、油門、制動),無需駕駛員直接操作即可自動完成。包括無人駕駛以及輔助駕駛。

智能駕駛

包括自動駕駛以及其他輔助駕駛技術,例如語音預警提醒、人機智能交互等,能夠在某一環節輔助甚至替代駕駛員,優化駕車體驗。

自動駕駛分級標准

SAE(國際汽車工程學會)J3016 文件提出的五級自動駕駛分級方案,是當前被自動駕駛領域與國際社會普遍認可採用的標准。該標准分為五級。

L1、L2 稱為輔助駕駛,其汽車駕駛的主體及負責方是駕駛員,自動駕駛系統輔助承擔部分駕駛任務。L1 在適用的實際范圍內,自動駕駛系統可持續執行橫向(如方向盤)或縱向(如油門、剎車)的車輛運動控制的某一子任務(不可同時執行)。L2 中自動駕駛系統可同時執行橫向或縱向的車輛運動控制任務。

L3 到 L5 自動駕駛系統可執行全部動態駕駛任務,車輛駕駛的主體及責任方為自動駕駛系統。L3 中駕駛員在有需要時作為備用參與駕駛任務。到 L5,自動駕駛系統承擔所有駕駛任務,駕駛員無需參與駕駛。

以上分級場景中 L3 仍有待商榷,是否存在解放雙眼卻需要駕駛員隨時准備參與駕駛任務的場景。就用戶角度而言,L3 場景能否做到用戶友好。例如當用戶在 L3 級別場景下在車內玩手機,而系統突發事件要求用戶在 10 秒內接手駕駛操作。就技術角度而言,交通環境中時間即是生命,即使在很短時間內也存在事故發生的可能性。要求系統在 10 秒或更短時間內做出判斷與反應,或許已經超出 L3 級別的技術能力。

以上自動駕駛分級標准可以從另一個角度進行理解,如下圖所示。L1、L2 解放駕駛員雙手雙腳,無需操作方向盤、油門等,只需要監視駕駛場景。L3 解放駕駛員雙眼,但是要在特殊需要時響應系統需求。在 L4、L5,駕駛員完全無需參與駕駛。

2 企業發展路線不同

根據不同企業的商業模式與其技術優勢的不同,不同企業發展自動駕駛技術的定位等級不同,採用的整體技術發展路線也不同。

目前以特斯拉為代表的車企多採用漸進發展路線,利用 L1、L2 自動駕駛技術輔助駕駛員優化駕駛體驗。以 Google 等為代表的互聯網或高科技企業更多面向 L4、5 方向進行自動駕駛技術的研發工作。

對於互聯網等科技企業而言,輔助駕駛技術對演算法要求較低,更多以硬體為主,創造的價值不高。因此互聯網企業研究 L4 自動駕駛技術,尅占據更多創新技術優勢。車企注重硬體基礎,從 L1、L2 逐漸起步,逐步提高自動駕駛能力等級,更符合企業發展需求。

另外,不同企業在感測器方案技術路線、決策演算法技術路線等的不同選擇,即為細分領域技術未定型而導致的分歧,同樣基於整體發展策略的大背景。目前發展無人駕駛技術還存在很多挑戰。

3 自動駕駛技術原理以及技術大圖

不同級別自動駕駛技術的框架是相似的,因其對精度要求、功能覆蓋度要求的不同而發展出不同功能。其技術框架核心分為環境感知、決策規劃、控制執行三部分,與人類駕駛過程類似。

環境感知

人類駕駛員通過耳朵和眼睛觀測環境、了解自己與周圍環境中交通參與者的位置與狀態。自動駕駛技術的環境感知技術通過感知演算法與感測器得到相似信息,包括定位與感知環境。

決策規劃

得到環境信息後,通過決策演算法和計算平台規劃駕駛路徑等信息,同時保障安全性。

控制執行

通過控制演算法與線控系統控制車輛按照規劃的路徑執行行駛操作。

如上圖所示,上述三部分核心技術涉及到諸多模塊。

演算法

包括控制演算法、定位演算法、感知演算法與決策演算法。就其成熟度而言,控制演算法基本可以滿足技術要求。就阿里巴巴當前實踐而言,定位演算法在多數情況下能夠滿足精度要求。期待感知演算法做到精確識別周圍環境中物體的類別、位置、運動速度、方向等,目前還存在雜訊影響等問題。決策演算法需要處理雜訊等問題,並且高效地規劃出可執行路徑。感知演算法與決策演算法模塊作為自動駕駛技術的瓶頸,還有待優化。

感測器

可以根據不同方案、層級選擇不同的感測器方案。例如 L2 技術更多使用攝像頭與毫米波雷達,L4 技術需要使用激光雷達。激光雷達感測器還存在許多問題,例如穩定性方面的問題。目前主要使用機械的激光雷達,雖然固態激光雷達進展快速,但是實踐證明固態激光雷達還不能滿足自動駕駛技術的穩定性要求。

計算平台

既需要能力強,又要求低功耗。由於上層演算法還未定義好,難以針對性製作或優化出適合演算法的晶元。

測試手段

包括真實道路測試、模擬回歸測試。模擬回歸測試是自動駕駛領域的熱門問題,關於如何模擬駕駛環境及駕駛員的真實行為等方面,存在許多技術問題有待突破。

C. 自動駕駛原理

汽車自動駕駛的原理是基於環境感知技術,根據決策規劃出目標軌跡,通過側向控制和縱向控制系統配合,使車輛在行駛過程中能夠准確,穩定跟蹤目標軌跡,可以實現如速度調整,距離保持,換道和超車等基本操作的。


自動駕駛的原理其實就是讓電腦來通過各種攝像頭感測器,根據前方的障礙物,然後進行調整。可以實現加速減速,也都是根據路況來確定。

汽車自動駕駛技術包括視頻攝像頭、雷達感測器以及激光測距器來了解周圍的交通狀況,並通過一個詳盡的地圖對前方的道路進行導航。這一切都通過谷歌的數據中心來實現,谷歌的數據中心能處理汽車收集的有關周圍地形的大量信息。

就這點而言,自動駕駛汽車相當於谷歌數據中心的遙控汽車或者智能汽車。汽車自動駕駛技術物聯網技術應用之一。

駕駛輔助系統(DAS):目的是為駕駛者提供協助,包括提供重要或有益的駕駛相關信息,以及在形勢開始變得危急的時候發出明確而簡潔的警告。如「車道偏離警告」(LDW)系統等。

部分自動化系統:在駕駛者收到警告卻未能及時採取相應行動時能夠自動進行干預的系統,如「自動緊急制動」(AEB)系統和「應急車道輔助」(ELA)系統等。

高度自動化系統:能夠在或長或短的時間段內代替駕駛者承擔操控車輛的職責,但是仍需駕駛者對駕駛活動進行監控的系統。


D. 汽車自動駕駛有地方可以學習嗎

汽車自動駕駛,指的是自動檔車的學習,這個肯定有地方學習的,只不過比手動檔車學習的學費貴。只要考試的科目,肯定有學習培訓的地方,就是價格的問題,所以手動檔學習的多,自動檔學習的少。

E. 自動駕駛汽車的技術原理

汽車自動駕駛技術包括視頻攝像頭、雷達感測器以及激光測距器來了解周圍的交通狀況,並通過一個詳盡的地圖對前方的道路進行導航。這一切都通過谷歌的數據中心來實現,谷歌的數據中心能處理汽車收集的有關周圍地形的大量信息。

就這點而言,自動駕駛汽車相當於谷歌數據中心的遙控汽車或者智能汽車。汽車自動駕駛技術物聯網技術應用之一。

沃爾沃根據自動化水平的高低區分了四個無人駕駛的階段:駕駛輔助、部分自動化、高度自動化、完全自動化:

1、駕駛輔助系統(DAS):目的是為駕駛者提供協助,包括提供重要或有益的駕駛相關信息,以及在形勢開始變得危急的時候發出明確而簡潔的警告。如「車道偏離警告」(LDW)系統等。

2、部分自動化系統:在駕駛者收到警告卻未能及時採取相應行動時能夠自動進行干預的系統,如「自動緊急制動」(AEB)系統和「應急車道輔助」(ELA)系統等。

3、高度自動化系統:能夠在或長或短的時間段內代替駕駛者承擔操控車輛的職責,但是仍需駕駛者對駕駛活動進行監控的系統。

4、完全自動化系統:可無人駕駛車輛、允許車內所有乘員從事其他活動且無需進行監控的系統。這種自動化水平允許乘從事計算機工作、休息和睡眠以及其他娛樂等活動。

結構性能

1、激光雷達

車頂的「水桶」形裝置是自動駕駛汽車的激光雷達,它能對半徑60米的周圍環境進行掃描,並將結果以3D地圖的方式呈現出來,給予計算機最初步的判斷依據。

2、前置攝像頭

自動駕駛汽車前置攝像頭谷歌在汽車的後視鏡附近安置了一個攝像頭,用於識別交通信號燈,並在車載電腦的輔助下辨別移動的物體,比如前方車輛、自行車或是行人。

3、左後輪感測器

它通過測定汽車的橫向移動來幫助電腦給汽車定位,確定它在馬路上的正確位置。

4、前後雷達

後車廂的主控電腦谷歌在無人駕車汽車上分別安裝了4個雷達感測器(前方3個,後方1個),用於測量汽車與前(和前置攝像頭一同配合測量)後左右各個物體間的距離。

5、主控電腦

自動駕駛汽車最重要的主控電腦被安排在後車廂,這里除了用於運算的電腦外,還有測距信息綜合器,這套核心裝備將負責汽車的行駛路線、方式的判斷和執行。

F. 想要實現自動駕駛技術,需要具備哪些條件

自動駕駛是未來汽車的發展趨勢,無論是汽車品牌還是科技科技品牌都在為研發自動駕駛而努力。目前自動駕駛級別分為 0-5 級,而只有 5 級才可以達到完全自動駕駛級別。而現在很多車企在賣車時往往會給出很模糊的宣傳,是自己的車輛已經具備了自動駕駛功能, 而這些並不是真正意義上的自動駕駛。

那麼真正的自動駕駛首先要具備自動駕駛的功能,而這些功能首先要有硬體作為基礎,之後再有處理器、車聯網等軟體等更強大的數據分析能力、更有邏輯的決策管理程序,那麼結合目前的半自動駕駛特點以及市面上一些主流的配置,我們先來了解下實現自動駕駛的幾個必要條件。

寫在最後:自動駕駛是我們一直所想往的,駕駛員不用再隨時精神集中的開著車。但要實現自動駕駛還需要很多的配置,現在車輛的配置、硬體的配置已經可以實現半自動駕駛。在有些細節方面駕駛員並不能信任車輛的該功能,駕駛員應該是占據主導地位。而自動駕駛最重要的就是路網的建設,通過道路和網路整體結合,讓車輛與車輛、車輛與行人、車輛與物的數據實時交換,這樣車輛的自動駕駛就離我們不遠了。

G. AI自動駕駛需要學什麼

編程,各種語言,從匯編,到解釋型語言 因為適用范圍和使用環境不同,都有用到的機會。再細分就太多了比如語文語法,圖像,音頻,視頻 這是基本溝通交流需要,然後就是關於專業了,比如現在有圖像識別專業的人工智慧(姑且稱它為人工智慧吧。。...

H. 從自動駕駛突破,理解什麼是智能學習

摘要 您好,在自動駕駛這個方面,使用深度增強學習可以有不錯的效果。然後再加上一些額外的硬體保障系統,加入地圖,IMU等等,那麼其效果或許可以媲美激光雷達吧。我感覺Nvidia的做法把自動駕駛弄得一下子不如以前那麼高大上了,看CMU和Standford在DARPA上的自動駕駛的車的論文就知道自動駕駛的坑很深。

I. 深度:如何將深度學習和自動駕駛結合在一起

以下是演講內容的整理:

我是來自於底線線機器人汽車業務的負責人李星宇,地平線機器人成立有一年的時間,創始人余凱是網路深度學習研究院的院長,也算是國內第一個深度學習的研究院是他建立的。他成立了地平線這家公司,專注於深度學習技術的開發,所以在今天我想跟大家分享的主題就是:《如何將深度學習和自動駕駛結合在一起?》。

| 背景:復雜的駕駛環境正是深度學習的機會

應該說在今年的 AlphaGo 和李世石的對決當中,大家對於機器人的關注已經到了一個非常高的水準,其實自動學習已經有不少的時間。今年豐田有做過一個 Demo 的系統,他做了是 8 輛車並沒有被教任何的駕駛規則,就是隨意往前開,這 8 輛車會置於一個訓練系統之下,經過八個小時的訓練之後,八個小時下來沒有碰撞,這真是了不起的事情。

通過資本界我們來看,這些 10 億美元的投入都能真金白銀地證明整個業界對於深度學習和增強學習技術的看好。

為什麼我們需要把這樣一個技術運用在自動駕駛領域?千言萬語可以歸結為一句話就是復雜性。我們看到很多人在很多時候會質疑自動駕駛這件事情,其實他的質疑覺得就是復雜,你可以看到在十字路口,非常復雜的路況。包括中國進入汽車社會不久,駕駛技術有待提高的特殊的國情,變道非常頻繁,拐彎很多時候也很暴力。這樣一個場景其實對於傳統的 ADAS 有很大的挑戰性,而這種復雜性恰恰是深度學習的一個優勢。

當然很多人也會問,在自動駕駛領域是不是人就沒有作用了?我們很長一段時間在自動駕駛領域,人和車的關系其實並不是一個簡單的服務與被服務的關系,而是人和馬之間的關系。意味著是什麼?其實馬並不知道在一個大的方向該怎麼走,是快一點還是慢一點,這個是需要人來控制和調節。而馬能做的就是,無論你告訴還是不告訴,前面是懸崖就會停下來,意味著自動駕駛可以在微觀的一個層面,能夠把風險降到極低的水平。而在高層次的體驗層面,更多的是以跟人配合的關系,它會去理解你。所以在自動駕駛領域很重要的一個話題就是對於駕駛習慣的學習。自動駕駛習慣的學習不僅僅是一個標準的駕駛,還有包括特殊駕駛風格的學習。

這是一個非常標準的美國高速公路管理局的對於自動駕駛的分析。應該說,從我們跟車廠的溝通裡面可以看到,現在研發的重點還是基於 Leve13,就是高度的無人駕駛。它的主要不同跟 Leve4 的不同在於,一個就是保證在任何情況下都可以做緊急碰撞的防止,第二個就是在條件良好的道路上部分實現自動駕駛。

從現在實踐的情況來看,高速公路上應該不是有太大的問題。現在主要解決的是高速公路上的一些特殊的案例和條件比較好的城區主幹上的案例,比如上海的中環、內環、外環的情況下,尤其紅綠燈情況下需要一些特殊案例的深度學習。

| 深度學習為什麼受到重視?

我們介紹了一個背景之後,稍微回來談一下深度學習為什麼會受到重視。大家現在都覺得 " 深度學習 " 這個詞特別火熱。

第一個為什麼它會受到重視?

應該說深度學習出現的歷史其實非常久,最久的歷史可以追溯到 50 年代末,在漫長的發展時期裡面是幾經起伏,有它的高潮的時候也有低谷的時代。從現在的情況來看深度學習最具吸引力的一點就是端到端的學習。

舉例,以自動學習的系統去識別一個圖片,比如這個圖片上是一個人,它會把圖片作為輸入一個名字,你可以看到人臉的信息量通常是幾兆,幾百萬個位元組,最終輸出的就是幾個位元組,就是端到端,可以把非常復雜的非結構化的數字轉化為精簡數字化的表達,包括語音、語言、圖像、視頻都是非結構化的,包括金融的交易產生的數據都是非結構化的。

從目前的情況來看,第一個它非常適合大數據時代。在過去的年代,其實大家也是在研究深度學習的演算法,那個時候還不叫深度學習,叫深度神經網路。但是發現很難把它調校得好,因為那個時候學的都是一個小量的,幾千個樣本,想把它調到一個非常好的水準,其實是不可能的。後來大數據出來以後,這個性能就飆升,最終的一個例子就是 2012 年的時候愛萊克斯和他的老師參加了圖片分類識別的比賽,一下子從過去的 74% 提高到了 85%,非常大的一個進步。也就是說現在機器對於圖片的識別其實是優於人眼,所以實踐效果很好。比較通俗的說法,對於這種行為的一種模擬,這種說法可能不是特別的准確,事實上跟它相關聯的網路,按它的類似性來說是非常復雜的,而且現在沒有搞得特別復雜。

機器學習技術前沿,注意力模型。圖片上是對於人臉識別過程的一個描述,如果你拋開技術不看,你直接看,你會看到圖象識別的時候,每過一個識別階段,由很多個識別階段組成。它的圖像的信息會減少一些,最開始會把圖像的彩色性去掉,只留下一個歸錄信息。

第二步會把規錄中間的去掉,只留下邊緣線條的信息,然後線條會變成點,這是從低位空間向高位空間不斷的扭曲的過程,到最後它的圖片信息就會精簡到一個字母,所以這就叫多層的卷積神經網路。大家都知道這樣一個復雜的關系勢必會帶來數據極大的產生,因為肯定需要非常大的參數。

自動學習技術也在不斷地往前推進,我們現在看到各個領域都全面推進。

比如注意力模型,什麼叫注意力模型呢?舉例,在雞尾酒酒會上看到很多的人,但是你只跟其中一個或者幾個人談,這個時候你的聽覺系統只會注意到你想關注到的那個人的話,而把其他人的給屏蔽掉。解決了在復雜的語義環境下,會對特別的語音進行聚焦。當我們對這個婦女說,我要求你把飛盤作為聚焦目標的時候,機器系統可以把飛盤反射出來,也就證明它准確能夠聚焦到你想要它聚焦的部分,這個是非常關鍵的,因為這個系統是非常復雜的,而你只需要自動駕駛的系統關注車輛、車道線、人這些關鍵的信息,這樣一個技術可以使得它很有效的處理。

除了注意力模型以外還有其他的進展,包括長時短時的記憶力模型,這個是做什麼用?它會使深度學習,不僅僅是在空間,二維平面上有足夠的學習,它能記住過去發生的事情。剛才豐田的小車的 Demo 裡面可以看到,它對瞬間場景的處理做得很好,但是有沒有想過如果場景的處理手法依賴於過去的歷史怎麼辦?比如我們把魔獸和星際爭霸,下一步的動作取決於你的歷史狀態,這個時候要求你的深度神經網路需要足夠的記憶力,能夠記住過去的狀態,這個記憶力模型就是解決這個問題包括序列化等等。

增強學習

什麼是增強學習?

打一個比較形象的比方,如果過去的系統我們當做是計劃經濟的話,那麼增強學習就是市場經濟,可以理解它是一種結果導向的技術。准確描述這是一個智能主體跟環境不斷博弈而來優化的一個過程。比如剛才的豐田的小車是一個增強學習的典型的案例,如果它碰撞了給它懲罰,如果沒有碰撞給它獎勵,多輪的循環會加強這些行為,達到一個期待值。深度學習可以用來做環境的感知,而增強學習可以用來做控制的東西,這樣就可以構成一個完整的自動駕駛系統。

這是一個非常典型的汽車的自動駕駛系統的框架圖,在圖像的左側有各種各樣的感測輸入,這個數據來源於三個,汽車外圍的環境數據,汽車本身的狀態數據,比如車速、轉向,還有車內人的數據,是不是疲勞駕駛,是不是要轉彎。一個是感知的融合,一個是決策。

|深度學習讓自動駕駛從感知到控制

深度學習在中間的感知和決策都是有非常大的優勢,可以進一步把這個事情分解一下。

我們跟過內的主機廠接觸,由於現在國內有一些主機廠已經開始比較深的自動駕駛的研發,去討論大量的細節。我們可以簡單把它劃分成這樣的一個板塊,就是態勢感知和決策控制。

態勢感知和決策控制

態勢感知一部分就是對外的態勢,就是你要對整個的環境要有感知,對內就是對駕駛員的意要圖要有感制,包括意圖的判斷。包括對外部物理的辨識,哪些是固定障礙物,哪些是欄桿,哪些是可行駛區域。對於駕駛,包括狀態的識別其實非常重要。這也是整個自動駕駛業界流派之爭的一個焦點。

以谷歌為代表的,他們想做的是全自動駕駛,但是我們還是要一步一步來,這面臨有一個半自動駕駛的過程,谷歌覺得很難做到很好的人工和自動駕駛的切換,沒有辦法把這件事情做得特別的可靠。

其實這個我認為要這樣來看,首先主機廠其實是一定會按照循序漸進的過程來走,因為他們是造車的。第二個在這件事情上深度學習可以很好地幫助緩解這個問題。我們不能說一定能全部解決,至少能夠極大地緩解這件事情。因為深度學習對於駕駛員狀態的綜合理解比其他的手段要來得更好,因為它是基於大量對於駕駛員技術分析的基礎上建立對它的一個綜合理解,包括他的駕駛習慣、意圖等。

決策控制包括幾個部分。就是對於車輛來講有一個局部的運動路徑的規劃,另外規劃裡面還有一個駕駛風格的情況,比如需要運動感強一點的,都不一樣。最後一個是執行器控制,狀態之間形成一個閉環去調校。

應該說在現在有很多初創的公司,包括像英偉達這樣的公司做大量的嘗試,如何把整個的系統用深度學習的方法進行優化。英偉達做得比較暴力,直接忽略了中間的決策這一部分,是直接把感測器的輸入和車的狀態的輸入直接關聯,做這樣一個預測。也就是說 Y 就是執行器剎車、油門、轉向,輸入就是車的信息、環境的信息,非常暴力,不做任何中間人工智慧的分析。

自動駕駛還有一個非常重要的點,就是如何進行測試。

整個自動駕駛來講主要的投入還是在測試這塊,並不是做一套軟體系統就可以了。特斯拉做得很討巧,直接在量產上進行測試,所以短時間內積累了超過 1.76 億英里的速度。但是還是需要一個模擬系統去做這件事情,有一個模擬系統,如何在模擬系統各個主體能夠真實的模擬,這其實也是一個增強學習可以幫助你的。

當你創造了一個虛擬環境的時候,你希望用多台的計算設備去模擬一個目標,模擬幾十個人,模擬路牌等等,每一個都是動態的過程,它們不地變。比如紅綠燈會不斷地變,車輛動態的變化,這樣一個復雜的結構,其實很適合於深度學習和增強學習來做,包括結合模擬。

在這個方面德國的車廠寶馬和奧迪走得比較靠前,當然包括豐田其實也是一樣,做大量的工作,這個是奧迪的汽車大腦的構架圖,AUDI 的 zFAS。zFAS 系統模塊配備了 Mobileye 的 EyeQ3 移動處理器以及英偉達 TegraK1 晶元。奧迪的觀念非常清晰,自動駕駛的關鍵還在學習。

地平線在這塊領域也是進行了大量的工作,我們有一個品牌叫做雨果,這是汽車的一個開放平台。

(播放視頻)這個是雨果做的整個道路的語義理解,它可以把道路各個不同種類的物體運用不同色彩標識出來,比如柵欄是紅色,道路是綠色,樹木是深綠,汽車是紫色,這樣一個對於道路綜合語義理解對於智能駕駛系統是很關鍵的,很多道路也不是結構化的道路,比如鄉村的道路其實沒有車道線,柵欄也沒有,你沒有辦法通過車道線去自動駕駛,這個時候你要自己去決定該走哪一塊。

這是地平線做的識別,左上角是英偉達的,很遺憾不能秀一下動態的視頻。地平線是在北京做的測試,在這個路口的人其實非常的密集,地平線很好做了識別,並且對於計程車裡面的人,僅僅露一個腦袋的人也可以識別。

對於車輛檢測,地平線從去年 8 月開始,長期保持在 KITTI 排名第一的識別率。Densebox 就是測試的名字。

地平線是一家專注於演算法和晶元開發的公司,我們在最下端的解決方案,我們更多願意跟業界合作夥伴,各類的公司和主機廠一起合作,一起做最後的產品出來。地平線的演算法團隊其實蠻國際化的,助力的演算法團隊來自於像 facebook、網路、中科院。我認為在深度學習領域,我們中國第一次有機會基本上跟國際的主流的開發的機構處於差不多的一個水平線上,不能說是絕對的齊平,但是不會有太大的差別。

| 我們為什麼要自己做深度學習的晶元?

剛才趙總也分享了,為什麼我們需要深度學習的晶元,提到很多國內公司在宣稱自己在做這個,這是一件好事,因為大家都知道現在的計算結構不合理。

比如說舉一個例子,深度學習的輸入是高度密集化的,這種密集化輸入不太適合 DSP 這種,是流水線的,GPU 的一個問題在哪裡?

在多輸入之後的下一步處理,在數據緩沖方面做得不好。很不幸的是深度學習網路它的輸入是前後關聯的,在中間隱藏層的時候,這個卷積盒是要跟前置進行卷積計算的,這就意味著首先要取參數、計算,這就會導致在正常的一般結構下會大量的有外出效應。

第二個因為帶寬永遠是有限的。

第三個是功耗問題,這些都是非常實際的問題。

還有一點就是,深度神經網路的參數非常多.

整個業界都意識到,如果要在深度學習領域能夠做的話,像地平線得自己做晶元有點類似於手機業界,在大約十年前的時候,手機業界還沒有一個想法說一定要做自己的晶元,但是今天大家已經看得非常清楚,如果要想做起來必須做自己的晶元,蘋果、三星、華為都是自己的,如果你不這么做只是使用高通的平台,你還是可以做,但是很不幸你是第二梯隊。所以在深度學習也是一樣,你還可以用英偉達、高通的晶元,可是這不是第二名和第一名的差距,這是第二梯隊和第一梯隊的差距。因為演算法在演進,你如果用別人的話肯定是慢一拍的,這是一個問題。

國內有不少公司在做,包括有一家公司叫做(深建科技),最近他們發表了成績,就是 DPU,深度學習的處理器,他們在單位功耗下的性能表現是英特爾之前 CPU 的 24000 倍,是英偉達 GPU 的 3000 倍。而他們所做的優化的工作,恰恰是剛才我提到的問題,對於壓縮,對於訪問的優化,降低了功耗。

地平線也是一樣,我們非常清晰認識到這個問題,所以我們的做法也是這樣,我們地平線也是在做自己的晶元。我們希望在短時間內能夠把整個的能耗比提升千倍。

地平線現在專注的深度學習的技術的應用點有哪些?四個大塊,語音、語言、視覺、控制。應該說,這四個緯度可以構成大量的創新的應用,不僅僅是自動駕駛,還包括家庭的伺服器的監控等等。我們的目標是希望在未來,我們可以用我們自己的演算法晶元,跟廣大下游的夥伴進行合作,比如空調公司,比如掃地機器人公司等等,能夠覆蓋超過 1000 個品類的智能產品,我們的目標是為現代的智能硬體真正的賦予智能,所以我們的目標是定義物聯網時代的大腦。

我的分享就到這里,我們也是非常歡迎大家如果有意跟地平線合作,我們提供平台解決方案,而不是某個具體品類和最終的產品,謝謝大家。

J. 汽車自動駕駛如何實現

目前實現自動駕駛主要依靠「感知-決策-執行」的方式。
其中,感知系統也稱為「中層控制系統」,負責感知周圍的環境,並進行識別和分析;決策系統也稱為「上層控制系統」,負責路徑規劃和導航;執行系統又稱為「底層控制系統」,負責汽車的加速、剎車和轉向。
這些系統的背後,人工智慧技術也提供了重要的支持。
以深度學習為代表的計算機視覺技術,可以滿足視覺感知高精度的需求,提高自動駕駛汽車面對復雜交通環境時的決策能力;前期決策樹、貝葉斯網路為自動駕駛行為決策與路徑規劃提供了重要的技術支持;神經網路控制則在車輛控制方面提供了重要的技術支持。