運用智能感知技術於自駕車之行人防護應用

工研院資通所  徐志偉 楊宗賢

自駕車事故頻傳,安全防護日益受到重視,相關感測技術對於行人防護的應用也更加重要。

全球智慧城市商機大爆發,預估至2020年將達7,500億美元,自駕車為智慧交通的一環,串連民眾通勤與運輸的角色,提供更安全、便捷與舒適的服務。然而自駕車安全防護日益受到重視,本文即探討自駕車相關感測技術(光達、感測、定位與V2X技術)對於行人防護之應用,透過預先警示與自動煞停的運作方式,強化自駕車自主運行的安全性,並以UBER近期所發生自動駕駛事故為例,突顯V2X技術與V2P (Vehicle-to-Pedestrian)應用的重要性。

自駕車採用智能感知技術簡介

自駕車系統架構中最為關鍵的元件即為前端感測器,感測器為發展自動駕駛技術領域中最為重要的回授單元,近年來隨著先進駕駛輔助系統普遍應用於高階車輛上,並且對於安全、舒適、方便與節能有所改善,使得安裝多個感測器已逐漸成為趨勢,同時成為發展自動駕駛等級SAE (Society of Automotive Engineers) Level 5的基礎,透過這些先進的感測器與機器學習軟體演算法的處理,可以讓車輛電控單元完整模擬甚至超越人類在駕駛車輛時所使用的各種感官能力(perception),實現同步即時的全方位環周感測能力,並針對感測結果進行控制決策的判斷,因此,感測器的穩定性研究成為目前自動駕駛技術的關鍵要素之ㄧ,其中在運算速度、抗環境干擾能力與辨識精準度上為目前發展的三個重要指標。以下將分別介紹LiDAR、Radar、Camera、超音波Ultrasound前端感測技術、V2X通訊技術與定位技術。

  • 光學光達感測技術
    LiDAR (Light Detection and Ranging)為一種主動式光學感測器,透過雷射光束撞擊至待測點後反射回感測器之光束飛行時間,可計算獲得與等待測試物之相對距離,並依照連續多個距離資料的多寡可換算為2D或3D之物理座標,雷射光束常見的有紫外光、可見光以及紅外光,其中以波長600-1000nm最為普遍應用,目前市面上較常見的有2D與3D感測器產品,其中3D又依雷射光束的數量普遍分為8、16、32、64 Beam,並同時進行環周360度高頻掃描,為目前自動駕駛常使用的解決方案。
  • 雷達感測技術
    Radar (Radio detection and ranging)為一種主動式電磁波感測器,透過電磁波撞擊至等待測試點後反射回感測器之電磁波飛行時間,可計算獲得與等待測試物之相對距離,並視連續多個距離資料的多寡可換算為2D或3D之物理座標,優勢在於穿透性與抗干擾力強,能在全天候使用,缺點則是檢測解析度低,常見的車用Radar工作頻率在24GHz、77GH、79GHz三種頻率附近,24GHz多用於中距離偵測,可應用於車側盲點偵測 (Blind Spot Detection, BSD),77GHz以上多用於遠距離偵測,常見的應用有適應性巡航控制 (Adaptive Cruise Control, ACC)與前方碰撞警示 (Forward Collision Warning, FCW)。
  • 攝影機感測技術
    Camera原理跟構造與人眼非常相似,是一種被動式光源感測器,主要由四種元件所組成:透鏡、光圈、濾鏡、影像感測器,透鏡控制焦距與視角,濾鏡控制通過的光源種類,光圈控制光線進入的程度,影像感測器則負責最後的感光成像,依照不同等級之產品,四種元件會有不同的控制能力,然而成本上也隨響應時間而有所提升,其優點在於具有高的解析度RGB (Red, Green, Blue),缺點則是受光影與環境影響大,並且較難取得較準確之距離資訊來提供給車控端使用。
  • 超音波感測技術
    超音波Ultrasound是一種主動式聲波感測器,透過聲波撞擊至等待測試點後反射回感測器之聲波飛行時間,可計算獲得與等待測試物之相對距離,然而因音波擴散的物理特性導致取樣點較大,解析度較低,常應用於停車輔助系統的三角測量。
  • V2X通訊技術
    V2X通訊技術可區分為兩大類,分別為短距無線通訊DSRC (Dedicated Short Range Communication)與C-V2X (Cellular Vehicle-to-Everything)。圖1為現今全球短距無線通訊DSRC與C-V2X技術發展走向,美國致力於DSRC系統開發與應用驗證,其實體層採用IEEE 802.11p,目前DSRC系統已進入到成熟期,全球已有多個城市與公路建置DSRC-based測試場域,以驗證其標準與應用,DSRC目前已有美國電機工程協會 (IEEE, Institute of Electrical and Electronics Engineers)與歐洲電信標準協會 (ETSI, European Telecommunications Standards Institute)兩大標準組織制定多年;反觀C-V2X於技術標準的制定,則以中國與歐盟(如,電信商)最為積極參與投入,C-V2X系統以建置電信基地台為主,與C-V2X技術標準相關的有3GPP eV2X (enhanced V2X)標準,該標準底層採用LTE-Uu/PC5架構。圖2為V2X技術運用於多種應用類型示意圖,如車對車 (V2V, Vehicle-to-Vehicle)、車對人 (V2P, Vehicle-to-Pedestrian)、車對電信網路 (V2N, Vehicle-to-Network)與車對路 (V2I, Vehicle-to-Infrastructure)。

  • 定位技術
    自駕車並不像人類一樣有五官知覺,需要透過各種感測器來探索世界,而定位模組為自駕車了解自己身在世界何處的核心,定位之所以為核心,可以從其需要之應用來看,車輛控制做任何一個決策,首要條件是知道自己位置在哪、相對其他物件位置,才可以做出下層控制決策,這些都需要有定位的資訊。傳統定位有透過GPS進行定位,但須忍受其1~2公尺的誤差,如圖3所示,這部分需要透過其他感測器以及演算法來補償,自駕車需要的定位精準度須達車道內維持需求的公分等級,進而演變到透過RTK (Real Time Kinematic)技術達到公分等級之高精準定位,但單純透過RTK雖然解決了精準度上的問題,但單靠單一感測器仍然有遮蔽造成的定位誤差以及本身更新頻率上的問題,故仍須結合其他感測器來達到修正以及提升速度的需求。

自駕車之行人防護應用

以下將以應用情境的方式個別說明如何運用V2X通訊技術達到人與車的預先警示與透過光達與定位技術達到車輛自動煞停。

  • 運用V2X通訊技術達到人與車的預先警示
    有鑒於自駕車對於安全性應用的迫切性,以下為分享自駕車V2P (Vehicle-to-Pedestrian)車對行人安全警示應用案例。案例分享: UBER自駕車撞死行人,2018年3月18日星期天晚上十點左右,UBER的一輛自動駕駛SUV在美國亞利桑那州坦佩市的街道上造成了一起交通致死事故。UBER 的自動駕駛 SUV爲何沒有偵測到行人? 攝影機偵測有其缺陷? 事故發生現今仍是個謎團,圖4為案例事故現場圖,自駕車進入陰暗區,突然有牽著腳踏車的婦人穿越馬路,造成自駕車來不及反應,行人當場遭撞飛導致死亡。

透過V2X車聯網技術提升自動駕駛安全防護,以避免類似車禍的發生。V2X (Vehicle-to-Everything)車聯網技術,正是爲強化安全性任務而設計的,以5.9 GHz短距無線通訊技術 (即Dedicated Short-Range Communications, DSRC)爲例,該技術以每秒10次的頻率交換其動態訊息。這些訊息包括位置、速度、加速度、行進方向、以及其它交通相關訊息,即便視野不清晰或是視線被遮擋,司機或者自動駕駛車都能夠及時瞭解周圍所有的交通情況,V2X無線通訊能力,能將司機或自動駕駛車的感知能力,從視覺所及的範圍,提升到視覺所不及的幾公里之外,如圖5所示,自駕車即使進入到陰暗區,行人藉由配置V2X通訊裝置,自駕車可預先得知行人確切的位置與方位,可避免憾事發生。

以下將分享三個工研院目前所發展的V2P (Vehicle-to-Pedestrian)行人防碰撞警示系統與應用。情境1: 此應用為防護行人與弱勢用路人,例如老人、行動不便與小孩,如圖6所示,有使用輪椅行動不便的行人欲穿越馬路,輪椅配置V2X通訊裝置,即使行動不便者被停在路邊的車輛遮蔽,可透過V2X通訊警示後方即將通過路口的車輛,有右側行人通行。

情境2: 此應用當行人準備過斑馬線,可透過行人所配戴的V2X通訊裝置警示即將通過路口的車輛,達到人與車防護的綜效,如圖7所示,行人從車輛右側陰暗處準備過馬路,車機即時警示右側有行人。

情境3: 當行人突然衝出,可透過行人所配戴的通訊裝置警示即將通過路口的車輛,達到人與車的即時提醒之防護,如圖8所示,行人從車輛右側陰暗處突然衝出馬路,車機即時警示右側有行人。

  • 運用光達與定位技術達到車輛自動煞停
    自駕車於行駛過程中,偵測到可能發生碰撞事件,如行人或障礙物等,並提前由系統自動採取煞停之策略為首要的研究目標。自動緊急煞車 (Autonomous Emergency Braking, AEB)系統,原為駕駛輔助系統 (Advanced Driver Assistance Systems, ADAS)中的主動式安全系統,用於幫助駕駛在即將與前方物體發生碰撞的時候進行主動式介入的煞車功能,現已為歐盟新車安全評鑑協會(Euro NCAP)列為主要測試項目之一,並持續逐漸增加其測試項目,各大車廠之旗下車輛也逐漸開始具備此系統,而台灣則預計於2019年起執行大車的AEB法規,本論文因此將Euro NCAP之相關測試規格作為發展自駕車專用AEB技術之基礎。

目前Euro NCAP將AEB依照行車情境區分為三大測試項目如下:

  • AEB City:車輛在一般的城市環境下行駛 (時速<50km/h)並能偵測出前方車輛後進行碰撞預防
  • AEB Inter-urban:車輛在高速行駛 (時速<80 km/h)時偵測前方超過200m以上之物體
  • AEB Pedestrian:偵測行人與自車的相對移動軌跡,並判斷出碰撞的危險程度

其中AEB City的測試環境的細部規範如下:

  1. Approach to stationary target (前方物體靜止),自體車輛車速10-50km/h

其中AEB Inter-urban的測試環境中又依照前方物體狀態區分為以下三種情境:

  1. CCRs:Car to Car Rear Stationary (前方車輛靜止),自體車輛車速10-50km/h與30-80km/h
  2. CCRm:Car to Car Rear Moving (前方車輛移動,時速20 km/h),自體車輛車速30-80km/h
  3. CCRb:Car to Car Rear Braking (前方車輛煞車,時速50 km/h減速至0m/h),自體車輛車速50 km/h

而AEB Pedestrian也大致分為以下三種情境:

  1. CVFA:Car to Vulnerable road user Far side Adult (對向車道外成人)
  2. CVNA:Car to Vulnerable road user Nearside Adult (車道旁成人)
  3. CVNC:Car to Vulnerable road user Nearside Child (車道旁小孩)

自駕車AEB功能是否正確的關鍵在於,實際在AEB測試上需在欲測試車輛內裝備自動化操作之機械裝置以實現需量化之實驗,此裝置之響應需達到所需規範的能力,包含車速控制要能在±0.5 km/h、車體側向控制要能在±10cm、前後車距控制要能50cm、方向盤角速度要能在±15°/s..等等,因此可作為自駕車控制系統的依據,以及自駕車整體硬體設計之最低準則。

AEB系統判斷是否產生碰撞事件是由撞擊時間 (Time-To-Collision, TTC)這一個重要的指標所決定,此指標主要用於量測自車與障礙物之潛在碰撞危險的判斷依據,當TTC高於某個設定之門檻值時,AEB系統就會立刻啟動,由車上電控煞車系統 (Brake-by-Wire, BBW)進行煞車,而TTC之門檻值會依據所安裝的車輛煞車特性而設定,也就是能停住此車輛的最短時間,因此計算模型上必須包含車輛之瞬間車速、最大瞬間減速度、與障礙物之相對距離,其中,瞬間車速通常直接由車內感測器獲得,與障礙物之相對距離通常由相機、光達與雷達之距離感測器獲得,而最具關鍵的則是最大瞬間減速度,通常會因行車環境而有所不同,包含路面摩擦力、輪胎特性、懸吊特性、車輛重量,或是受煞車系統中ABS (Anti-lock Braking System)之作動特性而有所影響,而這些參數的影響也要加入至自駕車之AEB模型內考慮。

利用環周光達3D點雲空間資訊,一方面可提供自駕車自動煞車應用前方約0~60m的物體資訊來計算TTC,二方面可將車輛兩側之潛在危險物體提早偵測出,判斷對方車輛是否要強行插入自車車道,可增加自駕車自動煞車應用系統內判斷TTC之依據,將車輛兩側加入了自駕車自動煞車應用偵測範圍內,基於現有ADAS規範的AEB,修改與新增其演算之方法,並開發中型巴士自駕車平台,以實現AEB功能,先期階段參考EURO NCAP的CCRs (Car to Car Rear Stationary)設計,將靜止車輛改為靜止兒童,進行多次不同載重模型的測試,如圖9所示為自動煞車測試情境與配掛設備示意圖。圖10為車內與車外視角之自駕車自動煞停應用。

自駕車的技術發展不管是整合車聯網通訊技術、感測器技術、定位技術與攝影機影像辨識等智能感知技術等已掀起另一波自駕浪潮,目前全球各大廠的自駕車技術發展,大多是以自小客車為主,在這類應用中,不但車體中的感測器、運算單元必須具備精準而快速的訊號擷取與反應能力,還須經過長時間的實地測試,以掌握所面對的複雜環境,不過要在實際環境中測試風險相當高,前年Google和今年UBER所發生無人車的測試事故就是如此發生,而這兩起事件對整體技術的發展帶來一定程度的影響。因應自駕車應用與服務的發展,既有自駕車輛感測元件與路側設施將產生相關通訊模組或設備之需求,因此相關通訊晶片、模組與產品的設計、製造即成為我國業者發展的機會點所在。

相關影片:

相關連結:若影片無法顯示,請點選此連結(另開視窗)

參考文獻

[1] http://www.who.int/mediacentre/factsheets/fs358/en/
[2] https://wtvox.com/tech-news/the-future-of-driving-with-v2v-and-v2i-technology/
[3] http://www.its.dot.gov/pilots/pilots_v2v.htm
[4] Dissanayake, M. G., Newman, P., Clark, S., Durrant-Whyte, H. F., & Csorba, M. (2001). A solution to the simultaneous localization and map building (SLAM) problem. IEEE Transactions on robotics and automation, 17(3), 229-241.
[5] Levinson, J., Montemerlo, M., & Thrun, S. (2007, June). Map-Based Precision Vehicle Localization in Urban Environments. In Robotics: Science and Systems (Vol. 4, p. 1).
[6] Wan, G., Yang, X., Cai, R., Li, H., Wang, H., & Song, S. (2017). Robust and Precise Vehicle Localization based on Multi-sensor Fusion in Diverse City Scenes. arXiv preprint arXiv:1711.05805.
[7] Kummerle, R., Hahnel, D., Dolgov, D., Thrun, S., & Burgard, W. (2009, May). Autonomous driving in a multi-level parking structure. In Robotics and Automation, 2009. ICRA’09. IEEE International Conference on (pp. 3395-3400). IEEE.
[8] Julier, S. J., & Uhlmann, J. K. (2004). Unscented filtering and nonlinear estimation. Proceedings of the IEEE, 92(3), 401-422.

文章轉載自工業技術研究院電腦與通訊月刊

相關課程推薦