2020-05-08
一、課程簡介:
在台灣每年有約近兩千五百人死於交通事故中,發展先進駕駛輔助系統(Advanced Driver Assistance System,ADAS)之目的即在於提昇行車過程之安全性,這類系統包括了車道偏離警示系統(Lane Departure Warning,LDW),前車碰撞警示系統(Forward Collision Warning, FCW),側方盲點警示系統(Blind Spot Detection,BSD)、後方車道偏離警示系統(Rear Lane Departure Warning, RLDW)、後側方盲點警示系統(Rear Blind Spot Detection, RBSD)以及倒車導引系統(Parking Assistance System, PAS)等,而自駕車則是這些系統的集大成與高度整合成果。
以上這些系統都是傳統機器學習技術大量運用的成果,近年來深度學習技術能量的大爆發一舉大幅超越傳統機器學習演算法之效果。本課程將從各類感測器及開發平台之簡介起頭,接著詳細解說傳統電腦視覺以及機器學習技術如何運用在這些安全警示系統上。卷積神經網絡(Convolutional Neural Network, CNN)之源起、原理以及各種物體偵測模型(R-CNN, Fast R-CNN, Faster R-CNN, SSD, YOLO, YOLOv2,YOLO9000, YOLOv3)、語義影像分割(Semantic Segmentation)模型(Segnet, FCN, DeepLab),實例影像分割(Instance Segmentation)模型(Mask R-CNN)以及全景影像分割(Panoptic Segmentation)模型(Panoptic FPN)之差別。
2014年開始,生成式對抗網路 (Generative Adversarial Network, GAN) 顯然是深度學習領域的另一個熱點,Yann LeCun 說這是機器學習領域這十年來最有趣的想法 (the most interesting idea in the last 10 years in ML),又說這是有史以來最酷的東西 (the coolest thing since sliced bread) 用生成式對抗網路,機器已經可以產生高解析度以假亂真的人臉,也可以根據一段敘述文字,自己畫出對應的圖案,本課程內容將介紹如何運用GAN在自駕車之演算法開發,尤其是在協助提升物件偵測、影像分割模型的領域適應性(Domain Adaptation)。 循環神經網絡(Recurrent Neural Networks,RNNs)已經在眾多自然語言處理(Natural Language Processing,NLP)中取得了巨大成功以及廣泛的應用,近幾年來其與CNN之整合亦產生了許多有趣的應用,例如Image Captioning,這樣的技術甚至可以運用在道路事件的預測,本課程內容亦包括RNN及其在ADAS/自駕車上應用之介紹。
二、招生對象:
車用影像安全系統技術發展相關人員。
三、上課時數:12小時
四、預定人數:15人
五、費用:學員負擔6000元,政府負擔6000元
六、執行計畫名稱:金屬產業智機化提升計畫
七、開班單位:工業技術研究院
八、課程聯絡人/聯絡電話:陳先生/02-23701111-315
九、相關網址:https://college.itri.org.tw/course/all-events/6AE2C318-1E81-489A-BF7D-CF03BF7D0BB0.html
十、開班單位保留調整課程內容之權利,以上資訊若有更動,依上述網站公告為準,恕不另行通知,敬請見諒。
活動資訊
車輛智慧化-車用影像安全系統應用班 (2020-05-08 08:00 ~ 2020-05-15 17:00)
(臺北市中正區館前路65號7樓)
參與人: 陳先生
聯絡人:陳先生 (02-23701111-315)
聯絡單位:工業技術研究院
聯絡單位連絡人:陳先生
聯絡單位電話:02-23701111-315
資料來源: 經濟部工業局