畢業生作品區

姓名/學號:鄒承儫/10953076
題目:基於深度學習之群集密度估測演算法及其應用
簡介:
在計算畫面的人群數量中,一般計數方法使用單張影像中的資訊進行估測,而在人群移動的連續影像中,同一個人在畫面中不會同時出現在兩個地方,也不會突然離開畫面中,因此其真實人數的變化量,有一定的限制,不會有無法收斂的情況發生。但在基於單張影像辨識中,無法有效運用連續影像中的人數變化進行約束,且在人群擁擠的環境中,人的成像往往較小,容易導致影像中的特徵不明顯,造成尋找較細微的特徵時容易消失,導致辨識準確性下降,因此本論文開發一套群集密度演算法結合多尺度特徵融合在連續影像中估計影像之間的光流變化,並從光流變化中計算出人群數量;並在不同大小的特徵圖中保留特徵資訊,解決影像特徵在小物件時容易消失的問題,藉此提升人群計數的精準性。

姓名/學號:邱彥凱/11053011
題目:基於深度影像結合影像內插開發水下立體視覺演算法及其應用
簡介:
立體視覺在自駕車的應用於預測物件深度,小物件在立體匹配上會產生偵測錯誤,使得在實際道路使用時會造成意外發生。近年的立體視覺演算法都著重於提升運算速度達到即時運算和提升整體準確率,但未對於小物件之準確度進行處理,故本論文提出在深度學習立體視覺演算法中的注意力模型,加入空間金字塔模型解決在小物件上特徵圖消失的問題。最後,本演算法應用於水下立體視覺,並使用傳統立體視覺的方式建立之水下立體視覺資料集進行演算法訓練,協助海外箱網業者進行水下魚隻監控之工作。

姓名/學號:黃崇淵/11053049
題目:開發單階段實例分割深度學習演算法應用於魚體資訊分析
簡介:
本論文提出一個深度學習單階段實例分割演算法,藉由本演算法預測影像中物件的遮罩形狀,並根據獲取的資料來進行魚體資訊分析。相較於傳統物件辨識預測物件的邊界框方式,實例分割演算法是預測畫面中物件的遮罩,本演算法以單階段的實例分割演算法SOLOV2為基礎,藉由將演算法Backbone的部分替換為深度匯集層,藉由深度匯集層本身擷取特徵的強項來加強所提出的單階段實例分割演算法結果,相對於SOLOV2特徵擷取部分的ResNet,深度匯集層藉由使用複雜的匯集架構,來取得更詳細的特徵,所建立的演算法可以因此分割出更詳細的結果。演算法使用COCO資料集進行訓練與測試,將測試結果與SOLOV2進行比較、分析,結果顯示本論文提出的實例分割演算法AP略低於SOLOV2,然而因為深度匯集層可以取得詳細的特徵,在分割結果圖中可以看到本論文提出的實例分割演算法分割的結果更好,比SOLOV2的結果更加詳細。在應用上本論文提出的實例分割演算法可以應用於養殖漁業中,藉由演算法分割出魚隻,並使用主成分分析的方法取得魚隻資訊,協助養殖業者進行養殖規劃。

姓名/學號:蒙諺勳/10953036
題目:以Openpose骨架為基礎應用於海鱺種魚性徵成熟度分析
簡介:
近年來深度學習的相關技術日新月異,從生物醫療到工業發展,處處都可見到人工智慧的身影。而在養殖業方面,如何培育優秀的子代,一直是業者在探討的問題,伴隨著深度學習的快速發展,與之相結合之智慧養殖的概念也漸漸興起,透過深度學習的技術,本論文以攝影機拍攝到之水下影像對海鱺的外觀進行分析,取得更精確的資料,以利分析海鱺性徵成熟期。由於海鱺成魚的雌雄特徵差異細微,很難從陸地上直接以人眼辨識,傳統辨識的方法為事先在魚隻體內植入晶片,將打撈上岸之海鱺使用儀器掃描取得晶片號碼,接著透過人工的方式檢驗正確的海鱺性別並紀錄,但此方法浪費人力且費時。故本論文提出以深度學習之技術建立一套海鱺性徵成熟度演算法,利用水下攝影機進行海鱺種魚資料蒐集,使用YOLOR先進行物件辨識,挑選出側面之海鱺,以Openpose為基礎之演算法,透過與養殖專家共同討論過後定義之方式,標記出海鱺性徵關鍵點,並將其結合成腹部骨架,藉由腹部骨架判斷海鱺腹部膨脹程度,並以腹部膨脹程度與條紋特徵來判斷海鱺性徵成熟度,將數據使用類神經網路之方式分析海鱺雌雄魚的特徵,設計一套海鱺種魚性徵成熟度分析演算法,使養殖業者能夠利用此演算法透過水下影像從海鱺外型特徵,有效辨識海鱺之性別與量化後之性徵成熟程度,使養殖業者能依照數據與過往經驗,調整未來海鱺雌雄比至合適的比例,更能有效分辨處於求偶期之海鱺性徵成熟程度,針對海鱺性徵成熟的程度,讓養殖業者能夠更有效率的對海鱺種魚進行培育評估與後續規劃。

姓名/學號:蘇柏瑜/10953042
題目:開發自注意力深度神經網路應用於車輛追蹤
簡介:
交通流量管制可以說是智慧交通中一個相當重要的課題,多台車輛行經至A路口時,各自的去向會是哪裡,行駛至B路口時,是否需要停等,若過多車輛前往B路口停等,造成A路口無法淨空,是不是需要對停等於B路口的車輛做提前放行的動作,這些都是值得研究的問題,本論文主要針對同一路口內的車輛動向進行預測,以達到最佳化車流管制的目的。本論文將預測方法分為三個部分,第一部分為車輛物件偵測,將停等於路口,或者是行經路口的車輛,運用物件偵測演算法辨識出來,並取得該車輛的當前位置;第二部分為車輛物件追蹤,取得車輛位置與外觀資訊後,運用物件追蹤演算法辨識車輛於不同影像之間的位置,若為同一車輛,則給予相同編號,藉此取得該車輛的行駛軌跡;第三部分為車輛軌跡預測,取得各車輛的行經軌跡後,輸入至可處理時序性資料的深度網路模型內,如:長短期記憶模型(Long-Short Term Memory, LSTM)、Transformer…等,預測各車輛接下來幾秒內可能行駛的方向,以達到提升車流管制效率的目的,因此本論文提出一套基於自注意力深度神經網路進行車輛軌跡之預測。