畢業生作品區

姓名/學號:薛惟仁/10753046
題目:自適應性水下影像增強應用於ROV水下影像深度估測與水下垃圾偵測
簡介:
本論文主要為提出一種基於RGB影像之自適應性水下影像增強演算法,透過本演算法能夠將各式水體中拍攝到模糊有色偏的原始水下影像,增強為清晰無色偏之影像。 水下影像成像會因為水中的散射造成影像模糊,並且因為紅光在水中快速衰減導致影像呈現藍綠色的色偏,雖然在近幾年已有許多的學者提出關於水下影像增強的演算法,但是這些做法都缺乏穩定性或是僅適用於某種特定的環境,而在地球上有各式各樣的水體,其散射與衰減的係數都不相同,導致這些演算法無法有效地被全面應用,因此本論文利用單張RGB影像與深度資訊透過水下影像成像模型還原影像真實色彩,藉由找出影像中的暗像素以其真實的物理意義透過迴歸分析估計反向散射,接著估計影像的光源,將光源與深度資訊粗估衰減係數,再將衰減係數與深度資訊透過迴歸分析獲得精確的衰減係數。 本演算法與其他水下影像增強演算法實驗相比,可以發現我們演算法的效果比其他演算法來得更佳,且實際應用在物體辨識及深度預測實驗中也可以發現,透過我們的演算法增強後,兩者的效果都有所提升,這些實驗結果也證明了本論文所使用之自適應性水下影像增強演算法對於還原水下真實影像此議題是有效且可行的。

姓名/學號:彭康竑/10753066
題目:基於FHRCNN之可解釋性YOLOv4
簡介:
本論文為實現基於模糊化多維矩形複合式類神經網路(Fuzzy HyperRectangular Composite Neural Network, FHRCNN)之可解釋性YOLOv4(You Only Look Once v4),以多維矩形的模糊化理論架設在放射狀基底函數網路(Radial Basis Function Network, RBFNet),解決YOLOv4因網路架構設計上,在物件背景過於複雜或是雜訊干擾情況下,造成物件檢測結果輸出超出影像尺寸問題,並探討現今人工智慧因為透過演算法和數學理論模型進行分析決策無法向人類解釋其分析和決策行動結果背後意義的問題,提出以類似人類思考邏輯方式來理解人工智慧下判斷的理由及解釋。 在流程方面,本論文分為三個部分進行,分別為訓練YOLOv4物件檢測網路、FHRCNN資料集蒐集以及建立FHRCNN-YOLOv4。首先,本論文以Microsoft的COCO影像資料庫作為YOLOv4訓練資料集,並將訓練完成之YOLOv4作為FHRCNN-YOLOv4訓練資料的生產器,以半手動方式進行取樣將YOLOv4物件輸出結果當作FHRCNN的輸入,COCO資料集真實資料當作FHRCNN期望輸出,在資料蒐集完成後,進行FHRCNN訓練並將完成訓練之FHRCNN整合至YOLOv4,使整套演算法可以對於物件演算法校正以及擁有提出解釋性的能力。