您的瀏覽器不支援JavaScript語法,網站的部份功能在JavaScript沒有啟用的狀態下無法正常使用。

中央研究院 資訊科學研究所

研究

友善列印

列印可使用瀏覽器提供的(Ctrl+P)功能

系統研究群

:::

系統研究群目前有六位成員,主要研究領域包括 : 嵌入式系統,物聯網系統,平行與分散式處理。

研究人員

嵌入式系統實驗室

張原豪

近幾年的之研究重心為嵌入式系統相關研究,主要著重在「快閃記憶體儲存系統 ( 固態硬碟 )」以及「非揮發性記憶體」性能提升之研究。在快閃記憶體儲存系統方面,我們首創結合 verification 技術,發展出一套可以保證快閃記憶體儲存裝置在任何時間當機之後都能夠高速回復到一個穩定版本的技術,為世界第一個能夠在儲存裝置層級提供當機回復保證的技術,以大幅降低甚至免除檔案系統及系統軟體的當機回復成本,為未來的系統軟體發展提供一個更高效的當機回復解決方案,此成果發表在 OSDI 2020,是過去 28 年來唯一一個台灣團隊在該會議發表的研究成果。在非揮發性記憶體方面,我們進一步研究如何以非揮發性記憶體為主記憶體的電腦系統來提升機器學習及類神經網路運算效能的關鍵技術,率先提出以損耗性寫入指令結合類神經網路的近似計算,開創了一種在非揮發性記憶體系統上訓練類神經網路的新穎設計,並立下重要的里程碑,此一系列的研究成果獲得嵌入式系統與軟硬體協同設計領域最頂尖的國際會議 ACM/IEEE CODES+ISSS 2019 的最佳論文獎。其餘相關研究,接連獲得頂尖國際會議 CODES+ISSS 2022 及 ACM/IEEE ISLPED 2020 的最佳論文獎。

目前主要計畫

  • 院內深耕計畫:Processing-in-Memory: Opportunities in the Post-von-Neumann Era 記憶體內運算: 後馮紐曼世代之契機【張原豪,2022/01–2026/12】
  • 國科會工程科技中堅躍升研究計畫: Design and Optimization for High-performance and Ultra-scale Storage Systems高效超大容量儲存系統之設計與優化【張原豪,2021/08–2025/07】
  • 所內合作計畫:Design, Optimization, Simulation/Verification with In/Near Memory and Storage Computing 於記憶體與儲存體運算之設計、優化與模擬驗證【張原豪、陳郁方,2023/01–2025/12】

物聯網系統實驗室

陳伶志

近三年之研究重心為物聯網與參與式感測系統,並且結合這兩種概念發展一個細懸粒 (PM2.5) 的大型觀測系統 – 空氣盒子。我們不但號招民眾參與環境感測,也提供詳盡的資源導引民眾製作低成本的 PM2.5 感測裝置,並且將所有收集到的量測資料免費開放給所有人使用,大幅提升 PM2.5 觀測在時間與空間上的精細度,豐富了環境研究的數據資料。我們已經在超過 59 個國家,募集到使用者不見超過 20,000 個裝置,並且在許多重要的物聯網與跨領域環境監測議題中,保持和國內外相關團隊密切的交流合作。除此之外,我們也著手研究空氣盒子系統的資料品質議題,並且提出 一個能夠從即時資料流進行感測資料異常偵測的運算框架;我們也提出一個基於叢集分群的短時間 PM2.5 濃度預測方法,並且研究一種結合感測值與預測值以達到最小 PM2.5 曝露量的路徑導航規劃演算法;我們也開發一個因地制宜且支援大規模物聯網的感測器校析,找出感測資料中更多的細微特性,同時也將進一步擴展我們的研究成果到其他環境因子(例如噪音、臭味和輻射),支援更多元的參與式環境感測。

目前主要計畫

  • 國科會計畫:Intelligent Low-cost Air Quality Sensing with Agility on the Edge 結合邊緣運算的智慧微型空氣品質感測系統【陳伶志, 2020/08–2023/07】
  • 院內永續計畫:Research of Low-Cost Sensing Systems for Noise Measurement and Sound Classification【陳伶志、詹大千 ( 人社中心 ), 2020/01–2022/12】

平行與分散式處理實驗室

洪鼎詠、吳真貞、王建民

本團隊近三年研究主軸為深度學習在平行分散式平台之效能優化技術。現代計算機系統開發主要朝向異構架構發展,越來越多電腦和邊緣裝置是由CPU、GPU、AI加速器或FPGA等多種不同架構裝置所共同組成。此外深度學習模型也變得越來越複雜,許多AI軟體由結合多個模型來提高精準度或增加其應用。如何有效率地運用環境中的計算資源是實現高效能深度學習的重要關鍵。我們的研究成果達成多項重要貢獻。在加速影片字幕生成(video captioning)方面,我們利用細粒度排程方法(fine-grained scheduling),將深度學習模型計算指派到異構環境中最佳的裝置執行,並以流水線排程方法(pipeline scheduling),達成影片幀與裝置執行的最大平行度,使DenseNet/LSTM影片字幕生成模型達到55倍的效能提升。此研究成果是全球第一個在邊緣裝置上達到即時影片字幕生成的執行效能。此外我們針對具分支結構CNN模型在GPU上資源使用率低的問題,提出了模型運算子間(inter-operation)平行計算的排程方法,以提高GPU資源利用率並縮短模型推論時間,達到3.8倍加速,此成果獲得IEEE ICPADS 2022會議最佳論文獎亞軍。

目前主要計畫

  • 國所內合作計畫:Heterogeneous Accelerators Architecture for Deep Learning: Virtual Platform and Compiler 支援高效能深度學習之異質加速器架構:虛擬加速器平台及編譯器技術【洪鼎詠、吳真貞,2021/01–2023/12】
  • 國科會計畫:Optimizing Performance of Hybrid DNN on Heterogeneous System Architecture 複合式深度學習模型在異質計算環境中之效能優化技術【吳真貞,2021/08–2023/07】
  • 國科會計畫:Virtual Platform Design for Deep Learning on Multi-core Accelerators多核心深度學習加速器虛擬平台設計【洪鼎詠,2021/08–2023/07】