網站首頁 個人文檔 個人總結 工作總結 述職報告 心得體會 演講稿 講話致辭 實用文 教學資源 企業文化 公文 論文
當前位置:蒙田範文網 > 論文 > 開題報告

基於GPU的矩陣運算並行算法設計與實現

欄目: 開題報告 / 發佈於: / 人氣:2.11W

隨着計算機和集成電路技術的發展,尤其是集成電路的集成度和並行度的提高,圖形硬件的更新速度越來越快,圖形處理器 ( Graphic Processing Unit, GPU) 自1999年由NVIDIA公司提出以來, 其發展速度是CPU的三倍多。多流水線結構、向量處理特性以及32位IEEE標準浮點精度的實現使得它對於計算密集型的科學應用有非常大的吸引力,成 為通用計算的一個有效並行平台。AMD、NVIDIA和Intel都有各自獨立的GPU通用計算計劃。以GeForce8為代表的可編程GPU發佈後, GPGPU( General Purpose GPU)進入了一個高速發展的全新時代, 顯卡廠商NVIDIA更是推出了專門通用計算平台— CUDA( Compute Unified Device Architecture), 極大地提高了GPU的可編程性,使得個人計算機實現高性能並行計算變成可能。

基於GPU的矩陣運算並行算法設計與實現

提供良好的高性能計算開發環境,一直是學術界和工業界所追求的目標。開發環境既包括並行計算機體系結構、計算機網絡拓撲結構等硬件環境,也包括並行程序的開發模式,網絡通信協議和通信方式等軟件環境。並行算法研究要以硬件(即並行計算機)為依託,並行計算機性能的發揮要以優秀並行算法的實現為依託。最終目的是在研究中形成完備的“理論-設計-實現-應用”的一體化並行計算研究體系。

如今,GPU早已不再滿足於只做3D圖形計算,慢慢的也在向着並行優化計算和高精度浮點數計算等方面發展,對於一些問題上,GPU有着比CPU高出幾十倍甚至幾百倍的運算性能。高性能計算、數據中心、互聯網、雲計算、大數據、深度學習……只要是需要強大計算能力與加速功能的地方,都能看到GPU的身影。而這些需要高性能計算的領域,往往向着並行化和運算加速方向發展。

矩陣運算是在科學計算和實際數學分析中常用的數學運算,而且矩陣乘法和矩陣求逆更是在計算中最常遇見且耗時較大的運算。即便在算法優化的情況下,稠密矩陣的乘法和求逆運算依然有O(n^3)的複雜度。這些算法實現起來不僅複雜,而且需要大量的內存空間開銷。而矩陣的常規運算中存在大量的重複並行運算,可以充分發揮GPU多核計算、並行實現、流水優化的核心優勢。使用GPU並行加速也成為大規模稠密矩陣的運算一個新的方向。