- Mar 25 Tue 2025 19:18
ARM Compiler 6 且不勾選 MicroLIB,晶片無法開機運行?
- Jan 27 Mon 2025 13:38
思考 DeepSeek 背後的方法邏輯
最近 DeepSeek 模型為何讓人驚艷,打破了 AI 訓練必須不斷累積算力的迷思。先說說大學時代的理工學院,曾經修過數位訊號處理(DSP),可以了解到數位訊號的數學運算通常以浮點數(floating point)形式進行運算,因此當時DSP晶片有浮點運算(floating point)與定點運算(fixed point)之分。然而,浮點運算的硬體成本較高,且浮點DSP晶片價格昂貴。面臨的問題是若要提升產品的市場競爭力,往往需要採用成本較低的定點運算。由於定點運算在數值範圍和精度上有所限制,因此必須對數學運算架構進行大幅調整,並對演算法加以優化。例如,在浮點DSP上,計算三角函數(如 sin 函數)通常具有較高效能,而在定點運算環境下,為了提高效率,可以使用三角函數的查表法(Look-up Table, LUT),即以記憶體空間換取運算時間,從而降低運算成本。此外,在某些資源受限的嵌入式系統中,演算法的設計和優化需要投入更多心力,以在有限的算力和記憶體條件下達到最佳效能。
訓練 AI 組成的要素:算力, 數據, 模型演算法。算力建立在硬體資源,模型算法則是數學計算和軟體工程。同理,DeepSeek 在有限的算力資源環境下,若要提高計算效能,往往需要透過優化模型架構、調整演算法的計算方式,以降低運算複雜度,進而節省算力,儘管這可能會以部分精準度為代價。此外,優化資料結構的儲存與排列方式也是一種有效的策略,能夠提升存取效率,減少計算負擔,從而進一步優化整體效能。最後,DeepSeek v3 在數理, 自然, 程式碼...領域方面表現的結果與 OpenAI 不相上下。
- Dec 23 Mon 2024 15:27
Edge Impulse平台的影像辨識模型
- Aug 04 Sun 2024 16:17
港交所的中特估 H股 (保險類)
- Jul 29 Mon 2024 08:43
[筆記] RTSP stream server on Windows