網絡論壇上電源功率推薦和顯卡功耗方面的事,比如“他推薦買1000W電源”而我推海盜船AX1600i才夠,對此寫文回應。這篇是吃力不討好,得罪玩家也得罪廠商,文盡可能用通俗語言講顯卡和CPU真實功耗是如何?顯卡和電源搭配上又是如何翻車?
去年已寫過Intel 9系列處理器功耗的文章,談到TDP並不代表實際功耗,顯卡的功耗更為驚人,現在有了更多數據支持。寫本文的原因是為了能讓玩家更清楚當前的功耗情況,對選購配件能心中有數。能讓廠家意識到目當前的問題並且對產品加以改進才是最終目的。
事情的起因是這樣的,最近一年時間,有很多玩家的電腦莫名其妙在遊戲中重啟。調查發現,這些案例的共同點都是使用了RTX2080Ti、Vega 56/64的高端顯卡。作為電腦組件裡的背鍋俠,電源首先背上了導致重啟的鍋,問題開始只影響少數個別電源品牌,後來發展為幾乎所有電源品牌都出現了類似故障。
經長時間研究後發現,這一重啟故障是由於顯卡瞬時功率過大,觸發電源的OCP(過電流保護)導致重啟,擺平問題的玩家幾乎都是經過更換更大功率的電源解決,以電源討論為主的JonnyGuru論壇對這個問題有較多的討論。
由於已經找到了導致重啟的原因,對於使用高端顯卡、多張高端顯卡並用的玩家,都推薦盡可能功率大一些的電源來避免翻車,但是總有一些諸如:“不拷機絕對夠”、“550W足夠”、“不超頻500W絕對夠”、“1000W絕對夠”這樣的聲音反饋回來。掌握大量數據的板卡廠和電源廠都不敢下如此絕對的結論,怎麼普通玩家如此自信。對此,我畫了幾張圖表達觀點。
在普通玩家的認知中,默認顯卡就是跟一個燈泡一樣的純電阻元件,通電功耗相對固定。然而由於顯卡的GPU由大量的晶體管組成,晶體管工作就會產生功耗,晶體管越多,渲染的畫面越複雜,功耗波動越劇烈,而且遠比GPU-Z顯示的波動劇烈。交流功率計或者是板卡的傳感器都有侷限性,顯卡的真實功耗往往不為人知。
而且有一個很奇怪的現象,買了6、7千甚至上萬元(人民幣)顯卡的玩家,大都不捨得買一個輸出質量優秀的大功率電源,大部分電源可比顯卡便宜得多了。
文長不想看的讀者看到此即可,目前的現狀是硬體業界隔行如隔山,媒體知識欠缺,玩家群體錯誤的認知先入為主難以糾正。普通用戶不需要了解顯卡和電源的技術細節,結論是自己買得起的最大瓦數電源和最新設計電源來避免重啟問題。
顯卡功率過大就會觸發電源保護,就是這麼簡單道理。
如果有興趣往下看的讀者,我將會從芯片的基本構成、芯片的電源管理、顯卡PCIE規範、電源設計、CPU、顯卡功率實測..等方面的內容來介紹目前CPU、顯卡兩大核心配件的功耗情況以及電源的選購注意事項。
文章目錄:
0、太長不看版
1、功耗爆炸之源
1-1、電路基礎
1-2、萬惡之源
1-3、芯片電源管理機制
2、顯卡
2-1、顯卡方面的功率標識
2-2 、顯卡廠商對電源的要求
2-3、PCIe規範
3、電源
3-1、額定功率和超載
3-2、OCP保護機制
3-3、動態響應特性
3-4、接口承載能力
3-5、12V多路、單路設計
4、實測
4-1、為什麼說AC插座功率計是玩具
4-2、媒體的測試方法
4-3、F站的測試:CPU功耗
4-4、F站的測試:顯卡功耗
4-4-1、AMD Vega 56功耗
4-4-2、NVIDIA RTX2080Ti功耗
4-5、花絮:顯卡嘯叫問題
5、總結以及購買指南
1、功耗爆炸之源
我們從組成CPU的晶體管開始講起。
1-1、電路基礎
每個晶體管(Transistor)由源極(Source)、漏極(Drain)和它們中間的柵極(Gate)組成,柵極起到控制電流通斷的作用。我們常說的xx nm的製程工藝,其實就是指的柵極寬度。由摻入的材料不同,晶體管分為NMOS和PMOS兩類。
從邏輯電路層次看,組成CPU的CMOS(Complementary Metal Oxide Semiconductor)互補式金屬氧化物半導體電路即是將NMOS晶體管和PMOS晶體管連接起來配對使用。下圖為一個CMOS反相器示意圖,CMOS電路可以理解為是一個開關模型。
CMOS電路的功耗主要來自兩部分,分別是動態功耗P_dynamic和靜態功耗P_static,總的功耗構成即為:
Power = ∑(P_dynamic + P_static) = ∑(CV²αf + V*I_dq)
其中,C為負載電容的容值,V為工作電壓,α為當前頻率下的翻轉率,f為工作頻率,I_dq 為漏電流。
CV²αf 為晶體管的動態功耗P_dynamic,來源於驅動門電路翻轉產生的功耗,與電壓、頻率、負載電容、電路設計相關。
V*I_dq 為晶體管的靜態功耗P_static,來源於邏輯門電路沒有翻轉時由於絕緣不足無法完全關閉的靜態能量損耗,只要電路工作就會漏電。
1-2、萬惡之源
芯片製造業為了塞下更多的晶體管,力求用更先進的工藝製造更窄的柵長,用於絕緣的柵極二氧化矽絕緣層會變得越來越薄,在深亞微米工藝下,漏電功耗占到功耗的很大一部分,隨著工藝發展到納米級,漏電情況會加劇,靜態功耗比例繼續加大。
同時,芯片製造的過程中有著Backgate摻雜的概念,摻雜高的材料需要的單元門翻轉閾值電壓高,但它的漏電功耗低,門延遲長,也就是速度慢。反過來,摻雜低的材料所需要的翻轉閾值電壓低,但漏電功耗高,門延遲低,速度高。芯片製造有著高性能以及高性能功耗比兩種不同的工藝路線,高性能路線使用的材料是偏向於漏電功耗高這一類。
總結下來目前高端芯片很耗電的原因無非是以下兩個:
一是規模巨大。
ATi(AMD)R300是第一顆晶體管數量超過1億的GPU,在這之後GPU的晶體管數量不斷增加。
NVIDIA RTX2080Ti (TU102 Turing)塞了186億個晶體管,AMD Vega 64 (Vega 10)塞了125億個晶體管。Intel Core i9-9900K塞了多少個晶體管還是個迷。可以想像擁有數十億晶體管電路的芯片,在工作時邏輯門電路被不斷翻轉,而且由於工作頻率達到以GHz計算,它消耗的能量就相當可觀。
按A/N兩家提供的TDP功耗值和芯片面積可以算出TU102 Turing的功率密度是34.5W/cm²,Vega 10是61W/cm²,超過了電爐的10W/cm²,Vega 20達到了90.6W/ cm²,已經很接近核反應堆的100W/cm²。
二是桌機的CPU/GPU傾向於高效能路線,靜態功耗所佔的比值不低。雖然還能在性能功耗比的優化上做做文章,也就是下面我們需要談的內容。
1-3、芯片電源管理機制
CPU/GPU晶體管規模巨大、功耗巨大,為了控制功耗,芯片廠家都會想盡辦法。
我們從1-1給出的動態功耗公式來分析:
P_dynamic = CV²αf
其中負載電容C是和製程工藝相關,出廠即固定,V是工作電壓,α是當前門電路的翻轉率,f是工作頻率,由此得知,要降低處理器的動態功耗,只有降低工作電壓、減少翻轉的門電路數量或者降低工作頻率。
門級電路的功耗優化(Gate Level Power Optimization)、DVFS機制(Dynamic Voltage and Frequency Scaling)在一定程度上降低了芯片的平均功耗,但同時又帶來功耗大幅度頻繁波動的現象。
Intel官網提供了較多技術資料,Intel的智能降頻技術EIST (Enhanced Intel SpeedStep Technology)即是一種DVFS機制,夠對CPU的工作電壓、頻率進行智能調節從而降低CPU的功耗。
EIST技術中包含的不同頻率、電壓狀態在ACPI定義的CPU的C0 (CPU Power States)下的各種P-States (CPU Performance States)下體現出來。
有了降頻同時也會有超頻,Intel的Turbo Boost Technology睿頻技術是Intel的官方超頻技術,對應P-States P0中的最大工作頻率。Intel Turbo Boost Technology 2.0允許CPU在短暫的時間將功耗提高到超過TDP的PL2值。
有了電源管理就有相應的功耗狀態,Intel的Package Power Control封裝功率管理就是對CPU的幾種PL (Power Limit)狀態進行介紹。
Intel的功率極限(Power Limit)一共有4檔,功率從小到大依次是PL1、PL2、PL3、PL4。
PL1即平均功率,Intel建議不超過或者設置為TDP功率,CPU可以一直在這個功率上運行;
PL2即超過PL1之後的功率極限,對應Turbo Boost 2.0狀態下的功率,CPU可以保持在PL2長達100s;
PL3是一個更高的功率極限,超過PL2的時候可以在PL3的狀態保持峰值功率最長10ms;
PL4就是一個不可逾越的硬帽。PL3和PL4默認情況下是禁用的。
AMD的CPU也有類似的電源管理機制,限於篇幅不展開詳細講解。
2、顯卡
2-1、顯卡方面的功率標識
GPU方面可以得到的技術文檔不多,而顯卡方面的電源管理和功率標識比CPU的還要更遮遮掩掩。AMD/NVIDIA兩家把這一任務交給公關公司,公關公司再交給媒體,媒體再傳播給KOL,KOL再傳播給普通玩家。嗯,普通玩家吃的是第N手的資訊。
NVIDIA官網要找半天才能看到2080Ti的功率,簡單寫著“Graphics Card Power 260W”,也不知道是典型功耗還是峰值功耗,推薦電源功率為650W。
AMD官網Radeon VII的頁面則是寫著“典型板卡功率(台式機)300 W”、“電源功率:750W”。
2-2、顯卡廠商對電源的要求
板卡廠商對電源的推薦功率有點心虛,板卡功耗在300W不到,推薦了兩倍以上功率的電源。我尋思板卡廠商其實也知道板卡的真實功率,但就沒有說透,給板卡留下了一定的餘量。
其次,相應的電源推薦列表和工具更新滯後。NV官網有一個頁面提供了電源需求計算器,但是頁面只提供一個跳轉到華碩官網電源計算器的連結,這個頁面是2007年更新的,以NV驅動界面幾十年如一日華碩網站的更新速度,跳轉過去並不能找到對應頁面。
同時在NV官網還能看到SLI認證電源列表,可惜上面的電源都是諸如Antec CP-1000這樣的上古型號。
提問,一張2080Ti需要一個650W電源,那麼兩張2080Ti SLI需要一個多大的電源?NVIDIA沒講,AMD也沒有。
2-3、PCIe規範
相反,PCI-SIG有更多可用的信息。PCI-SIG(Peripheral Component Interconnect Special Interest Group)全稱為“PCI特殊行業集團”,於1992年成立,為的是更好地幫助電腦廠商落實Intel的規範,目前有800多家成員公司。
從『PCI Express Card Electromechanical Specification Revision 3.0』技術規範可以看到其對PCIE插槽、PCIE電源接頭的供電需求都有明確的規定。
比如PCIE插槽提供的75W,有66W是來自12V,其餘9.9W由3.3V提供。6+2Pin接口提供的是150W,6Pin提供75W。這幾個值指的都是持續的最大傳輸值或者說持續的最大平均值。
供電需求表格下方還有一句備註寫著:
1.The maximum current slew rate for each add-in card shall be no more than 0.1 A/μs.
意思是每張PCIE卡的最大電流擺率不應超過0.1A/μs。按理說,PCIE規範要求的PCIE擴展卡的電流擺率比Intel對電源動態要求的電流擺率還小一個數量級,Intel ATX12V規範要求是1A/μs,怎麼電源就翻車了呢?
以我的實測看來目前高端顯卡的電流擺率要超過0.1A/μs。比如以下這張顯卡的一個負載尖峰擺率達到3A/μs左右,它還只是一張GTX970。而這種負載波動在顯卡運行過程中是頻繁出現的。這裡沒有特指顯卡的電流擺率過大觸發電源OCP保護的意思。
3、電源
長期以來都是電源背鍋。
3-1、額定功率和超載
電源能夠在一定的環境條件下連續地輸出功率,且各項技術指標都符合規範,這一功率即為電源的額定功率。
Intel ATX12V規範沒有要求超載。
3-2、OCP保護機制
OCP(Over Current protection)過電流保護機制是Intel強制要求的設計,目的是在電源輸出電流過大時切斷輸出維持系統安全,並且接口、線纜和其他組件不應當熔化或者損壞。
對於當前主流中高端的單路12V LLC諧振電源而言,保護是做得相當謹慎的,當12V輸出的dI/dt(電流的變化率,也就是上面提到的電流擺率)大於電源設計的過流保護閾值時,電源認為此時已經接近短路,需要判斷是否要繼續供電還是選擇炸機,如果需要保護,便進行保護動作。
目前電源帶高端顯卡重啟的主要原因是由於顯卡輸入的dI/dt過大,而且頻繁重複這樣的動作,超過了電源的OCP設計值,電源可不理會是遇到短路還是顯卡電流過大,先關斷保護了再說。
3-3、動態響應特性
看過fcpowerup.com(極電魔方)電源評測的讀者應該知道網站有一個動態測試項目,用於烤驗電源在輸出大幅度變化時的工作穩定性和輸出品質,對應的即是帶大功率CPU和高端顯卡的使用條件。
在目前CPU和顯卡的功耗波動實在太大了,所以這個項目尤其重要,電源沒進入保護狀態的情況下,需要了解電源的輸出品質到底如何,電壓有沒有震盪,有沒有超出板卡工作的允許值,在扛了大幅度的負載波動後,電壓的恢復時間又如何。
按照Intel ATX12V規範的要求,本站或者是正規電源廠家的動態測試中的電流擺率也應該是1A/μs (甚至更高),測試擺幅根據電源的輸出功率來確定,功率越是大的電源,一般能承受的擺幅(動態功耗)也越大。Intel對於帶CPU的12V2要求是85%的擺幅,對帶PCIE的12V3/V4的要求是80%。電源廠家如果按Intel ATX12V的要求來設計電源,那麼能保證輸出品質所帶來最大電流/功率擺幅是80%左右。
由於電源的動態響應性能都是有上限的,如果帶了超出電源動態負載能力之外的設備之後,電源可能進入上面提到的過流保護狀態,也可能由於DC輸出觸發OVP、UVP而保護,也可能PFC Boost電容進入UVP,沒有妥善保護機制的電源也可能燒毀。
具體的介紹可以看Fcpowerup.com(極電魔方)站的建站基礎文章『是時候表演真正的技術了,我是怎麼測電源的 v1.2』對應的“4-9.動態測試Dynamic Test”章節,這裡不展開詳細介紹。
3-4、接口承載能力
上面談到接口燒毀,順帶也要提一下接口插件的承載能力。
在動態負載變化極大的情況下,CPU和顯卡散熱器由於使用了銅吸熱底座和大規模的散熱鰭片,並且還有強迫風冷,是可以輕鬆承受瞬變負載的,散熱器也只會稍微升高幾度(°C,攝氏),電源、線材和插件就不同了。
線材方面常用的單蕊(PVC絕緣電線)在30℃環境下,要升溫到PVC最大熔化溫度,16AWG、18AWG、20AWG和22AWG線徑線材所能通過的電流分別為24A、 18A、13A和10A。PE、XLPE、Teflon材料的溫度都不同,所以能承載的電流也不同,這裡不展開講 。
而端子方面,板卡用的Molex Mini-Fit 5556單Pin能承載的約為9A,熱集聚效應下3組12V(對應6+2Pin PCIE)削弱到每組可以承載8A左右,也就是3 × 8 = 24A/288W,PCIE協議更保守寫明為7A/Pin,而且還要額定內使用來避免端子由於機械性能失效導致的燒毀。CPU的4組12V(對應8Pin),可以承載約4 × 8 = 32A/384W。
以上數值都為持續傳輸的承載上限,端子可以承載瞬間的高負載,不過長期高負載使用再加上散熱不良就有風險了。PCB板的焊盤、銅箔、元件焊點可能承載能力要更低。所以現在的板卡、電源都配備更多的接口來分攤電流降低風險。
3-5、12V多路、單路設計
Intel在去年的ATX12V v2.52規範中已經把12V多路設計去掉,這一設計明顯已經無法應對目前單個配件消耗大量12V的情況,12V分多路設計的電源,使用新的顯卡更容易觸發單一路的OCP導致重啟。
4、實測
最後當然要上機實測啦。
4-1、為什麼說交流插座功率計是玩具
用交流插座功率計來測試電腦功耗是最普遍的方法。
交流插座功率計原理,AC插座功率計接到市電,對輸入電源的正弦波(AC)交流電進行採樣、積分,最終得到了一個電源的AC輸入平均功耗,採樣的是正弦波,輸出的是RMS值,AC插座功率計的採樣率不高,顯示屏的刷新率也不高,幾秒鐘一次。加上AC輸入端都是經過電源“平滑”之後的輸入值,是捕捉不到峰值的。
看在高帶寬數字示波器上的抓到的DC值和AC電分析儀上看到的平均值有什麼區別。示波器僅抓PCIE外接雙6+2Pin的電流值從0到55A之間波動,對應的功率最高可以到660W,AC電分析儀上顯示的也只有345W而已,中間的波動都被電源所平滑了。普通的AC插座功率計比起我用的電力分析儀採樣率低得多,了解AC功率計原理的人,不會拿它測到的數值來表示顯卡的DC輸入功率。
這實在的60A+峰值電流,是電源扛著的。
4-2、媒體的測試方法
絕大部分媒體都是用AC功率計測試的方法來測整機功耗,所以數值也是不可靠的。
目前有兩家媒體用了正確的測試方法,一家是超能網,一家是Tom's Hardware,兩者都是採用直接從DC端測量的方法來獲得板卡功率。不過局限性也是有的,兩者用的儀器採樣率都太低,超能網使用的儀器採樣率1Hz,之前A卡480燒插槽的驗證測試就用上了。
Tom's Hardware之前採用的儀器要好一些,最近換的這一套模擬帶寬看來更低了,波形失真嚴重,波峰幾乎都被削掉了。德文版Tom's Hardware(igorlab)的數據仍然是舊的那套設備,電流探頭模擬帶寬100K,數據還具備參考性。
按德文版Tom's Hardware之前測得的數據,Vega 64測得峰值420W/0.3ms,2080Ti測得402W/0.1ms。儀器模擬帶寬不足限制了他們獲取到真實的最高值,但是從他們的數值來看,已經比板卡廠商標稱的TDP要高出一大截。Vega 64的官方標稱功耗值為300W,實測420W,2080Ti官方標稱260W,實測402W。
4-3、Fcpowerup.com(極電魔方)站的測試:CPU功耗
平台及儀器
Intel i9-9900K no OC
ASUS ROG Maximus XI Gene
Galaxy DDR4-4000 8GBx2 Kit
Plextor M5P 128G SSD
Prolimatech A3 Cooler
Samsung 1080P Monitor
Seasonic Focus+550 with No Built-in Capacitor Teflon Cable
AMD Radeon RX Vega 56
NVIDIA RTX2080Ti (TDP 380W Max)
OS: Microsoft Win 10 64bit 1809
NVIDIA Driver:417.35-desktop-win10-64bit-international-whql
AMD Driver:win10-64bit-radeon-software-adrenalin-2019-edition- 18.12.2-dec12
Benchmark:
3DMark
FurMark_1.20.2
AIDA64_Extreme_5994900
Powermax_1.00
Unigine_Heaven-4.0
Prime 95
Oscilloscope: Tektronix MDO3014
Tektronix TCP303 Current Probe 150A DC , Bandwidth 15 MHz
Tektronix TCPA300 Amplifier AC/DC Current Probe , Bandwidth 100 MHz
Voltech PM1000+ Power Analyzer
我們使用Tektronix MDO3014示波器+15MHz高帶寬的電流探頭來進行測試。
CPU功耗實測Prime 95跑出來的功耗比AIDA64 FPU其他的什麼都要高一點,所以下圖示波器截圖來自Prime 95跑的成績。
此時CoreTemp讀數大概160W多一點,示波器探頭鉤的主板CPU 12V接口,對應VR供電電路輸入,可以看到電流峰值18.4A,RMS值16.1A。VR供電電路輸入約200W多一些,CPU輸出160W多一些,VR電路效率接近80%,已經是非常高的效率。
按得到的VR電路的效率,可知當9900K跑到PL2 210W時,主板CPU 12V供電接口輸入功率應該在262.5W以上,如果VR供電效率更低一些,假設只有70%的話,那麼VR供電電路要輸入300W的功率才能滿足需求,即電源留給CPU的餘量要有300W。
從波形分析,Intel應該對CPU的功耗限制得比較緊,加上CPU處理的都是比較單一的任務,沒有大幅度波動的情況,比顯卡的功耗要平穩得多。
不過相對於前面幾代CPU,這代CPU的供電要求是歷來最高的,要求線路、銅箔、焊盤、主板插口的端子、電源的接口端子、線材、電源模組接口端子,都要一一滿足300W的承載能力。
端子方面,電源CPU 12V供電接口用的Molex Mini-Fit 5556端子,4組每組可以承載8A左右,也就是4×8=32A/384W。可以應對210W的CPU (畢竟實際上要承載300W),餘量不大。接多一組4Pin或者4+4Pin會更妥當。有些用戶可能會在電源端使用4Pin模組線再轉8Pin接到主板的接法,其實這樣只有4Pin端子是有效承載電流的,而且接近電流飽和,容易燒端子、接口,不建議這麼接。
熱成像圖,接兩組接線,溫度並不高。
由於沒有AMD測試平台,實際功耗未知,可能會由於處理器的電源管理機制不同,VR電路設計不同而有所不同。
4-4、Fcpowerup.com(極電魔方)站的測試:顯卡功耗
顯卡的功耗測試比CPU的精彩得多。
4-4-1、AMD Vega 56 功耗
為什麼沒有測Vega 64/64LC或者Radeon VII呢?因為我沒卡。
AMD Vega 56在Wattman中解鎖了+50%功耗限制之後可以在兩個PCIE 6+2Pin外接接口測到高達57.6A/691.2W的峰值功率,測試24PIN上的12V峰值為6.3A(對應一部分PCIE插槽電流)。即便不解鎖功耗限制,AMD Vega 56也能在兩個PCIE 6+2Pin接口測到高達53.6A/643.2W的峰值功率。累加外接6+2Pin PCIE供電接口和PCIE插槽,單卡的瞬時功率可以認為有700W以上。
AMD Radeon RX Vega 56的示波器截圖
測試時間40s,峰值54.4A:
測試時間40ms,峰值55.2A:
測試時間10ms,峰值57.6A:
24Pin,對應PCIE插槽,峰值6.3A:
4-4-2、NVIDIA RTX2080Ti 功耗
為什麼不測2080、2070、2060,因為我也只有2080Ti。其他歷代旗艦卡功耗後面補齊。
NVIDIA RTX2080Ti用GPU-Z查看是300W默認TDP,380W TDP Max,在驅動控制面板啟用性能優先模式,開機之後的一段時間可以測到52A/624W,分析是因為冷啟動,電源管理機制允許闆卡輸出更大功率,跟手機降溫跑分更強一個道理。
後面熱機也可以測到46.4A/556.8W的峰值功率, 而24Pin上測得高達11.6A/139.2W,RMS值達到了5.98A,超出了PCIE規範5.5A的值,如果是兩張2080系列,兩張加起來就是12A,就是24Pin兩組12V端子所能承載的上限電流值,不外接主板6Pin或者大4Pin Molex輔助供電,很容易就會燒了PCIE插槽或者24Pin插座。
累加外接6+2Pin PCIE供電接口和PCIE插槽,也可以認為RTX2080Ti也有600W以上的瞬時功耗。
NVIDIA RTX2080Ti 的示波器截圖:
測試時間100s,峰值52A:
測試時間10ms,峰值46.4A:
24Pin,對應PCIE插槽,峰值11.6A:
一張圖總結,都為測得的峰值功耗:
附加一些說明:
a、顯卡的峰值電流的波形、幅值、持續時間跟跑什麼Benchmark相關,沒有A卡峰值電流持續時間長、N卡持續時間短這樣的說法。
b、大多數熱門的Benchmark比如Furmark和3DMARK測到的電流值並不是最高的,而且也比較規律。
c、遊戲裡面測到的值不那麼規律,而且波動幅度極大。場景越複雜的遊戲,功耗波動越大,也就是說,跑了壓力測試穩定通過的電腦,可能在遊戲中翻車。
d、電源對此類波動幅度大、擺率大、頻率不規律的負載敏感,容易觸發電源OCP最終導致重啟。
e、同一張顯卡,幀數越高,顯卡的功耗可能沖得越高。
f、測試中的海韻Focus+550重啟翻車過,分別使用兩組帶電容和不帶電容的PCIE模組線進行測試,結果相同。
g、將重啟的海韻Focus+550改造加強散熱系統之後同樣重啟,並且電源的元器件工作溫度接近室溫,電源元器件餘量足夠。
h、將重啟的海韻Focus+550調整電路,放寬過流保護之後通過了帶Vega 56、2080Ti的拷機、遊戲測試。驗證了確實是觸發了OCP導致的重啟。雖然改造後的電源能通過測試,但是要長期扛住超出本身額定功率許多的負荷,電源壽命和輸出質量得不到保障。我選擇使用更高功率的電源來帶這套機器。
i、帶高端顯卡時12V受動態負載波動很大,如果是單磁電源,12V和5V共用一個輸出儲能電感,5V受12V的波動而波動,我真的為使用5V的存儲設備感到擔憂。
4-5、花絮:顯卡嘯叫問題
顯卡嘯叫是最近經常聽到的問題,主要是電感滋滋叫。電感的結構跟揚聲器的結構類似,電感兩端有電流不斷往返,它就會產生振動,從而產生噪聲。在遊戲或者Benchmark中顯卡的輸入電流非常不穩定,電感滋滋叫再正常不過了。但是目前大多數高端顯卡的散熱風扇噪音都蓋過整機的聲音,輕微的電感滋滋叫算得了什麼。有什麼問題是一支704膠水不能解決的。
5、總結以及購買指南
綜上所述,主要有以下的一些問題:
不同電腦組件廠家之間缺少溝通,不同組件之間規範互不相容,電源應該遵循Intel制定的ATX12V規範,顯卡應該遵循PCIE規範。Intel目前無法嚴格約束闆卡廠商,電源廠商或者板卡廠商兩者只要有一個不守規範,那就會導致翻車。
廠家的產品技術文檔和推薦列表陳舊缺乏維護,比如GPU的技術文檔比較難獲取,NVIDIA的SLI認證電源和電源計算器都常年沒有更新。
電源行業和闆卡行業可謂隔行如隔山,非常深入的技術領域,不同產品的RD對彼此之間的技術都不可能完全知曉,很多以前可行的OCP保護設計,放到現在就不行了。
同時,大多數媒體沒有正確的測試方法,儀器缺乏精度,絕大多數玩家缺乏科學素養,迷信KOL,導致目前這樣的局面,但是生產GPU芯片的也就A/N兩家,功率再大也得接著用。可以期待一下闆卡廠商改進供電電路,把輸入電流擺率抑制在PCIE規範之內。
最後在積累更多數據之前,我仍然不會對搭配顯卡給出精確的電源瓦數,建議購買自己買得起的最大功率最先進的電源。使用中高端、高端顯卡的玩家,盡可能多花點錢買搭載了DC2DC技術的電源,不要購買12V分路的電源,先進的電源對新的CPU、GPU有針對性的優化。電源功率有足夠的餘量,可以更從容地應對動態負載波動所造成的電壓波動,另外一方面,電源會不斷地老化,也能夠延長電源的服役時間。
其他顯卡的功耗、電源的兼容性有待後續進行測試補充數據,可能會有詳細的數據參考,甚至是類似於Intel Haswell Ready一樣的FCP Gaming Ready電源認證。
來源
謝謝收看
留言列表