वर्षानुवर्षे, ची कथाडेटा सेंटरऊर्जेच्या वापराने अंदाज लावला. डिजीटायझेशन वाढत होते, निश्चितच, परंतु उत्तम सर्व्हर, वर्च्युअलायझेशन आणि क्लाउड एकत्रीकरणामुळे होणारे कार्यक्षमतेचा फायदा एकूण विजेचा वापर आश्चर्यकारकपणे सपाट ठेवला. एका दशकाच्या चांगल्या भागासाठी जागतिक डेटा सेंटर पॉवरची मागणी एकूण विजेच्या वापराच्या सुमारे 1 टक्के होती — अंदाजे 200 टेरावॅट-तास वार्षिक —.
ते युग संपत आहे.
जनरेटिव्ह एआयचे अभिसरण, क्रिप्टोकरन्सी मायनिंग, एज कंप्युटिंग आणि कनेक्टेड उपकरणांच्या घातांक वाढीमुळे जुन्या कार्यक्षमतेचा वक्र मोडला आहे. 2000 च्या दशकाच्या सुरुवातीपासून कधीही न पाहिलेल्या वार्षिक दराने वाढणारी डेटा सेंटर पॉवरची मागणी आता उद्योग अंदाज दर्शविते. काही प्रदेशांमध्ये — आयर्लंड, नॉर्दर्न व्हर्जिनिया, सिंगापूर — डेटा सेंटर्सचा वाटा आधीच एकूण वीज वापराच्या 15 ते 25 टक्के आहे, ज्यामुळे नियामकांना नवीन बांधकामांवर स्थगन लादण्यास भाग पाडले जाते.
या पार्श्वभूमीवर, एकेकाळी तांत्रिक तपशीलांप्रमाणे वाटणाऱ्या पायाभूत सुविधांच्या निवडी — कूलिंग आर्किटेक्चर, पॉवर डिस्ट्रिब्युशन टोपोलॉजी, रॅक डेन्सिटी प्लॅनिंग — हे बोर्डरूमचे निर्णय बनले आहेत. ऊर्जेचा खर्च आता लाइन आयटम राहिलेला नाही. तो वाढीला अडथळा आहे.
पॉवर यूसेज इफेक्टिवनेस, किंवा PUE, जवळपास दोन दशकांपासून डेटा सेंटर उद्योगाचे मानक कार्यक्षमता मेट्रिक आहे. हे एक साधे प्रमाण आहे: एकूण सुविधा शक्ती भागिले IT उपकरण शक्ती.
2.0 चा PUE म्हणजे प्रत्येक वॅट पॉवरिंग सर्व्हर आणि स्टोरेजसाठी, आणखी एक वॅट कूलिंग, लाइटिंग, पॉवर कन्व्हर्जन लॉस आणि इतर ओव्हरहेडवर जातो. 1.2 चा PUE म्हणजे ओव्हरहेड प्रति IT वॅट फक्त 0.2 वॅट्स वापरतो.
उद्योगाने PUE वर आधारित स्तर व्यापकपणे स्वीकारले आहेत:
| पातळी | PUE | DCiE | याचा अर्थ काय |
|---|---|---|---|
| प्लॅटिनम | <1.25 | >0.80 | जागतिक दर्जाच्या कार्यक्षमतेसाठी, विशेषत: फ्री कूलिंग किंवा लिक्विड कूलिंग आवश्यक आहे |
| सोने | १.२५ - १.४३ | 0.70 - 0.80 | अतिशय कार्यक्षम, मध्यम हवामानात आधुनिक डिझाईन्ससह साध्य करण्यायोग्य |
| चांदी | १.४३ - १.६७ | 0.60 - 0.70 | जुन्या सुविधा किंवा उबदार हवामानासाठी स्वीकार्य |
| कांस्य | १.६७ - २.०० | 0.50 - 0.60 | मोठ्या रेट्रोफिट्सशिवाय लेगसी डेटा सेंटरसाठी वैशिष्ट्यपूर्ण |
| गोरा | 2.00 - 2.50 | ०.४० - ०.५० | खराब कार्यक्षमता, उच्च ऑपरेटिंग खर्च |
| गरीब | >2.50 | <0.40 | गंभीर अकार्यक्षमता, बहुधा त्वरित लक्ष देणे आवश्यक आहे |
समस्या अशी आहे की अनेक संस्थांना त्यांचे PUE माहित नाही. त्यांचा अंदाज आहे. त्यांचा अंदाज आहे. किंवा ते फक्त मुख्य युटिलिटी मीटरवर मोजतात आणि बाकीचे गृहीत धरतात.
2023 च्या उद्योग सर्वेक्षणात असे आढळून आले की जवळपास 40 टक्के डेटा सेंटर ऑपरेटरने कधीही रॅक स्तरावर PUE मोजले नव्हते. ज्यांनी केले त्यांच्यामध्ये, नोंदवलेले आणि वास्तविक PUE मधील स्प्रेड सरासरी 0.3 पॉइंट्स होते - कोणाचीही दखल न घेता सोन्यापासून चांदीकडे सुविधा हलविण्यासाठी पुरेसे आहे.
PUE इतके मोठ्या प्रमाणावर का बदलते हे समजून घेणे, डेटा सेंटर कुठे पॉवर सोडते हे पाहण्यापासून सुरू होते.
1.8 च्या आसपास PUE असलेल्या ठराविक एअर-कूल्ड सुविधेत, ब्रेकडाउन अंदाजे असे दिसते:
कूलिंग लोड हे सर्वात मोठे व्हेरिएबल आहे. समशीतोष्ण हवामानात मोफत कूलिंगसाठी बाहेरील हवा वापरणारी सुविधा कूलिंगवर तिच्या नॉन-आयटी पॉवरपैकी फक्त 15 टक्के खर्च करू शकते. वर्षभर यांत्रिक कूलिंगसह उष्णकटिबंधीय हवामानात समान सुविधा 40 टक्के खर्च करू शकते.
म्हणूनच कोलोकेशन प्रदाते सुविधा स्तरावर PUE ची जाहिरात करतात परंतु ग्राहक मीटरवर PUE वितरित करतात — भिन्न संख्या, भिन्न परिणाम. ग्राहक हे सर्व पैसे देतो.
पारंपारिक डेटा सेंटर व्यवस्थापनाने तुलनेने स्थिर वातावरण गृहीत धरले. काही महिन्यांत किंवा वर्षांमध्ये रॅक भरले गेले. कूलिंग हळूहळू समायोजित केले जाऊ शकते. पहिल्या दिवसापासून वीज वितरण मोठ्या प्रमाणावर होते.
मेघ युगाने गृहीतके बदलली. रॅक आता दिवस भरतात. वर्कलोड सर्व्हरवर आपोआप बदलतात. उच्च-घनता AI क्लस्टर्स समीप सामान्य-उद्देशीय कंप्यूट रॅकच्या तिप्पट शक्ती काढू शकतात.
या बदलांमुळे पायाभूत सुविधा व्यवस्थापनाचा पुनर्विचार करण्यास भाग पाडले आहे. तीन ट्रेंड वेगळे आहेत.
प्रथम, घनता असमानपणे वाढत आहे.एक दशकापूर्वी मानक सर्व्हर रॅकने 5-8 किलोवॅट्स काढले. आज, सामान्य-उद्देशीय रॅक 10-15 किलोवॅट्स काढतात. उच्च-कार्यक्षमता संगणन आणि AI प्रशिक्षण रॅक नियमितपणे प्रति रॅक 30 किलोवॅटपेक्षा जास्त असतात. काही 50 किलोवॅटपेक्षा जास्त आहेत.
हे थर्मल व्यवस्थापन आव्हाने निर्माण करते ज्याचे निराकरण करण्यासाठी एअर कूलिंग संघर्ष करत आहे. 20 किलोवॅट प्रति रॅकवर, योग्य नियंत्रणासह एअर कूलिंग प्रभावी राहते. 30 किलोवॅटवर, ते किरकोळ होते. 40 किलोवॅट आणि त्याहून अधिक, द्रव कूलिंग पर्यायी ते आवश्यकतेकडे सरकते.
दुसरे म्हणजे, क्षमतेचे नियोजन अंदाजे बनले आहे.जुनी पद्धत — आवश्यकतेपेक्षा जास्त क्षमता विकत घ्या आणि ती निष्क्रिय राहू द्या — यापुढे स्केलवर काम करणार नाही. निष्क्रिय क्षमता भांडवली खर्च आणि चालू देखभाल खर्च दोन्ही आहे.
पॉवर, कूलिंग किंवा रॅक स्पेस कधी संपेल हे सांगण्यासाठी आधुनिक पायाभूत सुविधा व्यवस्थापन प्रणाली ऐतिहासिक डेटा आणि वर्कलोड अंदाज वापरतात. सर्वोत्कृष्ट सिस्टीम विद्यमान क्षमता पुन्हा कॉन्फिगर करायची किंवा नवीन हार्डवेअर ऑर्डर करायची, मर्यादा गंभीर होण्याच्या दिवस किंवा आठवडे आधी शिफारस करू शकतात.
तिसरे, दृश्यमानता आवश्यकता माजी आहेतpandedपारंपारिक डेटा सेंटर PDU स्तरावर पॉवर ट्रॅक करू शकते. आधुनिक सुविधेसाठी रॅक स्तरावर दृश्यमानता आवश्यक असते, काहीवेळा सर्व्हर स्तरावर, आणि अधिकाधिक वर्कलोड स्तरावर — कोणते व्हर्च्युअल मशीन किंवा कंटेनर कोणते पॉवर ड्रॉ करतात हे जाणून घेणे.
डेटा सेंटर इन्फ्रास्ट्रक्चरव्यवस्थापन (DCIM) सॉफ्टवेअर एक दशकाहून अधिक काळ अस्तित्वात आहे, परंतु दत्तक असमान आहे. निम्म्याहून कमी एंटरप्राइझ डेटा सेंटर्सनी संपूर्ण DCIM प्रणाली तैनात केली आहे. अनेकांनी त्याच्या क्षमतेचा फक्त एक अंश वापरला.
योग्यरित्या अंमलात आणलेली DCIM प्रणाली चार गोष्टी करते:
मालमत्ता व्यवस्थापन.प्रत्येक सर्व्हर, स्विच, PDU आणि कूलिंग युनिट कॉन्फिगरेशन मॅनेजमेंट डेटाबेस (CMDB) मध्ये ट्रॅक केले जाते. स्थान, पॉवर रेटिंग, नेटवर्क कनेक्शन, देखभाल इतिहास — हे सर्व. हे मूलभूत वाटते, परंतु बऱ्याच संस्था अजूनही स्प्रेडशीटमधील मालमत्तेचा मागोवा घेतात जे अपडेट दरम्यान अनेक महिने जातात.
रिअल-टाइम मॉनिटरिंग.PDU किंवा रॅक स्तरावर पॉवर ड्रॉ, पुरवठा आणि रिटर्न पॉइंट्सवर तापमान आणि आर्द्रता, कूलिंग सिस्टम स्थिती, UPS बॅटरी आरोग्य. जेव्हा पॅरामीटर सेटपॉइंट्समधून विचलित होतात तेव्हा अलार्म ट्रिगर होतो. डाउनटाइम होण्यापूर्वी समस्या शोधणे हे ध्येय आहे.
क्षमता नियोजन.किती वीज आणि कूलिंग क्षमता उपलब्ध आहे, किती वापरात आहे आणि भविष्यातील तैनातीसाठी किती आरक्षित आहे हे सिस्टमला माहीत आहे. हे नवीन उच्च-घनता रॅक जोडण्याच्या किंवा जुन्या सर्व्हरचा संच निवृत्त करण्याच्या प्रभावाचे मॉडेल करू शकते.
व्हिज्युअलायझेशन.डेटा सेंटरचे डिजिटल ट्विन — रॅक बाय रॅक, टाइल बाय टाइल — सध्याच्या परिस्थिती दाखवते आणि ऑपरेटरना बदलांचे अनुकरण करू देते. पंक्ती तीन, चौथ्या स्तंभात 10 किलोवॅट लोड जोडणे: ते कूलिंग क्षमतेपेक्षा जास्त आहे का? कोणीही उपकरणे हलवण्यापूर्वी सिस्टम उत्तर देते.
डेटा सेंटर उर्जेचा वापर कमी करणे अनाकलनीय नाही. पद्धती चांगल्या प्रकारे समजल्या आहेत. अंमलबजावणी शिस्तीचे आव्हान आहे.
पुरवठा हवा तापमान वाढवा.बहुतेक डेटा सेंटर्स थंड असतात — कूलिंग युनिट रिटर्नच्या वेळी 18 ते 20 अंश सेल्सिअस — कारण ऑपरेटर्सने नेहमीच असेच केले आहे. ASHRAE मार्गदर्शक तत्त्वे आता 24 ते 27 अंशांची शिफारस करतात. प्रत्येक अंशाच्या वाढीमुळे कूलिंग एनर्जी अंदाजे 4 टक्के कमी होते. 20 अंशांऐवजी 26 अंशांवर धावल्यास 20-25 टक्के कूलिंग पॉवरची बचत होते.
गरम आणि थंड हवेचे मिश्रण काढून टाका.हॉट-आइसल कंटेनमेंट, कोल्ड-आइसल कंटेनमेंट किंवा उभ्या एक्झॉस्ट नलिका रॅकच्या पुढील भागातून शॉर्ट-सायकल चालवण्याऐवजी थंड हवेला आवश्यक असलेल्या ठिकाणी जाण्यास भाग पाडतात. केवळ कंटेनमेंटमुळे कूलिंग एनर्जी 15-25 टक्क्यांनी कमी होते.
व्हेरिएबल स्पीड ड्राइव्ह वापरा.स्थिर-स्पीड पंखे आणि पंप आंशिक भाराने ऊर्जा वाया घालवतात. व्हेरिएबल स्पीड ड्राइव्ह हवेचा प्रवाह आणि पाण्याचा प्रवाह वास्तविक मागणीशी जुळतात. रिट्रोफिट पेबॅक कालावधी सामान्यतः 1-3 वर्षे असतात.
यूपीएस ऑपरेशन ऑप्टिमाइझ करा.बऱ्याच UPS सिस्टीम सतत दुहेरी-रूपांतरण मोडमध्ये चालतात — युटिलिटी पॉवर क्लीन असतानाही AC ते DC आणि परत AC मध्ये रूपांतरित करणे. जेव्हा पॉवर गुणवत्ता परवानगी देते तेव्हा आधुनिक UPS प्रणाली इको-मोडवर स्विच करू शकतात, 94-96 टक्के ऐवजी 99 टक्के कार्यक्षमता प्राप्त करतात. युटिलिटी पॉवर अयशस्वी झाल्यास ट्रेडऑफ ही बॅटरीवर एक संक्षिप्त हस्तांतरण वेळ आहे. अशा हस्तांतरणासाठी डिझाइन केलेल्या वीज पुरवठ्यासह IT लोडसाठी, जोखीम कमी आहे.
उच्च-व्होल्टेज वितरणाचा अवलंब करा.208V ऐवजी 415V वर वीज वितरण केल्याने वितरण हानी अंदाजे 25 टक्क्यांनी कमी होते. यासाठी सुसंगत PDU आणि सर्व्हर उर्जा पुरवठा आवश्यक आहे, परंतु अनेक आधुनिक उपकरणे त्यास समर्थन देतात.
Shangyu CPSY कंपनी, डेटा सेंटर इन्फ्रास्ट्रक्चरवर लक्ष केंद्रित करणारा एक उच्च-तंत्र उपक्रम, त्याच्या मॉड्यूलर डेटा सेंटर सोल्यूशन्ससाठी 1.3 चा PUE नोंदवतो. हे कंपनीला गोल्ड टियरमध्ये ठेवते, प्लॅटिनमकडे जाते.
पारंपारिक डिझाईन्सच्या तुलनेत 25 टक्के ऊर्जा बचतीचा दावा अनेक घटकांमुळे होतो. प्रणाली स्तरावर 97.4 टक्के कार्यक्षमतेसह मॉड्यूलर UPS प्रणाली वितरण तोटा कमी करतात जे अन्यथा 15-20 टक्के चालतात. व्हेरिएबल स्पीड कॉम्प्रेसर आणि EC फॅन्ससह अचूक एअर कंडिशनर्स स्थिर क्षमतेवर चालण्याऐवजी वास्तविक उष्णता लोडशी जुळण्यासाठी कूलिंग आउटपुट समायोजित करतात. आणि भौतिक मांडणी — हॉट-आइसल कंटेनमेंट, इष्टतम रॅक स्पेसिंग, योग्य आकाराच्या छिद्रित टाइल्ससह उंच मजला — वायुप्रवाह व्यवस्थापनास संबोधित करते जे अन्यथा कार्यक्षम सुविधांना कमी करते.
कंपनीच्या प्रमाणन पोर्टफोलिओमध्ये ISO 9001 (गुणवत्ता व्यवस्थापन) आणि ISO 27001 (माहिती सुरक्षा व्यवस्थापन) समाविष्ट आहे. त्याच्या ग्राहक उपयोजनांमध्ये युनायटेड स्टेट्स, युनायटेड किंगडम, जर्मनी, फ्रान्स आणि ऑस्ट्रेलियामधील निर्यात प्रतिष्ठानांसह Huawei, ZTE आणि Inspur सोबत भागीदारी समाविष्ट आहे.
वर्षानुवर्षे, सुपरकॉम्प्युटिंग केंद्रांसाठी लिक्विड कूलिंग हे एक खास तंत्रज्ञान होते. ते झपाट्याने बदलत आहे.
NVIDIA H100 किंवा आगामी B200 GPUs वापरणारे AI प्रशिक्षण क्लस्टर पूर्णपणे एअर-कूल्ड कॉन्फिगरेशनमध्ये प्रति रॅक 30-50 किलोवॅट्स जनरेट करतात. या घनतेवर, एअर कूलिंगसाठी उच्च वायुप्रवाह दरांची आवश्यकता असते — जोरात पंखे, खोल रॅक आणि तरीही सीमांत थर्मल नियंत्रण.
डायरेक्ट-टू-चिप लिक्विड कूलिंग स्त्रोतावरील 60-80 टक्के उष्णता काढून टाकते. चिप्स कूलर चालतात. पंखे हळू चालतात. खोलीतील एअर कंडिशनर उर्जा पुरवठा, मेमरी आणि इतर घटकांमधून फक्त उरलेली उष्णता हाताळते.
कार्यक्षमता वाढ लक्षणीय आहे. डायरेक्ट-टू-चिप कूलिंग रिपोर्ट PUE मूल्ये 1.1 ते 1.2 असलेल्या सुविधा. उच्च भांडवली खर्च, अधिक जटिल गळती व्यवस्थापन आणि सुविधा-श्रेणीच्या पाण्याच्या उपचारांची आवश्यकता हे ट्रेडऑफ आहेत.
पूर्ण विसर्जन कूलिंग — संपूर्ण सर्व्हरला डायलेक्ट्रिक द्रवपदार्थात बुडवणे — PUE ला 1.1 च्या खाली ढकलते परंतु विशेष राहते. बहुतेक व्यावसायिक डेटा केंद्रे प्रथम थेट-टू-चिप कूलिंगचा अवलंब करतील, विशिष्ट उच्च-घनता झोनसाठी नंतर विसर्जन करतील.
SHANGYU डेटा सेंटर प्लॅटफॉर्ममध्ये एअर आणि लिक्विड कूलिंग आर्किटेक्चर दोन्हीसाठी तरतुदी समाविष्ट आहेत, हे ओळखून की भविष्यातील उच्च-घनतेच्या उपयोजनांना सुविधा डिझाइनची पर्वा न करता द्रव-आधारित थर्मल व्यवस्थापन आवश्यक असेल.
बहुतेक डेटा सेंटर ऑपरेशन टीम अजूनही प्रतिक्रियाशीलपणे काम करतात. अलार्म वाजतो. कोणीतरी चौकशी करतो. एक निराकरण लागू केले आहे. चक्राची पुनरावृत्ती होते.
प्रेडिक्टिव मॅनेजमेंटच्या संक्रमणासाठी तीन क्षमतांची आवश्यकता असते ज्यांची अनेक संस्थांमध्ये कमतरता असते.
कॉन्फिगरेशन डेटा पूर्ण करा.डेटा सेंटरमध्ये काय आहे हे जाणून घेणे — प्रत्येक सर्व्हर, प्रत्येक स्विच, प्रत्येक PDU, प्रत्येक कूलिंग युनिट — हा पाया आहे. अचूक CMDB डेटाशिवाय, क्षमता नियोजन अंदाज आहे.
ग्रॅन्युलर टेलिमेट्री.रॅक-स्तरीय पॉवर मापन किमान आहे. प्रति-सर्व्हर पॉवर मापन अधिक चांगले आहे. वर्कलोड-स्तरीय पॉवर ॲट्रिब्युशन सर्वोत्तम आहे परंतु साध्य करणे सर्वात कठीण आहे.
आवाजापासून सिग्नल वेगळे करणारे विश्लेषण.एका रॅकवर तापमान वाढणे म्हणजे अयशस्वी पंखा असू शकतो. अर्ध्या डेटा सेंटरमध्ये तापमान वाढणे म्हणजे चिलर अपयशी ठरू शकते. प्रणालीने फरक करणे आणि त्यानुसार प्रतिसादांची शिफारस करणे आवश्यक आहे.
SHANGYU मधील DCIM प्लॅटफॉर्म SNMP आणि Modbus डिव्हाइस सपोर्ट, वेब-आधारित आणि Windows ऍप्लिकेशन इंटरफेस आणि इव्हेंट-ट्रिगर इमेजिंगसाठी नेटवर्क कॅमेऱ्यांसोबत एकीकरण प्रदान करते. नमूद केलेली उद्दिष्टे सरळ आहेत: महागडा डाउनटाइम कमी करणे, संपूर्ण पर्यावरणीय नियंत्रणाद्वारे दैनंदिन परिचालन खर्च कमी करणे आणि व्यवस्थापनाची दृश्यमानता आणि शोधण्यायोग्यता सुधारणे.
डेटा सेंटरच्या ऊर्जेचा वापर जागतिक विजेच्या मागणीच्या अंदाजे 1 टक्के आहे. संदर्भ ठेवल्याशिवाय ती संख्या लहान वाटते. हे अंदाजे युनायटेड किंगडमच्या एकूण विजेच्या वापराच्या समतुल्य आहे.
विशेष म्हणजे विकासदर वेग घेत आहे. AI, क्लाउड अवलंबन आणि कनेक्ट केलेल्या उपकरणांचा सतत विस्तार यामुळे 2030 पर्यंत डेटा सेंटर पॉवरची मागणी दरवर्षी 10-15 टक्क्यांनी वाढत असल्याचे उद्योग अंदाज दाखवतात. त्या दराने, डेटा केंद्रे दशकाच्या अखेरीस 3-4 टक्के जागतिक वीज वापरतील.
सर्व्हर वर्च्युअलायझेशन (भौतिक सर्व्हरची संख्या कमी करणे), सुधारित ड्राइव्ह कार्यक्षमता (स्पिनिंग डिस्कवरून SSDs वर जाणे) आणि फ्री कूलिंग (यांत्रिक रेफ्रिजरेशन ऐवजी बाहेरील हवा वापरणे) च्या विस्तृत उपयोजनातून मागील दशकात विजेचा वापर सपाट ठेवणारी कार्यक्षमता वाढली. कमी लटकणारी ती फळे मोठ्या प्रमाणात उचलली गेली आहेत.
कार्यक्षमतेची पुढील लहर लिक्विड कूलिंग, उच्च-व्होल्टेज वितरण, AI-ऑप्टिमाइज्ड कूलिंग कंट्रोल्स आणि - कदाचित सर्वात महत्त्वाचे - पायाभूत सुविधा क्षमता आणि वास्तविक IT लोड यांच्यातील चांगले संरेखन यामधून येईल. त्या शेवटच्या भागासाठी DCIM सिस्टीम प्रदान केलेल्या रिअल-टाइम दृश्यमानता आणि भविष्यसूचक विश्लेषणाची आवश्यकता असते परंतु काही सुविधा पूर्णपणे वापरतात.
तुम्हाला तुमचा खरा PUE माहीत आहे, स्पेक शीटवरील नंबर नाही?जर तुम्ही UPS आउटपुटवर आणि IT उपकरणांच्या इनपुटवर मोजले नसेल, तर तुम्हाला माहीत नाही. फरक हा तुमचा खरा ओव्हरहेड आहे.
तुमच्या कूलिंग सिस्टम एकमेकांशी लढत आहेत का?बऱ्याच डेटा सेंटर्समध्ये, CRAC युनिट्स अतिव्यापी तापमान आणि आर्द्रता बँडसह सेट केली जातात. एक युनिट आर्द्रीकरण करते तर दुसरे आर्द्रीकरण करते. एक थंड होतो तर दुसरा पुन्हा गरम होतो. हे काही असामान्य नाही. तेही कार्यक्षम नाही.
तुमच्या सर्व्हरचा निष्क्रिय पॉवर ड्रॉ काय आहे?इंडस्ट्री डेटा दर्शवितो की सामान्य एंटरप्राइझ सर्व्हर काहीही करत नसताना त्यांच्या कमाल शक्तीच्या 30-40 टक्के काढतात. न वापरलेले सर्व्हर बंद करणे किंवा स्लीप करणे हे उपलब्ध सर्वोच्च-ROI कार्यक्षमता उपाय आहे. हे देखील सर्वात दुर्लक्षित आहे.
उपकरणाच्या वैशिष्ट्यांचे उल्लंघन न करता तुम्ही तुमचे पुरवठा हवेचे तापमान दोन अंशांनी वाढवू शकता का?बहुधा होय. बहुतेक उपकरणे 25-27 अंश सेवन तापमानासाठी रेट केली जातात. बहुतेक डेटा केंद्रे 20-22 अंशांवर चालतात. ते सहा-अंशांचे अंतर वर्षानुवर्षे अनावश्यक शीतलक ऊर्जा दर्शवते.
तुम्ही तुमची UPS कार्यक्षमता शेवटच्या वेळी कधी प्रमाणित केली होती?नेमप्लेटची कार्यक्षमता परिपूर्ण पॉवर फॅक्टरसह पूर्ण लोडवर मोजली जाते. रिअल-वर्ल्ड पॉवर फॅक्टरसह आंशिक लोडवर वास्तविक-जागतिक कार्यक्षमता 5-10 पॉइंट कमी असू शकते.