loading...

مجازی سازی و رایانش ابری

همه چیز درباره دنیای مجازی سازی و رایانش ابری

شهاب ترابی بازدید : 47 شنبه 07 فروردین 1400 نظرات (0)

به عنوان صاحب يك كسب و كار براي پيشبرد بهتر اهداف سازمان و سهولت دسترسي به داده ميان كاركنان سازمان نياز به يك شبكه و سرور قابل اطمينان و پويا هست. شايد شما پس از تحقيق و جست و جو در رابطه با ايجاد يك فضاي مناسب براي سرور هاي شبكه با مواردي مختلفي مواجه شويد اما مورد مهمي كه هم كنون قصد داريم به آن بپردازيم يعني كاهش دماي سرور ها را ناديده بگيريد.

براي داشتن يك اتاق سرور صحيح و استاندارد‌ يكي از مهم ترين مسائلي كه بايد به آن بپردازيد گرما است. بله! گرما….

سرورها انرژي مازاد ناشي از كارو پردازشي كه انجام مي دهند را به صورت گرما به محيط منتقل مي‌كنند. بنابراين در يك اتاق سرور يا ديتاسنتر مديريت اين گرما و كاهش دماي سرور يك مسئله مهم است زيرا بالا رفتن بيش از حد دماي سرور خساراتي را به بار مي آورد. داغ شدن سرور موجب كاهش سن اجزاي سازنده سرور و خرابي زود هنگام مي شود. همچنين عملكرد نامنظم سيستم و خطر آتش سوزي از پيامد هاي ديگر آن است.

كاهش دماي سرور ها

داشتن يك اتاق سرور خوب كه هميشه دماي متعادل و مناسب داشته باشد كار سختي است. اما امروز ما طي اين مقاله مواردي ساده براي كاهش دماي سرور كه در نتيجه تحقيقاتمان دريافتيم را در اختيار شما خواهيم گذاشت و به شما مشتريان رايان وي آي پي نشان مي دهيم چگونه اتاق سرور خود را با كمترين تلاش خنك كنيد.

براي كاهش دماي سرور به اين سوالات بايد پاسخ دهيد:

 

  1. آيا اتاق سرور مسير مناسب ورود و خروج جريان هوا دارد؟

  2. چند نفر در اتاق سرور كار خواهند كرد؟

  3.  آيا در مجاورت اتاق سرور منبع گرما وجود دارد؟

  4.  عايق بندي اتاق سرور چگونه است؟

  5.  چه نوع روشنايي در اتاق سرور وجود دارد وميزان گرمايي كه توليد مي كند چگونه است؟

  6. آيا سيستم اطفا حريق در نظر گرفته شده است؟

هرچه سرور شما از نظر ابعاد و حجم كاري بزرگتر باشد پاسخ دادن دقيق به اين سوالات حياتي تر مي شود.

پيش از پاسخ به اين سوالات بايد بودجه خود را تعيين كنيد تا بتوانيد دقيق ترين پاسخ را بدهيد.

براي كاهش دماي سرور وجود دريچه هاي ورود و خروج هوا يك ضرورت مطلق است و هزينه بر هم نيست. در واقع بدون وجود اين دريچه ها بايد بگويم كه شما از پيش بازنده هستيد! با اطمينان از وجود اين دريچه ها، درب اتاق سرور بسته شده و تهويه مطبوع بسيار كارآمد تر عمل خواهد كرد.

در واقع كيفيت طراحي اوليه اتاق سرور شما نقش موثري در كاهش دماي سرور دارد و در طراحي اين اتاق بايد حتما راه كارهاي خنك كردن سرور را در نظر گرفته شده باشد.

آيا تا كنون در رابطه با راه رو هاي هواي سرد و گرم چيزي شنيده ايد؟ توضيح مختصري در اين رابطه مي دهم:

راه رو هواي سرد:

يك راه رو تنفس سرد در اتاق سرور موجب مي شود كه مسير هواي سرد و گرم جداسازي شود و چرخه اي ايجاد شود كه با خروج هواي سرد به خنك شدن دستگاه ها كمك كند.

راه رو هواي گرم:

يك سيستم راهرو گرم براي خنك نگه داشتن يك اتاق سرور عالي است. همانطور كه مي دانيم هواي گرم تمايل به افزايش دارد. سيستم راه رو گرم از اين مزيت استفاده مي كند و هواي گرم را به واحد AC (تهويه) باز مي گرداند تا به هواي سرد تبديل شود و اين چرخه ادامه پيدا كند.

اگر به يك اتاق داراي سيستم تهويه هوا  براي كاهش دماي سرور دسترسي نداشتيد چه كنيد؟

وحشت نكنيد! شما مي توانيد دستگاه هاي تهويه هواي قابل حمل را خريداري كنيد. در خريداري اين دستگاه مراقب باشيد كه وسوسه نشويد و ارزان ترين دستگاه تهويه هوا را خريداري كنيد. زيرا بايد اين دستگاه تهويه هوا به صورت مداوم روشن باشد و اگر به اندازه كافي كيفيت نداشته ممكن است با از كار افتادن موجب آتش سوزي تجهيزات شما شوند. علاوه بر اين پيشنهاد مي كنم يك سيستم تهويه هواي پشتيبان هوا در نظر بگيريد تا در صورت از كارفتادن يكي، ديگر فعاليت خود را ادامه دهد و احتمال خطر پاييد بيايد.

سرور HP

مرور يك نكته ظريف در رابطه با كاهش دماي سرور:

با فضاهاي خالي موجود در اتاق سرور چه مي كنيد؟ آيا مي دانيد كه اين فضاهاي خالي موجب به دام افتادن هواي گرم در آنها مي شود. در نتيجه ي اين امر تاثير هواي خنك وارد شده به اتاق سرور و فضاي رك به صورت قابل توجهي كاهش مي يابد. اما چاره چيست؟

صفحه هاي خالي در بازار موجود هستند كه با نصب آنها در فضاهاي اضافي مانع از جذب هواي گرم در داخل رك هاي سرور مي شوند.

كنترل منظم دماي اتاق سرور

دماي اتاق سرور خود را در فواصل زماني مختلف اندازه گيري كنيد. اين دما بايد در يك رنج با فاصله كم قرار داشته باشد تا نشان دهد سيستم خنك كننده اتاق سرور شما درست كار مي كند. اگر اينگونه نبود بايد راه حل هاي كارآمدتري انتخاب كنيد.

از حذف شدن مواردي كه در ادامه نام برده مي شوند مطمئن شويد تا اتاق سرور شما سرد بماند:

 

  • پنجره ها

  • درهاي غير ضروري

  • گرد و غبار

  • نور خورشيد

  • ترك هاي ترميم نشده

  • فضاهاي خالي در ديوارها

  • دستگاه هايي كه نصب شدن آن ها در اتاق سرور ضروري نيست.

سعي كنيد از نگهداري هر چيز اضافي در آنجا جلوگيري كنيد و تا حد امكان از ورود به اتاق خودداري كنيد و تنها براي انجام كارهاي معمول نگهداري و عيب يابي به اتاق سرور برويد. زدودن گرد و غبار از سرور نيز در كاهش دماي سرور تاثير ويژه اي دارد. تجمع بيش از حد گرد و غبار روي فن هاي سرور موجب كاهش عملكرد آنها مي شود.

شايد ذكر اين نكته بسيار جزئي به نظر برسد اما حتي تجهيزات روشنايي را كم كنيد زيرا در كاهش دماي سرور شما تاثير قابل توجهي خواهد داشت. اگر از لامپ هاي رشته اي استفاده مي كنيد بايد بگويم كه آنها مي توانند به دماي بالايي برسند بدون اين كه در واقع نور زيادي توليد كنند.

نكاتي كه ذكر شد مواردي بود كه به ادمين يا مدير يك كسب و كاركمك شاياني ميكند. توجه داشته باشيد هزينه كردن براي سيستم خنك كننده به جهت كاهش دماي سرور شايد زياد به نظر برسد اما مطمئن باشيد از بروز يك خطر جدي و ضرري چندين برابر در كسب و كارتان مصون خواهيد ماند

شهاب ترابی بازدید : 46 شنبه 07 فروردین 1400 نظرات (0)

شرکت VMware در کنفرانس VMWorld 2019 تکنولوژی به نام Project Pacific را معرفی کرد. این تکنولوژی در واقع نسخه ای از vSphere است که مجددا طراحی شده و هدف از آن یکپارچه شدن با Control Plane محصول Kubernetes (به اختصار K8s) جهت مدیریت یکپارچه ماشین های مجازی و کانتینرها در بستر vSphere می باشد. توسعه دهندگان نرم افزار با استفاده از دستورات Kubernetes می توانند به راحتی ماشین های مجازی، دیسک و کارت های شبکه متصل به آنها را مدیریت کنند. این امر می تواند برای تیم هایی که از محیط های ناهمگون که درون آنها هم ماشین مجازی و هم کانتینر وجود دارند مفید واقع شود البته در صورتی که بستر مجازی آنها VMware vSphere باشد.

تکنولوژی Project Pacific اجزای بستر Kubernetes را در قالب ماشین های مجازی vSphere پیاده سازی می کند و ادمین بستر مجازی سازی شده می تواند از قابلیت های بستر vSphere مانند اختصاص منابع، رمزنگاری،High Availability (HA) ،  Distributed Resource Scheduler (DRS) و تهیه Snapshot برای Workload های Kubernetes استفاده کند.

در این تکنولوژی دو جزء اصلی بستر Kubernetes یعنی Agent و Container Runtime به صورت اجزاء سفارشی شده به vSphere اضافه شده اند. یک نوع خاصی از کلاستر Kubernetes به نام Supervisor بر روی محیط Project Pacific اجرا می شود. به عبارت دیگر Kubernetes از ESXi به جای سیستم عامل لینوکس برای پیاده سازی اجزای خود استفاده می کند و Agent مخصوص vSphere به نام Spherelet را بر روی هاست های ESXi نصب می کند. Spherelet براساس پروژه ای به نام Virtual Kubelet توسعه یافته که کابرد اصلی آن ایجاد ارتباط میان Kubernetes و سایر سرویس دهنده ها جهت ایجاد بستری برای اجرای Pod ها در آن است. لازم به ذکر است Virtual Kubelet یک ابزار متن باز و توسط مایکروسافت توسعه یافته است.

کانتینرها بر روی ESXi توسط یک Container Runtime به نام CRX)Container Runtime Executive) اجرا می شوند. CRX همانند یک ماشین مجازی می باشد که درون آن یک کرنل لینوکس به همراه یک Container Runtime حداقلی قرار دارد. اما از آنجا که این کرنل لینوکس با Hypervisor ادغام شده، ما می توانیم از طریق آن عملیات های بهینه سازی مربوط به ماشین های مجازی را بر روی کانتینر ها هم داشته باشیم. CRX از تکنیکی به نام Direct Boot برای آماده سازی اولیه ماشین مجازی استفاده می کند و در این روش نیازی به مراحل معمول بوت کرنل نمی باشد. در ادامه به بررسی هر کدام از این مفاهیم پرداخته خواهد شد.

علاوه تغییراتی که این تکنولوژی بر روی ESXi ایجاد می کند به  vCenter نیز مجموعه ای از اجزا را اضافه می کند. این اجزا عبارتند از:

  • Workload Platform Service: این سرویس قابلیت ایجاد Namespace بر روی Cluster را فعال می کند و تعامل میان رابط های REST API و Namespace ها را برقرار می کند.
  • K8s Client Bindings: ارتباط میان سرویس Workload Platform با K8s API Server برقرار می کند. ادمین بستر مجازی می تواند با استفاده از رابط کاربری HTML5 نرم‌افزار vCenter تنظیمات مربوط به Kubernetes را انجام دهد و تنظیمات انجام شده، به تنظیمات قابل استفاده در Kubernetes Namespace ترجمه می شوند.
  • Token Exchange Service: این سرویس توکن های مربوط به vSphere SSO SAML را دریافت و آنها را به قالب JSON Web Tokens (JWT) جهت استفاده Kubernetes تبدیل می کند.
  • Bundle of Images: مخزنی برای نگهداری Image های مربوط به Control Plane و Spherelet Bundle ایجاد می کند.


معماری Project Pacific

Supervisor Cluster

پس از فعالسازی Project Pacific بر روی vSphere Cluster آن کلاستر به  Supervisor Clusterتبدیل می شود و قابلیت های Kubernetes بر روی آن فعال خواهد شد. هنگامی که قابلیت های Kubernetes بر روی کلاستر فعال شود، مراحل زیر توسط vCenter اجرا خواهند شد:

تعداد 3 ماشین مجازی Kubernetes Control Plane با استفاده از Supervisor Control Plane Image درون کلاستر ایجاد می شود. اطلاعات مربوط به پایگاه داده بستر Kubernetes درون این ماشین های مجازی در قالب Key-Value ذخیره و نگهداری می شوند (مشابه K8s etcd). قاعده Anti-Affinity به این ماشین های مجازی اعمال می شود و بر روی 3 هاست مختلف پیاده سازی می شوند تا در صورت بروز مشکل برای هاست ها، خللی در Control Plane ایجاد نشود. در ماشین های مجازی Control Plane علاوه بر اینکه سرویس Kubernetes API server در حال اجرا می باشد، چندین افزونه مربوط به vSphere نیز وجود دارد. این افزونه ها عبارتند از:

NCP NSX-T Container Plugin

این افزونه به صورت یک کانتینر اجرا می شود و ارتباط میان NSX Manager و Kubernetes Control Plane را برقرار می کند. مدیریت اجزای شبکه مانند Logical ports، Switch، Router و Security Groups با استفاده از فراخوانی NSX API ها بر عهده این افزونه می باشد.

(Cloud Native Storage (CNS

به ادمین بستر مجازی این اجازه را می دهد تا از vSphere Datastore (از هر نوعی VMFS، NFS یا vSAN) به عنوان Persistent Volume کانتینرهای ایجاد شده توسط Kubernetes استفاده کند.

Scheduling

هنگامی که ادمین قصد دارد یک Pod جدید ایجاد کند این سرویس با بهره گیری از قابلیت VMware DRS مشخص می کند که برای قرار گرفتن این Pod در کلاستر Supervisor کدام Node مناسب است.

Authentication

کاربران می توانند با استفاده از حساب های کاربری تعریف شده در SSO vSphere به Guest Cluster Kubernetes ها متصل شوند.

بسته نرم افزای Spherelet بر روی تمامی هاست های درون کلاستر نصب می شود و این امر سبب می شود که ESXi هاست ها بتوانند به عنوان Kubernetes Worker Node عمل کنند. در vCenter سرویس Workload Platform این Agent را بر روی تک تک هاست های درون کلاستر نصب می کند. همچنین Spherelet با استفاده از REST API Namepace ها را مدیریت می کند.

نصب Container Runtime Executive (CRX) بر روی هاست های ESXi. CRX از نظر سرویس Hostd و سرور vCenter مشابه یک ماشین مجازی به نظر می رسد اما CRX امکان اجرای کانتینر ها به صورت مستقیم بر روی VMKernel را فراهم می سازد. CRX یک ماشین مجازی است که شامل یک هسته لینوکس (سیستم عامل PhotonOS) و Container Runtime حداقلی است. همانند سایر ماشین های مجازی این ماشین مجازی نیز دارای یک (virtual machine executive)VMX فایل است اما برای اینکه ماشین مجازی بتواند بسیار سریع بوت (کمتر از یک ثانیه) شود بسیاری از پارامترهای درون آن حذف شده اند. علاوه بر VMXفایل بهینه شده  VMware تکنولوژی Direct Boot را طراحی کرده است که به واسطه آن بسیاری از عملیات های زمانبر فرآیند بوت سیستم عامل مانند شناسایی سخت افزار و یا پیکربندی ساختار حافظه حذف شده اند زیرا ساختار حافظه CRX از قبل ایجاد شده است و در زمان بوت نیازی به تعریف آن ندارد. Pod هایی که از طریق CRX در بستر vSphere ایجاد می شوند، Native Pod یا vSphere Pod نامیده می شوند.

Namespace

مفهوم Namespace تعریف شده برای Supervisor Cluster در بستر vSphere با مفهوم مشابه آن در Kubernetes متفاوت است. Namespace در Supervisor Cluster را می توان به عنوان یک Resource Pool جهت اختصاص دادن منابع سخت افزاری مانند CPU، حافظه در نظر گرفت. ادمین بستر vSphere همچنین می تواند دسترسی کاربران به Namespace را مشخص کند. علاوه بر این ادمین می تواند تعیین کند که کدام یک از سیاست های ذخیره سازی به Namespace اعمال شود و براساس آن مشخص می شود که Namespace می تواند به کدام Datastore دسترسی داشته باشد.

Guest Cluster

Kubelet استفاده شده در Supervisor Cluster با Kubelet مورد نیاز Kubernetes متفاوت است به همین دلیل با ساختار Kubernetes Cluster انطباق وجود ندارد و ممکن است در پیاده سازی برخی از کانتینرها با مشکل مواجه شویم. VMware برای رفع این مشکل Guest Cluster را طراحی و توسعه داده است. اساسا Guest Cluster دقیقا یک Kubernetes Cluster است که در درون Supervisor Cluster و به صورت ماشین های مجازی اجرا می شود. Guest Cluster کاملا با بستر Kubernetes بالادستی خود منطبق است و فقط به جای اینکه سرورهای Master و Node بر روی هاست ها پیاده سازی شوند بر روی ماشین های پیاده سازی شده اند.

نکته دیگری که در این زمینه باید به آن اشاره شود این است که رابطه میان Supervisor Cluster و vSphere Cluster یک رابطه یک به یک است. به عبارت دیگر در یک vSphere Cluster فقط می تواند یک Supervisor Cluster وجود داشته باشد. اما چنین رابطه ای میان Guest Cluster و Supervisor Cluster وجود ندارد و چندین Guest Cluster با Namespace های مختلف می تواند درون یک Supervisor Cluster وجود داشته باشند.

VMware vSphere with Tanzu

در اوایل سال 2020 میلادی و شش ماه پس از معرفی Project Pacific شرکت VMware از محصول جدیدی به نام VMware Cloud Foundation (VCF) with Tanzu را معرفی کرد که در آن از تکنولوژی Project Pacific استفاده شده بود. شرکت VMware پس از ارائه این محصول متوجه شد که علاوه بر کاربرانی که برای بستر Cloud و توسعه نرم افزارهای خود از VCF with Tanzu استفاده می کنند، کاربران بسیاری نیز وجود دارند که بر روی بستر فعلی vSphere از Kubernetes استفاده می کنند و خواهان استفاده از زیرساخت های شبکه و ذخیره ساز فعلی vSphere برای پیاده سازی Kubernetes هستند از همین روی شرکت Vware تصمیم گرفت در نسخه vSphere 7 Update 1  این قابلیت را به بستر vSphere نیز اضافه کند.

در مقاله های بعدی به معرفی تکنولوژی vSphere with Tanzu پرداخته خواهد شد.

شهاب ترابی بازدید : 45 جمعه 09 آبان 1399 نظرات (0)

کمپانی HP با معرفی سری جدید ورک استیشن های خود با نام سری Z ، اعلام کرده است که این محصولات توانایی تولید محتوای واقعیت مجازی ( Virtual Reality ) را بدون هیچ گونه محدودیت پردازشی دارا می باشند . بنابر این ادعا ، می توان گفت که سری ورک استیشن Z این کمپانی که برای تولید محتوای واقعیت مجازی طراحی و تولید گردیده است ، یک غول گرافیکی و پردازشی تمام عیار است .
ورک استیشن Z  اچ پی برای متخصصانی که نیاز به انجام کارهای محاسباتی سطح بالا ، جلوه های بصری ( Vissual Effect ) یا تولید محتوای گرافیکی دارند ، ساخته شده است . در واقع ، اچ پی HP Workstation Z بطور خاص برای بهبود عملکرد برخی از نرم افزارها مانند Avid ، Autodesk Flame و Maya و Adobe After Effects طراحی شده است . اچ پی ورک استیشن Z با قدرت پردازش باورنکردنی ، گرافیک حرفه ای ، حافظه حداکثری و ظرفیت ذخیره سازی داخلی باور نکردنی از هر مشخصاتی که سیستم کامپیوتری شما دارد بالاتر خواهد بود .
این ورک استیشن ها در سه سری Z8 ، Z6 ، Z4 با بالاترین قدرت پردازشی و گرافیکی و قابلیت ارتقا و به روزرسانی ، به بازار عرضه شده اند . پیش از اینکه حتی دستگاه را روشن کنید ، طراحی چشم نواز ، بدنه مستحکم از جنس آلومینیوم حرارت دیده و قابلیت حمل آسان آن ، شما را تحت تاثیر قرار خواهد داد . اما تا زمانی که جعبه را باز نکنید ، چشمگیرترین قسمت های طراحی BMW را نمی بینید ، که انجام آن بسیار ساده است ، چرا که طراحی ماژولار آن با ابزارهای بسیاری کمی صورت گرفته است . بنابراین جداسازی قسمت هایی مانند هارد دیسک های قابل تعویض ، فن ها و حتی منبع تغذیه به سادگی یک کلیک کردن ، امکان پذیر می باشد .
ورک استیشن Z از پردازنده Xeon E5-2600 v4 Intel شامل ۲۲ هسته پردازشی و چیپ گرافیکی NVidia Quadro بهره می برد . پردازنده ۲۲ هسته‌ای Xeon E5-2699 v4 نیز برای سرورها در نظر گرفته شده و ۱۴۵ وات برق نیاز دارد. بنابراین رایانه مورد نظری که از این چیپ بهره می‌برد نیاز به سیستم خنک کننده قدرتمندی هم خواهد داشت.
ورک استیشن Z قابلیت پشتیبانی از رم پردازشی DDR4 تا 256 گیگابایت و حافظه رم پردازشی LDDR4 تا یک ترابایت را دارد . در این سیستم پورت‌هایی برای انواع هارد‌های SATA، SAS و PCI-Express 3.0 NVMe وجود دارد و می توان تعداد زیادی از هارد درایوها و SSD ها را اضافه کرد .
با وجود اینکه تمام اچ پی ورک استیشن Z ها بالاترین سطح استاندارد را در قدرت پردازشی پردازنده ها و کارت گرافیک ها دارند ، اما اچ پی به این سطح از عملکرد و کارایی اکتفا نکرده است . این کمپانی در ورک استیشن های سری Z خود ، سیستم خنک کننده دوتایی ( Dual Fan ) طراحی و تعبیه کرده است . در نتیجه بر اثر اجرای برنامه های زیاد ، دما بالا نمی رود و سیستم کند نخواهد شد . قطعات ظریف سیستم در فضایی خارج از منطقه افزایش دما قرار دارند و حتی در زمان پردازش های سنگین و طولانی مدت ، کارایی خود را حفظ می کنند .
ممکن است نگران صدای فن پرقدرت این محصول باشید اما این اطمینان را به شما می دهم که با روشن کردن HP Z840 متوجه می شوید که فن پرقدرت آن ، کمترین صدایی را تولید نمی کند ، به گونه ای که تصور خواهید کرد که در یک کلیسای آرام و ساکت حضور دارید .

برای تولید محتوای واقعیت مجازی قدرت پردازشی بسیار بالایی مورد نیاز است . برای تامین این قدرت پردازشی بالا می توانید از کارت گرافیک های دوگانه Qudro M6000 که دارای 24گیگابایت رم هستند استفاده کنید . ترکیب دو چیپ گرافیکی قدرت پردازشی بسیار بالایی را در اختیارتان قرار می دهد و نرم افزارهای گرافیکی به راحتی و روانی هر چه تمام تر اجرا می شوند .
قیمت اچ پی ورک استیشن Z بدون هدست واقعیت مجازی، ۴۳۶۳ دلار است. ممکن است قدرت پردازشی بالای این ورک استیشن Z ها مجذوبتان کرده باشد ، اما با دیدن قیمت بالای آن از خرید چنین غول پردازشی و گرافیکی منصرف شوید .

شهاب ترابی بازدید : 49 یکشنبه 04 آبان 1399 نظرات (0)

راهکار مجازی سازی استوریج شرکت VMware یعنی محصول VSAN تبدیل به معروفترین راهکار Software Defined Storage یا همان SDS شده است.

در آخرین ورژن این راهکار یعنی VSAN 6.7 U 3 قابلیت های کلیدی معرفی شده اند که بودن آنها هم مدیریت و هم بهره وری را برای استفاده از این پلتفرم بالا می برد.

عملکرد هوشمندانه

استفاده بهینه از فضا

اولین کاری که در این ورژن انجام شده است نحوه نمایش فضای ذخیره سازی استفاده شده است.

اینکه حالا میتوانیم به راحتی مشاهده کنیم که چقدر از فضای VSAN ما توسط داکر یا Container ها استفاده شده است.

در عکس زیر میتوانید تمامی جزئیات را مشاهده کنید.

در این پنجره علاوه بر نمایش فضای استفاده شده می توانید تحلیل مربوط فضای ذخیره سازی شده را نیز مشاهده کنید. این قابلیت به شما اجازه میدهد که بتوانید فضای واقعی خالی را بر اساس Storage Policy های خود مشاهده کنید.

مشاهده بهتر resync

یکی دیگر از نقاطی که VSAN در آن خیلی ریز بینانه کار نکرده بود نمایش نحوه Resync شدن Object ها بود.

در این ورژن نه تنها میتوانید مقدار باقی مانده Resync را مشاهده کنید بلکه می توانید Object هایی که برای Resync شدن در صف قرار گرفته اند را نیز مشاهده کنید.

این قابلیت به ما کمک میکند که بفهمیم دقیقا چقدر عملیات resync شدن به طول می انجامد.

علاوه بر این دلیل Resync شدن را نیز می توانیم مشاهده کنیم.

به عنوان مثال در شکل زیر دلیل resync شدن به خاطر Compliance می باشد.

Maintenance Mode /Data Migration Pre-Check

این قابلیت یکی از قابلیت هایی بود که من شخصا خیلی به دنبال آن بودم.

با استفاده از این قابلیت می توانیم قبل از اینکه هاستی را به Maintenance Mode ببریم ، تحلیلی از Precheck آن دریافت کنیم.

برای درک بهتر فرض کنید که هاستی را می خواهیم به Maintenance Mode ببریم که از قضا این Object های به روز از یک ماشین مجازی بر روی آن است.

در این عملیات ما گزینه No Data Migrationرو انتخاب می کنیم که در واقع به این معنی است که علاقه ای نداریم دیتای روی این هاست جابجا شود.

با این تصمیم اشتباه باعث می شویم که ماشین مجازی از دست برود یا در بهترین حالت ماشین مجازی اطلاعات به روز خود را از دست بدهد.

وقتی این Pre Check فعال شود خود VSANبه ما اخطار می دهد که با انجام این کار باعث خواهیم شد که اطلاعات ماشین مجازی دچار مشکل شود.

در مقابل مشکل دیگه ای نیز وجود داشت ، آن هم برای زمانی بود که ما Full Data Migration را انتخاب میکردیم.

در این وضعیت ما باید از خالی بودن مابقی هاست ها اطمینان می داشتیم که اگر این اطمینان وجود نداشت خطر پر شدن دیتا استور بسیار بالا می بود.

دوباره با استفاده از این قابلیت می توانیم از خالی بودن ما فضای مابقی هاست ها اطمینان حاصل کنیم.

Object Compliance and Accessibility Cluster Capacity
Predicted Health

از شکل های بالا به راحتی میتوان برداشت کرد که اگر هاست را به Maintenance Mode و مدل Ensure Accessibility ببریم خیلی از Object ها Non-Compliant خواهند شد، اگر چه فضای خالی مورد نیاز برای این کار موجود است.

پشتیبانی از WSFC ( Windows Server Failover Cluster)

در حال حاضر چند ورژنی هست که قابلیت iSCSI در VSAN وجود دارد.

این قابلیت برای ادمین هایی بود که می خواستند بر روی بستر مجازی خود WSFC استفاده کنند.

در VSAN 6.7 U3 می توانیم با استفاده از SCSI-3 PGR (Persistent Group Reservation) یک VMDK را به عنوان Quorum Disk داشته باشیم.

تا به حال ادمین های مایکروسافت مجبور بودند با استفاده از iSCSI Target مسئولیت Quorum Diskرا بر شانه های VSAN بگذارند ، اما دیگر نیازی به انجام این کار نیست زیرا که میتوانند به راحتی VMDK ای که تحت حفاظت و نگهداری VSAN است را مستقیما در WSFC به کار بگیرند.

فقط در نظر داشته باشید که این مدل فقط برای WSFC ای است که بر روی بستر مجازی پیاده سازی می شود.

برای مدل فیزیکی هنوز باید از iSCSI Target استفاده کنیم.

SCSI-3 PGR : از کانسپتی به عنوان Register کردن و Reserveکردن استفاده می کند.هر سیستمی که از VSAN میخواهد استفاده کند خود را با استفاده از یک کلید SCSi-3 در سیستم رجیستر می کند.چند سیستمی که در VSAN رجیستر می شوند تشکیل یک گروه می دهند.

زمانی که یکی از این چند نفر بخواهد Write ای انجام دهد به راحتی درخواست Eject یک ممبر دیگر را ارائه می دهد و شروع به نوشتن می کند.

در نظر داشته باشید تنها کسانی می توانند دستور Eject را درخواست کنند که رجیستر شده باشند.

قابلیت تغییر سایز یا بزرگ کردن iSCSI LUN

این یکی از مشخصه های بد ورژن های قبلی بود که نمی توانستیم LUN ای که توسط iSCSI ارائه می دهیم را پس از ارائه تغییر سایز دهیم.

اما بالاخره در VSAN 6.7 U3 می توانیم بدون نیاز به آفلاین کردن iSCSI LUN آن را تغییر سایز دهیم، در این میان خود VSAN وظیفه Quiesce کردن I/O ها را در زمان تغییر سایز بر عهده می گیرد.

سرعت و Availability بهتر

یکی از نقاط نه چندان قوی در VSAN قابلیت Destaging آن بود.

زمانی که اطلاعات از روی Cache به روی هاردهای Capacity منتقل می شد، در برخی از مواقع باعث ایجاد latency در سیستم می شد مخصوصا زمانی که Deduplication و Compression داشتیم. در این ورژن بر روی قابلیت Adaptive Throttling نیز تغییرات زیادی ایجاد شده است.

در Adaptive Throttling خود VSAN برای حداکثر نگه داشتن I/O سرعت را به صورت عمدی کم یا زیاد میکرد تا بتوانند همیشه Performance را تضمین شده داشته باشد.

علاوه بر موارد بالا در نظر داشته باشید که در VSAN 6.7 U3 تعداد 6 عدد Resync می تواند بر روی یک Object به صورت موازی انجام شود که این باعث می شود سرعت Resync بسیار افزایش پیدا کند.

vsantop

این نیز یکی دیگر از قابلیت فوق العاده کارآمد برای VSANهستش.

همانطوری که قبلا مطالعه کردید، ما کامند ESXTOP را در ESXi ها برای مانیتورینگ آنلاین و لحظه ای استفاده می کردیم.

در این ورژن VMware کامند VSANTOP را نیز به مجموعه کامند ها اضافه کرده است تا بتوانیم به صورت آنلاین مشخصات VSAN را مشاهده کنیم.

زمانی که کامند VSANTOPرا وارد کردید، دکمه E (e بزرگ) استفاده کنید تا لیست را برای شما نمایش دهد.

مانند تمام کامندهای TOPدر لینوکس این ابزار برای Tshoot و افزایش سرعت استفاده می شود.

شهاب ترابی بازدید : 53 سه شنبه 05 فروردین 1399 نظرات (0)

پس از نصب nsx که در پست های نصب NSX Manager و نصب Data Plane و نصب Control Plane به آن پرداختیم، نوبت به پیکربندی زیرساخت nsx رسید که در اولین مرحله به پیکربندی vxlan پرداختیم و در این پست در مورد ایجاد logical switch ها و همچنین مفاهیم مربوط به Transport Zone و Segment ID صحبت خواهیم کرد.

Logical Switch:

یکی از مفاهیم جدید و خاص در NSX، موضوع Logical Switch می باشد. در حقیقت همانطور که از نام آن پیداست می توان با استفاده از vxlan ، سوییچ هایی را در overlay networking ایجاد کرد که از قبل وجود نداشته اند و کاملا مجزا از زیرساخت زیرین یا  Underlay Network می باشند. این سوییچ ها در لایه 2 کار میکنند.

همانطور که می دانیم، هر سوییچ فیزیکیِ قابل مدیریت، دارای لایه های Management Plane، Control Plane و Data Plane می باشد. پس اگر ما قصد داریم سوییچ منطقی ایجاد کنیم باید بتوانیم این سه لایه را تامین کنیم که به شرح زیر می باشد:

سوییچ هایی که ما ایجاد خواهیم کرد، سوییچ های Unmanageable هستند یعنی امکان مدیریت آنها به صورت مستقیم وجود ندارد.

وظایف لایه کنترلی توسط ماشین های مجازی ای که در بخش Control Plane ایجاد کردیم، تامین خواهد شد.

لایه Data Plane برای این سوییچ ها محدوده ای است بین VTEP های داخل یک منطقه ی از قبل تعیین شده به نام Transport Zone، به عبارتی Logical Switch میتواند برای انتقال دیتا در محدوده ای به نام Transport Zone از پورت های فیزیکی هاست ها و همچنین تجهیزات شبکه ای  احتمالی بین آن‌ها استفاده کنند.

در آخرین مرحله از پیکربندی NSX نیاز داریم تا Transport Zone و Segment ID را مشخص کنیم.

Transport Zone:

TZ یا Transport Zone در زیر ساخت nsx محدوده ای است که در آن Logical switch  ها و DLR ها می توانند قرار گیرند، محدوده هر TZ میتواند متشکل از یک یا چند کلاستر باشد و همچنین یک کلاستر می تواند در چند Transport Zone قرار گیرد.

یک Logical Switch فقط می تواند در یک TZ باشد و logical switch های دو TZ مختلف نمی توانند به صورت لایه 2 همدیگر را ببینند.

نکته مهم:

همیشه مرزهای TZ را در داخل یک VDS قرار دهید. یعنی اگر قرار است یک TZ دارای 3 کلاستر باشد هر سه آنها به یک VDS متصل باشند  و اگر در محیط چند VDS داشتید حتما مطمئن شوید کلیه کلاسترهای متصل به آن VDS  در داخل TZ قرار بگیرند. این موضوع برای جلوگیری از عملیات Routing در DLR مهم است و از misalignment جلوگیری میکند.

نکته :

معمولا یک TZ کافی است اما میتوان به تعداد دلخواه در موارد خاص، TZ ایجاد کرد.

 

در هنگام ایجاد TZ می بایست تعیین کنیم که اطلاعات مورد نیاز برای ارتباط بین  VTEP ها از طریق کدام control plane تغذیه شود، داخلی (توسط Control Plane VMs)، خارجی (توسط تجهیزات لایه فیزیکی ) یا ترکیبی از این دو

شهاب ترابی بازدید : 53 چهارشنبه 23 بهمن 1398 نظرات (0)

مجازی سازی دسکتاپ یا به اصطلاح Virtual Desktop Infrastructure (VDI) کلید طلایی حل بسیاری از مشکلاتی است که این روزها مدیران IT سازمان­‌ها درگیر آن هستند.

زیرساخت دسکتاپ مجازی (‌VDI) یک فناوری مجازی‌ سازی است که در آن، یک سیستم عامل دسکتاپ بر روی یک سرور مرکزی در دیتاسنتر میزبانی می‌شود. زیرساخت دسکتاپ مجازی، نوعی از مدل محاسبه‌ای کلاینت-سرور است که گاهی اوقات آن را محاسبه بر مبنای سرور می‌نامند. این اصطلاح نخستین بار توسط VMWare ابداع شد.

ظهور مجازی‌ سازی دسکتاپ در سال 2006، به‌عنوان جایگزینی برای مدل‌‌های محاسبه‌ای بود که توسط Citrix و Microsoft Terminal Services استفاده می‌شدند. امروزه پلتفرم‌هایی همچون VMware، Citrix و Microsoft مجازی سازی دسکتاپ را ارائه می دهند.

روش های مجازی سازی دسکتاپ

درمورد مجازی سازی دسکتاپ، دو روش اصلی: پایدار و ناپایدار وجود دارد.

مجازی ‌سازی دسکتاپ پایدار، تصاویر دسکتاپ مختص هر کاربر را تقریبا مشابه دسکتاپ فیزیکی سنتی برای او تهیه می کند، به طوری که کاربر می تواند برای استفاده های بعدی آن را تغییر داده و ذخیره کند.

مجازی ‌سازی دسکتاپ ناپایدار، مجموعه ای از دسکتاپ های یکسان را تهیه می کند که کاربران درصورت نیاز می توانند به آن دسترسی داشته باشند. در هر بار خروج کاربر، این نوع دسکتاپ ها به حالت اصلی خود باز می گردند و به همین دلیل به عنوان ناپایدار نامگذاری شده اند.

مزایای مجازی سازی دسکتاپ

زیرساخت دسکتاپ مجازی، یک رویکرد مجازی سازی دسکتاپ است که در آن یک سیستم عامل دسکتاپ مانند مایکروسافت ویندوز در یک دیتاسنتر اجرا و مدیریت می شود. تصویر دسکتاپ روی یک شبکه به یک دستگاه endpoint تحول داده می شود. این کار، به کاربر امکان می دهد با سیستم عامل و برنامه های آن (اگر به طور محلی اجرا شده بودند) تعامل داشته باشد. Endpoint ممکن است یک سیستم سنتی، کلاینت یا حتی یک دستگاه موبایل باشد.

این رویکرد می تواند باتوجه به نوع زیرساخت دسکتاپ مجازی مستقر، مزایای بسیاری داشته باشد. ازآنجایی که محاسبات واقعی اندکی در endpoint اتفاق می افتد، دپارتمان های IT با تغییر سیستم های منسوخ به کلاینت های دسکتاپ مجازی، این امکان را دارند که طول عمر آنها را افزایش دهند. علاوه براین، هنگام فرا رسیدن زمان خرید دستگاه های جدید، سازمانها می توانند دستگاه های ارزان تر و با توان کمتر را خریداری کنند.

اگر از خرابی پی در پی سخت افزار PC و Laptop کاربران خسته شده­اید،

اگر هزینه­های نگهداری و به روز رسانی Desktopهای سازمان به شدت بالا رفته است،

اگر به عنوان مدیر IT بیشتر وقت و انرژی شما بابت حل مشکلات پیش پا افتاده و تکراری کاربران هدر می­رود،

اگر نگران داده­های ارزشمند سازمان خود هستید و مدیریت متمرکزی در این زمینه وجود ندارد،

اگر فراهم سازی Desktop جدید برای کارمندان تازه استخدام شده بیش از حد زمان می­برد،

شهاب ترابی بازدید : 53 چهارشنبه 16 بهمن 1398 نظرات (0)

تکنولوژی IPMI که اختصار شده از Intelligent Platform Management Interface می باشد یکی از تکنولوژی های پرکاربرد در دنیای مرکزداده می باشد.
شرکت همیشه پیشتاز INTEL که مبتکر اصلی این تکنولوژی می باشد با همکاری شرکت های cisco , Dell , HP , NEC , Supermicro و Tyan اقدام به توسعه و تکمیل این ویژگی نمودند که حاصل این تلاش ها نسخه های مختلفی از IPMI می باشد که این نسخه ها شامل ۱ و ۱٫۵ و ۲ می باشد که امروزه نسخه شماره ۲ مورد استفاده قرار می گیرد.

این تکنولوژی در قالب سخت افزاری اضافه بر روی مادربرد سرور است که برای مدیریت و ارتباط با سرور بوسیله پروتکل (IP) فواصل دور استفاده می شود،در حقیقت تکنولوژی IPMI دقیقا شبیه تکنولوژی KVM over IP می باشد امروزه نیز مورد استفاده مدیران شبکه قرار می گیرد.

از طریق IPMI می توان فعالیت های گوناگونی را انجام داد مانند :
مدیریت کنسول سرور (خروجی مانیتور , موس , کیبرد)
ریبوت کردن سرور
خاموش یا روش کردن سرور
مشاهده و مدیریت سنسور های موجود که برای اطلاع از وضعیت سرور مثل دمای سرور , فن هاس سرور , دمای CPU ها و غیره استفاده می شود.
استفاده از گزارش ها (log) و وضعیت سرور از طریق پروتکل SNMP

موارد بالا بخشی از امکانات تکنولوژی IPMI می باشند که مورد استفاده مدیران شبکه می باشد.

 

امروزه می توان گفت تمامی سرورهای جدید این تکنولوژی را بصورت پیشفرض روی مادربرد خود دارند و البته بصورت کارت توسعه مجزا نیز می توان به سرورهای قدیمی اضافه گردد.
برای بکارگیری از سرویس IPMI همانطور که گفته شد نیاز به یک کابل شبکه می باشد که به پورت IPMI متصل شود و سپس از طریق رابط کاربری Bios یا UEFI اقدام به پیکربندی این تکنولوژی نمود .
از مهمترین موارد پیکربندی تعریف آدرس آی پی و پسورد دسترسی به سرور می باشد که لازم بذکر است که یوزر و پسورد پیش فرض ADMIN می باشد.

مشابه این تکنولوژی در سرورهای مختلف نیز با نام های مختلف و امکانات مختلف وجود دارد برای مثال محصولات شرکت HP از تکنولوژی iLO استفاده می کنند که در مقالات قبلی توضیح داده شده است.

شهاب ترابی بازدید : 64 جمعه 11 بهمن 1398 نظرات (0)

Microsoft sql server یک ابزار دسترسی به حافظه به شکل غیرهمسان را دارا می باشد که در سخت افزارهای numa و بدون  نیاز به پیکربندی خاصی به راحتی کار می کند.

با افزایش سرعت clock و تعداد پردازنده ها، کاهش میزان تاخیر پاسخدهی حافظه دشوار می شود. برای حل این موضوع سازندگان سخت افزار کش های L3 را طراحی کرده اند.اما راه حل بهتر استفاده از معماری Numa است. معماری numa راه حلی جامع را برای این مشکل فراهم آورده است. sql server  به شکلی طراحی شده تا از سایر مزایای کامپیوترهایی که بر مبنای Non-uniform memory access هستند بدون هیچ گونه تغییری در برنامه بهره مند گردد.

هر گروه از پردازنده ها حافظه ی مخصوص خود را داشته و کانال های ورودی/خروجی خود را نیز دارد.هر cpu میتواند به حافظه ای که گروه های دیگر از آن استفاده می نمایند دسترسی داشته باشد. هر گروه یک نود numa نامیده می شود. از آنجایی که دسترسی به حافظه داخلی در مقایسه با اختصاص حافظه به نود numa  سریعتر انجام می پذیرد ، به همین دلیل numa را معماری دسترسی به حافظه به شکل غیریکنواخت می نامیم.

در سخت افزار numa برخی مناطق حافظه به صورت فیزیکی متفاوت از سایر مناطق دیگر می باشند. از آنجاییکه numa از حافظه داخلی و بیرونی استفاده می نماید دسترسی به برخی مناطق با زمان بیشتری انجام می شود. حافظه داخلی حافظه ای است که مربوط به  نودی می شود که  cpu در حال اجرای thread است. هر حافظه ای که به این نود تعلق ندارد خارجی نامیده می شود.

مهمترین حسن Non-uniform memory access مقیاس پذیری آن است. در روش smp همه ی دسترسی به یک حافظه اشتراکی داده می شود و کل cpu به طور همزمان از آن استفاده می نمایند.

Numa با محدود کردن درگاه تعداد cpu ها  و اتصال نودها با اتصالات داخلی سریع این مشکل را مرتفع کرده است.

زمانیکه sql server با پیکربندی non-local memory اجرا می شود، لاگ sql server پیام های چندگانه را برای تمامی نودها به صورت جداگانه ثبت می کند.

کامپیوترها با hard numa بیش از یک bus دارند که چندین پردازنده را به خدمت می گیرند.برای اینکه متوجه شوید سیستم شما سخت افزار numa را دارد یا خیر از دستورات ذیل استفاده نمایید :


SELECT DISTINCT memory_node_id
FROM sys.dm_os_memory_clerks


اگر خروجی دستور node 0 باشدبدین معنی است که hard numa را پشتیبانی نمی نماید.

Soft numa زمانی مورد استفاده قرار می گیرد که شما سخت افزار cpu به تعداد زیاد نداشته باشید. تنها افزارهای SQL Server scheduler و SQL Server Network Interface معادل soft numa هستند.

نودهای حافظه که بر روی hard numa ساخته می شوند دیگر نیازی به soft numa ندارند.

نکته : شما نمی توانید soft numa بسازیدکه شامل  چند cpu  با سخت افزارهای مختلف باشد.

اطلاعات کاربری
  • فراموشی رمز عبور؟
  • آمار سایت
  • کل مطالب : 8
  • کل نظرات : 0
  • افراد آنلاین : 1
  • تعداد اعضا : 0
  • آی پی امروز : 9
  • آی پی دیروز : 13
  • بازدید امروز : 32
  • باردید دیروز : 1
  • گوگل امروز : 0
  • گوگل دیروز : 0
  • بازدید هفته : 34
  • بازدید ماه : 83
  • بازدید سال : 645
  • بازدید کلی : 2,103