آموزش به روز رسانی Disk Firmware در تجهیز Unity

آخرین بسته به روز رسانی دیسک ها را از سایت دانلود کنید.

  • از صفحه Dashboard بر روی دکمه Setting کلیک کنید و Drive Firmware را انتخاب نمایید. نسخه فعلی فرمویر دیسک ها از اینجا قابل مشاهده است.

 

  • برای اطمینان از صحت عملکرد سیستم قبل از به روز رسانی بر روی دکمه Perform Health Check کلیک کنید.

 

  • در صورت موفقیت آمیز بودن تست، در صفحه بعد بر روی دکمه Choose File کلیک کنید و فایل بسته فرمویر دیسک را با پسوند gpg انتخاب نمایید.

 

  • در مرحله بعد خلاصه ای از تنظیمات نمایش داده می شود و در صورت تایید فرایند به روز رسانی شروع خواهد شد.

 

  • در مرحله بعد روند پیشرفت و مراحل به روز رسانی و زمان مورد نیاز برای اتمام نمایش داده می شود.

 

  • پس از اتمام مرحله قبل نتیجه فرایند نمایش داده خواهد شد.

آموزش به روز رسانی نرم افزار EMC Unity

تجهیز EMC Unity دارای دو کنترلر به صورت Active/Active می باشد که این امکان فراهم می کند تا به روز رسانی نرم افزاری بدون قطعی سرویس (Non-Disruptive Upgrade)  انجام شود. با این وجود برای کاهش ریسک های احتمالی بهتر است عملیات بروز رسانی در خارج از ساعت کاری انجام گردد.

در این پست، به روز رسانی OE و فرمویر دیسک ها آموزش داده می شود.

 

آموزش به روز رسانی OE

 

  • آخرین نسخه فایل OE را از سایت دانلود نمایید.
  • نسخه فعلی OE از مسیر System > System View > Summary قابل مشاهده است.

  • از صفحه Dashboard بر روی دکمه Setting کلیک کنید و Software Upgrades را انتخاب نمایید. نسخه فعلی OE از اینجا نیز قابل مشاهده است.

 

  • برای اطمینان از صحت عملکرد سیستم قبل از به روز رسانی بر روی دکمه Perform Health Check کلیک کنید.

 

  • در صورت موفقیت آمیز بودن تست، در صفحه بعد بر روی دکمه Choose File کلیک کنید و فایل OE را با پسوند gpg انتخاب نمایید.

 

  • در صورت انتخاب گزینه ریبوت خود کار در مرحله بعد، سیستم به صورت خودکار در حین فرایند به روز رسانی، هر SP را ریبوت خواهد کرد. در صورتی که این گزینه انتخاب نشود، طی مراحل بروز رسانی از کاربر خواسته می شود ریبوت دستگاه را تایید نماید.

 

  • در مرحله بعد خلاصه ای از تنظیمات نمایش داده می شود و در صورت تایید فرایند به روز رسانی شروع خواهد شد.

 

  • در مرحله بعد روند پیشرفت و مراحل به روز رسانی و زمان مورد نیاز برای اتمام نمایش داده می شود.

 

  • ممکن است به هنگام به روز رسانی ارتباط شبکه ای کلاینت با تجهیز قطع شود. این مورد کاملا طبیعی بوده و در صورت وقوع این اتفاق به هیچ عنوان تجهیز را به صورت دستی ریبوت نکنید و منتظر بمانید تا ارتباط با دستگاه دوباره بر گردد. در صورت اتمام موفقیت امیز فرایند به روز رسانی صفحه زیر را مشاهده خواهید نمود.

 

آموزش تعویض هارد دیسک معیوب در VNX

تعویض دیسک در VNX بسیار ساده است به شرطی که رویه آن به درستی انجام شود. در ادامه مراحل انجام این کار به صورت قدم به قدم شرح داده می شود:

قدم اول: شناسایی دیسک خراب

برای تشخیص دیسک خراب می توانید پنل جلوی تجهیز را باز کنید و دیسک های خراب را شناسایی کنید. همانگونه که در شکل مشخص است با خرابی هر دیسک LED نارنجی آن روشن می شود و به علاوه LED نارنجی خود تجهیز نیز روشن خواهد شد.

به علاوه شما می توانید با ورود به Unisphere Client هشدار مربوط به خرابی دیسک را مشاهده نمایید.

همان گونه که در شکل مشخص است با ظاهر شدن هشدار مربوط به خرابی دیسک، یک هشدار دیگر در خصوص DPE یا DAE حاوی دیسک خراب، در بخش System Alerts ظاهر می شود و وضعیت کلی سیستم در حالت Error قرار می گیرید.

لازم به ذکر است شماره گذاری دیسک ها در هر Enclusure از شماره صفر شروع می شود و بدین ترتیب مطابق شکل بالا Bus 0 Enclosure 0 Disk 8 دیسک نهم از سمت چپ بر روی DPE می باشد. شماره Bus و Enclosure هر تجهیز در پشت آن مشخص است.

همچنین از مسیر System > Hardware > Storage Hardware می توانید وضعیت سخت افزار تجهیز از جمله دیسک ها را مشاهده نمایید.

مطابق شکل بالا، بر روی آیکون دیسک خراب نشانه F ( به معنی Faulted ) ظاهر می شود. با کلیک بر روی این دیسک، مکان آن بر روی تجهیز نشان داده می شود. همچنین وضعیت دیسک به صورت Removed خواهد بود.

قدم دوم: تعویض دیسک خراب

پس از شناسایی دیسک خراب، در محیط Unisphere با کلیک راست بر روی دیسک خراب و انتخاب Replace Disk، نرم افزار Unsphere Service Manager به صورت خود کار اجرا خواهد شد. لازم به ذکر است در صورتی که این نرم افزار بر روی کلاینت شما نصب نباشد، نیاز است قبل از انجام این مرحله این نرم افزار را بر روی کلاینت خود نصب نمایید. Unisphere Service Manager برای سیستم عامل ویندوز از اینجا قابل دانلود می باشد.

در این مرحله، مطابق شکل بالا، بر روی Replace Faulted Disk کلیک کنید. در مرحله بعد مطابق شکل زیر USM وضعیت سیستم را تحلیل خواهد کرد و در صورت وجود مشکل آن را به شما اطلاع خواهد داد. پس از اتمام تحلیل بر روی دکمه Next کلیک کنید.

در این مرحله در صورت وجود دیسک خراب، مشخصات آن نمایش داده خواهد شد.

در مرحله بعد شما می توانید دیسک خراب را از روی Enclosure خارج کنید و دیسک جدید را به جای آن وارد کنید. این امکان برای شما وجود دارد که با زدن دکمه Turn On Enclosure LEDs، بتوانید Enclosure مورد نیاز را شناسایی کنید. محل دیسک بر روی Enclosure نیز با رنگ قرمز مشخص است.  همجنین با زدن دکمه Replacement Instruction راهنمای نحوه خارج کردن دیسک و جا زدن دیسک جدید نمایش داده خواهد شد.

پس از اتمام، وضعیت دیسک به رنگ سبز تغییر خواهد یافت.

در مرحله بعد خلاصه رویه انجام شده نمایش داده خواهد شد.

قدم سوم: بررسی نتیجه تعویض

مطابق شکل زیر، پس از تعویض، نشانه F از روی دیسک حذف خواهد شد. وضعیت دیسک ممکن است نسبت به شرایط متفاوت باشد. در صورتی که قبل از خرابی دیسک، دیسک دیگری به صورت Hot Spare بر روی تجهیز موجود بوده، پس از وقوع خرابی دیسک Spare به صورت خود کار به Pool اضافه شده و اطلاعات دیسک خراب بر روی آن نوشته شده است. البته لازم به ذکر است این موضوع تنها در مورد تجهیزات VNX 2 صدق می کند. در این حالت پس از اضافه کردن دیسک جدید، این دیسک به عنوان دیسک Hot Spare خواهد بود و وضعیت دیسک جدید مطابق شکل پایین به صورت Unbound خواهد بود.

ولی در صورتی که دیسک Hot Spare بر روی سیستم موجود نباشد، پس از جایگزینی، عملیات Rebuild ( نوشتن اطلاعات بر روی دیسک جدید ) آغاز خواهد شد. و در این حالت وضعیت دیسک ابتدا در حالت Equalizing و پس از اتمام فرایند Rebuild، حالت دیسک به  Enabled تغییر خواهد یافت.

همچنین Alert مربوط به خرابی دیسک و وجود خطا در DPE و یا DAE نیز باید از بخش System Alerts حذف شده باشد.

 

به روز رسانی Firmware هارد دیسک در EMC VNX

در این آموزش قصد دارم روش بروزرسانی Disk Firmwareرا به شما آموزش بدهم. برای اینکار نیاز به USM و آخرین نسخه بروزرسانی Firmware تجهیز خود دارید. ( تمامی این ابزار ها در قسمت نرم افزارهای بخش EMC همین سایت موجود است).

پس از نصب و راه اندازی USM، آدرس IP تجهیز خود را در Web Browser وارد نمایید. وارد گزینه System شوید. و سپس  Service Task از کادر سمت راست را انتخاب نمایید. پس از کلیک بروی گزینه Software Upgrade، نرم افزار USM بصورت خودکار اجرا می شود و آنگاه چیزی شبیه تصویر زیر خواهید دید.

 

همچنین شما می توانید نرم افزار USM را مستقیما اجرا نمایید و با وارد کردن IP تجهیز و آنگاه User و Password مربوطه به تجهیز متصل شوید.

 آنگاه از منوی اصلی Software  و پس از آن Disk Firmware را انتخاب نمایید.

 در این آموزش من قصد دارمFirmware  هارد دیسک های یک تجهیز  VNX2 را آپدیت کنم.  مسیر این فرآیند بسیار ساده است و فکر می کنم با دنبال کردن تصاویر به سادگی می توانید تجهیز خود را بروزرسانی کنید.

 با کلیک بروی گزینه Install Disk Firmware، شما پنجره بعدی را خواهید دید که در آن از شما پرسیده می شود که فایل مربوط به update به صورت آنلاین دانلود شود و یا از فایل دانلود شده در کامپیوتر شما نصب شود.

 با انتخاب Local Repository  صفحه بعد برای  انتخاب فایل ndu  باز شده و با کلیک بروی Next نرم افزار شروع به Unpack کردن فایل بروزرسانی می کند. ( در صورت عدم موفقیت در Unpack کردن صحیح فایل، پیغام خطا دریافت می کنید و فرآیند در همین جا متوقف می شود. )

 پس از اتمام Unpack کردن فایل، فایل را به درون تجهیز VNX منتقل می کند. با پذیرش این بار کاری بر روی دیسک ها برای آپدیت کردن آن ها به مرحله بعد می رویم.

 

 سپس این package  باز شده و چک می شود که آیا هارد دیسکی در این تجهیز نیاز به آپدیت دارد یا خیر با کلیک بر روی کلید Next  به مرحله بعد می رویم.

بعد از چک کردن تمامی هارد دیسک ها، هارد دیسک هایی که قابلیت آپدیت شده اند مشخص می شوند. با انتخاب هر یک، آپدیت شدن یک گروه از هارد دیسک ها را انتخاب کرده اید.

 با چک کردن شرایط کلی دستگاه و آماده بودن شرایط آماده نصب آپدیت بر روی هارد دیسک ها می شویم.

 با کلیک بر روی Next  ابتدا شروع به جمع آوری اطلاعات می کند و بعد از آن کار نصب آپدیت ها برای هر گروه از هارد دیسک ها شروع می شود.

 در این مرحله تک تک هارد ها مورد بررسی قرار گرفته و آنگاه آپدیت بر روی آنها نصب شده و از لیست Upgrading  به لیست Complete انتقال پیدا می کند. با اتمام یک گروه از هارد دیسک ها گروه دیگر شروع به نصب آپدیت می کنند.

 پس از اتمام آپدیت تمامی هارد دیسک ها، اطلاعات کلی از وضعیت بروز رسانی نمایش داده می شود.  در این مرحله گزینه Notify Your Service Provider ….. را در پایین پنجره غیر فعال نمایید. ( فعلا با توجه به وضعیت تحریمهای اعمال شده از سوی EMC نسبت به ایران، بهتر است که این گزینه غیر فعال باشد.)

 با کلیک بر روی کلید Finish  کار آپدیت هارددیسک ها به اتمام می رسد.

چگونه یک Storage Group بسازیم؟

چگونه یک Storage Group بسازیم؟

در این آموزش قصد داریم مقداری در خصوص فرآیندهایی که احتمالا روزانه یک مدیر Storage با آن درگیر است صحبت کنم.

درست کردن یک Lun

اولین مرحله از آموزش ما تولید یک LUN است. در این آموزش تمامی مراحل با بهره گیری از GUI انجام می شود ولیکن قابلیت انجام تمامی این مراحل توسط CLI نیز موجود است. بسیار خوب در ابتدا به EMC خود متصل شوید و پس از باز شدن صفحه اولیه Unisphere، تجهیز مورد نظر خود را انتخاب نمایید. پس از آن در منوی بالایی بروی قسمت Storage بروید و آنگاه LUN را انتخاب نمایید.

Unisphere Storage Menu

وقتی که  LUN را انتخاب نمودید در صفحه بعد لیستی از تمامی LUN های موجود خود را مشاهده می نمایید. شما می توانید نحوه نمایش این لیست را به سلیقه و دلخواه خود تغییر دهید و یا حتی این لیست را بصورت یک فایل Export نمایید. از دکمه های پایین صفحه گزینه “ Create “ را انتخاب نمایید.

Unisphere – LUN Section

بعد از انتخاب دکمه ” Create ” پنجره زیر را می بینید :

Create New LUN

قطعا چیزی که شما بروی تجهیز خود مشاهده می نمایید با تصویر فوق یکسان نیست. بنا به تنظیمات شما تفاوتهایی وجود دارد. در تصویر نمونه ما یک Pool با Raid 6 بنام Pool-Bronze داریم.

موارد ابتدایی که باید آنها را وارد نمایید و همچنین به خوبی درک نمایید عبارتند از :

  • آیا شما یک Pool LUN می خواهید و یا یک Raid Group LUN ؟
  • آیا LUN شما باید Thin باشد یا Thick ؟ آیا باید Deduplication روی آن فعال باشد یا خیر ؟
  • ظرفیت آن چقدر باید باشد و LUN ID آن چند باید باشد ؟

در این مثال، ما قصد داریم یک Pool LUN با سایز ۱۰۰ GB تولید کنیم.برای این منظور من از یک Storage Pool که از قبل ساخته شده است و Pool-Silver نام دارد، استفاده می کنم. من می خواهم این LUN بصورت Thin باشد. همچنین قصد دارم LUN ID شماره ۴۳۰۲۳ را برای آن انتخاب کنم.

Create New LUN

بعد از کلیک بروی گزینه “ Apply “ ، یک تاییدیه از شما گرفته می شود و آنگاه LUN تولید می شود و در نهایت یک پیغام ” Success ” دریافت می کنید.

همین! تمام شد! شما توانستید یک LUN بسازید. به همین سادگی!

اتصال به یک HOST

در اولین قدم ما یک LUN ساختیم. حال ما به یک Host برای اتصال و دسترسی به LUN نیاز داریم. در این مثال می خواهیم نحوه ساخت یک Host را فرا بگیریم. فرض کنید یک Host جدید در محیط ما به تازگی نصب و راه اندازی شده است ولیکن تا کنون روشن نشده است. اما ما از HBA WWN آن مطلع هستیم.

تا زمانی که سرور روشن نشده است، ما هیچ Host را در لیست Host List نخواهیم دید. در شرایط عادی پس از اتصال Host به Storage، عموما توسط یک Host Agent و یا Unsiphere Server Utility و در موارد خاصی هم بصورت دستی، Host خود را بروی تجهیز Register می نماید. Host Agent ها در دو نسخه ویندوزی و لینوکسی موجود هستند و با نصب آنها بروی سرور مربوطه فرآیند Auto Register اتفاق می افتد. لازم بذکر است که با توجه به اینکه vMware از شرکتهای زیر مجموعه EMC است، تمامی Hypervisor های این شرکت بصورت پیش فرض این Agent را در خود دارند.

در این مثال ما قصد داریم شیوه Manual Registration را انجام دهیم. برای این منظور به منوی Host رفته و آنگاه Initiators را انتخاب نمایید.

Unisphere Host Menu

تمامی هاستهای متصل به SAN حداقل یک Initiator در این لیست دارند. شما باید بتوانید صفحه شبیه تصویر زیر ببینید :

Unisphere – Initiators

بسیار خوب، چیزی که می بینید لیستی است از تمامی Initiator های موجود. یک قانون مهم : هر Initiator می تواند تنها در یک Storage Group باشد. هیچ استثنایی نیز ندارد. این قانون در واقع می گوید که : هر هاست تنها و تنها می تواند در یک Storage Group وجود داشته باشد. حال اگر با دقت بیشترب به تصویر ارائه شده نگاه کنید، درمی یابید که هر هاست می تواند بیش از یک Initiator نیز داشته باشد. پس می توان با شیوه ای خاص یک هاست را در چندین Storage Group قرار داد!

حال ببینیم چگونه می توان بین یک هاست و یک LUN توسط Storage Group ارتباط برقرار کرد.

در صورت رعایت اصول MPIO هر هاست دارای ۴ Initiator خواهد بود.

  1. host_HBA_1 connected to Port_X in Storage Processor A
  2. host_HBA_1 connected to Port_Y in Storage Processor B
  3. host_HBA_2 connected to Port_Z in Storage Processor A
  4. host_HBA_2 connected to Port_U in Storage Processor B

در این شیوهما هیچ Single Point Of Failure برای قطع ارتباط مابین هاست و Storage نداریم. از آنجاییکه نمی خواهم این آموزش پیچیده و غیر قابل درک شود و برای اینکه این مثال ساده تر پیش برود، فرض می کنیم که هاست ما دارای تنها یک Initiator است که به پورت ۵ ،SP A متصل است. در پایین صفحه شما می توانید دکمه Register را بیابید.

Create Initiator Record

بسیار خوب پس از انتخاب Register، در پنجره جدید WWN را وارد نمایید. پورت متصل به هاست را تعیین کنید و Failover Mode را در حالت Active-Active یا همان ALUA بگذارید و برای نام test_host و برای آن IP آدرس را وارد نمایید، آنگاه بروی دکمه  OK بفشارید.

Create Initiator Record

موفقیت آمیز بود و توانستیم یک هاست جدید تولید نماییم. حال پس از Refresh نمودن باید بتوانید هاست جدید را در لیست ببینید.

Unisphere – Our “fresh” Initiator

همانگونه که می بینید هاست جدید عضوی از Storage Group بنام management~ می باشد. management~ در واقع یک Storage Group خاص است. و هر هاستی که در آن حضور دارد بدین معناست که آن هاست درون هیچ Storage Group واقعی نیست.

بسیار خوب وارد Host List شوید. اسم هاست جدید را می توانید در اینجا ببینید:

Unisphere Host List

همانگونه که دریافتید ما هاست را بصورت دستی تولید کردیم. اکنون ما هاست خود را برای اضافه کردن به Storage Group در اختیار داریم.

تولید یک Storage Group

اگر هنوز نمی دانید که Storage Group چیست و چرا به آن نیاز داریم می توانید آموزش ” معرفی Access Logix، LUN Masking و Storage Groups ” را مطالعه نمایید.

برای درست کردن یک Storage Group خیلی ساده به قسمت Host > Storage Group بروید و آنگاه بروی گزینه Create کلیک نمایید و تنها نیاز است که برای آن یک نام تعیین کنید:

Create Storage Group

من یک Storage Group با نام new_SG درست کردم. پس از کلیک بروی گزینه OK یک سوال از شما پرسیده می شود مبتنی بر اینکه : آیا شما مطمئنید که …. ؟؟؟!!! قطعا. من که مطمئنم!! شما را نمی دونم!!

پس از آن شما شما یک پنجره شبیه این می بینید :

 

New Storage Group

همانگونه که می بینید فرآیند تولید موفقیت آمیز بوده و گزینه ” Yes, I want to add LUNs and/or connect host ” را انتخاب نمایید. این صفحه را خواهید دید :

 

Adding LUNs to Storage Group

در ابتدا شما باید گزینه (ADD LUN(s را انتخاب نمایید. LUN های تولید شده خود را بیابید و آنگاه گزینه “ Add “ را بفشارید.

یک موضوع مهم در اینجا، انتخاب Host LUN ID است. همانگونه که دید من برای این منظور هیچ مقداری وارد نکردم و Storage بصورت خودکار یک Host LUN ID را به هاست اعطا کرد. در صورت نیاز جهت آشنایی بیشتر با HLU/ALU می توانید به آموزش ” معرفی Access Logix، LUN Masking و Storage Groups ” مراجعه نمایید.

پس از انتخاب LUN مورد نظر بروی کلید “ Apply “ بفشارید و آنگاه Tab بعدی یعنی Host را انتخاب نمایید:

Connect Host to Storage Group

تنها کار که نیاز است در اینجا انجام دهید انتخاب هاست و یا هاستهای دلخواه است. در پایان گزینه OK را بفشارید.

خلاصه

 شاید در ابتدا کمی پیچیده بنظر برسد ولیکن تنها نیاز است که در انجام تمامی این فرآیندها دقت عمل داشته باشید. در نهایت این مسائل را نیز بیاد داشته باشید :

  • شما می توانید چند LUN را به تعدادی Storage Group اضافه نمایید، تنها لازم است که گزینه “ Show LUNs” را به “Already Connected To Different Storage Group “ تغییر دهید.
  • بصورت پیش فرض شما می توانید یک هاست را تنها در یک Storage Group قرار دهید و اگر هاستی را در Storage Group دومی قرار دهید، آنگاه آن هاست از عضویت Storage Group اول خارج می شود.
  • عضویت یک هاست در Storage Group بنام managment~ بمعنای عدم عضویت آن هاست در یک Storage Group واقعی است.

معرفی اجمالی Unispher

معرفی اجمالی Unispher

پیشتر مطالب مختصری در آموزش ” Unisphere چیست ؟ ” در خصوص Unisphere ارائه شد. در این آموزش قصد دارم به ارائه آموزشهای ابتدایی نحوه استفاده با Unisphere بپردازم.

چکونه Unisphere را راه اندازی کنیم ؟

همانگونه که در آموزش قبلی نیز گفتم، ساده ترین روش استفاده از یک Web Browser و وارد نمودن IP آدرس یکی از SP ها و یا Control Station هاست. نکته : بیاد داشته باشید که شما برای این منظور نیاز به جاوا دارید.

زمانی که پنجره Login را دیدید، می توانید با ورد نام کاربری و پسورد خود به تجهیز Login نمایید. پس از ورد موفق شما این صفحه را خواهید دید :

Unisphere Dashboard

اولین چیزی را که به محض Login مشاهده می نمایید صفحه Dashboard است. اگر شما بیش از یک تجهیز VNX در دامین خود داشته باشید، در این وضعیت شما هنوز به هیچ تجهیز خاصی از VNX های خود Login نکرده اید.

اگر قصد دارید با یک تجهیز خاص کار کنید و یا آنرا مدیریت کنید، لازم است که آن تجهیز را انتخاب نمایید. جهت این کار می توانید بروی اسم تجهیز خود را از Drop-Down لیست موجود در گوشه بالایی سمت چپ، انتخاب نمایید و یا بروی نام تجهیز در زیر منو اصلی کلیک نمایید.

کار کردن با تجهیز Storage

زمانیکه شما تجهیز مورد نظر خود را انتخاب نمودید، صفحه داشبورد با کمی تغییرات بشکل زیر نمایش داده می شود :

Unisphere VNX Dashboard

این صفحه در همان پنجره پیشین باز می شود. حال شما اطلاعات بیشتری در خصوص یک تجهیز خاص دارید. اول اینکه شما می توانید تمامی System Alert های مهم اخیر را ببینید. در گوشه بالایی سمت راست می توانید اطلاعات اولیه را ببینید. شماره سریال و مدل تجهیز شما نیز از همین محل قابل استخراج است.

نگاهی به گزینه های منوی اصلی بیندازیم :

System

 

Unisphere System menu

هر منو برای خود دارای انتخابهایی است. شما می توانید با کلیک بروی گزینه منو (System,Storage,Host,Data Protection و ….) و یا قرار گرفتن روی این منوها و آنگاه باز شدن Popup منو به انتخاب زیر منوها بپردازید.

گزینه System  این انتخاب ها را دارد :

  • Hardware : اینجا میتوانید تمامی اطلاعات مربوط به سخت افزارها، از یک هارد دیسک تا وضعیت فن ها را بیابید.
  • Monitoring And Alerts : تمامی Alert ها اینجا هستند، همچنین می توانید به SP Event Logها، Notification ها و وضعیت فعلی تجهیز و یا ارسال هشدار ها توسط ایمیل و … دست یابید.
  • Reports : جایی که می توانید گزارشات خود را اینجا بسازید.

Storage

Unisphere Storage menu

احتمالا این TAB را در حین کارهای روزمره خود دیده اید. تعداد انتخابها و زیر منوهایی که ممکن است اینجا ببینید کاملا بستگی به لایسنسها و ورژن تجهیز شما دارد.مثلا اگر تجهیز شما دارای لایسنس های سرویس File باشد، شما موارد بسیار بیشتری را مشاهده خواهید کرد.

در این قسمت شما می توانید یک Raid Group، Storage Pool و LUN و … تولید نمایید.

Hosts

 

Unisphere Host Menu

 دراین TAB مهمترین قسمت قطعا Storage Group است که به شما امکان تولید، حذف و یا تغییر یک Storage Group را می دهد.  البته قطعا برای تولید یک Storage Group شما نیاز به Host دارید. لیست Host های شما در HOST List موجود است. یک مقدار عمیق تر به موضوع بنگریم، برای اینکه Host داشته باشید، باید تعداد Initator داشته باشید. فعلا  تا همین حد وارد می شویم و در آینده نزدیک بیشتر به این موضوع می پردازیم.

امیدوارم این آموزش توانسته باشد یک دید کلی و پایه ای برای شروع کار با Unisphere برای شما فراهم نماید.

خاموش کردن دستگاه EMC سری VNX

برای خاموش کردن دستگاه VNX به طریقی که داده های ذخیره شده در آن Protect باشد باید مرحله به مرحله و طبق دستور العمل این مستند دستگاه را خاموش کنید.

توجه: خاموش کردن اشتباه دستگاه های سری VNX موجب از دست دادن اطلاعات و یا سرویس میشود.

برای خاموش کردن دستگاه لطفا به مدل دستگاه خود توجه کنید.

مدلVNX5100   تنها در یک حالت، بلاک و دیگر مدل های VNX 7500, VNX 5700 , VNX 5500 , VNX 5300  و همچنین VNX 8000, VNX 7600, VNX 5800, VNX 5600,VNX 5400, VNX 5200با ۳ حالت شامل: Block, File, Unified    موجود است.

توجه داشته باشید در مدل های VNX5700, VNX7500 و VNX8000, VNX7600 به جای DPE ، SPE  وجود دارد. بنابراین در هر کجا که از  DPE استفاده شده برای این مدل ها میتوان آن را SPE  در نظر گرفت.

  • خاموش کردن VNX 7500 / 5700 / 5500 / 5300  و VNX 8000 / 7600 / 5800 / 5600 / 5400 /5200 در حالت  Block

قبل از شروع:

EMC  پیشنهاد میکند که نسخه Operating Environment  خود را بدانید، زیرا ممکن است مراحل خاموش کردن برای سیستم شما کمی متفاوت باشد.

مراحل:

۱- در صورت امکان، قبل از خاموش کردن سیستم:

  • به تمامی کاربران سیستم از چند روز قبل خبر بدهید.
  • از login کردن کاربر ها جلوگیری کنید و تمامی کاربران را چند دقیقه قبل از این کار حتمآ با خبر کنید.
  • تمامی کاربران را logout کنید.

 ۲- .به یکی از Storage Processor ها از طریق پنل کنترل Unisphere آن سیستم وارد شده و وضعیت سیستم را بررسی کنید.

  1.  در مرورگر، آدرس IP مربوط به Storage Processor را وارد کنید.
  2. در Unisphereبه عنوان Admin وارد شده و Scope را به عنوان Global  تعریف کنید.
  3. در Dashboard Unisphere درقسمت Systems By Severity قرار بگیرید.
  4. حتما چک کنید تا در قسمت Status هیچ هشدارCritical  ای وجود نداشته باشد.

 ۳- برای دستگاه های VNX به صورت بلاک با نسخه ی OE، ۰۵.۳۲.۰۰۰.۵.۲۰۹ و بالاتر می توانید، دستگاه را از طریق رابط کاربری Unisphere خاموش کنید.

a ) از نوار بالا System List را انتخاب کنید. ( اگر سیستم Navigation Bar  را نشان نداد، All systems  را در لیست سیستم ها انتخاب کنید.)

     

b ) از قسمت System List  دستگاهی که میخواهید خاموش شود را انتخاب کنید.

c ) بر روی کلید Power Off کلیک کنید. حتما مطمئن شوید که تمامی نکاتی که Unisphere  بعد از فشار دادن دکمه  Power Off نشان می دهد، به درستی خوانده، و انجام داده اید.

d ) مطمئن شوید که LED های DPE و SP وضعیت خاموش را نشان میدهند.

نکته: پس از انجام این مراحل فقط SP ها خاموش شده اند و برای خاموش شدن کامل دستگاه نیاز به ادامه مراحل می باشد .

  • ۵۸۰۰/VNX 5100/5300/5500/5200/5400/5600

در حالی که DPE به صورت موفقیت آمیز خاموش شده باشد، LED های آبی نشان دهنده وضعیت Power، نارنجی نشان دهنده وضعیت Fault  و سفید نشان دهنده وضعیت خارج نکردن کنترلر مربوطه در هر Storage Processor  خاموش هستند.

به علاوه در جلوی یک DPE  که به درستی خاموش شده، DPE Enclosure Power/Status به رنگ آبی، روشن است و تمامی LEDهای دیگر خاموش میباشد.

  •  VNX 5700/7500/7600/8000

بر روی یک SPE  ای که به صورت موفقیت آمیز خاموش شده است، تمامیه Fault LED  ها روشن و مابقی LED های SP و SPE خاموش میباشند.

به علاوه در قسمت پشت دستگاه تمامیه LED  های هر SP  خاموش می باشند.

 بعد از اطمینان از وضعیت این LED ها به مرحله بعد بروید.

نکته: در VNX  سری دو یعنی VNX 800 / 7600 / 5800 / 5600 /5400 / 5200  تجهیز SPS  ای خارج از DPE  وجود ندارد، و  باتری برای این سری در داخل DPE تعبیه شده است که خود DPE  مدیریت آن را بر عهده دارد.  بنابراین در این قسمت مواردی که مربوط به SPS  میشود را در نظر نگرفته، (از قسمت e  صرف نظر کنید) و بعد از تامل چند دقیقه ای برق SP  را قطع کنید.

e )  سویئچ SPS را به وضعیت خاموش ببرید. (وضعیت صفر)

 f ) برای سیستم هایی با یک SPS بعد از تامل ۲ دقیقه ای، برق SP B را از PDU قطع کنید.

 

 در حال حاضر شما VNX را خاموش کردید و برای ادامه به مرحله ۵ بروید.

 ۴- برای دستگاه های VNX به صورت بلاک با نسخه ی OE، ۰۵.۳۲.۰۰.۵.۲۰۷ و کمتر، برق VNX را از طریق Power Switch های بر روی SPS قطع کنید.

 a )  تمامی فعالیت های I/O به Storage Processors را STOP کنید (این فعالیت ها شامل I/O Activity  از Host های خارجی که به Storage متصل هستند میشوند) و بعد بمدت ۵ دقیقه صبر کنید. تمامی I/O هایی که به SP اجازه میدهند به داده Cache دسترسی داشته باشد و ممکن است مدتی به طول بیانجامد را  STOP  کنید.

–  این زمان بسته به پارامترهایی مثل سایز Cache، مقدار داده ای که در داخل Cache وجود دارد، نوع داده، و مقصد داده متغییر است اما عموما کمتر از یک دقیقه طول میکشد.

نکته: در VNX  سری دو یعنی VNX 800 / 7600 / 5800 / 5600 /5400 / 5200  تجهیز SPS  ای خارج از DPE  وجود ندارد، و  باتری برای این سری در داخل DPE تعبیه شده است که خود DPE  مدیریت آن را بر عهده دارد.  بنابراین در این قسمت مواردی که مربوط به SPS  میشود را در نظر نگرفته، (برای این مدل ها از قسمت b  صرف نظر کنید ) و در مرحله e  بعد از تآمل چند دقیقه ای برق SP  را قطع کنید.

b ) سویئچ SPS را به وضعیت خاموش ببرید. (وضعیت صفر)

c ) مدت ۲ دقیقه به دستگاه فرصت بدهید تا داده های داخل Cache را در Disk بنویسد.

d )  مطمئن شوید که چراغ LED های SPS قبل از اینکه ادامه بدهید خاموش هستند. این نشان دهنده ی این است که داده های داخل Cache به هارد های VAULT منتقل شده اند، SPS خاموش شده است پس برق را از Component ها قطع کرده است.

e )  برای سیستم ها با یک SPS، بعد از ۲ دقیقه، کابل SP B را از PDU قطع کنید.

در حال حاضر شما VNX را خاموش کردید و برای ادامه به مرحله ۵ بروید.

۵- اگر DAE های جداگانه هم وجود دارد کابل برق هر یک را از PDU بکشید. این کار باعث خاموش شدن DAE میشود.

  • خاموش کردن VNX 7500 / 5700 / 5500 / 5300  و VNX 8000 / 7600 / 5800 / 5600 / 5400 /5200  در حالت  Unified/ File

قبل از شروع:

EMC  پیشنهاد میکند که نسخه Operating Environment خود را بدانید، زیرا ممکن است مراحل خاموش کردن برای سیستم شما کمی متفاوت باشد.

مراحل:

۱- در صورت امکان، قبل از خاموش کردن سیستم:

  • به تمامی کاربران سیستم از چند روز قبل خبر بدهید.
  • از login کردن کاربر ها جلوگیری کنید و تمامی کاربران را چند دقیقه قبل از این کار حتمآ با خبر کنید.
  • تمامی کاربران را logout کنید.

 ۲- به Unisphere در Primary Control Station سیستم متصل شده و وضعیت سیستم را چک میکنیم.

a ) در مرورگر آدرس IP مربوط به Control Station را وارد میکنیم.

b ) در Unisphere به عنوان ادمین وارد میشویم و Scope را به عنوان Global  تعریف میکنیم.

c ) در داشبورد Unisphere درقسمت Systems by Severity قرار میگیریم.

d ) چک میکنیم که در قسمت status هیچ هشدارCritical ای وجود نداشته باشد.

e ) به طور دلخواه وضعیت Data Mover و Control station را بررسی میکنیم. با انتخاب

  System -> Run Command در پنجره  Control Station CLI  در سمت راست صفحه:

nasmcd/sbin/getreason/

جواب قابل انتظار برای یک VNX  با یک Control Station  و ۲ عدد  Data Mover به صورت زیر است :

۱۰ – slot_0 primary control station

۵ – slot_2 contacted

۵ – slot_3 contacted

۳- برای دستگاه های VNX به صورت فایل با نسخه ی OE، ۷.۱.۷۴.۵ و نسخه بلاک ۰۵.۳۲.۰۰۰.۵.۲۰۹  و بالاتر، برای خاموش کردن Control Station ، Data Mover  و Storage Processor  از کلید Power Off  در Unisphere استفاده میکنیم.

 a ) از نوار بالا System List را انتخاب کنید. ( اگر سیستم Navigation Bar  را نشان نداد، All systems  را در لیست سیستم ها انتخاب کنید.)

b ) از قسمت System list  دستگاهی که میخواهید خاموش شود را انتخاب کنید.

c ) بر روی کلید Power Off کلیک کنید. حتما مطمئن شوید که تمامی نکات و پیشنهادات Unisphere را که برای خاموش کردن می دهد، به درستی انجام داده اید.

d ) مطمئن شوید که LED های DPE و SP وضعیت خاموش را نشان میدهند.

نکته: پس از انجام این مراحل فقط SP، Data Mover  و Control Station  ها خاموش شده اند و برای خاموش شدن کامل دستگاه نیاز به ادامه ی مراحل می باشد .

  •  ۵۸۰۰/ VNX 5300 /5500 /5200 /5400 /5600

در حالی که DPE به صورت موفقیت آمیز خاموش شده باشد، LEDهای آبی نشان دهنده وضعیت Power، نارنجی نشان دهنده وضعیت Fault  و سفید نشان دهنده وضعیت خارج نکردن کنترلر مربوطه در هر Storage Processor  خاموش هستند.

به علاوه در جلوی یک DPE  به درستی خاموش شده، DPE Enclosure Power/Status به رنگ آبی، روشن است و تمامیه LEDهای دیگر خاموش میباشد.

  • برای VNX 5700 /7500 /7600 /8000

در قسمت جلویی SPE برای هر module، Amber Fault LED  روشن است و تمامی LED های دیگر SP، SPE خاموش است.

به علاوه، در پشت SPE، تمامیه LED های Power، Status و  Fault LED  ها بر روی SP  خاموش هستند.

بعد از اطمینان از وضعیت این LED ها به مرحله بعد بروید.

نکته: در VNX  سری دو یعنی VNX 800 / 7600 / 5800 / 5600 /5400 / 5200  تجهیز SPS  ای خارج از DPE  وجود ندارد، و  باتری برای این سری در داخل DPE تعبیه شده است که خود DPE  مدیریت آن را بر عهده دارد.  بنابراین در این قسمت مواردی که مربوط به SPS  میشود را در نظر نگرفته، (برای این مدل ها از قسمت e صرف نظر کنید ) و در مرحله e  بعد از تآمل چند دقیقه ای برق SP  را قطع کنید.

e ) سویئچ SPS را به وضعیت خاموش ببرید. (وضعیت صفر)

 f )  برای سیستم هایی با یک SPS بعد از تامل ۲ دقیقه ای، برق SP B را از PDU قطع کنید.

در حال حاضر شما VNX را خاموش کردید و برای ادامه به مرحله ۵ بروید.

۴- برای دستگاه های VNX به صورت فایل با نسخه ی OE، ۷.۱.۷۲.۱ و نسخه بلاک ۰۵.۳۲.۰۰۰.۵.۲۰۷ و پایین تر برای خاموش کردن  دستگاه از روش زیر پیروی کنید:

a ) تمامی Control Stations و Data Mover ها را از طریق Unishphere Control Station CLI متوقف کنید.

/nasmcd/sbin/nas_halt now

 پیغام زیر برای تایید دستور شما و ادامه کار نمایش داده میشود:

*************************** WARNING! **************************

You are about to HALT this VNX including all of its Control

Stations and Data Movers. DATA will be UNAVAILABLE when the system is halted.

Note that this command does *not* halt the storage array.

ARE YOU SURE YOU WANT TO CONTINUE? [ yes or no ] :

 b ) در این پنجره کلمه yes را تایپ کرده تا Power Down شروع بشود.

جزیئات این مراحل را در خروجی  Command  میبینید.

نکته:  این فرآیند بین ۵ تا ۲۰ دقیقه به طول می انجامد، لطفا تا اتمام این پروسه و نمایش این پیغام به مرحله بعد نروید.

با نمایش پیغامی مشابه May 10 11:35:08 rtpplat32cs0 exiting on signal 15 تمامی Control Station  ها و Data Mover  ها خاموش شده اند.

c )  مرحله بعد خود را مشخص کنید:

اگر نمیخواهید دستگاه را کاملا خاموش کنید مراحل زیر را ادامه ندهید و مستقیما به مرحله ۵ بروید.

اگر میخواهید دستگاه را به طور کامل خاموش کنید مراحل زیر را ادامه بدهید.

d )  تمامی فعالیت های I/O به Storage Processors را STOP کنید (این فعالیت ها شامل I/O Activity  از Host های خارجی که به Storage متصل هستند میشوند) و بعد بمدت ۵ دقیقه صبر کنید.

تمامی I/O هایی که به SP اجازه میدهند به داده Cache دسترسی داشته باشد و ممکن است مدتی به طول بیانجامد را  STOP  کنید.

– این زمان بسته به پارامترهایی مثل سایز Cache، مقدار داده ای که در داخل Cache وجود دارد، نوع داده، و مقصد داده متغییر است اما عموما کمتر از یک دقیقه طول میکشد.

نکته: در VNX  سری دو یعنی VNX 800 / 7600 / 5800 / 5600 /5400 / 5200  تجهیز SPS  ای خارج از DPE  وجود ندارد، و  باتری برای این سری در داخل DPE تعبیه شده است که خود DPE  مدیریت آن را بر عهده دارد.  بنابراین در این قسمت مواردی که مربوط به SPS  میشود را در نظر نگرفته، ( برای این مدل ها از قسمت e,f,g صرف نظر کنید ) و در مرحلهh  بعد از تامل چند دقیقه ای برق SP  را قطع کنید.

e ) سویئچ SPS را به وضعیت خاموش ببرید. (وضعیت صفر)

f ) بمدت ۲ دقیقه به دستگاه فرصت بدهید تا داده های داخل Cache را در Disk بنویسد.

g )  مطمئن شوید که چراغ LED های SPS قبل از اینکه ادامه بدهید خاموش هستند. این نشان دهنده ی این است که داده های داخل Cache به هارد های VAULT منتقل شده اند، SPS خاموش شده است پس برق را از Component  ها قطع کرده است.

h )  برای سیستم با یک SPS، بعد از ۲ دقیقه، کابل SP B را از PDU  قطع کنید.

در حال حاضر شما VNX را خاموش کردید و برای ادامه به مرحله ۵ بروید.

۵- مراحل زیر را برای قطع برق از هرData Mover و Control Station ادامه بدهید.

a ) برای هر Data Mover Enclosure  برق و Fault LED ها را چک کنید.

 

یک DME  ای که به صورت موفقیت آمیز خاموش شده است Amber Fault LED  روشن شده و Enclosure Power LED  دیگر روشن نیست.

به علاوه در پشت دستگاه  Fault LED در Management Module  هر DME  روشن است.

b ) بعد از اطمینان از خاموش بودن هر DME، کابل تمامی DME ها را از PDU ها جدا کنید. هر DME دارای ۲ کابل برق دارد.

c ) تمامی LED های جلوی هر Control Station  را چک کنید.

 

تنها LED  مربوط به Networking  باید در این حالت روشن باشد ( LED شماره ۶ در تصویر فوق ) و تمامی LED  های دیگر باید خاموش شده باشند.

d ) بعد از مطمئن شدن از خاموش بودن هر CS کابل برق مربوط به هرCS  را از آن جدا کنید.

۶-  اگر DAE های جداگانه هم وجود دارد کابل برق هر یک را از PDU بکشید. این کار باعث خاموش شدن DAE میشود.

Fast VP : اجازه دهید کارش را انجام دهد!

تمامی دیتا ها به طور یکسان مورد دسترسی قرار نمی گیرند. بعضی از دیتاها بصورت مداوم و بعضی دیگر به ندرت نیاز به دسترسی دارند. با توجه به معرفی و رونمایی قابلیت  FAST VP در رده های CX4، VNX و VNX2، از آن پس تولید یک Storage Pool که شامل خانواده های متفاوت هارد دیسک ها باشد، ممکن شد. سیستم تمامی LUN های شما را به قطعات کوچک ( Slice ) خرد می نماید و به هر Slice، یک درجه ( درجه دمایی ) از سطح دسترسی، اعطا می شود. به عنوان نمونه Slice هایی که مداوما مورد دسترسی قرار می گیرند را Hot Slice، و آنهایی را که به ندرت مورد دسترسی قرار می گیرند را Cold Slice می نامند. پروسه FAST VP داده های Hot را به سریعترین لایه موجود ( به عنوان مثال SSD ) انتقال می دهد. زمانی که سریعترین لایه موجود به لحاظ ظرفیت تکمیل شد، آنگاه FAST VP داده های HOT بعدی را به سریعترین لایه بعدی ( به عنوان مثال SAS ) منتقل می نماید و به همین ترتیب.  شاید این موضوع برای TCO یا همان Total cost of ownership، شما بسیار شگفت انگیز باشد، زیرا که : تمامی داده های Cold شما اکنون بروی Slice های از روی هارد دیسک های NL-SAS شما نگهداری می شود و برای نگهداشت آنها از هارد دیسک های SSD گران قیمت هزینه نمی شود و بدین گونه هزینه کلی نگهداشت داده ها به شدت کاهش می یابد، ضمن اینکه کاربر نهایی شما نیز به هیچ وجه متوجه این فرآیند نمی شود. در این فرآیند تنها یک سناریو نادر وجود دارد که ممکن است شما را به چالش بکشد و آن استفاده سنگین از داده های ارشیو شده موجود بروی لایه Cold است.

  • جابجایی Slice ها توسط FAST VP

همانگونه که ذکر شد FAST VP فرآیندی است که LUN ها را به Slice هایی تبدیل می کند. در رده CX4 و نسل اول VNX، تمامی Slice ها دارای سایزی برابر با ۱ GB بودند ولیکن در VNX2 با بهره گیری از تکنولوژی MCx از Slice هایی با سایز ۲۵۶ MB بهره می برد. تجهیز شما بصورت مداوم مقدار I/O که بسوی یک Slice می رود را پایش می کند و بدین شیوه یک درجه از سطح دسترسی را برای آن Slice مشخص می نماید. در هر روز در زمان برنامه ریزی شدی خاصی Slice ها بنا به درجه حرارتشان به یکی از لایه های موجود منتقل می شوند. پس به خاطر داشته باشید که فرآیند FAST VP یک فرآیند Post Process است. FAST VP تلاش می کند تا آنجایی که امکان دارد داده ها را در ابتدا بروی سریعترین لایه نگه دارد. به عنوان نمونه اگر شما یک Storage Pool با ۱۰ TB لایه SSD و ۲۰ TB لایه SAS داشته باشید و بخواهید تنها ۵ TB داده را بروی آن نگه دارید، آنگاه Fast VP تمامی ۵ GB داده را بروی لایه SSD نگه می دارد ( البته با توجه با Policy پیش فرض ). همچنین FAST VP همیشه ۱۰% فضای هر لایه ( Tier ) را خالی نگه می دارد تا به هنگام تولید Slice برای Thin LUN ها و یا تولید یک LUN جدید، دچار چالش نشود.

حال این سناریو را متصور شوید : یک سرور و یا نرم افزار شروع به تولید حجم بالایی از I/O میکند. Slice ها به سریعترین لایه موجود تحویل می شوند، تجهیز دارای عملکرد مناسبی است و Response Time به سرور و یا نرم افزار کاملا قابل قبول است. در مابقی روزهای ماه سرور یا نرم افزار بنا به دلایلی مورد استفاده قرار نمی گیرد. داده ها شروع به سرد شدن می کنند و به Clod Slice تبدیل می شوند و آنگاه FAST VP آنها را به لایه هارد دیسک های NL-SAS منتقل می نماید. در شروع ماه آینده نرم افزار مجددا به فعالیت خود بازگشته و شروع به تولید حجم بالایی I/O می کند. در اینجا ممکن است تا حدی از این بار تحمیلی را بتوان توسط FAST Cache سریعا مدیریت نمود، اما FAST VP برای مدیریت این حجم بالا نیاز به زمان برای انجام انتقال Slice ها بین لایه ها دارد که معمولا به معنای مدت زمان حدودی، یک روز است. پس در روز اول انجام فعالیت و زمان پاسخ دهی به نرم افزار مناسب نیست و عموما به همین دلیل مدیران این گونه نرم افزارها در این موارد اظهار نارضایتی می کنند.

 برای مدیریت و حل اینگونه مسائل میتوانید Tiering Policy LUN خود را بدین گونه تنظیم نمایید : Auto – Tier

در حالت معمول این Policy بروی گزینه ” Start High Then Auto-Tier ” قرار دارد. اگر نرم افزار شما به گونه ای که در بالا ذکر شد رفتار نماید، شاید شما وسوسه شوید که با انتخاب گزینه ” Highest Tier ” از FAST VP بخواهید که تمامی Slice های داده هایتان را بروی سریعترین لایه خود نگه دارد و بدین شیوه خود را دچار چالش نکنید. اما باید به خاطر داشته باشید که به این شیوه شما Slice هایی از داده های خود را بروی این Tier نگه می دارید که ممکن است هیچ نیازی به سرعت نداشته باشند. و چالش دیگر اینکه Hot Slice های مربوط به LUN های دیگر به دلیل نبود فضا روی سریعترین Tier، به ناچار به یک Tier پایین تر ارسال می شوند. مشکل زمانی بیشتر می شود که شما دارای هر سه لایه در یک POOL هستید یعنی : SSD، SAS ، NL-SAS . هیچ راهی ( تا کنون ) برای چسباندن یک LUN بروی لایه میانی وجود ندارد و انتخاب گزینه ” Highest Tier ” در یک Pool با سه لایه بمعنای انتقال تمامی داده های LUN به هارد دیسک های SSD است که درست است که بسیار سریع هستند ولیکن بسیار هم گرانند. و این بمعنای TCO بالا می باشد.

مدتی پیش در حال بررسی تجهیز یکی از مشتریان بودم و متوجه شدم گه هر شب مقدار بسیار بزرگی از داده ها توسط FAST VP بین لایه ها منتقل می شوند. من میدانم که در هارد دیسک های مکانیکی، اصلی ترین دلیل عملکرد سرعت چرخش موتور یا همان Spindle است. با بررسی وضعیت و تعداد هارد دیسک های این مشتری متوجه شدم که با توجه به نیاز به ظرفیت بالا، مشتری عموما هارد دیسکهای خود را از نوع NL-SAS انتخاب نموده و تنها تعداد کمی هارد دیسک SAS را خریداری کرده است. یک نکته ساده ولیکن مهم را به شما پیشنهاد می کنم: ” با خرید تعداد هارد دیسک بیشتر و سریعتر، عملکرد Tier را افزایش دهید. ” لطفا گراف ذیل را بررسی نمایید :

 

 همانگونه که مشاهده می فرمایید، لایه Performance دارای Slice های زیادی به رنگ قرمز ( Hot ) ، مقداربسیار کمی به رنگ نارنجی و مقداری نیز به رنگ زرد و سبز، می باشد. لایه Capacity نیز دارای Slice هایی به رنگ قرمز، مقداری نارنجی  و قدری زرد، است. مسلما متوقع هستیم که تمامی Slice های قرمز و نارنجی بروی لایه Performane منتقل شود، ولیکن این امکان پذیر نیست چرا که فضای موجود در لایه Performance توسط Cold Slice ها ( سبز ) اشغال شده و با توجه به Policy انتخاب شده، در واقع Sile های سبز به این لایه دوخته ( Pinned ) شده است.

 نکته دیگر اینکه : حتی اگر Hot Slice های لایه Capacity نیز اجازه انتقال به لایه Performance را داشته باشند، فضای کافی برای همه آنها وجود ندارد. در لایه Performance حدود ۸۰۰۰ عدد Slice به رنگهای غیر قرمز وجود دارد در حالیکه در لایه Capacity بیش از ۱۰/۰۰۰عدد Slice نارنجی و قرمز وجود دارد. پس کماکان به شما توصیه می کنم در صورت استفاده از FAST VP ، از تعداد متناسب هارد دیسک SAS بهره ببرید.

اکنون ممکن است که شما بخواهید بدانید، که کدام LUN ها هستند که بطور نسبی، شامل Cold Slice است و مثلا آنها را به لایه Capacity روی تجهیز خود Pin نمایید. خوشبختانه برای این موضوع نیز یک گزارش دیگر وجود دارد، که LUN ها و Slice ها و دمای هر Slice را نمایش می دهد. بدین گونه شما با بررسی LUN ها و یافتن بیشترین Cold Slice ها می توانید دریابید که کدام LUN در حال به هدر دادن فضای لایه های سریع شماست و آن LUN را به لایه های کم سرعت تر خود Pin نمایید. تصویر ذیل وضعیت LUN های Pin شده را نمایش می دهد. همانگونه که مشاهده می نمایید یک LUN کاملا قرمز است. این LUN در سریعترین لایه باقی می ماند اگر حتی شما Policy مربوط به Auto Tiering را هم فعال نمایید. هر دو LUN موجود در سمت چپ تصویر دارای تعداد زیادی Cold Slice ( رنگ سبز ) هستند. در این مورد فعال نمودن گزینه Auto Tiering باعث می شود تمامی این Slice ها به لایه Capacity انتقال داده شوند و روی لایه Performance فضا برای قرار گیری Hot Slice های جدید تامین شود.

 با توجه به این نمودارها ممکن است شرایط معکوس نیز رخ دهد و با خود بگویید : ” داده های Hot ( نارنجی ) روی لایه Capacity موجود است که بایستی به لایه Performance منتقل شوند. بهتر است بعضی از Lun ها را از روی این لایه Unpin کنم تا به Hot Slice های آنها به لایه Performance مهاجرت کنند. “

 

با افزایش و اعطای فضای کافی به لایه Performance مربوط به آن Pool، این امکان را فراهم آورد که اینگونه Hot Slice ها، در اولین فرآیند انتقال، به لایه Performance منتقل گردند. بررسی های بعدی مشخص نمود که این LUN ها بخشی از محیط مورد استفاده برای تبادل داده بوده اند که بسیار نیز کند بوده اند. همچنین ذکر این نکته نیز لازم است که این LUN دارای مقدار زیادی از داده های کم مصرف ( طوسی ) نیز بوده اند. این بهترین مثال برای تشریح عملکرد FAST VP و نحوه صرفه جویی حاصل از بهره مندی از آن است. با بهره مندی از FAST VP این داده های طوسی به هارد دیسک های لایه Capacity منتقل می گردند و بدین گونه دیگر شما داده های کم مصرف خود را بروی هارد های سریع و گران خود نگه نمی دارید و هزینه کمتری را صرف خرید هارد دیسک های سریع می کنید.

  • طراحی Storage Pool

در طراحی یک Storage Pool شما می توانید Pool هایی با یک، دو و یا سه Tier طراحی نمایید. در شرایطی که بار تحمیلی به Storage قابل پیش بینی و یا ثابت باشد، انتخاب یک Pool سه لایه، همیشه بهترین انتخاب است : مقدار کم هارد دیسک های SSD موجود در Pool می تواند پاسخگوی داده های کاملا Hot باشد و داده های های تقریبا بیکار نیز بروی هارد دیسک های NL-SAS قرار می گیرند و از لایه میانی با هارد دیسک های SAS جهت سرویس دهی به مابقی داده ها استفاده می کند. قطعا تایید می کنید که محیط عملیاتی با محیط آزمایشگاهی کاملا متفاوت است، پس در محیط واقعی قطعا با نوسانات زیاد WorkLoad و یا تغییر ماهیت Slice ها از داده های Hot به Clod یا بلعکس  و بصورت مداوم بین لایه های مختلف بالا و پایین شوند.

شما بایستی نسبت به خواسته های نرم افزارتان از Storage بسیار آگاه و مظلع باشید.  به عنوان نمونه اگر شما یکی از آن دسته نرم افزارهایی داشته باشید که در ماه یکبار Workload بسیار زیادی را به Storage وارد می نماید و در مابقی روزهای ماه کاملا بیکار است و استفاده از هارد دیسکهای SAS کاملا پاسخگوی نیاز نرم افزار در روزهای پرکار خود است، پیشنهاد بنده استفاده از یک Pool بدون بهره گیری از هارد دیسکهای NL-SAS است. شاید شما بخواهید با استفاده ار فوت و فنهای FAST VP و بهره مندی از Policy های متفاوت آن، بخواهید داده های خود را به سریعترین Tier خود Pin نمایید، اما اگر شما یک Pool سه لایه با استفاده از هارد دیسک های SSD داشته باشید، آنگاه LUN مربوطه تمامی ظرفیت SSD ها را به خود اختصاص می دهد و باعث کندی عملکرد دیگر LUN ها خواهد شد. متاسفانه تا کنون هیچ Policy برای لایه میانی ( Middle Tier ) وجود ندارد و تنها می توان از Policy های :

  • Auto-Tier
  • Highest Tier
  • Lowest Tier
  • No Data Movement

استفاده نمود.

این موضوع می تواند تاثیر مستقیمی در طراحی، تعداد و نوع لایه های Pool ها داشته باشد. برای مثال ممکن است یک Pool با استفاده از هارد دیسک های SAS و SSD برای پاسخگویی به Workload های بحرانی و یا پر نوسان، یک Pool با سه لایه برای مصارف عمومی و یا حتی شاید یک Pool با هارد دیسک هایی از جنس SAS و NL-SAS برای نگهداری و آرشیو داده های کم اهمیت تر. متاسفانه در زمان طراحی، شما باید در خصوص نوع و طراحی Pool ها و ظرفیت مورد نظر خود بسیار وسواس به خرج دهید، زیرا که در حال حاضر تنها راه اصلاح نمودن چیدمان هارد دیسک ها، انتقال داده های کنونی از روی Pool موجود به محل دیگر، از بین بردن Pool و تولید مجدد Pool با ساختار جدید و یا Expand نمودن Pool موجود است. ولیکن در هر حال احتیاج به تولید نسخه پشتیبان از داده ها ضروری است و وقتی از چند ترابایت داده حرف می زنیم این موضوع بسیار چالش انگیز می شود.

نکته اخلاقی که می توان از این داستان دریافت!! اینست که : اجازه بدهید که FAST VP کارش را انجام دهد! هر چقدر که شما LUN های بیشتری را به سریعترین لایه Pin نمایید، فضای پر سرعت کمتری را برای FAST VP باقی می گذارید تا FAST VP بتواند Hot Slice های خود را بروی آنها جای دهد. بدین شیوه در واقع شما به FAST VP می گویید: ” من بهتر از تو می فهم!”. همانگونه که از تصویر بالا  درمی یابید، عموما اینگونه نیست و عملکرد FAST VP بسیار بهتر و صحیح تر از انتخاب های ماست.

تضاد مابین یک طراحی با تعداد بالای LUN های Pin شده به سریعترین لایه را با طراحی با تعداد کمتر LUN های Pin شده را در تصویر زیر ببینید.

 

تقریبا هیچ Slice قرمز و یا نارنجی بروی لایه Capacity وجود ندارد و تنها یک بخش بسیار کوچک از Slice های سبز بروی لایه Performance موجود است. همچنین با مشاهده این تصویر می توان بسرعت در خصوص هارد دیسک های NL-SAS دریافت که : این هارد دیسک ها IOPS نسبتا کمی را جذب نموده اند و هنوز امکان جذب IOPS بیشتری را دارند.

بسیار خوب، نظر شما درباره FAST VP و Storage Pool ها در رده VNX چیست؟ چگونه آنها را طراحی می نمایید؟ آیا LUN های زیادی را به سریعترین لایه Pin می نمایید؟ یا اجازه می دهید که FAST VP کار خودش را انجام دهد؟ لطفا در این خصوص نظرات خود را با دوستان به اشترک گذارید.

بررسی Hot Spare و MCx Drive Mobility در VNX2

یک تغییر بزرگ در رده VNX2 نسبت به نسل پیشین خود یعنی VNX، جایگزینی Hto Spare Policy بجای انتخاب دائمی هارد دیسک Hot Spare است. در حالیکه در مدلهای پیشین می بایستی هارد دیسک های Hot Spare اختصاصی و از پیش تنظیم شده ای می داشتند که تنها در هنگام بروز خظا در یک هارد دیسک، مورد استفاده قرار می گرفتند، در رده VNX2 از هر هارد دیسک واجد الشرایط، استفاده نشده می توان بعنوان Spare بهره برد. در این آموزش سعی دارم تا مواردی را نظیر یافتن درایو جایگزین شده، یافتن درایو معیوب، عودت داده ها از درایو Hot Spare به درایو اصلی و .. را، ارائه نمایم.

  • یافتن دیسک اصلی و Hot Spare

برای مثال این سیستم را که دارای یک Pool شامل ۵۰ عدد هارد دیسک ۶۰۰ GB ، با سایز فیزیکی “۲.۵ و ۲ عدد هارد دیسک Unbound به عنوان Hot Spare است را در نظر بگیرید. در ابتدا هارد دیسک شماره ۱_۰_۱۹ دچار خظا های Soft-Media می شود و در نهایت از بین می رود. فرآیند Rebuild هارد دیسک شماره ۱_۰_۲۴ را انتخاب می نماید و شروع به بازسازی داده های می نماید. دو روز بعد هارد دیسک ۱_۰_۲۴ نیز خطاهایی را نشان می دهد تا در نهایت این هارد دیسک نیز از بین می رود. آنگاه VNX2 هارد دیسک ۰_۰_۴ را برای بازسازی داده ها در نظر می گیرد. داده هایی که اکنون بروی هارد دیسک ۰_۰_۴ هستند، دیگر بروی هارد دیسک جایگزین شده ۱_۰_۱۹ بر نمی گردند! این شیوه عملکرد Hot Spare در محصولات رده VNX2 است.پس شما چگونه می توانید دریابید که MCx داده های شما را به کدام دیسک جابجا کرده است؟ الان وقت آن است که به بررسی SP Event Log ها بپردازیم.

در Unisphere به آدرس زیر بروید :

System > Monitoring and Alerts > SP Event Logs

هر دوی SP Event Log ها را باز کنید. در مورد بررسی شده توسط بنده، Hot Spare Alert ها در SP B می باشد. شما می توانید زمان و تاریخ خرابی هارد دیسک را برا اساس زمان Alert بیابید. تا یافتن چیزی شبیه تصویر زیر به جستجو ادامه دهید.

 

همانگونه که ملاحظه می فرمایید هار دیسک ۱_۰_۱۹ تولید Alert کرده ( تا خظ شماره ۷۶۰ ) و آنگاه دیسک ۱_۰_۲۴ جایگزین آن شده است. ما می توانیم به همین شیوه نیز جیگزینی هارد دیسک دوم را نیز رصد کنیم.

خط ۳۱۷ در بالا نشان می دهد که در حال بازسازی داده های هارد دیسک ۱_۰_۲۴ بروی هارد دیسک ۰_۰_۴ می باشد. اگر شما می خواهید که تنها Event های مربوط به فرآیند Rebuild را مشاهده نمایید، می تواند در لیست Event ها، کد 0x7168 را Filter نمایید. حتی بدین گونه می توانید دریابید که آیا فرآیند Proactive Drive Replacement  نیز آغاز شده است و یا خیر؟.  برای نمونه در خطای اولیه دیسک، دیسک ۱_۰_۱۹ تنها دچار خطا شده در حالیکه در خطای دوم فرآیند Proactive Copy  آغاز شده است. ( و تا کنون نیز به اتمام نرسیده است. )

 

در بیشتر موارد، شما تنها دیسک معیوب را با دیسک جایگزین تعویض نموده و سیستم به فعالیت خود بدون هیچگونه مشکای ادامه می دهد. اما اگر به هر دلیلی نیاز داشتید داده ها را بروی دیسک ۱_۰_۱۹ باز گردانید، آنوقت چکار باید کرد؟

  • قابلیت MCx Drive Mobility

برای بازگرداندن داده ها به دیسک اصلی دو راهکار وجود دارد. اول اینکه شما می توانید با استفاده از دستور Copytodisk بدون نیاز به ترک صندلی تان (  خوشبختانه )، داده ها را به هارد دیسک اصلی بر گردانید. اما بیاد داشته باشید که این فرآیند بار زیادی را به تجهیز تحمیل می دارد، پس در این خصوصص دقت لازم را بعمل آورید. راهکار دیگر استفاده از قابلیت MCx Drive Mobility است. بدین گونه که یک هارد دیسک را بمدت کمتراز ۵ دقیقه از تجهیز خارج نموده و مجددا آن را به تجهیز متصل نمایید تا تجهیز شما مجددا آنرا شناسایی نماید. بدون فرآیند Rebuild، سریع و ساده! . قابلیت MCx Drive Mobility با استفاده از شماره سریال هارد دیسک ها اعضای موجود در یک Pool را شناسایی می نماید و بر خلاف نسل پیشین خود VNX با جانمایی و محل فیزیکی قرار گیری هارد دیسک ها هیچ کاری ندارد. پس با خیال راحت می توانید هارد دیسک ها را در VNX 2 به لحاظ جانمایی به سادگی و حتی مابین DAE ها مختلف و بدون ریسک از دست رفتن داده ای موجود بروی آنها، جابجا نمایید. تنها این نکته را رعایت نمایید ” قبل از ۵ دقیقه دیسک را مجددا به تجهیز متصل نمایید “. و همینطور قبل از انجام هر کاری مطمئن شوید که فرآیندهای Rebuild به اتمام رسیده باشند و مطمئن شوید که هیچگاه دیسکی را کهه در حال Rebuildd است، را از تجهیز خارج نکنید. می توانید با استفاده از دستور زیر

naviseccli -h getdisk -rb

به عنوان نمونه

getdisk 0_0_4 –rb

از وضعیت و نحوه پیشرفت فرآیند Rebuild مطلع گردید. آنگاه، جای هارد دیسک ها را با یکدیگر جابجا نمایید و آنگاه Log نشیر تصویر ذیل خواهید دید.

 

به نظر بنده، قابلیت MCx Drive Mobility یک قابلیت شگفت آور است ولیکن قطعا بنده به هیچ کس توصیه نمی کنم که در محیطهای عملیاتی هارد دیسکهای خود را جابجا نماید. به خصوص DAE های ۲.۵ اینچی با ۲۵ عدد هارد دیسک کوچک، که بدلبل اندازه فیزیکی کوچک و تعداد بالا احتمال اشتباه را بیشتر می کند. همچنین این نکته را بیاد داشته باشید که چون شما در حال جابجا نمودن هارد دیسک های سالم هستید، دیگر LED با رنگ نارنجی نیز به عنوان راهنمای شما وجود ندارد. هر کس که کم و بیش با VNX کار کرده باشد می داند که شروع اعداد از صفر است، حال فرض کنید که شخصی به اشتباه از ۱ شروع به شمارش نماید و اشتباهاتی از این دست. پس مجددا توصیه می کنم : تا هنگامی که به کاری که انجام می دهید اشراف کامل ندارید و یا توجه کامل را ندارید، از دستور copytodiskاستفاده نمایید.

بررسی FAST Cache

تکنولوژی FAST Cache در EMC قابلیت بهبود عملکرد و سرعت را با استفاده از Flash دیسک ها بعنوان Secondary Cache، برای VNX به ارمغان می آورد.FAST Cache دست در دست DRAM گذاشته و باعث بالارفتن عملکرد کلی Storage می گردد. EMC توصیه می کند که در ابتدا از FLASH دیسک های خود بعنوان FAST Cache استفاده نمایید و آنگاه در صورت نیاز به سرعت و عملکرد بالاتر، از Flash دیسکها در FAST VP بهره ببرید. FAST Cache در تمامی مدلهای VNX  و همچنین CX4 وجود دارد و تنها برای بهره برداری از آن، نیاز به نصب Enabler آن است. FAST Cache می تواند هم در Traditional RAID ها و هم در Storage Pool ها استفاده شود.

نکته : FAST Cache در سطح POOL Wide Level است و نمی توان آن را تنها برای یک LUN خاص فعال نمود.

انجام تنظیمات اولیه FAST Cache بسیار ساده است. پس از افزودن تعداد لازم Flash دیسک، با مراجعه به ” Sysytem Properties ” در Unisphere می توانید با انتخاب هارد دیسک ها، Fast Cache را برای تجهیز VNX خود فعال نمایید.

و یا می توانید با استفاده از دستورات Navicli اقدام به انجام تنظیمات اولیه و مانیتور کردن FAST Cache نمایید. برای فعال کردن FAST Cache می توان از دستور زیر استفاده نمایید :

 

naviseccli -h SPA_IP cache -fast -create –disks disks -mode rw -rtype r_1

 

می توانید وضعیت FAST Cache خود را با دستور زیر مشاهده نمایید :

naviseccli -h SPA_IP cache -fast -info –status

 

اگر می خواهید FAST Cache را بروی یک Pool خاص، فعال و یا غیر فعال کنید، از دستور زیر استفاده نمایید :

naviseccli -h SPA_IP storagepool -modify -name “Pool_Name” -fastcache off/on

 

و برای بررسی اینکه FAST Cache بروی کدام Pool ها فعال است :

naviseccli -h SPA_IP storagepool -list –fastcache

 

اگر FAST Cache نیاز به هرگونه تغییری در ساختار داشته باشد، نیاز است که در ابتدا FAST Cache غیر فعال شود. غیر فعال کردن FAST Cache بمعنای حذف و پاک کردن تمامی Dirty Block ها موجود در FAST Cache و نوشتن تمامی آنها بروی هارد دیسک ها می باشد. بعد از غیر فعال شدن کامل FAST Cache، شما می توانید با آرایش مورد نظر، مجددا FAST Cache را راه اندازی نمایید.

 

گزینه های تنظیمات

بازه قابل استفاده FAST Cache بروی محصولات EMC، می تواند از ۱۰۰GB در CX4-120 شروع و تا ۴.۲ TB در VNX-8000 خاتمه یابد. با هم نگاهی به ظرفیتهای قابل پشتیبانی توسط هر تجهیز می اندازیم :

CX4 Systems:

CX4-120 – ۱۰۰GB

CX4-240 – ۲۰۰GB

CX4-480 – ۸۰۰GB

CX4-960 – ۲۰۰۰GB

VNX1 Systems:

VNX 5100 – ۱۰۰GB

VNX 5300 – ۵۰۰GB

VNX 5500 – ۱۰۰۰GB

VNX 5700 – ۱۵۰۰GB

VNX 7500 – ۲۱۰۰GB

VNX2 Systems:

VNX 5200 – ۶۰۰GB

VNX 5400 – ۱۰۰۰GB

VNX 5600 – ۲۰۰۰GB

VNX 5800 – ۳۰۰۰GB

VNX 7600 – ۴۲۰۰GB

VNX 8000 – ۴۲۰۰GB

 

نکته : توجه داشته باشید که نه تنها برای ظرفیت، بلکه برای تعداد Flash دیسکهای حاضر در FAST Cache نیز محدودیت وجود دارد. برای نمونه می توانید به تصویر زیر مراجعه نمایید.

 

دیسک های FAST Cache بصورت RAID 1 یا همان Mirror هستند. این موضوع به دلیل این واقعیت است که دیسک های FAST Cache دارای I/O بسیار شدیدی هستند و باعث تولید حجم I/O بیش از بیشینه توصیه شده بروی هر BUS می گردند. تعداد دیسک های FAST Cache در ازای هر Back End BUS در هر سییستمی متفاوت است ولی ایده آل آن در CX/VNX1 برابر ۴ دیسک در ازای هر BUS و در VNX2 این مقدار برابر با ۸ دیسک. است در مورد CX/VNX1 این دستورالعمل وجود دارد که نباید یکی از این زوج هارد دیسک های Mirror شده برای FAST cache، بروی یک DAE و زوج دیگر آن بروی DAE دیگر قرار گیرد.

ترتیب هارد دیسک های که در FAST Cache مورد استفاده قرار می گیرند بدین شکل است :

اولین دیسک، اولین Primary

دومین دیسک، اولین Secondary

سومین دیسک ، دومین Primary

چهارمین دیسک، دومین Secondary

و به همین ترتیب …….

شما می توانید با استفاده از دستور زیر این RAID 1 های داخلی FAST Cache راببینید :

naviseccli -h SPA_IP getrg –EngineeringPassword

 

نکته : هیچ گاه در خصوص هارد دیسک های مورد استفاده در FAST Cache از ترکیب ظرفیتها مختلف هارد دیسک مثلا ۱۰۰GB به همراه ۲۰۰ GB استفاده نکنید. در تجهیزات رده VNX دو نوع SSDD وجود دارد :

FAST Cache SSD : از نوع Single-Level Cell یا همان SLC ها می باشند. این Flash دیسک ها برای FAST Cache در نظر گرفته شده اند و در ظرفیتهای ۱۰۰ GB و ۲۰۰ GB موجود هستند. البته از این نوع Flash دیسک ها نیز می توان در Tier 1 قابلیت FAST VPP نیز استفاده نمود.

FAST VP SSD : از نوع Enterprise Multi-Level Cell یا همان eMLC ها می باشند. این Flash دیسک ها برای استفاده در Tier 1 قابلیت FAST VP در نظر گرفته شده اند. از آنها نمی توان برای FAST Cacheاستفاده نمود. این دیسک ها در ظرفیتهای ۱۰۰ GB، ۲۰۰ GB و ۴۰۰ GB موجود هستند.

 

نمونه ای از چیدمان هارد دیسک های FAST Cache در VNX 8000

 

تصویر زیر یک نمونه از یک VNX 8000 با بیشینه FAST Cache قابل پشتیبانی ( ۴۲ x 200 GB ) است. همانگونه که مشاهده می کنید، با توجه به وجود ۱۵ عدد DAE و یک DPE، سعی شده تا جای ممکن حجم I/O هارد دیسک های FAST Cashe، بروی تمامی BE ها توزیع شود تا بتوان به کمترین Latency ممکن دست یافت.

درون FAST Cache

Fast Cache بر پایه تکنولوژی ” Unified LUN ” تولید شده است؛ در نتیجه تمامی اطلاعات درون FAST Cache از دسترسی توسط تمامی دیگر LUN های درون تجهیز CX/VNX محفوظ است. FAST Cache یک حافظه Nonvolatile ( غیر فرار ) است که می تواند از قطع برق و یا خرابی SP، بدون مشکل گذر کند و همچنین بر خلاف DRAM پس از قطع / وصل برق نیازی به انجام فرآیند Re-Warm ندارد.

به هنگام تولید FAST Cache بخشی از DRAM برای رهگیری IO درون FAST Cache که به Memory Map نیز معروف است، اختصاص داده می شود. این Bitmap از FAST Cache دقیقا متناسب با سایز FAST Cache است. این جانمایی Memory چیزی در حدود ۱ MB در ازای هر ۱ GB از FAST Cache است.

با یک حجم بار سازگار، FAST Cache می تواند با کاهش Response Time ، عملکرد و سرعت تجهیز را افزایش دهد و IOPS بیشتری را تولید نماید.

SP ها قادرند تا با استفاده از DRAM خود، پردازشهای خود را Cache نماید، همچنین SP می تواند فرامین Write خود را یکی نماید و یا جهت افزایش سرعت Read از فرآیند Pre-Fetch استفاده نماید. اما به هر حال این عملیاتها نمی توانند جوابگوی I/O بسیار بالای Read با دسترسی تصادفی باشند و اینجاست که FAST Cache به ما کمک می کند. FAST Cache با پایش I/O روی SP ها و یافتن Block هایی که بصورت مداوم Read/Write روی آنها صورت می گیرد، با یک برنامه زمان بندی شده آنها را به FAST Cache تجهیز Promote می نماید.

 

افزایش سرعت فرآیند FLUSH

یک موضوع که لازم است یادآوری شود اینست که زمانی که سرعت VNX افزایش می یابد و IOPS و به طبع آن حجم بار تحمیلی افزایش می یابد، این به معنای فشار بیشتر به CPU هر SP است که در این شرایط CPU ها باید مدام تحت نظر گرفته شوند و مانیتور شوند. در خصوص حداکثر بار تحمیلی به CPU ها نیز راهنما ها و دستر العمل های وجود دارد، که در آینده نزدیک آنها را با شما به اشتراک می گذارم.

همچنین نوع بار تحمیلی به LUN برای فعال/غیر فعال بودن Fast Cache نیز، مهم است. به عنوان نمونه log file ها معمولا بصورت Sequentially روی LUN شروع به READ/Write میکنند.  در این سناریو، این LUN انتخاب مناسبی برای FAST Cache نیست زیرا که Flash دیسکها در برخورد با بلاک های بزرگ، تفاوتی زیادی به لحاظ سرعت با دیسکهای چرخشی ندارند.

همچنین توصیه می شود که Block های بزرگ با نوع دسترسی Sequential، بهتر است توسط زیاد هارد دیسک سرویس دهی شوند. ارائه این نوع Block ها به FAST Cache یعنی نگهداری انها روی تعداد کمی هارد دیسک و این یعنی، کاهش عملکرد تجهیز. عدم استفاده از Fast Cache برویLUN های غیر مناسب، می تواند باعث کاهش فرآیند رهگیری و Promote به FAST Cache شود تا این توان تجهیز در جای مناسب تری هزینه شود.