یک از موارد مورد استفاده از VNX Snapshot ، ارائه نمودن یک Snapshot بعنوان یک Standard LUN است. برای انجام اینکار، یک Snapshot باید متصل شود، آنگاه SMP را می توان به یک LUN دیگر Migrate نمایید. اگر SMP که Migrate میکنید، خود دارای Snapshot های دیگری باشد، ( برای مثال Snapshot های تو در تو ) همه آن Snapshot ها حذف می شوند.
Mount SMP To Another Host
Mount SMP To Another Host
تصویر فوق را در نظر بگیرید :
Host1 یک سرور عملیاتی است که PrimaryLUN1 به آن ارائه شده و نرم افزار هایی را با آن LUN در حال اجرا دارد.
Host2 یک سرور بخش توسعه نرم افزار است. این سرور باید یک نسخه جدید نرم افزار را با استفاده از داده های عملیاتی اجرا نماید.
شما باید فعالیتهای زیر را انجام دهد :
یک Snapshot ( مثلا Snap2 ) از Lun عملیاتی PrimaryLUN1 بگیرید.
یک SMP از Snapshot مربوط به PrimaryLUN1 تولید نمایید.
SMP تولید شده را به Host2 ارائه نمایید. ( SMP را به Storage Group مربوط به Host2 اضافه نمایید.)
Snap2 را به SMP متصل کنید.
SCSI را روی Host2 را Rescan نمایید.
یک دیسک Local بروی سرور Host2 تولید نمایید.
از برخی نقطه نظرات SMP خود Snap می شود و ۱ تولید می شود.
بعد از اجرای موارد مختلف توسعه بروی نرم افزار، تصمیم گرفته می شود که بصورت یک LUN مستقل ارائه شود. برای انجام این کار فرآیند ذیل را پی بگیرید :
یک LUN جدید با همان سایز PrimaryLUN1 بسازید ( مثلا LUN Temp ). در نظر داشته باشید که الزامی نیست که LUN جدید حتما یک Pool LUN باشد و یا حتما در همان Pool مربوط به PrimaryLUN1 باشد.
یک Session برای Migration از SMP Name به LUN Temp اجرا نمایید.
زمانی که Migration به انتها رسید مجموعه ای از چیزهای مختلف رخ می دهد :
Snapshot که به SMP Name متصل بود، حذف می گرد.
LUN temp به SNP تغییر نام داده می شود و همه خصوصیات SCSI مربوط به Mount Point شامل WWN و حتی HLU-ID حفظ می شود.
Snap2.1 از بین می رود.
LUN Migration Of SMP
http://vcloudtip.com/vclcont/uploads/2015/09/smp-migration1-haepkoiexk.png631775فاطمه بیگلوhttp://vcloudtip.com/vclcont/uploads/2016/12/logo-vcloud-1.pngفاطمه بیگلو2015-09-30 15:00:022017-02-22 07:52:39تبدیل یک VNX Snapshot به Standard LUN
یکپارچگی میان vCenter و Unisphere می تواند مدیریت Storage را در محیط های مجازی بسیار ساده تر و روان تر نماید. EMC برای بهینه سازی کامل محصولات رده VNX خود با محیط های مجازی، VMware vStorage API for Array Integration و یا همان VAAI، را معرفی کرده است. این تکنولوژی بار تحمیلی از بابت تمامی عملیات مرتبط با امور ذخیرشی vMware را از روی سرور برداشته و بروی تجهیز Storage قرار می دهد. بدین گونه استفاده موثرتر از منابع سرور، خود سرور و منابع شبکه را جهت افزایش عملکرد و تثبیت شرایط، مهیا می نماید.
رده VNX همچنین (VMware vStorage API for Storage Awareness (VASA را پشتیبانی می کند که به تجهیز VNX اجازه می دهد که با vCenter Storage Profile ها ارتباط برقرار نماید.
سرورهای ESXi عموما به یک تجهیز VNX با سرویس Block از طریق FC، FCoE و iSCSI متصل می شوند. این تجهیز Block یک LUN را برای تولید VMFS datastores در اختیار هاست ESXi قرار می دهد. هاست از این فضا جهت ماشینهای مجازی و یا بعنوان یک (Raw Device Mapped (RDM برای یک ماشین مجازی استفاده می کند. البته بیاد داشته باشید که ESXi می تواند از طریق NFS نیز به یک VNX با سرویس File نیز، متصل شود.
EMC VSI
(EMC Virtual Storage Integrator (VSI ویژگی است برای ساده سازی مدیریت تجهیزات EMC در رده VNX . این قابلیت به vMware Admin اجازه تولید Datastore های NFS و یا VMFS و همینطور تولید RDM، مستقیما از درون vSphere Client می دهد. ( VSI نسخه مخصوصی برای vSphere Web Client نیز دارد.)
VAAI
(vStorage API for Array Integration (VAAI یک API است که برای حذف بار عملیات مربوط به امور ذخیرشی از روی هاستهای Esxi طراحی شده است. بدین ترتیب تجهیز Storage شما بعنوان یک سخت افزار شتاب دهنده برای امور ذخیرشی هاستها ESXi شما عمل می نماید. حذف بار امور ذخیرشی از روی سرورهای ESXi، باعث کاهش مصرف CPU، Memory و پهنای باند Fabric ( شبکه Storage ) می شود. بدین گونه است که بهره مندی از این قابلیت، به هاستها اجازه می دهد تا از توان پردازشی خود تنها برای ماشینهای مجازی بهره ببرند و این به معنای عملکرد بهینه تر است.
VAAI Operations
Array Accelerated Bulk Zero : همانگونه که می دانید در فایل دیسک یک ماشین مجازی ( VMDK ) هم فضای مصرف شده وجود دارد و هم فضای خالی. زمانی که از یک ماشین مجازی Clone می گیرد، این قسمت خالی نیز کپی می شود، که این خود مسبب تولید بسیاری فعالیتهای اضافی SCSI برای یک فضای خالی می شود. فرآیند Block Zeroing باعث کاهش دستورات و عملیات SCSI بروی سرور می گردد و تجهیز Storgae مسئولیت تولید این حجم بزرگ از داده های صفر ( جهت فضای خالی دیسک مجازی ) را بر عهده می گیرد و سرور ESXi تنها به هنگام Clone فضای پر دیسک مجازی درگیر امور ذخیرشی خواهد بود.
Full Copy : در هنگام تولید یک ماشین مجازی از یک Template، تمامی بار مربوط به امور ذخیرشی مستقیما توسط تجهیز Storage صورت می گیرد و به هیچ وجه از منابع هاست استفاده نمی شود.
Hardware Locking : حجم بار مکانیزم VMFS Volume Lock کاملا به تجهیز Storage منتقل شده و حتی در Sub Volume ها نیز اجرا شده است. این بمعنای استفاده بهینه تر از VMFS Volume به اشتراک گذاشته شده توسط کلاستر vMware است.
Thin Provisioning : وقتی که یک VM حذف می شود و یا از یک Thin LUN Datastore به محل دیگری Migrate می کند. فضای که استفاده شده بود، به فضای قابل استفاده در Pool اضافه می شود.
Stun And Resume : زمانی که یک Thin LUN بدلیل استفاده فضا توسط یک VM، پر می شود، آن VM برای جلوگیری از بروز اختلال در آن، Pause می گردد.و یک هشدار نیز برای Storage Administrator تولید می گردد.
VASA
(The VMware Aware Storage API (VASA یک قابلیت ویژه و یک پروتکل برای vMware است و از پروتکل لایه http برای ارتباط با محیط Storage بهره می برد.
VASA برای انتقال قابلیتهای Storage به درون vCenter طراحی شده است. VNX قادر است تا قابلیتهای نظیر وضعیت SPها، LUNها، I/O موجود بروی پورتها و فایل سیستم را به درون vCenter بیاورد. همچنین نمایش وضعیت سلامتی تجهیز، ظرفیت و هشدارها نیز از این طریق در vCenter قابل دسترسی می باشند.
جنبه کلیدی یکپارچگی با API اینست که، قابلیت تولید و استفاده از Profile برای تنظیمات وجود دارد. در این وضعیت شما می توانید با تولید یک Storage Profile برای نیازهای یک VM خاص طراحی نماید و زمانی که یک vMotion و یا Clone انجام دهید، Profile می تواند بر اساس تجهیز مقصد خود را تغییر دهد.
پس از انتخاب مقصد، سیستم بهترین محل به لحاظ وضعیت دیسک و فضای خالی روی مقصد را پیشنهاد می کند.
Storage Profiles همچنین به هنگام استفاده از Datastore Cluster در حالتی که SDRS فعال باشد، مورد استفاده قرار می گیرند. زمانی که Profile بخشی از Datastore Cluster می باشد، SDRS جانمایی داده ها را روی Datastore کنترل می کند.
قابلیتهای Storage همچنین در موارد دیگر نظیر تولید VM جدید، Migrate کردن VM نیز استفاده می شود.
http://vcloudtip.com/vclcont/uploads/2015/09/vmware_vaai_imag-irdtkselbl-e1482751648764.png197330فاطمه بیگلوhttp://vcloudtip.com/vclcont/uploads/2016/12/logo-vcloud-1.pngفاطمه بیگلو2015-09-30 14:50:102017-02-22 07:49:48پشتیبانی EMC VNX از vMware
Access Logix یک نرم افزار لایسنس دار برای Storage ها می باشد که قابلیت امکان دسترسی به داده ها درون تجهیز Shared Storage را از طریق Storage Group ها فراهم می آورد. این نرم افزار بروی تمامی Storage Processor ها فعال است.
Access Logix functionality :
LUN Masking : فرآیند است که طی آن یک LUN برای تعدادی از هاست قابل دسترس و برای دیگر هاستها غیر قابل دسترسی می شوند. در ادامه در این خصوص اطلاعات بیشتری ارائه خواهد شد.
‘Presents a ‘virtual storage system : با LUN Masking، LUNها تنها توسط سرورهایی که تایید شده اند قابل دسترسی هستند. در واقع با این شیوه یک Virtual Storage System تولید و به هر هاست عرضه می شود.
Maps VNX LUNs to host LUNs :ا Lun های VNX را که معمولا Array Logical Units و یا ALUs می نامند به LUN های هاست که Host Logical Units و یا HLUs نامیده می شود، متصل می نماید.
Manages Access Control List : دسترسی به LUN توسط اطلاعاتی که در جدول Access Logix نگهداری می شود، بررسی می شود. این جدول در یک فضای از پیش تعیین شده بروی دیسکهای VNX، بنام PSM LUN یا همان Persistent Storage Manager وجود دارد.
محدودیتهای Access Logix
هر هاست تنها می تواند در یک Storage Group در ازای هر Storage System حضور داشته باشد.
یک هاست می تواند حداکثر در چهارStorage System حضور داشته باشد.
تعداد هاستهای قابل پیش بینی در هر Storage System بستگی به مدل VNX دارد.
هر Storage Group تولید شده تنها بصورت Localy و بروی همان Storage System اعتبار دارد.
حداکثر تعداد LUN درون یک Storage Group، بستگی به مدل VNX دارد. به عنوان نمونه این عدد برای VNX 5500 برابر ۵۱۲ است.
Storage Group :
Storage Group مجموعه است از یک یا چند LUN که به یک یا چند هاست متصل شده است. به عبارت دیگر Storage Group بمانند یک یک ظرف است که در زمان تعریف آن :
لیستی از سرورها را در آن ظرف قرار می دهید.
لیستی از LUN ها را در آن ظرف قرار می دهید.
تمامی سرور ها که درون یک Storage Group هستند می توانند به تمامی LUN های درون آن، دسترسی داشته باشند. این فرآیند LUN Masking نام دارد.
LUN Masking و LUN Mapping
دیاگرام زیر یک Storage System را نمایش می دهد که به دو هاست متصل است. هر هاست یک Storage Group دارد. Storage Group A برای سرور A و Storage Group B برای سرور B . LUN های مورد استفاده بروی Storage Sysytem بصورت پیاپی از شماره ۰ الی ۷ می باشند. اما همیشه این اعداد بدین گونه پی در پی نیستند. ALU همان Array Logical Unit و HLU همان Host Logical Unit است. هر LUN بروی Storage System با یک LUN Number منحصر بفرد توسط هاستها دیده می شوند. این فرآیند اعطای شماره منحصر بفرد به هر LUN را LUN Mapping گویند.
این شماره دهی به LUN ها در یک جدول Translation که قسمتی از پایگاه داده Access Logix است نگه داری می شود.
http://vcloudtip.com/vclcont/uploads/2016/12/معرفی-Access-Login.png555924فاطمه بیگلوhttp://vcloudtip.com/vclcont/uploads/2016/12/logo-vcloud-1.pngفاطمه بیگلو2015-09-29 15:43:182017-02-18 17:35:52معرفی Access Logix، LUN Masking و Storage Groups
مفهوم Pool LUN را پیشتر در آموزش ” FAST VP چیست ؟ ” ارائه شد ولیکن اکنون قصد دارم کمی عمیق تر به بررسی و تحلیل این مفهوم بپردازم تا این مفهوم برای همه کاملا قابل درک شود.
Pool LUN کاملا شبیه Traditional LUNاست. برای مثال تمامی فعالیتهای Unisphere و یا دستورات قابل استفاده در Secure CLI هم برای Pool LUN و هم برای Traditional LUN قابل استفاده است.
تنها تفاوت اصلی میان این دو عبارتست از اینکه Traditional LUN مستقیما بروی یک Raid Group تولید شده اند در حالیکه Pool Lun ها یک اندازه منطقی هستند که از طرفیت Pool گرفته شده است. تولید LUN بروی یک Pool به ما قابلیتهای زیادی نظیر FAST VP ( در اینجا به آن اشاره شده است ) و یا انتخاب بین Thick و یا Thin را برای ما فراهم می آورد. بیاد داشته باشیم که Traditional LUN همیشه بصورت Thick هستند.
Thin LUN
تفاوت اصلی Thin LUN در مقایسه با Traditional LUN و یا Thick LUN ها در اینست که Thin Lun ها می توانند فضایی بیش از فضای فیزیکی یک Storage در اختیار نرم افزار ها و هاستها قرار دهند. این یعنی چه ؟ اجازه دهید با یک مثال این موضوع را برای شما توضیح دهم. فرض کنیم Admin لینوکس به یک LUN با ظرفیت ۶۰۰GB نیاز دارد، ما یک LUN از نوع Thin ساخته و در اختیار هاست قرار می دهیم. اگر این هاست لینوکسی تنها از ۳۰% ظرفیت خود استفاده نماید، یعنی حدود ۲۰۰GB ، آنگاه ۴۰۰GB دیگر موجود بروی Storage، کماکان توسط یک هاست دیگر قابل بهره برداری است. در حالیکه اگر از Traditional LUN و یا Thick LUN ها استفاده کنیم، استفاده هاست دیگر از فضای بلا استفاده هاست لینوکسی مقدور نیست.
این قسمت خوب این راهکار است. ولیکن بایستی بیاد داشته باشیم که اینگونه LUN ها دارای عملکرد و سرعت پایین تری نسبت به Lun های Thick هستند.
Thick LUNs
به هنگام ساخت Thick LUN ها، فضای مربوطه بصورت کامل از فضای فیزیکی موجود بروی Storage کسر می شود و در اختیار این گونه LUN ها قرار می گیرد. این بدان معناست که تمامی Slice های مورد نیاز ( تولید شده در فرآیند تولید Pool )، به LUN مربوطه اختصاص داده می شوند. یک Pool می تواند هم شامل LUN های Thin باشد و هم LUN های Thick . در هنگام بهره گیری از FAST VP، استفاده از LUN های Thick، پیامد و عملکرد مناسب تری دارد.
ساخت یک LUN بصورت Thin بسیار ساده است. با توجه به تصویر فوق به هنگام تولید یک LUN و با علامت گذاری Check Box نمایش داده شده در تصویر فوق، آن LUN به Thin تبدیل می شود. به همین سادگی. در اینجا لازم است مفهوم دو مقدار موجود در این قسمت را برای شما شرح دهم :
User Capacity : حداکثر فضای قابل استفاده توسط کاربر. در تصویر فوق این عدد برابر است با ۱۲۵۵۰.۴۶۵GB .
Consumed Capacity – مقدار فضای استفاده شده توسط کاربر. در تصویر فوق این عدد برابر است با ۵۹.۱۱۵ GB .
http://vcloudtip.com/vclcont/uploads/2016/12/FAST-Cache.png465797فاطمه بیگلوhttp://vcloudtip.com/vclcont/uploads/2016/12/logo-vcloud-1.pngفاطمه بیگلو2015-09-29 15:34:252017-05-02 05:45:56Pool LUNs چیست ؟ تفاوت Thin و Thick در چیست ؟
FAST VP مخفف عبارت Fully Automated Storage Tiering for Virtual Pools است. یک راهکار هوشمندانه که بصورت پویا داده ها را با توجه به نرخ دسترسی به آنها، بروی لایه های مختلف Storage جابجا می نماید. FAST VP هارد دیسک ها را به ۳ لایه مختلف ( در آموزش Storage Pools در مقابل RAID Groups توضیحات لازمه ارائه شده است. ) که به آنها Tier می گوید، تقسیم می کند :
Extreme Performance Tier – Flash drives
Performance Tier – ۱۵k and 10k SAS drives
Capacity Tier – NL-SAS drives (که می توانند تا ۴ ترابایت فضا داشته باشند)
مزیت اصلی FAST VP کاهش هزینه کل نگهداری داده ها است. FAST VP با ترکیب هارد های گران و ارزان می تواند یک فضای با سرعت بالا تولید نماید. ایده اصلی بر اساس این واقعیت است که، تنها بخشی ( که عموما هم بیش از ۵% نمی شود ) از کل داده بصورت مداوم مورد دسترسی قرار می گیرد. بر این اساس ما می توانیم اینگونه از داده ها را که ” دارای فعالیت زیادی ” هستند را بروی لایه پر سرعت یک Heterogenous Pools قرار داده و مابقی داده ها را بر اساس نرخ دسترسی بروی لایه های بهدی توزیع نماییم. تصویر زیر قبل و بعد از از این عمل را نشان می دهد.
Tiering policies
FAST VP یک قابلیت خودکار است که با تبعیت از یک سری سیاستهای تعریف شده از سوی کاربر، از جانمایی صحیح داده ها و عملکرد مناسب Storage اطمینان حاصل می کند. FAST VP با بهره مندی از الگوریتم های پیچیده و با توجه به نرخ دسترسی به هر قسمت ( Slices )، در صورت نیاز اقدام به جابجایی بین لایه های مختلف خواهد کرد. برای این منظور شما می توانید در سطح یک LUN سیاست خود را تعیین نمایید. این سیاست ها عبارتند از :
Highest Available Tier : این سیاست زمانی که سریعترین Response Times اولویت مد نظر است، استفاده می شود. در این سیاست، با سریعترین Slices شروع می نماید و پس از اتمام ظرفیت سریعترین لایه، به سراغ لایه بعدی می رود.
Auto-Tier : عموما بخش کوچکی از کل داده های شما، مسبب درصد بزرگی از کل I/O تولید شده هستند. با بهره گیری از این سیاست، این درصد کوچک به سریعترین بخش Tier جابجا می گردد، در حالیکه ما بقی داده ها بروی همان بخش کم سرعت تر نگهدارای می شوند. سیاست Auto-Tier بصورت خودکار اقدام به جابجایی Slice ها بین Tier های مختلف می نماید. به هنگام کمبود فضا در هر Tier، سیاست Highest available Tier بر سیاست Auto-Tier ارجحیت دارد.
Start High then Auto-Tier : این سیاست، بعنوان سیاست پیش فرض هر LUN تولید شده است. این سیاست در ابتدا از مزایای Highest Available Tier بهره می گرد و آنگاه به سراغ سیاست Auto-Tier می رود. در این سیایت در ابتدا تمامی داده ها بروی سریعترین Tier جانمایی می شوند و آنگاه با توجه به نرخ دسترسی داده ها بروی Tierهای مختلف توزیع می شوند.
Lowest Available Tier : این سیاست زمانی اولیت پیدا می کند که هزینه کل نگهداری داده مهم باشد. به همین دلیل داده بروی کم سرعت ترین Tier که کم هزینه ترین نیز می باشد، نگهداری می شود.
No Data Movement : این سیاست تنها پس از ساخت یک LUN قابل دسترسی است. همانگونه هم که از نام آن بر می آید داده ها همیشه در موقعیت فعلی خود باقی می مانند و جابجا نمی شوند. با این وجود EMC اقدام به جمع آوری داده های لازم جهت فرآیند Tiering می کند تا اگر در آینده خواستید سیاست را مثلا به Auto Tier تغییر دهید، Storage داده های لازمه را در اختیار داشته باشد.
Data Relocation
Data relocation فرآیند جابجایی داده ها میان Tier ها مختلف موجود در یک Pool است. این فرآیند بر اساس Tiering Policy و داده های جمع آوری شده از نرخ دسترسی به Slice های LUN صورت می گیرد. شما می توانید با استفاده از قابلیت Relocation Schedule، این فرآیند را زمانبدی نمایید و یا حتی این فرآیند را کاملا بصورت دستی انجام دهید. مقادیر مختلف وضعیت عملکرد فرآیند Data Relocation عبارتند از:
Ready – هیچ فرآیند جابجایی داده ای در جریان نیست.
Relocating – در حال اجرای فرآیند جابجایی داده است.
Paused – فرآیند جابجایی داده متوقف شده است.
همان گونه که پیشتر نیز اشاره شد، قابلیت FAST VP جابجایی خودکار داده ها را میان Tier های مختلف، بر اساس سیاست های از پیش تعیین شده و بر اساس برنامه زمانبندی شده، را داراست. برنامه زمانبدی به شما امکان تعریف نرخ سرعت جابجایی را می دهد. مقادیر عبارتند از :
Low
Medium
High
Low دارای کمترین تاثیر بر عملکرد Storage است و High دارای بیشترین تاثیر بر عملکرد Storage است. گزینه پیش فرض Medium است.
استفاده از FAST VP در محیط File
برای تولید یک Filesystem در VNX، شما باید یک LUN را از محیط Block برای این منظور تدارک ببینید و آن را در Storage Group با نام filestorage~ قرار دهید. اگر LUN تولید شده در محیط Block با بهره گیری از FAST VP تولید شده باشد، آنگاه File System نیز که از آن LUN استفاده می کند، دارای قابلیتهای FAST VP است. تصویر زیر گویای این موضوع است.
می توان FAST Cache را با ” DRAM cache ” مقایسه نمود، تنها باید بخاطر داشته باشید که FAST Cache از Flash دیسک ها ساخته شده است، پس دارای ظرفیت بسیار بیشتری است. و در مقابل DRAM Cache دارای سرعتی بمراتب بیشتر از FAST Cache می باشد.
DRAM cache : بخشی از Storage است که باعث افزایش عملکرد Storage می شود. نحوه عملکرد آن بدین گونه است که بصورت Trasparent ( شفاف و نامحسوس ) داده ها را در بروی یک Storage بسیار پرسرعت ( DRAM ) ذخیره می نماید و آنگاه به هارد دیسک ها منتقل می کند. این فرآیند باعث افزایش سرعت سامانه می شود. اما این گونه Cache ها بدلیل قیمت بسیار گزاف DRAM ، از لحاظ ظرفیت بسیار محدود هستند.
FAST Cache : تکنولوژی مکمل برای DRAM Cache است. این تکنولوژی به شما امکان بهره برداری از ظرفیتهای Cache چند ترابایتی را فراهم می آورد.
FAST Cache چگونه کار می کند ؟
داده ها روی یک LUN که درگیر دسترسی های خواندن و نوشتن می شوند به FAST Cache، ارائه می شوند. بر اساس تعداد و نوع دسترسی ( خواندن و/یا نوشتن ) FAST Cache درگیر خواهد شد. بیاد داشته باشید که اگر I/O ورودی از لایه Extreme Performance مربوط به FAST VP خارج شود، Fast Cache در این مورد هیچ دخالتی انجام نخواهد داد.
مراحل کار بدین شکل است. در ابتدا فرض کنید Fast Cache خالی است :
هنگامی که اولین I/O توسط نرم افزار فرستاده شد، FAST Cache Policy Engine به Memory Map در Fast Cache، نگاه می کند. در این مرحله با توجه به فرض، Memory Map نیز خالی است، پس در نتیجه به Chunk ها از روی هارد دیسک های LUN دسترسی پیدا می کند. به این فرآیند Fast Cache Miss گفته می شود. EMC ادعا می کند که که این فرآیند بررسی Memory Map برای هر دسترسی، تاثیر بسیار ناچیزی بروی عملکرد Storage دارد.
اگر نرم افزار بطور مدام دسترسی به Chunk را نیاز داشته باشد، Policy Engine آن Chunk را از هارد دیسک ها بروی FAST Cache کپی می کند. این عملیات را Promotion می نامند و به این دوره زمانی Warm UP Period برای FAST Cache گویند.
زمانی که نرم افزار مجددا به Chunk نیاز داشت، Policy Engine بررسی می کند که آیا Chunk در FAST Cache وجود دارد یا خیر ( بر اساس Memory Map ). به این فرآیند FAST Cache Hit گویند. بدلیل اینکه نرم افزار از روی دیسک های Flash به داده دسترسی می یابد، نرم افزار صاحب Response Times بسیار کوچک بهمراه IOPS بسیار بالا می شود.
Reads
I/O ورودی از نرم افزارها و هاستها با FAST Cache Memory Map مقایسه می شوند. اگر درMemory MAP موجود Chunk درخواستی وجود داشت، Chunk از روی FAST Cache خوانده می شود و در اختیار درخواست کننده قرار می گیر. در صورت عدم وجود Chunk درخواست I/O ورودی مسیری عادی خود را در پیش می گیرد و Chunk را از روی هارد دیسک های مربوط به LUN می خواند.
Writes
اگر I/O ورودی، درخواستی مبتنی بر نوشتن Chunk بروی FAST Cache باشد، در صورتی که Write Cache برای LUN غیر فعال نباشد، DRAM Cache خود را با یک Write جدید بروز رسانی می کند، و Acknowledgment را برای هاست ارسال می کند. بیاد داشته باشید که داده های شما مستقیما بروی FAST Cache نوشته نمی شود بلکه در ابتدا بروی DRAM Cache نوشته می شود و زمانی که نیار است از DRAM Cache خارج شود بروی FAST Cache نوشته می شود.
Write-Back Operation :
Write-Back Operation در واقع وضعیتی است که در آن داده ها از FAST Cache بروی هارد دیسک های Back End منتقل می شوند. این فرآیند به هنگامی رخ می دهد که ظرفیت FAST Cache پر شده و دیگر فضای خالی برای فرآیند FAST Cache وجود ندارد. پس داده ها را به هارد دیسکها منتقل می نماید تا FAST Cache دارای فضای خالی شود.
در این آموزش کمی به بررسی قابلیتهای مانیتورینگ ارائه شده در Unisphere می پردازیم و توضیح خواهم داد که در کدام قسمت می توانید Log های سیستم را بیابید، چگونه E-mail Notifications بساازید و چگونه هشدارهای متفاوت را سازماندهی نمایید. در ابتدا نگاهی سریع به قابلیتهای مانیتورینگ Unisphere بیندازیم.
قابلیتهای مانیتورینگ Unisphere
با ورود به صفحه Unisphere System Monitoring ، گزینه های متفاوتی را مشاهده می نمایید.
این موارد را بصورت اجمالی بررسی می کنیم :
Alerts : که برای شرایط مختلف سیستمی تولید می شود.
اگر هر گونه خطای بحرانی، هشدار و یا دیگر خطاها رخ دهد، در این قسمت نمایش داده می شود. به محض دیدن هر گونه Alert با دوبار کلیک موس بروی آن می توانید از خصوصیات آن مطلع شوید. در پنجره Alert Detail، شما به توضیحات کامل خطا، اعمال پیشنهادی جهت رفع خطا و کد رخداد ( Event Code ) دسترستی دارید.
SP Event Logs : تمامی Log ها مربوط به SP ها در اینجا نگهداری می شود. همچنین از این قسمت Export آنها نیز، امکان پذیر است.
Background Task Monitoring for File : لیست تمامی فعالیتهایی مربوط به سرویس File که در Background در حال اجراست.
Event Logs for File : تمامی Log ها مربوط به سرویس File در اینجا نگهداری می شود.
Notifications for File : اطلاع رسانی در خصوص رخدادهای سرویس فایل. به عنوان نمونه شما می توانید تنظیمات را بگونه ای انجام دهید که در زمانی که Control Station دچار یک خطای بحرانی شد، یک ایمیل برای Admin مربوطه ارسال شود.
Statistics for File : در این قسمت کاربر اطلاعاتی در خصوص فایل سیستم و عملکرد و سرعت شبکه دریافت می دارد. همچنین امکان تولید نمودارهای Real Time را نیز دارد.
VNX Email Notifications
برای اطلاع رسانی از طریق ارسال ایمیل با استفاده از پروتکل SMTP، نیاز است که تنظیمات بخش Email User صورت گیرد. برای این منظور :
وارد صفحه Notifications شوید
گزینه Manage Email User option را انتخاب نمایید. ( این گزینه در قسمت راست – پایین صفحه در بخش Service Task وجود دارد.) پنجره باز شده مانند تصویر زیر می باشد.
بعد از انجام تنظیمات مربوط به E-Mail، می بایست تنظیمات مربوط به بخش رخدادها را انجام دهید. برای این منظور :
به System > Monitoring and Alerts > Notifications for File بروید
آنگاه کلیدCreate را بفشارید.
در Popup باز شده ( تصویر زیر ) انتخاب نمایید که چه چیزی را نیاز است که مانیتور شود.
رخدادهایی را که تمایل به مانیتور آن دارید را انتخاب نمایید.
شدت (Severity ) رخداد اعم از Critical, Error, Warning و یا Info را انتخاب نمایید.
نحوه اطلاع رسانی را Mail انتخاب نمایید.
http://vcloudtip.com/vclcont/uploads/2016/12/Unisphere-monito-impephysdy-e1482834705978.png330551فاطمه بیگلوhttp://vcloudtip.com/vclcont/uploads/2016/12/logo-vcloud-1.pngفاطمه بیگلو2015-09-28 13:55:542017-02-22 05:29:20شیوه های ارائه هشدارهای سیستمی توسط EMC VNX
در دوره های آموزشی EMC خط مشی عمومی ارائه می شود که بکار گیری آن سبب بهینه سازی و بالا بردن عملکرد تجهیز VNX می شود. در این آموزش قصد دارم نگاه اجمالی به این بخش داشته باشیم.
انواع دیسک ها
شما بایستی بر اساس حجم کاری که از دیسک متوقع هستید، نوع دیسک خود را انتخاب نمایید.
FLASH – لایه با عملکرد و سرعت بسیار بالا – ایده آل برای سرعت و عملکرد بسیار بالا
SAS – لایه سرعت – مناسب برای عملکرد و سرعت عمومی – معمولا دارای ۱۰K RPM یا ۱۵K RPM هستند.
NL-SAS – لایه ظرفیت – برای مقاصدی نظیر Streaming، آرشیو و Backup.
RAID Groups
قبل از آنکه بتوانیم بخشی از ظرفیت هارد دیسکها را برای مقصودی خاص، تدارک ببینیم، نیاز است که بروی هارد دیسکها یک RAID Group و یا Storage Pool تولید نماییم. در ابتدا با RAID Group آشنا شویم.
RAID Levels
RAID Group در EMC VNX، حداکثر امکان استفاده از ۱۶ هارد دیسک را دارد. ( مانند بسیاری از Raid Controllerها ) انتخاب نوع دیسک مناسب قدم اول است و در ادامه باید Raid Group مناسب را انتخاب نمود.
Raid 1/0 : این نوع Raid برای حجم کاری با تراکنش بسیار زیاد و دسترسی Random با نرخ بالا مناسب است. ( نرخ بالاتر از ۲۵% الی ۳۰% )
Raid 5 : من معتقدم یکی از رایج ترین نوع Raid هاست. برای سرعت و عملکرد متوسط تا زیاد، حجم کاری مقاصد عمومی و دسترسی های Sequential مناسب است. در ضمن اتلاف کمتر از دیسک را نسبت به RAID 1/0 را داراست زیرا Blockها Mirror نمیشوند و تنها یک دیسک برای حفظ Parity تلف می شود.
Raid 6 : عموما برای هاردهای NL-SAS استفاده می شود. برای کارهایی نظیر آرشیو کردن و یا Backup بروی دیسک، که حجم Read داده بیشتری دارند، مناسب تر است. در مقام مقایسه با Raid 5 که تحمل از خراب شدن تنها یک هارد دیسک را دارد، Raid 6 تحمل خراب شدن ۲ هارد دیسک را دارد ولیکن از ۲ هارد دیسک نیط برای نگهداری Parity استفاده می کند.
تنظیمات برتر Raid
با توجه به غلبه عملیات Large-Block Sequential ، قوانین زیر باعث تاثیر بهینه تر می شوند:
Rarid 5 ترجیحا بصورت ۴+۱ و یا ۸+۱
Rarid 6 ترجیحا بصورت ۶+۲ و یا ۱۴+۲
Rarid 1/0 ترجیحا بصورت ۴+۴ و یا ۸+۸
و در نهایت یک نکته دیگر: در زمان تولید Raid Group در صورت امکان ترجیحا هارد دیسک هایی از یک BUS انتخاب نمایید تا بدین گونه سرعت و عملکرد را بالاتر ببرید.
Storage Pools
Storage Pools به نوعی یک Raid Group است. در چند کلمه Storage Pools مجموعه از چند دیسک فیزیکی است که می توان روی آن LUN ها را تولید کرد. در حالی که Raid Group می تواند تنها ۱۶ هارد دیسک را در خود جای دهد، Pool میتواند شامل صدها دیسک باشد. به همین دلیل استفاده از سرویسهای Pool-Based بار را بروی منابع بیشتری پخش می نماید و لذا با برنامه ریزی و مدیریت ساده تری می توان به نتیجه دلخواه رسید.
قطعا Pool نیز دارای همان سطح محافظت از داده در برابر خرابی دیسک نظیر Raid Group است، زیرا که با ترکیب Raid Group ها یک Pool ساخته می شود. در واقع برای ساختن یک Pool شما باید نوع تنظیمات Raid خود را مشخص نمایید.
Pool ها می توانند همگن (Homogeneous ) و یا ناهمگن (Heterogeneous ) باشند. Pool های همگن تنها از یک خانواده هارد دیسک بهره می برند در خالی که در Pool های ناهمگن انواع خانواده هارد دیسک ها حضور دارند. چرا EMC به ما اجازه می دهد تا یک Pool ناهمگن داشته باشیم؟ در واقع این عمل بسیار زیرکانه است. اجازه بدهید تا مقداری عمیق تر به موضوع بنگریم :
Homogeneous Pools
Pool های همگن با یک خانواده از هارد دیسک را عموما برای نرم افزار های مشابه و عملکرد قابل پیش بینی، پیشنهاد می شود.تنها یک خانواده از دیسک (Flash, SAS, NL-SAS) برا انتخاب مهیاست.
تصویر فوق ۳ Pool را نمایش می دهد، یکی از آنها با استفاده از دیسک های Flash ( لایه Extreme Performance )، دیگری با دیسک های SAS ( لایه Performance ) و در نهایت سومین Pool با استفاده از دیسکهای NL-SAS ( لایه Capacity ) تولید شده است.
Heterogeneous Pools
همانگونه که پیشتر نیز اشاره کردم، Pool های ناهمگن می توانند از چندین خانواده هار دیسک تشکیل شوند. VNX می تواند در یک Pool ناهمگن خود از دیسکهای Flash، SAS و NL-SAS پشتیبانی کند.
تکنولوژی FAST VP با توجه به فعالبت I/O صورت گرفته بروی یک Block از داده، محل قرار گیری آن Block داده را بین هارد دیسک های متفاوت انتخاب مب نماید. داده هایی که بیشترین نرخ دسترسی به آنها تولید شده است را به سریعترین لایه ( مثلا دیسک های Flash ) درون Pool منتقل می نماید تا دسترسی به آنها سریع تر صورت گیرد. داده هایی با نرخ دسترسی متوسط را بروی دیسکهای SAS و داده هایی با کمترین نرخ دسترسی را به لایه کم سرعت یعنی NL-SAS منتقل می نماید.
http://vcloudtip.com/vclcont/uploads/2016/12/image2-jphswgurhv-e1482834271554.png166330فاطمه بیگلوhttp://vcloudtip.com/vclcont/uploads/2016/12/logo-vcloud-1.pngفاطمه بیگلو2015-09-28 13:50:092017-02-18 17:37:49Storage Pools در مقابل RAID Groups
حال که تفاوتهای بین Raid Group و Storage Pool را دانستید، ( اگر هنوز این تفاوت ها را نمی دانید می توانید به آموزش قبلی من ” Storage Pools در مقابل RAID Groups ” مراجعه نمایید. ) احتمالا تمایل دارید با نحوه تولید یک Pool آشنا شوید.
تولید یک Pool
تولید یک Pool بسیار ساده است. تنها نیاز است نام Pool را وارد نمایید، دیسک ها را انتخاب کرده و نوع Raid . همین!
تصویر ارائه شده نمونه از تولید یک Pool نا همگن را با نام Pool 1 نمایش می دهد که در آن از ۳ خانواده دیسک استفاده شده است. برای دیسکهای Flash و SAS از Raid 5 و برای دیسک های NL-SAS از Raid 6 استفاده شده است.
عبارت Scheduled Auto-Tiering تنها در حالتی قابل انتخاب است که Enabler مربوطه با نام FAST ( مخفف عبارت Fully Automated Storage Tiering ) را بروی VNX خود نصب کرده باشید. زمانی که شما این قابلیت را فعال نمایید، Pool مربوطه را در حالت Auto-Tiering Schedule قرار می دهید.
همانگونه که در تصویر فوق مشاهده می نمایید، در تب Advanced شما می توانید FAST Cache ( قطعا در صورتی که FAST Cache بروی تجهیز شما فعال باشد. ) را برای Pool فعال نمایید. قسمت Snapshot نیز در صورتی که Enabler مربوط به Snapshot نصب شده باشد قابل دسترسی است.
یک تجهیز VNX میتواند یک یا چندین Pool داشته باشد. یک Pool میتواند در بر دارنده تمامی هارد دیسک های موجود بروی تجهیز باشد ( البته بجز هارد دیسک های Vault و Hot Spare ها ). هر چند که برای حداکثر تعداد هارد دیسکهای درون یک Pool محدودیت هایی عنوان می شود. به عنوان نمونه در یک VNX 5300 برای تولید یک Pool شما قادرید تنها از حداکثر ۴۰ هارد دیسک استفاده نمایید ولیکن بعد از آن می توانید مجددا Pool را با ۴۰ هارد دیسک دیگر Expand نموده و به عدد ۸۰ هارد دیسک برسید.
Expanding Pools ( بسط فضای POOL )
شما به سادگی قادر خواهید بود تا Raid Group و یا Pool موجود را Expand نمایید. برای این کار تنها نیاز است که تعداد هارد دیسک به تجهیز خود اضافه نمایید. آنگاه بروی Pool راست کلیک نموده و گزینه Expand را انتخاب نمایید.
این عملیات بسیار ساده است. در پنجره Expand Storage Pool تعداد هارد دیسک مورد نظرتان را انتخاب نمایید. محدودیت افزودن تعداد دیسک بصورت یکجا را بخاطر داشته باشید. به عنوان نمونه در VNX 5500 شما محدودیت ۸۰ عدد هارد دیسک را دارید. پس اگر قصد داشتید ۱۲۰ عدد هارد دیسک را به Pool خود اضافه نمایید، بایستی در دو مرحله یکی با ۸۰ عدد هارد دیسک و مرحله دوم با ۴۰ عدد هارد دیسک این عملیات را انجام دهید.
Shrinking Pools ( کاهش فضای Pool )
بمانند Raid Group ها، در Pool نیز امکان کاهش فضا و حذف بعضی از هار دیسک ها وجود ندارد. تنها راه از بین بردن Pool وحذف کامل آن است.
http://vcloudtip.com/vclcont/uploads/2015/09/Create-storage-p-lcuflryjrg-e1482833907465.png258330فاطمه بیگلوhttp://vcloudtip.com/vclcont/uploads/2016/12/logo-vcloud-1.pngفاطمه بیگلو2015-09-28 13:44:252017-05-02 05:42:40تولید و تغییر Storage Pool
Unisphere یک نرم افزار Web Enabled است که امکان مدیریت تجهیزات Storage را فراهم می آورد. این نرم افزار شامل تمامی ابزارها، جداول و Wizard های لازمه جهت امور مدیریتی است. نرم افزار Unisphere دارای یک نسخه سروی نیز به نام Unisphere Management Server است که عموما بروی Storage Processor ها و Control Station تجهیز EMC و یا بروی یک سرور فیزیکی خارج از تجهیز با شیوه Off Array، اجرا می شود.
چگونه راه اندازی می شود ؟
برای راه اندازی Unisphere شما می تواند در نرم افزار Web Browser خود IP آدرس یکی از SP ها و یا Control Station ها را وارد نمایید و یا از نرم افزار Unisphere Client استفاده نمایید. بیاد داشته باشید که نرم افزار برای اجرا نیاز به جاوا دارد.
مدیریت تجهیز VNX می تواند از طریق درگاه Unisphere graphical User بصورت GUI صورت گیرد و همچنین بصورت ( Command Line Interface (CLI، صورت پذیرد. تجهیزات Storage که سرویس File را نیز ارائه می نمایند نیز برای مدیریت Control Station، امکان استفاده از CLI دارند. در تجهیزات Storage سرویس Block برای مدیریت بصورت CLI، می توانید از نرم افزار Navisphere CLI استفاده نمایید. با بهره گیری از روش CLI می توانید با تولید انواع Script ها و Batch File ها، فعالیتها را زمان بندی شده و یا خودکار نمایید.
حوزه اهراز هویت (Authentication Scope )
در تجهیز VNX، می توانید از سه حوزه مختلف برای عملیات اهراز هویت بهره ببرید.
Global : زمانی استفاده می شود که تجهیز VNX شما جزیی از یک Domain باشد. ( منظور از Domain، Active Directory نیست. ) بدین شیوه تمامی تجهیزاتی که در یک دامین موجود هستند می تواند از طریق یک حساب کاربری Global و با بهره گیری از تکنولوژی SSO، مدیریت شوند.
Local : همانگونه که از نام آن نیز برمی آید برای مدیریت تنها یک سیستم خاص مورد استفاده قرار می گیرد.
LDAP : برای زمانی کاربرد دارد که بخواهیم اعتبار سنجی VNX، توسط یک LDAP Server مثل Active Directory صورت گیرد.
Unisphere Storage Domains
بصورت پیش فرض هر تجهیز VNX خود دارای یک Domain است. اعضای این Domain عبارتند از :
SP A
SP B
Control Station
افزودن یک VNX به Domain
برای افزودن یک تجهیز VNX به یک VNX Domain :
در Unisphere به قسمت System List وارد شوید.
کلید Add را بفشارید.
User name و Password تجهیز را وارد نمایید.
IP آدرس SP تجهیز مورد نظر را وارد نمایید.
بعد از عضویت تجهیز در دامین جدید شما میتواند نام تجهیز را در System List ببینید.
بدین گونه تجهیز جدید به Domain شما افزوده می شود. به محض اینکه تجهیز به یک دامین افزوده شود، آن تجهیز از عضویت دامین پیشین خود در می آید.
آخرین دیدگاهها