Red Hat Global File System (GFS) — POSIX-сумісна кластерна файлова система, що забезпечує організацію файлів в файлову систему за допомогою менеджера томів (Logical Volume Manager, LVM); працює на серверах Red Hat Enterprise Linux, підключених до мережі зберігання даних (SAN). GFS належить до вільного програмного забезпечення.
Провідна (і перша) кластерна файлова система Linux, Red Hat GFS має найповніший набір функцій, найширше промислове впровадження та підтримку програмного забезпечення, найкраще співвідношення ціна/продуктивність ніж будь-яка кластерна файлова система Linux. Red Hat GFS дозволяє для серверів Red Hat Enterprise Linux одночасне читання і запис до мережевого сховища даних (SAN), досягаючи високої продуктивності і зменшуючи складність і накладні витрати на управління надлишковими копіями даних. Red Hat GFS не має єдиної точки збою, є поступово масштабованою від одного до ста серверів Red Hat Enterprise Linux, і працює з усіма стандартними додатками Linux.
Історія
Розробка GFS почалася в 1995 році професором Matthew O'Keefe в університеті Міннесоти. В цей час в університеті використовувався великомасштабний обчислювальний кластер, де породжувалася величезна кількість даних, які ефективно записувалися в центральне сховище даних. Для вирішення цієї проблеми Matthew O'Keefe, в той час професор університету Міннесоти, почав з групою студентів розробку GFS. Надалі він став керівником напряму Storage Strategy в Red Hat. Результатом цих зусиль стала поява кластерної файлової системи Red Hat GFS, яка випущена під ліцензією GPL. В даний момент GFS доступна тільки для Linux.
Внутрішня будова GFS
Global File System була створена як 64-бітова кластерна файлова система. Вона дозволяє декільком серверам здійснювати підключення до мережевого сховища даних (SAN) для доступу до загальних, спільно використовуваних файлів одночасно з допомогою стандартної UNIX / POSIX семантики файлової системи.
Файлова система GFS є журнальованою файловою системою. Для кожного вузла кластера заводиться свій власний журнал. Зміни метаданих у файловій системі записуються спочатку в журнал, а потім у файлову систему, як і в інших журнальованою файлових системах. У разі збою вузла, узгодженість файлової системи може бути відновлена шляхом повторення операцій з метаданими. Існує можливість визначити, чи будуть журналюватися тільки метадані, чи в журнал будуть потрапляти також дані вмісту файлів.
GFS зберігає дескриптор файлової системи в індексних дескрипторах (inodes), які виділяються динамічно за мірою необхідності (надалі називаються dynamic nodes або dinodes). Вони займають повний блок файлової системи (4096 байт — це стандартне значення розміру блоку файлової системи в ядрі Linux).У кластерній файловій системі кілька серверів звертаються до файлової системи в один і той же час, звідси випливає, що об'єднання декількох dinodes в одному блоці призведе до доступу до конкуруючих блоків і помилкового суперництва. Для ефективного розподілу місця і зменшення доступу до диска, дані файлів зберігаються безпосередньо всередині dinode, якщо файл досить малий для розміщення цілком у dinode. В цьому випадку необхідний тільки доступ до одного блоку для доступу до маленьких файлів. Якщо файл великий, то GFS використовує проксі структуру файлу. Всі покажчики в dinode мають однакову глибину. Існує лише три види покажчиків: прямі (direct), непрямі (indirect), або двічі непрямі (double indirect) покажчики. Висота дерева збільшується за мірою необхідності, наскільки це потрібно для зберігання файлу з даними.
Розширюване хешування («Extendible hashing», ) використовується для збереження індексної структури для каталогів. Для кожного імені файлу мультибітний хеш зберігається як індекс у хеш-таблиці. Відповідний покажчик у таблиці вказує на листовий вузол. На кожен листовий вузол можуть посилатися кілька покажчиків. Якщо хеш-таблиця для листових вузлів стає недостатньою для зберігання структури каталогів, то розмір всієї хеш-таблиці подвоюється. Якщо розміру одного листового вузла недостатньо, то він поділяється на два вузли того ж розміру. Якщо є невелика кількість записів в каталозі, то інформація про нього зберігається всередині dinode блоку, як файл з даними. Така структура даних дозволяє виконати пошук в каталогах при кількості дискових операцій пропорційно глибині структури дерева [en]» хешування, яка досить пласка. Для великих каталогів з тисячами і мільйонами файлів потрібна невелика кількість дискових операцій для пошуку запису в каталозі.
Остання версія GFS 6.0 пропонує нові можливості, включаючи списки управління доступом до файлів (ACL), підтримку квотування, прямий ввід / вивід (для підвищення продуктивності баз даних), і динамічне збільшення файлової системи без відключення.
Масштабованість
Класична IT система складається зі служб і додатків, які працюють на окремих серверах і звичайно їхня робота обмежена конкретним сервером. Якщо обладнання, до якого прив'язаний індивідуальний додаток, більше не задовольняє вимогам, то програма може зіткнутися з проблемою нестачі пам'яті, процесорної потужності або дискового об'єму, які доступні в решті частини кластера. У противагу цьому, додатки, які можуть паралельно виконуватися на кластері зберігання, значно простіше масштабуються. У разі нестачі ресурсів, нові компоненти (сервер, дисковий масив) можуть бути легко інтегровані в систему для досягнення потрібної продуктивності. Спільне використання дискового пулу дозволяє не тільки відмовитися від трудомісткого дублювання даних на кілька серверів, але також надає зручні можливості масштабування. Зі зростаючими вимогами до обсягу дискового сховища, загальний дисковий масив може бути розширений і стане одразу доступний для всіх серверів.
Доступність (відмовостійкість)
Доступність системи в цілому є важливим аспектом у наданні IT послуг. Для отримання 3-го класу доступності (від 99% до 99,9%) необхідно усунути єдину точку збою. Для 4-го класу доступності (від 99,9% до 99,99%) необхідно мати кластер високої доступності, віддзеркалювання даних і другий центр обробки даних на випадок стихійного лиха. Служби повинні мати можливість працювати на декількох територіально розподілених серверах. Вихід з ладу одного сервера або цілого обчислювального центру не повинен вплинути на їх доступність, допускається тільки втрата доступності на короткий час. Кластер GFS може бути підключений до центрального сховища через SAN за допомогою резервних каналів вводу / виводу для подолання виходу з ладу одного з компонентів системи, таких як комутатори, адаптери HBA або кабелі. Резервування каналів вводу / виводу може бути досягнуто c використанням драйвера fibre channel для адаптера HBA або використовуючи GFS пул. На жаль, GFS кластер не має можливості дублювати інформацію між дисковими масивами з вузлового сервера, зате можна скористатися апаратним дублюванням, яке присутнє в досконалих дискових RAID масивах. Віддзеркалення з вузлового сервера в GFS кластері з'явиться трохи пізніше, в 2005 році з появою Cluster Logical Volume Manager ().
Менеджер блокувань, який є основою GFS, доступний у двох видах. Це спрощена версія — єдиний менеджер блокувань (Single Lock Manager, або ), який є єдиною точкою збою для цілої системи і версія з дублюванням — дубльований менеджер блокувань (Redundant Lock Manager, або ). Цей варіант дозволяє визначити кілька серверів з RLM, які можуть прозоро перехоплювати роль активного сервера блокувань у разі збою. До того ж, Red Hat Cluster Suite може бути використаний для забезпечення відмовостійкості додатків в GFS кластері.
Резервне копіювання без використання мережі
Резервування даних зазвичай відбувається з клієнтських машин (які найчастіше є серверами додатків) через локальну мережу (LAN) на виділений сервер резервного копіювання (за допомогою такого ПО, як [en] або [fr]) або без використання мережі (LAN-free) через сервер додатків відразу на пристрій резервного копіювання. Через те, що кожний підключений сервер, який використовує кластерну файлову систему, має доступ до всіх даних, з'являється можливість перетворити будь-який сервер в сервер резервного копіювання. Сервер резервного копіювання дозволяє робити резервування інформації під час роботи, не надаючи впливу на сервера додатків. Зручно використовувати можливість формування знімка або клона тома GFS, використовуючи апаратні можливості дискового масиву. Такі знімки томів можуть бути підключені до сервера резервного копіювання для подальшого резервування. Щоб задіяти цю можливість, GFS містить можливість «заморозки» файлової системи для забезпечення узгодженого стану даних. «Заморожування» означає, що всі спроби доступу до файлової системи перериваються після операції скидання ([en]) файлової системи, яка гарантує, що всі метадані і дані узгоджено записані на сховище до формування знімка.
Бездисковий кластер з подільним кореневим розділом
Всі сервера в GFS кластері отримують доступ до даних через мережу зберігання даних (SAN), і для збільшення продуктивності можуть бути легко додані додаткові сервери. Отже, кожен сервер може розглядатися як черговий ресурс в пулі вільних серверів. Системні дані і образ операційної системи зберігається в загальнодоступному сховищі, тому сервери і сховище можуть розглядатися як незалежні один від одного. В результаті — це бездисковий кластер з подільним кореневим розділом, в якому жоден сервер не має локальних дисків, і завантаження операційної системи відбувається через SAN. Образи з додатками і операційною системою доступні, це означає що розділ root (/) для всіх вузлів кластера однаковий. Внаслідок чого отримуємо просте управління системою. Зміни вносяться один раз і відразу стають доступні для всіх серверів. Побудова бездискових кластерів з поділюваним кореневим розділом з використанням GFS є специфічним завданням і залежить від устаткування і версії ядра, і цю можливість можна реалізувати тільки за допомогою фахівців компанії Red Hat або партнерів Red Hat, таких як [en] GmbH.
Приклад впровадження: IP Tech AG
Використовуючи кластер Red Hat Enterprise Linux з Red Hat GFS, досягла високої доступності та продуктивності. Якщо один із серверів вийде з ладу або додаток (наприклад, http або [en]) зависне, то цей сервер може бути швидко перезапущений і включений назад у кластер без порушення працездатності сервісів на інших серверах. На додаток IP Tech використовує технологію GFS з поділюваним кореневим розділом, яка спрощує процес оновлення програмних продуктів і надає можливість розподіляти навантаження в кластері для статичних служб. Наприклад, коли на IP Tech починається спам атака, то вони швидко переводять частину вебсерверів на обслуговування поштових серверів і тим самим підтримують роботу пошти в робочому режимі, виявляють і протистоять спам-атаці, у той час коли всі сервери у кластері продовжують працювати. Вони можуть масштабувати інфраструктуру протягом декількох хвилин, використовуючи нові сервери і дискові масиви. Насамкінець, IP Tech виробляє регулярне резервне копіювання знімків томів GFS на певний момент часу, використовуючи окремий сервер в кластері. Цей підхід дозволяє робити резервування файлової системи GFS, не заважаючи роботі інших серверів.
Посилання
«RED HAT GLOBAL FILE SYSTEM» [ 26 травня 2012 у Wayback Machine.]
«Red_Hat_Enterprise_Linux-5-Global_File_System-en-US» [ 15 травня 2012 у Wayback Machine.]
Див. також
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
Red Hat Global File System GFS POSIX sumisna klasterna fajlova sistema sho zabezpechuye organizaciyu fajliv v fajlovu sistemu za dopomogoyu menedzhera tomiv Logical Volume Manager LVM pracyuye na serverah Red Hat Enterprise Linux pidklyuchenih do merezhi zberigannya danih SAN GFS nalezhit do vilnogo programnogo zabezpechennya Providna i persha klasterna fajlova sistema Linux Red Hat GFS maye najpovnishij nabir funkcij najshirshe promislove vprovadzhennya ta pidtrimku programnogo zabezpechennya najkrashe spivvidnoshennya cina produktivnist nizh bud yaka klasterna fajlova sistema Linux Red Hat GFS dozvolyaye dlya serveriv Red Hat Enterprise Linux odnochasne chitannya i zapis do merezhevogo shovisha danih SAN dosyagayuchi visokoyi produktivnosti i zmenshuyuchi skladnist i nakladni vitrati na upravlinnya nadlishkovimi kopiyami danih Red Hat GFS ne maye yedinoyi tochki zboyu ye postupovo masshtabovanoyu vid odnogo do sta serveriv Red Hat Enterprise Linux i pracyuye z usima standartnimi dodatkami Linux IstoriyaRozrobka GFS pochalasya v 1995 roci profesorom Matthew O Keefe v universiteti Minnesoti V cej chas v universiteti vikoristovuvavsya velikomasshtabnij obchislyuvalnij klaster de porodzhuvalasya velichezna kilkist danih yaki efektivno zapisuvalisya v centralne shovishe danih Dlya virishennya ciyeyi problemi Matthew O Keefe v toj chas profesor universitetu Minnesoti pochav z grupoyu studentiv rozrobku GFS Nadali vin stav kerivnikom napryamu Storage Strategy v Red Hat Rezultatom cih zusil stala poyava klasternoyi fajlovoyi sistemi Red Hat GFS yaka vipushena pid licenziyeyu GPL V danij moment GFS dostupna tilki dlya Linux Vnutrishnya budova GFSGlobal File System bula stvorena yak 64 bitova klasterna fajlova sistema Vona dozvolyaye dekilkom serveram zdijsnyuvati pidklyuchennya do merezhevogo shovisha danih SAN dlya dostupu do zagalnih spilno vikoristovuvanih fajliv odnochasno z dopomogoyu standartnoyi UNIX POSIX semantiki fajlovoyi sistemi Fajlova sistema GFS ye zhurnalovanoyu fajlovoyu sistemoyu Dlya kozhnogo vuzla klastera zavoditsya svij vlasnij zhurnal Zmini metadanih u fajlovij sistemi zapisuyutsya spochatku v zhurnal a potim u fajlovu sistemu yak i v inshih zhurnalovanoyu fajlovih sistemah U razi zboyu vuzla uzgodzhenist fajlovoyi sistemi mozhe buti vidnovlena shlyahom povtorennya operacij z metadanimi Isnuye mozhlivist viznachiti chi budut zhurnalyuvatisya tilki metadani chi v zhurnal budut potraplyati takozh dani vmistu fajliv GFS zberigaye deskriptor fajlovoyi sistemi v indeksnih deskriptorah inodes yaki vidilyayutsya dinamichno za miroyu neobhidnosti nadali nazivayutsya dynamic nodes abo dinodes Voni zajmayut povnij blok fajlovoyi sistemi 4096 bajt ce standartne znachennya rozmiru bloku fajlovoyi sistemi v yadri Linux U klasternij fajlovij sistemi kilka serveriv zvertayutsya do fajlovoyi sistemi v odin i toj zhe chas zvidsi viplivaye sho ob yednannya dekilkoh dinodes v odnomu bloci prizvede do dostupu do konkuruyuchih blokiv i pomilkovogo supernictva Dlya efektivnogo rozpodilu miscya i zmenshennya dostupu do diska dani fajliv zberigayutsya bezposeredno vseredini dinode yaksho fajl dosit malij dlya rozmishennya cilkom u dinode V comu vipadku neobhidnij tilki dostup do odnogo bloku dlya dostupu do malenkih fajliv Yaksho fajl velikij to GFS vikoristovuye proksi strukturu fajlu Vsi pokazhchiki v dinode mayut odnakovu glibinu Isnuye lishe tri vidi pokazhchikiv pryami direct nepryami indirect abo dvichi nepryami double indirect pokazhchiki Visota dereva zbilshuyetsya za miroyu neobhidnosti naskilki ce potribno dlya zberigannya fajlu z danimi Rozshiryuvane heshuvannya Extendible hashing vikoristovuyetsya dlya zberezhennya indeksnoyi strukturi dlya katalogiv Dlya kozhnogo imeni fajlu multibitnij hesh zberigayetsya yak indeks u hesh tablici Vidpovidnij pokazhchik u tablici vkazuye na listovij vuzol Na kozhen listovij vuzol mozhut posilatisya kilka pokazhchikiv Yaksho hesh tablicya dlya listovih vuzliv staye nedostatnoyu dlya zberigannya strukturi katalogiv to rozmir vsiyeyi hesh tablici podvoyuyetsya Yaksho rozmiru odnogo listovogo vuzla nedostatno to vin podilyayetsya na dva vuzli togo zh rozmiru Yaksho ye nevelika kilkist zapisiv v katalozi to informaciya pro nogo zberigayetsya vseredini dinode bloku yak fajl z danimi Taka struktura danih dozvolyaye vikonati poshuk v katalogah pri kilkosti diskovih operacij proporcijno glibini strukturi dereva en heshuvannya yaka dosit plaska Dlya velikih katalogiv z tisyachami i miljonami fajliv potribna nevelika kilkist diskovih operacij dlya poshuku zapisu v katalozi Ostannya versiya GFS 6 0 proponuye novi mozhlivosti vklyuchayuchi spiski upravlinnya dostupom do fajliv ACL pidtrimku kvotuvannya pryamij vvid vivid dlya pidvishennya produktivnosti baz danih i dinamichne zbilshennya fajlovoyi sistemi bez vidklyuchennya MasshtabovanistKlasichna IT sistema skladayetsya zi sluzhb i dodatkiv yaki pracyuyut na okremih serverah i zvichajno yihnya robota obmezhena konkretnim serverom Yaksho obladnannya do yakogo priv yazanij individualnij dodatok bilshe ne zadovolnyaye vimogam to programa mozhe zitknutisya z problemoyu nestachi pam yati procesornoyi potuzhnosti abo diskovogo ob yemu yaki dostupni v reshti chastini klastera U protivagu comu dodatki yaki mozhut paralelno vikonuvatisya na klasteri zberigannya znachno prostishe masshtabuyutsya U razi nestachi resursiv novi komponenti server diskovij masiv mozhut buti legko integrovani v sistemu dlya dosyagnennya potribnoyi produktivnosti Spilne vikoristannya diskovogo pulu dozvolyaye ne tilki vidmovitisya vid trudomistkogo dublyuvannya danih na kilka serveriv ale takozh nadaye zruchni mozhlivosti masshtabuvannya Zi zrostayuchimi vimogami do obsyagu diskovogo shovisha zagalnij diskovij masiv mozhe buti rozshirenij i stane odrazu dostupnij dlya vsih serveriv Dostupnist vidmovostijkist Dostupnist sistemi v cilomu ye vazhlivim aspektom u nadanni IT poslug Dlya otrimannya 3 go klasu dostupnosti vid 99 do 99 9 neobhidno usunuti yedinu tochku zboyu Dlya 4 go klasu dostupnosti vid 99 9 do 99 99 neobhidno mati klaster visokoyi dostupnosti viddzerkalyuvannya danih i drugij centr obrobki danih na vipadok stihijnogo liha Sluzhbi povinni mati mozhlivist pracyuvati na dekilkoh teritorialno rozpodilenih serverah Vihid z ladu odnogo servera abo cilogo obchislyuvalnogo centru ne povinen vplinuti na yih dostupnist dopuskayetsya tilki vtrata dostupnosti na korotkij chas Klaster GFS mozhe buti pidklyuchenij do centralnogo shovisha cherez SAN za dopomogoyu rezervnih kanaliv vvodu vivodu dlya podolannya vihodu z ladu odnogo z komponentiv sistemi takih yak komutatori adapteri HBA abo kabeli Rezervuvannya kanaliv vvodu vivodu mozhe buti dosyagnuto c vikoristannyam drajvera fibre channel dlya adaptera HBA abo vikoristovuyuchi GFS pul Na zhal GFS klaster ne maye mozhlivosti dublyuvati informaciyu mizh diskovimi masivami z vuzlovogo servera zate mozhna skoristatisya aparatnim dublyuvannyam yake prisutnye v doskonalih diskovih RAID masivah Viddzerkalennya z vuzlovogo servera v GFS klasteri z yavitsya trohi piznishe v 2005 roci z poyavoyu Cluster Logical Volume Manager Menedzher blokuvan yakij ye osnovoyu GFS dostupnij u dvoh vidah Ce sproshena versiya yedinij menedzher blokuvan Single Lock Manager abo yakij ye yedinoyu tochkoyu zboyu dlya ciloyi sistemi i versiya z dublyuvannyam dublovanij menedzher blokuvan Redundant Lock Manager abo Cej variant dozvolyaye viznachiti kilka serveriv z RLM yaki mozhut prozoro perehoplyuvati rol aktivnogo servera blokuvan u razi zboyu Do togo zh Red Hat Cluster Suite mozhe buti vikoristanij dlya zabezpechennya vidmovostijkosti dodatkiv v GFS klasteri Rezervne kopiyuvannya bez vikoristannya merezhiRezervuvannya danih zazvichaj vidbuvayetsya z kliyentskih mashin yaki najchastishe ye serverami dodatkiv cherez lokalnu merezhu LAN na vidilenij server rezervnogo kopiyuvannya za dopomogoyu takogo PO yak en abo fr abo bez vikoristannya merezhi LAN free cherez server dodatkiv vidrazu na pristrij rezervnogo kopiyuvannya Cherez te sho kozhnij pidklyuchenij server yakij vikoristovuye klasternu fajlovu sistemu maye dostup do vsih danih z yavlyayetsya mozhlivist peretvoriti bud yakij server v server rezervnogo kopiyuvannya Server rezervnogo kopiyuvannya dozvolyaye robiti rezervuvannya informaciyi pid chas roboti ne nadayuchi vplivu na servera dodatkiv Zruchno vikoristovuvati mozhlivist formuvannya znimka abo klona toma GFS vikoristovuyuchi aparatni mozhlivosti diskovogo masivu Taki znimki tomiv mozhut buti pidklyucheni do servera rezervnogo kopiyuvannya dlya podalshogo rezervuvannya Shob zadiyati cyu mozhlivist GFS mistit mozhlivist zamorozki fajlovoyi sistemi dlya zabezpechennya uzgodzhenogo stanu danih Zamorozhuvannya oznachaye sho vsi sprobi dostupu do fajlovoyi sistemi pererivayutsya pislya operaciyi skidannya en fajlovoyi sistemi yaka garantuye sho vsi metadani i dani uzgodzheno zapisani na shovishe do formuvannya znimka Bezdiskovij klaster z podilnim korenevim rozdilomVsi servera v GFS klasteri otrimuyut dostup do danih cherez merezhu zberigannya danih SAN i dlya zbilshennya produktivnosti mozhut buti legko dodani dodatkovi serveri Otzhe kozhen server mozhe rozglyadatisya yak chergovij resurs v puli vilnih serveriv Sistemni dani i obraz operacijnoyi sistemi zberigayetsya v zagalnodostupnomu shovishi tomu serveri i shovishe mozhut rozglyadatisya yak nezalezhni odin vid odnogo V rezultati ce bezdiskovij klaster z podilnim korenevim rozdilom v yakomu zhoden server ne maye lokalnih diskiv i zavantazhennya operacijnoyi sistemi vidbuvayetsya cherez SAN Obrazi z dodatkami i operacijnoyu sistemoyu dostupni ce oznachaye sho rozdil root dlya vsih vuzliv klastera odnakovij Vnaslidok chogo otrimuyemo proste upravlinnya sistemoyu Zmini vnosyatsya odin raz i vidrazu stayut dostupni dlya vsih serveriv Pobudova bezdiskovih klasteriv z podilyuvanim korenevim rozdilom z vikoristannyam GFS ye specifichnim zavdannyam i zalezhit vid ustatkuvannya i versiyi yadra i cyu mozhlivist mozhna realizuvati tilki za dopomogoyu fahivciv kompaniyi Red Hat abo partneriv Red Hat takih yak en GmbH Priklad vprovadzhennya IP Tech AGVikoristovuyuchi klaster Red Hat Enterprise Linux z Red Hat GFS dosyagla visokoyi dostupnosti ta produktivnosti Yaksho odin iz serveriv vijde z ladu abo dodatok napriklad http abo en zavisne to cej server mozhe buti shvidko perezapushenij i vklyuchenij nazad u klaster bez porushennya pracezdatnosti servisiv na inshih serverah Na dodatok IP Tech vikoristovuye tehnologiyu GFS z podilyuvanim korenevim rozdilom yaka sproshuye proces onovlennya programnih produktiv i nadaye mozhlivist rozpodilyati navantazhennya v klasteri dlya statichnih sluzhb Napriklad koli na IP Tech pochinayetsya spam ataka to voni shvidko perevodyat chastinu vebserveriv na obslugovuvannya poshtovih serveriv i tim samim pidtrimuyut robotu poshti v robochomu rezhimi viyavlyayut i protistoyat spam ataci u toj chas koli vsi serveri u klasteri prodovzhuyut pracyuvati Voni mozhut masshtabuvati infrastrukturu protyagom dekilkoh hvilin vikoristovuyuchi novi serveri i diskovi masivi Nasamkinec IP Tech viroblyaye regulyarne rezervne kopiyuvannya znimkiv tomiv GFS na pevnij moment chasu vikoristovuyuchi okremij server v klasteri Cej pidhid dozvolyaye robiti rezervuvannya fajlovoyi sistemi GFS ne zavazhayuchi roboti inshih serveriv Posilannya RED HAT GLOBAL FILE SYSTEM 26 travnya 2012 u Wayback Machine Red Hat Enterprise Linux 5 Global File System en US 15 travnya 2012 u Wayback Machine Div takozhLVM Red Hat Red Hat Linux Red Hat Enterprise Linux Fajlova sistema