В обчисленнях, Ceph — вільне сховище об'єктів, яке зберігає дані на одному розподіленому комп'ютерному кластері та забезпечує інтерфейс рівня об'єкту, блоку та файлу. Основні цілі Ceph — бути повністю розподіленим без єдиної точки відмови, масштабованим до рівня ексабайт та вільно доступним.
Тип | Розподілене зберігання об'єктів |
---|---|
Автор | (, Yehuda Sadeh Weinraub, Gregory Farnum, Josh Durgin, Samuel Just, Wido den Hollander) |
Розробники | Canonical, CERN, Cisco, Fujitsu, Intel, Red Hat, SanDisk, and SUSE |
Стабільний випуск | 18.2 (3 серпня, 2023 ) |
Операційна система | Linux |
Мова програмування | , Python[] |
Ліцензія | LGPL 2.1 |
Репозиторій | github.com/ceph/ceph |
Вебсайт | ceph.com |
|
Ceph реплікує дані та робить їх відмовостійкими, використовуючи звичайне обладнання та не вимагаючи підтримки специфічного. Результатом дизайну є те, що система є як само-відновлюваною так і само-керованою, націленою на мінімізацію часу адміністрування та інших затрат.
В реалізації CephFS (файлова система) відсутні стандартні засоби відновлення файлової системи, тому користувацька документація Ceph не рекомендує зберігати критичні дані через відсутність можливості аварійного відновлення та інструментів.
Дизайн
Ceph використовує чотири різні види демонів:
- Монітори кластеру (ceph-mon) — відслідковують активні та зламані ноди кластеру
- Сервери метаданих (ceph-mds) — зберігають метадані inode та каталогів
- Пристрої зберігання об'єктів (ceph-osd) — дійсно зберігають вміст файлів. В ідеальному випадку, OSD зберігають свої дані в локальній файловій системі btrfs, щоб задіяти свою вбудовану copy-on-write властивість, хоча й інші локальні файлові системи можуть використовуватися теж.
- Шлюзи передачі репрезентативного стану (RESTful) (ceph-rgw), які розкривають рівень зберігання об'єктів як інтерфейс, сумісний з Amazon S3 чи OpenStack Swift API
Вони всі є повністю розподіленими та можуть працювати на тому ж самому наборі серверів. Клієнти напряму взаємодіють з усіма ними.
Ceph робить striping індивідуальних файлів по багатьох нодах, щоб досягти найбільшої пропускної здатності, подібно до того як RAID0 розподіляє смугами розділи по багатьох твердих дисках. Адаптивний баланс навантаження підтримується за допомогою того, як часто доступаються до об'єктів, які репліковані на більшості нод.[citation needed] На Грудень 2014, файлові системи, які рекомендовано для використання у виробничих середовищах, це ext4 (маленький масштаб) та XFS (розгортання великого масштабу), поки Btrfs та ZFS рекомендовано для невиробничих середовищ.
Сховище об'єктів
Ceph впроваджує розподілене сховище об'єктів. Програмні бібліотеки Ceph забезпечують клієнтські програми прямим доступом до надійного автоматично розподіленого зберігання об'єктів (RADOS від англ. reliable autonomic distributed object store), а також забезпечує фундамент для деяких особливостей Ceph, включаючи RADOS Block Device (RBD), RADOS Gateway, та Ceph File System.
Програмна бібліотека librados забезпечує доступ для C, , Java, PHP, тп Python.
Блокове сховище
Система зберігання об'єктів Ceph дозволяє користувачам монтувати Ceph як тонко підготовлений блоковий пристрій. Коли додаток пише дані на Ceph використовуючи блоковий пристрій, Ceph автоматично розкидає та реплікує дані по всьому кластеру. Блоковий пристрій Ceph (RBD) (від анг. RADOS Block Device) також інтегрується з Kernel-based Virtual Machines (KVMs).
Інтерфейси Ceph RBD з тією ж самою системою зберігання об'єктів Ceph забезпечують інтерфейс librados та файлову систему CephFS, а також зберігають образи блокових пристроїв як об'єкти. З того часу як RBD базується на librados, RBD наслідує можливості librados, включаючи знімки типу тільки-читання та повернення до знімків. Завдяки розкиданню образів по кластеру, Ceph покращує продуктивність читання для великих образів блокових пристроїв.
Блокові пристрої підтримуються платформами віртуалізації, включаючи Apache CloudStack, OpenStack, OpenNebula, та Proxmox Virtual Environment. Ці інтеграції дозволяють адміністраторам використовувати блокові пристрої Ceph як сховище для їхніх віртуальних машин в їхніх середовищах.
Файлова система
Файлова система Ceph (CephFS) працює на базі тої ж самої системи зберігання об'єктів, яка забезпечує інтерфейси сховища об'єктів та блокових пристроїв. Кластер сервера метаданих Ceph забезпечує сервіс який мапить директорії та імена файлової системи до об'єктів, які зберігаються в межах RADOS кластера. Кластер сервера метаданих може розширяти або зменшувати файлову систему, а також він може динамічно її розбалансовувати, щоб розподіляти дані рівномірно по хостах кластеру. Це гарантує високу швидкодію та попереджає великі навантаження на конкретні хости кластера.
Клієнти монтують POSIX-сумісну файлову систему використовуючи клієнти Лінукс ядра. 19 березня 2010, Linus Torvalds додав Ceph клієнт в ядро Лінукс версії 2.6.34 реліз якого вийшов 16 березня 2010. Старіший FUSE-сумісний клієнт також доступний. Сервера працюють як звичайний Unix демон.
Історія
Ceph був створений Sage Weil (розробником концепту Webring та співзасновником DreamHost) для його дипломної роботи, яка була порекомендована професором Scott A. Brandt в Jack Baskin School of Engineering при University of California, Santa Cruz та започаткована United States Department of Energy (DOE) і National Nuclear Security Administration (NNSA), за участю Lawrence Livermore National Laboratory (LLNL), Los Alamos National Laboratory (LANL), та Sandia National Laboratories (SNL).
Після його випуску восени 2007, Weil продовжив працювати над Ceph повністю, основна команда розробки була поповнена Yehuda Sadeh Weinraub та Gregory Farnum. В 2012, Weil створив Inktank Storage для професійних сервісів та підтримки Ceph.
В квітні 2014, Red Hat купив Inktank тим самим признавши важливість розвитку Ceph development in-house.
В жовтні 2015 був сформований Ceph Community Advisory Board щоб асистувати спільноту в напрямку програмно-визначеної технології сховища з відкритим кодом. Статут рекомендаційної ради включає членів глобальної IT організацій які зробили внески до проекту Ceph, включаючи осіб від Canonical, CERN, Cisco, Fujitsu, Intel, Red Hat, SanDisk, and SUSE.
- Argonaut
- 3 липня 2012, група розробників Ceph випустила Argonaut, перший важливий «стабільний» реліз Ceph. Цей реліз отримає виправлення стабільності та тільки оновлення продуктивності, нові можливості будуть заплановані на майбутні релізи.
- Bobtail (v0.56)
- 1 січня, 2013,група розробників Ceph випустила Bobtail, другий важливий стабільний реліз Ceph. Цей реліз в основному був сфокусований на стабільності, продуктивності та оновленості з попереднього релізу Argonaut, стабільних серій (v0.48.x).
- Cuttlefish (v0.61)
- 7 Травня 2013, група розробників Ceph випустила Cuttlefish, третій мажорний стабільний реліз Ceph. Цей реліз включав багато можливостей та покращення продуктивності, а також був першим стабільним релізом для засобу розгортання 'ceph-deploy' замість попереднього 'mkcephfs'.
- Dumpling (v0.67)
- 14 Серпня 2013, група розробників Ceph випустила Dumpling, четвертий мажорний стабільний реліз Ceph. Цей реліз включав перший крок в глобальні namespace та підтримку регіонів, REST API для моніторингу та функцій управління, покращена підтримка Red Hat Enterprise Linux derivatives (RHEL)-базованих платформ.
- Emperor (v0.72)
- 9 листопада 2013, група розробників Ceph випустила Emperor, п'ятий мажорний стабільний реліз Ceph. Цей реліз приніс декілька нових можливостей включаючи реплікацію між датацентрами для radosgw, покращену зручність і простоту користування, і також багато інкрементальної продуктивності та внутрішньої роботи по рефактирінгу для підтримки нових можливостей в майбутньому релізі Firefly.
- Firefly (v0.80)
- 7 травня 2014, група розробників Ceph випустила Firefly, шостий мажорний стабільний реліз Ceph. Цей реліз приніс декілька нових можливостей включаючи кодування витирання, багаторівневий кеш, первинна спорідненість, ключ/значення OSD бекенд (експериментально), автономний radosgw (експериментально).
- Giant (v0.87)
- 29 жовтня 2014, група розробників Ceph випустила Giant, сьомий мажорний стабільний реліз Ceph.
- Hammer (v0.94)
- 7 квітня 2015, група розробників Ceph випустила Hammer, восьмий мажорний стабільний реліз Ceph. Формував базу наступної тривалої стабільної серії. Призначений витіснити v0.80.x Firefly.
- Infernalis (v9.2.0)
- On November 6, 2015, група розробників Ceph випустила Infernalis, дев'ятий мажорний стабільний реліз Ceph. Формував базу наступної тривалої стабільної серії. Включає три основні зміни після v0.94.x Hammer, та процес оновлення не тривіальний.
Етимологія
Назва «Ceph» — поширене прізвисько домашніх восьминогів та походить від головоногих, клас молюски, і зрештою з давньогрецької κεφαλή (ke-pha-LEE), значення «голова» та πόδι (PO-dhi), значення «нога». Назва (підкреслені лого) передбачає високу паралельну поведінку восьминога та була обрана для з'єднання файлової системи з талісманом UCSC, a banana slug називається «Sammy».
Примітки
- . 28 жовтня 2015. Архів оригіналу за 29 січня 2019. Процитовано 20 січня 2016.
- http://www.spinics.net/lists/ceph-devel/msg29954.html
- . 24 жовтня 2014. Архів оригіналу за 9 грудня 2020. Процитовано 24 жовтня 2014.
- Jeremy Andrews (15 листопада 2007). . . Архів оригіналу за 17 листопада 2007. Процитовано 2 березня 2016.
- . Архів оригіналу за 4 березня 2016. Процитовано 2 березня 2016.
- M. Tim Jones (4 червня 2010). (PDF). IBM. Архів оригіналу (PDF) за 4 березня 2016. Процитовано 3 грудня 2014.
- . Архів оригіналу за 30 січня 2010. Процитовано 27 квітня 2010.
- Jake Edge (14 листопада 2007). . . Архів оригіналу за 3 березня 2016. Процитовано 2 березня 2016.
- . ceph.com. Архів оригіналу за 8 травня 2013. Процитовано 28 березня 2013.
- Sage Weil (19 лютого 2010). . ceph.newdream.net. Архів оригіналу за 23 березня 2010. Процитовано 2 березня 2016.
- Sage Weil (1 грудня 2007). (PDF). University of California, Santa Cruz. Архів оригіналу (PDF) за 17 січня 2013. Процитовано 2 березня 2016.
- Bryan Bogensberger (3 травня 2012). . Inktank Blog. Архів оригіналу за 19 липня 2012. Процитовано 2 березня 2016.
- Joseph F. Kovar (10 липня 2012). . CRN. Архів оригіналу за 5 листопада 2013. Процитовано 19 липня 2013.
- Red Hat Inc (30 квітня 2014). . Red Hat. Архів оригіналу за 1 лютого 2016. Процитовано 19 серпня 2014.
- Sage Weil (3 липня 2012). . Ceph Blog. Архів оригіналу за 11 липня 2012. Процитовано 2 березня 2016.
- Sage Weil (1 січня 2013). . Ceph Blog. Архів оригіналу за 20 березня 2013. Процитовано 2 березня 2016.
- Sage Weil (17 травня 2013). . Ceph Blog. Архів оригіналу за 18 червня 2013. Процитовано 2 березня 2016.
- Sage Weil (14 серпня 2013). . Ceph Blog. Архів оригіналу за 8 квітня 2014. Процитовано 2 березня 2016.
- Sage Weil (9 листопада 2013). . Ceph Blog. Архів оригіналу за 10 січня 2014. Процитовано 2 березня 2016.
- Sage Weil (7 травня 2014). . Ceph Blog. Архів оригіналу за 11 травня 2014. Процитовано 2 березня 2016.
- Sage Weil (29 жовтня 2014). . Ceph Blog. Архів оригіналу за 7 листопада 2014. Процитовано 2 березня 2016.
- Sage Weil (7 квітня 2015). . Ceph Blog. Архів оригіналу за 15 квітня 2015. Процитовано 2 березня 2016.
- Sage Weil (6 листопада 2015). . Ceph Blog. Архів оригіналу за 23 листопада 2015. Процитовано 2 березня 2016.
- . Архів оригіналу за 30 вересня 2009. Процитовано 22 вересня 2009.
Подальше читання
- Official Ceph documentation [ 10 травня 2012 у Wayback Machine.]
- M. Tim Jones (4 травня 2010). . developerWorks > Linux > Technical library. Архів оригіналу за 3 березня 2016. Процитовано 6 травня 2010.
- Jeffrey B. Layton (20 квітня 2010). . . Архів оригіналу за 27 червня 2010. Процитовано 24 квітня 2010.
- Carlos Maltzahn, Esteban Molina-Estolano, Amandeep Khurana, Alex J. Nelson, Scott A. Brandt, and Sage Weil (August 2010). . . Т. 35, № 4. Архів оригіналу за 4 березня 2016. Процитовано 9 березня 2012.
- Martin Loschwitz (24 квітня 2012). . . Архів оригіналу за 29 лютого 2016. Процитовано 25 квітня 2012.
Джерела
- Офіційний сайт
- Офіційний сайт, Red Hat Ceph
- SUSE Enterprise Storage (Ceph) [ 6 березня 2016 у Wayback Machine.]
- UCSC Systems Research Lab website [ 29 квітня 2016 у Wayback Machine.]
- Storage Systems Research Center website [ 7 березня 2016 у Wayback Machine.]
- Ceph Performance and Optimization [ 4 березня 2016 у Wayback Machine.] (Ceph Day Frankfurt)
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
V obchislennyah Ceph vilne shovishe ob yektiv yake zberigaye dani na odnomu rozpodilenomu komp yuternomu klasteri ta zabezpechuye interfejs rivnya ob yektu bloku ta fajlu Osnovni cili Ceph buti povnistyu rozpodilenim bez yedinoyi tochki vidmovi masshtabovanim do rivnya eksabajt ta vilno dostupnim CephTipRozpodilene zberigannya ob yektivAvtor Yehuda Sadeh Weinraub Gregory Farnum Josh Durgin Samuel Just Wido den Hollander RozrobnikiCanonical CERN Cisco Fujitsu Intel Red Hat SanDisk and SUSEStabilnij vipusk18 2 3 serpnya 2023 10 misyaciv tomu 2023 08 03 Operacijna sistemaLinuxMova programuvannyaC Python dzherelo LicenziyaLGPL 2 1Repozitorijgithub com ceph cephVebsajtceph com Mediafajli u Vikishovishi Ceph replikuye dani ta robit yih vidmovostijkimi vikoristovuyuchi zvichajne obladnannya ta ne vimagayuchi pidtrimki specifichnogo Rezultatom dizajnu ye te sho sistema ye yak samo vidnovlyuvanoyu tak i samo kerovanoyu nacilenoyu na minimizaciyu chasu administruvannya ta inshih zatrat V realizaciyi CephFS fajlova sistema vidsutni standartni zasobi vidnovlennya fajlovoyi sistemi tomu koristuvacka dokumentaciya Ceph ne rekomenduye zberigati kritichni dani cherez vidsutnist mozhlivosti avarijnogo vidnovlennya ta instrumentiv DizajnVisokorivnevij oglyad vnutrishnoyi organizaciyi Ceph 4 Ceph vikoristovuye chotiri rizni vidi demoniv Monitori klasteru ceph mon vidslidkovuyut aktivni ta zlamani nodi klasteru Serveri metadanih ceph mds zberigayut metadani inode ta katalogiv Pristroyi zberigannya ob yektiv ceph osd dijsno zberigayut vmist fajliv V idealnomu vipadku OSD zberigayut svoyi dani v lokalnij fajlovij sistemi btrfs shob zadiyati svoyu vbudovanu copy on write vlastivist hocha j inshi lokalni fajlovi sistemi mozhut vikoristovuvatisya tezh Shlyuzi peredachi reprezentativnogo stanu RESTful ceph rgw yaki rozkrivayut riven zberigannya ob yektiv yak interfejs sumisnij z Amazon S3 chi OpenStack Swift API Voni vsi ye povnistyu rozpodilenimi ta mozhut pracyuvati na tomu zh samomu nabori serveriv Kliyenti napryamu vzayemodiyut z usima nimi Ceph robit striping individualnih fajliv po bagatoh nodah shob dosyagti najbilshoyi propusknoyi zdatnosti podibno do togo yak RAID0 rozpodilyaye smugami rozdili po bagatoh tverdih diskah Adaptivnij balans navantazhennya pidtrimuyetsya za dopomogoyu togo yak chasto dostupayutsya do ob yektiv yaki replikovani na bilshosti nod citation needed Na Gruden 2014 fajlovi sistemi yaki rekomendovano dlya vikoristannya u virobnichih seredovishah ce ext4 malenkij masshtab ta XFS rozgortannya velikogo masshtabu poki Btrfs ta ZFS rekomendovano dlya nevirobnichih seredovish Shovishe ob yektiv Arhitekturna diagrama pokazuye zv yazok mizh komponentami platformi zberigannya Ceph Ceph vprovadzhuye rozpodilene shovishe ob yektiv Programni biblioteki Ceph zabezpechuyut kliyentski programi pryamim dostupom do nadijnogo avtomatichno rozpodilenogo zberigannya ob yektiv RADOS vid angl reliable autonomic distributed object store a takozh zabezpechuye fundament dlya deyakih osoblivostej Ceph vklyuchayuchi RADOS Block Device RBD RADOS Gateway ta Ceph File System Programna biblioteka librados zabezpechuye dostup dlya C C Java PHP tp Python Blokove shovishe Sistema zberigannya ob yektiv Ceph dozvolyaye koristuvacham montuvati Ceph yak tonko pidgotovlenij blokovij pristrij Koli dodatok pishe dani na Ceph vikoristovuyuchi blokovij pristrij Ceph avtomatichno rozkidaye ta replikuye dani po vsomu klasteru Blokovij pristrij Ceph RBD vid ang RADOS Block Device takozh integruyetsya z Kernel based Virtual Machines KVMs Interfejsi Ceph RBD z tiyeyu zh samoyu sistemoyu zberigannya ob yektiv Ceph zabezpechuyut interfejs librados ta fajlovu sistemu CephFS a takozh zberigayut obrazi blokovih pristroyiv yak ob yekti Z togo chasu yak RBD bazuyetsya na librados RBD nasliduye mozhlivosti librados vklyuchayuchi znimki tipu tilki chitannya ta povernennya do znimkiv Zavdyaki rozkidannyu obraziv po klasteru Ceph pokrashuye produktivnist chitannya dlya velikih obraziv blokovih pristroyiv Blokovi pristroyi pidtrimuyutsya platformami virtualizaciyi vklyuchayuchi Apache CloudStack OpenStack OpenNebula ta Proxmox Virtual Environment Ci integraciyi dozvolyayut administratoram vikoristovuvati blokovi pristroyi Ceph yak shovishe dlya yihnih virtualnih mashin v yihnih seredovishah Fajlova sistema Fajlova sistema Ceph CephFS pracyuye na bazi toyi zh samoyi sistemi zberigannya ob yektiv yaka zabezpechuye interfejsi shovisha ob yektiv ta blokovih pristroyiv Klaster servera metadanih Ceph zabezpechuye servis yakij mapit direktoriyi ta imena fajlovoyi sistemi do ob yektiv yaki zberigayutsya v mezhah RADOS klastera Klaster servera metadanih mozhe rozshiryati abo zmenshuvati fajlovu sistemu a takozh vin mozhe dinamichno yiyi rozbalansovuvati shob rozpodilyati dani rivnomirno po hostah klasteru Ce garantuye visoku shvidkodiyu ta poperedzhaye veliki navantazhennya na konkretni hosti klastera Kliyenti montuyut POSIX sumisnu fajlovu sistemu vikoristovuyuchi kliyenti Linuks yadra 19 bereznya 2010 Linus Torvalds dodav Ceph kliyent v yadro Linuks versiyi 2 6 34 reliz yakogo vijshov 16 bereznya 2010 Starishij FUSE sumisnij kliyent takozh dostupnij Servera pracyuyut yak zvichajnij Unix demon IstoriyaCeph buv stvorenij Sage Weil rozrobnikom konceptu Webring ta spivzasnovnikom DreamHost dlya jogo diplomnoyi roboti yaka bula porekomendovana profesorom Scott A Brandt v Jack Baskin School of Engineering pri University of California Santa Cruz ta zapochatkovana United States Department of Energy DOE i National Nuclear Security Administration NNSA za uchastyu Lawrence Livermore National Laboratory LLNL Los Alamos National Laboratory LANL ta Sandia National Laboratories SNL Pislya jogo vipusku voseni 2007 Weil prodovzhiv pracyuvati nad Ceph povnistyu osnovna komanda rozrobki bula popovnena Yehuda Sadeh Weinraub ta Gregory Farnum V 2012 Weil stvoriv Inktank Storage dlya profesijnih servisiv ta pidtrimki Ceph V kvitni 2014 Red Hat kupiv Inktank tim samim priznavshi vazhlivist rozvitku Ceph development in house V zhovtni 2015 buv sformovanij Ceph Community Advisory Board shob asistuvati spilnotu v napryamku programno viznachenoyi tehnologiyi shovisha z vidkritim kodom Statut rekomendacijnoyi radi vklyuchaye chleniv globalnoyi IT organizacij yaki zrobili vneski do proektu Ceph vklyuchayuchi osib vid Canonical CERN Cisco Fujitsu Intel Red Hat SanDisk and SUSE Argonaut 3 lipnya 2012 grupa rozrobnikiv Ceph vipustila Argonaut pershij vazhlivij stabilnij reliz Ceph Cej reliz otrimaye vipravlennya stabilnosti ta tilki onovlennya produktivnosti novi mozhlivosti budut zaplanovani na majbutni relizi Bobtail v0 56 1 sichnya 2013 grupa rozrobnikiv Ceph vipustila Bobtail drugij vazhlivij stabilnij reliz Ceph Cej reliz v osnovnomu buv sfokusovanij na stabilnosti produktivnosti ta onovlenosti z poperednogo relizu Argonaut stabilnih serij v0 48 x Cuttlefish v0 61 7 Travnya 2013 grupa rozrobnikiv Ceph vipustila Cuttlefish tretij mazhornij stabilnij reliz Ceph Cej reliz vklyuchav bagato mozhlivostej ta pokrashennya produktivnosti a takozh buv pershim stabilnim relizom dlya zasobu rozgortannya ceph deploy zamist poperednogo mkcephfs Dumpling v0 67 14 Serpnya 2013 grupa rozrobnikiv Ceph vipustila Dumpling chetvertij mazhornij stabilnij reliz Ceph Cej reliz vklyuchav pershij krok v globalni namespace ta pidtrimku regioniv REST API dlya monitoringu ta funkcij upravlinnya pokrashena pidtrimka Red Hat Enterprise Linux derivatives RHEL bazovanih platform Emperor v0 72 9 listopada 2013 grupa rozrobnikiv Ceph vipustila Emperor p yatij mazhornij stabilnij reliz Ceph Cej reliz prinis dekilka novih mozhlivostej vklyuchayuchi replikaciyu mizh datacentrami dlya radosgw pokrashenu zruchnist i prostotu koristuvannya i takozh bagato inkrementalnoyi produktivnosti ta vnutrishnoyi roboti po refaktiringu dlya pidtrimki novih mozhlivostej v majbutnomu relizi Firefly Firefly v0 80 7 travnya 2014 grupa rozrobnikiv Ceph vipustila Firefly shostij mazhornij stabilnij reliz Ceph Cej reliz prinis dekilka novih mozhlivostej vklyuchayuchi koduvannya vitirannya bagatorivnevij kesh pervinna sporidnenist klyuch znachennya OSD bekend eksperimentalno avtonomnij radosgw eksperimentalno Giant v0 87 29 zhovtnya 2014 grupa rozrobnikiv Ceph vipustila Giant somij mazhornij stabilnij reliz Ceph Hammer v0 94 7 kvitnya 2015 grupa rozrobnikiv Ceph vipustila Hammer vosmij mazhornij stabilnij reliz Ceph Formuvav bazu nastupnoyi trivaloyi stabilnoyi seriyi Priznachenij vitisniti v0 80 x Firefly Infernalis v9 2 0 On November 6 2015 grupa rozrobnikiv Ceph vipustila Infernalis dev yatij mazhornij stabilnij reliz Ceph Formuvav bazu nastupnoyi trivaloyi stabilnoyi seriyi Vklyuchaye tri osnovni zmini pislya v0 94 x Hammer ta proces onovlennya ne trivialnij EtimologiyaNazva Ceph poshirene prizvisko domashnih vosminogiv ta pohodit vid golovonogih klas molyuski i zreshtoyu z davnogreckoyi kefalh ke pha LEE znachennya golova ta podi PO dhi znachennya noga Nazva pidkresleni logo peredbachaye visoku paralelnu povedinku vosminoga ta bula obrana dlya z yednannya fajlovoyi sistemi z talismanom UCSC a banana slug nazivayetsya Sammy Primitki 28 zhovtnya 2015 Arhiv originalu za 29 sichnya 2019 Procitovano 20 sichnya 2016 http www spinics net lists ceph devel msg29954 html 24 zhovtnya 2014 Arhiv originalu za 9 grudnya 2020 Procitovano 24 zhovtnya 2014 Jeremy Andrews 15 listopada 2007 Arhiv originalu za 17 listopada 2007 Procitovano 2 bereznya 2016 Arhiv originalu za 4 bereznya 2016 Procitovano 2 bereznya 2016 M Tim Jones 4 chervnya 2010 PDF IBM Arhiv originalu PDF za 4 bereznya 2016 Procitovano 3 grudnya 2014 Arhiv originalu za 30 sichnya 2010 Procitovano 27 kvitnya 2010 Jake Edge 14 listopada 2007 Arhiv originalu za 3 bereznya 2016 Procitovano 2 bereznya 2016 ceph com Arhiv originalu za 8 travnya 2013 Procitovano 28 bereznya 2013 Sage Weil 19 lyutogo 2010 ceph newdream net Arhiv originalu za 23 bereznya 2010 Procitovano 2 bereznya 2016 Sage Weil 1 grudnya 2007 PDF University of California Santa Cruz Arhiv originalu PDF za 17 sichnya 2013 Procitovano 2 bereznya 2016 Bryan Bogensberger 3 travnya 2012 Inktank Blog Arhiv originalu za 19 lipnya 2012 Procitovano 2 bereznya 2016 Joseph F Kovar 10 lipnya 2012 CRN Arhiv originalu za 5 listopada 2013 Procitovano 19 lipnya 2013 Red Hat Inc 30 kvitnya 2014 Red Hat Arhiv originalu za 1 lyutogo 2016 Procitovano 19 serpnya 2014 Sage Weil 3 lipnya 2012 Ceph Blog Arhiv originalu za 11 lipnya 2012 Procitovano 2 bereznya 2016 Sage Weil 1 sichnya 2013 Ceph Blog Arhiv originalu za 20 bereznya 2013 Procitovano 2 bereznya 2016 Sage Weil 17 travnya 2013 Ceph Blog Arhiv originalu za 18 chervnya 2013 Procitovano 2 bereznya 2016 Sage Weil 14 serpnya 2013 Ceph Blog Arhiv originalu za 8 kvitnya 2014 Procitovano 2 bereznya 2016 Sage Weil 9 listopada 2013 Ceph Blog Arhiv originalu za 10 sichnya 2014 Procitovano 2 bereznya 2016 Sage Weil 7 travnya 2014 Ceph Blog Arhiv originalu za 11 travnya 2014 Procitovano 2 bereznya 2016 Sage Weil 29 zhovtnya 2014 Ceph Blog Arhiv originalu za 7 listopada 2014 Procitovano 2 bereznya 2016 Sage Weil 7 kvitnya 2015 Ceph Blog Arhiv originalu za 15 kvitnya 2015 Procitovano 2 bereznya 2016 Sage Weil 6 listopada 2015 Ceph Blog Arhiv originalu za 23 listopada 2015 Procitovano 2 bereznya 2016 Arhiv originalu za 30 veresnya 2009 Procitovano 22 veresnya 2009 Podalshe chitannyaOfficial Ceph documentation 10 travnya 2012 u Wayback Machine M Tim Jones 4 travnya 2010 developerWorks gt Linux gt Technical library Arhiv originalu za 3 bereznya 2016 Procitovano 6 travnya 2010 Jeffrey B Layton 20 kvitnya 2010 Arhiv originalu za 27 chervnya 2010 Procitovano 24 kvitnya 2010 Carlos Maltzahn Esteban Molina Estolano Amandeep Khurana Alex J Nelson Scott A Brandt and Sage Weil August 2010 T 35 4 Arhiv originalu za 4 bereznya 2016 Procitovano 9 bereznya 2012 Martin Loschwitz 24 kvitnya 2012 Arhiv originalu za 29 lyutogo 2016 Procitovano 25 kvitnya 2012 DzherelaOficijnij sajt Oficijnij sajt Red Hat Ceph SUSE Enterprise Storage Ceph 6 bereznya 2016 u Wayback Machine UCSC Systems Research Lab website 29 kvitnya 2016 u Wayback Machine Storage Systems Research Center website 7 bereznya 2016 u Wayback Machine Ceph Performance and Optimization 4 bereznya 2016 u Wayback Machine Ceph Day Frankfurt