SLinCA@Home (Scaling Laws in Cluster Aggregation — Інваріантність щодо масштабу|Масштабоінваріантні закономірності в агрегації кластерів) — це науково-дослідний проект, який використовує комп'ютери, з'єднані глобальною мережею Інтернет, для досліджень в галузі матеріалознавства.
Тип | Грід, розподілені обчислення, волонтерські обчислення |
---|---|
Розробник | ІМФ НАН України |
Перший випуск | 14 вересня 2010 |
Платформа | BOINC, SZTAKI Desktop Grid, , OurGrid |
Операційна система | Linux, Windows |
Стан розробки | Альфа |
Вебсайт | dg.imp.kiev.ua |
Вступ
SLinCA@Home заснований групою наукових співробітників з Інституту металофізики ім. Г. В. Курдюмова (ІМФ) [ 3 березня 2022 у Wayback Machine.] Національної академії наук України (НАН України), Київ, Україна. Цей проект використовує програмне забезпечення Berkeley Open Infrastructure for Network Computing (BOINC) [ 17 лютого 2011 у Wayback Machine.], платформу , та API для розподілених обчислень (DC-API) від . SLinCA@Home включає декілька наукових програм присвячених пошуку масштабоінваріантних закономірностей в експериментальних даних і результатах комп'ютерного моделювання.
Історія
Проект SLinCA@Home раніше був запущений в січні 2009 р. як частина проекту EDGeS [ 20 січня 2022 у Wayback Machine.] Сьомої Рамкової Програми (Seventh Framework Programme — FP7) [ 26 лютого 2011 у Wayback Machine.] Європейського Союзу (ЄС) для фінансування наукових досліджень і технологічного розвитку в Європі. У 2009—2010 він використовував потужності локального «Настільного Гріда» (НГ) [ 1 березня 2011 у Wayback Machine.] ІМФ [ 3 березня 2022 у Wayback Machine.], але із грудня 2010 року використовує інфраструктуру розподілених обчислень, яка надається волонтерами для вирішення складних обчислювальних завдань, пов'язаних з пошуком масштабоінваріантних закономірностей в експериментально отриманих та модельованих наукових даних. Зараз проект управляється групою вчених з ІМФ [ 3 березня 2022 у Wayback Machine.] НАН України у тісній співпраці з партнерами з IDGF [ 24 лютого 2011 у Wayback Machine.] та Distributed Computing team 'Ukraine' [ 14 березня 2022 у Wayback Machine.]. З червня 2010 SLinCA@Home працює в рамках проекту FP7 [ 26 лютого 2011 у Wayback Machine.] ЄС.
Поточний статус
Зараз SLinCA@Home має статус альфа-версії, що пов'язано з поступовою модернізацією серверної і клієнтської частин.
За неофіційною статистикою BOINCstats [ 8 липня 2011 у Wayback Machine.] (станом на 16 березня 2011) більш ніж 2000 волонтерів з 39 країн взяли участь у проекті, зробивши його другим за популярністю BOINC проектом в Україні (після проекту Magnetism@Home [ 3 червня 2011 у Wayback Machine.], який зараз не активний). Близько 700 активних користувачів забезпечують приблизно 0.5-1.5 TFLOPS обчислювальної потужності, яка дозволила б SLinCA@Home потрапити в найкращу 20-ку списку TOP500 [ 12 грудня 1998 у Wayback Machine.] суперкомп'ютерів … станом на червень 2005 року. :)
Зараз, одну програму (SLinCA) запущено на відкритій глобальної інфраструктурі розподілених обчислень (SLinCA@Home), а три інших (MultiScaleIVideoP, CPDynSG, LAMMPS через ІРО) перебувають в стадії тестування на закритому локальному Настільному Гріді (НГ) [ 1 березня 2011 у Wayback Machine.] ІМФ [ 3 березня 2022 у Wayback Machine.].
Програми
Проект SLinCA@Home був створений для пошуку невідомих раніше масштабоінваріантних закономірностей за результатами експериментів і моделювання в наступних наукових програмах
Scaling Laws in Cluster Aggregation (SLinCA)
Тип | Грід, розподілені обчислення, волонтерські обчислення |
---|---|
Розробник | ІМФ НАН України |
Перший випуск | 24 липня 2007 |
Платформа | BOINC, SZTAKI Desktop Grid, XtremWeb-HEP, OurGrid |
Операційна система | Linux (32-bit), Windows (32-bit) |
Мова програмування | C, |
Стан розробки | Активний |
Вебсайт | dg.imp.kiev.ua |
SLinCA (Scaling Laws in Cluster Aggregation) є першою програмою портованою на DG інфраструктуру лабораторією фізики деформаційних процесів ІМФ [ 3 березня 2022 у Wayback Machine.] НАН України. Її метою є знайти закони масштабної інваріантності в кінетичному сценарії агрегації мономеру в кластерах різних видів і в різних наукових областях.
Процеси агрегації кластерів досліджуються в багатьох галузях науки: агрегації дефектів в матеріалознавстві, динаміці популяцій в біології, рості і розвитку міст в соціології, і т. д. Існуючі експериментальні дані свідчать про наявність ієрархічної структури на багатьох масштабних рівнях. Наявні теорії пропонують безліч сценаріїв агрегації кластерів, формування ієрархічних структур, і пояснення їх масштабоінваріантних властивостей. Для їх перевірки необхідно використовувати потужні обчислювальні ресурси для обробки величезних баз даних експериментальних результатів. Звичайне моделювання одного процесу агрегації кластерів з 106 мономерами займає приблизно 1-7 днів на одному сучасному процесорі, в залежності від кількості кроків у методі Монте-Карло. Виконання SLinCA в Гріді в інфраструктурі розподілених обчислень (ІРО), дозволяє використовувати сотні машин з достатньою обчислювальною потужністю для моделювання безлічі сценаріїв за набагато більш короткі терміни.
Типові технічні параметри для запуску ІРО-версії програми SLinCA в глобальній відкритій інфраструктурі розподілених обчислень (ІРО) (SLinCA@Home):
- Поточні умови для 1 завдання на 1 ядро процесора (2.4 GHz): час виконання ~2-4 години; RAM<60 Мб; НЖМД<40 Мб.
- Чекпойнтінг[]: н/д (в процесі тестування).
- Хронометраж виконання завдань: нелінійний.
Наукові результати
Попередні результати програми SLinCA були отримані на обчислювальних ресурсах тестових інфраструктур та ; опубліковані в 2009 в стендовій доповіді , Алмере, Нідерланди (29-30 Березня, 2009).
Плани на майбутнє
Поточна версія програми SLinCA буде оновлена для стабільності чекпоінта, нової функціональності та підтримки NVIDIA GPU-розрахунків для виконання аналізу швидше (за оцінками від 50 до 200 % швидше). Додаткова мета — це міграція на платформу OurGrid [ 13 червня 2021 у Wayback Machine.] для тестування і демонстрації потенційних механізмів взаємодії між світовими спільнотами з різними парадигмами розподілених обчислень. SLinCA планується портувати на платформу OurGrid [ 13 червня 2021 у Wayback Machine.], орієнтовану на підтримку пірінгових настільних грідів, які, за своєю природою, дуже відрізняються від волонтерських розподілених обчислень на базі «Настільного Гріда» (НГ) [ 1 березня 2011 у Wayback Machine.], як .
Multiscale Image and Video Processing (MultiScaleIVideoP)
Тип | Грід, розподілені обчислення, волонтерські обчислення |
---|---|
Розробник | ИМФ НАН України (оболонка для середовища РО), Mathworks (бібліотеки MATLAB) |
Перший випуск | 11 січня 2008 |
Платформа | MATLAB, BOINC, , XtremWeb-HEP |
Операційна система | Linux (32-bit), Windows (32-bit) |
Мова програмування | C, , MATLAB |
Стан розробки | Альфа |
Вебсайт | dg.imp.kiev.ua |
Оптична мікроскопія зазвичай використовується для аналізу структурних характеристик матеріалів у вузьких діапазонах збільшення, невеликої досліджуваної області, і в статичному режимі. Однак безліч критичних процесів, пов'язаних з початком і динамічним поширенням руйнування спостерігаються в широкому часовому діапазоні від 10 −3с до 10 3с і на багатьох масштабних рівнях від 10 −6м (одиночні дефекти) до 10 −2м (пов'язані мережі дефектів). Програма Multiscale Image and Video Processing (MultiscaleIVideoP) призначена для обробки записаної еволюції матеріалів під час механічної деформації на випробувальній машині. Розрахунки включають в себе безліч параметрів фізичного процесу (швидкість, зусилля, збільшення, умови освітлення, апаратні фільтри, і т. д.) і параметрів обробки зображення (розподіл за розмірами, анізотропія, локалізація, параметри масштабування і т. д.). Тому розрахунки дуже трудомісткі і виконуються дуже повільно. Ось чому з'явилася крайня необхідність використання потужніших обчислювальних ресурсів. Виконання цієї програми в інфраструктурі розподілених обчислень (ІРО), дозволяє використовувати сотні машин з достатньою обчислювальною потужністю для обробки зображень і відео в більш широкому діапазоні масштабів і за набагато більш короткі терміни.
Типові технічні параметри для запуску ІРО-версії програми MultiScaleIVideoP на закритому локальному Настільному Гріді (НГ) [ 1 березня 2011 у Wayback Machine.] ІМФ [ 3 березня 2022 у Wayback Machine.] :
- Поточні умови для 1 завдання на 1 ядро процесора (2.4 GHz): час виконання ~ 20-30 хв; RAM<200 Мб; НЖМД<500 Мб.
- Чекпойнтінг: н/д (в процесі тестування).
- Хронометраж виконання завдань: лінійний.
Наукові результати
Попередні результати програми MultiScaleIVideoP були отримані на обчислювальних ресурсах тестових інфраструктур і ; опубліковані в 2009 в стендовій доповіді , Алмере, Нідерланди (29-30 березня, 2009).
У січні, 2011 були отримані і опубліковані подальші результати обробки даних відеоспостереження в ході експериментів з циклічним обмеженим навантаженням алюмінієвої фольги.
Плани на майбутнє
Поточна версія програми MultiScaleIVideoP буде оновлена для стабільності чекпоінта, нової функціональності та підтримки NVIDIA GPU-розрахунків для виконання аналізу швидше (за оцінками від 300 до 600 % швидше).
City Population Dynamics and Sustainable Growth (CPDynSG)
Тип | Грід, розподілені обчислення, волонтерські обчислення |
---|---|
Розробник | ИМФ НАН України |
Перший випуск | 14 квітня 2010 |
Платформа | BOINC, SZTAKI Desktop Grid |
Операційна система | Linux (32-bit), Windows (32-bit) |
Мова програмування | C, |
Стан розробки | Альфа |
Вебсайт | dg.imp.kiev.ua |
Відомо, що зростання міст (муніципалітетів, округів тощо) пояснюється міграцією, злиттям, зростанням населення і т. д. Відмічено, що розподіл міст за їх розмірами в багатьох країнах підпорядковується статичному закону. Ця залежність підтверджується даними для популяцій в різних містах в період їх початкової історії. Населення у всіх великих містах зростає набагато швидше, ніж країна в цілому за значний діапазон часу. Однак, як і в містах, які досягли зрілості, їх зростання може сповільнитися або кількість населення може навіть знизитися з причин, не пов'язаних з міграцією в ще більші міста. Різні теорії дають темпи зростання, асимптотики, і розподілу таких груп населення. Важливою особливістю програми є порівняння наявних теорій з даними спостережень та прогнозування сценаріїв динаміки стійкого зростання населення для різних національних і міжнародних регіонів. Програма City Population Dynamics and Sustainable Growth (CPDynSG) дозволяє дослідити зв'язок між величезним обсягом експериментальних даних і знайти якісну відповідність між передбаченнями різних моделей і наявними історичними даними.
Типові технічні параметри для запуску ІРО-версії програми CPDynSG на закритому локальному Настільному Гріді (НГ) [ 1 березня 2011 у Wayback Machine.] ІМФ [ 3 березня 2022 у Wayback Machine.] :
- Поточні умови для 1 завдання на 1 ядро процесора (2.4 GHz): час виконання ~ 20-30 хв; RAM<20 Мб; НЖМД<50 Мб.
- Чекпойнтінг: н/д (в процесі тестування).
- Хронометраж виконання завдань: лінійний.
Наукові результати
У червні-вересні 2010 року були отримані результати щодо концепції, результатів портування ІРО-версії програми CPDynSG на базі платформи Berkeley Open Infrastructure for Network Computing (BOINC) [ 17 лютого 2011 у Wayback Machine.], платформу , і API для розподілених обчислень (DC-API) від , а також попередні результати для розподілу розмірів міст в кількох країнах Центральної та Східної Європи. Відзначена характерна ізоляція розподілу розмірів міст в Угорщині, а також виявлена дуже схожа еволюція розподілу за розмірами міст в Україні та Польщі. Ці результати були представлені на Cracow Grid Workshop'10 [ 28 липня 2011 у Wayback Machine.] (11-13 жовтня, 2010) в усній і стендовій доповідях. Представлений стенд був відзначений нагородою «За найкращу стендову доповідь Cracow Grid Workshop'09».
Плани на майбутнє
Поточна версія програми CPDynSG буде оновлена для стабільності чекпоінта, нової функціональності та підтримки NVIDIA GPU-розрахунків для виконання аналізу швидше (за оцінками від 50 до 200 % швидше).
Large-scale Atomic/Molecular Massively Parallel Simulator (LAMMPS) в інфраструктурі розподілених обчислень (ІРО)
Тип | Грід, розподілені обчислення, волонтерські обчислення |
---|---|
Розробник | ІМФ НАН України (оболонка для середовища РО), Sandia National Laboratories (LAMMPS itself) |
Перший випуск | 4 серпня 2010 |
Платформа | BOINC, SZTAKI Desktop Grid |
Операційна система | Linux (32-bit), Windows (32-bit) |
Мова програмування | C, |
Стан розробки | Альфа |
Вебсайт | dg.imp.kiev.ua |
Пошук нових нанорозмірних функціональних пристроїв став справжнім «Ельдорадо» сучасної науки і він стимулює «Золоту лихоманку» в сучасному матеріалознавстві. Але контрольоване виробництво нанорозмірних функціональних пристроїв вимагає ретельного вибору і настройки критичних параметрів (елементів, потенціалів взаємодії, режимів зовнішнього впливу, температури тощо) атомної самоорганізації в розроблюваних моделях і структурах для наномасштабних функціональних пристроїв. Ось чому молекулярно-динамічне моделювання процесів нановиробництва з декомпозицією фізичних параметрів і перебором параметрів методом «грубої сили» є досить перспективним. Для цієї мети був вибраний дуже популярний некомерційний пакет з відкритим кодом LAMMPS «Large-scale Atomic / Molecular Massively Parallel Simulator» (LAMMPS) [ 22 вересня 2006 у Wayback Machine.] від Sandia National Laboratories [ 15 березня 2022 у Wayback Machine.] як кандидат для портування в інфраструктуру розподілених обчислень (ІРО) на основі платформи Berkeley Open Infrastructure for Network Computing (BOINC) [ 17 лютого 2011 у Wayback Machine.], , і API для розподілених обчислень (DC-API) від . Як правило, для такого моделювання нанооб'єктів з багатьма параметрами потрібно надзвичайно багато обчислювальних ресурсів. Типове моделювання досліджуваних наноструктур для однієї конфігурації фізичних параметрів — наприклад, для моделювання фізичних процесів протягом 1-10 пікосекунд металевих монокристалів (Al, Cu, Mo, ітд.) З 10 7 атомів — потрібно приблизно 1 — 7 днів на одному сучасному процесорі. Виконання LAMMPS в Гріді в інфраструктурі розподілених обчислень (ІРО) дозволяє використовувати сотні машин одночасно і отримумати величезну кількість обчислювальних ресурсів для проведення моделювання в широкому діапазоні фізичних параметрів (конфігурацій) і в набагато більш короткі терміни .
Типові технічні параметри для запуску ІРО-версії програми MultiScaleIVideoP на закритому локальному Настільному Гріді (НГ) [ 1 березня 2011 у Wayback Machine.] ІМФ [ 3 березня 2022 у Wayback Machine.] :
- Поточні умови для 1 завдання на 1 ядро процесора (2.4 GHz): час виконання ~ 2-48 годин; RAM<500 Мб; НЖМД<1 Гб.
- Чекпойнтінг: н/д (в процесі тестування).
- Хронометраж виконання завдань: лінійний.
Наукові результати
У вересні-жовтні 2010 отримані попередні результати були представлені в усній презентації на Міжнародній Конференції «Наноструктурні матеріали-2010»[недоступне посилання з лютого 2019], Київ, Україна
Плани на майбутнє
Поточна версія LAMMPS із застосуванням програми ІРО буде оновлена для стабільності чекпоінта, нової функціональності та підтримки NVIDIA GPU-розрахунків для виконання аналізу швидше (за оцінками від 300 до 500 % швидше).
Партнери
SLinCA@Home співпрацює з
- партнерами в проектах FP7 [ 26 лютого 2011 у Wayback Machine.] ЄС:
- проект
- проект EDGeS [ 20 січня 2022 у Wayback Machine.]
- спільнотами волонтерів, які беруть участь в розподілених обчисленнях:
- команда розподілених обчислень «Україна» [ 14 березня 2022 у Wayback Machine.]
- професійними спільнотами експертів в області розподілених обчислень:
- Міжнародна федерація настільних грідів (International Desktop Grid Federation — IDGF) [ 24 лютого 2011 у Wayback Machine.].
Нагороди
[[Файл:CGW 2010 best poster award.jpg|thumb|right|150px|Партнер IDGF [ 24 лютого 2011 у Wayback Machine.] Юрій Гордієнко з дипломом за найкращий постер на CGW'10 [ 25 липня 2011 у Wayback Machine.].]]
- 2009 — «За найкращу стендову доповідь Cracow Grid Workshop'09» [ 28 липня 2011 у Wayback Machine.], Краків, Польща (12-14 жовтня, 2009) — звіт про ідею та результати портування програми MultiScaleIVideoP з MATLAB-бібліотеками для інфраструктури розподілених обчислень (ІРО) на основі BOINC [ 17 лютого 2011 у Wayback Machine.] платформ, та платформи, де застосовність інтеграції MATLAB об'єктів і кодів для розподілених обчислень демонструється на прикладі обробки зображень і відео в галузі матеріалознавства і мікроскопії.
- 2010 — «За найкращу стендову доповідь Cracow Grid Workshop'10» [ 28 липня 2011 у Wayback Machine.], Краков, Польща (11-13 Жовтня, 2010) — звіт про концепції та результати портування CPDynSG програм для інфраструктури розподілених обчислень (ІРО) на основі BOINC [ 17 лютого 2011 у Wayback Machine.] платформ, з порівняльним аналізом наявних теорій з експериментальними спостереженнями, а також типовими сценаріями динаміки зростання населення для різних країн Центральної та Східної Європи.
Див. також
Примітки
- , архів оригіналу за 8 липня 2011, процитовано 16 березня 2011
- . Архів оригіналу за 21 лютого 2011. Процитовано 21 березня 2011.
- , June, 2005, архів оригіналу за 28 липня 2011, процитовано 16 березня 2011
- O. Gatsenko; O. Baskova, and Y. Gordienko (March, 2009). (PDF). Proceedings of 3rd AlmereGrid Workshop. Архів оригіналу (PDF) за 23 лютого 2011. Процитовано 16 березня 2011.
- O. Baskova; O. Gatsenko, and Y. Gordienko (March, 2009). (PDF). Proceedings of 3rd AlmereGrid Workshop. Архів оригіналу (PDF) за 23 лютого 2011. Процитовано 16 березня 2011.
- O. Baskova; O. Gatsenko, O. Lodygensky, G. Fedak, and Y. Gordienko (January, 2011). Statistical Properties of Deformed Single-Crystal Surface under Real-Time Video Monitoring and Processing in the Desktop Grid Distributed Computing Environment. Т. 465. Key Engineering Materials. с. 306—309. Архів оригіналу за 26 липня 2012. Процитовано 16 березня 2011.
- O. Gatsenko; O. Baskova, and Y. Gordienko (February, 2011). Simulation of City Population Dynamics and Sustainable Growth in Desktop Grid Distributed Computing Infrastructure. Proceedings of Cracow Grid Workshop'10. Процитовано 16 березня 2011.
- O. Baskova; O. Gatsenko, O. Gontareva, E. Zasimchuk, and Y. Gordienko (19-22 October, 2011). Scale-Invariant Aggregation Kinetics of Nanoscale Defects of Crystalline Structure (Масштабно-інваріантна кінетика агрегації нанорозмірних дефектів кристалічної будови) (PDF). Online Proceedings of “Nanostructured materials-2010”. Архів оригіналу (PDF) за 26 липня 2012. Процитовано 16 березня 2011.
- O. Baskova; O. Gatsenko, and Y. Gordienko (February, 2010). Scaling-up MATLAB Application in Desktop Grid for High-Performance Distributed Computing - Example of Image and Video Processing (PDF). Proceedings of Cracow Grid Workshop'09. с. 255—263. ISBN . Архів (PDF) оригіналу за 26 липня 2012. Процитовано 16 березня 2011.
Посилання
- Платформа BOINC [ 17 лютого 2011 у Wayback Machine.]
- Платформа SZTAKI [ 1 березня 2011 у Wayback Machine.]
- Платформа OurGrid [ 13 червня 2021 у Wayback Machine.]
- Статистика проектів BOINC [ 15 березня 2022 у Wayback Machine.]
- Проект SLinCA@Home
- Проект EDGeS [ 20 січня 2022 у Wayback Machine.]
- IDGF [ 24 лютого 2011 у Wayback Machine.]
Вікіпедія, Українська, Україна, книга, книги, бібліотека, стаття, читати, завантажити, безкоштовно, безкоштовно завантажити, mp3, відео, mp4, 3gp, jpg, jpeg, gif, png, малюнок, музика, пісня, фільм, книга, гра, ігри, мобільний, телефон, android, ios, apple, мобільний телефон, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, ПК, web, Інтернет
SLinCA Home Scaling Laws in Cluster Aggregation Invariantnist shodo masshtabu Masshtaboinvariantni zakonomirnosti v agregaciyi klasteriv ce naukovo doslidnij proekt yakij vikoristovuye komp yuteri z yednani globalnoyu merezheyu Internet dlya doslidzhen v galuzi materialoznavstva SLinCA HomeTipGrid rozpodileni obchislennya volonterski obchislennyaRozrobnikIMF NAN UkrayiniPershij vipusk14 veresnya 2010PlatformaBOINC SZTAKI Desktop Grid OurGridOperacijna sistemaLinux WindowsStan rozrobkiAlfaVebsajtdg imp kiev uaVstupSLinCA Home zasnovanij grupoyu naukovih spivrobitnikiv z Institutu metalofiziki im G V Kurdyumova IMF 3 bereznya 2022 u Wayback Machine Nacionalnoyi akademiyi nauk Ukrayini NAN Ukrayini Kiyiv Ukrayina Cej proekt vikoristovuye programne zabezpechennya Berkeley Open Infrastructure for Network Computing BOINC 17 lyutogo 2011 u Wayback Machine platformu ta API dlya rozpodilenih obchislen DC API vid SLinCA Home vklyuchaye dekilka naukovih program prisvyachenih poshuku masshtaboinvariantnih zakonomirnostej v eksperimentalnih danih i rezultatah komp yuternogo modelyuvannya IstoriyaProekt SLinCA Home ranishe buv zapushenij v sichni 2009 r yak chastina proektu EDGeS 20 sichnya 2022 u Wayback Machine Somoyi Ramkovoyi Programi Seventh Framework Programme FP7 26 lyutogo 2011 u Wayback Machine Yevropejskogo Soyuzu YeS dlya finansuvannya naukovih doslidzhen i tehnologichnogo rozvitku v Yevropi U 2009 2010 vin vikoristovuvav potuzhnosti lokalnogo Nastilnogo Grida NG 1 bereznya 2011 u Wayback Machine IMF 3 bereznya 2022 u Wayback Machine ale iz grudnya 2010 roku vikoristovuye infrastrukturu rozpodilenih obchislen yaka nadayetsya volonterami dlya virishennya skladnih obchislyuvalnih zavdan pov yazanih z poshukom masshtaboinvariantnih zakonomirnostej v eksperimentalno otrimanih ta modelovanih naukovih danih Zaraz proekt upravlyayetsya grupoyu vchenih z IMF 3 bereznya 2022 u Wayback Machine NAN Ukrayini u tisnij spivpraci z partnerami z IDGF 24 lyutogo 2011 u Wayback Machine ta Distributed Computing team Ukraine 14 bereznya 2022 u Wayback Machine Z chervnya 2010 SLinCA Home pracyuye v ramkah proektu FP7 26 lyutogo 2011 u Wayback Machine YeS Potochnij status stanom na 16 bereznya 2011 Zaraz SLinCA Home maye status alfa versiyi sho pov yazano z postupovoyu modernizaciyeyu servernoyi i kliyentskoyi chastin Za neoficijnoyu statistikoyu BOINCstats 8 lipnya 2011 u Wayback Machine stanom na 16 bereznya 2011 bilsh nizh 2000 volonteriv z 39 krayin vzyali uchast u proekti zrobivshi jogo drugim za populyarnistyu BOINC proektom v Ukrayini pislya proektu Magnetism Home 3 chervnya 2011 u Wayback Machine yakij zaraz ne aktivnij Blizko 700 aktivnih koristuvachiv zabezpechuyut priblizno 0 5 1 5 TFLOPS obchislyuvalnoyi potuzhnosti yaka dozvolila b SLinCA Home potrapiti v najkrashu 20 ku spisku TOP500 12 grudnya 1998 u Wayback Machine superkomp yuteriv stanom na cherven 2005 roku Zaraz odnu programu SLinCA zapusheno na vidkritij globalnoyi infrastrukturi rozpodilenih obchislen SLinCA Home a tri inshih MultiScaleIVideoP CPDynSG LAMMPS cherez IRO perebuvayut v stadiyi testuvannya na zakritomu lokalnomu Nastilnomu Gridi NG 1 bereznya 2011 u Wayback Machine IMF 3 bereznya 2022 u Wayback Machine ProgramiProekt SLinCA Home buv stvorenij dlya poshuku nevidomih ranishe masshtaboinvariantnih zakonomirnostej za rezultatami eksperimentiv i modelyuvannya v nastupnih naukovih programah Scaling Laws in Cluster Aggregation SLinCA SLinCATipGrid rozpodileni obchislennya volonterski obchislennyaRozrobnikIMF NAN UkrayiniPershij vipusk24 lipnya 2007PlatformaBOINC SZTAKI Desktop Grid XtremWeb HEP OurGridOperacijna sistemaLinux 32 bit Windows 32 bit Mova programuvannyaC C Stan rozrobkiAktivnijVebsajtdg imp kiev ua SLinCA Scaling Laws in Cluster Aggregation ye pershoyu programoyu portovanoyu na DG infrastrukturu laboratoriyeyu fiziki deformacijnih procesiv IMF 3 bereznya 2022 u Wayback Machine NAN Ukrayini Yiyi metoyu ye znajti zakoni masshtabnoyi invariantnosti v kinetichnomu scenariyi agregaciyi monomeru v klasterah riznih vidiv i v riznih naukovih oblastyah Procesi agregaciyi klasteriv doslidzhuyutsya v bagatoh galuzyah nauki agregaciyi defektiv v materialoznavstvi dinamici populyacij v biologiyi rosti i rozvitku mist v sociologiyi i t d Isnuyuchi eksperimentalni dani svidchat pro nayavnist iyerarhichnoyi strukturi na bagatoh masshtabnih rivnyah Nayavni teoriyi proponuyut bezlich scenariyiv agregaciyi klasteriv formuvannya iyerarhichnih struktur i poyasnennya yih masshtaboinvariantnih vlastivostej Dlya yih perevirki neobhidno vikoristovuvati potuzhni obchislyuvalni resursi dlya obrobki velicheznih baz danih eksperimentalnih rezultativ Zvichajne modelyuvannya odnogo procesu agregaciyi klasteriv z 106 monomerami zajmaye priblizno 1 7 dniv na odnomu suchasnomu procesori v zalezhnosti vid kilkosti krokiv u metodi Monte Karlo Vikonannya SLinCA v Gridi v infrastrukturi rozpodilenih obchislen IRO dozvolyaye vikoristovuvati sotni mashin z dostatnoyu obchislyuvalnoyu potuzhnistyu dlya modelyuvannya bezlichi scenariyiv za nabagato bilsh korotki termini Tipovi tehnichni parametri dlya zapusku IRO versiyi programi SLinCA v globalnij vidkritij infrastrukturi rozpodilenih obchislen IRO SLinCA Home Potochni umovi dlya 1 zavdannya na 1 yadro procesora 2 4 GHz chas vikonannya 2 4 godini RAM lt 60 Mb NZhMD lt 40 Mb Chekpojnting sho ce n d v procesi testuvannya Hronometrazh vikonannya zavdan nelinijnij Naukovi rezultati Poperedni rezultati programi SLinCA buli otrimani na obchislyuvalnih resursah testovih infrastruktur ta opublikovani v 2009 v stendovij dopovidi Almere Niderlandi 29 30 Bereznya 2009 Plani na majbutnye Potochna versiya programi SLinCA bude onovlena dlya stabilnosti chekpointa novoyi funkcionalnosti ta pidtrimki NVIDIA GPU rozrahunkiv dlya vikonannya analizu shvidshe za ocinkami vid 50 do 200 shvidshe Dodatkova meta ce migraciya na platformu OurGrid 13 chervnya 2021 u Wayback Machine dlya testuvannya i demonstraciyi potencijnih mehanizmiv vzayemodiyi mizh svitovimi spilnotami z riznimi paradigmami rozpodilenih obchislen SLinCA planuyetsya portuvati na platformu OurGrid 13 chervnya 2021 u Wayback Machine oriyentovanu na pidtrimku piringovih nastilnih gridiv yaki za svoyeyu prirodoyu duzhe vidriznyayutsya vid volonterskih rozpodilenih obchislen na bazi Nastilnogo Grida NG 1 bereznya 2011 u Wayback Machine yak Multiscale Image and Video Processing MultiScaleIVideoP MultiScaleIVideoPTipGrid rozpodileni obchislennya volonterski obchislennyaRozrobnikIMF NAN Ukrayini obolonka dlya seredovisha RO Mathworks biblioteki MATLAB Pershij vipusk11 sichnya 2008PlatformaMATLAB BOINC XtremWeb HEPOperacijna sistemaLinux 32 bit Windows 32 bit Mova programuvannyaC C MATLABStan rozrobkiAlfaVebsajtdg imp kiev ua Optichna mikroskopiya zazvichaj vikoristovuyetsya dlya analizu strukturnih harakteristik materialiv u vuzkih diapazonah zbilshennya nevelikoyi doslidzhuvanoyi oblasti i v statichnomu rezhimi Odnak bezlich kritichnih procesiv pov yazanih z pochatkom i dinamichnim poshirennyam rujnuvannya sposterigayutsya v shirokomu chasovomu diapazoni vid 10 3s do 10 3s i na bagatoh masshtabnih rivnyah vid 10 6m odinochni defekti do 10 2m pov yazani merezhi defektiv Programa Multiscale Image and Video Processing MultiscaleIVideoP priznachena dlya obrobki zapisanoyi evolyuciyi materialiv pid chas mehanichnoyi deformaciyi na viprobuvalnij mashini Rozrahunki vklyuchayut v sebe bezlich parametriv fizichnogo procesu shvidkist zusillya zbilshennya umovi osvitlennya aparatni filtri i t d i parametriv obrobki zobrazhennya rozpodil za rozmirami anizotropiya lokalizaciya parametri masshtabuvannya i t d Tomu rozrahunki duzhe trudomistki i vikonuyutsya duzhe povilno Os chomu z yavilasya krajnya neobhidnist vikoristannya potuzhnishih obchislyuvalnih resursiv Vikonannya ciyeyi programi v infrastrukturi rozpodilenih obchislen IRO dozvolyaye vikoristovuvati sotni mashin z dostatnoyu obchislyuvalnoyu potuzhnistyu dlya obrobki zobrazhen i video v bilsh shirokomu diapazoni masshtabiv i za nabagato bilsh korotki termini Tipovi tehnichni parametri dlya zapusku IRO versiyi programi MultiScaleIVideoP na zakritomu lokalnomu Nastilnomu Gridi NG 1 bereznya 2011 u Wayback Machine IMF 3 bereznya 2022 u Wayback Machine Potochni umovi dlya 1 zavdannya na 1 yadro procesora 2 4 GHz chas vikonannya 20 30 hv RAM lt 200 Mb NZhMD lt 500 Mb Chekpojnting n d v procesi testuvannya Hronometrazh vikonannya zavdan linijnij Naukovi rezultati Poperedni rezultati programi MultiScaleIVideoP buli otrimani na obchislyuvalnih resursah testovih infrastruktur i opublikovani v 2009 v stendovij dopovidi Almere Niderlandi 29 30 bereznya 2009 U sichni 2011 buli otrimani i opublikovani podalshi rezultati obrobki danih videosposterezhennya v hodi eksperimentiv z ciklichnim obmezhenim navantazhennyam alyuminiyevoyi folgi Plani na majbutnye Potochna versiya programi MultiScaleIVideoP bude onovlena dlya stabilnosti chekpointa novoyi funkcionalnosti ta pidtrimki NVIDIA GPU rozrahunkiv dlya vikonannya analizu shvidshe za ocinkami vid 300 do 600 shvidshe City Population Dynamics and Sustainable Growth CPDynSG CPDynSGTipGrid rozpodileni obchislennya volonterski obchislennyaRozrobnikIMF NAN UkrayiniPershij vipusk14 kvitnya 2010PlatformaBOINC SZTAKI Desktop GridOperacijna sistemaLinux 32 bit Windows 32 bit Mova programuvannyaC C Stan rozrobkiAlfaVebsajtdg imp kiev ua Vidomo sho zrostannya mist municipalitetiv okrugiv tosho poyasnyuyetsya migraciyeyu zlittyam zrostannyam naselennya i t d Vidmicheno sho rozpodil mist za yih rozmirami v bagatoh krayinah pidporyadkovuyetsya statichnomu zakonu Cya zalezhnist pidtverdzhuyetsya danimi dlya populyacij v riznih mistah v period yih pochatkovoyi istoriyi Naselennya u vsih velikih mistah zrostaye nabagato shvidshe nizh krayina v cilomu za znachnij diapazon chasu Odnak yak i v mistah yaki dosyagli zrilosti yih zrostannya mozhe spovilnitisya abo kilkist naselennya mozhe navit znizitisya z prichin ne pov yazanih z migraciyeyu v she bilshi mista Rizni teoriyi dayut tempi zrostannya asimptotiki i rozpodilu takih grup naselennya Vazhlivoyu osoblivistyu programi ye porivnyannya nayavnih teorij z danimi sposterezhen ta prognozuvannya scenariyiv dinamiki stijkogo zrostannya naselennya dlya riznih nacionalnih i mizhnarodnih regioniv Programa City Population Dynamics and Sustainable Growth CPDynSG dozvolyaye dosliditi zv yazok mizh velicheznim obsyagom eksperimentalnih danih i znajti yakisnu vidpovidnist mizh peredbachennyami riznih modelej i nayavnimi istorichnimi danimi Tipovi tehnichni parametri dlya zapusku IRO versiyi programi CPDynSG na zakritomu lokalnomu Nastilnomu Gridi NG 1 bereznya 2011 u Wayback Machine IMF 3 bereznya 2022 u Wayback Machine Potochni umovi dlya 1 zavdannya na 1 yadro procesora 2 4 GHz chas vikonannya 20 30 hv RAM lt 20 Mb NZhMD lt 50 Mb Chekpojnting n d v procesi testuvannya Hronometrazh vikonannya zavdan linijnij Naukovi rezultati U chervni veresni 2010 roku buli otrimani rezultati shodo koncepciyi rezultativ portuvannya IRO versiyi programi CPDynSG na bazi platformi Berkeley Open Infrastructure for Network Computing BOINC 17 lyutogo 2011 u Wayback Machine platformu i API dlya rozpodilenih obchislen DC API vid a takozh poperedni rezultati dlya rozpodilu rozmiriv mist v kilkoh krayinah Centralnoyi ta Shidnoyi Yevropi Vidznachena harakterna izolyaciya rozpodilu rozmiriv mist v Ugorshini a takozh viyavlena duzhe shozha evolyuciya rozpodilu za rozmirami mist v Ukrayini ta Polshi Ci rezultati buli predstavleni na Cracow Grid Workshop 10 28 lipnya 2011 u Wayback Machine 11 13 zhovtnya 2010 v usnij i stendovij dopovidyah Predstavlenij stend buv vidznachenij nagorodoyu Za najkrashu stendovu dopovid Cracow Grid Workshop 09 Plani na majbutnye Potochna versiya programi CPDynSG bude onovlena dlya stabilnosti chekpointa novoyi funkcionalnosti ta pidtrimki NVIDIA GPU rozrahunkiv dlya vikonannya analizu shvidshe za ocinkami vid 50 do 200 shvidshe Large scale Atomic Molecular Massively Parallel Simulator LAMMPS v infrastrukturi rozpodilenih obchislen IRO LAMMPS v IROTipGrid rozpodileni obchislennya volonterski obchislennyaRozrobnikIMF NAN Ukrayini obolonka dlya seredovisha RO Sandia National Laboratories LAMMPS itself Pershij vipusk4 serpnya 2010PlatformaBOINC SZTAKI Desktop GridOperacijna sistemaLinux 32 bit Windows 32 bit Mova programuvannyaC C Stan rozrobkiAlfaVebsajtdg imp kiev ua Poshuk novih nanorozmirnih funkcionalnih pristroyiv stav spravzhnim Eldorado suchasnoyi nauki i vin stimulyuye Zolotu lihomanku v suchasnomu materialoznavstvi Ale kontrolovane virobnictvo nanorozmirnih funkcionalnih pristroyiv vimagaye retelnogo viboru i nastrojki kritichnih parametriv elementiv potencialiv vzayemodiyi rezhimiv zovnishnogo vplivu temperaturi tosho atomnoyi samoorganizaciyi v rozroblyuvanih modelyah i strukturah dlya nanomasshtabnih funkcionalnih pristroyiv Os chomu molekulyarno dinamichne modelyuvannya procesiv nanovirobnictva z dekompoziciyeyu fizichnih parametriv i pereborom parametriv metodom gruboyi sili ye dosit perspektivnim Dlya ciyeyi meti buv vibranij duzhe populyarnij nekomercijnij paket z vidkritim kodom LAMMPS Large scale Atomic Molecular Massively Parallel Simulator LAMMPS 22 veresnya 2006 u Wayback Machine vid Sandia National Laboratories 15 bereznya 2022 u Wayback Machine yak kandidat dlya portuvannya v infrastrukturu rozpodilenih obchislen IRO na osnovi platformi Berkeley Open Infrastructure for Network Computing BOINC 17 lyutogo 2011 u Wayback Machine i API dlya rozpodilenih obchislen DC API vid Yak pravilo dlya takogo modelyuvannya nanoob yektiv z bagatma parametrami potribno nadzvichajno bagato obchislyuvalnih resursiv Tipove modelyuvannya doslidzhuvanih nanostruktur dlya odniyeyi konfiguraciyi fizichnih parametriv napriklad dlya modelyuvannya fizichnih procesiv protyagom 1 10 pikosekund metalevih monokristaliv Al Cu Mo itd Z 10 7 atomiv potribno priblizno 1 7 dniv na odnomu suchasnomu procesori Vikonannya LAMMPS v Gridi v infrastrukturi rozpodilenih obchislen IRO dozvolyaye vikoristovuvati sotni mashin odnochasno i otrimumati velicheznu kilkist obchislyuvalnih resursiv dlya provedennya modelyuvannya v shirokomu diapazoni fizichnih parametriv konfiguracij i v nabagato bilsh korotki termini Tipovi tehnichni parametri dlya zapusku IRO versiyi programi MultiScaleIVideoP na zakritomu lokalnomu Nastilnomu Gridi NG 1 bereznya 2011 u Wayback Machine IMF 3 bereznya 2022 u Wayback Machine Potochni umovi dlya 1 zavdannya na 1 yadro procesora 2 4 GHz chas vikonannya 2 48 godin RAM lt 500 Mb NZhMD lt 1 Gb Chekpojnting n d v procesi testuvannya Hronometrazh vikonannya zavdan linijnij Naukovi rezultati U veresni zhovtni 2010 otrimani poperedni rezultati buli predstavleni v usnij prezentaciyi na Mizhnarodnij Konferenciyi Nanostrukturni materiali 2010 nedostupne posilannya z lyutogo 2019 Kiyiv Ukrayina Plani na majbutnye Potochna versiya LAMMPS iz zastosuvannyam programi IRO bude onovlena dlya stabilnosti chekpointa novoyi funkcionalnosti ta pidtrimki NVIDIA GPU rozrahunkiv dlya vikonannya analizu shvidshe za ocinkami vid 300 do 500 shvidshe PartneriSLinCA Home spivpracyuye z partnerami v proektah FP7 26 lyutogo 2011 u Wayback Machine YeS proekt proekt EDGeS 20 sichnya 2022 u Wayback Machine spilnotami volonteriv yaki berut uchast v rozpodilenih obchislennyah komanda rozpodilenih obchislen Ukrayina 14 bereznya 2022 u Wayback Machine profesijnimi spilnotami ekspertiv v oblasti rozpodilenih obchislen Mizhnarodna federaciya nastilnih gridiv International Desktop Grid Federation IDGF 24 lyutogo 2011 u Wayback Machine Nagorodi Fajl CGW 2010 best poster award jpg thumb right 150px Partner IDGF 24 lyutogo 2011 u Wayback Machine Yurij Gordiyenko z diplomom za najkrashij poster na CGW 10 25 lipnya 2011 u Wayback Machine 2009 Za najkrashu stendovu dopovid Cracow Grid Workshop 09 28 lipnya 2011 u Wayback Machine Krakiv Polsha 12 14 zhovtnya 2009 zvit pro ideyu ta rezultati portuvannya programi MultiScaleIVideoP z MATLAB bibliotekami dlya infrastrukturi rozpodilenih obchislen IRO na osnovi BOINC 17 lyutogo 2011 u Wayback Machine platform ta platformi de zastosovnist integraciyi MATLAB ob yektiv i kodiv dlya rozpodilenih obchislen demonstruyetsya na prikladi obrobki zobrazhen i video v galuzi materialoznavstva i mikroskopiyi 2010 Za najkrashu stendovu dopovid Cracow Grid Workshop 10 28 lipnya 2011 u Wayback Machine Krakov Polsha 11 13 Zhovtnya 2010 zvit pro koncepciyi ta rezultati portuvannya CPDynSG program dlya infrastrukturi rozpodilenih obchislen IRO na osnovi BOINC 17 lyutogo 2011 u Wayback Machine platform z porivnyalnim analizom nayavnih teorij z eksperimentalnimi sposterezhennyami a takozh tipovimi scenariyami dinamiki zrostannya naselennya dlya riznih krayin Centralnoyi ta Shidnoyi Yevropi Div takozhRozpodileni obchislennyaPrimitki arhiv originalu za 8 lipnya 2011 procitovano 16 bereznya 2011 Arhiv originalu za 21 lyutogo 2011 Procitovano 21 bereznya 2011 June 2005 arhiv originalu za 28 lipnya 2011 procitovano 16 bereznya 2011 O Gatsenko O Baskova and Y Gordienko March 2009 PDF Proceedings of 3rd AlmereGrid Workshop Arhiv originalu PDF za 23 lyutogo 2011 Procitovano 16 bereznya 2011 O Baskova O Gatsenko and Y Gordienko March 2009 PDF Proceedings of 3rd AlmereGrid Workshop Arhiv originalu PDF za 23 lyutogo 2011 Procitovano 16 bereznya 2011 O Baskova O Gatsenko O Lodygensky G Fedak and Y Gordienko January 2011 Statistical Properties of Deformed Single Crystal Surface under Real Time Video Monitoring and Processing in the Desktop Grid Distributed Computing Environment T 465 Key Engineering Materials s 306 309 Arhiv originalu za 26 lipnya 2012 Procitovano 16 bereznya 2011 O Gatsenko O Baskova and Y Gordienko February 2011 Simulation of City Population Dynamics and Sustainable Growth in Desktop Grid Distributed Computing Infrastructure Proceedings of Cracow Grid Workshop 10 Procitovano 16 bereznya 2011 O Baskova O Gatsenko O Gontareva E Zasimchuk and Y Gordienko 19 22 October 2011 Scale Invariant Aggregation Kinetics of Nanoscale Defects of Crystalline Structure Masshtabno invariantna kinetika agregaciyi nanorozmirnih defektiv kristalichnoyi budovi PDF Online Proceedings of Nanostructured materials 2010 Arhiv originalu PDF za 26 lipnya 2012 Procitovano 16 bereznya 2011 O Baskova O Gatsenko and Y Gordienko February 2010 Scaling up MATLAB Application in Desktop Grid for High Performance Distributed Computing Example of Image and Video Processing PDF Proceedings of Cracow Grid Workshop 09 s 255 263 ISBN 9788361433019 Arhiv PDF originalu za 26 lipnya 2012 Procitovano 16 bereznya 2011 PosilannyaPlatforma BOINC 17 lyutogo 2011 u Wayback Machine Platforma SZTAKI 1 bereznya 2011 u Wayback Machine Platforma OurGrid 13 chervnya 2021 u Wayback Machine Statistika proektiv BOINC 15 bereznya 2022 u Wayback Machine Proekt SLinCA Home Proekt EDGeS 20 sichnya 2022 u Wayback Machine IDGF 24 lyutogo 2011 u Wayback Machine