Novinky
Tyto novinky můžete číst jako RSS.
Nové clustery v MetaCentru: Rozšíření infrastruktury o zdroje CESNETu a CERIT-SC
S potěšením oznamujeme, že do infrastruktury MetaCentra byly úspěšně integrovány nové výpočetní clustery ve vlastnictví sdružení CESNET a Západočeské univerzity v Plzni (ZČU). Toto rozšíření přináší navýšení kapacity pro CPU i GPU výpočty a specializovaný SMP uzel s velkou sdílenou pamětí.
Níže uvádíme technické specifikace:
1. Cluster hildor (CESNET)
Vlastník: CESNET (hildor[1-20].metacentrum.cz, deimos[1-13].meta.zcu.cz, haldan[1-15].metacentrum.cz), České Budějovice, Plzeň, Brno
Celková kapacita: 48 uzlů / 6 144 CPU jader
Konfigurace uzlu:
- CPU: 2x AMD EPYC 9555 (64 jader na uzel)
- RAM: 768 GiB
- Úložiště: 2x 1,92 TB NVMe
- Síť: 10 nebo 25 Gbit/s + Infiniband HDR200
- Výkon: SPECrate 2017_fp_base 1700
Clustery jsou určeny pro výpočetně náročné úlohy využívající CPU, přičemž neobsahují GPU akceleraci.
2. Cluster grogu (CERIT-SC)
Vlastník: CERIT-SC (grogu[1-3].cerit-sc.cz, grogu[4-8].cerit-sc.cz), Brno
Celková kapacita: 8 uzlů / 768 CPU jader / 12 GPU
Konfigurace uzlu:
- CPU: 2x AMD EPYC 9454 48-Core Processor (96 jader na uzel)
- GPU: 4x NVIDIA RTX PRO 6000 Blackwell Server Edition (
grogu[1-3]) - RAM: 1536 GiB
- Úložiště: 6x 7 TB NVMe
- Síť: 100 Gbit/s
- Výkon: SPECrate 2017_fp_base 445
Clustery jsou určeny pro výpočetně náročné úlohy využívající CPU, přičemž uzly grogu[1-3]obsahují 4x GPU akceleraci.
Kompletní seznam dostupných výpočetních serverů a jejich aktuální vytížení naleznete na stránce: Hardware MetaCentra.
Věříme, že tento nový hardware přispěje k efektivní realizaci vašich výpočtů a vědeckých projektů.
Ivana Křenková, Tue Mar 31 21:40:00 CEST 2026
Upgrade frontendu skirit a představení verze „lite”
Vážení uživatelé,
v rámci neustálého vylepšování infrastruktury MetaCentra jsme provedli zásadní upgrade oblíbeného frontendu skirit. Abychom vám zajistili stabilnější a výkonnější prostředí pro vaši práci, přecházíme na nový hardware a zároveň zavádíme specializovanou odlehčenou verzi tohoto oblíbeného frontendu.
Nový frontend skirit: Plný výkon na novém HW
Hlavní frontend skirit.metacentrum.cz (alias skirit.grid.cesnet.cz) již běží na novém, výkonnějším hardwaru. Toto je primární adresa, kterou doporučujeme používat pro všechna nová spojení.
Novinka: Frontend skirit-lite pro nenáročné úkoly
Původní hardware frontendu skirit nekončí, ale mění svou roli. Pod novým názvem skirit-lite.metacentrum.cz bude sloužit jako „lehký” frontend.
- Kdy použít Skirit-Lite? Je ideální pro rychlou správu úloh, editaci skriptů nebo kontrolu stavu výpočtů.
- Kdy použít standardní Skirit? Pro náročnější interaktivní práci a operace vyžadující vyšší výpočetní výkon samotného frontendu.
Důležité informace k migraci
Pokud aktuálně využíváte původní server pod adresou skirit.ics.muni.cz, věnujte prosím pozornost následujícím bodům:
- Nepřihlašujte se na starou adresu: Na původním stroji (skirit.ics.muni.cz) bude v nejbližší době nastaven režim nologin. Nová sezení směřujte výhradně na skirit.metacentrum.cz.
- Dokončete rozdělanou práci: Stávající běžící spojení na starém hardwaru necháme doběhnout, ale po jejich ukončení již nebude možné se na tuto konkrétní instanci pod starým jménem přihlásit.
- Plánovaný restart: V horizontu nejbližších dní proběhne reboot starého stroje spojený s upgrade SW a definitivním přejmenováním na skirit-lite.ics.muni.cz.
- Změna SSH klíčů: V souvislosti s přejmenováním a výměnou HW vás může váš SSH klient upozornit na změnu otisků (host keys). To je v tomto případě očekávané chování.
- V práci s frontendy se pro uživatele jinak nic nezmění, home adresáře zůstavají zachovány beze změny.
Ivana Křenková, Tue Mar 24 21:40:00 CET 2026
Zapínáme šifrování interaktivních úloh
Vážení uživatelé,
v průběhu tohoto týdne nasadíme do provozu šifrování interaktivních úloh. Tento krok je důležitý pro zvýšení bezpečnosti přenosu dat a komunikace v rámci výpočetního prostředí MetaCentra.
Pro vás, jako uživatele, přináší tato aktualizace dvě praktické změny, na které bychom vás rádi upozornili:
1. Kontrola Kerberos lístku při přihlášení
Systém bude nově striktněji vyžadovat platný Kerberos lístek.
-
Pokud v okamžiku startu interaktivní úlohy nemáte platný Kerberos lístek (ticket), systém vás při pokusu o připojení k úloze vyzve k jeho obnově (zadání hesla /
kinit). -
Pokud lístek máte platný, přihlášení proběhne standardně bez další interakce.
2. Časový limit pro připojení (Timeout)
Zavádíme bezpečnostní časový limit pro zahájení práce.
-
Jakmile interaktivní úloha na klastru odstartuje (je jí přidělen výpočetní uzel), máte 3 hodiny na to, abyste se k ní připojili.
-
Pokud se k běžící úloze do 3 hodin nepřipojíte, bude automaticky zrušena.
Tato opatření nám pomáhají udržovat infrastrukturu bezpečnou a efektivně využívanou. Děkujeme za pochopení.
MetaCentrum
Ivana Křenková, Mon Feb 09 21:40:00 CET 2026
Váš názor nás zajímá: Ohodnoťte služby e-INFRA CZ
Počítáte u nás? Chceme znát váš názor.
Aby naše výpočetní a cloudové služby i nadále vyhovovaly nárokům vašeho výzkumu, potřebujeme znát váš názor. Vaše zpětná vazba je klíčová pro náš další strategický rozvoj. Pomáhá nám přesně určit, které oblasti infrastruktury – od plánování úloh (job scheduling) až po dostupnost úložišť – je třeba zlepšit nebo rozšířit.
Pokud jste již dotazník vyplnili dříve, děkujeme za Váš názor.
- Soukromí a odměna: Dotazník je standardně anonymní. Pokud se však rozhodnete uvést svůj login, jako poděkování za váš čas připíšeme na váš účet v MetaCentru ekvivalent 0,5 publikace.
-
Termín: Své odpovědi prosím odešlete do 14. února 2026.
-
Odkaz: Dotazník
Ivana Křenková, Tue Jan 20 21:40:00 CET 2026
Nové clustery v MetaCentru: Rozšíření infrastruktury o zdroje CESNETu a ZČU
S potěšením oznamujeme, že do infrastruktury MetaCentra byly úspěšně integrovány nové výpočetní clustery ve vlastnictví sdružení CESNET a Západočeské univerzity v Plzni (ZČU). Toto rozšíření přináší navýšení kapacity pro CPU i GPU výpočty a specializovaný SMP uzel s velkou sdílenou pamětí.
Níže uvádíme technické specifikace:
1. Cluster adan (CESNET)
Tento cluster nahrazuje původní cluster stejného jména. Je určen pro náročné výpočty na CPU a neobsahuje grafické akcelerátory. Cluster je již dostupný v běžných frontách plánovače.
-
Vlastník: CESNET
-
adan[1-48].grid.cesnet.cz -
Celková kapacita: 48 uzlů / 6 144 jader CPU
-
Konfigurace uzlu:
-
CPU: 2x AMD EPYC 9554 64-Core Processor
-
RAM: 768 GiB
-
Disk: 2x 3.84 TB NVMe
-
Síť: 25 Gbit/s
-
Výkon uzlu: SPECrate 2017_fp_base: 1360 (10.6 na jádro)
-
2. Cluster alfrid (ZČU)
Cluster alfrid[1-9].meta.zcu.cz prošel ve dvou fázích (květen a prosinec 2025) zásadní modernizací a rozšířením. Nahrazuje původní hardware a nabízí nyní 8 GPU uzlů a jeden SMP uzel. Cluster je již dostupný v prioritních frontách vlastníka (iti a zcu) a pro ostatní uživateleběžných krátkých frontách .
1. GPU uzly (alfrid alfrid[1-4].meta.zcu.cz a alfrid-II alfrid[6-9].meta.zcu.cz) Tyto uzly jsou vybaveny akcelerátory NVIDIA L40 a L40S, vhodné pro akcelerované výpočty a AI úlohy.
-
Vlastník: ZČU Plzeň
-
Celková kapacita: 8 uzlů / 1 024 jader CPU
-
Konfigurace uzlů:
-
CPU: 2x AMD EPYC 9554 64-Core Processor
-
RAM: 1 536 GiB (alfrid) / 768 GiB (alfrid-II)
-
GPU: 2x NVIDIA L40 48GB (alfrid) / 4x NVIDIA L40S 48GB (alfrid-II)
-
Disk: 2x 7 TB NVMe
-
Síť: 25 Gbit/s
-
Výkonuzlu : SPECrate 2017_fp_base: 1230
-
2. SMP uzel (alfrid-smp alfrid5.meta.zcu.cz) Specializovaný uzel určený pro úlohy vyžadující velké množství sdílené paměti.
-
Vlastník: ZČU Plzeň
-
Kapacita: 1 uzel / 128 jader CPU
-
Konfigurace uzlu:
-
CPU: 2x AMD EPYC 9554 64-Core Processor
-
AM: 4 608 GiB (přibližně 4,5 TB)
-
Disk: 2x 7 TB NVMe
-
Síť: 10 Gbit/s
-
Výkon uzlu: SPECrate 2017_fp_base: 1200
-
Kompletní seznam dostupných výpočetních serverů a jejich aktuální vytížení naleznete na stránce: Hardware MetaCentra.
Věříme, že tento nový hardware přispěje k efektivní realizaci vašich výpočtů a vědeckých projektů.
Ivana Křenková, Fri Jan 09 21:40:00 CET 2026
Vyhlášení 36. grantové soutěže v IT4I
|
||||||
|
||||||
|
Ivana Křenková, Mon Oct 20 21:40:00 CEST 2025
Ohlasy z uživatelského semináře MetaCentrum 2025
Ve čtvrtek 2. října 2025 proběhl v pražském Klubu Lávka Seminář výkonného počítání MetaCentrum 2025, kterého se zúčastnilo více než 90 účastníků na místě a dalších 60 účastníků se připojilo online.
Program byl zaměřen na zpracování a ukládání dat, bezpečnost, práci s kontejnery i cloudem a využití AI modelů na infrastruktuře MetaCentra a CERIT-SC. O své zkušenosti se podělili nejen odborníci z CESNET a CERIT-SC, ale i uživatelé z výzkumných skupin Masarykovy univerzity a Univerzity Karlovy.
Prezentace ze semináře jsou k dispozici na stránce akce. Na stejném odkaze bude, po sestříhání, vystaven i videozáznam ze semináře.
Ivana Křenková, Fri Oct 03 21:40:00 CEST 2025
Basics of Quantum Machine Learning
Vážení uživatelé,
Dovolujeme si Vás pozvat na akci pořádanou IT4Innovations: Basics of Quantum Machine Learning
https://events.it4i.cz/event/354/
|
||||||
|
Ivana Křenková, Tue Sep 09 21:40:00 CEST 2025
Pozvánka na uživatelský seminář MetaCentra
Vážení uživatelé,
Dovolujeme si Vás pozvat na pravidelný Seminář výkonného počítání MetaCentrum 2025, který se uskuteční ve čtvrtek 2. října 2025 v Novotného lávce v Praze s exkluzivním výhledem na Karlův most a centrum Prahy.
Seminář bude zaměřen na zpracování, analýzu a ukládání dat a také na představení novinek v gridovém, cloudovém a kubernetím prostředí MetaCentra a CERIT-SC.
Akci pořádá projekt MetaCentrum sdružení CESNET ve spolupráci s Centrem CERIT-SC při Ústavu výpočetní techniky Masarykovy univerzity.
Program a další informace:
https://metavo.metacentrum.cz/cs/seminars/Seminar2025/index.html

Na shledanou se těší Vaše MetaCentrum
Ivana Křenková, Thu Aug 21 21:40:00 CEST 2025
Nový GPU cluster v MetaCentru
S potěšením oznamujeme, že do infrastruktury MetaCentra byl úspěšně integrován nový výpočetní cluster fobos.meta.zcu.cz.
Parametry clusteru
- Počet uzlů: 20
- Celkový počet jader: 1920
- Konfigurace každého uzlu:
- CPU: 2x AMD EPYC 9454 2.75GHz 48-core 290W Processor
- RAM: 768 GiB
- GPU: 4x NVIDIA L40S 48GB
- Disk: 4x 3,84 NVMe
- Síť: Ethernet 100Gbit/s, InfiniBand 200Gbit/s
- Výkon (SPECrate 2017_fp_base): 1160
- Vlastník: CESNET
Přístup k výpočetním prostředkům
Cluster je dostupný v běžných frontách.
Kompletní seznam dostupných výpočetních serverů naleznete zde: https://metavo.metacentrum.cz/pbsmon2/hardware
Věříme, že tento nový hardware přispěje k efektivnější realizaci vašich výpočtů a vědeckých projektů!
Ivana Křenková, Tue Aug 19 23:50:00 CEST 2025
BeeGFS: rychlý sdíleny scratch v MetaCentru
Jsme rádi, že Vám můžeme oznámit dostupnost nového rychlého sdíleného scratchu s využitím paralelního distribuovaného souborového systému BeeGFS na našem clusteru bee.cerit-sc.cz. Tento nový zdroj, dostupný jako scratch_shared, je speciálně navržen pro potřeby vysokovýkonných výpočtů (HPC) a nabízí řadu výhod pro aplikace náročné na data a výpočty.
Proč použít BeeGFS v MetaCentru?
BeeGFS je ideální volbou pro náročné úlohy, které vyžadují:
- Práci s velkými soubory nebo obrovským počtem malých souborů – efektivně zpracovává masivní datové soubory, což je ideální pro aplikace vyžadující rychlé a škálovatelné úložiště.
- Využití mnoha vláken nebo procesů čtoucích nebo zapisujících paralelně – umožňuje vysokovýkonný a souběžný přístup k datům, což je perfektní pro aplikace vyžadující simultánní čtení a zápis.
- Zpracování napříč více výpočetními uzly – zvládne pracovní zátěže, které sahají přes více výpočetních uzlů, což umožňuje bezproblémovou škálovatelnost a výkon.
- Sekvenční výpočty s mezivýsledky – dobře vhodné pro pracovní postupy, kde následné výpočty mohou využít mezivýsledky uložené ve scratch adresáři, čímž odpadá potřeba kopírovat data do trvalého úložiště nebo spouštět úlohu na stejném počítači jako předchozí krok.
Typické případy použití:
- Vysokovýkonové výpočty (HPC) – BeeGFS je navržen tak, aby efektivně zvládal velké soubory a paralelní vstupní/výstupní operace, což je ideální pro vědecké výpočty.
- Strojové učení a umělá inteligence – s BeeGFS můžete trénovat modely strojového učení rychleji díky přístupu k velkým objemům dat s vysokou propustností a nízkou latencí.
- Simulace, vykreslování, genomika a výzkum velkých dat – BeeGFS je perfektní pro zpracování masivních datových souborů, jako jsou ty, které se vyskytují při 3D vykreslování, složitých simulacích, genomické sekvenování a výzkumu velkých dat.
Více informací:
- Článek na blogu: https://blog.e-infra.cz/blog/beegfs/
- Dokumentace: https://docs.metacentrum.cz/en/docs/computing/infrastructure/scratch-storages#shared-scratch-on-cluster-beecerit-sccz
Ivana Křenková, Fri Aug 08 23:50:00 CEST 2025
Nový výpočetní cluster projektu ELIXIR v MetaCentru
S potěšením oznamujeme, že do infrastruktury MetaCentra byly úspěšně integrované nové výpočetní clustery elbi1.hw.elixir-czech.cz, elmu1.hw.elixir-czech.cz, eluo1.hw.elixir-czech.cz, elum1.hw.elixir-czech.cz projektu ELIXIR. Clustery mají velmi podobnou konfiguraci a jsou umístěné v různých lokalitách.
Parametry clusterů
|
elmu1.hw.elixir-czech.cz (2400 CPU, 25 uzlů ) - Cluster výpočetních strojů (MUNI Brno)
|
eluo1.hw.elixir-czech.cz (576 CPU, 6 uzlů ) - Cluster výpočetních strojů (UOCHB Praha)
|
elum1.hw.elixir-czech.cz (96 CPU, 1 uzel ) - Cluster výpočetních strojů (UMG Praha)
|
Přístup k výpočetním prostředkům
Cluster je dostupný v prioritních frontách Elixíru. Cluster elbi1 má k dispozici 2 GPU karty a je přístupný i v gpu frontách. Ostatní uživatelé mohou cluster využívat v krátkých běžných frontách s limitem do 24 hodin.
Kompletní seznam dostupných výpočetních serverů naleznete zde: https://metavo.metacentrum.cz/pbsmon2/hardware
Věříme, že tento nový hardware přispěje k efektivnější realizaci vašich výpočtů a vědeckých projektů!
Ivana Křenková, Thu Mar 27 23:50:00 CET 2025
Integrace AI chatu do dokumentace, WebUI s AI chatem a nový blog
Vážení uživatelé,
s potěšením vám oznamujeme, že pro vás máme tři novinky:
- Dokumentaci v novém designu s integrovaným AI chatem -- nasadíme brzy
- WebUI s integrovaným AI chatem
- Nový blog
Dokumentace v novém designu s integrovaným AI chatem
Nasadíme brzy! Naše stávající dokumentace https://docs.metacentrum.cz/ prošla vizuální modernizací.
I když její struktura zůstává beze změny, převedli jsme ji na novou technologii podporující integraci AI chatu (https://docs.metacentrum.cz/en/docs/tutorials/chat-help) , který vám pomůže rychle najít odpovědi na otázky týkající se dokumentace.

AI chat umístěný v pravém dolním rohu umožňuje, po přihlášení, interaktivní vyhledávání informací obsažených v dokumentaci. Volte volbu Local, pokud chcete odpověď založenou na obsahu dokumentace. Volba Problem Solving řeší nejčastější problémy, na které můžete narazit.

Budeme rádi za vaši zpětnou vazbu. Na základě vašich dotazů a připomínek budeme průběžně dokumentaci vylepšovat.
WebUI s integrovaným AI chatem
Zároveň jsme zprovoznili samostatný AI chat dostupný na https://chat.ai.e-infra.cz/. Je v něm dostupných několik modelů k vyzkoušení, podporuje kreslení obrázků i čtení přiložených dokumentů. Modely běží u nás lokálně na našich výpočetních zdrojích, takže se nemusíte bát úniku dat mimo naši infrastrukturu.

Všechny nabízené modely jsou k dispozici také přes API a je je možné využít pro Vaše projekty. Dokumentace je k dispozici na:
https://docs.cerit.io/en/docs/web-apps/chat-ai
Nový blog
Zajímavosti k AI chatu i k jiným tématům, které se týkají infrastruktury, najdete v našem blogu https://blog.e-infra.cz/

Ivana Křenková, Mon Mar 10 21:40:00 CET 2025
Další kolo grantové soutěže v IT4Innovations
Vážení uživatelé,
![]() |
|||||||||||||||||||
|
Ivana Křenková, Mon Feb 24 21:40:00 CET 2025
Změna přístupu ke stroji NVIDIA DGX H100 (capy.cerit-sc.cz)
Upozorňujeme uživatele, že došlo ke změně způsobu přístupu k výpočetnímu stroji NVIDIA DGX H100 80GB (capy.cerit-sc.cz).
Nově bude přístup umožněn pouze na základě schválené žádosti o výpočetní čas. Kritéria a postup podání žádosti naleznete zde: docs.metacentrum.cz/computing/gpu-comput/dgx/.
Pokud vaše výpočetní požadavky nesplňují stanovená kritéria, ale potřebujete GPU s velkou pamětí, můžete využít GPU cluster bee (bee.cerit-sc.cz) s NVIDIA 2×H100 94GB. Více informací o tomto clusteru najdete v předchozí novince: Odkaz na novinku.
Vaše MetaCentrum
Ivana Křenková, Mon Feb 17 23:50:00 CET 2025
Nový výpočetní cluster v MetaCentru
S potěšením oznamujeme, že do infrastruktury MetaCentra byl úspěšně integrován nový výpočetní cluster farin.grid.cesnet.cz provozovaný Fakultou stavební ČVUT v Praze.
Parametry clusteru
- Počet uzlů: 4
- Celkový počet jader: 512
- Konfigurace každého uzlu:
- CPU: 2x AMD EPYC 9554 64-Core Processor
- RAM: 2304 GiB
- Disk: 14 TB NVMe
- Síť: Ethernet 25 Gbit/s
- Výkon (SPECrate 2017_fp_base): 1300
- Vlastník: Fakulta stavební ČVUT v Praze
Přístup k výpočetním prostředkům
Cluster je dostupný v prioritní frontě vlastníka cvut@pbs-m1.metacentrum.cz. Ostatní uživatelé mohou cluster využívat v krátkých běžných frontách s limitem do 24 hodin.
Studenti a zaměstnanci Fakulty stavební ČVUT mají možnost požádat o přístup do vyhrazené fronty.
Kompletní seznam dostupných výpočetních serverů naleznete zde: https://metavo.metacentrum.cz/pbsmon2/hardware
Věříme, že tento nový hardware přispěje k efektivnější realizaci vašich výpočtů a vědeckých projektů!
Ivana Křenková, Tue Feb 04 23:50:00 CET 2025
Migrace osobních projektů v MetaCentrum OpenStack Cloudu
Migrace projektů běžících v e-INFRA CZ / Metacentrum OpenStack cloudu Brno G1 [1] do nového prostředí Brno G2 [2], která probíhala v průběhu roku 2024, se blíží do finální fáze.
Migrace osobních projektů [3] bude umožněna od února 2025 a bude možné ji učinit svépomocí.
Postup migrace bude aktualizován v průběhu ledna 2025 na stránkách [2], [4].
Detailněji o postupu a novinkách Vás budeme průběžně informovat na úvodní stránce G2 e-INFRA CZ / Metacentrum OpenStack cloudu [2].
Děkujeme za pochopení.
e-INFRA CZ / Metacentrum OpenStack cloud tým
cloud@metacentrum.cz
[1] https://cloud.metacentrum.cz/
[2] https://brno.openstack.cloud.e-infra.cz/
[3] https://docs.e-infra.cz/compute/openstack/technical-reference/brno-g1-site/get-access/#personal-project
[4] https://docs.e-infra.cz/compute/openstack/migration-to-g2-openstack-cloud/#may-i-perform-my-workload-migration-on-my-own
Ivana Křenková, Fri Dec 27 23:50:00 CET 2024
Nový SW
Vážené uživatelky a uživatelé MetaCentra,
doufáme, že Vás potěší několik novinek, které jsme připravili pro zvýšení vašich možností při výpočtech a optimalizaci vašich projektů. Snažíme se nabídnout špičkové softwarové nástroje a inovativní služby, které zefektivní práci a umožní kvalitnější výsledky.
Nové licence pro software MolPro a Turbomole
MetaCentrum nyní disponuje novými komerčními licencemi pro kvantově chemické výpočty pomocí nástrojů MolPro a Turbomole. Tyto nástroje umožní detailnější a efektivnější simulace i analýzy molekulárních systémů:
- MolPro: Vysoce výkonný nástroj zaměřený na elektronové struktury, ideální pro pokročilé teorie jako metoda Hartree-Fock a teorie korelace. Pomáhá zvládnout složité kvantově chemické úkoly s vysokou přesností.
- Turbomole: Komplexní balík vhodný pro rozsáhlé molekulární systémy, známý rychlostí a efektivitou. Nabízí širokou škálu výpočtů včetně analýzy elektronové struktury a optimalizace geometrie molekul.
Podrobné informace o všech softwarových možnostech dostupných v MetaCentru naleznete zde: https://docs.metacentrum.cz/software/alphabet/
Nová webová služba Foldify
S radostí představujeme novou webovou službu Foldify, která je nyní plně integrovaná do prostředí Kubernetes. Foldify je špičková platforma navržená pro prostorové skládání proteinů, která vyniká svým snadným a uživatelsky přívětivým rozhraním. Tato služba výrazně zjednodušuje a zefektivňuje práci odborníků v oblasti biochemie a biofyziky. Uživatelům nabízí široké možnosti zpracování dat, neboť kromě populárního AlphaFoldu podporuje také nástroje jako ColabFold, OmegaFold a ESMFOLD.
Foldify můžete prozkoumat a využít na této adrese: https://foldify.cloud.e-infra.cz/
Přejeme Vám pohodové Vánoce a vše nejlepší do Nového roku.
Vaše MetaCentrum
Ivana Křenková, Mon Dec 23 23:50:00 CET 2024
Nový HW v MetaCentru
MetaCentrum bylo nedávno rozšířeno o dva nové výkonné clustery:
1) Masarykova univerzita (CERIT-SC) přikoupila k výkonnému stroji NVIDIA DGX H100 další cluster čítající 32x NVIDIA H100 GPU (94 GB GPU RAM) ve 20 uzlech s 960 CPU jádry vhodných pro AI náročné výpočty.
- 10 uzlů je zpřístupněno dávkovým způsobem v MetaCentru - cluster bee.cerit-sc.cz,
- 8 uzlů je k dispozici v Kubernetes / Rancheru,
- 2 uzly jsou v Sensitive Cloudu pro práci s citlivými daty.
2) Fyzikální ústav Akademie věd zapojil do MetaCentra nový cluster magma.fzu.cz sestávající z 23 uzlů celkem s 2208 CPU jádry a každý s 1,5 TB RAM
Konfigurace a režim přístupu
1) Cluster bee.cerit-sc.cz
V dávkovém systému MetaCentra je zapojených 10 uzlů, celkem s 960 CPU jádry a 20x NVIDIA H100 s následující konfigurací každého uzlu:
| CPU | 2x AMD EPYC 9454 48-Core Processor |
|---|---|
| RAM | 1536 GiB |
| GPU | 2x H100 s 94 GB GPU RAM |
| disk | 8x 7TB SSD s podporou BeeGFS |
| net | Ethernet 100Gbit/s, InfiniBand 200Gbit/s |
| poznámka | Výkon každého uzlu je dle SPECrate 2017_fp_base = 1060 |
| vlastník | CERIT-SC |
Cluster podporuje nástroje NVidia GPU Cloud (NGC) pro hluboké učení, včetně předkonfigurovaných prostředí a je přístupný v běžných gpu frontách.
Zároveň připravujeme změnu pro přístup ke stroji NVIDIA DGX H100, který zůstane ve speciální frontě gpu_dgx@meta-pbs.metacentrum.cz. Bude využitelný na požádání a jen uživateli, kteří prokáží, že jejich úlohy podporují NVLink a umí využít alespoň 4 nebo všech 8 GPU kartet zaráz. O připravované změně budeme ještě informovat.
2) Cluster magma.fzu.cz
V dávkovém systému MetaCentra je zapojených 23 uzlů, celkem s 2208 CPU jader s následující konfigurací každého uzlu:
| CPU | 2x AMD EPYC 9454 48-Core Processor CPU @ 2.7GHz |
|---|---|
| RAM | 1536 GiBidia |
| isk | 1x 3.84 NVMe |
| net | Ethernet 10Gbit/s |
| poznámka | Výkon každého uzlu je dle SPECrate 2017_fp_base = 1160 |
| vlastník | FZÚ AV ČR |
Cluster je přístupný v prioritní frontě vlastníka luna@pbs-m1.metacentrum.cz a pro ostatní uživatele v krátkých běžných frontách.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Ivana Křenková, Mon Nov 18 23:40:00 CET 2024
Další kolo grantové soutěže v IT4Innovations Natinal Supercomputeing Center
Vážení uživatelé,
dovolujeme si přeposlat informaci o grantové soutěži v IT4I:
|
||||||||
|
Ivana Křenková, Fri Oct 18 21:40:00 CEST 2024
Přechod na novou OpenPBS a Debian12
Vážení uživatelé,
Na začátku března jsme poprvé informovali o zahájení přechodu na novou PBSPro —> OpenPBS.
- Všechny dostupné výpočetní kapacity budou dostupné pod jediným PBS serverem pbs-m1.metacentrum.cz. Pokračujeme s reinstalací a přesunem clusterů vlastníků CERIT-SC (cerit-pbs) a ELIXIR CZ (elixir-pbs) pod tento PBS server.
- Stávající PBSPro servery budou, po doběhnutí zbylých úloh, odstaveny z provozu. Prosíme, přesuňte si své úlohy již do nového prostředí, ulehčíte nám migraci a rychleji se nám podaří přesun dokončit.
- Zároveň s migrací na novou PBS probíhá upgrade OS: Debian11 —> Debian12.
Pokud se tak již nestalo, používejte pro své úlohy nové OpenPBS prostředí pbs-m1.metacentrum.cz. Pokud nechcete ve svých skriptech nic měnit, zadávejte úlohy z frontendů s OS Debian12, názvy front zůstanou zachované, změní se jen PBS server (FRONTA@pbs-m1.metacentrum.cz).
Seznam dostupných frontendů včetně aktuálního OS najdete na stránce https://docs.metacentrum.cz/computing/frontends/
Nyní je v novém OpenPBS prostředí k dispozici cca 3/4 clusterů, na reinstalaci dalších intenzivně pracujeme. Čekáme na doběhnutí úloh.
Přehled strojů s vlastností Debian12: https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian12
Zda se Vaše úloha spustí v novém OpenPBS prostředí, můžete vyzkoušet v Sestavovači qsub: https://metavo.metacentrum.cz/pbsmon2/qsub_pbspro
Aktuální informace o migraci najdete v dokumentaci https://docs.metacentrum.cz/tutorials/debian-12/ (postup migrace zde aktualizujeme).
Vaše MetaCentrum
Ivana Křenková, Tue May 14 15:35:00 CEST 2024
Úpravy v prostředí Open OnDemand
Vážení uživatelé,
Provedli jsme změnu ve službě Open OnDemand (OOD), kdy se nově OOD úlohy spouštějí také na clusterech, které nemají výchozí home na poli brno2. Z toho důvodu se může stát, že již existující data, historie příkazu, atd. z pole brno2 nebudou dostupná v nové OOD úloze, pokud bude spuštěna na stroji s jiným /home.
Pro přístup k původním datům na poli brno2 bude nutné nastavit symbolický odkaz na pole nové. Příklad níže nastavuje symbolický odkaz pro historii programu R.
ln -s /storage/brno2/home/user_name/.Rhistory /storage/new_location/home/user_name/.Rhistory
Vaše MetaCentrum
Ivana Křenková, Mon May 13 15:35:00 CEST 2024
Konference e-INFRA CZ
Na Konferenci e-INFRA CZ 2024, která se konala 29. - 30. dubna 2024 v Praze v hotelu Occindental, se sešlo přes 180 účastníků.
Prezentace z přednášek jsou k dispozici na stránkách akce.
Videozáznam připravujeme a zveřejníme brzy rovněž na stránkách akce.
Ivana Křenková, Thu May 02 15:35:00 CEST 2024
Přechod na novou OpenPBS a Debian12
Na začátku března jsme informovali o zahájení přechodu na novou PBSPro —> OpenPBS.
- Cca polovina výpočetního výkonu je nyní k dispozici v novém prostředí řízeném plánovačem pbs-m1.metacentrum.cz, zároveň stávající plánovač meta-pbs.metacentrum.cz přestane přijímat úlohy delší než 4 dny, abychom mohli přeinstalovat a přesunout i zbylé výpočetní kapacity. PBS prostředí cerit-pbs a elixir-pbs běží zatím beze změny.
- Stávající PBSPro servery budou v budoucnu odstaveny z provozu, protože nemohou přímo komunikovat s novými OpenPBS servery a utilitami.
- Zároveň s migrací na novou PBS probíhá upgrade OS: Debian11 —> Debian12.
Pokud se tak již nestalo, používejte pro své úlohy nové OpenPBS prostředí pbs-m1.metacentrum.cz. Pokud nechcete ve svých skriptech nic měnit, zadávejte úlohy dočasně z nového frontendu zenith nebo z přeinstalovaných frontendů nympha, tilia a perian běžících v novém OpenPBS prostředí (už s OS Debian12). Ostatní frontendy budeme převádět postupně.
Seznam dostupných frontendů včetně aktuálního OS najdete na stránce https://docs.metacentrum.cz/computing/frontends/
Přístup k nové PBS je možný také z ostatních frontendů, je však nutná aktivace modulu openpbs (module add openpbs).
Problémy s kompatibilitou některých aplikací s OS Debian12 průběžně řešíme rekompilací nových SW modulů. Pokud narazíte na problém u své aplikace, vyzkoušejte přidání modulu debian11/compat na začátek spouštěcího skriptu (module add debian11/compat). Pokud problémy přetrvávají (chybějící knihovny atd.), dejte nám vědět na meta(at)cesnet.cz.
Nyní je v novém OpenPBS prostředí k dispozici cca polovina clusterů, na reinstalaci dalších intenzivně pracujeme. Čekáme na doběhnutí úloh. Přehled strojů s vlastností Debian12: https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian12
Zda se Vaše úloha spustí v novém OpenPBS prostředí můžete vyzkoušet v Sestavovači qsub: https://metavo.metacentrum.cz/pbsmon2/qsub_pbspro
Aktuální informace o migraci najdete v dokumentaci https://docs.metacentrum.cz/tutorials/debian-12/ (postup migrace zde aktualizujeme).
Ivana Křenková, Mon Apr 08 15:35:00 CEST 2024
Pozvánka na Konferenci e-INFRA CZ 2024
Vážení uživatelé,
Dovolujeme si Vás tímto pozvat k účasti na Konferenci e-INFRA CZ 2024, která se koná 29. - 30. dubna 2024 v Praze v hotelu Occindental.
Na konferenci vám představíme infrastrukturu e-INFRA CZ, její služby, mezinárodní projekty a výzkumné aktivity. Seznámíme Vás s aktuálními novinkami a nastíníme také plány MetaCentra. Druhý den konference přinese konkrétní rady a příklady užití infrastruktury.
Konference bude vedena v anglickém jazyce.
Na shledanou se těší Vaše MetaCentrum
Ivana Křenková, Wed Mar 20 21:40:00 CET 2024
Pozvánka na Open day for the launch of the OSCARS Open Call for Open Science Projects
Vážení uživatelé,
přeposíláme pozvánku na
Open day for the launch of the OSCARS Open Call for Open Science Projects
15 March 2024
|
|
S přáním příjemného počítání,
Ivana Křenková, Wed Mar 13 23:40:00 CET 2024
Novinky infrastruktury MetaCentrum & CERIT-SC
Obsah
2) Dotazník ke službám MetaCentra / e-INFRA CZ
3) Změny v dostupnosti komerčních SW (Matlab, Mathematica)
4) Dostupná grafická prostředí (Galaxy, Chipster, OnDemand, Kubernetes/Rancher, JupyterNotebooks, Alphafold)
5) Stěhování dat z archivního úložiště na objektové úložiště
------------------------------------------------------------------
1) Přechod na novou PBS a Debian12 — testování kompatibility SW
Připravujeme přechod na novou PBS - OpenPBS. Stávající PBSPro servery budou v budoucnu odstaveny z provozu, protože nemohou přímo komunikovat s novými OpenPBS servery a utilitami. Zároveň s migrací na novou PBS probíhá upgrade OS: Debian11 —> Debian12.
Pro testovací účely jsme připravili nové OpenPBS prostředí pbs-m1.metacentrum.cz s novým frontendem zenith běžícím na OS Debian12:
• nový frontend zenith.cerit-sc.cz (alias zenith.metacentrum.cz) s OS Debian12
• nový OpenPBS server pbs-m1.metacentrum.cz
• home /storage/brno12-cerit/
Postupně bude nové prostředí doplňováno o další clustery.
Přehled strojů s Debian12: https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian12
Seznam dostupných frontendů včetně aktuálního OS: https://docs.metacentrum.cz/computing/frontends/
Přístup k nové PBS je možný také z ostatních frontendů, je však nutná aktivace modulu openpbs (module add openpbs).
Problémy s kompatibilitou některých aplikací s OS Debian12 průběžně řešíme rekompilací nových SW modulů. Pokud narazíte na problém u své aplikace, vyzkoušejte přidání modulu debian11/compat na začátek spouštěcího skriptu (module add debian11/compat). Pokud problémy přetrvávají (chybějící knihovny atd.), dejte nám vědět na meta(at)cesnet.cz.
Více informací najdete v dokumentaci https://docs.metacentrum.cz/tutorials/debian-12/ (postup migrace zde budeme upřesňovat).
2) Dotazník ke službám MetaCentra / e-INFRA CZ
Chtěli bychom Vám připomenout možnost sdílet s námi své zkušenosti s výpočetními službami velké výzkumné infrastruktury e-INFRA CZ, kterou tvoří e-infrastruktury CESNET, CERIT-SC a IT4Innovations. Prosíme o vyplnění dotazníku do 8. 3. 2024. Vaše odpovědi nám pomohou upravit naše služby tak, aby Vám lépe vyhovovaly.
Pokud jste již dotazník vyplnili, děkujeme Vám za to! Velmi si toho vážíme.
Dotazník je dostupný na adrese https://survey.e-infra.cz/compute
3) Změny v dostupnosti komerčních SW (Matlab, Mathematica)
Matlab
Získali jsme novou akademickou licenci pro 200 instancí Matlab 9.14 a novějšího (včetně široké škály toolboxů), pokrývající výpočetní prostředí MetaCentra, CERIT-SC i IT4Innovations.
Tato nová licence má přísnější podmínky než předchozí: lze ji používat pouze z IP adres MetaCenta/IT4Innovations, tj. nelze ji použít pro Matlab spuštěný na vašem počítači/univerzitní přednáškové místnosti.
Více informací: https://docs.metacentrum.cz/software/sw-list/matlab/
Mathematica
Od letošního roku již MetaCentrum nevlastní gridovou licenci SW Mathematica pro obecné využití v MetaCentru (dodavatel nedokázal nabídnout vhodný licenční model).
V současné době jsou licence Mathematica 9 omezeny pouze na členy UK a JČU, které mají vlastní licence pro své studenty a zaměstnance. Pokud máte vlastní (institucionální) licenci SW Mathematica, kontaktujte nás pro více informací na adrese meta(at)cesnet.cz.
Více informací: https://docs.metacentrum.cz/software/sw-list/wolfram-math/
4) Dostupná grafická prostředí a workflow (Chipster, Galaxy, OnDemand, Kubernetes/Rancher, Jupyter Notebooky, Alphafold)
Chipster
MetaCentrum pro své uživatele nově zpřístupnila vlastní instanci nástroje Chipster, dostupného na adrese https://chipster.metacentrum.cz/.
Chipster je open-source nástroj pro analýzu genomických dat. Jeho hlavním cílem je umožnit výzkumníkům a bioinformatickým odborníkům provádět pokročilé analýzy nad genomickými daty, jako jsou sekvenční data, mikročipy a RNA-seq. Zde jsou některé klíčové rysy Chipsteru:
- uživatelsky přívětivé rozhraní, které umožňuje snadnou manipulaci s daty a provádění analýz
- lze přidávat a kombinovat různé moduly pro specifické úkoly
- mnoho předdefinovaných analýz (500), jako jsou diferenciální exprese genů, GO analýza, variant calling a další
- umožňuje práci s velkými datovými sadami a je optimalizován pro efektivní výpočty
- lze propojit s dalšími bioinformatickými nástroji a databázemi
Více informací: https://docs.metacentrum.cz/related/chipster/
Galaxy pro uživatele MetaCentra
Galaxy je otevřená webová platforma určená pro analýzu dat FAIR, původně v biomedicínském výzkumu, ale v současné době zahrnuje mnoho vědeckých oblastí. Pro uživatele MetaCentra jsme připravili dvě prostředí Galaxy pro obecné použití:
a) usegalaxy.cz
Obecný portál https://usegalaxy.cz/, který kopíruje funkčnost (zejména sadu dostupných nástrojů) celosvětových služeb (usegalaxy.org, usegalaxy.eu) a zároveň nabízí registrovaným uživatelům MetaCentra výrazně vyšší uživatelské kvóty (výpočetní i úložné). Zde jsou některé klíčové vlastnosti:
- flexibilní nástroj, který podporuje různé typy dat a analýz. Můžete ho použít pro bioinformatiku, chemii, fyziku, sociální vědy a další obory.
- umožňuje vytvářet a sdílet pracovní toky (workflows), které mohou obsahovat různé kroky (filtrace, transformace, analýza a vizualizace dat)
- umožňuje propojení s dalšími nástroji a knihovnami (Python, R nebo SQL) pro pokročilé analýzy
- nástroje pro vizualizaci dat (grafy, mapy a animace)
Více informací: https://docs.metacentrum.cz/related/galaxy/
b) RepeatExplorer Galaxy
Vedle obecně využitelné Galaxy nabízíme našim uživatelům specializovanou instanci Galaxy s nástrojem Repeat Explorer. Ke službě je potřeba se registrovat.
RepeatExplorer je výkonný nástroj pro zpracování dat, který je založen na platformě Galaxy. Jeho hlavním účelem je charakterizace opakujících se sekvencí v datech získaných ze sekvenování. Klíčové vlastnosti:
- umožňuje identifikovat a analyzovat repetitivní sekvence v genomu
- grafické shlukování umožňuje vizualizaci repetitivních sekvencí
- zahrnuje nástroje pro detekci proteinových kódových domén transponovatelných elementů.
Více informací: https://galaxy-elixir.cerit-sc.cz/
OnDemand
Open OnDemand https://ondemand.grid.cesnet.cz/ je služba, která uživatelům umožňuje přístup k výpočetním zdrojům přes webový prohlížeč v grafickém režimu. Uživatel může spouštět běžné úlohy PBS, získat přístup k frontend terminálům, kopírovat soubory mezi úložišti nebo spouštět několik grafických aplikací přímo v prohlížeči. Některé z funkcí:
- umožňuje prohlížení a správu souborů v domovském adresáři na úložišti /storage/brno2 a také přístup k dalším úložištím v MetaCentru
- zobrazuje seznam vašich běžících úloh na libovolném PBS serveru, lze vytvářet a spouštět nové úlohy
- poskytuje terminálový přístup k front-endům skirit/zuphux/elmo
- nabízí interaktivní grafické uživatelské rozhraní, včetně MetaCentrum Remote Desktop, ANSYS, MATLAB, Jupyter Notebooks, RStudio,..
Více nformací: https://docs.metacentrum.cz/software/ondemand/
Kubernetes/Rancher
Celá řada grafických aplikací je dostupná rovněž v Kubernetes / Rancher https://rancher.cloud.e-infra.cz/dashboard/ ve správě Centra CERIT-SC (Ansys, Remote Desktop, Matlab, RStudio, …)
Více informací: https://docs.cerit.io/
JupyterNotebooky
Jupyter Notebooks jsou prostředím „as a Service“ založeným na technologii Jupyter. Jedná se o nástroj, který je dostupný přes webový prohlížeč a umožňuje uživatelům kombinovat kód (zejména v jazyce Python), výstupy ve formátu Markdown, text, matematiku, výpočty a bohatý mediální obsah.
Uživatelé MetaCentra mohou využívat Jupyter Notebooks ve třech variantách:
a) v cloudu: Pro uživatele MetaCentra je dostupný Jupyter přes MetaCentrum Cloud Hub. Registrace není nutná, stačí se přihlásit pomocí svého Metacentrum účtu. Více informací: https://docs.metacentrum.cz/related/jupyter/
b) v Kubernetes: Jupyter lze také provozovat v Kubernetes clusteru. V tomto případě se přihlašuje také pomocí Metacentrum přihlašovacích údajů.
Více informací: https://docs.cerit.io/docs/jupyterhub.html
c) jako aplikace v OnDemand
https://ondemand.grid.cesnet.cz/
AlphaFold
AlphaFold je populární nástroj založený na umělé inteligenci, který slouží k predikci 3D struktury proteinů. Jeho revoluční přístup v oblasti biochemie a návrhu léčiv umožňuje přesněji předpovídat, jak se proteiny skládají do třídimenzionálních struktur. Opět jej nabízíme ve třech variantách:
a) Centrum CERIT-SC nabízí přístup k AlphaFold as a Service ve webovém prohlížeči (jako předpřipravený Jupyter Notebook)
Více informací: https://docs.cerit.io/docs/alphafold.html
b) v dávkových úlohách v OnDemand https://ondemand.grid.cesnet.cz/pun/sys/myjobs/workflows/new
c) v dávkových úlohách pomocí RemoteDesktop a předpřipravených kontejnerů pro Singularity
Více informací: https://docs.metacentrum.cz/software/sw-list/alphafold/
5) Stěhování dat z archivního úložiště v Ostravě (převzato od DU CESNET)
Archivní úložiště du4.cesnet.cz v MetaCentru připojené jako storage-du-cesnet.metacentrum.cz je již mimo záruku a vykazuje řadu technických problémů v mechanice páskové knihovny, což neohrožuje samotná uložená data, ale komplikuje jejich dostupnost. Kolegové z Datových úložišť CESNET připravují přesun stávajících dat na nový systém (Object Storage).
Nyní je potřeba co nejvíce utlumit provoz na tomto úložišti, prosíme proto
- omezte zápis i čtení z tohoto/na toto úložiště
- nepoužívejte data z tohoto úložiště přímo pro výpočty v MetaCentru
Pokud potřebujete zde uložená data k výpočtům, domluvte si prioritní přesun s kolegy na du-support(at)cesnet.cz
Pokud naopak zde máte uložená data, která již neplánujete používat ani stěhovat (například staré zálohy), prosíme, kontaktujte rovněž kolegy na du-support(at)cesnet.cz
Ivana Křenková, Mon Mar 04 15:35:00 CET 2024
Pozvánka na kurzy SVS FEM (Ansys)
Vážení uživatelé,
přeposíláme pozvánku s kurzy SVS FEM (Ansys):
|
|
SVS FEM s.r.o., Trnkova 3104/117c, 628 00 Brno
+420 543 254 554 | http://www.svsfem.cz
S přáním příjemného počítání,
Ivana Křenková, Thu Feb 01 23:40:00 CET 2024
Rušení diskových polí /storage/brno3-cerit/ a /storage/brno1-cerit/
Z důvodu poruchovosti a stáří jsme nedávno zrušili, nebo v dohledné době rušit plánujeme, stará disková pole Centra CERIT-SC:
• /storage/brno3-cerit/
• /storage/brno1-cerit/
Rušení /storage/brno3-cerit/
Nedávno jsme zrušili diskové pole /storage/brno3-cerit/ a data z /home adresářů jsme přesunuli do /storage/brno12-cerit/home/LOGIN/brno3 (alternativně přímo do /home, pokud byl na novém úložišti prázdný).
Dočasně zůstal funkční symlink /storage/brno3-cerit/home/LOGIN/…, který vede na stejná data na novém poli. Od nynějška prosím používejte novou cestu ke stejným datům /storage/brno12-cerit/home/LOGIN/…
Všechna data z brno3 jsou již fyzicky přestěhována na nové pole! Není potřeba nic nikam kopírovat.
Rušení /storage/brno1-cerit/
V blízké budoucnosti začneme stěhovat data z diskového pole /storage/brno1-cerit/ do /storage/brno12-cerit/home/LOGIN/brno1/.
Data přestěhujeme my, v době, kdy nebudou používána v úlohách.
Dočasně zůstane funkční symlink /storage/brno1-cerit/home/LOGIN/…, který povede na stejná data na novém poli. Ten bude po zrušení pole smazán a data budou dostupná jako /storage/brno12-cerit/home/LOGIN/brno1/.
POZOR na poli /storage/brno1-cerit/ jsou uložená také data z archivů starých, dávno zrušených diskových polí. Data z archivů neplánujeme přenášet automaticky! Pokud data z následujících archivů používáte, ozvěte se nám na meta@cesnet.cz, potřebná data překopírujeme rovněž do /storage/brno12-cerit/:
• /storage/brno4-cerit-hsm/
• /storage/brno7-cerit/
• /storage/jihlava1-cerit/
Výsledek
Jediným diskovým polem, připojeným do MetaCentra z Centra CERIT-SC, bude nadále /storage/brno12-cerit/ (storage-brno12-cerit.metacentrum.cz)
Všechna svá data najdete na diskovém poli /storage/brno12-cerit/home/LOGIN/… a symlinky na stará úložiště budou nejpozději v létě zrušeny.
S omluvou za komplikace a s přáním pěkného dne,
Vaše MetaCentrum
Ivana Křenková, Fri Jan 19 15:35:00 CET 2024
Pozvánka LUMI Intro Course
Vážení uživatelé,
přeposíláme pozvánku s kurzy v IT4Innovation.
|
||||||||||||
|
||||||||||||
|
S přáním příjemného počítání,
Ivana Křenková, Mon Jan 15 23:40:00 CET 2024
Novinky infrastruktury MetaCentrum & CERIT-SC
Novinky infrastruktury MetaCentrum & CERIT-SC
1) Přispěli jsme k projektu, který získal AI Awards 2023
Výzkumníci z Katedry kybernetiky FAV ZČU, kteří na jaře přednášeli na Gridovém semináři MetaCentra, a se kterými jsme nedávno připravili reportáž o využívání našich služeb, získali ocenění AI Awards 2023. Gratulujeme!
Za oceněným projektem zachování historického dědictví a kulturní paměti, který spočívá ve zpřístupnění archivu historických dokumentů NKVD/KGB, stojí také naše služby, zejména Kubernetes cluster Kubus a s ním spojená disková úložiště.
Tyto výpočetní a datové zdroje k řešení velmi náročných úloh spravuje pro oblast vědy a výzkumu MetaCentrum. Více informací v tiskové zprávě ZČU.
2) Účastníme se Czech Space Week
Náš kolega Zdeněk Šustr dnes vystupuje na konferenci Copernicus forum a Inspirujme se 2023 ve Hvězdáně a planetáriu v Brně. Představí nové služby, data a plány národního uzlu Sentinel CollGS a projekt GREAT. Konference je součástí akce Czech Space Week. Je zaměřena na dálkový průzkum Země a infrastruktury INSPIRE pro sdílení prostorových dat.
Projekt GREAT je financován z prostředků Evropské unie, programu Digital Europe Programme (DIGITAL – ID: 101083927).

Ivana Křenková, Thu Nov 30 15:35:00 CET 2023
Pozvánka na podzimní HPC kurzy
Vážení uživatelé,
přeposíláme pozvánku s kurzy v IT4Innovation.
|
|
|
|
|
|
|
S přáním příjemného počítání,
Ivana Křenková, Wed Jun 14 23:40:00 CEST 2023
Tipy dne na frontendech
Vážení uživatelé,
na základě zpětné vazby, kterou jsme od Vás získali v uživatelském dotazníku z přelomu roku, jsme nejčastější dotazy zpracovali do podoby Tipu dne.
Nově se Vám zobrazí na všech frontendech náhodná rada v podobě krátkého textu na konci výpisu MOTD po přihlášení na frontend.

Zobrazování tipů si můžete na vybraném frontendu deaktivovat pomocí přikazu "touch ~/.hushmotd".
S přáním příjemného počítání,
Ivana Křenková, Wed Jun 07 23:40:00 CEST 2023
Nejpokročilejší systém pro AI a dva nové clustery pro náročné výpočty v MetaCentru
Vážení uživatelé,
s radostí oznamujeme, že jsme do MetaCentra pořídili nový velice zajímavý HW.
Více informací najdete také v tiskové zprávě e-INFRA CZ "Vědci v ČR získali nejpokročilejší systém pro AI a dva nové clustery pro náročné technické výpočty"
1) NVIDIA DGX H100
Masarykova univerzita (CERIT-SC) se stala průkopníkem v oblasti podpory umělé inteligence (AI) a výkonné výpočetní technologie díky instalaci nejnovějšího a nejvyspělejšího systému NVIDIA DGX H100. Jedná se o první zařízení tohoto typu v celé ČR (a Evropě), které přináší extrémní výpočetní sílu a inovativní možnosti pro výzkum.
Díky nejnovější architektuře GPU NVIDIA Hopper DGX H100 disponuje osmi pokročilými grafickými procesory NVIDIA H100 Tensor Core, každý s GPU pamětí 80 GB. Umožňuje tak paralelní zpracování obrovských datových objemů a výrazně urychluje výpočetní úlohy.
Konfigurace systému NVIDIA DGX H100 capy.cerit-sc.cz
- 8 GPU H100 80GB SXM5
- 135 168 CUDA jader
- 640 GB GPU paměti
- 2 TB RAM paměti
- 3,84 TB NVMe pro OS
- 30 TB NVMe pro data
- lokalita: Brno (CERIT-SC)
Server DGX H100 je dodáván s předinstalovaným softwarovým balíčkem NVIDIA DGX, který obsahuje komplexní sadu softwarových nástrojů pro hluboké učení, včetně předkonfigurovaných prostředí.
Stroj je přístupný na požádání ve speciální frontě gpu_dgx@meta-pbs.metacentrum.cz.
Pro přístup žádejte na adrese meta@cesnet.cz. V žádosti popište důvody pro přidělení tohoto zdroje (potřebnost a schopnost efektivního využítí. Zároveň popište stručně očekávané výsledky, předpokládaný objem zdrojů a časový rozsah potřebného přístupu.
2) Clustery TURIN a TYRA
Kromě toho mohou uživatelé MetaCentra začít využívat dva zcela nové výpočetní clustery, které pořídíl CESNET. První byl zprovozněn v Ústavu molekulární genetiky Akademie věd ČR v Praze-Krči pod názvem TURIN a druhý na Ústavu výpočetní techniky Masarykovy univerzity v Brně pod jménem TYRA.
Pražský cluster TURIN má 52 uzlů, z nichž každý disponuje 64 jádry CPU a 512 GB RAM. Jeho brněnský kolega TYRA je tvořen 44 uzly a jinak s totožnou technickou specifikací.
Oba clustery jsou osazeny procesory AMD společně s technologií AMD 3D V-Cache. Jde o nejvýkonnější serverové procesory určené pro náročné výpočty.
Konfigurace clusterů turin.metacentrum.cz a tyra.metacentrum.cz
- celkem 6144 jader CPU
- celkem 96 uzlů, každý má
- 64x AMD EPYC 7543@2.80GHz
- RAM: 512 GB
- disk: 7TiB NVME
- vlastník CESNET
- lokalita: Praha, Brno
- 10Gb uplink do páteřní sítě CESNET
Kompletní seznam aktuálně dostupných výpočetních serverů je na https://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Ivana Křenková, Mon Jun 05 23:40:00 CEST 2023
Nový HW v MetaCentru
Masarykova univerzita (CERIT-SC) se stala průkopníkem v oblasti podpory umělé inteligence (AI) a výkonné výpočetní technologie díky instalaci nejnovějšího a nejvyspělejšího systému NVIDIA DGX H100. Jedná se o první zařízení tohoto typu v celé ČR, které přináší extrémní výpočetní sílu a inovativní možnosti pro výzkum.
Díky nejnovější architektuře GPU NVIDIA Hopper DGX H100 disponuje osmi pokročilými grafickými procesory NVIDIA H100 Tensor Core, každý s GPU pamětí 80 GB o celkovém výpočetním výkonu 32 TeraFLOPS. Umožňuje tak paralelní zpracování obrovských datových objemů a výrazně urychluje výpočetní úlohy. Díky vysoce výkonným paměťovým subsystémům v grafických akcelerátorech poskytuje rychlý přístup k datům a optimalizuje výkon při práci s velkými datovými sadami. Uživatelé tak mohou dosáhnout bezkonkurenční efektivity a odezvy ve svých AI úlohách.
Server DGX H100 je dodáván s předinstalovaným softwarovým balíčkem NVIDIA DGX, který obsahuje komplexní sadu softwarových nástrojů pro hluboké učení, včetně předkonfigurovaných prostředí.
Stroj je přístupný na požádání ve speciální frontě gpu_dgx@meta-pbs.metacentrum.cz.
Pro přístup žádejte na adrese meta@cesnet.cz. V žádosti popište důvody pro přidělení tohoto zdroje (potřebnost a schopnost efektivního využít). Zároveň popište stručně očekávané výsledky, předpokládaný objem zdrojů a časový rozsah potřebného přístupu.
Konfigurace NVIDIA DGX H100 (capy.cerit-sc.cz)
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Ivana Křenková, Thu Jun 01 23:40:00 CEST 2023
Nový HW v MetaCentru
MetaCentrum bylo rozšířeno o nové clustery:
1) CPU cluster turin.metacentrum.cz, 52 uzlů, 3328 jader CPU, s následující specifikací každého uzlu:
- CPU: 64x AMD EPYC 7543@2.80GHz
- RAM: 512 GiB
- disk: 2x3.84 TiB NVME
- Net: Ethernet 10 Gbit/s
- OS: Debian 11
- výkon každého uzlu je dle SPECrate 2017_fp_base = 516
- vlastník CESNET, Praha
2) CPU cluster tyra.metacentrum.cz, 44 uzlů, 2816 jader CPU, s následující specifikací každého uzlu:
- CPU: 64x AMD EPYC 7543@2.80GHz
- RAM: 512 GiB
- disk: 2x3.84 TiB NVME
- Net: Ethernet 10 Gbit/s
- OS: Debian 11
- výkon každého uzlu je dle SPECrate 2017_fp_base = 516
- vlastník CESNET, Brno
Clustery jsou dostupné v prostředí plánovacího serveru @pbs-meta prostřednictvím standardních krátkých front. Po otestování budou přidány i delší fronty.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Ivana Křenková, Fri May 19 23:40:00 CEST 2023
Dokumentace MetaCentra se stěhuje
Vážení uživatelé,
připravili jsme pro Vás novou dokumentaci MetaCentra, která je dostupná na https://docs.metacentrum.cz/ .
Obsah jsme strukturovali podle témat, která Vás zajímají, ta najdete v horní liště. Po rozkliknutí vybraného tématu se rozbalí pomocné menu vlevo s další navigací. V pravo je pak obsah s tématy obsaženými na stránce.
Do přípravy dokumentace jsme promítli i zpětnou vazbu, kterou jste nám poslali v dotazníku (děkujeme). Například jsme pročistili spoustu neaktuálních informací, které zůstávaly dohledatelné ve wiki a pokusili jsme se zpřehlednit výukové příklady.
Kvůli možnosti zpětného dohledání informací nebude původní dokumentace smazána hned, ale zůstane dočasně přístupná. Od konce března 2023 však není aktualizována!
Proč jsme zvolili jiný formát dokumentace a opustili wiki?
Jak jistě víte, probíhá integrace poskytovaných služeb do jednotné platformy e-INFRA CZ*. Součástí této integrace je sjednocení formátu všech uživatelských dokumentací. Do budoucna naši novou dokumentaci začleníme do společné dokumentace všech poskytovaných služeb v rámci aktivit e-INFRA CZ https://docs.e-infra.cz/.
-----
* e-INFRA CZ je infrastruktura pro vědu a výzkum, která spojuje a koordinuje aktivity tří českých e-infrastruktur: CESNET, CERIT-SC a IT4Innovations. Více informací naleznete na domovské stránce e-INFRA CZ https://www.e-infra.cz/.
-----
Nová dokumentace stále prochází vývojem a změnami. V případě, že narazíte na jakékoliv problémy, nejasnosti nebo Vám něco chybí, dejte nám prosím vědět na e-mailu meta@cesnet.cz . Už teď přemýšlíme, jak pro Vás ještě lépe rozpracovat část dokumentace věnované instalacím SW.
S pozdravem,
tým MetaCentra
Ivana Křenková, Mon Apr 03 21:40:00 CEST 2023
Další kolo grantové soutěže v IT4Innovations Natinal Supercomputeing Center
Vážení uživatelé,
dovolujeme si přeposlat informaci o grantové soutěži v IT4I:
|
||||
|
Ivana Křenková, Thu Mar 30 21:40:00 CEST 2023
Pozvánka na hybridní školení Introduction to MPI
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na hybridní školení Introduction to MPI:
--
Dear Madam / Sir,
The Czech National Competence Center in HPC is inviting you to a course Introduction to MPI, which will be held hybrid (online and onsite) on 30–31 May 2023.
Message Passing Interface (MPI) is a dominant programming model on clusters and distributed memory architectures. This course is focused on its basic concepts such as exchanging data by point-to-point and collective operations. Attendees will be able to immediately test and understand these constructs in hands-on sessions. After the course, attendees should be able to understand MPI applications and write their own code.
Introduction to MPI
Date: 30–31 May 2023, 9 am to 4 pm
Registration deadline: 23 May 2023
Venue: online via Zoom, onsite at IT4Innovations, Studentská 6231/1B, 708 00 Ostrava–Poruba, Czech Republic
Tutors: Ondřej Meca, Kristian Kadlubiak
Language: English
Web page: https://events.it4i.cz/event/165/
Please do not hesitate to contact us might you have any questions. Please write us at training@it4i.cz.
We are looking forward to meeting you online and onside.
Best regards,
Training Team IT4Innovations
training@it4i.cz
Ivana Křenková, Tue Mar 14 21:40:00 CET 2023
Pozvanka na tradicni Seminar gridoveho pocitani - MetaCentrum
Vážení uživatelé,
Rádi bychom Vás pozvali na tradiční Seminář MetaCentra, který se bude konat v Praze 12. a 13. dubna 2023.

Společně s EOSC CZ jsme připravili bohatý program, který by Vás mohl zajímat.
První den akce bude věnován EOSC CZ aktivitám, především pak přípravě národní repozitářové platformy a ukládání/archivování výzkumných dat v ČR.
Druhý den pak proběhne Seminář gridového počítání 2023, který bude zaměřen na představení novinek a nových služeb, které MetaCentrum nabízí.
Mezi nimi budou například Singularity kontejnery, NVIDIA framework pro AI, Galaxy, grafická prostředí v OnDemand a Kubernetes, Jupyter Notebooky, Matlab (zvaná přednáška) a mnoho dalšího. Odpoledne se bude konat volitelný Hands-on workshop s omezenou kapacitou, kde si dozvíte mnoho zajímavého a pod vedením našich odborníků si můžete vyzkoušet témata, která Vás zajímají.
Protože chceme, aby Seminář odpovídal Vašim potřebám, budeme velmi rádi, když nám sdělíte, která témata Vás zajímají a co byste si chtěli vyzkoušet. Pokusíme se je zařadit do programu. Náměty prosím pište na meta@cesnet.cz.
Podrobnější informace a registraci najdete na stránce semináře: https://metavo.metacentrum.cz/cs/seminars/Seminar2023/index.html
Těšíme se na Vaši účast! Seminář proběhne v českém jazyce.
Vaše MetaCentrum
Ivana Křenková, Tue Mar 14 21:40:00 CET 2023
Nový způsob výpočtu fairshare
Vážení uživatelé,
rádi bychom vám oznámili, že od od čtvrtka 9. 3. 2023 se mění způsob výpočtu fairshare. Přidáváme nový koeficient s názvem "spec", který bere v úvahu rychlost výpočetního uzlu, na kterém běží úloha.
Dosud se "usage fairshare" počítal jako usage = used_walltime*PE , kde PE je "procesor ekvivalent" vyjadřující kolik zdrojů (ncpus, mem, scratch, gpu...) si uživatel na stroji alokoval.
Nově se bude počítat jako usage = spec*used_walltime*PE, kde "spec" značí koeficient, který vystihuje výkon hlavního uzlu (spec na jádro), na kterém běží úloha. Tento koeficient nabývá hodnot od 3 do 10.
Doufáme, že vám tato změna umožní ještě efektivnější využití našich výpočetních zdrojů. Pokud máte jakékoli dotazy, neváhejte nás kontaktovat.
Ivana Křenková, Tue Mar 07 21:40:00 CET 2023
Nová verze grafického rozhraní OnDemand
Vážení uživatelé,
připravili jsme novou verzi grafického prostředí OnDemand, které je dostupné nově na https://ondemand.metacentrum.cz
Open OnDemand je služba, která uživatelům umožňuje přístup k výpočetním zdrojům přes webový prohlížeč v grafickém režimu. Uživatel může spouštět běžné úlohy PBS, získat přístup k frontend terminálům, kopírovat soubory mezi našimi úložišti nebo spouštět několik grafických aplikací v prohlížeči. Mezi nejpoužívanější dostupné aplikace patří Matlab, ANSYS, MetaCentrum Remote Desktop a VMD (viz úplný seznam GUI aplikací dostupných přes OnDemand). Grafické relace jsou trvalé, můžete k nim přistupovat z různých počítačů v různých časech nebo dokonce současně.
Přihlašovací jméno a heslo do rozhraní Open OnDemand V2 je vaše přihlašovací jméno e-INFRA CZ / Metacentrum a heslo Metacentra.
Více informací najdete v dokumentaci: https://wiki.metacentrum.cz/wiki/OnDemand
Ivana Křenková, Mon Feb 13 21:40:00 CET 2023
Pozvánka na hybridní školení High Performance Data Analysis with R, 26–27
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na hybridní školení High Performance Data Analysis with R:
--
Dear Madam / Sir,
The Czech National Competence Center in HPC is inviting you to a course High Performance Data Analysis with R, which will be held hybrid (online and onsite) on 26–27 April 2023.
This course is focused on data analysis and modeling in R statistical programming language. The first day of the course will introduce how to approach a new dataset to understand the data and its features better. Modeling based on the modern set of packages jointly called TidyModels will be shown afterward. This set of packages strives to make the modeling in R as simple and as reproducible as possible.
The second day is focused on increasing computation efficiency by introducing Rcpp for seamless integration of C++ code into R code. A simple example of CUDA usage with Rcpp will be shown. In the afternoon, the section on parallelization of the code with future and/or MPI will be presented.
High Performance Data Analysis with R
Date: 26–27 April 2023, 9 am to 5 pm
Registration deadline: 20 April 2023
Venue: online via Zoom, onsite at IT4Innovations, Studentská 6231/1B, 708 00 Ostrava – Poruba, Czech Republic
Tutor: Tomáš Martinovič
Language: English
Web page: https://events.it4i.cz/event/163/
Please do not hesitate to contact us might you have any questions. Please write us at training@it4i.cz.
We are looking forward to meeting you online and onside.
Best regards,
Training Team IT4Innovations
training@it4i.cz
Ivana Křenková, Tue Jan 31 21:40:00 CET 2023
Poskytnutí zpětné vazby ke službám MetaCentra
Vážení uživatelé,
Rádi bychom se dozvěděli, co si myslíte o námi poskytovaných službách.
Najděte si prosím přibližně 15 minut na vyplnění formuláře pro zpětnou vazbu a poskytněte nám tak cenné informace potřebné pro rozvoj našich služeb.
Chápeme, že Váš čas strávený nad tímto dotazníkem je cenný, a proto každý, kdo formulář vyplní a bude mít vyplněné přihlašovací údaje do e-INFRA CZ, od nás obdrží odměnu v podobě 0,5 impaktované publikace, která navýší fairshare a zvýší prioritu uživatele v prostředí PBS.
Formulář pro zpětnou vazbu (vyberte prosím libovolnou jazykovou variantu):
Děkujeme vám za Vaši zpětnou vazbu. Přejeme Vám mnoho úspěchů a publikací i v roce 2023.
S pozdravem,
Vaše MetaCentrum
Ivana Křenková, Tue Jan 10 10:40:00 CET 2023
Nová fronta uv18.cerit-pbs.cerit-sc.cz na stroji ursa
Vážení uživatelé,
kvůli optimalizaci na NUMA systému serveru ursa byla zavedena fronta uv18.cerit-pbs.cerit-sc.cz, která umožňuje alokovat procesory pouze po nasobcích 18 tak, aby byl vždy využit celý NUMA node a nedocházelo k výraznému zpomalování výpočtu při zbytečné alokaci úlohy na více numa nodů.
Do fronty jsou proto přijímány pouze úlohy v násobcích 18 jader CPU a má vysokou prioritu.
S pozdravem,
Vaše MetaCentrum
Ivana Křenková, Tue Nov 29 10:40:00 CET 2022
Nový parametr PBS: spec
Vážení uživatelé,
nově je možné při žádosti o zdroje pro výpočetní úlohu zadat minimální rychlost CPU výpočetního nodu, t.j. zajistit, aby výpočetní uzel, na kterém úloha poběží, neměl procesor pomalejší než je určitá definovaná hodnota. Tento parametr se jmenuje spec a jeho číselná hodnota vychází z metodiky https://www.spec.org/ . Více k použití parametru spec se dočtete v naší uživatelské wiki na https://wiki.metacentrum.cz/wiki/About_scheduling_system#CPU_speed.
Vyžádání strojů s rychlejším procesorem může vést ke zkrácení výpočetní doby, na druhou stranu se tím omezuje množina nodů, kterou má úloha potenciálně k dispozici, a úloha tedy může čekat déle ve frontě. Používejte proto parametr spec s rozmyslem.
S pozdravem,
Vaše MetaCentrum
Ivana Křenková, Mon Aug 29 10:40:00 CEST 2022
Identifikace slabých hesel
Vážení uživatelé,
V rámci kontroly zabezpečení infrastruktury Metacentra jsme identifikovali
několik slabých uživatelských hesel. Aby byla zajištěna dostatečná ochrana
prostředí Metacentra, bude u příslušných uživatelů potřeba, aby provedli změnu
svého hesla na portále MetaCentra
(https://metavo.metacentrum.cz/cs/myaccount/heslo.html).
Uživatele, kterých se to týká, budeme kontaktovat přímo.
V případě dotazů se prosím obraťte na meta@cesnet.cz.
S pozdravem,
Vaše MetaCentrum
Ivana Křenková, Fri Aug 12 21:40:00 CEST 2022
Novinky infrastruktury MetaCentrum & CERIT-SC
Novinky infrastruktury MetaCentrum & CERIT-SC
1) Přístup he GUI aplikacím z prohlížeče
Uživatelé mohou nově přistupovat ke grafickému rozhraní aplikací proklikem přes webový prohlížeč. Návod na wiki https://wiki.metacentrum.cz/wiki/Remote_desktop#Quick_start_I_-_Run_GUI_desktop_in_a_web_browser.
Dřívější způsob přístupem přes VNC klienta je nadále možný - viz https://wiki.metacentrum.cz/wiki/Remote_desktop#Quick_start_II_-_Run_GUI_desktop_in_a_VNC_session a následující návody.
2) Historie uživatelských úloh
Uživatelé mohou nově získat historii svých úloh, včetně těch starších než 24 hodin, příkazem
pbs-get-job-history <job_id>
Pokud příkaz nalezne úlohu v archivu, vytvoří v aktuálním adresáři podadresář s názvem job_ID (např. 11808203.meta-pbs.metacentrum.cz), který obsahuje několik souborů. Důležité jsou zejména
job_ID.SC - kopie skriptu předaného příkazu qsub
job_ID.ER - standardní výstup úlohy (STDOUT)
job_ID.OU - standardní chybový výstup úlohy (STDERR)
Více informací je k dispozici v dokumentaci: https://wiki.metacentrum.cz/wiki/PBS_get_job_history
3) Nastavení paměti na GPU kartách
Na GPU kartách mohou nově uživatelé specifikovat, kolik nejméně paměti musí mít GPU karta k dispozici. K tomu slouží parametr gpu_mem. Například příkaz
qsub -q gpu -l select=1:ncpus=2:ngpus=1:mem=10gb:scratch_local=10gb:gpu_mem=10gb -l walltime=24:0:0
zařídí, aby se úloze přidělil stroj s GPU kartou, která má alespoň 10 GB paměti.
Více informací je k dispozici v dokumentaci https://wiki.metacentrum.cz/wiki/GPU_stroje
V souvislosti s tím bychom uživatele rádi upozornili, že pro specifikaci GPU karet je vhodnější používat kombinaci parametrů
gpu_mem a cuda_cap než název konkrétního klastru. Prvně uvedený způsob zahrne širší množinu strojů a tím pádem se zkrátí čekání úlohy ve frontě.
Ivana Křenková, Thu Aug 11 15:35:00 CEST 2022
Pozvánka na ESFRI Open Session
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na ESFRI Open Session
--
Dear All,
I am pleased to invite you to the 3rd ESFRI Open Session, with the leading theme Research Infrastructures and Big Data. The event will take place on June 30th 2022, from 13:00 until 14:30 CEST and will be fully virtual. The event will feature a short presentation from the Chair on recent ESFRI activities, followed by presentations from 6 Research infrastructures on the theme and there will also be an opportunity for discussion. The detailed agenda of the 3rd Open Session will soon be available via the event webpage.
ESFRI holds Open Sessions at its plenary meetings twice a year, to communicate to a wider audience about its activities. They are intended to serve both the ESFRI Delegates and representatives of the Research Infrastructures community, and facilitate both-ways exchange. ESFRI has launched the Open Session initiative as a part of the goals set within the ESFRI White Paper - Making Science Happen.
I would like to inform you that the Open Session will be recorded and will be at your disposal at our ESFRI YouTube channel. The recordings from the previous Open Sessions themed around the ESFRI RIs response to the COVID-19 pandemic, and the European Green Deal, are available here.
Please forward this invitation to your colleagues in the EU Research & Innovation ecosystem that you deem would benefit from the event.
Registration is mandatory for participation, and should be done via the following link:
https://us06web.zoom.us/webinar/register/WN_0-sM43ktT3mPuCzXi3KNdQ
Your attendance at the Open Session will be highly appreciated.
Sincerely,
Jana Kolar,
ESFRI Chair
Ivana Křenková, Mon Jun 20 21:40:00 CEST 2022
Pozvánka na Seminář gridového počítání 2022 + Konference e-INFRA CZ
Vážení uživatelé,
Dovolujeme si Vás tímto pozvat k účasti na Seminář gridového počítání - MetaCentrum 2022, který se koná 10. května 2022 v Praze v hotelu Diplomat.
Seminář je součástí konference e-infrastruktury e-INFRA CZ 2022 https://www.e-infra.cz/konference-e-infra-cz

Představíme Vám infrastrukturu e-INFRA CZ, její služby, mezinárodní projekty a výzkumné aktivity. Seznámíme vás s aktuálními novinkami a nastíníme naše plány.
V odpoledním programu vám nabídneme dvě paralelní sekce. Jedna se zaměří na rozvoj sítě, její bezpečnost a multimédia a druhá na zpracování a ukládání dat - Seminář gridového počítání MetaCentrum 2022.
V podvečer se pak zájemci mohou zúčastnit bonusové sekce Gridová služba MetaCentrum - Best Practices s následnou volnou diskuzí o tématech, která Vás zajímají a nedají Vám spát.
Více informací, program a registraci najdete na stránce akce https://metavo.metacentrum.cz/cs/seminars/seminar2022/index.html
Na shledanou se těší Vaše MetaCentrum
Ivana Křenková, Mon Apr 18 21:40:00 CEST 2022
Nový HW v MetaCentru
MetaCentrum bylo rozšířeno o nové clustery:
1) GPU cluster
galdor.metacentrum.cz vlastník CESNET, 20 uzlů, 1280 jader CPU a 80 GPU kartami NVIDIA A40, s následující specifikací každého uzlu:
- CPU: 64x AMD EPYC 7543
- RAM: 512 GiB
- GPU: 4x NVIDIA A40
- disk: 2x7.68 TiB NVME
- Net: x Ethernet 10 Gbit/s
- OS: Debian 11
- výkon každého uzlu je dle SPECfp2017: 513 (8 na jádro)
Cluster je dostupný v prostředí plánovacího serveru @pbs-meta prostřednictvím standardních krátkých front a prioritní fronty gpu.
Na GPU clusterech je možné využívat dockerové obrazy z NVIDIA GPU Cloud (NGC) -- nejpoužívanější prostředí pro vývoj machine learning a deep learning aplikací, HPC aplikací nebo vizualizaci akcelerovanou NVIDIA GPU kartami. Nasazení těchto aplikací je pak otázkou zkopírování odkazu na příslušný Docker obraz, jeho spuštění spuštění v Docker kontejneru v Singularity. Více informací najdete na https://wiki.metacentrum.cz/wiki/NVidia_deep_learning_frameworks
2) CPU cluster
halmir.metacentrum.cz vlastník CESNET, 31 uzlů, 1984 jader CPU, s následující specifikací každého uzlu:
- CPU: 64x AMD EPYC 7543
- RAM: 1024 GiB
- disk: 2x7.68 TiB NVME
- Net: Ethernet 10 Gbit/s
- OS: Debian 11
- výkon každého uzlu je dle SPECfp2017: 513 (8 na jádro)
Cluster je dostupný v prostředí plánovacího serveru @pbs-meta prostřednictvím standardních krátkých front. Po otestování budou přidány i delší fronty.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
Problémy s kompatibilitou některých aplikací s OS Debian11 průběžně řešíme rekompilací nových SW modulů. Pokud narazíte na problém u své aplikace, vyzkoušejte přidání modulu debian10-compat na začátek spouštěcího skriptu. Pokud problémy přetrvávají, dejte nám vědět na meta(at)cesnet.cz.
S přáním příjemného počítání,
Ivana Křenková, Fri Mar 11 23:40:00 CET 2022
Pozvánka na webinář Kubernetes
Vážení uživatelé,
zveme Vás na webinář Představení Kubernetes jako další výpočetní platformy dostupné uživatelům MetaCentra
Kdy: pátek 18. 3. 2022, 13 –15 hodin
Kde: online, platforma ZOOM, pozvánka bude zaslána před akcí registrovaným zájemcům
Pro koho: uživatelé MetaCentra
Jazyk: čeština
Lektor: RNDr. Lukáš Hejtmánek, Ph.D., Masarykova univerzita, CERIT-SC
Co se dozvíte
- Seznámení s Kubernetes [PDF].
- Praktické ukázky https://docs.cerit.io/docs/webinar1.html
- Webové aplikace pouštěné z Kubernetes – Jupyter a Binder Hub.
- Dostupné aplikace pro interaktivní práci – Ansys, Matlab, RStudio.
- Některou si ukážeme v praktické ukázce.
- Ukázka spuštění vlastní aplikace.
Technické požadavky
- Pro webové aplikace postačuje běžný prohlížeč.
- Pro vyzkoušení Ansys/Matlab je nutný vncviewer (realvnc, turbovnc), pro uživatele Mac OS stačí Safari browser.
- Pro ukázku vlastní aplikace je nutná možnost nainstalovat nástroj kubectl (bude ukázáno na webináři) a znalost běžné práce s terminálem.
Záznam z webináře https://youtu.be/zUrkd5qmbAc
Dokumentace ke Kubernetes a Rancheru https://docs.cerit.io/
Ivana Křenková, Tue Mar 08 21:40:00 CET 2022
Nové algoritmy autentizace uživatelů
Vážení uživatelé,
v infrastruktuře MetaCentrum pokračujeme v přechodu na nové algoritmy používané pro autentizaci uživatelů a ověření jejich hesel.
Nové algoritmy jsou bezpečnější a přináší podporu nových zařízení a operačních systémů. Pro dokončení přechodu bude u některých uživatelů potřeba, aby provedli nové zadání svého hesla v aplikaci pro změnu hesla na portále Metacentra (https://metavo.metacentrum.cz/cs/myaccount/heslo.html).
Uživatele, kterých se to týká, budeme kontaktovat přímo.
Připomínáme, že po uživatelích nikdy nepožadujeme zasílání hesel mailem. Veškeré informace o správě hesel jsou dostupné ze stránek MetaCentra.
V případě dotazů se prosím obraťte na support@metacentrum.cz.
S pozdravem,
Vaše MetaCentrum
Ivana Křenková, Thu Jan 27 21:40:00 CET 2022
Pozvánka na EGI webinar OpenRDM
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na EGI webinář OpenRDM
--
Dear all
I'm please to announce the first webinar in the new year which is related to the current hot topic, Data Space. Register now to reserve your place!
Title: openRDM
Date and Time: Wednesday, 12th January 2022 |14:00 -15:00 PM CEST
Description: The talk will introduce OpenBIS, an Open Biology Information System, designed to facilitate robust data management for a wide variety of experiment types and research subjects. It allows tracking, annotating, and sharing of data throughout distributed research projects in different quantitative sciences.
Agenda: https://indico.egi.eu/event/5753/
Registration: us02web.zoom.us/webinar/register/WN_6xn2eqnjTI60-AtB6FKEEg
Speaker: Priyasma Bhoumik, Data Expert, ETH Zurich. Priyasma holds a PhD in Computational Sciences, from University of South Carolina, USA. She has worked as a Gates Fellow in Harvard Medical School to explore computational approaches to understanding the immune selection mechanism of HIV, for better vaccine strategy. She moved to Switzerland to join Novartis and has worked in the pharma industry in the field of data science before joining ETHZ.
If you missed any previous webinars, you can find recordings at our website: https://www.egi.eu/webinars/
Please let's know if there are any topics you are interested in, and we can arrange according to your requests.
Looking forward to seeing you on Wednesday!
Yin
----
Dr Yin Chen
Community Support Officer
EGI Foundation (Amsterdam, The Netherlands)
W: www.egi.eu | E: yin.chen@egi.eu | M: +31 (0)6 3037 3096 | Skype: yin.chen.egi | Twitter: @yinchen16
EGI: Advanced Computing for Research
The EGI Foundation is ISO 9001:2015 and ISO/IEC 20000-1:2011 certified
Ivana Křenková, Mon Jan 10 21:40:00 CET 2022
Zavedení SHM scratchů
Od nynějška je možné používat nový typ scratche, tzv. SHM scratch. Tento scratch je určen pro úlohy, které potřebují extrémně rychlé čtení a zápis z/do souborů. SHM scratch existuje pouze v RAM, proto jsou data v něm uložená neperzistentní a zanikají s pádem nebo skončením úlohy. Více o použití SHM scratchů se dočtete na stránce https://wiki.metacentrum.cz/wiki/Scratch_storage
S přátelským pozdravem
MetaCentrum
Ivana Křenková, Sat Nov 20 16:25:00 CET 2021
Zrušení úložišť /storage/brno8 a /storage/ostrava1
Z důvodu obměny hardware budou úložiště /storage/brno8, resp. /storage/ostrava1 zrušena a 27. 9. 2021 budou odpojena. Data z domovských adresářů budou přesunuta do adresáře /storage/brno2/home/USERNAME/brno8. Tento přesun zajistíme. Žádáme nicméně uživatele, aby na rušených úložištích smazali data, která nechtějí zachovávat, a pomohli nám tak zkrátit proces kopírování.
S přátelským pozdravem
MetaCentrum
Ivana Křenková, Mon Sep 20 16:25:00 CEST 2021
Nástroj pro prodlužování úloh
Připravili jsme nástroj pro prodlužování úloh, který mohou v omezené míře využít uživatelé k prodloužení svých úloh, u kterých neodhadli potřebný čas walltime.
Úlohy je možné prodloužit z příkazové řádky na libovolném frontendu příkazem
qextend <full jobID> <additional_walltime>
Příklad:
(BUSTER)melounova@skirit:~$ qextend 8152779.meta-pbs.metacentrum.cz 01:00:00 The walltime of the job 8152779.meta-pbs.metacentrum.cz has been extended. Additional walltime: 01:00:00 New walltime: 02:00:00
- Pro správnou identifikaci úlohy na libovolém frontendu použijte celé ID úlohy (více v Beginners_guide#Track_your_job).
- Formát času může být dvojí
- jedno číslo - vyjádření času v sekundách -- udává o kolik vteřin má být úloha prodloužena
- hh:mm:ss - vyjádření hodiny:minuty:vteřiny -- udává, o kolik hodin, minut a vteřin má být úloha prodloužena
Jako prevence proti nadužívání nástroje (přílišná volnost v prodlužování by velmi ztížila plánování úloh) jsme nastavili následující limity:
- zavedli jsme 30 denní interval, po který se sledují předchozí prodlužování uživatele.
- každý uživatel může nástroj v tomto intervalu použít 20 krát
- a maximálně prodloužit úlohy o celkových 1440 CPU hodin
Interval je klouzavý. Prodloužení úloh starší 30 dnů jsou „zapomenuta“ a již nezabírají Vaši kvótu.
Více informací najdete v dokumentaci https://wiki.metacentrum.cz/wiki/Prolong_walltime
S přátelským pozdravem
MetaCentrum & CERIT-SC
Ivana Křenková, Thu Jul 22 14:24:00 CEST 2021
Rušení Hadoop clusteru
Dobrý den,
oznamujeme, že 15.8.2021 dojde ke zrušení clusteru hador poskytující služby Hadoop. Náhradou je virtualizované prostředí v cloudu, včetně navrhovaného postupu vytvoření jednostrojové nebo vícestrojové varianty clusteru.
Více informací: https://wiki.metacentrum.cz/wiki/Hadoop
S přátelským pozdravem
MetaCentrum
Ivana Křenková, Wed Jul 21 14:24:00 CEST 2021
Novinky a změny k ukládání dat
1) Zavedení kvót na maximální počet souborů
Vzhledem k narůstajícímu množství dat na našich polích jsou některé diskové operace již neúměrně dlouhé. Problémy způsobují zejména hromadné manipulace s daty (kopírování celých uživatelských adresářů, prohledávání, zálohování apod). Komplikace působí hlavně velké množství souborů, u některých uživatelů jsou to řádově i desítky miliónů.
Rádi bychom vás touto cestou požádali o kontrolu počtu souborů ve vašich domovských adresářích a jejich redukci. Aktuální stav je uvedený
- na webu Metacentra v tabulce Můj účet -> Přehled kvót
- se nově zobrazuje i při každém přihlášení na výpočetní frontendy
Kvóta kterou plánujeme zavést bude orientačně 1-2 milióny souborů na uživatele. Věříme, ze pro drtivou většinu z vás bude naprosto dostatečná, v odůvodněných případech bude možno ji navýšit obdobně jako datovou kvótu.
Kvóty plánujeme zavádět postupně v následujících měsících. Při redukci počtu souborů využívejte prosím přistup přímo přes frontendy diskových polí, jak je uvedeno na naší wiki v sekci Práce s daty: https://wiki.metacentrum.cz/wiki/Prace_s_daty
2) Zobrazení způsobu zálohovaní jednotlivých polí
Informace o způsobu zálohování jednotlivých polí jsou uvedeny na výše zmíněné wiki stránce Práce s daty, včetně doporučení jak nakládat s různými typy dat. I když bychom rádi zálohovali vše, není to ekonomicky či technicky vždy možné. Jakkoli jsou nehody vedoucí ke ztrátě dat řídké, rádi bychom opět zdůraznili, že ne každé pole je zálohované a je vhodné na to pamatovat při ukládání důležitých dat.
Abychom vám usnadnili orientaci v režimu záloh jednotlivých polí, nově ji zobrazujeme i v tabulce MOTD při každém přihlášení na výpočetní frontend.
3) Omezení možnosti zápisu do domovských adresářů cizími uživateli
Kvůli zvýšení bezpečnosti našich uživatelů jsme se rozhodli zrušit možnost zápisu cizími uživateli (ACL group a other) do kořenových domovských adresářů, ve kterých se nachází citlivé soubory typu .k5login, .profile apod, u kterých není žádoucí, aby s nimi mohl manipulovat někdo jiný než vlastník.
Proto budeme od 1.7. práva zápisu kontrolovat a strojově odebírat. Možnost zápisu do dalších podadresářů, typicky z důvodu sdílení dat v rámci skupiny, zůstává i nadále zachována.
Více informací naleznete na našich wiki stránkách v sekci Sdílení dat ve skupině:
https://wiki.metacentrum.cz/wiki/Sdileni_dat_ve_skupine
S přátelským pozdravem
MetaCentrum
Ivana Křenková, Mon Jun 07 14:24:00 CEST 2021
Novinky k posílení bezpečnosti uživatelských dat
V rámci zvyšování bezpečnostních standardů zavádí Metacentrum 2 novinky:
1) Nový mechanismus monitoringu uživatelských přístupů, jehož cílem je předejít zneužití odcizených přihlašovacích údajů. Nově bude lokace, ze které se uživatel přihlašuje, porovnávána s historií přístupů daného uživatele. V případě, že bude detekováno přihlášení z dosud neznámé lokace, bude uživateli zaslán informační e-mail spolu s žádostí o kontrolu, zda přihlášení skutečně provedl on.
Žádáme uživatele, aby v případě, že zjistí nesrovnalosti, postupovali podle pokynů v informačním e-mailu.
2) Změna šifrování uživatelských hesel. Během úprav bezpečnostní archiktury Metacentra bylo nutné zavést podporu pro nové šifrovací metody, které se používají během přihlašování. K dokončení procesu je nezbytné, aby si uživatelé, kterých se změny týkají, změnili heslo. Samotné heslo není nutné měnit, pouze připomínáme na nutnost používat dostatečně silná hesla.
Uživatele, kterých se změna týká, budeme o nutnosti změnit heslo v následujících týdnech informovat e-mailem. Připomínáme, že změna hesla se provádí na portále Metacentra na odkazu https://metavo.metacentrum.cz/cs/myaccount/heslo.html
S přátelským pozdravem
MetaCentrum & CERIT-SC
Ivana Křenková, Fri May 07 14:24:00 CEST 2021
Ohlédnutí za Seminářem gridového počítání 2021
Vážení uživatelé,
dne 21. dubna 2021 proběhl další (desátý) ročník Semináře gridového počítání 2021, tentokráte jako součást třídenní online Konference CESNET 25 http://www.cesnet.cz/konferenceCESNET.
Prezentace z celé konference jsou zveřejněné na stránce konference
Prezentace a videozáznamy ze Semináře gridového počítání, včetně hands-on, jsou k dispozici na webu MetaCentra: https://metavo.metacentrum.cz/cs/seminars/seminar2021/index.html
S přátelským pozdravem
MetaCentrum & CERIT-SC

Ivana Křenková, Fri Apr 23 14:24:00 CEST 2021
Dnes začíná online konference CESNET 25
Vážení uživatelé,
dnes začíná Konference e-infrastruktury CESNET!
Zítra proběhne náš Seminář gridového počítání 2021!
Konference probíhá od úterý 20. 4. do čtvrtka 22. 4. Dopolední sekce začínají v 9:00 a odpolední ve 13:00.
Ke konferenci se připojte přes ZOOM.
20.4.
- 25 let CENETu minulost i výzvy do budoucnosti - https://cesnet.zoom.us/j/95442868018
- Síť a síťové služby - https://cesnet.zoom.us/j/97963293739
21.4.
- Seminář gridového počítání aneb Počítání a ukládání dat - obecná dopolední část - https://cesnet.zoom.us/j/91612640266
- Podpora spolupráce a multimédia - https://cesnet.zoom.us/j/98881191969
- Seminář gridového počítání aneb počítání a ukládání dat - odpolední hands-on - https://cesnet.zoom.us/j/95297388774
22.4.
- Digitální identity - https://cesnet.zoom.us/j/99487777685
- Bezpečnost - https://cesnet.zoom.us/j/91472096323
Konference také poběží také přes YouTube, odkaz najdete na webu http://www.cesnet.cz/konferenceCESNET v programu u každé sekce.
Podrobný program našeho MetaCentrového semináře: https://metavo.metacentrum.cz/cs/seminars/seminar2021/index.html. Zde budou po skončení akce zveřejněny prezentace ze semináře.
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC

Ivana Křenková, Tue Apr 20 14:24:00 CEST 2021
Pozvánka na online Seminář gridového počítání 21. 4. 2021
Vážení uživatelé,
Dovolujeme si Vás tímto pozvat k účasti na Seminář gridového počítání 2021.
KDY: 21. 4. 2021
KDE: online (před začátkem akce Vám přijde link, pomocí kterého se připojíte na konferenci)
PROGRAM:
V dopolední části našeho semináře zazní přednášky o novinkách v MetaCentru, CERIT-SC i IT4Innovation. Kromě toho se představí naše národní aktivity v prostředí European Open Science Cloud a zazní zkušenosti z naší spolupráce s uživatelskou komunitou ESA, konkrétně o zpracovávání a uchovávání dat z družic Sentinel.
V odpolední části Semináře gridového počítání proběhne prakticky zaměřený Hands-on seminář, který se skládá z 6 samostatných tutorialů na téma obecné rady, grafická prostředí, kontejnery, podpora AI, JupyterNotebooks, nadstavba nad MetaCloudem,...
Seminář je součástí třídenní konference e-infrastruktury CESNET 2021 https://www.cesnet.cz/akce/konferencecesnet/, která se koná 20. - 22. 4. 2021.

REGISTRACE:
Program semináře, konference a registrace na konferenci: https://metavo.metacentrum.cz/cs/seminars/seminar2021/index.html
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC
Ivana Křenková, Fri Apr 09 14:24:00 CEST 2021
Dotazník -- využití Galaxy portálu pro výpočetní analýzu
Vážení uživatelé,
Pokud Vaše práce souvisí s výpočetní analýzou, a používáte nebo uvažujete o využití grafického portálu Galaxy, prosíme, vyplňte krátký dotazník české komunity Galaxy:
Cílem dotazníku je zmapovat zájmy českých vědeckých komunit, z nichž některé již Galaxy využívají, např. RepeatExplorer (https://repeatexplorer-elixir.cerit-sc.cz/) nebo naše vlastní instance MetaCentra (https://galaxy.metacentrum.cz/), nebo provozují vlastní instance. Chceme identifikovat zájmy a zaměřit na ně naše tréninkové a terénní úsilí.
Spolu s komunitním dotazníkem také spouštíme Galaxy-Czech mailing list na adrese
https://lists.galaxyproject.org/lists/galaxy-czech.lists.galaxyproject.org/
Je volně přístupný a bude sloužit k informování zájemců o novinkách a připravovovaných akcích napříč všemi instancemi Galaxy, podpoře komunitní diskuse a informačnímu propojení s dalšími národními nebo aktuálními komunitami Galaxy. Pokud Vás zajímá, co se děje v komunitě Galaxy, přihlaste se k odběru.
S přáním příjemného počítání,
Ivana Křenková, Wed Mar 03 21:40:00 CET 2021
Nové clustery v MetaCentru / PřF UK/
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nové clustery Přírodovědecké fakulty Uiverzity Karlovy v Praze (1328 jader CPU)
1) nový GPU stroj cha.natur.cuni.cz (lokalita Praha, vlastník UK), 1 uzel, 32 jader CPU, s následující specifikací:
- CPU: 32x Intel(R) Xeon(R) Silver 4216 CPU @ 2.10GHz
- RAM: 192 GB
- disk: 2x 960 GB SSD
- Net: Ethernet 1Gb/s
- OS: Debian 10
- GPU: 8x GeForce RTX 2080 Ti
2) nový cluster mor.natur.cuni.cz (lokalita Praha, vlastník UK), 4 uzly, 80 jader CPU, s následující specifikací každého uzlu:
- CPU: 20x Intel(R) Xeon(R) Silver 4210 CPU @ 2.20GHz
- RAM: 256 GiB
- disk: 2x 4TB HDD
- Net: Ethernet 1Gb/s
- OS: Debian 10
3) nový cluster pcr.natur.cuni.cz (lokalita Praha, vlastník UK), 16 uzlů, 1024 jader CPU, s následující specifikací každého uzlu:
- CPU: 64x AMD EPYC 7452
- RAM: 256 GiB
- disk: 2x 4TB HDD
- Net: Ethernet 1Gb/s
- OS: Debian 10
4) nový GPU cluster fau.natur.cuni.cz (lokalita Praha, vlastník UK), 3 uzly, 192 jader CPU, s následující specifikací každého uzlu:
- CPU: 64x AMD EPYC 7452
- RAM: 256 GiB
- disk: 2x 1 TB HDD
- Net: Ethernet 1Gb/s
- OS: Debian 10
- GPU: Quadro RTX 5000
Clustery jsou dostupné v prostředí plánovacího serveru @pbs-meta prostřednictvím standardních krátkých front, fronty gpu a prioritní fronty vlastníka "cucam".
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Ivana Křenková, Wed Feb 10 21:40:00 CET 2021
Nový GPU cluster v CERIT-SC
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový cluster:
zia.cerit-sc.cz (lokalita Brno, vlastník CERIT-SC), 5 uzlů, 640 jader CPU a GPU kartami NVIDIA A100, s následující specifikací každého uzlu:
- CPU: 2x AMD EPYC 7662 (2x 64 Core) 2.00 GHz
- RAM: 1 TB
- GPU: 4x NVIDIA A100
- disk: 3x1.46 TiB SSD NVME
- Net: 1x InfiniBand 8 Gbit/s, 2x Ethernet 10 Gbit/s
- OS: Debian 10
- home: /storage/brno3-cerit/home/
- výkon každého uzlu je dle SPECfp2017: 527 (4.1 na jádro)
Cluster je dostupný v prostředí plánovacího serveru @pbs-cerit prostřednictvím standardních krátkých front a prioritní fronty gpu.
Vyjímečná specifikace clusteru
Cluster je vybavený aktuálně nejvýkonnějšími grafickými akcelerátory NVIDIA A100 https://www.nvidia.com/en-us/data-center/a100/ . Na těchto grafických kartách je možné ještě více urychlit mnoho masivně paralelních úloh a vědeckých (HPC) aplikací nebo efektivněji řešit algoritmy umělé inteligence (AI).
Mezi hlavní výhody NVIDIA A100 patří specializovaná Tensor jádra pro machine learning aplikace nebo velká paměť (40 GB na každý akcelerátor). Podporuje výpočty pomocí tensor jader s různou přesností, kromě INT4, INT8, BF16, FP16, FP64 přibyl i nový formát TF32.
Na clusterech CERIT-SC je možné využívat dockerové obrazy z NVIDIA GPU Cloud (NGC) -- nejpoužívanější prostředí pro vývoj machine learning a deep learning aplikací, HPC aplikací nebo vizualizaci akcelerovanou NVIDIA GPU kartami. Nasazení těchto aplikací je pak otázkou zkopírování odkazu na příslušný Docker obraz, jeho spuštění spuštění v Docker kontejneru (v Podmanovi, alternativně v Singularity). Více informací najdete na https://wiki.metacentrum.cz/wiki/NVidia_deep_learning_frameworks
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Ivana Křenková, Mon Feb 08 23:40:00 CET 2021
Pozvánka na LUMI ROADSHOW
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na LUMI ROADSHOW
--
Dear Madam/Sir,
We invite you to a new EuroHPC ivent:
LUMI ROADSHOW
The EuroHPC LUMI supercomputer, currently under deployment in Kajaani, Finland, will be one of the world’s fastest computing systems with performance over 550 PFlop/s. The LUMI supercomputer is procured jointly by the EuroHPC Joint Undertaking and the LUMI consortium. IT4Innovations is one of the LUMI consortium members.
We are organizing a special event to introduce the LUMI supercomputer and to make the first early access call for pilot testing of this World’s unique infrastructure, which is exclusive to the consortium's member states.
Part of this event will also be introducing the Czech National Competence Center in HPC. IT4Innovations joined the EuroCC project which was kicked off by the EuroHPC JU in September and is now establishing the National Competence Center for HPC in the Czech Republic. It will help share knowledge and expertise in HPC and implement supporting activities of this field focused on industry, academia, and public administration.
Register now for this event which will take place online on February 17, 2021! This event will gather the main Czech stakeholders from the HPC community together!
The event will be held in English.
Event webpage: https://events.it4i.cz/e/LUMI_Roadshow
Ivana Křenková, Mon Feb 08 21:40:00 CET 2021
Nové clustery v MetaCentru / ELIXIR-CZ / CERIT-SC
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nové clustery:
1) nový cluster kirke.meta.czu.cz (lokalita Plzeň, vlastník CESNET), 60 uzlů, 3840 jader CPU, s následující specifikací každého uzlu:
- CPU: 64x AMD EPYC 7532
- RAM: 512 GB
- disk: 2x 2 TB SSD
- Net: Ethernet 1Gb/s, InfiniBand HDR100
- OS: Debian 10
- home: /storage/plzen1/home/
- Výkon každého uzlu je dle SPECrate 2017_fp_base = 445
Cluster je dostupný v prostředí plánovacího serveru @pbs-meta prostřednictvím standardních front.
2) nový cluster elwe.hw.elixir-czech.cz (lokalita Praha, vlastník ELIXIR-CZ), 20 uzlů, 1280 jader CPU, s následující specifikací každého uzlu:
- CPU: 64x AMD EPYC 7532
- RAM: 2 TB
- disk: 2xNVMe 7.68TB + 2x240GB SSD
- Net: Ethernet 10Gb/s
- OS: Debian 10
- home: /storage/praha5-elixir/home/
- Výkon každého uzlu je dle SPECrate 2017_fp_base = 452
Cluster je dostupný v prostředí plánovacího serveru @pbs-elixir prostřednictvím speciálních front s přednostním právem přístupu pro členy národního uzlu ELIXIR-CZ
3) nový cluster eltu.hw.elixir-czech.cz (lokalita Vestec, vlastník ELIXIR-CZ), 2 uzly, 192 jader CPU, s následující specifikací každého uzlu:
- CPU: 4x Intel(R) Xeon(R) Platinum 8260 CPU @ 2.40GHz
- RAM: 3 TB
- disk: 2x240 GB disk + 2x7 TB NVMe disk
- Net: Ethernet 10Gb/s
- OS: Debian 10
- home: /storage/praha5-elixir/home/
- Výkon každého uzlu je dle SPECrate 2017_fp_base = 509
Cluster je dostupný v prostředí plánovacího serveru @pbs-elixir prostřednictvím speciálních front s přednostním právem přístupu pro členy národního uzlu ELIXIR-CZ
4) nový cluster samson.ueb.cas.cz (vlastník Ústav experimentální botaniky AV ČR, Olomouc), 1 uzel, 112 jader CPU, s následující specifikací každého uzlu:
- CPU: x Intel Xeon Platinum 8280 (4x 28 Core) 4.00 GHz
- RAM: 1 TB
- disk: 6x1.46 TiB SSD NVME
- Net: Ethernet 10Gb/s
- OS: Debian 10
- home:
- Výkon každého uzlu je dle SPECrate 2017_fp_base = 557 (4.97 na jádro)
Cluster je dostupný v prostředí plánovacího serveru @pbs-cerit prostřednictvím prioritních front prio a ueb pro vlastníky clusteru a standardních front s maximální delkou 2 dny pro ostatní uživatele.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Ivana Křenková, Wed Jan 06 21:40:00 CET 2021
Nový HD/GPU cluster v CERIT-SC
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový cluster
gita.cerit-sc.cz (lokalita Brno, vlastník CERIT-SC), 14 +14 uzlů, 892 jader CP, polovina uzlů osazena GPU kartami NVIDIA 2080 TI; s následující specifikací každého uzlu:
- CPU: 2x AMD EPYC Processor (with IBPB) (2x 16 Core)
- RAM: 500 GB
- GPU: 2x NVIDIA 2080 TI v polovině uzlů
- OS: Debian 10
- home: /storage/brno3-cerit/home/
- výkon každého uzlu je dle SPECfp2017: 332 (10,4 na jádro)
Cluster je dostupný v prostředí plánovacího serveru @pbs-cerit prostřednictvím standardních front a prioritní fronty gpu.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Ivana Křenková, Mon Jan 04 23:40:00 CET 2021
Upgrade PBS
V MetaCentru/CERIT-SC dojde tento týden k upgrade všech PBS serverů na novou verzi.
Mezi největší změny bude patřit zapnutí notifikací o zabítí úloh, které bude rozesílat PBS bezprostředně po násilném zabití úlohy z důvodu překročení mem, cpu anebo walltime.
Nové nastavení se projeví postupně, až po restartu všech výpočetních uzlů.
Více informací najdete v dokumentaci:
https://wiki.metacentrum.cz/wiki/Pruvodce_pro_zacatecniky#Ukon.C4.8Den.C3.AD_.C3.BAlohy
https://wiki.metacentrum.cz/wiki/Beginners_guide#Job_termination
S omluvou za komplikace,
Vaše MetaCentrum
Ivana Křenková, Tue Dec 08 15:35:00 CET 2020
Reinstalace strojů na Debian10
V posledních několika týdnech probíhá upgrade OS z Debian9 na Debian10 na většině frontendů a výpočetních strojů. Strojů z OS Centos se upgrade netýká.
Brzy nebude k dispozici žádný výpočetní stroj s OS Debian9, odstraňte prosím ze svých úloh požadavek os=debian9, úlohy s tímto požadavkem se spouštět nebudou.
Problémy s kompatibilitou některých aplikací s OS Debian10 průběžně řešíme rekompilací nových SW modulů. Pokud narazíte na problém u své aplikace, vyzkoušejte přidání modulu debian9-compat na začátek spouštěcího skriptu. Pokud problémy přetrvávají (chybějící knihovny atd.), dejte nám vědět na meta(at)cesnet.cz.
Seznam uzlů s OS Debian9/Debian10/Centos7 je možné zobrazit v seznamu vlastností ve webové aplikaci PBSMon:
* https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian9
* https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian10
* https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Dcentos7
Seznam frontendů včetně aktuálního OS je k dispozici na wiki https://wiki.metacentrum.cz/wiki/Frontend
Poznámka: Některé speciální stroje dostupné ve speciálních frontách mohou mít odlišný OS, např. urga, ungu (ve frontě uv@wagap-pro) a phi (ve frontě phi@wagap-pro) běží na OS CentOS 7.
Ivana Křenková, Tue Oct 13 21:40:00 CEST 2020
Informační emaily o stavu úloh budou agregovány
Vážení uživatelé,
vzhledem k tomu, že při rozesílání emailů informujících o změně stavu výpočetní úlohy dochází v některých případech (velké množství úloh) k problémům se spam filtry, rozhodli jsme se od nynějška rozesílat tyto emaily agregovaně za časový interval 30 minut. To se týká emailů informujících o konci nebo pádu úlohy. Emaily informující o započetí úlohy budou i nadále odesílány okamžitě.
Více informací o parametrech agregace na https://wiki.metacentrum.cz/wiki/Email_notifications
Ivana Křenková, Sun Oct 11 21:40:00 CEST 2020
Pozvánka na PRACE training course Parallel Visualization of Scientific Data using Blender
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na PRACE training course
--
Dear Madam/Sir,
We invite you to a new PRACE training course, organized by IT4Innovations National Supercomputing Center, with the title:
Parallel Visualization of Scientific Data using Blender
Basic information:
Date: Thu September 24, 2020, 9:30am - 4:30pm
Registration deadline: Wed September 16, 2020
Venue: IT4Innovations, Studentska 1b, Ostrava
Tutors: Petr Strakoš, Milan Jaroš, Alena Ješko (IT4Innovations)
Level: Beginners
Language: English
Main web page: https://events.prace-ri.eu/e/ParVis-09-2020
The course, an enriched rerun of a successful training from 2019, will focus on visualization of scientific data that can arise from simulations of different physical phenomena (e.g. fluid dynamics, structural analysis, etc.). To create visually pleasing outputs of such data, a path tracing rendering method will be used within the popular 3D creation suite Blender. We shall introduce two of our plug-ins we have developed: Covise Nodes and Bheappe. The first is used to extend Blender capabilities to process scientific data, while the latter integrates cluster rendering in Blender. Moreover, we shall demonstrate basics of Blender, present a data visualization example, and render a created scene on a supercomputer.
This training is a PRACE Training Centre course (PTC), co-funded by the Partnership of Advanced Computing in Europe (PRACE).
For more information and registration please visit
https://events.prace-ri.eu/e/ParVis-09-2020 or https://events.it4i.cz/e/ParVis-09-2020.
PLEASE NOTE: The organization of the course will be adapted to the current COVID-19 regulations and participants must comply with them. In case of the forced reduction of the number of participants, earlier registrations will be given priority.
We look forward to meeting you on the course.
Best regards,
Training Team IT4Innovations
training@it4i.cz
Ivana Křenková, Wed Aug 05 21:40:00 CEST 2020
MetaCloud - Load Balancer as a Service
Vážený uživateli služby MetaCentrum Cloud.
Rádi bychom vás informovali ohledně nové služby nasazené v rámci služby MetaCentrum Cloud. Load Balancer as a Service je služba umožňující přes OpenStack API/GUI vytvářet a spravovat load balancery pomocí kterých lze následně zprostředkovat přístup ke službám provozovaným v rámci služby MetaCentrum Cloud.
Krátký popis služby a odkaz na dokumentaci naleznete na https://cloud.gitlab-pages.ics.muni.cz/documentation/gui/#lbaas.
S pozdravem
Tým MetaCentrum Cloud
cloud.metacentrum.cz
Ivana Křenková, Mon Jul 27 14:24:00 CEST 2020
Novinky infrastruktury MetaCentrum & CERIT-SC
Novinky infrastruktury MetaCentrum & CERIT-SC
1) Nové webové rozhraní pro spouštění grafických SW -- OnDemand
OpenOnDemand je služba, která uživateli umožňuje přístup k výpočetním prostředkům CERIT-SC prostřednictvím webového prohlížeče v grafickém režimu. Mezi aktuálně dostupné aplikace patří Matlab, ANSYS a VMD, další budou podle zájmu přibývat. Pro webové rozhraní Open OnDemand https://ondemand.cerit-sc.cz/ je přihlašovací jméno a heslo stejné jako pro Metacentrum.
V případě dotazů kontaktujte support@cerit-sc.cz
Více informací je k dispozici v dokumentaci https://wiki.metacentrum.cz/wiki/OnDemand
2) Frameworky pro deep learning (NGC) jsou k dispozici v MetaCentru
Na strojích v MetaCentru je nyní nově možné využít frameworky pro deep learning z NVIDIA GPU Cloudu. Frameworky je možné spouštět jak v Singularity (celé MetaCentrum), tak Dockeru (Podman; jen CERIT-SC).
Více informací je k dispozici v dokumentaci https://wiki.metacentrum.cz/wiki/NVidia_deep_learning_frameworks
3) Část SW jsme zpřístupnili přes CVMFS (CernVM filesystem)
CVMFS (CernVM filesystem) je souborový systém vyvinutý v Cernu, který umožňuje rychlé, škálovatelné a spolehlivé nasazení softwaru na distribuované výpočetní infrastruktuře. CVMFS je souborový systém jen pro čtení, v MetaCentru jej používáme pro ukládání některých SW modulů (alternativa AFS). Podobně jako svazky AFS je dostupný jako klientský software pro přístup k CVMFS repozitářům a serverových nástrojů pro vytváření nových repozitářů typu CVMFS.
Více informací je k dispozici v dokumentaci https://wiki.metacentrum.cz/wiki/CVMFS
Ivana Křenková, Fri Jul 10 15:35:00 CEST 2020
IT4I NEWS: Služba na podporu výzkumu a vývoje
Vážení uživatelé, dovolte nám, abychom Vás informovali o službě na podporu výzkumu a vývoje, kterou IT4Innovations poskytuje v rámci mezinárodního H2020 projektu Centrum excelence POP2. Jedná se o *Bezplatnou asistenci v oblasti optimalizace výkonu paralelních aplikací*. Služba je určena nejen pro všechny akademicko-vědecké pracovníky, ale i pracovníky firem, kteří vyvíjí nebo používají paralelní kódy a nástroje a hodí se jim odborná pomoc s jejich optimalizací pro efektivní spouštění na HPC systémech. V případě zájmu nás neváhejte kontaktovat: info@it4i.cz <mailto:info@it4i.cz>. S pozdravem, Vaše IT4Innovations
Ivana Křenková, Tue Jun 02 21:40:00 CEST 2020
Pozvánka na NVIDIA AI & HPC ACADEMY 2020
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na
NVIDIA AI & HPC ACADEMY 2020
3rd February to 6th February, 2020
IT4Innovations and M Computers would like to invite you to three full day NVIDIA Deep Learning Institute certified training courses to learn more about Artificial Intelligence (AI) and High Performance Computing (HPC) development for NVIDIA GPUs.
The first half day is an introduction by IT4Innovations and M Computers about the latest state of the art NVIDIA technologies. We also explain our services offered for AI and HPC, for industrial and academic users. The introduction will include a tour though IT4Innovations‘ computing center, which hosts an NVIDIA DGX-2 system and the new Barbora cluster with V100 GPUs.
The first full day training course, Fundamentals of Deep Learning for Computer Vision, is provided by IT4Innovations and gives you an introduction to AI development for NVIDIA GPUs.
Two further HPC related full day courses, Fundamentals of Accelerated Computing with CUDA C/C++ and Fundamentals of Accelerated Computing with OpenACC, are delivered as PRACE training courses through the collaboration with the Leibniz Supercomputing Centre of the Bavarian Academy of Sciences (Germany).
We are pleased to be able to offer the course Fundamentals of Deep Learning for Computer Vision to industry free of charge, for the first time. Further courses for industry may be instigated upon request.
Academic users can participate free of charge for all three courses.
Více informací naleznete na http://nvidiaacademy.it4i.cz/
Ivana Křenková, Mon Jan 13 21:40:00 CET 2020
Upgrade PBS serverů - arien a elixir
Po úspěšném upgrade PBS serveru v CERIT-SC zahájíme ve středu 8. 1. upgrade ostaních PBS serverů (arien-pro a pbs.elixir-czech.cz) na novou, nekompatibilní verzi (jiná implementace Kerbera). Připravujeme proto nové PBS servery a stávající PBS servery budou, po doběhnutí úloh, odstaveny z provozu:
- meta-pbs.metacentrum.cz nahradí PBS server arien-pro.ics.muni.cz
- elixir-pbs.elixir-czech.cz nahradí PBS server pbs.elixir-czech.cz
Harmonogram přesunu na nové servery a dopady na úlohy a uživatele
- Frontendy skirit, alfrid, tarkil, nympha, charon, minos, perian, onyx, tilia, elmo zůstávají do 8. 1. 2020 nastavené defaultně na prostředí @arien-pro (pbs.elixir). 9. 1. dojde k přepnutí všech těchto frontendů do nového PBS prostředí @meta-pbs a elixir-pbs a zároveň dojde k postupnému přesunu výpočetních uzlů do nových prostředí. Úlohy běžící pod starými PBS servery doběhnou v tomto prostředí. Vypsat aktuální stav úloh ve starém prostředí bude možné jen v aplikaci PBSmon https://metavo.metacentrum.cz/pbsmon2/jobs/detail. Příkaz qstat spuštěný na frontendu na ně nebude vidět.
- Úlohy čekající na starém PBS serveru se pokusíme přesunout na nový PBS server @meta-pbs nebo @elixir-pbs, kde budou následně spuštěny.
- V syntaxi příkazu qsub se nic nezmění.
- Připomínáme, že na PBS servery není povolené uživatelské přihlášení.
- Po upgradu PBS serverů bude obnovena možnost zadávat úlohy z libovolného čelního uzlu do kteréhokoliv nového PBS prostředí (meta-pbs, cerit-pbs, elixir-pbs).
S omluvou za komplikace,
Vaše MetaCentrum
Ivana Křenková, Tue Jan 07 15:35:00 CET 2020
Upgrade PBS serverů
V MetaCentru/CERIT-SC dojde k upgrade všech PBS serverů na novou, nekompatibilní verzi (jiná implementace Kerbera). Připravujeme proto nové PBS servery a stávající PBS servery budou, po doběhnutí úloh, odstaveny z provozu:
- cerit-pbs.cerit-sc.cz nahradí PBS server wagap-pro.cerit-sc.cz
- meta-pbs.metacentrum.cz nahradí PBS server arien-pro.ics.muni.cz
- elixir-pbs.elixir-czech.cz nahradí PBS server pbs.elixir-czech.cz
Harmonogram přesunu na nové servery a dopady na úlohy a uživatele
- CERIT-SC započne s přesunem běžných výpočetních strojů z prostředí PBS @wagap-pro do nového prostředí k 18. 11. 2019
- Frontend zuphux.cerit-sc.cz zůstává do 18. 11. nastaven defaultně na prostředí @wagap-pro. K 18. 11. dojde k přepnutí nového PBS prostředí @cerit-pbs a k přesunu většiny výpočetních strojů do nového prostředí.
- Úlohy běžící pod starým PBS serverem@wagap-pro doběhnou v tomto prostředí. Vypsat aktuální stav úloh bude možné jen v aplikaci PBSmon https://metavo.metacentrum.cz/pbsmon2/jobs/detail. Příkaz qstat spuštěný na frontendu na ně nebude vidět.
- Úlohy čekající na starém PBS serveru @wagap-pro budou automaticky přesunuté na nový PBS server @cerit-pbs, kde budou následně spuštěny.
- V syntaxi příkazu qsub se nic nezmění.
- Zároveň dojde u některých clusterů k upgrade operačního systému OS Debian9 na Debian 10. Uzly s Debian9/Debian10/Centos7 je možné zobrazit v seznamu vlastností ve webové aplikaci PBSMon:
- Připomínáme, že na PBS servery není povolené uživatelské přihlášení.
- K přesunu dalších PBS serverů (meta-pbs, elixir-pbs) dojde s časovým odstupem. O přesunu budeme informovat v samostatné novince.
S omluvou za komplikace,
Vaše MetaCentrum
Ivana Křenková, Wed Nov 13 15:35:00 CET 2019
Novinky infrastruktury MetaCentrum & CERIT-SC
-
Nový GPU cluster pro umělou inteligenci
-
Začlenění clusteru a diskového pole Botanického ústavu AV ČR v Průhonicích
-
Přesun clusteru zenon (hde.cerit-sc.cz) centra CERIT-SC do OpenStacku, upgrade na Debian10
1) Nový GPU cluster pro umělou inteligenci -- adan.grid.cesnet.cz (1952 CPU) - Stroj s 192GB RAM, 2x 16-core Xeon a 2x nVidia Tesla T4 16GB
- MetaCentrum bylo rozšířeno o nový GPU stroj adan.grid.cesnet.cz (lokalita Biocev, vlastník CESNET), 61 uzlů, každý s následující specifikací:
- 32x Intel(R) Xeon(R) Gold 5218 CPU @ 2.30GHz
- RAM: 192 GB
- Disk: 4x 240GB SSD
- GPU: 2x nVidia Tesla T4 16GB s podporou AI
Pro přístup do fronty 'adan' je potřeba speciální oprávnění. Pokud máte zájem stát se AI testerem, konraktujte nás na meta(at)cesnet.cz.
Jméno ADAN není náhodné, ve světě J. R. R. Tolkiena označuje v elfském jazyce „člověka“. Cluster ADAN je díky svým parametrům určen zejména pro tzv. strojové učení (machine learning), které spadá do sféry umělé inteligence.
Tip: Pokud narazíte na problém s kompatibilitou mezi jednotlivými generacemi GPU karet, je možné omezit výběr strojů s určitou generací karet pomocí parametru gpu_cap=[cuda20,cuda35,cuda61,cuda70,cuda75].
2) Začlenění clusterů a diskového pole Botanického ústavu AV ČR v Průhonicích
- MetaCentrum bylo rozšířeno o cluster carex.ibot.cas.cz (lokalita Průhonice, vlastník Botanický ústav AV ČR), 8 uzlů s následující specifikací:
- 8x AMD EPYC 7261 8-Core Processor
- RAM: 512 GB
- Disk: 2x 960GB NVMe
- Cluster draba.ibot.cas.cz (lokalita Průhonice, vlastník Botanický ústav AV ČR), 240 CPU jader s následující specifikací:
- 80x Intel(R) Xeon(R) Gold 6230 CPU @ 2.10GHz
- RAM: 1536 GiB
- Disk: 2x 960GB NVMe
- Stroj určen pro úlohy s velkou spotřebou paměti (až 1,5 TB).
Dále byl zprovozněn frontend tilia.ibot.cas.cz (s aliasem tilia.metacentrum.cz) a diskové pole /storage/pruhonice1-ibot/home dedikovane pro skupinu ibot.
Clustery jsou dostupné prostřednictvím fronty 'ibot' (vyhrazené vlastníkům clusteru). Po otestování bude pravděpodobně zpřístupněný prostřednictvím krátkých standardních front.
Pravidla využití jsou dostupné na stránce vlastníka clusteru: https://sorbus.ibot.cas.cz/
3) Přesun clusteru zenon hde.cerit-sc.cz centra CERIT-SC do OpenStacku, upgrade OS na Debian10
Aktuálně probíhá stěhování clusteru zenon.cerit-sc.cz (1888 CPU, 60 uzlů) do OpenStacku, během několika dní bude znovu přístupný přes PBS server wagap-pro. Zároveň probíhá upgrade operačního systému na Debian10.
Cluster bude dostupný stejným způsobem jako doposud (PBS server wagap-pro, běžné fronty).
Problémy s kompatibilitou některých aplikací s OS Debian10 průběžně řešíme rekompilací nových SW modulů. Pokud narazíte na problém u své aplikace, vyzkoušejte přidání modulu debian9-compat na začátek spouštěcího skriptu. Pokud problémy přetrvávají, dejte nám vědět na meta(at)cesnet.cz.
Seznam uzlů s OS Debian9/Debian10/Centos7 je možné zobrazit v seznamu vlastností ve webové aplikaci PBSMon:
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian9
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian10
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Dcentos7
Ivana Křenková, Wed Oct 30 15:35:00 CET 2019
Nový stroj typu "UV" HPE Superdome Flex
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový stroj ursa.cerit-sc.cz (lokalita Brno, vlastník CERIT-SC), 1 uzel, 504 CPU jader, 10 TB RAM.
- CPU: 28x Intel Xeon Gold 6254 (28x 18 Core) 4.00 GHz
- RAM: 10 TiB
- disk: 6 x 3 TiB SSD NVME, 2 x 500 GiB 7.2
- Výkon uzlu dle SPECfp2017: 700 (4.86 na jádro)
- Net: 1x InfiniBand 0 Gbit/s, 4x Ethernet 10 Gbit/s
- OS: Redhat (komp. s CentOS)
- home: /storage/brno3-cerit/home/
Cluster je dostupný v prostředí plánovacího serveru @wagap-pro prostřednictvím fronty UV.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Ivana Křenková, Fri Jul 19 21:40:00 CEST 2019
MetaCloud - přechod na OpenStack cloud2.metacentrum.cz
Vážení uživatelé,
v souvislosti s přípravou nového cloudového prostředí postaveného na OpenStacku, není od 5. 6. 2019 dovoleno zakládat nové vm v OpenNebule. Běžící virtuály budou v průběhu několika týdnů přemigrovány do nového prostředí. O migraci informujeme vlastníky vm individuelně.
Pro spouštění nových vm využijte rovnou nové prostředí založené na OpenStacku https://cloud2.metacentrum.cz/ .
S přátelským pozdravem
MetaCentrum & CERIT-SC
Ivana Křenková, Wed Jun 05 14:24:00 CEST 2019
Ohlédnutí za devátým ročníkem Semináře gridového počítání 2019
Vážení uživatelé,
dne 30. ledna 2019 proběhl na ČVUT v Praze další (devátý) ročník Semináře gridového počítání 2019, tentokráte jako součást dvoudenní Konference e-Infrastruktutury CESNET 2019 https://konference.cesnet.cz. První den konference zazněly obecné průřezové přednášky z portfolia služeb CESNETu a druhý den semináře proběhly 4 paralelní sekce a 2 Hands-on semináře.
Prezentace z celé konference jsou zveřejněné na stránce konference https://konference.cesnet.cz. Videozáznam z konference je k dispozici na Youtube https://www.youtube.com/playlist?list=PLvwguJ6ySH1cdCfhUHrwwrChhysmO6IU7
Prezentace ze Semináře gridového počítání, včetně hands-on, jsou k dispozici na webu MetaCentra: https://metavo.metacentrum.cz/cs/seminars/seminar2019/index.html
S přátelským pozdravem
MetaCentrum & CERIT-SC
Ivana Křenková, Fri Feb 08 14:24:00 CET 2019
Pozvánka na Seminář gridového počítání 2019
Vážení uživatelé,
Dovolujeme si Vás tímto pozvat k účasti na Seminář gridového počítání 2019, který se koná 30. ledna 2019 v Nové budově ČVUT (Thákurova 9) v Praze 6.
Seminář gridového počítání 2019 bude zaměřen na zpracování, analýzu a ukládání dat a představení novinek v gridovém a cloudovém prostředí MetaCentrum a CERIT-SC. V rámci semináře zazní zvaná přednáška o nových produktech NVIDIA v oblasti vědeckých výpočtů.
Po ukončení Semináře gridového počítání proběhne prakticky zaměřený Hands-on seminář (kapacita omezená na 15 osob).
Program semináře a další informace: https://metavo.metacentrum.cz/cs/seminars/seminar2019/index.html
Seminář je součástí dvoudenní konference CESNET 2019 https://konference.cesnet.cz (29. - 30. 1. 2019). První den konference zazní obecné průřezové přednášky z portfolia služeb CESNETu a druhý den semináře budou 4 paralelní sekce a 2 Hands-on semináře:
- Sítě a síťové služby
- Podpora spolupráce a multimédia
- Digitální identity
- Počítání a ukládání aneb Seminář gridového počítání 2019
- Hands-on seminář Zpracování a ukládání dat v MetaCentru / CERIT-SC (nutná extra registrace)
- Hands-on seminář Datových úložišť CESNETu (Zálohování, souborová a objektová úložiště
Účast na konferenci (a Semináři gridového počítání) je podmíněná registrací ma konferenci a je bezplatná. Pokud se chcete zúčastnit prakticky zaměřeného Hands-on semináře MetaCentra / CERIT-SC, nezapomeňte se na něj zaregistrovat zvlášť.
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC
Ivana Křenková, Thu Dec 20 14:24:00 CET 2018
Nový cluster charon.nti.tul.cz a nové pole /storage/liberec3-tul/
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový cluster charon.nti.tul.cz (lokalita Liberec, vlastník TUL), 20 uzlů, 400 CPU jader.
- CPU: 2x 10-core Intel Xeon Silver 4114 CPU (2.2GHz)
- RAM: 12x 8 GB DDR4 2400 ECC Reg dual rank
- disk: 1x SSD 480 GB DC S3610 Series
- Net: Ethernet 1Gb/s, Omni-Path (InfiniBand - Intel)
- OS: Debian 9
- home: /storage/liberec3-tul/home/
Cluster je dostupný v prostředí plánovacího serveru @arien-pro prostřednictvím standardních front a prioritní fronty charon, která je dostupná vlastníkům clusteru (skupina charon).
Novy frontend bude i nadale pristupny pod jmene charon.metacentrum.cz (z duvodu zpetne kompatibility zachovame i alias charon-ft.metacentrum.cz.
Cluster běží na OS Debian9, v případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
Nové pole /storage/liberec3-tul/home/
Nové pole (30 TB) bude sloužit jako domovský adresář na clusteru charon a bude dostupné v adreséři /storage/liberec3-tul/ na všech strojích Metacentra, členové skupiny charon zde budou mit nastavenu kvotu 1 TB, všichni ostatní 10 GB.
S přáním příjemného počítání,
Ivana Křenková, Mon Dec 10 21:40:00 CET 2018
Nový cluster nympha.zcu.cz
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový cluster nympha.zcu.cz (lokalita Plzeň, vlastník CESNET), 64 uzlů, 2048 CPU jader.
- CPU: 32x Intel(R) Xeon(R) Gold 6130 CPU @ 2.10GHz
- RAM: 192 GiB
- disk: 1x 960 GB NVMe
- Výkon uzlu dle SPECfp2006: 1220 (38 na jádro)
- Net: Ethernet 1Gb/s, Infiniband FDR 56Gb/s
- OS: Debian 9
- home: /storage/plzen1/home/
Cluster je dostupný v prostředí plánovacího serveru @arien-pro prostřednictvím standardních front. Ze začátku jsou podporovány pouze krátké úlohy.
Cluster běží na OS Debian9, v případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Ivana Křenková, Thu Nov 29 21:40:00 CET 2018
The European Open Science Cloud – oficiální zahájení
CESNET a CERIT-SC se podílejí na projektu EOSC – The European Open Science Cloud, který má za cíl poskytnou důvěryhodné prostředí s volně dostupnými službami určené pro uchovávání dat, jejich správu, sdílení, analýzu a opakované použití pro všechny vědecké disciplíny. V rámci oficiálního zahájení ve Vídni je představen EOSC Portal, který poskytuje přístup k datům, službám a zdrojům. Je zdrojem aktuálních informací o iniciativě EOSC, včetně osvědčených postupů, řízení a uživatelských příběhů.
Ivana Křenková, Fri Nov 23 21:40:00 CET 2018
Nové diskové pole /storage/brno1-cerit/home a rušení /storage/brno4-cerit-hsm
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nové diskové pole /storage/brno1-cerit/home s kapacitou 1,8 PB (lokalita Brno, vlastník CERIT-SC).
Zároveň došlo k odstavení /storage/brno4-cerit-hsm. Všechna data z něj byla přesunuta na nové pole /storage/brno1-cerit/home a jsou přístupná rovněž pod původním symlinkem.
Pozor: Na stroj storage-brno4-cerit-hsm.metacentrum.cz se už nelze hlásit přímo. Pro přístup ke svým datům se hlaste na nové pole. Přehled NFS4 diskových polí najdete na wiki https://wiki.metacentrum.cz/wiki/NFS4_Servery
Kompletní seznam aktuálně dostupných výpočetních serverů a datových úložišť je k dispozici na https://metavo.metacentrum.cz/pbsmon2/nodes/physical.
S přáním příjemného počítání,
Ivana Křenková, Mon Oct 15 21:40:00 CEST 2018
Nový cluster zenon.cerit-sc.cz
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový cluster zenon.cerit-sc.cz (lokalita Brno, vlastník CERIT-SC), 60 uzlů, 1920 CPU jader.
- CPU: 2x AMD EPYC 7351 (2x 16 Core) 2.40 GHz
- RAM: 512 GB
- 1x1.82 TiB SSD NVME
- Výkon uzlu dle SPECfp2006: 1320 (41.25 na jádro)
- Net: 1x InfiniBand 56 Gbit/s, 2x Ethernet 10 Gbit/s
- OS: Debian 9
Cluster je dostupný v prostředí plánovacího serveru @wagap-pro prostřednictvím standardních front.
Cluster běží na OS Debian9, v případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Ivana Křenková, Mon Sep 24 21:40:00 CEST 2018
Novinky infrastruktury
-
Nový GPU stroj grimbold s 2x nVidia Tesla P100 a rozšíření glados1 o 1x nVidia TITAN V
-
Dokončení přechodu na OS Debian9
-
Nové moduly Amber (GPU i MPI)
1) Nový GPU stroj grimbold s 2x nVidia Tesla P100 a rozšíření glados1 o nVidia TITAN V
- MetaCentrum bylo rozšířeno o nový GPU stroj grimbold.ics.muni.cz (lokalita Brno, vlastník CESNET), 32 CPU jader s následující specifikací:
- 2x 16-core Intel Xeon Gold 6130 (2.10GHz)
- RAM: 196 GB
- Disk: 2x 4TB 7k2 SATA III
- GPU: 2x nVidia Tesla P100 12GB
- OS debian9
Cluster je dostupný prostřednictvím 'gpu' fronty a krátkých standardních front.
- Do stroje glados1.cerit-sc byla nově přidána GPU karta nVidia GV100 TITAN V.
Kvůli problémům s kompatibilitou nějkterých SW je tato karta k dispozici ve speciální frontě gpu_titan na PBS serveru wagap-pro.
Všechny GPU stroje běží již na OS Debian9, v případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Pokud narazíte na problém s kompatibilitou mezi jednotlivými generacemi GPU karet, je možné omezit výběr strojů s určitou generací karet pomocí parametru gpu_cap=[cuda20,cuda35,cuda61,cuda70].
Aktuálně jsou k dispozici následující GPU fronty:
- gpu (arien-pro i wagap-pro, předávají si mezi sebou úlohy)
- gpu_long (jen arien-pro)
- gpu_titan (arien-pro i wagap-pro)
2) Dokončení přechodu na OS Debian9
V krátké době bude dokončen upgrade strojů s OS Debian8 na Debian9 v obou plánovacích systémech. Vyjímkou jsou staré stroje běžící na OS Debian8 v CERIT-SC (již po záruce), které budou vyřazené z provozu pravděpodobně na podzim a nemá u nich smysl upgrade provádět.
Problémy s kompatibilitou některých aplikací s OS Debian9 průběžně řešíme rekompilací nových SW modulů. Pokud narazíte na problém u své aplikace, vyzkoušejte přidání modulu debian8-compat na začátek spouštěcího skriptu. Pokud problémy přetrvávají, dejte nám vědět na meta@cesnet.cz .
Stroje s jiným OS (centos7) budou i nadále k dispozici přes speciální fronty: např. urga, ungu (ve frontě uv@wagap-pro) a phi (ve frontě phi@wagap-pro)
Seznam uzlů s OS Debian9/Debian8/Centos7 je možné zobrazit v seznamu vlastností ve webové aplikaci PBSMon:
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian9
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian8
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Dcentos7
3) Nové moduly Amber (GPU i MPI)
Moduly amber-14-gpu8 a amber-16-gpu zpřístupňují všechny verze binárek, nejen pro GPU (paralelní verze a verze pro GPU jsou odlišeny standardně příponami .MPI resp. .cuda a .cuda.MPI), a jsou kompilovány pro os=debian9
Všechny GPU stroje již nyní běží pod OS Debian9, ale pokud není v zadání úlohy explicitně požadována GPU, je třeba os=debian9 explicitně zadávat, dokud běží neupgradované stroje.
Doporučujeme používat tyto nové balíčky (lépe optimalizované než starší modul amber-16).
Ivana Křenková, Thu Aug 09 15:35:00 CEST 2018
Pozvánka na akci Cray & NVIDIA DLI
Vážení uživatelé,
s potěšením přeposíláme pozvánku:
We would like to invite you to this new training event at HLRS Stuttgart on Sep 19, 2018.
To help organizations solve the most challenging problems using AI and deep learning NVIDIA Deep Learning Institute (DLI), Cray and HLRS are organizing a 1-day workshop on Deep Learning which combines business presentations and practical hands-on sessions.
In this Deep Learning workshop you will learn how to design and train neural networks on multi-GPU systems.
This workshop is offered free of charge but numbers are limited.
The workshop will be run in English.
https://www.hlrs.de/training/2018/DLW
With kind regards
Nurcan Rasig and Bastian Koller
-------
Nurcan Rasig | Sales Manager
Office +49 7261 978 304 | Cell +49 160 701 9582 | nrasig@cray.com
Cray Computer Deutschland GmbH â Maximilianstrasse 54 â D-80538 Muenchen
Tel. +49 (0)800 0005846 â www.cray.com
Sitz: Muenchen â Registergericht: Muenchen HRB 220596
Geschaeftsfuehrer: Peter J. Ungaro, Mike C. Piraino, Dominik Ulmer.
Hope to see you there!
Ivana Křenková, Wed Jul 25 21:40:00 CEST 2018
Zprovoznili jsme nový GPU stroj
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový GPU stroj white1.cerit-sc.cz (lokalita Brno, vlastník CERIT-SC), 24 CPU jader.
- CPU: 2x Intel Xeon Gold 6138 (2x 12 Core) 2.0 GHz
- RAM: 512 GB
- 2x SSD 1.8 TB
- Výkon uzlu dle SPECfp2006: 806 (33,58 na jádro)
- Net: 1x Ethernet 10 Gbit/s
- GPU: 4x Tesla P100
- OS: Debian 9
Cluster je dostupný v prostředí plánovacího serveru @wagap-pro prostřednictvím 'gpu' fronty a krátkých standardních front.
Cluster běží na OS Debian9, v případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Ivana Křenková, Mon Jul 02 21:40:00 CEST 2018
Pozvánka na akci "TURBOMOLE Users Meet Developers"
Vážení uživatelé,
s potěšením přeposíláme pozvánku na setkání uživatelů Turbomole:
TURBOMOLE Users Meet Developers
20 - 22 September 2018 in Jena, Germany
This meeting will bring together the community of Turbomole developers and users to highlight selected applications demonstrating new features and capabilities of the code, present new theoretical developments, identify new user needs, and discuss future directions.
We cordially invite you to participate. For details see:
http://www.meeting2018.sierkalab.com/
Hope to see you there!
Regards,
Turbomole Support Team and Turbomole developers
Ivana Křenková, Fri Jun 29 21:40:00 CEST 2018
Soutěž a pozvánka na 5. ročník letního setkání příznivců technických výpočtů a počítačových simulací
Vážení uživatelé,
s potěšením přeposíláme pozvánku na 5. ročník letního setkání příznivců technických výpočtů a počítačových simulací:
Datum: 6. - 7. 9. 2018 (čtvrtek až pátek), registrace od 8:30
Součástí akce je soutěž o nejlepší uživatelský projekt. Informace o soutěži
Ivana Křenková, Fri Jun 29 21:40:00 CEST 2018
Nové nastavení fronty gpu a gpu_long
Tento týden došlo ke změně nastavení front gpu@wagap-pro, gpu@arien-pro a gpu_long@arien-pro.
Kvůli omezení přístupu ne-GPU úloh na GPU stroje jsme ve frontách gpu a gpu_long na obou PBS serverech nastavili nutnost explicitního zadání požadavku na minimálně jednu GPU kartu, např.:
- qsub -q gpu -l select=1:ngpus=1 job.sh
- qsub -q gpu_long -l select=1:ngpus=1 job.sh
Pokud není GPU karta v zadání úlohy požadovaná, zobrazí se následující hlášení a úloha není systémem přijata:
'qsub: Job violates queue and/or server resource limits'
Zároveň jsme k 26. 6. 2018 nastavili průchodnost úloh ve frontách gpu mezi oběma PBS servery (úlohy z fronty gpu na arien-pro můžou být spuštěny PBS serverem wagap-pro a naopak). Fronta gpu_long je spravovaná pouze PBS serverem arien-pro, té se změna netýká.
Více informací o nastavení GPU: https://wiki.metacentrum.cz/wiki/GPU_clusters
S díky za pochopení,
Uživatelská podpora MetaCentra
Ivana Křenková, Wed Jun 27 21:40:00 CEST 2018
Nové nastavení přístupu na speciální stroje UV2000
V pondělí 18. 6. 2018 došlo ke změně nastavení fronty uv@wagap.cerit-sc.cz.
- Úlohy se i nadále zadávají do fronty uv@wagap-pro.cerit-sc.cz, v této frontě jsou nově rozřazené podle požadovaného počtu jader a paměti.
- Velké úlohy (minimálně 144 CPU jader nebo alespoň 1 TB paměti) jsou zvýhodněné před úlohami menšími.
- Maximální doba běhu úloh zůstáva 4 dny.
Věříme, že nyní budou oba speciální stroje UV lépe použitelné pro zpracování opravdu velkých úloh, pro které jsou primárně určeny. Malé úlohy budou znevýhodněné, aby tyto velké úlohy neblokovaly. Pro malé úlohy jsou k dispozici další vhodnější stroje.
S díky za pochopení,
Uživatelská podpora MetaCentra
Ivana Křenková, Mon Jun 18 21:40:00 CEST 2018
Pozvánka na přednášku prof. Johna Womersleyho (ESS ERIC) na téma „The European Spallation Source“
Vážení uživatelé,
dovoluji si Vám přeposlat pozvánku na přednášku prof. Johna Womersleyho na téma „The European Spallation Source“, která se uskuteční v prostorách Akademie věd ČR na Národní třídě dne 15. června 2018 od 14:00.
Více informací naleznete v PDF.
S přáním hezkého dne,
Petr Ventluka, MŠMT
Ivana Křenková, Wed Jun 06 21:40:00 CEST 2018
Povýšení clusteru konos na FAV ZČU v Plzni
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový SMP cluster konos[1-8].fav.zcu.cz (lokalita Plzeň, vlastník KMA/FAV ZČU). Cluster obsahuje 8 uzlů (160 CPU jader), každý z nich má následující hardwarovou specifikaci:
- CPU: 2x 10 cores Intel(R) Xeon(R) CPU E5-2630 v4 @ 2.20GHz
- RAM: 128 GB
- Disk: 2x 4TB SATA
- Výkon každého uzlu dle SPECfp2006: 850 (42,5 na jádro)
- GPU: všechny uzly mají 4x GPU NVIDIA GeForce GTX 1080 Ti
- OS: Debian 9
Cluster je dostupný v prostředí plánovacího serveru @arien-pro prostřednictvím prioritní fronty iti, fronty gpu a krátkých běžných front. Členové projektu ITI/KKY mohou požádat o přístup do fronty vedoucího skupiny.
- Pro spuštění úlohy na clusteru s OS Debian9 přidejte do zadání úlohy parametr "os=debian9"
$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=debian9 …
- Pro úplnost, pro spuštění úloh na stroji s libovolným OS zadejte "os=^any"
$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=^any …
Případné problémy s během aplikací (chybějícími knihovnami apod.) na strojích s OS Debian9 nám, prosím, neprodleně hlaste na meta@cesnet.cz .
V případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Ivana Křenková, Tue May 29 21:40:00 CEST 2018
Prezentace ze Semináře gridového počítání 2018
Vážení uživatelé,
V pátek 11. května proběhl v Praze v NTK další ročník Semináře gridového počítání 2018. Seminář byl letos zaměřen na zpracování, analýzu a ukládání dat v gridovém i cloudovém prostředí MetaCentrum a CERIT-SC. Semináře se zúčastnilo více než 70 stávajících i budoucích uživatelů MetaCentra. Měli příležitost se, mimo jiné, dozvědět o připravovaných novinkách v cloudovém prostředí, naučit se zacházet s containery a získali tip, jak správně a efektivně ukládat a zpracovávat data a posílat úlohy do PBS Pro prostředí.
Seminář byl organizován projektem MetaCentrum sdružení CESNET z.s.p.o. a Centrem CERIT-SC při Ústavu výpočetní techniky Masarykovy univerzity. Sponzorem akce byla společnost SafeDX.
Podrobnosti o akci včetně přednášek jsou k dispozici na webu MetaCentra: https://metavo.metacentrum.cz/cs/seminars/seminar2018/index.html
S přátelským pozdravem
MetaCentrum & CERIT-SC
Ivana Křenková, Mon May 14 14:24:00 CEST 2018
Pozvánka na Seminář gridového počítání 2018
Vážení uživatelé,
dovolujeme si Vás pozvat na další ročník Semináře gridového počítání 2018
- Místo konání: Národní technická knihovna, Praha https://www.techlib.cz/
- Zaměření: Cílem semináře je představit služby a novinky v gridovém a cloudovém prostředí MetaCentrum a CERIT-SC.
- Datum: pátek 11. 5. 2018, registrace od 9 hodin, zahájení v 10 hodin, zakončení v 17 hodin
- Zvaná přednáška: téma cloudy
Seminář je organizován projektem MetaCentrum sdružení CESNET a Centrem CERIT-SC.
Program semináře a další informace: https://metavo.metacentrum.cz/cs/seminars/seminar2018/index.html
Účast na semináři je podmíněná registrací a je bezplatná. Registrace končí 9.5.2018.
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC
Ivana Křenková, Tue Apr 24 14:24:00 CEST 2018
Novinky infrastruktury
- Nový cluster glados.cerit-sc.cz částečně vybavený GPU kartami (CERIT-SC)
- Spouštění úloh na strojích s Debian9 (CERIT-SC)
- Změny v nastavení vlastností na strojích (arien-pro i wagap-pro)
- Automatické promazávání scratchů na frontendech
- Zprovoznění nových strojů vlastníka ELIXIR-CZ
1) nový cluster glados.cerit-sc.cz částečně vybavený GPU kartami (CERIT-SC)
MetaCentrum bylo rozšířeno o nový cluster glados[1-17].cerit-sc.cz (lokalita Brno, vlastník CERIT-SC), 680 CPU, 17 uzlů s následující HW specifikací:
- CPU: 2x Intel Xeon Gold 6138 (2x 20 Core) 2.0 GHz
- RAM: 384 GB
- Disk: 2x 2TB SSD
- Výkon každého uzlu dle SPECfp2006: 1370 (34,25 na jádro)
- Uzly glados[10-17] obsahují každý 2 GPU karty -- Nvidia 1080 Ti
- Scratch je pouze typu SSD, nutno zohlednit při zadání úlohy
- Dočasně nastavena podpora pouze krátkých úloh, aktuálně maximálně 24 hodin. Pokud nebudou problémy, maximální doba běhu úloh bude postupně navyšována.
- OS debian9
Cluster je dostupný v prostředí plánovacího serveru @wagap-pro prostřednictvím standardních front.
- GPU úloha se v prostředí CERIT-SC (server @wagap-pro) zadává jako standardní úloha v defaultní frontě, pouze se specifikací počtu GPU:
$ qsub ... -l select=1:ncpus=1:gpu=1 ...
- Nezapomeňte v qsub zadat typ scratche SSD a OS Debian9:
$ qsub -l walltime=1:0:0 -l select=1:ncpus=1:mem=400mb:scratch_ssd=400mb:os=debian9 ...
2) Spouštění úloh na strojích s Debian9 (CERIT-SC)
CERIT-SC rozšířilo portfolium strojů s novým OS Debian9 (všechny nové stroje a některé starší). Od příštího týdne vypneme dočasné defaultní nastavení plánovače na Debian8. Pokud po vypnutí ve svých úlohách explicitně neuvedete požadovaný OS, plánovací systém vybere libovolný z nich, který je v dané frontě k dispozici.
Pokud chcete mít výběr operačního systému pod kontrolou, můžete využit následující volby (defaultní fronta):
- Pro spuštění úlohy na stroji s OS Debian9 přidejte parametr "os=debian9":
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=debian9 …
- Podobně pro spuštění úloh na strojích s OS Debian8 zadejte "os=debian8":
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=debian8 …
- Stroje s jiným OS (centos7) jsou k dispozici přes speciální fronty: např. urga, ungu (ve frontě uv@wagap-pro) a phi (ve frontě phi@wagap-pro)
V případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Případné problémy s během aplikací (chybějícími knihovnami apod.) na strojích s OS Debian9 nám, prosím, neprodleně hlaste na meta@cesnet.cz .
Seznam uzlů s OS Debian9/Debian8/Centos7 je možné zobrazit v seznamu vlastností ve webové aplikaci PBSMon:
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian9
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian8
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Dcentos7
3) Změny v nastavení vlastností na strojích (arien-pro i wagap-pro)
V průběhu dubna plánujeme úklid a pokud možno i sjednocení vlastností strojů v obou prostředích @arien-pro i @wagap-pro.
Operační systém
Začneme s důsledným označováním operačního systému strojů parametrem os=<debian8, debian9,centos7>
Nadbytečné původní vlastnosti centos7, debian8 a debian9 postupně na strojích zrušíme (pozůstatek PBS Torque). Pro výběr operačního systému v příkazu qsub postupujte podle návodu výše v bodu 2.
Tip: Sestavovač Qsub pro pomoc s napsáním zadání úlohy a výběrem strojů: https://metavo.metacentrum.cz/pbsmon2/qsub_pbspro
4) Automatické promazávání scratchů na frontendech
Kvůli opakovaným problémům s plnými scratchi na frontendech zavedeme automatické promazávání starých dat (starší 60 dnů) také na frontendech. Nenechávejte ve scratchi na frontendech žádná důležitá data. Přeneste si je do /home adresářů.
5) Zprovoznění nových strojů vlastníka ELIXIR-CZ
Pro skupinu českého národního uzlu ELIXIR-CZ jsme zprovoznili následující clustery:
• elmo1.hw.elixir-czech.cz - 224 CPU in total, SMP, 4 nodes with 56 CPUs, 768 GB RAM (Praha UOCHB)
• elmo2.hw.elixir-czech.cz - 96 CPU in total, HD, 4 nodes with 24 CPUs, 384 GB RAM (Praha UOCHB)
• elmo3.hw.elixir-czech.cz - 336 CPU in total, SMP, 6 nodes with 56 CPUs, 768 GB RAM (Brno)
• elmo4.hw.elixir-czech.cz - 96 CPU in total, HD, 4 nodes with 24 CPUs, 384 GB RAM (Brno)
Stroje jsou přístupné přes prioritní frontu elixircz (PBS server @arien-pro), do které mají přístup pouze členové českého národního uzlu ELIXIR-CZ a jejich spolupracovníci. Členství ve skupině podléhá schvalování. Podmínky a další informace jsou uvedené na wiki https://wiki.metacentrum.cz/wiki/Elixir. Ostatní uživatelé MetaCentra budou moci brzy nové clustery využít v běžných krátkých frontách.
Popis a nastavení fronty: https://metavo.metacentrum.cz/pbsmon2/queue/elixircz
Vzorový qsub:
$ qsub -q elixircz@arien-pro.ics.muni.cz -l select=1:ncpus=2:mem=2gb:scratch_local=1gb -l walltime=24:00:00 muj_script.sh
Quickstart: https://wiki.metacentrum.cz/w/images/f/f8/Quickstart-pbspro-ELIXIR.pdf
Stroje mají nainstalovaný OS Debian9. Případné problémy s během aplikací (chybějícími knihovnami apod.) na strojích s OS Debian9 nám, prosím, neprodleně hlaste na meta@cesnet.cz .
V případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Ivana Křenková, Fri Apr 06 15:35:00 CEST 2018
Zprovoznili jsme nový cluster zelda
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový SMP cluster zelda[1-10].cerit-sc.cz (lokalita Brno, vlastník CERIT-SC). Cluster obsahuje 10 uzlů (720 CPU jader), každý z nich má následující hardwarovou specifikaci:
- CPU: 4x Intel(R) Xeon(R) Gold 6140 CPU @ 2.30GHz
- RAM: 768 GB
- Disk: 4x 4TB 7.2k + 2x 1.8 TB SSD
- Výkon každého uzlu dle SPECfp2006: 2700 (37,5 na jádro)
- Net: 1x Infiniband 56 Gbit/s, 1x Ethernet 10 Gbit/s
- Dočasně podporuje pouze krátké úlohy (aktuálně 4 hodiny). Pokud nebudou problémy, maximální doba běhu úloh bude postupně navyšována.
- Dočasně nejsou propojené infinibandem
- OS: Debian 9
Cluster je dostupný v prostředí plánovacího serveru @wagap-pro prostřednictvím standardní fronty.
- Pro spuštění úlohy na clusteru zelda s OS Debian9 přidejte do zadání úlohy parametr "os=debian9"
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=debian9 …
- Pro úplnost, pro spuštění úloh na stroji s libovolným OS zadejte "os=^any"
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=^any …
Případné problémy s během aplikací (chybějícími knihovnami apod.) na strojích s OS Debian9 nám, prosím, neprodleně hlaste na meta@cesnet.cz . V případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Ivana Křenková, Wed Feb 14 21:40:00 CET 2018
Nabídka stáže v jednom z 9 HPC center v programu HPC-Europa3
Vážení uživatelé,
předáváme nabídku stáží v HPC centrech v Eropě (program HPC-Europe3)
=============================================
HPC-Europa3 programme offers visit grants to one of the 9 supercomputing centres around Europe: CINECA (Bologna - IT), EPCC (Edinburgh - UK), BSC (Barcelona - SP), HLRS (Stuttgart - DE), SurfSARA (Amsterdam - NL), CSC (Helsinki - FIN), GRNET (Athens, GR), KTH (Stockolm, SE), ICHEC (Dublin, IE).
The project is based on a program of visit, in the form of traditional transnational access, with researchers visiting HPC centres and/or scientific hosts who will mentor them scientifically and technically for the best exploitation of the HPC resources in their research. The visitors will be funded for travel, accommodation and subsistence, and provided with an amount of computing time suitable for the approved project.
The calls for applications are issued 4 times per year and published online on the HPC-Europa3 website. Upcoming call deadline: Call #3 - 28 February 2018 at 23:59
For rmore details visit programme webpage http://www.hpc-europa.eu/guidelines
===============================================
V případě zájmu se obracejte přímo na organizátory akce.
Coordinator:
Paola Alberigo
SCAI Department - CINECA
Via Magnanelli 6/3
40033 Casalecchio di Reno (Italy)
e-mail: staff@hpc-europa.org
S přátelským pozdravem,
MetaCentrum
Ivana Křenková, Tue Feb 13 23:24:00 CET 2018
Zprovoznili jsme nový cluster aman
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový SMP cluster aman[1-10].ics.muni.cz (lokalita Brno, vlastník CESNET), 560 CPU, 10 uzlů s následujíci HW specifikací:
- CPU: 4x 14-core Intel Xeon E7-4830 v4 (2.00GHz)
- RAM: 512 GB
- disk: 2x 4TB 7k2 SATA III, 480 GB Intel SSD S3610
- Výkon každého uzlu dle SPECfp2006: 1490 (26,6 na jádro)
- Dočasně podporuje pouze krátké úlohy. Pokud nebudou problémy, maximální doba běhu úloh bude postupně navyšována až na 30 dní.
Cluster je dostupný v prostředí plánovacího serveru @arien-pro prostřednictvím standardních front. Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Karolína Trachtová, Thu Nov 30 21:40:00 CET 2017
Zprovoznili jsme nový cluster hildor
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový cluster hildor[1-28].metacentrum.cz (lokalita České Budějovice, vlastník CESNET), 672 CPU, 28 uzlů s následujíci HW specifikací
- CPU: 2x 8-core Intel Xeon E5-2665 2.40GHz
- RAM: 64 GB
- disk: 2x 1TB
- Výkon každého uzlu dle SPECfp2006: 468 (29,25 na jádro)
- Dočasně podporuje pouze krátké úlohy, aktuálně maximálně 24 hodin. Pokud nebudou problémy, maximální doba běhu úloh bude postupně navyšována až na 30 dní.
Cluster je dostupný v prostředí plánovacího serveru @arien-pro prostřednictvím standardních front. Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Karolína Trachtová, Tue Nov 14 21:40:00 CET 2017
Novinky infrastruktury
1) Reinstalace strojů na Debian9 (CERIT-SC @wagap-pro)
Seznam uzlů s OS Debian9 je možné zobrazit v Sestavovači Qsub (volba :os=debian9) https://metavo.metacentrum.cz/pbsmon2/qsub_pbspro
Pokud nenastavíte nic, budete ještě po přechodnou dobu spouštět úlohy ve frontě default@wagap-pro na strojích výhradně s OS Debian8. Pokud chcete vyzkoušet připravenost svých skriptů na nový operační systém, můžete využit následující volby:
- Pro spuštění úlohy na stroji s OS Debian9 přidejte do zadání úlohy parametr "os=debian9"
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=debian9 …
- Podobně pro spuštění úloh na strojích s OS Debian8 (v případě problémů na OS Debian9) zadejte "os=debian8"
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=debian8 …
- Pro úplnost, pro spuštění úloh na stroji s libovolným OS zadejte "os=^any"
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=^any …
Případné problémy s během aplikací (chybějícími knihovnami apod.) na strojích s OS Debian9 nám, prosím, neprodleně hlaste na meta@cesnet.cz .
Poznámka: Některé speciální stroje dostupné ve speciálních frontách mohou mít odlišný OS, např. urga, ungu (ve frontě uv@wagap-pro) a phi (ve frontě phi@wagap-pro) běží na OS CentOS 7.
2) Speciální uzel/frontend oven.ics.muni.cz pro řízení a plánování úloh
Speciální uzel/frontend oven.ics.muni.cz s velkým množstvím nevýkonných virtuálních CPU je určený především pro běh výkonnostně nenáročných řídících/resubmitovacích úloh. Je přístupný přes speciální frontu 'oven', která je dostupná všem uživatelům MetaCentra.
Nastavení fronty 'oven':
- slouží pro spouštění výkonově nenáročných řídících úloh pro administraci spouštění dalších úloh v klasických frontách
- maximální doba běhu řídící úlohy až měsíc, default je 24 hodin
- defaultně přiděluje úloze 100 MB paměti
- oddělený fairshare (pouze pro řídící/resubmitovací úlohy)
Parametry uzlu oven.ics.muni.cz:
- 80 nevýkonných, virtuálních CPU
- 8 GB RAM
- nezabijí úlohy při překročení požadovaného počtu procesorů nebo paměti
- zabíjí úlohy při překročení walltime
- je dostupný pouze přes frontu oven
Jednoduchý příklad submitovací úlohy:
echo "echo hostname | qsub" | qsub -q oven
Více informací na wiki https://wiki.metacentrum.cz/wiki/Uzel_Oven
Ivana Křenková, Thu Oct 26 15:35:00 CEST 2017
Pozvánka na kurz "What you need to know about performance analysis using Intel tools"
Zveme uživatele MetaCentra na kurz "What you need to know about performance analysis using Intel tools" pořádaný Národním superpočítačovým centrem IT4Innovations.
Kdy: středa 14. června 2017 9.00-17.30 hod.
Kde: areál VŠB-TUO v Ostravě-Porubě, budova IT4Innovations, místnost 207
Jazyk: angličtina
Úroveň: pokročilý
Tutor: Georg Zitzlsberger (IT4Innovations)
Podrobnější informace o kurzu a registraci naleznete na webové stránce:
http://training.it4i.cz/en/PAUIT-06-2017
Případné dotazy směřujte na: training[at]it4i.cz
Training Team IT4Innovations
-------------------------
Ivana Křenková, Fri May 26 15:35:00 CEST 2017
Pozvánka na Gaussian Workshop (Španělsko)
Vážení uživatelé,
dovolujeme si Vám předat pozvánku na workshop "Introduction to Gaussian: Theory and Practice":
============================================================
WORKSHOP IN SPAIN IN JULY 2017
We are very pleased to announce that the workshop "Introduction to Gaussian: Theory and Practice" will be held at the University of Santiago de Compostela in Spain from July 10-14, 2017. Researchers at all levels from academic and industrial sectors are welcome.
Full details are available on our website at:
www.gaussian.com/ws_spain17
Follow us on LinkedIn for announcements, Tips & FAQs, and other info: www.linkedin.com/company/gaussian-inc
============================================================
S přátelským pozdravem
MetaCentrum
Ivana Křenková, Wed May 10 23:24:00 CEST 2017
Aktualizace frontendu zuphux.cerit-sc.cz na PBS Pro a OS Centos 7.3
CERIT-SC pokračuje s přesunem běžných výpočetních strojů z prostředí PBS Torque @wagap do nového prostředí s plánovacím systémem PBS Pro @wagap-pro.
***ZMĚNA SYSTÉMU FRONTENDU***
Dne 11. 5. bude frontend zuphux.cerit-sc.cz přenastaven do prostředí @wagap-pro a zároveň dojde k upgrade verze OS (Centos 7.3).
Zároveň dojde k zastavení přijímání nových úloh v prostředí Torque (@wagap). Stávající úlohy se dopočítají na zbylých uzlech. Zbylé výpočetní uzly v Torque budou po uvolnění postupně převáděny do prostředí PBS Pro. Stroje zařazené v PBS Pro jsou v PBSMonu označené nápisem "Pro" https://metavo.metacentrum.cz/pbsmon2/nodes/physical .
Připomínáme hlavní odlišnosti PBS Pro:
- Odlišná syntaxe (požadavek na 1 uzel ve frontě uv se 48 cpu, 20 GB RAM, 20 GB scratch, 1 hodina walltime):
-
qsub
-q uv-l select=1:ncpus=48:mem=20gb:scratch_local=20gb -l walltime=1:00:00 skript.sh
-
- Nutno vždy specifikovat
- walltime ve formátu [hh:mm:ss]
- velikost a typ scratche <scratch_local|scratch_ssd|scratch_shared>
S omluvou za komplikace a s díky za pochopení,
Uživatelská podpora centra CERIT-SC
Ivana Křenková, Wed May 10 21:40:00 CEST 2017
Další rozšíření PBS Pro prostředí v CERIT-SC
CERIT-SC pokračuje s přesunem běžných výpočetních strojů z prostředí PBS Torque @wagap do nového prostředí s plánovacím systémem PBS Pro @wagap-pro.
Frontend zuphux.cerit-sc.cz zůstává prozatím (do převedení alespoň poloviny zdrojů) nastaven defaultně na prostředí @wagap. Pro aktivaci PBSPro na tomto frontendu je proto nutné, provést po přihlášení aktivaci nového prostředí příkazem:
zuphux$ module add pbspro-client ... nastaví PBSPro prostředí @wagap-pro obdobně zuphux $ module rm pbspro-client ... vrátí Torque prostředí @wagap
Připomínáme hlavní odlišnosti PBS Pro:
- Odlišná syntaxe (požadavek na 1 uzel ve frontě uv se 48 cpu, 20 GB RAM, 20 GB scratch, 1 hodina walltime):
-
qsub
-q uv-l select=1:ncpus=48:mem=20gb:scratch_local=20gb -l walltime=1:00:00 skript.sh
-
- Nutno vždy specifikovat
- walltime ve formátu [hh:mm:ss]
- velikost a typ scratche <scratch_local|scratch_ssd|scratch_shared>
Uživatelská podpora centra CERIT-SC
Ivana Křenková, Thu Apr 20 21:40:00 CEST 2017
Prezentace ze Semináře gridového počítání 2017
Vážení uživatelé,
ve čtvrtek 30. března proběhl další ročník Semináře gridového počítání 2017, zaměřený na zpracování, analýzu a ukládání dat a představení novinek v gridovém a cloudovém prostředí MetaCentrum a CERIT-SC. Semináře se zúčastnilo více než 90 vědců.
Seminář byl organizován projektem MetaCentrum sdružení CESNET a Centrem CERIT-SC.

Program semináře a prezentace z jednotlivých přednášek jsou k dispozici na stránce semináře.
S přátelským pozdravem
MetaCentrum & CERIT-SC
Ivana Křenková, Mon Apr 03 14:24:00 CEST 2017
Nastavení expirace virtuálních strojů v MetaCloudu
Vážení uživatelé,
s cílem zlepšit využití cloudových zdrojů v MetaCloudu jsme zavedli mechanismus expirace zapomenutých virtuálních strojů. Jeho podstatou je, že každý vlastník musí vždy po určité době potvrdit trvající zájem o běh každého svého stroje, jinak bude stroj odstraněn a zdroje se uvolní pro ostatní uživatele. Již nyní můžete u svých virtuálních strojů vidět naplánované akce na vypnutí. Celý popis systému najdete na wiki stránce Expirace virtuálních strojů a včas vám přijde upozornění elektronickou poštou.
Váš MetaCloud tým
Ivana Křenková, Thu Mar 30 21:40:00 CEST 2017
Další rozšíření PBS Pro prostředí
CERIT-SC započal s přesunem běžných výpočetních strojů z prostředí PBS Torque @wagap do nového prostředí s plánovacím systémem PBS Professional @wagap-pro.
Frontend zuphux.cerit-sc.cz zůstává prozatím (do převedení alespoň poloviny zdrojů) nastaven defaultně na prostředí @wagap. Pro aktivaci PBSPro je proto nutné, po přihlášení na frontend, provést aktivaci nového prostředí příkazem:
$module add pbspro-client ... nastaví PBSPro prostředí @wagap-pro obdobně $module rm pbspro-client ... vrátí Torque prostředí @wagap
Připomínáme hlavní odlišnosti PBS Pro:
- Odlišná syntaxe (požadavek na 1 uzel ve frontě uv se 48 cpu, 20 GB RAM, 20 GB scratch, 1 hodina walltime):
-
qsub
-q uv-l select=1:ncpus=48:mem=20gb:scratch_local=20gb -l walltime=1:00:00 skript.sh
-
- Nutno vždy specifikovat
- walltime ve formátu [hh:mm:ss]
- velikost a typ scratche <scratch_local|scratch_ssd|scratch_shared>
Dokumentace k novému plánovacímu prostředí PBS Professional: https://wiki.metacentrum.cz/wiki/PBS_Professional
MetaCentrum & CERIT-SC
Ivana Křenková, Tue Mar 28 21:40:00 CEST 2017
Pozvánka na Seminář gridového počítání 2017
Vážení uživatelé,
dovolujeme si Vás pozvat na další ročník Semináře gridového počítání 2017
- Místo konání: Univerzitní kino Scala, Moravské náměstí 3, Brno
- Zaměření: Cílem semináře je představit služby a novinky v gridovém a cloudovém prostředí MetaCentrum a CERIT-SC.
- Datum: čtvrtek 30. 3. 2017, registrace od 9 hodin, zahájení v 10 hodin
- Zvaná přednáška: IBM
Seminář je organizován projektem MetaCentrum sdružení CESNET a Centrem CERIT-SC.

Program semináře je k dispozici na stránce semináře.
Na akci je nezbytná registrace. Účast na semináři je bezplatná.
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC
Ivana Křenková, Mon Mar 27 14:24:00 CEST 2017
Plánované odstavení prostředí Torque (@arien)
module add pbspro-client
Důležité:
- PBSPro server: arien-pro.ics.muni.cz (nelze se na něj hlásit přímo)
- GPU cluster je dostupný prostřednictvím fronty gpu@arien-pro.ics.muni.cz a gpu_long@arien-pro.ics.muni.cz
-
Odlišná syntaxe oproti Torque -- např. požadavek na 3 uzly po 2 cpu, 1 GB RAM, 1 GB lokální scratch, 1 hodina walltime, 1 licence matlabu:
-
qsub -l select=3:ncpus=2:mem=1gb:scratch_local=1gb -l walltime=1:00:00 -l matlab=1 skript.sh
-
-
Každá úloha musí mít specifikovaný typ a velikost scratche (např. scratch_local=1gb)!!!
Sestavovač qsub a další informace jsou k dispozici v aplikaci PBSMon: https://metavo.metacentrum.cz/cs/state/personal
Dokumentace k novému plánovacímu prostředí PBS Professional je na wiki: https://wiki.metacentrum.cz/wiki/Prostředí_PBS_Professional
S omluvou za komplikace,
Vaše MetaCentrum
.
Ivana Křenková, Sat Mar 25 21:40:00 CET 2017
Další rozšíření experimentálního prostředí centra CERIT-SC
Vážení uživatelé,
uv@wagap-pro.cerit-sc.cz).Použítí experimentálního prostředí PBS Pro centra CERIT-SC (@wagap-pro)
- PBS Pro server: wagap-pro.cerit-sc.cz (nelze se na něj hlásit přímo)
- Frontend: zuphux.cerit-sc.cz, po přihlášení na frontend je nutné přenastavit prostředí na PBSPro příkazem:
$module add pbspro-client ... nastaví PBSPro prostředí @wagap-pro $module rm pbspro-client ... vrátí Torque prostředí @wagap
- Fronty:
uv@wagap-pro.cerit-sc.cz, phi@wagap-pro.cerit-sc.cz
- Home (NFS):
storage-brno3-cerit.metacentrum.cz (/storage/brno3-cerit/home/) - Odlišná syntaxe (požadavek na 1 uzel ve frontě uv se 48 cpu, 20 GB RAM, 20 GB scratch, 1 hodina walltime):
-
qsub
-q uv-l select=1:ncpus=48:mem=20gb:scratch_local=20gb -l walltime=1:00:00 skript.sh
-
Dokumentace k novému plánovacímu prostředí PBS Professional: https://wiki.metacentrum.cz/wiki/PBS_Professional
MetaCentrum & CERIT-SC
Ivana Křenková, Wed Mar 22 21:40:00 CET 2017
Nová wiki s dokumentací
Vážení uživatelé,
připravili jsme přehlednější a aktuální verzi dokumentace na wiki. Záměrně jsme v ní informace výrazně zjednodušili a zestručnili, věříme, že bude uživatelsky přívětivější. Pokud byste v ní nemohli něco najít nebo naopak najdete nesrovnalosti, pište nám na meta@cesnet.cz.
Nová wiki: https://wiki.metacentrum.cz/wiki/
Původní wiki: https://wiki.metacentrum.cz/wikiold/
MetaCentrum & CERIT-SC
Ivana Křenková, Fri Mar 10 21:40:00 CET 2017
Rozšíření experimentálního prostředí centra CERIT-SC
Vážení uživatelé,
uv@wagap-pro.cerit-sc.cz).Použítí experimentálního prostředí PBS Pro centra CERIT-SC (@wagap-pro)
- PBS Pro server: wagap-pro.cerit-sc.cz (nelze se na něj hlásit přímo)
- Frontend: zuphux.cerit-sc.cz, po přihlášení na frontend je nutné přenastavit prostředí na PBSPro příkazem:
$module add pbspro-client ... nastaví PBSPro prostředí @wagap-pro $module rm pbspro-client ... vrátí Torque prostředí @wagap
- Fronty:
uv@wagap-pro.cerit-sc.cz, phi@wagap-pro.cerit-sc.cz
- Home (NFS):
storage-brno3-cerit.metacentrum.cz (/storage/brno3-cerit/home/) - Odlišná syntaxe (požadavek na 1 uzel ve frontě uv se 48 cpu, 20 GB RAM, 20 GB scratch, 1 hodina walltime):
-
qsub
-q uv-l select=1:ncpus=48:mem=20gb:scratch_local=20gb -l walltime=1:00:00 skript.sh
-
Dokumentace k novému plánovacímu prostředí PBS Professional: https://wiki.metacentrum.cz/wiki/PBS_Professional
MetaCentrum & CERIT-SC
Ivana Křenková, Thu Mar 09 21:40:00 CET 2017
Další rozšíření strojů dostupných v prostředí PBSPro (@arien-pro)
Velká část uzlů a frontendů byla převedena z plánovacího prostředí PBS Torque (@arien) do PBS Pro (@arien-pro).
Důležité:
- PBSPro server: arien-pro.ics.muni.cz (nelze se na něj hlásit přímo)
- Čelní uzly: tarkil.grid.cesnet.cz, alfrid.meta.zcu.cz, nymha.zcu.cz (další budou následovat)
- GPU cluster je dostupný prostřednictvím fronty gpu@arien-pro.ics.muni.cz a gpu_long@arien-pro.ics.muni.cz
-
Odlišná syntaxe oproti Torque -- např. požadavek na 3 uzly po 2 cpu, 1 GB RAM, 1 GB lokální scratch, 1 hodina walltime, 1 licence matlabu:
-
qsub -l select=3:ncpus=2:mem=1gb:scratch_local=1gb -l walltime=1:00:00 -l matlab=1 skript.sh
-
-
Každá úloha musí mít specifikovaný typ a velikost scratche (např. scratch_local=1gb)!!!
Sestavovač qsub a další informace jsou k dispozici v aplikaci PBSMon: https://metavo.metacentrum.cz/cs/state/personal
Dokumentace k novému plánovacímu prostředí PBS Professional je na wiki: https://wiki.metacentrum.cz/wiki/Prostředí_PBS_Professional
Ivana Křenková, Fri Mar 03 21:40:00 CET 2017
Nový cluster s Xeon Phi v experimentálním prostředí centra CERIT-SC
Vážení uživatelé,
Centrum CERIT-SC zprovoznilo nový speciální cluster s procesory Intel Xeon Phi 7210. Cluster je dostupný z nově vytvořeného experimántálním prostředí PBS Pro plánovacího serveru @wagap-pro
- phi[1-6].cerit-sc.cz, 6 uzlů (384 CPU jader), každý uzel:
- CPU: 64-core Intel Xeon Phi 7210, 1.30GHz (256 HT jader)
- RAM: 192GB phi1-phi4, 384GB phi5-phi6, každý node ma navíc 16GB rychlé HBM
- sratch: 1x 800 GB SSD (scratch_ssd), 2x 3 TB (scratch_local)
- vlastník: CERIT-SC
- Výkon každého uzlu dle SPECfp2006: 748 (11.7 per core)
Xeon Phi je masivně paralelní architektura složená z velkého množství x86 jader (tzvn. Many Integrated Core). Narozdíl od starší generace, nový Xeon Phi (vychází z architektury Knight Landing) je self-booting systém (konvenční CPU není nutné), plně kompatibilní s architekturou x86. Úlohy se proto mohou spouštět stejným způsobem jako na konvenčních procesorech s využitím stejných aplikací. Není vyžadována rekompilace nebo přepis algoritmu aplikace, i když speciáně upravené úlohy dokážou z této technologie více profitovat. Xeon Phi procesory mají oproti konvenčním procesorům velmi malý výkon na jádro, přínos Xeon Phi se objeví až při využití ve vysoce paralelních úlohách.
Porovnání Xeon Phi s konvenčním procesory: http://sc16.supercomputing.org/sc-archive/tech_poster/poster_files/post133s2-file3.pdf
Použítí Xeon Phi v experimentálním prostředí PBS Pro centra CERIT-SC (@wagap-pro)
- PBS Pro server: wagap-pro.cerit-sc.cz (nelze se na něj hlásit přímo)
- Frontend: zuphux.cerit-sc.cz, po přihlášení na frontend je nutné přenastavit prostředí na PBSPro příkazem:
$module add pbspro-client ... nastaví PBSPro prostředí @wagap-pro $module rm pbspro-client ... vrátí Torque prostředí @wagap
- Fronta:
phi@wagap-pro.cerit-sc.cz
- Home (NFS):
storage-brno3-cerit.metacentrum.cz; POZOR ostatní pole nejsou k tomuto clusteru z technických důvodů připojena přes NFS, data z nich se kopírují příkazemscp - Odlišná syntaxe (požadavek na 3 uzly po 12 cpu, 1 GB RAM, 1 GB ssd scratch, 1 hodina walltime):
-
qsub
-q-l select=3:ncpus=12:mem=1gb:scratch_ssd=1gb -l walltime=1:00:00 skript.shphi
-
Dokumentace k novému plánovacímu prostředí PBS Professional: https://wiki.metacentrum.cz/wiki/PBS_Professional
Jak efektivně využít Xeon Phi
Navzdory deklarované kompatibilitě s x86 CPU, ne všechny typy úloh jsou vhodné pro Xeon Phi.
- Xeon Phi 7210 má 256 virtuálních jader (64 fyzických) běžících na 1.3GHz s celkovým výkonem 2,66 TFlops v dvojnásobné přesnosti (double precision) a 5,32 TFlops v jednoduché přesnosti (single precision).
- Jeho výkon je výrazně vyšší než výkon konvenčního Xeon procesoru pouze při využití všech virtuálních jader!
- Neškálující nebo neparalizované úlohy jsou na Xeon Phi velmi pomalé!
- Xeon Phi je vhodným kandidátem pro urychlení náročných úloh omezených propustností paměti (acceleration of memory-bandwidth): je vybaven 16GB paměti s velkou šířkou pásma (cca 400GB/s) a až 384GB konvenční DDR4 paměti (asi 100GB/s). Ve výchozím nastavení je použita paměť DDR4. Realizace celého programu _your-binary_ v paměti s velkou šířkou pásma lze provést takto:
numactl -m l _your-binary_ - Xeon Phi 7210 podporuje vektorové instrukce AVX-512. Pokud aplikace používá automatickou vektorizaci, může být re-kompilovaná s využitím kompilátoru Intel C (icc/icpc v modulu intelcdk-17) pomocí příznaku -xMIC-AVX512. Bez použití instrukcí AVX-512 dokážou aplikace využít nanejvýše polovinu teoretického výkonu Xeon Phi.
Více informací o architektuře Xeon Phi poskytne webinář https://colfaxresearch.com/how-knl/
MetaCentrum & CERIT-SC
Ivana Křenková, Fri Feb 24 21:40:00 CET 2017
MetaCentrum: novinky infrastruktury
Aktuální informace o novinkách infrastruktur MetaCentrum a CERIT-SC.
Obsah:
- Rozšíření strojů dostupných v prostředí PBSPro
- Aplikace PBSMon zobrazuje souhrnně úlohy ze všech prostředí @arien, @arien-pro, @wagap
- Upgrade na Debian8 na frontendech a uzlech
- Galaxy s RepeatExplorerem pro ELIXIR
- Setkání s uživateli na FZÚ AV ČR 23. 2. 2017 od 10:30
- Aktualizace SW
- Navyšte si fairshare vykázáním publikací s poděkováním
1. Rozšíření strojů dostupných v prostředí PBSPro (@arien-pro)
Důležité:
- PBSPro server: arien-pro.ics.muni.cz (nelze se na něj hlásit přímo)
- Dedikovaný čelní uzel: tarkil.grid.cesnet.cz
- GPU cluster je dostupný prostřednictvím fronty gpu@arien-pro.ics.muni.cz
-
Odlišná syntaxe oproti Torque -- např. požadavek na 3 uzly po 2 cpu, 1 GB RAM, 1 GB lokální scratch, 1 hodina walltime, 1 licence matlabu:
-
qsub -l select=3:ncpus=2:mem=1gb:scratch_local=1gb -l walltime=1:00:00 -l matlab=1 skript.sh
-
-
Každá úloha musí mít specifikovaný typ a velikost scratche (např. scratch_local=1gb)!!!
- Sestavovač qsub a další informace jsou k dispozici v aplikaci PBSMon: https://metavo.metacentrum.cz/cs/state/personal
- Dokumentace k novému plánovacímu prostředí PBS Professional je na wiki: https://wiki.metacentrum.cz/wiki/Prostředí_PBS_Professional
2. Aplikace PBSMon nově zobrazuje souhrnně úlohy ze všech prostředí @arien, @arien-pro, @wagap
3. Upgrade na Debian8 na frontendech a uzlech
Kdybyste narazili na problém s kompatibilitou SW modulů, pište na meta@cesnet.cz
4. Galaxy s RepeatExplorerem pro ELIXIR
Více informací a podmínky využití najdete na wiki: https://wiki.metacentrum.cz/wiki/Galaxy_application#RepeatExplorer_Galaxy
5. Setkání s uživateli
6. Aktualizace SW
7. Zvýhodnění fairshare za vložení publikací s poděkováním
Opublikované publikace s poděkováním CESNETu a/nebo CERIT-SC se následně zadávají do systému Perun. Za vykázané publikace je uživatel automaticky zvýhodněn v přístupu k výpočetním prostředkům navýšením fairshare: https://metavo.metacentrum.cz/cs/myaccount/pubs
Poznámka pro řešitele projektů GA ČR: Dle vyjádření GA ČR, v publikacích vzniklých s podporou GA ČR je poděkování infrastrukturám CESNET i CERIT-SC možné.
S přáním úspěšných výpočtů
Ivana Křenková,
MetaCentrum + CERIT-SC.
Ivana Křenková, Thu Feb 02 21:40:00 CET 2017
MetaCloud - změna zabezpečení a přechod na novou verzi OpenNebula 5
Vážení uživatelé MetaCloudu,
V souvislosti s přípravou přechodu na OpenNebulu verze 5 (v týdnu mezi 9. a 13. lednem t.r.) dojde v nejbližších dnech k úpravě bezpečnostních nastavení v MetaCloudu.
Výchozí bezpečnostní nastavení se změní ze zcela otevřeného na téměř zcela uzavřené. Standardně bude k nově vytvořeným strojům povolen pouze přístup na port SSH (TCP port 22). Jakékoli další porty bude třeba dodatečně povolit s pomocí předdefinovaných bezpečnostních skupin (Security Groups).
V šablonách, které už v současnosti měly nastavené filtrování provozu s pomocí atributů WHITE_PORTS, *musí jejich vlastníci provést adekvátní úpravy* a propojení s vhodným nastavením Security Groups. Virtuální stroje spuštěné ze šablon ještě se starými atributy tím nebudou přímo dotčeny, ale v dalším kroku po upgradu je bude třeba zastavit a znovu vytvořit s novým nastavením.
Pokud Vám z nějakého důvodu nebude dostačovat výběr z existujících Security Groups, kontaktujte nás a společně připravíme vhodné řešení.
S pozdravem
MetaCloud tým
Ivana Křenková, Tue Dec 20 21:40:00 CET 2016
Rozšíření experimentálního prostředí o nový cluster meduseld
Vážení uživatelé,
s potěšením oznamujeme, že jsme do experimentálního prostředí s plánovacím systémem PBS Professional (PBS Pro), dostupného z čelního uzlu tarkil.grid.cesnet.cz, přidali nový cluster:
SMP cluster meduseld.grid.cesnet.cz, 6 uzlů (336 CPU jader), každý s následujícími parametry:
- CPU: 4x 14-core Intel Xeon E7-4830 v4 (2.00GHz)
- RAM: 512 GB
- disk: 15 TB HDD, 480 GB SSD
- network: Ethernet 10Gbit/s, Infiniband 40Gbit/s
- vlastník CESNET
- home /storage/brno2/
Použití experimentálního prostředí s PBS Pro:
- PBS Pro server arien-pro.ics.muni.cz (nelze se na něj hlásit přímo)
- Dedikovaný čelní uzel tarkil.grid.cesnet.cz
- Dostupné zdroje: nový cluster tarkil[1-16].grid.cesnet.cz, 16 uzlů (384 CPU jader), každý s následujícími parametry:
- CPU: 2x 12-core Intel Xeon E5-2650v4 (2.20GHz)
- RAM: 128GB
- disk: 2x 4TB
- vlastník CESNET
- Výkon každého uzlu dle SPECfp2006: 790 (32.9 na jádro)
- Dočasně podpora pouze krátkých úloh, aktuálně maximálně 24 hodin. Pokud nebudou problémy, maximální doba běhu úloh bude postupně navyšována až na 30 dní.
- Odlišná syntaxe (požadavek na 3 uzly po 2 cpu, 1 GB RAM, 1 GB lokální scratch, 1 hodina walltime, 1 licence matlabu):
-
qsub -l select=3:ncpus=2:mem=1gb:scratch_local=1gb -l walltime=1:00:00 -l matlab=1 skript.sh
-
- Pro PBS Pro zatím nefunguje sestavovač qsub na webu a funkcionalita PBSMonu na webu je velmi omezená, pracujeme na integraci
Dokumentace k novému plánovacímu prostředí PBS Professional: https://wiki.metacentrum.cz/wiki/Prostředí_PBS_Professional
Připomínky a náměty můžete posílat do RT meta@cesnet.cz
Ivana Křenková, Wed Nov 16 21:40:00 CET 2016
Zprovoznili jsme nový cluster tarkil obsluhovaný novým dávkovým systémem PBS Pro
Vážení uživatelé,
rádi bychom představili nový plánovací systém PBS Professional (PBS Pro), který nyní nasazujeme v testovací verzi v experimentálním prostředí dostupném z čelního uzlu tarkil.grid.cesnet.cz.
PBS Pro v budoucnosti nahradí stávající plánovač Torque, doporučujeme tedy si jej s předstihem vyzkoušet už nyní.
Důvod pro změnu:
- s Torque jsme narazili na limity v propustnosti a celkové škálovatelnosti plánovacího systému při výrazném nárůstu počtu úloh (způsobovalo zpomalování a časté zasekávání celého prostředí)
- došlo k uvolnění původně placené verze komerčního plánovače PBS Pro, který jsme před lety opustili z finančních důvodů
- PBS Pro dávkový systém splňuje většinu našich aktuálních požadavků, podporuje další rozšiřitelnost, nabízí kompatibilitu s ostatními PBS Pro systémy, a dále nabízí i mnohé dosud nepodporované funkcionality
Změny PBS Pro oproti Torque:
- přichází s novou qsub syntaxí „select“, která se značně liší od Torque (podrobnosti)
- nabízí výrazně pokročilejší možnosti specifikace požadovaných zdrojů
- poskytuje lepší podporu plánování paralelních úloh a podporu Docker kontejnerů
- Pro PBS Pro zatím nefunguje sestavovač qsub na webu a funkcionalita PBSMonu na webu je velmi omezená, pracujeme na integraci
Použití experimentálního prostředí s PBS Pro:
- PBS Pro server arien-pro.ics.muni.cz (nelze se na něj hlásit přímo)
- Dedikovaný čelní uzel tarkil.grid.cesnet.cz
- Dostupné zdroje: nový cluster tarkil[1-16].grid.cesnet.cz, 16 uzlů (384 CPU jader), každý s následujícími parametry:
- CPU: 2x 12-core Intel Xeon E5-2650v4 (2.20GHz)
- RAM: 128GB
- disk: 2x 4TB
- vlastník CESNET
- Výkon každého uzlu dle SPECfp2006: 790 (32.9 na jádro)
- Experimentální prostředí dočasně podporuje pouze krátké úlohy, aktuálně maximálně 48 hodin. Pokud nebudou problémy, maximální doba běhu úloh bude postupně navyšována až na 30 dní.
- Odlišná syntaxe (požadavek na 3 uzly po 2 cpu, 1 GB RAM, 1 GB lokální scratch, 1 hodina walltime, 1 licence matlabu):
-
qsub -l select=3:ncpus=2:mem=1gb:scratch_local=1gb -l walltime=1:00:00 -l matlab=1 skript.sh
-
Dokumentace k novému plánovacímu prostředí PBS Professional: https://wiki.metacentrum.cz/wiki/Prostředí_PBS_Professional
Věříme, že nové možnosti, které PBS Pro poskytuje, umožní uživatelům MetaCentra lépe specifikovat své úlohy a tedy i snadněji a rychleji získat zajímavé výsledky ve svém výzkumu.
Připomínky a náměty můžete posílat do RT meta@cesnet.cz
Karolína Trachtová, Tue Nov 08 21:40:00 CET 2016
Provozní změny infrastruktur MetaCentra a CERIT-SC
1) Zrušení nadbytečných vlastností
2) Zavedení cgroups
3) Defaultní fronta a zrušení obecně přístupných časových front
4) Reinstalace strojů na OS Debian 8
1) Zrušení nadbytečných vlastností
Z důvodu zpřehlednění a zjednodušení zadávání a plánování úloh došlo k redukci počtu vlastností. Zrušili jsme ty, které se z historických důvodů vyskytují na všech strojích nebo se již téměř nepoužívají:
linux, x86_64, nfs4, em64t, x86, *core, nodecpus*, nehalem/opteron/, noautoresv, xen, ...
Aktuální seznam dostupných vlastností: http://metavo.metacentrum.cz/pbsmon2/props
2) Zavedení cgroups
Cgroups umožňuje omezit spotřebu prostředků (paměti, procesoru) pro danou úlohu.
Pokud víte, že Vaše úloha překračuje RAM nebo počet přidělených CPU jader a nedokážete tyto omezit přímo v aplikaci, použijte přepínač -W cgroup=true při zadání úlohy, např.:
qsub -W cgroup=true -l nodes=1:ppn=4 -l mem=1gb ...
Cgroups nahrazuje dříve doporučený způsob nodecpus*#excl -- vlastnost nodecpus* byla zrušena.
Ve výchozím nastavení plánovače nejsou cgroups použity (může zpomalit swapující úlohu a nelze poznat, kolik prostředků úloha skutečně potřebuje pro efektivní běh).
Podpora cgroups není nastavena na všech strojích, aktuální seznam strojů k testování lze získat v pbsmonu jako přehled strojů s nastavenou vlastností cgroup:
http://metavo.metacentrum.cz/pbsmon2/props#cgroup
Více informací: https://wiki.metacentrum.cz/wiki/Cgroups
3) Zrušení obecně přístupných časových front
Před více než rokem jsme sjednotili zadávání úloh -- v obou prostředích plánovacích serverů @wagap a @arien -- zavedením parametru -l walltime=<OCEKAVANA_MAX_DOBA_BEHU>.
Na @wagap byly zrušeny dočasně ponechané časové fronty q_2h, q_4h, q_1d, q_2d, q_4d, q_1w, q_2w, q_2w_plus. Své úlohy proto zadávejte výhradně s parametrem walltime, např.
-l walltime=2h, -l walltime=3d30m,...
Více informací na wiki: https://wiki.metacentrum.cz/wiki/Spouštění_úloh_v_plánovači
4) Reinstalace strojů na OS Debian 8
Využíváme všech plánovaných i neplánovaných odstávek clusterů a postupně povyšujeme operační systém na frontendech i uzlech na OS Debian 8.
Aktuální seznam uzlů s vlastností debian8 najdete v přehledu vlastností v aplikaci PBSmon: http://metavo.metacentrum.cz/pbsmon2/props#debian8
nebo v osobním přehledu (sestavovači qsub) http://metavo.metacentrum.cz/cs/state/personal
Případné problémy s během aplikací (chybějícími knihovnami apod.) na těchto strojích nám, prosíme, neprodleně hlaste.
Pokud narazíte na problém, do vyřešení se můžete vyhnout spouštění úloh na strojích s vlastností debian8 takto:
-l nodes=1:ppn=4:^debian8 – negace vlastnosti, úloha nebude naplánovaná na uzly s vlastností debian8, nebo -l nodes=1:ppn=4:debian7 - přidělí stroje se starší verzí OS Debian7
Ivana Křenková, Thu Jun 30 15:35:00 CEST 2016
Pozvánka na Technical Computing Camp 2016
Společnost HUMUSOFT s.r.o. pořádá ve dnech 8. - 9. 9. 2016 Technical Computing Camp, třetí ročník neformálního letního setkání příznivců technických výpočtů a počítačových simulací.
KDY: Čtvrtek 8. 9. od 9 h - pátek 9. 9. do 15h
KDE: Brněnská prehrada, hotel Fontána
Vstup ZDARMA
Další informace a přihláška zde: http://www.humusoft.cz/tcc
V průběhu akce Technical Computing Camp představíme moderní nástroje pro technické výpočty a počítačovou simulaci MATLAB a COMSOL Multiphysics a ukážeme jejich využití ve spojení s celou řadou hi-tech "hraček" (LEGO, Arduino, Raspberry Pi, Kinect, roboti, mobilní zařízení, kamery, ...). Ve spolupráci se slovenským Národním centrem robotiky si letos poprvé budete moci vyzkoušet práci s robotem NAO, makerspace Dílna 21 uspořádá klání Zumo robotů, u kterých budete programovat jejich chování. Také si ukážeme nejnovější nástroje pro analýzu rozsáhlých dat, strojové učení, počítačové vidění, modelování fyzikálních systémů či návrh a ladění řídicích systémů.
V programu akce naleznete přednášky, praktické ukázky i prostor pro vlastní práci pod dohledem našich specialistů. Přednášet budou odborníci z firmy HUMUSOFT s.r.o., MathWorks i další zvaní hosté.
Setkání je určeno všem, kteří se v neformálním prostředí chtějí dozvědět více o možnostech využití inženýrských nástrojů MATLAB a COMSOL Multiphysics. Na své si přijdou jak stávající uživatelé uvedených systémů, tak začátečníci a příznivci výpočetních, modelovacích a simulačních systémů. Nástroje si budete moci vyzkoušet a následně své poznatky a dotazy diskutovat s dalšími účastníky.
V rámci "Technical Computing Camp" bude probíhat i soutež o nejlepší uživatelský projekt. Studenti se mohou zúčastnit se svou diplomovou či bakalářskou prací.
--------------------------
Ivana Křenková, Tue Jun 28 15:35:00 CEST 2016
Nový HW v MetaCentru
MetaCentrum bylo rozšířeno o nový cluster exmag.fzu.cz (FzÚ AV ČR Praha), 640 CPU, 32 uzlů s následujíci HW specifikací
- 2x 10-core Intel Xeon E5-2630 v4, 2.2GHz
- RAM: 128GB (8x 16GB DDR4 ECC, 2133MHz)
- disk: 2x 600GB HDD, SAS, 10krpm
- síť: Infiniband QDR
- Výkon jednoho uzlu podle SPECfp2006: 659 (32,95 na 1 jádro)
Cluster je dostupný v prostředí plánovacího serveru @arien prostřednictvím privátních front exmag a luna a veřejných krátkodobých front. Kompletní seznam dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Ivana Křenková, Wed Jun 22 15:35:00 CEST 2016
11.5.2017 Aktualizace frontendu zuphux.cerit-sc.cz na PBS Pro a OS Centos 7.3
Dne 11. 5. bude frontend zuphux.cerit-sc.cz přenastaven do prostředí @wagap-pro a zároveň dojde k upgrade verze OS (Centos 7.3).
Zároveň dojde k zastavení přijímání nových úloh v prostředí Torque (@wagap). Stávající úlohy se dopočítají na zbylých uzlech. Zbylé výpočetní uzly v Torque budou po uvolnění postupně převáděny do prostředí PBS Pro. Stroje zařazené v PBS Pro jsou v PBSMonu označené nápisem "Pro" https://metavo.metacentrum.cz/pbsmon2/nodes/physical .
S omluvou za komplikace a s díky za pochopení,
Uživatelská podpora centra CERIT-SC
Ivana Křenková, Tue May 10 21:40:00 CEST 2016
Nový HW v MetaCentru
MetaCentrum bylo rozšířeno o nový stroj upol128.upol.cz (UP Olomouc)
- stroj upol128.upol.cz -- SGI UV 2000:
- 16x 8-core Intel Xeon E5-4627v2 3.30GHz
- RAM: 1 TB
- disk: 30TB home+scratch
- vlastník: UP Olomouc
- síť: 1x 1 GE
Stroj upol128 je dostupný přes prioritní frontu vtp vyhrazenou pro skupinu vtp_upol a veřejnou frontu uv_2h.
S přáním příjemného počítání
Ivana Křenková, Wed Apr 20 15:35:00 CEST 2016
Nový HW v MetaCentru
MetaCentrum bylo rozšířeno o nový cluster alfrid (NTIS ZČU)
- cluster alfrid*.meta.zcu.cz -- 15 uzlů, 240 CPU jader, každý s následující specifikací:
- CPU: 2x 8-core Intel Xeon E5-2650v2 2.60GHz
- RAM: 256GB
- disk: 24x 10k 600gb disky, propojené přes SAS do masternodu
- sdílený scratch: 10 TB
- vlastník: NTIS ZČU
- síť: 2x Infiniband 40 Gbit/s, 1x Ethernet 10 Gbit/s
- poznámka: OS Debian8
Cluster alfrid je dostupný přes prioritní frontu iti a přes krátkodobé úlohy z běžné fronty.
S přáním příjemného počítání
Ivana Křenková, Wed Mar 23 15:35:00 CET 2016
ANSYS Update Seminar Brno 8.3. 2016, 9:00 – 13:00
Nabídka pro všechny uživatele a fanoušky systému ANSYS
Na konci ledna 2016 vyšla nová verze ANSYS 17.0. V každé oblasti fyziky přináší řadu zlepšení které uživatelům umožní výrazně zvýšit efektivitu i produktivitu práce.
Přijďte se podívat 8.3. 2016 do hotelu Avanti Brno co nového přináší verze 17.0 pro Vaši oblast výzkumu / práce. Čeká Vás živá demonstrace práce v prostředí, možnost diskuse konkrétních zadání s našimi specialisty a spousta informací ze světa ANSYSu.
Přístup na seminář je pro všechny registrované zdarma, více informací týkajících se semináře a registrační formulář zde: https://www.svsfem.cz/update-ansys17
Nevyvhovuje Vám termín semináře v Brně? Zkuste jiné město případně se s námi spojte rádi Vám sdělíme veškeré možnosti.
Ivana Křenková, Fri Mar 04 07:40:00 CET 2016
Nový HW v MetaCentru
MetaCentrum bylo rozšířeno o nový cluster CERIT-SC:
- cluster zefron.cerit-sc.cz -- 40 uzlů, 320 CPU jader, každý s následující specifikací:
- CPU: 32x 8-core Intel Xeon E5-2650v2 2.60GHz
- RAM: 1 TB
- disk: 4x1TB 10k, 2x 480 GB SSD
- vlastník: CERIT-SC
- síť: 1x Infiniband 40 Gbit/s, 1x Ethernet 10 Gbit/s, 1x Ethernet 1 Gbit/s
- poznámka: Výkon každého uzlu je 1370 bodů SPECfp2006 (cca 34 na jádro). Stroj zefron8 obsahuje 1 GPU kartu NVIDIA Tesla K40
Cluster zefron je dostupný přes standardní frontu na Torque serveru wagap.cerit-sc.cz.
Jeden uzel (zefron8) je osazen GPU kartou NVIDIA Tesla K40, zapůjčenou z Loschmidt Laboratories. GPU úloha se v prostředí CERIT-SC (server @wagap) zadává jako standardní úloha, pouze se specifikací počtu GPU:
-l nodes=1:ppn=X:gpu=1
S přáním příjemného počítání
Ivana Křenková, Thu Jan 28 15:35:00 CET 2016
Nový HW v MetaCentru
MetaCentrum bylo rozšířeno o nové clustery vlastníků ze ZČU a CEITEC MU:
- vSMP cluster (ScaleMP) alfrid.meta.zcu.cz -- 16 uzlů, 256 CPU jader, každý s následující specifikací:
- CPU: 32x 8-core Intel Xeon E5-2650v2 2.60GHz
- RAM: 4 TB
- disk: 24x 10k 600GB, propojené přes SAS do masternodu
- vlastník: NTIS ZČU
- síť: ethernet 10 Gb/s, infiniband 2x40 Gb/s
- poznámka: ScaleMP technologie
ScaleMP cluster alfrid je přístupný prostřednictvím speciální fronty scalemp (Torque server arien.ics.muni.cz). O přístup je třeba požádat (kromě uživatelů ze skupin kky a iti) vlastníky HW, nejlépe emailem na meta@cesnet.cz s kopií na honzas@ntis.zcu.cz.Více informací na https://wiki.metacentrum.cz/wiki/ScaleMP
- HD cluster lex.ncbr.muni.cz -- 25 uzlů, 400 CPU jader, každý s následující specifikací:
- CPU: 2x 8-core Intel Xeon E5-2630v3 2.40GHz
- RAM: 128 GB
- disk: 2x 1TB 10k SATA III
- vlastník: CEITEC MU / NCBR
- síť: Ethernet 1Gb/s, Infiniband QDR
- poznámka: Výkon každého uzlu dle SPECfp2006 je 556.
Cluster lex je přístupný všem zájemcům MetaCentra prostřednictvím front preemptible a backfill (Torque server arien.ics.muni.cz). Uživatelé z CEITEC MU a NCBR mají privilegovaný přístup.
- GPU cluster zubat.ncbr.muni.cz -- 8 uzlů, 128 CPU jader, každý s následující specifikací:
- CPU: 2x 8-core Intel Xeon E5-2630v3 2.40GHz
- RAM: 128 GB
- disk: 2x 1TB 10k SATA III, 2x 480GB SSD
- vlastník: CEITEC MU / NCBR
- síť: Ethernet 1Gb/s, Infiniband QDR
- poznámka: každý uzel obsahuje 2x nVidia Tesla K20Xm 6GB (aka Kepler). Výkon každého uzlu dle SPECfp2006 je 556.
- HD cluster krux.ncbr.muni.cz -- 6 uzlů, 384 CPU jader, každý s následující specifikací:
- CPU: 4x 16-core AMD Opteron 6376 2.3GHz
- RAM: 256 GB
- disk: 2x 1TB 10k SATA III
- vlastník: CEITEC MU / NCBR
- síť: Ethernet 1Gb/s, Infiniband QDR
- poznámka: Výkon každého uzlu dle SPECfp2006 je 726.
Clustery zubat a krux jsou přístupné všem zájemcům MetaCentra prostřednictvím front s maximální dobou běhu 1 den (Torque server arien.ics.muni.cz). Uživatelé z CEITEC MU a NCBR mají privilegovaný přístup.
S přáním příjemného počítání,
Ivana Křenková, Thu Dec 17 15:35:00 CET 2015
Prezentace z Grid Computing Workshop 2015
V úterý 1. prosince se v brněnském hotelu Continental konal další ročník uživatelského semináře Grid Computing Workshop 2015, věnovaný přehledu informací a novinek z českého národního gridového a cloudového prostředí MetaCentrum a CERIT-SC, tentokrát se zaměřením na bioinformatickou vědeckovýzkumnou komunitu.
Letošního ročníku se zúčastnilo bezmála 80 výzkumných pracovníků nejen z České republiky.
Workshop byl organizován projektem MetaCentrum sdružení CESNET a Centrem CERIT-SC při ÚVT MU, za významné spoluúčasti společnosti Atos IT Solutions and Services, s.r.o. Prezentace a fotky z akce jsou k dispozici na stránce semináře http://metavo.metacentrum.cz/cs/seminars/seminar2015/index.html

MetaCentrum & CERIT-SC
Ivana Křenková, Wed Dec 02 14:24:00 CET 2015
Pozvánka na Seminář gridového počítání 2015
Vážení uživatelé,
dovolujeme si Vás pozvat na další ročník Semináře gridového počítání 2015
- Místo konání: Hotel Continental Brno, Kounicova 6, 602 00 Brno
- Zaměření: Seminář bude letos zaměřen na LifeScience (bioinformatika). Cílem semináře je představit služby a novinky v gridovém a cloudovém prostředí MetaCentrum a CERIT-SC.
- Datum: úterý 1. 12. 2015, zahájení v 10 hodin
- Anotace zvané přednášky: Natalia Jiménez, Life Sciences Business Development Manager at Atos: Atos’ vision in Life Sciences giving an overview of the most relevant success cases in the area. Atos as a global IT partner in Bioinformatics projects.
- Jazyk akce: angličtina
Titulárním sponzorem letošního setkání je společnost Atos IT Solutions and Services, s.r.o., mj. dodavatel bioinformatického SW. V rámci dopoledního bloku semináře tak budou odborníci společnosti ATOS prezentovat jaké nástroje nabízejí pro bioinformatiku.

Program semináře je k dispozici na stránce semináře. Na akci je nezbytná registrace, kapacita sálu je omezena. Účast na semináři je bezplatná.
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC.
PS: Seminář je organizován projektem MetaCentrum sdružení CESNET a Centrem CERIT-SC za významné spoluúčasti zmíněného partnera -- společnosti Atos IT Solutions and Services, s.r.o.
Tom Rebok, Mon Nov 02 14:24:00 CET 2015
Navýšení úložné kapacity v Plzni
MetaCentrum v pátek zprovoznilo nové diskové pole (náhrada za staré pole /storage/plzen1/) a došlo tak k navýšení úložné kapacity z 60 TB na 350 TB.
Diskové pole je umístěno v lokalitě Plzeň a je dostupné ze všech clusterů v MetaCentru stejným způsobem jako pole původní (stejný název /storage/plzen1/, NFS4 server storage-plzen1.metacentrum.cz), uživatelské kvóty zůstaly rovněž nezměněny.
Ivana Křenková, Tue Oct 13 13:57:00 CEST 2015
Nový HW v MetaCentru
MetaCentrum bylo rozšířeno o nový cluster ida.meta.zcu.cz, obsahující celkem 28 strojů (560 CPU jader), každý s následující konfigurací:
- CPU: 2x 10-core Intel E5-2650v3 3GHz
- RAM: 128 GB
- disk: 2x 1TB, 10k SATA
- lokalita: ZČU Plzeň
- síť: Ethernet 1Gb/s, Infiniband QDR 32Gb/s
- home: /storage/plzen1
Stroje jsou přístupné přes Torque server arien.ics.muni.cz, po dobu testování jen pro krátší úlohy.
S přáním příjemného počítání,
MetaCentrum
Ivana Křenková, Mon Sep 07 15:35:00 CEST 2015
Big data - Hadoop v MetaCentru
Rádi bychom Vám touto cestou oznámili, že MetaCentrum pro vás spustilo samostatný cluster s platformou Hadoop pro zpracování velkých dat. Prostředí je určeno především pro provádění výpočtů typu Map-Reduce nad rozsáhlými, obvykle nestrukturovanými daty. Služba je doplněna obvyklými nadstavbami (Pig, Hive, Hbase, YARN, …) a plně integrována s infrastrukturou MetaCentra.
Používat ji mohou všichni oprávnění uživatelé MetaCentra po registraci do samostatné skupiny 'hadoop'. V současnosti je v clusteru k dispozice ve 27 uzlech celkem 432 CPU, 3,5 TB RAM a 1 PB diskového prostoru v HDFS. Další informace o této službě vč. odkazů na registrační formulář a postupně rostoucí Wiki s návody najdete na Meta Webu: http://www.metacentrum.cz/cs/hadoop/
S přáním příjemného počítání,
Ivana Křenková, Mon Mar 09 13:57:00 CET 2015
Nové diskové pole MetaCentra
MetaCentrum zprovoznilo nové diskové pole
- /storage/brno6/ -- NFS4 server storage-brno6.ics.muni.cz, 262 TB k dispozici pro uživatelská data k výpočtům
Diskové pole je umístěno v lokalitě Brno a je dostupné ze všech clusterů v MetaCentru. Účty na diskovém poli byly zřízeny automaticky všem členům MetaCentra, není třeba o ně nijak speciálně žádat.
Diskové pole /storage/brno2/ je zaplněno již z 99 %, pokud na něm máte data, zvažte jejich přesun na pole nové, které je v tuto chvíli úplně prázdné. Zaplnění diskových polí můžete sledovat na stránce http://metavo.metacentrum.cz/pbsmon2/nodes/physical a http://metavo.metacentrum.cz/cs/state/personal
Archivní data, která již nepotřebujete bezprostředně k výpočtům, doporučujeme přesunout ze /storage/<location>/home/ do
|/storage/plzen2-archive/ or /storage/jihlava2-archive/ (obojí jsou archivní (HSM) úložiště CESNETu). Získáte tak jistotu, že o svá data nepříjdete, díky archivační politice na HSM budou archovovaná ve 2 kopiích.
https://du.cesnet.cz/wiki/doku.php/cs/navody/home-migrace-plzen/start
Kompletní dokumentaci úložiště najdete na https://du.cesnet.cz/wiki/doku.php/cs/navody/start
Podrobnější informace o dostupných polích viz https://wiki.metacentrum.cz/wiki/Souborové_systémy_v_MetaCentru
Ivana Křenková, Fri Mar 06 13:57:00 CET 2015
Nový HW v MetaCentru
MetaCentrum bylo rozšířeno o nový výpočetní cluster a stroj s velkou pamětí:
- cluster bofur.ics.muni.cz, obsahující celkem 4 stroje (48 CPU jader), každý s následující konfigurací:
- CPU: 2x 6-core Intel Xeon E5-2630v2 @2.60GHz
- RAM: 64GB
- disk: 2x 1TB
- lokalita: Brno
- síť: Infiniband QDR, 2x1Gb/s ethernet
- vlastník: Ústav biologie obratlovců AV ČR v. v. i.
Stroje jsou spravované Torque serverem @arien a přístupné přes frontu vlastníků "ubo" a standardní fronty s délkou trvání do 2 dnů.
- SGI UV2 (SGI UV 2000) stroj urga.cerit-sc.cz (384 CPU jader, 6TB paměti) s následující konfigurací:
- CPU: 48x 8-core Intel Xeon E5-4627v2 3.30GHz
- RAM: 6 TB
- disk: 72 TB scratch
- lokalita: Brno
- síť: 2x 10GE, 6x IB
- vlastník: CERIT-SC MU, FI MU
Stroj je spravovaný Torque serverem @wagap a přístupný přes frontu "uv". Výkon každého uzlu dle SPECfp2006: 13198 (34.37 na jádro).
S přáním příjemného počítání,
MetaCentrum & CERIT-SC
Ivana Křenková, Wed Jan 21 15:35:00 CET 2015
Přestěhování a přejmenování novější části clusteru Zewura
Část clusteru zewura9 - zewura20 byla přestěhovaná do nově vybudovaného sálu centra CERIT-SC a zprovozněna pod novým názvem zebra1.cerit-sc.cz - zebra12.cerit-sc.cz (z důvodu fyzicky odlišné lokality). Parametry a režim přístupu ke clusteru zůstávají stejné.
S přáním příjemného počítání,
MetaCentrum
Ivana Křenková, Fri Nov 14 15:35:00 CET 2014
Pozvánka na Seminář gridového počítání 2014 -- Matlab & aktuality infrastruktur
Vážení uživatelé,
dovolujeme si Vás pozvat na další ročník Semináře gridového počítání 2014, který se bude konat dne 2. prosince 2014 (cca 10-17hod.) v Praze na Masarykově koleji ČVUT, Thákurova 1.
Registrace na seminář, který je zdarma přístupný nejen uživatelům národního gridu, je k dispozici na http://metavo.metacentrum.cz/metareg/
Seminář bude věnován přehledu informací a novinek o českém národním gridovém a cloudovém prostředí MetaCentrum a CERIT-SC (nový plánovací systém, nové výpočetní zdroje, novinky a tipy ve využití infrastruktur, výsledky spoluprací s uživatelskými skupinami, atp.).
Titulárním sponzorem letošního setkání je společnost Humusoft s.r.o., mj. dodavatel výpočetního prostředí MATLAB. V rámci dopoledního bloku semináře tak budou odborníci společnosti Humusoft prezentovat přehled možností vědeckovýzkumného využití nástroje MATLAB, včetně prezentace možností paralelního, distribuovaného a GPU počítání. Prezentovány budou i informace o efektivním spouštění Matlab výpočtů v prostředí námi poskytované infrastruktury. Více informací najdete na stránkách semináře.
V rámci semináře bychom rádi uvítali i 3-4 prezentace Vás, našich uživatelů, které posléze rádi odměníme "děkovacím záznamem" a tím navýšením Vašeho fairshare indikátoru (=> rychlejším spouštění Vašich úloh). Návrhy prezentací během cca 15 minut informujících o Vašem výzkumu realizovaném na námi poskytovaných infrastrukturách nám prosíme zasílejte do 23. listopadu na adresu meta@cesnet.cz .
Poznámka: Vámi prezentovaný výzkum vůbec nemusí souviset s Matlabem -- v rámci těchto prezentací bychom Vás rádi poprosili především o náhled do Vašich výzkumných aktivit a výsledků (a přínosů, které Vašemu výzkumu naše infrastruktura poskytuje), ať už je realizujete v jakémkoliv nástroji...
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC.
PS: Seminář je organizován projektem MetaCentrum sdružení CESNET a Centrem CERIT-SC za významné spoluúčasti zmíněného partnera -- společnosti Humusoft s.r.o., výhradního zástupce americké firmy MathWorks, Inc. pro Českou republiku a Slovensko.
Tom Rebok, Fri Nov 07 14:24:00 CET 2014
Pozvánka na slavnostní otevření nových prostor CERIT
Zveme všechny uživatele MetaCentra na slavnostní otevření a zahájení provozu Centra vzdělávání, výzkumu a inovací pro ICT v Brně (CERIT), které se koná v pátek 19. září 2014 v nových prostorách Fakulty informatiky MU a Ústavu výpočetní techniky, Botanická 68 a, Brno.
Zájemce zveme zejména na Workshop CERIT-SC a na prohlídku nových prostor FI a ÚVT, zejména pak některých zajímavých laboratoří, výpočetních sálů a poslucháren.
V 7. patře vědecko-technického parku bude k vidění přehlídka vědeckých posterů doktorských studentů FI. Jejich autoři budou k dispozici pro případné dotazy mezi 12.30 - 13.30.
Výběr z programu:
12:30 – 13:30 posterová soutěž, 7. patro vědecko-technického parku
od 13:00 vernisáž výstavy (Ateliér grafického designu) a prohlídka prostor
13:30 – 15:00 Workshop na téma Spolupráce mezi CERIT-SC, výzkumníky a studenty, A217
15:00 – 16:00 Setkání absolventů FI MU, A217
Více informací k průběhu akce najdete na stránce CERIT-SC, partnera akce.
Ivana Křenková, Tue Sep 09 12:40:00 CEST 2014
MetaCentrum: novinky infrastruktury
Aktuální informace o novinkách infrastruktur MetaCentrum a CERIT-SC.
Stručné shrnutí novinek:
- počítáte v aplikaci Amber? Zakoupili a zpřístupnili jsme jeho nejnovější verzi (Amber ver. 14)...
- hledáte webový portál pro zadávání biomedicínských výpočtů? Zkuste naší GALAXY...
- udržujete data centrálně instalovaných aplikací (aplikační databáze) ve svých domovských adresářích? Případně, chtěli byste založit sdílený adresář pro udržování dat Vašeho projektu? Požádejte nás o vytvoření tzv. "projektového adresáře"...
- měli byste zájem o proškolení na efektivní využívání služeb MetaCentra a CERIT-SC? Připravujeme hands-on školící seminář v Praze...
- reinstalovali jsme další clustery na Debian 7, včetně čelních uzlů
- PLUS další sada nově instalovaných/upgradovaných aplikací...
A nyní detailněji:
1. Amber:
- zakoupili jsme licenci nejnovější verze nástroje pokrývajícího široké spektrum metod výpočetní chemie, využitelnou všemi uživateli MetaCentra
- připravili jsme moduly podporující jak sériové/distribuované výpočty (modul "amber-14"), tak výpočty na grafických procesorech (GPU - modul "amber-14-gpu")
- obě varianty jsou pro maximální efektivitu kompilovány Intel kompilátorem s podporou Intel MKL knihoven
- více viz https://wiki.metacentrum.cz/wiki/Amber
2. GALAXY:
- Galaxy (viz http://galaxyproject.org/ ) je webová platforma pro jednoduchou a transparentní realizaci bioinformatických výpočtů
- připravili jsme vlastní Galaxy instanci, která podporuje vícero bioinformatických nástrojů (např. bfast, blast, bowtie2, bwa, cuff tools, fastx and fastqc tools, fastqc, mosaik, muscle, repeatexplorer, rsem, samtools, tophat2 atp.)
- (další nástroje lze doplnit na požádání)
- výpočty, sestavené v rámci webového rozhraní Galaxy, jsou poté prováděny skrze standardní gridové úlohy
- bližší informace viz https://wiki.metacentrum.cz/wiki/Galaxy_application , přímý přístup na portál skrze https://galaxy.metacentrum.cz (standardní uživatelské jméno a heslo)
3. Projektové adresáře:
- prosíme, ozvěte se nám, pokud ve svých domovských adresářích udržujete objemná data centrálně instalovaných aplikací (např. databáze SW), které nebylo vhodné umisťovat na AFS -- přesuneme je do projektových adresářů
- tyto můžete využít i pro sdílení dat Vašeho projektu -- tato data budou umístěna mimo Vaše domovské adresáře v /storage/projects/MUJPROJEKT
- podpora sdílení dat může být realizována vytvořením vlastní skupiny uživatelů, viz předchozí novinka
4. Hands-on školící seminář:
- připravujeme hands-on školící seminář pro efektivní využívání služeb infrastruktur MetaCentra a CERIT-SC
- předpokládané konání bude v termínu 4.-15.8. (v závislosti na výsledku hlasování), konat se bude v Praze (v budoucnu i v dalších městech)
- více informací a registrační formulář naleznete na https://www.surveymonkey.com/s/MetaSeminar-Praha
5. Nově instalované/upgradované aplikace:
Komerční software:
1. Amber
- zakoupena licence nejnovější verze 14 programu Amber, viz výše
2. Geneious
- upgrade na verzi 7.1.5
Volně dostupný software:
* blast+ (ver. 2.2.29)
- a program that compares nucleotide or protein sequences to sequence databases and calculates the statistical significance of matches
* bowtie2 (ver. 2.2.3)
- Bowtie 2 is an ultrafast and memory-efficient tool for aligning sequencing reads to long reference sequences.
* cellprofiler (ver. 2.1.0)
- an open-source software designed to enable biologists to quantitatively measure phenotypes from thousands of (cell/non-cell) images automatically
* cuda (ver. 6.0)
- CUDA Toolkit 6.0 (libraries, compiler, tools, samples)
* diyabc (ver. 2.0.4)
- user-friendly approach to Approximate Bayesian Computation for inference on population history using molecular markers
* eddypro (ver. 20140509)
- a powerful software application for processing eddy covariance data
* fsl (ver. 5.0.6)
- a comprehensive library of analysis tools for FMRI, MRI and DTI brain imaging data
* gerp (ver. 05-2011)
- GERP identifies constrained elements in multiple alignments by quantifying
* gpaw (ver. 0.10, Python 2.6+2.7, Intel+GCC variants)
- density-functional theory (DFT) Python code based on the projector-augmented wave (PAW) method and the atomic simulation environment (ASE)
* gromacs (ver. 4.6.5)
- a program package enabling to define minimalization of energy of system and dynamic behaviour of molecular systems
* hdf5 (ver. 1.8.12-gcc-serial)
- data model, library, and file format for storing and managing data.
* htseq (ver. 0.6.1)
- a Python package that provides infrastructure to process data from high-throughput sequencing assays
* infernal (ver. 1.1, GCC+Intel+PGI variants)
- search sequence databases for homologs of structural RNA sequences
* mono (ver. 3.4.0)
- open-source .NET implementation allowing to run C# applications
* openfoam (ver. 2.3.0)
- a free, open source CFD software package
* phylobayes (ver. mpi-1.5a)
- Bayesian Markov chain Monte Carlo (MCMC) sampler for phylogenetic inference
* phyml (ver. 3.0-mpi)
- estimates maximum likelihood phylogenies from alignments of nucleotide or amino acid sequences
* picard (ver. 1.80 + 1.100)
- a set of tools (in Java) for working with next generation sequencing data in the BAM format
* qt (ver. 4.8.5)
- cross-platform application and UI framework
* R (ver. 3.1.0)
- a software environment for statistical computing and graphics
* rpy (ver. 1.0.3)
- python wrapper for R
* rpy2 (ver. 2.4.2)
- python wrapper for R
* rsem (ver. 1.2.8)
- package for estimating gene and isoform expression levels from RNA-Seq data
* soapalign (ver. 2.21)
- The new program features in super fast and accurate alignment for huge amounts of short reads generated by Illumina/Solexa Genome Analyzer.
* soapdenovo (ver. trans-1.04)
- de novo transcriptome assembler basing on the SOAPdenovo framework
* spades (ver. 3.1.0)
- St. Petersburg genome assembler. It is intended for both standard (multicell) and single-cell MDA bacteria assemblies.
* stacks (ver. 1.19)
- a software pipeline for building loci from short-read sequences
* tablet (ver. 1.14)
- a lightweight, high-performance graphical viewer for next generation sequence assemblies and alignments
* tassel (ver. 3.0)
- TASSEL has multiple functions, including associati on study, evaluating evolutionary relationships, analysis of linkage disequilibrium, principal component analysis, cluster analysis, missing data imputation and data visualization
* tcltk (ver. 8.5)
- powerful but easy to learn dynamic programming language and graphical user interface toolkit
* tophat (ver. 2.0.12)
- TopHat is a fast splice junction mapper for RNA-Seq reads.
* trinotate (ver. 201407)
- comprehensive annotation suite designed for automatic functional annotation of transcriptomes, particularly de novo assembled transcriptomes, from model or non-model organisms
* wgs (ver. 8.1)
- whole-genome shotgun (WGS) assembler for the reconstruction of genomic DNA sequence from WGS sequencing data
S přáním úspěšných výpočtů
Tom Rebok,
MetaCentrum + CERIT-SC.
Tom Rebok, Mon Jul 28 12:39:00 CEST 2014
Nový plánovač v CERIT-SC
V uplynulých letech se centrum CERIT-SC společně s MetaCentrem zabývalo zhodnocením efektivity stávajícího Torque plánovače. Výsledkem dlouhodobého výzkumu bylo vyvinutí nového plánovače založeného na tvorbě rozvrhu, který řeší nejkritičtější nedostatky původního plánovače.
Nový plánovač bude nasazen na Torque serveru @wagap příští týden. Aktuální běžící úlohy nebudou přepnutím plánovače ovlivněny.
Mezi klíčové výhody nového rozvrhového plánovače patří:
- Plánovač je schopen fungovat efektivněji díky implementaci tzv. backfillingu -- spouštění krátkých výplňových úloh v době, kdy plánovač čeká na uvolnění většího množství zdrojů pro velké distribuované úlohy. Plánovač tak redukuje dobu čekání úloh a zvyšuje míru využití strojů.
- Plánovač si interně vytváří rozvrh, v každém okamžiku dokáže odhadnout přibližný čas spuštění každé úlohy. Uživatelé dostávají informaci o přibližné době spuštění a o pořadí úloh v rozvrhu.
Příkaz "qstat" i grafický interface PBSmon začne zobrazovat přibližnou dobu startu a ukončení úlohy a zdroje, na kterých je úloha plánována.
Přehled o aktuálních úlohách je k dispozici na stránce http://metavo.metacentrum.cz/schedule-overview/ a také v aplikaci PBSmon, tak jako doposud.
Popis nového plánovače a hlavní odlišnosti jsou popsané v dokumentaci na wiki:
Největší změnou je skutečnost, že plánovač nepoužívá fronty, s výjímkou prioritních front dedikovaných uživatelské komunitě na základě speciální domluvy.
Protože nasazení nového plánovače je významným zásahem do infrastruktury, žádáme uživatele, aby nám hlásili neobvyklé chování plánovače na adresu uživatelské podpory support@cerit-sc.cz. Uživatelská podpora bude po přechodnou dobu posílena o vývojový tým nového plánovače.
Ivana Křenková, Thu Jul 17 12:40:00 CEST 2014
Zpřístupnění HSM datových úložišť CESNET v Brně
Datový prostor na hierarchickém úložišti (HSM) v Brně je nyní přímo přístupný ze všech strojů MetaCentra a CERIT-SC. Úložiště je připojeno v adresáři /storage/brno5-archive/home/
Uživatelé z virtuální organizace MetaCentrum mají k dispozici diskový prostor standardně s kvótou 5 TB, starší data jsou přesouvána na pásky a MAID. Kvóta může být na požádání navýšena.
Pro HSM platí odlišné nastavení (platí pro Brno, Jihlavu i Plzeň):
- Domovský adresář /storage/brno5-archive/home/<login>/ slouží pro konfigurační soubory pro přístup k úložišti, má maličkou kvótu, nedokládejte do něj užitečná data. K ukládání dat slouží prostor odkazovaný symbolickým linkem v domovském adresáři, tj. /storage/brno5-archive/home/<login>/VO_metacentrum-tape_tape/. Nastavená migrační politika zajišťuje, že data jsou vždy uložena redundantně.
- Jsou připojeny všechny svazky, které na úložišti v Brně existují, a pomocné adresáře. Pokud máte uložena data v rámci jiné virtuální organizace, jsou také na strojích MetaCentra dostupná.
Aktuální využití úložišť: http://metavo.metacentrum.cz/pbsmon2/nodes/physical#storages_hsm
Návod, jak data kopírovat: https://wiki.metacentrum.cz/wiki/Archivní_data
Úložiště HSM se hodí zejména pro odkládání archivních dat, se kterými se již aktivně nepracuje. Nepoužívejte jej pro živá data nebo pro data, nad kterými se bezprostředně provádějí výpočty. Úložiště je hierarchické, to znamená, že systém automaticky přesouvá déle nepoužívaná data na pomalejší média, v tomto případě magnetické pásky a vypínatelné disky (MAID). Data jsou přitom stále pro uživatele viditelná v souborovém systému, jen je třeba počítat s tím, že přístup k dlouho nepoužitým datům může být pomalejší.
Kompletní dokumentaci úložiště najdete na https://du.cesnet.cz/
Úložiště je provozováno Oddělením datových úložišť CESNET, http://du.cesnet.cz.
S dotazy a žádostmi na uživatelskou podporu se obracejte na podporu MetaCentra (meta@cesnet.cz).
Ivana Křenková, Fri Jun 27 12:40:00 CEST 2014
MetaCentrum: novinky infrastruktury
Zasíláme Vám aktuální informace o novinkách infrastruktur MetaCentrum a CERIT-SC.
Stručné shrnutí novinek:
- Pracujete v týmu a potřebujete si vzájemně sdílet data? Posílili jsme podporu sdílení dat ve skupině...
- Počítáte v aplikaci Gaussian? Zakoupili jsme paralelní rozšíření Gaussian-Linda (využitelné pro všechny uživatele MetaCentra)...
- Využíváte pro své distribuované výpočty Infiniband? Žádejte plánovač o uzly vzájemně propojené IB sítí skrze novou volbu "-l place"...
- PLUS další sada nově instalovaných/upgradovaných aplikací...
A nyní detailněji:
1. Podpora sdílení dat ve skupinách:
- na požádání Vám založíme systémovou skupinu, v rámci které si budete moci sami spravovat její členy (skrze grafické rozhraní systému Perun)
- podporujeme sdílení dat skupinou v rámci domovských adresářů uživatelů i sdílení dat skupinou v rámci scratchových adresářů
- pro bližší informace navštivte https://wiki.metacentrum.cz/wiki/Sdílení_dat_ve_skupině
2. Gaussian-Linda:
- zakoupili jsme licenci paralelního rozšíření programu Gaussian -- Gaussian-Linda, využitelnou všemi uživateli MetaCentra
- paralelní/distribuované zpracování Vašich výpočtů je dostupné skrze modul "g09-D.01linda"
- potřebné volby jsou (při požadavku úlohy na více uzlů) do vstupního Gaussian souboru automaticky zaváděny skriptem "g09-prepare"
- bližší informace viz https://wiki.metacentrum.cz/wiki/Gaussian-GaussView
3. Přidělování uzlů vzájemně propojených Infiniband sítí distribuovaným výpočtům:
- dosavadní obcházení nedokonalosti plánovače při požadavku na Infiniband uzly (skrze požadavek na uzly konkrétního clusteru) již není nutné
- při požadavku na uzly propojené Infiniband sítí doplňte volbu "-l place=infiniband" (tj. např. "qsub -l nodes=2:ppn=2:infiniband -l place=infiniband ...") -- plánovač Vám automaticky nalezne uzly (vzájemně propojené IB sítí), které mohou potenciálně být i z různých clusterů
- do budoucna plánujeme volbu "-l place=infiniband" doplňovat automaticky při požadavku na Infiniband uzly, tj. dostatečným požadavkem bude "-l nodes=X:ppn=Y:infiniband"...
- bližší informace viz https://wiki.metacentrum.cz/wiki/Paralelní_aplikace
4. Nově instalované/upgradované aplikace:
Komerční software:
1. Gaussian Linda
- Linda parallel programming model involves a master process, which runs on the current processor, and a number of worker processes which can run on other nodes of the network
- pořízení paralelního rozšíření Gaussian-Linda
2. Matlab
- an integrated system covering tools for symbolic and numeric computations, analyses and data visualizations, modeling and simulations of real processes, etc.
- upgrade na verzi 8.3
3. CLC Genomics Workbench
- a tool for analyzing and visualizing next generation sequencing data, which incorporates cutting-edge technology and algorithms
- upgrade na verzi 7.0
4. PGI Cluster Development Kit
- a collection of tools for development parallel and serial programs in C, Fortran, etc.
- upgrade na verzi 14.3
Volně dostupný software:
* bayarea (ver. 1.0.2)
- Bayesian inference of historical biogeography for discrete areas
* bioperl (ver. 1.6.1)
- a toolkit of perl modules useful in building bioinformatics solutions in Perl
* blender (ver. 2.70a)
- Blender is a free and open source 3D animation suite
* cdhit (ver. 4.6.1)
- program for clustering and comparing protein or nucleotide sequences
* cuda (ver. 5.5)
- CUDA Toolkit 5.5 (libraries, compiler, tools, samples)
* eddypro (ver. 20140509)
- a powerful software application for processing eddy covariance data
* flash (ver. 1.2.9)
- very fast and accurate software tool to merge paired-end reads from next-generation sequencing experiments
* fsl (ver. 5.0.6)
- a comprehensive library of analysis tools for FMRI, MRI and DTI brain imaging data
* gcc (ver. 4.7.0 and 4.8.1)
- a compiler collection, which includes front ends for C, C++, Objective-C, Fortran, Java, Ada and libraries for these languages
* gmap (ver. 2014-05-06)
- A Genomic Mapping and Alignment Program for mRNA and EST Sequences, Genomic Short-read Nucleotide Alignment Program
* grace (ver. 5.1.23)
- a WYSIWYG tool to make two-dimensional plots of numerical data
* heasoft (ver. 6.15)
- a Unified Release of the FTOOLS and XANADU Software Packages
* hdf5 (ver. 1.8.12, GCC+Intel+PGI versions)
- data model, library, and file format for storing and managing data.
* hmmer (ver. 3.1b1, GCC+Intel+PGI versions)
- HMMER is used for searching sequence databases for homologs of protein sequences, and for making protein sequence alignments.
* igraph (ver. 0.7.1, GCC+Intel versions)
- collection of network analysis tools
* java3d
- Java 3D
* jdk (ver. 8)
- Oracle JDK 8.0
* jellyfish (ver. 2.1.3)
- tool for fast and memory-efficient counting of k-mers in DNA
* lagrange (ver. 0.20-gcc)
- likelihood models for geographic range evolution on phylogenetic trees, with methods for inferring rates of dispersal and local extinction and ancestral ranges
* molden (ver. 5.1)
- a package for displaying Molecular Density from the Ab Initio packages GAMESS-* and GAUSSIAN and the Semi-Empirical packages Mopac/Ampac, etc.
* mosaik (ver. 1.1 and 2.1)
- a reference-guided assembler
* mugsy (ver. v1r2.3)
- multiple whole genome aligner
* oases (ver. 0.2.08)
- Oases is a de novo transcriptome assembler designed to produce transcripts from short read sequencing technologies, such as Illumina, SOLiD, or 454 in the absence of any genomic assembly.
* opencv (ver. 2.4)
- OpenCV c++ library for image processing and computer vision. (http://meta.cesnet.cz/wiki/OpenCV)
* openmpi (ver. 1.8.0, Intel+PGI+GCC versions)
- an implementation of MPI
* OSAintegral (ver. 10.0)
- a software tool deditaced for analysis of the data provided by the INTEGRAL satellite
* omnetpp (ver. 4.4)
- extensible, modular, component-based C++ simulation library and framework, primarily for building network simulators.
* p4vasp (ver. 0.3.28)
- a collection of both secure hash functions and various encryption algorithms
* pasha (ver. 1.0.10)
- parallel short read assembler for large genomes
* perfsuite (ver. 1.0.0a4)
- a collection of tools, utilities, and libraries for software performance analysis (produced by SGI)
* perl (ver. 5.10.1)
- Perl programming language
* phonopy (ver. 1.8.2)
- post-process phonon analyzer, which calculates crystal phonon properties from input information calculated by external codes
* picard (ver. 1.80 and 1.100)
- a set of tools (in Java) for working with next generation sequencing data in the BAM format
* quake (ver. 0.3.5)
- tool to correct substitution sequencing errors in experiments with deep coverage
* R (ver. 3.0.3)
- a software environment for statistical computing and graphics
* sga (ver. 0.10.13)
- memory efficient de novo genome assembler
* smartflux (ver. 1.2.0)
- a powerful software application for processing eddy covariance data
* theano (ver. 0.6)
- Python library that allows to define, optimize, and evaluate mathematical expressions involving multi-dimensional arrays efficiently
* tophat (ver. 2.0.8)
- TopHat is a fast splice junction mapper for RNA-Seq reads.
* trimmomatic (ver. 0.32)
- A flexible read trimming tool for Illumina NGS data
* trinity (ver. 201404)
- novel method for the efficient and robust de novo reconstruction of transcriptomes from RNA-seq data
* velvet (ver. 1.2.10)
- an assembler used in sequencing projects that are focused on de novo assembly from NGS technology data
* VESTA (ver. 3.1.8)
- 3D visualization program for structural models and 3D grid data such as electron/nuclear densities
* xcrysden (ver. 1.5)
- a crystalline and molecular structure visualisation program aiming at display of isosurfaces and contour
S přáním úspěšných výpočtů
Tomáš Rebok,
MetaCentrum NGI.
Tom Rebok, Fri Jun 06 08:45:00 CEST 2014
Pozvánka na kurz Architektura SGI UV2 13.-15.5. 2014
Centrum CERIT-SC pořádá ve spolupráci s SGI pokročilý kurz o architektuře systému SGI UV2 a optimalizaci aplikací pro běh na ní.
Primární cílovou skupinou jsou uživatelé aplikací s vysokou náročností na výkon, a uživatelé, kteří ke své práci využívají vlastní kód nebo existující aplikační kód modifikují.
Kurz je plánován na 2,5 dne, v termínu 13.-15.5.2014 v prostorách CERIT-SC v Brně, Šumavská 15 (viz http://www.cerit-sc.cz/cs/about/Contacts/).
Bude veden v angličtině, přednášejícím je expert SGI dr. Gabriel Koren. V případě zájmu je možné účastnit se videokonferenčně. Pořízení záznamu není možné.
Předpokládaná probíraná témata jsou:
- krátký úvod do architektur a problematiky HPC
- přehled hardware a software UV2
- nástroje pro monitorování a vyhodnocení efektivity využití systému
- kompilátory Intel -- pokročilé použití
- praktické profilování programů, vyhodnocení výkonu, hledání kritických míst
- specifické implementace OpenMP a MPI pro UV2 a jejic ladění
- hybridní paralelizace
Kapacita kurzu je omezena, zájemce prosíme, aby se registrovali na http://www.cerit-sc.cz/registrace/. V poznámce uveďte, dáváte-li přednost videokonferenci.
Praktické ukázky profilování a optimalizace bychom rádi předvedli na skutečných problémech a aplikacích, nejen na uměle vytvořených příkladech. Uvítáme proto vaše vstupy. K tomu potřebujeme:
- stručný popis problému
- zdrojový kód programu a instrukce k jeho kompilaci
- vstupní data pro typický běh
Program by měl být schopen potenciálně využít významnou část UV2 v CERIT-SC (tj. alespoň desítky jader CPU nebo stovky GB RAM). Doba běhu na dodaných vstupních datech by měla být v rozmezí 1-20 minut.
Během kurzu se za pomoci školícího tyto programy pokusíme co nejvíce vylepšit z pohledu efektivity jejich běhu na UV2. Přínosem pro vás tedy bude nejen samotný proces optimalizace ale i přímo jeho výsledek.
Prosíme o zaslání návrhů na takové problémy k řešení do 30.4.2014 na <ljocha@ics.muni.cz>. Nedokážeme odhadnout, jak velký bude zájem, dovolí-li to rozsah kurzu, zahrneme do programu všechny.
Těšíme se na hojnou účast a zajímavé příspěvky k programu.
Aleš Křenek <ljocha@ics.muni.cz>
za tým CERIT-SC
Ivana Křenková, Thu Apr 24 07:40:00 CEST 2014
Zpřístupnění HSM datových úložišť CESNET v Jihlavě
Datový prostor na hierarchickém úložišti (HSM) v Jihlavě je nyní přímo přístupný ze všech strojů MetaCentra a CERIT-SC. Úložiště je připojeno v adresáři /storage/jihlava2-archive/home/
Uživatelé z virtuální organizace MetaCentrum mají k dispozici diskový prostor standardně s kvótou 5 TB, starší data jsou přesouvána na pásky a MAID. Kvóta může být na požádání navýšena.
Pro HSM platí odlišné nastavení (platí pro Jihlavu i Plzeň):
- Domovský adresář /storage/jihlava2-archive/home/<login>/ slouží pro konfigurační soubory pro přístup k úložišti, má maličkou kvótu, nedokládejte do něj užitečná data. K ukládání dat slouží prostor odkazovaný symbolickým linkem v domovském adresáři, tj. /storage/jihlava2-archive/home/<login>/VO_metacentrum-tape_tape/. Nastavená migrační politika zajišťuje, že data jsou vždy uložena redundantně.
- Jsou připojeny všechny svazky, které na úložišti v Jihlavě existují, a pomocné adresáře. Pokud máte uložena data v rámci jiné virtuální organizace, jsou také na strojích MetaCentra dostupná.
--------------------------------------------------------------------------------------------------------------------------------------
|Prosíme zvažte přesun svých archivních dat, která nepotřebujete bezprostředně
|k výpočtům (ze svazků /storage/<lokalita>/home/ na některé z připojených HSM
|(/storage/plzen2-archive/ nebo /storage/jihlava2-archive/).
|Na brněnských svazcích dochází místo. Navíc získáte výhodu zálohování ve dvou kopiích.
--------------------------------------------------------------------------------------------------------------------------------------
Aktuální využití úložišť: http://metavo.metacentrum.cz/cs/state/personal
Návod, jak data kopírovat: https://wiki.metacentrum.cz/wiki/Archivní_data
Úložiště HSM se hodí zejména pro odkládání archivních dat, se kterými se již aktivně nepracuje. Nepoužívejte jej pro živá data nebo pro data, nad kterými se bezprostředně provádějí výpočty. Úložiště je hierarchické, to znamená, že systém automaticky přesouvá déle nepoužívaná data na pomalejší média, v tomto případě magnetické pásky a vypínatelné disky (MAID). Data jsou přitom stále pro uživatele viditelná v souborovém systému, jen je třeba počítat s tím, že přístup k dlouho nepoužitým datům může být pomalejší.
Dokumentaci k adresářové struktuře HSM úložiště najdete na
https://du.cesnet.cz/wiki/doku.php/cs/navody/home-migrace-plzen/start
Kompletní dokumentaci úložiště najdete na https://du.cesnet.cz/wiki/doku.php/cs/navody/start
Úložiště je provozováno Oddělením datových úložišť CESNET, http://du.cesnet.cz.
S dotazy a žádostmi na uživatelskou podporu se obracejte na podporu MetaCentra (meta@cesnet.cz).
Ivana Křenková, Mon Apr 07 12:40:00 CEST 2014
Změna nastavení svazku /scratch
Dobrý den,
z důvodu získání lepšího přehledu o datech ve scratchích a možnosti identifikace starých nepotřebných dat kvůli promazávání, si Vás dovolujeme upozornit, že zápis do základního scratchového adresáře /scratch*/$USER bude od
**** 1. května 2014 ZNEMOŽNĚN ****
tj. úlohy budou moci zapisovat pouze do přiděleného podadresáře /scratch*/$USER/job_JOBID.
Ujistěte se prosím, že Vaše skripty pracují s proměnnou $SCRATCHDIR, ukazatelem na scratchový prostor, který byl Vaší úloze při startu přidělen. Příklad ukázkového skriptu je dostupný na wiki.
Rovněž prosíme, abyste své nové úlohy zadávali s proměnnou $SCRATCHDIR (pokud využíváte scratche). V opačném případě skončí po tomto datu neúspěchem (nemožností zapsat data do základního scratchového adresáře).
Poznámka: Pokud práci s proměnnou $SCRATCHDIR využíváte již nyní, žádná změna se Vás nedotkne -- ve svých skriptech nemusíte nic upravovat.
Napište nám, pokud budete potřebovat pomoc s úpravou svých skriptů, či pokud by Vaše dlouhotrvající výpočty mohly být touto změnou postiženy. Napište nám rovněž, pokud ke svým výpočtům potřebujete zápis do základního scratchového adresáře např. z důvodu sdílení objemných dat mezi úlohami. V tomto případě Vám v základním scratchovém adresáři vytvoříme prostor určený pro uložení těchto dat.
Více informací o svazku /scratch najdete také na wiki: https://wiki.metacentrum.cz/wiki/Úložiště_scratch
S diky za pochopení a s přáním úspěšných výpočtů,
Ivana Křenková
Ivana Křenková, Tue Apr 01 10:51:00 CEST 2014
TRVALÁ ODSTÁVKA diskového pole /storage/brno1
V rámci avizované komplexní údržby a analýzy stavu diskového pole /storage/brno1 se bohužel ukázalo, že jeho bezporuchový provoz již není dále udržitelný a mj. i vzhledem k jeho stáří (jedná se o naše nejstarší diskové pole) jsme nuceni jej ***TRVALE ODSTAVIT***.
Důsledky, které z tohoto plynou pro Vás, uživatele:
- Diskové pole /storage/brno1 je aktuálně přístupno v režimu "JEN PRO ČTENÍ"
- Aktuálně probíhá kopírování Vašich dat ze /storage/brno1 na diskové do Jihlavy (do samostatného servisního prostoru, mimo Vaše domovské adresáře)
- současně s tímto Vám budou v Jihlavě dočasně navýšeny kvóty (na hodnotu kvota_brno1 + kvota_jihlava1)
- Po vykopírování Vašich dat bude diskové pole odstaveno; Vaše data pak budou v běžném režimu (tj. "čtení-zápis") opět zpřístupněna skrze /storage/brno1 (bude odkazovat na nové úložiště)
- V průběhu tohoto roku plánujeme do Brna nákup nového diskového pole, které tak nahradí/navýší omezení dostupné kapacity způsobené odstávkou.
***DŮLEŽITÉ:***
- prosíme, pokud v nejbližší době (do opětovného zpřístupnění dat v běžném režimu) plánujete zadat nějaké výpočty pracující s daty uloženými na /storage/brno1, *vykopírujte si tato data* do jiného diskového pole a pracujte nad nimi (nedokážeme Vám zaručit, že v okamžiku překlopení Vám nezhavarujou úlohy)
- prosíme, od tohoto okamžiku *NEPOUŽÍVEJTE* přístup ke svým datům skrze /storage/home -- tato cesta, doposud odkazující na data diskového pole /storage/brno1, bude v rámci této akce DEFINITIVNĚ ZRUŠENA.
Omlouváme se za komplikace způsobené touto odstávkou.
S díky za pochopení a s přáním úspěšných výpočtů
Tom Rebok.
Tom Rebok, Wed Feb 26 10:51:00 CET 2014
Provozní změny MetaCentra a CERIT-SC: podpora paralelních/distribuovaných výpočtů v Matlabu + nový SW
Představujeme Vám další pravidelnou informaci o provozních novinkách infrastruktur MetaCentrum a CERIT-SC:
1. Podpora paralelních/distribuovaných výpočtů v Matlabu -- zjednodušení práce s přípravou paralelního/distribuovaného poolu workerů:
- připravili jsme dvě Matlabovské funkce (dostupné z prostředí Matlabu) pro přípravu paralelního (MetaParPool) a distribuovaného (MetaGridPool) poolu workerů
- obě funkce automaticky detekují úloze přidělené zdroje -- počet nastartovaných workerů je tak automaticky detekován z počtu přidělených výpočetních jader
- pro distribuované výpočty tak odpadá nutnost práce s PBS serverem a zadáváním nových úloh -- celý výpočet probíhá v rámci nastartované úlohy
- více informací viz https://wiki.metacentrum.cz/wiki/Matlab#Distribuovan.C3.A9_a_paraleln.C3.AD_po.C4.8D.C3.ADt.C3.A1n.C3.AD_v_MATLABu
- příklady použití viz /software/matlab-meta_ext/examples
- v případě dotazů či podnětů na úpravy nás kontaktujte
2. Nově instalovaný/pořízený SW:
Pozn.: Bližší informace o instalovaných aplikacích jsou k dispozici na stránce aplikací: https://wiki.metacentrum.cz/wiki/Kategorie:Aplikace
KOMERČNÍ PROGRAMY:
Wien2k (wien2k-13.1)
- a program package that allows to perform electronic structure calculations of solids using density functional theory (DFT) -- compiled with Intel MKL and MPI support
- version 13.1, available for *Wien2k license holders only*
VOLNĚ DOSTUPNÉ PROGRAMY:
* allpathslg (ver. 48203) - short read genome assembler from the Computational Research and Development group at the Broad Institute
* atlas (ver. 3.10.1, compiled by gcc4.4.5 and gcc4.7.0) - The ATLAS (Automatically Tuned Linear Algebra Software) project is an ongoing research effort focusing on applying empirical techniques in order to provide portable performance.
* cm5pac (ver. 2013) - a package to carry out a calculation of CM5 partial atomic charges using Hirshfeld atomic charges from Gaussian 09's output file (calculations performed in Revision D.01 of Gaussian 09 may produce wrong CM5 charges in certain cases)
* damask (ver. 2689) - flexible and hierarchically structured model of material point behavior for the solution of (thermo-) elastoplastic boundary value problems
* fastq_illumina_filter (ver. 0.1) - Illumina's CASAVA pipeline produces FASTQ files with both reads that pass filtering and reads that don't
* fftw (ver. 3.3, variants: double, omp, ompdouble) - C subroutine library for computing the discrete Fourier transform
* gmap (ver. 2013-11-27) - A Genomic Mapping and Alignment Program for mRNA and EST Sequences, Genomic Short-read Nucleotide Alignment Program
* gnuplot (ver. 4.6.4) - a portable command-line driven graphing utility allowing to visualize mathematical functions and data
* grace (ver. 5.1.23) - a WYSIWYG tool to make two-dimensional plots of numerical data
* lammps (ver. dec2013) - Large-scale Atomic/Molecular Massively Parallel Simulator
* maker (ver. 2.28) - Genome annotation pipeline. Its purpose is to allow smaller eukaryotic and prokaryotic genome projects to independently annotate their genomes and to create genome databases.
* masurca (ver. 2.1.0) - MaSuRCA is whole genome assembly software. It combines the efficiency of the de Bruijn graph and Overlap-Layout-Consensus (OLC) approaches.
* metaVelvet (ver. 1.2) - a short read assember for metagenomics
* numpy (ver. 1.8.0 for Python 2.6, compiled with gcc and Intel) - a Python language extension defining the numerical array and matrix type and basic operations over them (compiled with Intel MKL libraries support for faster performance) * NWChem (ver. 6.3.2) - an ab initio computational chemistry software package which also includes quantum chemical and molecular dynamics functionality
* openmpi (ver. 1.6.5, gcc + pgi + intel) - an implementation of MPI
* orca (ver. 3.0.1) - modern electronic structure program package
* paramiko (ver. 1.12) - a Python module that implements the SSH2 protocol for secure (encrypted and authenticated) connections to remote machines
* pycrypto (ver. 2.6.1) - a collection of both secure hash functions (such as SHA256 and RIPEMD160) and various encryption algorithms (AES, DES, RSA, ElGamal, etc.)
* SOAPdenovo2 - a novel short-read assembly method that can build a de novo draft assembly for the human-sized genomes (includes SOAPec, GapCloser, Data prepare and Error Correction modules)
* sRNAworkbench3.0 - a suite of tools for analysing small RNA (sRNA) data from Next Generation Sequencing devices
* ugene (ver. 1.13) - a free open-source cross-platform bioinformatics software
* vcftools (ver. 0.1.11) - an ultrafast, memory-efficient short read aligner of short DNA sequences
* vtk (ver. 5.4.2) - freely available software system for 3D computer graphics, image processing and visualization
* xmgrace (ver. 5.1.23) - a WYSIWYG tool to make two-dimensional plots of numerical data
S pozdravem Tomáš Rebok,
MetaCentrum + CERIT-SC.
Tom Rebok, Thu Feb 20 15:09:00 CET 2014
Provozní změny infrastruktur MetaCentra a CERIT-SC: rozšířené možnosti plánovače + nový SW
Jak jsme avizovali, představujeme Vám další pravidelnou informaci o provozních novinkách infrastruktur MetaCentrum a CERIT-SC:
1. Rozšířené možnosti plánovače -- nové možnosti specifikace odhadované doby běhu úloh:
- nově můžete i skrze plánovač arien (MetaCentrum) zadávat úlohy *bez specifikace fronty* (pokud nevyužíváte nějakou specializovanou) a odhadovanou dobu běhu úlohy zadávat skrze parametr "-l walltime=..." (stejně, jako již dříve na CERIT-SC)
- formát specifikace walltime byl upraven tak, aby akceptoval hodnoty v lidštějším tvaru ("-l walltime=10d", "-l walltime=3d30m", ...) -- upraveno jak na MetaCentru, tak na CERIT-SC
- zadávání úloh s touto novou specifikací (bez fronty & s walltime) je *silně doporučováno* -- takto zadané úlohy jsou řazeny do vícero interních front, takže přesnější odhad doby jejich běhu může znamenat dřívější spuštění úlohy (úloha s "-l walltime=12d" může být spuštěna dříve než úloha ve frontě "long")
- fronty "short", "normal", "long" zůstávají zachovány (zadávání úloh do nich je stále podporováno, byť není doporučováno)
- více informací viz https://wiki.metacentrum.cz/wiki/Spouštění_úloh_v_plánovači#Stru.C4.8Dn.C3.A9_shrnut.C3.AD_pl.C3.A1nov.C3.A1n.C3.AD_.C3.BAloh
2. Nově instalovaný/pořízený SW:
Pozn.: Bližší informace o instalovaných aplikacích jsou k dispozici na
stránce aplikací: https://wiki.metacentrum.cz/wiki/Kategorie:Aplikace
KOMERČNÍ PROGRAMY (dostupné všem registrovaným uživatelům):
- Intel Cluster Studio XE (intelcdk-14)
- a set of tools for development of parallel as well as serial programs programmed in C, C++, FORTRAN 77, Fortran 95 and High Performance Fortran
- version 2013, 2 licenses purchased by Cesnet
- PGI Accelerator CDK (pgicdk-13.10)
- a collection of tools for development parallel and serial programs in C, Fortran, etc.
- version 13.10, 2 licenses purchased by Cesnet
- Ansys CFD (Fluent + CFX) and Ansys Mechanical
- SW for modelling flow, turbulence, heat transfers, etc. (Fluent) + a high-performance, general purpose fluid dynamics SW for solving wide-range of fluid flow problems (CFX) + a suite of tools allowing the structural and thermodynamic simulations
- upgrade to version 15.0.1
- Allinea DDT
- a debugging tool designed for parallel/distributed programs using OpenMP/MPI libraries
- upgrade to version 4.2
VOLNĚ DOSTUPNÉ PROGRAMY:
* atomsk (ver. b0.7.2) - a command-line program intended to read many types of atomic position files, and convert them to many other formats
* clview (ver. 2010) - graphical, interactive tool for inspecting the ACE format assembly files generated by CAP3 or phrap
* cthyb - The TRIQS-based hybridization-expansion matrix solver allows to solve the generic problem of a quantum impurity embedded in a conduction bath
* erlang (ver. r16) - programming language used to build massively scalable soft real-time systems with requirements on high availability
* erne (ver. 1.4, gcc+intel) - a short string alignment package providing an all-inclusive set of tools to handle short (NGS-like) reads
* repeatexplorer - RepeatExplorer is a computational pipeline for discovery and characterization of repetitive sequences in eukaryotic genomes.
S pozdravem Tomáš Rebok,
MetaCentrum + CERIT-SC
Tom Rebok, Sun Jan 19 23:50:00 CET 2014
Zprovoznění clusteru luna
MetaCentrum bylo rozšířeno o cluster luna.fzu.cz (Fyzikální ústav AV ČR), celkem 47 strojů (752 CPU jader), každý v konfiguraci:
- CPU: 2x 8-core Intel Xeon E5-2650 v2 2.6 GHz
- RAM: 96GB
- disk: 2x500 GB HDD WD Velociraptor 10k SATA
- home: /storage/praha1/
- síť: Infiniband
- lokalita: Fyzikální ústav AV ČR, Praha
- vlastník: Fyzikální ústav AV ČR
Cluster je přístupný přes fronty luna, short a normal (Torque server @arien).
S přáním příjemného počítání,
MetaCentrum
Ivana Křenková, Fri Jan 17 10:48:00 CET 2014
Hierarchické datové úložiště CERIT-SC
Na clustery CERIT-SC (zewura, zegox, zigur, zapat, zuphux a ungu) je nově připojeno hierarchické datové úložiště (HSM) CERIT-SC. HSM je připojeno v adresáři /storage/brno4-cerit-hsm/home a je v testovacím provozu.
Úložiště je hierarchické, to znamená, že systém automaticky přesouvá déle nepoužívaná data na pomalejší média, v tomto případě na vypínatelné disky (MAID). Uživatel se o to nemusí starat, všechna data jsou zobrazena v souborovém systému. Je třeba počítat s tím, že přístup k dlouho nepoužívaným datům může být pomalejší (disky se musí roztočit).
Pokud uživatel kdekoli na úložišti založí adresář "Archive", tak data v něm i jeho podadresářích budou ukládány rovnou na vypínatelné disky.
Vzhledem k technologii MAID je úložiště použitelné i pro živější data, jeho hlavním a preferovaným účelem jsou nicméně střednědobé archivy.
David Antoš, Fri Dec 20 10:48:00 CET 2013
Provozní změny infrastruktur MetaCentra a CERIT-SC: VNC prostředí pro GUI aplikace + nový SW
Jak jsme avizovali, zasíláme Vám další pravidelnou informaci o provozních novinkách infrastruktur MetaCentrum a CERIT-SC:
1. Prostředí pro podporu práce s GUI aplikacemi (VNC servery)
- rádi bychom Vás informovali, že pro usnadnění práce s aplikacemi vyžadujícími grafické prostředí jsme pro Vás připravili prostředí založené na VNC serverech
- prostředí není určeno jako náhrada vlastního desktopu; cílem je poskytnout prostředí pro výpočetní aplikace, které je výhodné (či dokonce nezbytné) ovládat v grafickém režimu
- prostředí je možno provozovat jak na čelních uzlech, tak na výpočetních uzlech (týká se jak MetaCentra, tak CERIT-SC)
- více informací viz https://wiki.metacentrum.cz/wiki/Vzdálený_desktop
2. Nově instalovaný/pořízený SW:
Pozn.: Bližší informace o instalovaných aplikacích jsou k dispozici na stránce aplikací: https://wiki.metacentrum.cz/wiki/Kategorie:Aplikace
KOMERČNÍ PROGRAMY (dostupné všem registrovaným uživatelům):
- Molpro
- a complete system of ab initio programs for molecular electronic structure calculations
- version 2012.1, license purchased by CERIT-SC
- Turbomole
- a powerful general purpose Quantum Chemistry program package for ab initio Electronic Structure Calculations
- version 6.5, license purchased by CERIT-SC
- CLCbio Genomics Workbench
- a tool for analyzing and visualizing next generation sequencing data, which incorporates cutting-edge technology and algorithms
- version 6.5, 2 licenses purchased by CERIT-SC
- Geneious
- an integrated, cross-platform bioinformatics software suite for manipulating, finding, sharing, and exploring biological data such as DNA sequences or proteins, phylogenies, 3D structure information and others
- release R7, 2 licenses purchased by CERIT-SC
VOLNĚ DOSTUPNÉ PROGRAMY:
* atsas (ver. 2.5.1) - A program suite for small-angle scattering data analysis from biological macromolecules.
* boost (ver. 1.55) - a boost library
* cdbfasta - Fast indexing and retrieval of fasta records from flat file databases
* cmake (ver. 2.8.11) - a cross-platform, open-source build system
* elk (ver. 2.2.9) - all-electron full-potential linearised augmented-plane wave (compiled against Intel MKL, MPI + OpenMP support)
* fastQC (ver. 0.10.1) - a quality control tool for high throughput sequence data
* freebayes (ver. 9.9.2) - a Bayesian genetic variant detector designed to find small polymorphisms (SNPs & MNPs), and complex events smaller than the length of a short-read sequencing alignment
* garli (ver. 2.01) - GARLI is a program that performs phylogenetic inference using the maximum-likelihood criterion
* gsl (ver. 1.16, gcc+intel) - GNU Scientific Library tools collection
* last (ver. 356) - LAST finds similar regions between sequences.
* mafft (ver. 7.029) - a multiple sequence alignment program which offers a range of alignment methods
* mrbayes (ver. 3.2.2) - MrBayes is a program for the Bayesian estimation of phylogeny.
* mrNA (ver. 1.0, gcc+intel) - rNA is an aligner for short reads produced by Next Generation Sequencers
* rsem (ver. 1.2.8) - package for estimating gene and isoform expression levels from RNA-Seq data
* rsh-to-ssh (ver. 1.0) - forces using SSH instead of RSH (useful for some applications, may be further used system-widely)
* sassy (ver. 0.1.1.3) - SaSSY is a short, paired-read assembler designed primarily to assemble data generated using Illumina platforms.
* seqtk (ver. 1.0) - fast and lightweight tool for processing sequences in the FASTA or FASTQ format
* spades (ver. 2.5.1) - St. Petersburg genome assembler. It is intended for both standard (multicell) and single-cell MDA bacteria assemblies.
* sparx - environment for Cryo-EM image processing
* tablet (ver. 1.13) - a lightweight, high-performance graphical viewer for next generation sequence assemblies and alignments
* trinity (ver. 201311) - novel method for the efficient and robust de novo reconstruction of transcriptomes from RNA-seq data
* vasp (ver. 4.6, 5.2 and 5.3) - Vienna Ab initio Simulation Package (VASP) for atomic scale materials modelling (newly compiled with Intel MKL and MPI support, available just for users owning a VASP license)
* visit (ver. 2.6.3) - a free interactive parallel visualization and graphical analysis tool for viewing scientific data
S pozdravem Tomáš Rebok,
MetaCentrum + CERIT-SC.
Tom Rebok, Mon Dec 16 01:18:00 CET 2013
Zprovoznění SGI UV2 centra CERIT-SC
MetaCentrum bylo rozšířeno o unikátní NUMA server SGI UV2 (ungu.cerit-sc.cz), celkem 288 CPU jader v konfiguraci:
- CPU: 48x Intel E5-4617 6 jader, tj. celkem 288 jader, 2.9 GHz
- RAM: 6 TB
- disk: pevné disky pro uložení dočasných dat (/scratch) v celkové kapacitě 72 TB
- lokalita: ÚVT Brno
- síť: 2x 10GE a 6x IB (propojeno s ostatními stroji v Brně a /storage/brno3-cerit/)
- vlastník: CERIT-SC
Stroj je hardwarově rozdělen na tzv. partitions jevící se jako samostatné stroje ungu1 a ungu2. Nejedná se ale o virtualizaci v běžném smyslu. Ungu1 je běžně přístupný v Torque, ungu2 je vyhrazen pro experimenty. Konkrétní rozdělení muže být měněno podle aktuální potřeby.
Stroj je přístupný po dobu testování přes frontu 'uv@wagap.cerit-sc.cz', výhledově bude přístupný i v běžných frontách.
S přáním příjemného počítání,
MetaCentrum & CERIT-SC
Ivana Křenková, Fri Dec 13 13:22:00 CET 2013
Nový HW v MetaCentru
MetaCentrum bylo rozšířeno o dva nové clustery a diskové pole:
- GPU cluster doom.metacentrum.cz, obsahující celkem 30 strojů (480 CPU jader), každý s následující konfigurací:
- CPU: 2x 8-core Intel Xeon E5 (2.6 - 3.4 GHz)
- RAM: 64GB
- disk: 2x 1TB 10k SATA III, 2x480GB SSD
- sdílený scratch: /scratch.shared s kapacitou 22 TB
- GPU: 2x nVidia Tesla K20 5GB (aka Kepler)
- lokalita: VŠB Ostrava
- síť: Ethernet 1Gb/s
- vlastník: CESNET
Stroje jsou přístupné po dobu testování pouze přes frontu debian7, i pro gpu úlohy.
- SGI UV20 cluster kalpa.fzu.cz, celkem 2 stroje (48 CPU jader), každý s následující konfigurací:
- CPU: 4x 6-core Intel Xeon E5-4617 2.9GHz
- RAM: 256GB
- disk: 2x 300 GB SAS disk v RAID 1
- lokalita: Praha
- síť: Mellanox QDR, dual port
- vlastník: FZU AVČR
Stroje jsou přístupné po dobu testování přes fronty debian7 a luna.
- Zároveň jsme v Ostravě zpřístupnili další diskové pole /storage/ostrava1 s kapacitou 88 TB, které je dostupné ze všech strojů v MetaCentru.
S přáním příjemného počítání,
MetaCentrum
Ivana Křenková, Tue Nov 26 15:35:00 CET 2013
Provozní změny infrastruktur MetaCentra a CERIT-SC: uzly s Debian 7 + nový SW
Počínaje tímto kalendářním měsícem se Vás pokusíme pravidelně 1x měsíčně informovat o nejdůležitějších provozních změnách (zahrnujících mj. i nově instalovaný SW) provedených na infrastrukturách MetaCentra a CERIT-SC.
Nejdůležitější provozní novinky:
1. Testovací uzly s OS Debian 7 brzy do produkčního provozu
- rádi bychom Vás informovali, že jsme připravili testovací sadu uzlů s OS Debian 7, na které již nyní můžete testovat své aplikace
- uzly budou od zítřejšího dne (aktuálně probíhá upgrade BIOSu) přístupné po zadání vlastnosti "debian7".
- případné problémy s během aplikací na těchto uzlech nám, prosíme, neprodleně hlašte.
2. Nově instalovaný/pořízený SW: (vzhledem k této první novince budeme výjimečně sumarizovat SW za posledních 5 kalendářních měsíců)
Pozn.: Bližší informace o instalovaných aplikacích jsou k dispozici na stránce aplikací: https://wiki.metacentrum.cz/wiki/Kategorie:Aplikace
KOMERČNÍ PROGRAMY (dostupné všem registrovaným uživatelům):
- ANSYS Academic Research CFD (Fluent + CFX)
- SW for modelling flow, turbulence, heat transfers, etc. (Fluent) and a high-performance, general purpose fluid dynamics SW for solving wide-range of fluid flow problems (CFX)
- ver. 14.5.7, 25 licenses purchased by MetaCentrum
- ANSYS Academic Research Mechanical
- a suite of tools allowing the structural and thermodynamic simulations
- ver. 14.5.7, 5 licenses purchased by CERIT-SC
- ANSYS Academic Research HPC
- enhances the performance of Ansys products by enabling the computations to run on multiple processors/cores
- ver. 14.5.7, 60 licenses purchased by MetaCentrum
- Gaussian 09
- a program for predicting the energies, molecular structures, and vibrational frequencies of molecular systems, along with numerous derived properties
- upgrade to rev. D.01 (previously purchased by MetaCentrum)
- Matlab
- an integrated system covering tools for symbolic and numeric computations, analyses and data visualizations, modeling and simulations of real processes, etc.
- upgrade to ver. 8.2, new 100 licenses (450 in total) purchased by MetaCentrum
- Wolfram Mathematica
- computer algebra system
- ver. 9, 10 licenses purchased by CERIT-SC (+ upgrades for FZU, JCU and UK)
- Wolfram GridMathematica
- an integrated extension system for increasing the power of (your) Mathematica licenses
- upgrade to ver. 9, 15 licenses (=>240 cores) purchased by MetaCentrum
- Intel C++ Composer XE
- a set of tools for development of parallel as well as serial programs programmed in C, C++ (without FORTRAN), including Intel MKL libraries
- upgrade to ver. 13, 2 licenses (previously purchased by MetaCentrum)
- PGI Accelerator CDK
- a collection of tools for development parallel and serial programs in C, Fortran, etc.
- upgrade to ver. 12.4, 2 licenses (previously purchased by CERIT-SC)
- Allinea DDT
- a debugging tool designed for parallel/distributed programs using OpenMP/MPI libraries
- upgrade to ver. 4.1, licensed for debugging 32 running processes (previously purchased by CERIT-SC)
- TotalView
- a GUI-based debugger (includes ReplayEngine, CUDA-Debugging, Memory Scape, Remote Display and Script Debugging)
- upgrade to ver. 8.12, licensed for debugging 64 running processes (previously purchased by CERIT-SC)
VOLNĚ DOSTUPNÉ PROGRAMY:
* argus (ver. 3.0.6) - a tool for developing network activity audit strategies and prototype technology to support network operations, performance and security management
* bedtools (ver. 2.17) - bedtools utilities are a swiss-army knife of tools for a wide-range of genomics analysis tasks
* bfast (ver. 0.7.0) - a tool for fast and accurate mapping of short reads to reference sequences
* bioperl (ver. 1.6.1) - a toolkit of perl modules useful in building bioinformatics solutions in Perl
* blast (ver. 2.2.26) - a program that compares nucleotide or protein sequences to sequence databases and calculates the statistical significance of matches
* blast+ (ver. 2.2.26 + 2.2.27) - a program that compares nucleotide or protein sequences to sequence databases and calculates the statistical significance of matches
* boost (ver. 1.49) - a boost library
* bowtie (ver. 1.0.0) - an ultrafast, memory-efficient short read aligner of short DNA sequences
* bwa (ver. 0.7.5a) - a fast lightweight tool that aligns relatively short sequences to a sequence database
* clumpp (ver. 1.1.2) - a program that deals with label switching and multimodality problems in population-genetic cluster analyses
* cp2k (ver. 2.3 + 2.4) - a program to perform atomistic and molecular simulations of solid state, liquid, molecular, and biological systems
* dendroscope (ver. 3.2.8) - an interactive viewer for rooted phylogenetic trees and networks
* echo (ver. 1.12) - Short-read Error Correction
* erne (ver. 1.2) - a short string alignment package providing an all-inclusive set of tools to handle short (NGS-like) reads
* fpc (ver. 9.4) - a tool that takes a set of clones and their restriction fragments as an input and assembles the clones into contigs
* gcc (ver. 4.7.0 + 4.8.1) - a compiler collection, which includes front ends for C, C++, Objective-C, Fortran, Java, Ada and libraries for these languages
* gromacs (ver. 4.6.1) - a program package enabling to define minimalization of energy of system and dynamic behaviour of molecular systems
* ltrdigest (ver. 1.3.3 + 1.5.1) - a collection of bioinformatics tools (in the realm of genome informatics)
* minia (ver. 1.5418) - a short-read assembler based on a de Bruijn graph, capable of assembling a human genome on a desktop computer in a day
* mosaik (ver. 1.1 + 2.1) - a reference-guided assembler
* mpich2 - an implementation of MPI
* mpich3 - an implementation of MPI
* mrbayes (ver. 3.2.2) - a program for the Bayesian estimation of phylogeny
* multidis - a package for numerical simulations of mixed classical nuclear and quantum electronic dynamics of atomic complexes with many electronic states and transitions between them involved
* mvapich (ver. 3.0.3) - MPI implementation supporting Infiniband
* ncl (ver. 6.1.2) - an interpreted language designed specifically for scientific data analysis and visualization
* nco (ver. 4.2.5-gcc) - a tool that manipulates data stored in netCDF format
* numpy (ver. 1.7.1-py2.7) - a Python language extension defining the numerical array and matrix type and basic operations over them (compiled with Intel MKL libraries support for faster performance)
* open3dqsar - a software aimed at high-throughput chemometric analysis of molecular interaction fields
* openmpi (ver. 1.6) - an implementation of MPI
* parallel (ver. 2013) - a shell tool for executing jobs in parallel using one or more computers
* phycas - an application for carrying out phylogenetic analyses; it's also a C++ and Python library that can be used to create new applications or to extend the current functionality
* phyml (ver. 3.0) - estimates maximum likelihood phylogenies from alignments of nucleotide or amino acid sequences
* pyfits (ver. 3.1.2-py2.7) - a Python library providing access to FITS files (used within astronomy community to store images and tables)
* python (ver. 2.7.5) - a general-purpose high-level programming language
* qiime (ver. 1.7.0) - a software package for comparison and analysis of microbial communities
* raxml (ver. 7.3.0) - fast implementation of maximum-likelihood (ML) phylogeny estimation that operates on both nucleotide and protein sequence alignments
* R (ver. 3.0.1) - a software environment for statistical computing and graphics
* samtools (ver. 0.1.18 + 0.1.19) - utilities for manipulating alignments in the SAM format
* scipy (ver. 0.12.0-py2.7) - a language extension that uses numpy to do advanced math, signal processing, optimization, statistics and much more (compiled with Intel MKL libraries support for faster performance)
* sklearn (ver. 0.14.1-py2.7) - a Python language extension that uses Numpy and Scipy to provide simple and efficient tools for data mining and data analysis
* snapp (ver. 1.1.1) - a package for inferring species trees and species demographics from independent biallelic markers
* sox (ver. 14.4.1) - a command line utility that can convert various formats of audio files and apply to them various sound effects
* sparsehash (ver. 2.0.2) - an extremely memory-efficient hash_map implementation
* sratools (ver. 2.3.2) - a collection of tools storing and manipulating raw sequencing data from the next generation sequencing platforms (using the NCBI-defined interchange format)
* stacks (ver. 1.02) - a software pipeline for building loci from short-read sequences
* symos97 (ver. 6.0) - an application for developing of dispersion sutudies for evaulating quality of atmosphere according to SYMOS'97 methodics (just for VSB-TU users)
* wrf (ver. 3.4.1) - a next-generation mesoscale numerical weather prediction system designed to serve both operational forecasting and atmospheric research needs
* xcrysden (ver. 1.5) - a crystalline and molecular structure visualisation program aiming at display of isosurfaces and contour
* xmipp (ver. 3.0.1) - a suite of image processing programs, primarily aimed at single-particle 3D electron microscopy
S pozdravem Tomáš Rebok,
MetaCentrum + CERIT-SC.
Tom Rebok, Wed Nov 13 22:00:00 CET 2013
Pozvánka na seminář gridového počítání 2013
MetaCentrum zve všechny své uživatele na Seminář gridového počítání 2013, který se bude konat 25. listopadu 2013 v Kongresovém sále hotelu International, Husova 16, Brno. Seminář bude věnován přehledu informací a novinek o českém národním gridovém a cloudovém prostředí MetaCentrum a centru CERIT-SC (nový plánovací systém, nové výpočetní zdroje, výsledky spoluprací s uživatelskými skupinami...).
Dopolední blok semináře bude věnován nástroji ANSYS, který MetaCentrum spolu s centrem CERIT-SC nedávno zakoupilo v plošné licenci pro všechny své uživatele (Ansys Fluent, Ansys CFX a Ansys Mechanical). Prostředí je široce využitelné v různých vědních oborech, což bude spolu s informacemi o efektivním zpracování úloh v Ansys produktech nastíněno v plánované zvané přednášce.
Seminář je organizován projektem MetaCentrum sdružení CESNET a Centrem CERIT-SC za významné spoluúčasti našich partnerů ze společnosti SVS FEM s.r.o. (dodavatel prostředí ANSYS).
Více informací, program a přihlášky
Ivana Křenková, Mon Nov 04 15:36:00 CET 2013
Pozvánka na seminář CESNETu 21. 10. 2013
CESNET zve všechny uživatele MetaCentra na celodenní seminář o komplexu služeb, které poskytuje e-infrastruktura CESNET.
Seminář bude zaměřen na novinky, ale i praktické využití služeb e-infrastruktury a jejich začlenění do stávajících IT řešení na straně uživatele.V rámci semináře zazní krátká prezentace aktivity MetaCentrum. Pravidelný jednodenní seminář MetaCentra, který se bude věnovat výhradně službám MetaCentra, proběhne o měsíc později - 25. 11. 2013 v Brně.
Účast na semináři je bezplatná, ale je třeba se zaregistrovat! Podrobný program, formulář pro on-line registraci a všechny další informace naleznete na http://www.cesnet.cz/sdruzeni/akce/sluzby-2013/. Seminář bude veden v českém jazyce.
Kdy: 21. října 2013 (9.30 – 17.00)
Kde: Modrá posluchárna, Univerzita Karlova v Praze, Celetná 20, Praha 1
Více informací sdělí organizátor akce:
Gabriela Krčmařová
Oddělení komunikace a vnějších vztahů
CESNET, Zikova 4, 160 00 Praha 6
Pracoviště: Zikova 13a
tel.: 234680233
Ivana Křenková, Thu Oct 10 13:22:00 CEST 2013
Nové verze aplikací
Ke dnešnímu dni jsme do infrastruktury nainstalovali nové verze následujících aplikací:
- Matlab (integrovaný systém zahrnující nástroje pro symbolické a numerické výpočty, analýzu a vizualizaci dat, atp.) -- verze 8.1
- Gaussian (balík programů založených na základech kvatntové mechaniky sloužících k přepovědi energií, molekulárních struktur a jejich vibračních frekvencí, atp.) -- revize D01
- R (prostředí pro statistické výpočty a grafiku) -- verze 3.0.1
- Dendroscope (nástroj pro vizualizaci fylogenetických stromů a kořenů sítě) -- verze 3.2.8
- Argus (nástroj pro auditování sítí) -- verze 3.0.6
- Python (interpretovaný objektově orientovaný programovací jazyk) -- verze 2.7.5
- Numpy (rozšíření Pythonu pro základní operace nad číselnými poli, maticemi, atp.) -- verze 1.7.1
- Scipy (rozšíření Pythonu pro pokročilou matematiku, řízení signálů, optimalizaci, statistiku, ...) -- verze 0.12.0
- Scikit-learn (rozšíření Pythonu poskytující nástroje pro dolování a analýzu dat) -- verze 0.14.1
- Intel C/C++ Composer XE (kompilátory a MKL knihovny) -- verze 13.1
Bližší informace viz dokumentační stránky aplikací.
Tom Rebok, Sun Sep 29 22:04:00 CEST 2013
Reorganizace front centra CERIT-SC
V reakci na časté výpadky elektřiny v Jihlavě v důsledku letních bouřek jsme přistoupili k reorganizaci front na clusterech centra CERIT-SC. Dlouhé fronty byly posíleny v Brně, v Jihlavě jsou v tuto chvíli povolené fronty do 4 dnů. S ustáváním bouřek a s minimalizací pravděpodobnosti dalšího výpadku budeme délku front postupně navyšovat.
Clustery v Jihlavě jsou na nezálohovaných okruzích kvůli nedostatečné kapacitě místních záložních zdrojů (při výstavbě serverovny nebylo s takovým příkonem počítáno). Posílení jejich kapacity by znamenalo netriviální investiční výdaje z prostředků Masarykovy univerzity, což je na pronajatém sále organizačně i administrativně velmi obtížné. V současné době se staví nové sály v Brně v rekonstruované budově Fakulty informatiky MU, kam tyto clustery v případě potřeby přesuneme (výhledově přelom 2014/15).
Omlouváme se za způsobené komplikace.
Ivana Křenková, Wed Aug 14 12:21:00 CEST 2013
Zpřístupnění HSM datových úložišť CESNET v Plzni
Datový prostor na hierarchickém úložišti v Plzni je nyní přímo přístupný ze všech strojů MetaCentra. Úložiště je připojeno v adresáři /storage/plzen2-archive/home/
Úložiště se hodí zejména pro odkládání archivních dat, se kterými se již aktivně nepracuje. Nepoužívejte jej pro živá data nebo pro data, nad kterými se bezprostředně provádějí výpočty. Úložiště je hierarchické, to znamená, že systém automaticky přesouvá déle nepoužívaná data na pomalejší média, v tomto případě magnetické pásky. Data jsou přitom stále pro uživatele viditelná v souborovém systému, jen je třeba počítat s tím, že přístup k dlouho nepoužitým datům může být pomalejší.
Uživatelé z virtuální organizace MetaCentrum mají k dispozici diskový prostor s kvótou 5 TB, starší data jsou přesouvána na pásky. Kvóta může být na požádání navýšena, případně lze přímo na úložišti ručně vyvolat migraci dat na pásky, což uvolní diskový prostor.
Dalším důsledkem speciálního režimu tohoto úložiště je, že nezapadá přesně do zvyklostí, jak se v MetaCentru pracuje s diskovými poli. Jeho specifika:
- Domovský adresář /storage/plzen2-archive/home/<login>/ slouží pro konfigurační soubory pro přístup k úložišti, má maličkou kvótu, nedokládejte do něj užitečná data. K ukládání dat slouží prostor odkazovaný symbolickým linkem v domovském adresáři, tj. /storage/plzen2-archive/home/<login>/VO_metacentrum-tape_tape/. Nastavená migrační politika zajišťuje, že data jsou vždy uložena redundantně, a to na diskovém poli nebo dvojici pásek.
- Jsou připojeny všechny svazky, které na úložišti v Plzni existují, a pomocné adresáře. Pokud máte uložena data v rámci jiné virtuální organizace, jsou také na strojích MetaCentra dostupná.
Dokumentaci k adresářové struktuře najdete na http://du.cesnet.cz/wiki/doku.php/navody/home-migrace-plzen/start
Kompletní dokumentaci úložiště na https://du.cesnet.cz/wiki/doku.php/navody/start
Úložiště je provozováno Oddělením datových úložišť CESNET, http://du.cesnet.cz. S dotazy a žádostmi na uživatelskou podporu se obracejte na podporu MetaCentra meta@cesnet.cz.
Ivana Křenková, Fri Jul 05 13:19:00 CEST 2013
Reorganizace souborových systémů v Praze
V souvislosti s reinstalací clusterů Luna (stroje luna1 a luna3) a Eru (eru1, eru2) došlo k reorganizaci diskových kapacit v Praze. Domovské adresáře (/home) byly přesunuty na nové diskové pole v Praze (/storage/praha1/home). Uživatelská data z původního domovského adresáře /home byla přesunuta do adresářů:
- /home/$LOGIN z luna[13] do /storage/praha1/home/$LOGIN/luna_home
- /home/$LOGIN z eru[12] do /storage/praha1/home/$LOGIN/eru_home
Všechny čtyři stroje jsou zpět v provozu, během testovacího období jsou povoleny jen kratší úlohy.
Návod pro přístup na datová úložiště viz wiki
https://wiki.metacentrum.cz/wiki/Přímý_přístup_na_datová_úložiště
Ivana Křenková, Tue Jul 02 13:19:00 CEST 2013
Nová verze aplikace gridMathematica: verze 9.0.1
Dnes jsme do infrastruktury doinstalovali novou verzi aplikace gridMathematica (rozšiřuje možnosti paralelního zpracování Wolfram Mathematica), a to ve verzi 9.0.1. Tato nová verze je využitelná stejnými mechanismy, jako verze předchozí -- více viz stránky aplikace gridMathematica.
Tom Rebok, Thu Jun 06 13:19:00 CEST 2013
Nové diskové pole centra CERIT-SC
Centrum CERIT-SC zprovoznilo nové diskové pole /storage/jihlava1-cerit/ (374 TB).
Pole slouží zároveň jako /home pro jihlavské clustery Zigur a Zapat. Narozdíl od ostatních diskových polí není prozatím zálohováno na pásky, ale pravidelnými snapshoty s archivací po dobu 14 dnů.
Diskové pole je umístěno v lokalitě Jihlava a je dostupné ze všech clusterů v MetaCentru. Účty na diskovém poli byly zřízeny automaticky všem členům MetaCentra, není třeba o ně nijak speciálně žádat. Podrobnější informace viz http://www.cerit-sc.cz/cs/Hardware/ a
https://wiki.metacentrum.cz/wiki/Souborové_systémy_v_MetaCentru
Ivana Křenková, Fri May 24 13:57:00 CEST 2013
Cluster minos je opět v provozu
Cluster minos.zcu.cz je po reinstalaci opět v plném provozu.Petr Hanousek, Mon May 13 14:18:00 CEST 2013
Nové výpočetní clustery centra CERIT-SC
Centrum CERIT-SC předává do provozu 2 clustery v lokalitě Jihlava:
- Cluster zapat.cerit-sc.cz - 112 uzlů (1792 CPU), každý uzel v konfiguraci:
- 2x 8-core Intel E5-2670 2.6GHz
- 128 GB RAM
- 2x 600 GB (scratch)
- Výkon každého uzlu 471 bodů benchmarku SPECfp2006 base rate, tj. 29 na jádro
- Cluster zigur.cerit-sc.cz - 32 uzlů (256 CPU), každý uzel v konfiguraci:
- 2x 4-core Intel E5-2643 3.3GHz
- 128 GB RAM
- 2x 600 GB (scratch)
- Výkon každého uzlu 237 bodů benchmarku SPECfp2006 base rate, tj. 41 na jádro
Podrobnější informace najdete na http://www.cerit-sc.cz/cs/Hardware/.
Na obou clusterech je dočasně k dispozici malý lokální /home s omezenou kvótou. Cca do měsíce bude v lokalitě Jihlava zprovozněno diskové pole centra CERIT-SC. Pro větší data jsou na obou clusterech dostupné všechny svazky /storage.
Clustery jsou přístupny dávkovým způsobem přes Torque server centra CERIT-SC. Po dobu testovacího provozu budou na těchto uzlech spouštěny pouze kratší úlohy. Postup, jak na clusteru spustit úlohu a další informace najdete na http://www.cerit-sc.cz/cs/docs/.
Některé uzly budou dostupné rovněž v prostředí MetaCloud pro spouštění uživatelských obrazů operačního systému apod. Poměr přiřazení uzlů mezi Torque a MetaCloud budeme průběžně měnit podle aktuální potřeby.
Ivana Křenková, Fri May 03 13:57:00 CEST 2013
Zprovoznění clusteru Tarkil
Po výpadku na pražském sále Cesnetu, který jsme využili k upgradu OS na clusteru Tarkil, je tento cluster zpět v provozu. K dispozici jsou stroje tarkil[1-28].cesnet.cz a rovněž čelní uzel tarkil.cesnet.cz, nově s operačním systémem Debian 6.0. Kromě změny OS by se měly stroje chovat tak, jako před odstávkou.Petr Hanousek, Thu Apr 25 13:57:00 CEST 2013
Pozvánka na PRACE a IT4Innovations Workshop
IT4I zve uživatele MetaCentra na pravidelný workshop "Přístup k výpočetním prostředkům a HPC službám pro Českou Republiku", který se koná 7. května v prostorách Podnikatelského inkubátoru Vysoké školy báňské - Technické univerzity Ostrava, Studentská 6202/17, místnost č. 332, 3. patro.
Tématem workshopu je jak získat výpočetní čas na superpočítačích infrastruktury PRACE a také nově na malém klastru, který bude od května tohoto roku provozovat IT4Innovations.
V odpoledním bloku přednášek zazní aktuální informace o budovaných e-Infrastrukturách CESNET a CERIT-SC se zaměřením na služby poskytované pro výpočetní komunitu.
Účast na workshopu je bezplatná a zváni jsou všichni zájemci o HPC a výkonné počítání. Bližší informace naleznete v programu. Registrovat se můžete do 3. května 2013.
Ivana Křenková, Thu Apr 25 13:57:00 CEST 2013
Zprovoznění clusteru Perian
Po nečekaném výpadku, způsobenému požárem v UKB MU, který jsme využili k upgradu OS na clusteru Perian, vracíme tento cluster zpět do provozu. Nyní by měly být k plánování úloh k dispozici stroje perian[1-56].ncbr.muni.cz včetně frontendu perian.ncbr.muni.cz, s operačním systémem Debian 6.0. Kromě povýšení operačního systému se změny dotknuly i domácího adresáře uživatelů. Ten je nyní nově namapován na /storage/brno2 stejně jako na clusteru skirit.ics.muni.cz. Data ze starého (lokálního) domácího adresáře naleznete v umístění /home/perian_home.
Petr Hanousek, Tue Apr 23 15:48:00 CEST 2013
Zabíjení úloh využívajících více prostředků než o kolik požádaly
Chtěli bychom Vás upozornit na skutečnost, že po roce rozesílání informativních e-mailů o překračování zažádaných limitů na paměť a procesory, zapínáme příští týden zabíjení úloh i na PBS serveru @arien (na PBS serveru @wagap je zabíjení úloh už delší dobu zapnuté).
Údaje o spotřebovaných zdrojích naleznete ve výpise qstat -f <jobID>
nebo v aplikaci PBSMon na webu http://metavo.metacentrum.cz/cs/state/personal
Prosíme, zkontrolujte si, jestli Vaše běžně zadávané úlohy dané limity nepřekračují.
Více informací najdete na wiki https://wiki.metacentrum.cz/wiki/Příčiny_nestandardního_skončení_úlohy.
Ivana Křenková, Tue Apr 23 15:48:00 CEST 2013
Nově přístupné aplikace
Podle uživatelských potřeb průběžně pracujeme na povyšování verzí a instalaci nových aplikací. Z poslední doby máme tyto nové moduly:- OpenMPI 1.6.4 zkompilovanou všemi třemi hlavními kompilátory a s podporou infinibandu
- MPICH 3.0.2 zkompilovaný všemi třemi hlavními kompilátory
- Phycas 1.2.0 - prostředí pro provádění fylogenetických analýz
- CP2K - program pro provádění molekulárních simulací v pevných, tekutých, molekulárních a biologických systémech
- WRF 3.4.1 - systém pro předpovídání počasí a výzkum atmosféry
- Freesurfer 5.1.0 - nástroje pro rekonstrukci korového povrchu mozku z MRI dat
- Bowtie a Bowtie2 - rychlé efektivní alignery pro krátké i dlouhé sekvence genomu
Petr Hanousek, Fri Apr 12 10:40:00 CEST 2013
Pozvánka na PRACE letní školu v Ostravě
IT4Innovation zve členy MetaCentra na 5denní letní školu superpočítání s názvem
PRACE summer school 2013 - Framework for Scientific Computing on Supercomputers,
která se bude konat 17. - 21. 6. v Ostravě.
Detaily a přihlášky najdete na stránce letní školy.
Ivana Křenková, Tue Apr 09 22:51:00 CEST 2013
Nový HW v MetaCentru
MetaCentrum bylo rozšířeno o GPU cluster Gram + stroj Ramdal s 1 TB RAM
- nový GPU cluster gram[1-10].zcu.cz (160 CPU), konfigurace každého z 10 uzlů:
- CPU: 2x 8-core Intel Xeon E5-2670 2,6GHz
- GPU: 4x nVidia Tesla M2090 6GB
- RAM: 64GB
- disk: 2x 600GB, 4x SSD 240GB
- vlastník: CESNET
- lokalita: Plzeň
- http://metavo.metacentrum.cz/pbsmon2/resource/gram.zcu.cz
- nový stroj ramdal.ics.muni.cz pro úlohy náročné na paměť:
- CPU: 4x 8-core Intel Xeon E5-4650 2.7GHz
- RAM: 1TB
- disk: 8x 600GB
- vlastník: CESNET
- lokalita: Brno
- http://metavo.metacentrum.cz/pbsmon2/machine/ramdal.ics.muni.cz
Režimu přístupu ke GPU:
- dvě volně dostupné fronty s vyšší prioritou pro úlohy požadující GPU
- 24 hodinová "gpu" a "gpu_long" pro delší úlohy (delší fronta bude k dispozici po krátkém otestování)
- obě fronty jsou volně přístupné všem uživatelům MetaCentra, o přístup již není nutné žádat
- vlastníci clusteru Konos (ITI ZČU) mohou nově své GPU úlohy zadávat přes prioritní frontu "iti"
- fronty "short", "normal" a "backfill" s nižší prioritou, obsluhují pouze ne-GPU úlohy
- návody a další informace viz https://meta.cesnet.cz/wiki/GPU_stroje
Režim přístupu ke stroji s 1 TB RAM
Stroj Ramdal je přístupný ve zvláštním režimu, pokud máte zájem o jeho využití, kontaktujte nás na meta@cesnet.cz a uveďte zdůvodnění.
Ivana Křenková, Tue Jan 22 15:02:00 CET 2013
IT4I vyhlašuje Veřejnou grantovou soutěž
Superpočítačové centrum IT4Innovations vyhlašuje 1. kolo Veřejné
grantové soutěže, ve kterém bude rozděleno 4 750 000 core hours.
Příjem žádostí probíhá do 4. 3. 2013. Detailní informace, včetně
elektronického formuláře žádosti, naleznete zde:
http://www.it4i.cz/vypocetni-cas-verejny.php.
Do soutěže se mohou přihlásit zaměstnanci jiných akademických a
výzkumných institucí než IT4Innovations, které mají sídlo nebo pobočku v
České republice (jedná se i o zaměstnance VŠB-TUO, OU, OSU, UGN AV a
VUT, kteří neparticipují na projektu IT4Innovations). Dále osoby, které
získaly a/nebo se podílí na realizaci výzkumného grantu z veřejných
zdrojů České republiky. Pro oprávněnost žadatele není důležité
občanství.
Cílem grantových soutěží IT4Innovations je rozdělení výpočetního času s
ohledem na rozvoj a aplikaci superpočítačových metod, stejně jako na
přínos a užitek pro společnost. Veřejná grantová soutěž bude vypisována
dvakrát za rok. Nabídky budou procházet vědeckým, technickým a
ekonomickým hodnocením.
Pro zájemce z řad zaměstnanců IT4Innovations vyhlašujeme Interní
grantovou soutěž. Informace o ní naleznete zde:
http://www.it4i.cz/vypocetni-cas-interni.php.
V případě jakýchkoliv dotazů se, prosím, neváhejte obrátit na open.access.it4i@vsb.cz.
S pozdravem,
Branislav Jansík
Ředitel Superpočítačového centra IT4Innovations
Ivana Křenková, Wed Jan 09 08:34:00 CET 2013
Zprovoznění nového clusteru Hildor
MetaCentrum bylo rozšířeno o nový cluster (hildor[1-26].prf.jcu.cz)
http://metavo.metacentrum.cz/pbsmon2/resource/hildor.prf.jcu.cz
Cluster je umístěn na sále JU v Českých Budějovicích.
Specifikace každého ze 26 uzlů:
- procesor: 2x 8-core Intel Xeon E5-2665 2.40GHz
- paměť: 64 GB
- disk: 2x 1 TB
- síť: InfiniBand 4xQDR, 2x 1 Gbit/s Ethernet
- vlastník: CESNET
Účty na clusteru Hildor byly vytvořeny automaticky všem uživatelům
MetaCentra. Po dobu testovacího provozu bude cluster přístupný z front
short, normal a backfill.
Ivana Křenková, Fri Nov 30 08:34:00 CET 2012
Nový software v MetaCentru
V MetaCentru je k dispozici nová sada (komerčního) software:
- Ansys CFD (Ansys Fluent + Ansys CFX)
- nástroje pro modelování a simulaci toků/proudění různých veličin
- licence pro 25 spuštění + 60ks licencí Ansys HPC (možnost distribuce/paralelizace výpočtů až na dalších 60 jader)
- Matlab verze 8.0
- nová verze výpočetního prostředí Matlab,
- navýšení množství základních licencí Matlabu o 100ks (aktuálně 350ks)
- z prostředků Centra CERIT-SC navýšeno množství licencí toolboxu Matlab DCS (Distributed Computing Server/Engine) o 128ks (aktuálně 160ks)
- Maple v. 16
- nová verze výpočetního prostředí pro symbolické výpočty
- 30ks licencí
- TotalView v. 8.10
- ladící nástroj pro ladění jak jednovláknových, tak paralelních/distribuovaných programů, podporující rovněž ladění CUDA aplikací
- licence pro 64 souběžně laděných procesů
- Allinea DDT v. 3.2
- ladící nástroj pro ladění jak jednovláknových, tak paralelních/distribuovaných programů
- licence pro 32 souběžně laděných procesů
- Intel C++ Composer XE v. 12
- navýšeno množství dostupných licencí Intel kompilátorů o 2ks (aktuálně 4ks)
- PGI Cluster Development Kit v. 12.4
- z prostředků Centra CERIT-SC byly pořízeny 2ks licencí pro nejnovější verzi PGI kompilátorů
- nainstalovali jsme mnoho volně dostupných nástrojů
- seznam v nedávné době instalovaných aplikací -- viz stránka Provozních změn
Více informací o dostupném SW viz wiki
Ivana Křenková, Mon Nov 26 09:28:00 CET 2012
Pozvánka na PRACE a IT4Innovations Workshop
IT4I zve uživatele MetaCentra na workshop "Přístup k výpočetním prostředkům a HPC službám pro Českou Republiku", který se koná 6. listopadu v prostorách Podnikatelského inkubátoru Vysoké školy báňské - Technické univerzity Ostrava, Studentská 6202/17, místnost č. 332.
Workshop je určen zájemcům z řad akademické obce a výzkumu, kteří by v budoucnu rádi využili nejvýkonnější evropské HPC prostředky, včetně výpočetních kapacit IT4Innovations a PRACE. Na workshopu se rovněž představí CESNET a CERIT-SC.
Registrace probíhá do 2. listopadu 2012 na adrese http://www.it4i.cz/aktuality_121022.php#reg Účast na workshopu je bezplatná a zváni jsou všichni zájemci o HPC a superpočítačové technologie.
S pozdravem a přáním příjemného dne,
Mgr. Klára Janoušková, M.A.
Manažer pro vnější vztahy
IT4Innovations
Ivana Křenková, Wed Oct 24 13:25:00 CEST 2012
Rozšíření výpočetní a úložné kapacity centra CERIT-SC
Centrum CERIT-SC rozšiřuje výpočetní a úložné kapacity o
* 48 uzlů HD clusteru zegox[1-48].cerit-sc.cz -- každý uzel 2x6 CPU jader, 90 GB RAM, 2x600 GB pevný disk
* Nové diskové pole /storage/brno3-cerit/home/ (250 TB) -- narozdíl od ostatních diskových polí není toto pole zálohováno na pásky, ale pravidelnými tzvn. snapshoty s archivací po dobu 14 dnů
Cluster i diskové pole jsou umístěny v lokalitě Brno na sále ÚVT MU.
Účty vám byly zřízeny automaticky, není třeba o ně nijak speciálně žádat. Podrobnější informace viz http://www.cerit-sc.cz/cs/Hardware/.
Větší část clusteru (aktuálně 40 uzlů) je přístupná dávkovým způsobem přes Torque server centra CERIT-SC. Po dobu několika týdnů testovacího provozu budou na těchto uzlech spouštěny pouze kratší úlohy. Postup, jak na clusteru spustit úlohu a další informace najdete na http://www.cerit-sc.cz/cs/docs/.
Ostatní uzly jsou dostupné v prostředí MetaCloud (viz http://meta.cesnet.cz/wiki/Kategorie:Cloudy) pro spouštění uživatelských obrazů operačního systému apod. Poměr přiřazení uzlů mezi Torque a MetaCloud budeme průběžně měnit podle aktuální potřeby.
Zároveň upozorňujeme, že nejstarší diskové pole /storage/brno1/ je úplně plné, prosíme vlastníky velkého objemu dat, aby zvážili přes jejich části na některé z dalších diskových polí (všechna pole jsou dostupná ze všech čelních i výpočetních uzlů MetaCentra, v závorce využitelná kapacita):
* /storage/brno3-cerit/home/LOGIN (nové diskové pole centra CERIT-SC, 260 TB)
* /storage/brno2/home/LOGIN (druhé diskové pole v Brně, 110 TB)
* /storage/brno1/home/LOGIN (původní /storage/home v Brně, 85 TB)
* /storage/plzen/home/LOGIN (diskové pole v Plzni, 44 TB).
Více informací viz https://meta.cesnet.cz/wiki/Souborové_systémy_v_MetaCentru#Svazky_.2Fstorage
S přáním příjemného počítání,
Centrum CERIT-SC
Ivana Křenková, Tue Jul 17 13:22:00 CEST 2012
Rozšíření SMP clusteru centra CERIT-SC
Centrum CERIT-SC rozšiřuje výpočetní kapacity o dalších 12 uzlů SMP clusteru zewura[9-20].cerit-sc.cz. Uzly jsou velmi podobné stávajícím.
Specifikace každého ze 12 nových uzlů:
* 8 procesorů Intel E7-4860 (každý 10 jader, 2.26 GHz)
* 512 GB RAM
* 12x 900GB pevné disky, formátovány v RAID-5 použity pro systém i scratch, celková užitná kapacita 9.9 TB
* vlastník CERIT-SC
* lokalita Brno, sál ÚVT MU
Podrobnější informace najdete na http://www.cerit-sc.cz/cs/Hardware/.
Účty na nových uzlech clusteru vám byly zřízeny automaticky, není třeba o ně nijak speciálně žádat. Úlohy zádávané do dávkového systému budou na nové uzly směřovány automaticky. Postup, jak na něm spustit úlohu, informace o připojených discích apod. najdete na http://www.cerit-sc.cz/cs/docs/. S veškerými připomínkami, dotazy, hlášením problémů atd. se prosím obracejte na adresu support@cerit-sc.cz.
S přáním příjemného počítání,
Centrum CERIT-SC
Ivana Křenková, Fri Jun 08 13:20:00 CEST 2012
Reorganizace souborových systémů v Plzni
V souvislosti s dříve avizovaným rozšířením úložných kapacit v
MetaCentru došlo k reorganizaci úložných kapacit v Plzni:
* domovské adresáře z nympha:/home (již nyní sdílené s clustery minos a konos) byly přesunuty na nové diskové pole
* všechny plzeňské stroje {nympha,minos,konos,ajax} sdílí nyní tento /home, k dispozici je zda cca 45 TB volného místa
* tento adresář je zároveň dostupný na všech strojích metacentra v /storage/plzen1/home
* data z konos:/home byla již dříve nakopírována na /storage/brno1/home/LOGIN/konos_home
* data z ajax:/home jsou k dispozici na /storage/plzen1/home/LOGIN/ajax_home
* standardní kvóta pro /storage/plzen1/: 1 TB
Dále jsou nově na všech strojích v MetaCentru (s vlastností 'nfs4') dostupné následující svazky:
* /storage/brno1/home/LOGIN (storage-brno1.metacentrum.cz,smaug1.ics.muni.cz)
* /storage/brno2/home/LOGIN (storage-brno2.metacentrum.cz,nienna1|nienna2|nienna-home.ics.muni.cz)
* /storage/plzen1/home/LOGIN (storage-plzen1.metacentrum.cz, storage-eiger1|storage-eiger2|storage-eiger3.zcu.cz)
Data na všech třech diskových polích jsou pravidelně zálohována.
Stávající označení svazku /storage/home/ bude fungovat jen po přechodnou dobu. Používejte místo něj /storage/brno1/home/
--------------------------------------------------------
POZOR
--------------------------------------------------------
Na /storage/brno1/ dochází místo, prosíme, zvažte přesun některých svých dat na nová disková pole v Brně a Plzni.
--------------------------------------------------------
Ivana Křenková, Wed May 23 13:18:00 CEST 2012
Nový cluster Minos
MetaCentrum bylo rozšířeno o nový cluster (minos[1-49].zcu.cz) http://www.metacentrum.cz/cs/resources/hardware.html#minos
Cluster je umístěn na sále ZČU v Plzni.
Specifikace každého ze 49 uzlů:
* procesor: 2x 6-cores(12-threads) Xeon E5645 2.40GHz
* paměť: 24 GB
* disk: 2x 600 GB
* síť: 1 Gbps Ethernet Infiniband
* vlastník: CESNET
Cluster Minos je přístupný všem zájemcům z MetaCentra. Účty na tomto clusteru byly vytvořeny automaticky všem uživatelům MetaCentra. Po dobu testovacího provozu bude cluster přístupný z front short, normal a backfill.
Ivana Křenková, Thu Apr 26 13:16:00 CEST 2012
Spouštíme MetaCloud
MetaCentrum ve spoluráci s centrem CERIT-SC připravilo pro uživatele experimentální instalaci akademického výpočetního (HPC) cloudu.
MetaCloud je alternativou ke konvenčnímu spouštění úloh dávkovým systémem. Místo spouštění úlohy v prostředí jednoho operačního systému definovaného MetaCentrem, jsou spouštěny celé virtuální stroje pod plnou kontrolou uživatele. K vytvoření virtuálního stroje se použije tzv. obrazu - kompletní instalace libovolného operačního systému. Je možno použít některého z předpřipravených obrazů nebo si vytvořit obraz vlastní, podporujeme i obrazy používané na Amazon EC2.
Virtuální výpočetní prostředí je přístupné prostřednictvím dvou různých rozhraní -- uživatelsky přívětivé webové rozhraní OpenNebula Sunstone nebo rozhraní ONE tools pro přístup přes příkazovou řádku, pro pokročilé uživatele.
Zájemci z MetaCentra mohou požádat o experimentální cloudový účet na e-mailu cloud@metacentrum.cz.
HW zdroje
* cluster s 10 uzly (24 CPU a 100 GB RAM pro každý uzel)
* 40 TB sdíleného diskového prostoru (pouze přes rozhraní S3)
V případě zájmu jsme připraveni přidat do cloudového prostředí další zdroje.
Další informace a dokumentace je na wiki http://meta.cesnet.cz/wiki/Kategorie:Cloudy
Ivana Křenková, Thu Mar 22 13:14:00 CET 2012
PRACE and IT4Innovations Workshop: HPC User's Access
IT4I zve uživatele MetaCentra na workshop Přístup k výpočetním prostředkům a HPC službám pro Českou Republiku, který se koná 5. dubna, v prostorách Podnikatelského inkubátoru Vysoké školy báňské - Technické univerzity Ostrava (http://pi.cpit.vsb.cz/kontakt).
Cílem workshopu je seznámit českou výzkumnou komunitu s možnostmi využití nejvýkonnějších evropských HPC prostředků, které jsou sdruženy do celoevropské HPC infrastruktury PRACE. V rámci programu bude představena výzkumná infrastruktura PRACE a její hlavní výpočetní systémy. Prezentovány budou základní služby této infrastruktury, jako je přístup k výpočetním zdrojům a školící a vzdělávací aktivity. Důraz bude kladen na možnosti dosažení a využití těchto služeb uživateli z ČR. Více detailů naleznete na stránce http://www.it4i.cz/aktuality_120315.php. Účast na workshopu je bezplatná a zváni jsou všichni zájemci o HPC a superpočítačové technologie.
V případě jakýchkoliv dotazů nás neváhejte kontaktovat (klara.janouskova@vsb.cz; 733 627 896).
S pozdravem a přáním příjemného dne,
Mgr. Klára Janoušková, M.A.
Manažer pro vnější vztahy
IT4Innovations
Vysoká škola báňská – Technická univerzita Ostrava
17. listopadu 15/2172
708 33 Ostrava-Poruba
Mob.: 420 733 627 896
Tel.: 420 597 329 088
e-mail: klara.janouskova@vsb.cz
web: www.IT4I.cz
Ivana Křenková, Mon Mar 19 13:12:00 CET 2012
Nový matematický software
Pro uživatele MetaCentra jsme nově pořídili následující aplikace nebo jejich rozšíření:
Matlab (http://meta.cesnet.cz/wiki/Matlab)
* nové vývojové toolboxy:
Matlab Compiler, Matlab Coder, Java Builder
* navýšení počtu licencí toolboxů:
Bioinformatics Toolbox (10 licencí), Database Toolbox (9),
Distributed Computing Toolbox (15)
Licence je přístupná všem uživatelům MetaCentra pro akademické použití.
Maple (http://meta.cesnet.cz/wiki/Maple)
* 30 nových licencí Maple 15
Licence je přístupná všem uživatelům MetaCentra pro akademické použití.
gridMathematica (http://meta.cesnet.cz/wiki/GridMathematica)
* 15 nových licencí programu gridMathematica
Rozšíření síťové instalace programu Mathematica na některých univerzitách.
V letošním roce budeme nakupovat další programové vybavení
a rovněž vývojové prostředí (např. PGI a Intel).
Hledáme náměty na další aplikační software, který má
potenciál využití větší skupinou uživatelů.
Náměty prosím posílejte na meta@cesnet.cz.
Ivana Křenková, Wed Feb 15 13:10:00 CET 2012
Nový SMP cluster Mandos
MetaCentrum bylo rozšířeno o nový SMP cluster (mandos[1-14].ics.muni.cz) tvořený 14 uzly po 64 CPU jádrech ve sdílené paměti. Cluster je umístěn na sále ÚVT v Brně.
Specifikace každého ze 14 uzlů:
* procesor: 4x AMD Opteron 6274 (celkem 64 jader, takt 2.5GHz)
* paměť: 256 GB
* disk: 870GB scratch lokální, 27TB scratch sdílený s ostatními mandosy
* síť: ethernet 1Gb/s, Infiniband (mezi mandosy) 40Gb/s
* vlastník: CESNET
Cluster Mandos je přístupný všem zájemcům z MetaCentra. Účty na tomto clusteru byly vytvořeny automaticky všem uživatelům MetaCentra s účtem na clusteru Skirit.
Ivana Křenková, Mon Feb 13 13:04:00 CET 2012
Rozšíření úložné kapacity v MetaCentru
Úložné kapacity (NFSv4) v MetaCentru budou v nejbližší době rozšířeny o dvě nová disková pole v Brně a Plzni.
Nově budou dostupné následující svazky (v závorce dostupná kapacita):
- /storage/brno1/home/LOGIN (původní /storage/home v Brně, 85 TB).
- /storage/brno2/home/LOGIN (nové diskové pole v Brně, 110 TB)
- /storage/plzen/home/LOGIN (nové diskové pole v Plzni, 40 TB)
Pozor: stávající označení svazku /storage/home/ bude fungovat jen po přechodnou dobu.
Zároveň dojde ke změně svazků /home v Brně a Plzni
- /storage/brno2/home nahradí {skirit, perian, orca, loslab, manwe,...}:/home
- /storage/plzen/home nahradí {nympha,minos,konos}:/home
Přesun domovských adresářů si vyžádá odstavení všech dotčených výpočetních uzlů umístěných na sále ÚVT v Brně a následně v Plzni. O datu přesunu budete informováni.
Ivana Křenková, Wed Feb 01 17:02:00 CET 2012
Zpřístupnění clusteru centra CERIT-SC
Jsem rád, že k vánočnímu přání mohu přidat i jeden splněný slib. Centrum CERIT-SC dává uživatelům MetaCentra k dispozici první výpočetní cluster.
Cluster tvoří 8 uzlů po 80 jádrech CPU ve sdílené paměti, podrobnější informace najdete na http://www.cerit-sc.cz/cs/Hardware/.
Účty na clusteru vám byly zřízeny automaticky, není třeba o ně nijak speciálně žádat. Cluster je obsluhován vlastním serverem dávkového systému Torque. Postup, jak na něm spustit úlohu, informace o připojených discích apod. najdete na http://www.cerit-sc.cz/cs/docs/.
Centrum CERIT-SC je do značné míry experimentální infrastrukturou, nikoli jen prostředím pro rutinní výpočty, proto uvítáme a budeme vstřícní k námětům na zajímavé nestandardní použití těchto zdrojů.
S veškerými připomínkami, dotazy, hlášením problémů atd. se prosím obracejte na adresu support@cerit-sc.cz.
Aleš Křenek, CERIT-SC, Fri Dec 23 17:20:00 CET 2011



















