Tyto novinky můžete číst jako RSS.
MetaCentrum bylo nedávno rozšířeno o dva nové výkonné clustery:
1) Masarykova univerzita (CERIT-SC) přikoupila k výkonnému stroji NVIDIA DGX H100 další cluster čítající 32x NVIDIA H100 GPU (94 GB GPU RAM) ve 20 uzlech s 960 CPU jádry vhodných pro AI náročné výpočty.
2) Fyzikální ústav Akademie věd zapojil do MetaCentra nový cluster magma.fzu.cz sestávající z 23 uzlů celkem s 2208 CPU jádry a každý s 1,5 TB RAM
1) Cluster bee.cerit-sc.cz
V dávkovém systému MetaCentra je zapojených 10 uzlů, celkem s 960 CPU jádry a 20x NVIDIA H100 s následující konfigurací každého uzlu:
CPU | 2x AMD EPYC 9454 48-Core Processor |
---|---|
RAM | 1536 GiB |
GPU | 2x H100 s 94 GB GPU RAM |
disk | 8x 7TB SSD s podporou BeeGFS |
net | Ethernet 100Gbit/s, InfiniBand 200Gbit/s |
poznámka | Výkon každého uzlu je dle SPECrate 2017_fp_base = 1060 |
vlastník | CERIT-SC |
Cluster podporuje nástroje NVidia GPU Cloud (NGC) pro hluboké učení, včetně předkonfigurovaných prostředí a je přístupný v běžných gpu frontách.
Zároveň připravujeme změnu pro přístup ke stroji NVIDIA DGX H100, který zůstane ve speciální frontě gpu_dgx@meta-pbs.metacentrum.cz. Bude využitelný na požádání a jen uživateli, kteří prokáží, že jejich úlohy podporují NVLink a umí využít alespoň 4 nebo všech 8 GPU kartet zaráz. O připravované změně budeme ještě informovat.
2) Cluster magma.fzu.cz
V dávkovém systému MetaCentra je zapojených 23 uzlů, celkem s 2208 CPU jader s následující konfigurací každého uzlu:
CPU | 2x AMD EPYC 9454 48-Core Processor CPU @ 2.7GHz |
---|---|
RAM | 1536 GiBidia |
isk | 1x 3.84 NVMe |
net | Ethernet 10Gbit/s |
poznámka | Výkon každého uzlu je dle SPECrate 2017_fp_base = 1160 |
vlastník | FZÚ AV ČR |
Cluster je přístupný v prioritní frontě vlastníka luna@pbs-m1.metacentrum.cz a pro ostatní uživatele v krátkých běžných frontách.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Vážení uživatelé,
dovolujeme si přeposlat informaci o grantové soutěži v IT4I:
|
||||||||
|
Vážení uživatelé,
Na začátku března jsme poprvé informovali o zahájení přechodu na novou PBSPro —> OpenPBS.
Pokud se tak již nestalo, používejte pro své úlohy nové OpenPBS prostředí pbs-m1.metacentrum.cz. Pokud nechcete ve svých skriptech nic měnit, zadávejte úlohy z frontendů s OS Debian12, názvy front zůstanou zachované, změní se jen PBS server (FRONTA@pbs-m1.metacentrum.cz).
Seznam dostupných frontendů včetně aktuálního OS najdete na stránce https://docs.metacentrum.cz/computing/frontends/
Nyní je v novém OpenPBS prostředí k dispozici cca 3/4 clusterů, na reinstalaci dalších intenzivně pracujeme. Čekáme na doběhnutí úloh.
Přehled strojů s vlastností Debian12: https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian12
Zda se Vaše úloha spustí v novém OpenPBS prostředí, můžete vyzkoušet v Sestavovači qsub: https://metavo.metacentrum.cz/pbsmon2/qsub_pbspro
Aktuální informace o migraci najdete v dokumentaci https://docs.metacentrum.cz/tutorials/debian-12/ (postup migrace zde aktualizujeme).
Vaše MetaCentrum
Vážení uživatelé,
Provedli jsme změnu ve službě Open OnDemand (OOD), kdy se nově OOD úlohy spouštějí také na clusterech, které nemají výchozí home na poli brno2. Z toho důvodu se může stát, že již existující data, historie příkazu, atd. z pole brno2 nebudou dostupná v nové OOD úloze, pokud bude spuštěna na stroji s jiným /home.
Pro přístup k původním datům na poli brno2 bude nutné nastavit symbolický odkaz na pole nové. Příklad níže nastavuje symbolický odkaz pro historii programu R.
ln -s /storage/brno2/home/user_name/.Rhistory /storage/new_location/home/user_name/.Rhistory
Vaše MetaCentrum
Na Konferenci e-INFRA CZ 2024, která se konala 29. - 30. dubna 2024 v Praze v hotelu Occindental, se sešlo přes 180 účastníků.
Prezentace z přednášek jsou k dispozici na stránkách akce.
Videozáznam připravujeme a zveřejníme brzy rovněž na stránkách akce.
Na začátku března jsme informovali o zahájení přechodu na novou PBSPro —> OpenPBS.
Pokud se tak již nestalo, používejte pro své úlohy nové OpenPBS prostředí pbs-m1.metacentrum.cz. Pokud nechcete ve svých skriptech nic měnit, zadávejte úlohy dočasně z nového frontendu zenith nebo z přeinstalovaných frontendů nympha, tilia a perian běžících v novém OpenPBS prostředí (už s OS Debian12). Ostatní frontendy budeme převádět postupně.
Seznam dostupných frontendů včetně aktuálního OS najdete na stránce https://docs.metacentrum.cz/computing/frontends/
Přístup k nové PBS je možný také z ostatních frontendů, je však nutná aktivace modulu openpbs (module add openpbs).
Problémy s kompatibilitou některých aplikací s OS Debian12 průběžně řešíme rekompilací nových SW modulů. Pokud narazíte na problém u své aplikace, vyzkoušejte přidání modulu debian11/compat na začátek spouštěcího skriptu (module add debian11/compat). Pokud problémy přetrvávají (chybějící knihovny atd.), dejte nám vědět na meta(at)cesnet.cz.
Nyní je v novém OpenPBS prostředí k dispozici cca polovina clusterů, na reinstalaci dalších intenzivně pracujeme. Čekáme na doběhnutí úloh. Přehled strojů s vlastností Debian12: https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian12
Zda se Vaše úloha spustí v novém OpenPBS prostředí můžete vyzkoušet v Sestavovači qsub: https://metavo.metacentrum.cz/pbsmon2/qsub_pbspro
Aktuální informace o migraci najdete v dokumentaci https://docs.metacentrum.cz/tutorials/debian-12/ (postup migrace zde aktualizujeme).
Vážení uživatelé,
Dovolujeme si Vás tímto pozvat k účasti na Konferenci e-INFRA CZ 2024, která se koná 29. - 30. dubna 2024 v Praze v hotelu Occindental.
Na konferenci vám představíme infrastrukturu e-INFRA CZ, její služby, mezinárodní projekty a výzkumné aktivity. Seznámíme Vás s aktuálními novinkami a nastíníme také plány MetaCentra. Druhý den konference přinese konkrétní rady a příklady užití infrastruktury.
Konference bude vedena v anglickém jazyce.
Na shledanou se těší Vaše MetaCentrum
Vážení uživatelé,
přeposíláme pozvánku na
|
|
S přáním příjemného počítání,
Připravujeme přechod na novou PBS - OpenPBS. Stávající PBSPro servery budou v budoucnu odstaveny z provozu, protože nemohou přímo komunikovat s novými OpenPBS servery a utilitami. Zároveň s migrací na novou PBS probíhá upgrade OS: Debian11 —> Debian12.
Pro testovací účely jsme připravili nové OpenPBS prostředí pbs-m1.metacentrum.cz s novým frontendem zenith běžícím na OS Debian12:
• nový frontend zenith.cerit-sc.cz (alias zenith.metacentrum.cz) s OS Debian12
• nový OpenPBS server pbs-m1.metacentrum.cz
• home /storage/brno12-cerit/
Postupně bude nové prostředí doplňováno o další clustery.
Přehled strojů s Debian12: https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian12
Seznam dostupných frontendů včetně aktuálního OS: https://docs.metacentrum.cz/computing/frontends/
Přístup k nové PBS je možný také z ostatních frontendů, je však nutná aktivace modulu openpbs (module add openpbs).
Problémy s kompatibilitou některých aplikací s OS Debian12 průběžně řešíme rekompilací nových SW modulů. Pokud narazíte na problém u své aplikace, vyzkoušejte přidání modulu debian11/compat na začátek spouštěcího skriptu (module add debian11/compat). Pokud problémy přetrvávají (chybějící knihovny atd.), dejte nám vědět na meta(at)cesnet.cz.
Více informací najdete v dokumentaci https://docs.metacentrum.cz/tutorials/debian-12/ (postup migrace zde budeme upřesňovat).
Chtěli bychom Vám připomenout možnost sdílet s námi své zkušenosti s výpočetními službami velké výzkumné infrastruktury e-INFRA CZ, kterou tvoří e-infrastruktury CESNET, CERIT-SC a IT4Innovations. Prosíme o vyplnění dotazníku do 8. 3. 2024. Vaše odpovědi nám pomohou upravit naše služby tak, aby Vám lépe vyhovovaly.
Pokud jste již dotazník vyplnili, děkujeme Vám za to! Velmi si toho vážíme.
Dotazník je dostupný na adrese https://survey.e-infra.cz/compute
Matlab
Získali jsme novou akademickou licenci pro 200 instancí Matlab 9.14 a novějšího (včetně široké škály toolboxů), pokrývající výpočetní prostředí MetaCentra, CERIT-SC i IT4Innovations.
Tato nová licence má přísnější podmínky než předchozí: lze ji používat pouze z IP adres MetaCenta/IT4Innovations, tj. nelze ji použít pro Matlab spuštěný na vašem počítači/univerzitní přednáškové místnosti.
Více informací: https://docs.metacentrum.cz/software/sw-list/matlab/
Mathematica
Od letošního roku již MetaCentrum nevlastní gridovou licenci SW Mathematica pro obecné využití v MetaCentru (dodavatel nedokázal nabídnout vhodný licenční model).
V současné době jsou licence Mathematica 9 omezeny pouze na členy UK a JČU, které mají vlastní licence pro své studenty a zaměstnance. Pokud máte vlastní (institucionální) licenci SW Mathematica, kontaktujte nás pro více informací na adrese meta(at)cesnet.cz.
Více informací: https://docs.metacentrum.cz/software/sw-list/wolfram-math/
Chipster
MetaCentrum pro své uživatele nově zpřístupnila vlastní instanci nástroje Chipster, dostupného na adrese https://chipster.metacentrum.cz/.
Chipster je open-source nástroj pro analýzu genomických dat. Jeho hlavním cílem je umožnit výzkumníkům a bioinformatickým odborníkům provádět pokročilé analýzy nad genomickými daty, jako jsou sekvenční data, mikročipy a RNA-seq. Zde jsou některé klíčové rysy Chipsteru:
Více informací: https://docs.metacentrum.cz/related/chipster/
Galaxy pro uživatele MetaCentra
Galaxy je otevřená webová platforma určená pro analýzu dat FAIR, původně v biomedicínském výzkumu, ale v současné době zahrnuje mnoho vědeckých oblastí. Pro uživatele MetaCentra jsme připravili dvě prostředí Galaxy pro obecné použití:
a) usegalaxy.cz
Obecný portál https://usegalaxy.cz/, který kopíruje funkčnost (zejména sadu dostupných nástrojů) celosvětových služeb (usegalaxy.org, usegalaxy.eu) a zároveň nabízí registrovaným uživatelům MetaCentra výrazně vyšší uživatelské kvóty (výpočetní i úložné). Zde jsou některé klíčové vlastnosti:
Více informací: https://docs.metacentrum.cz/related/galaxy/
b) RepeatExplorer Galaxy
Vedle obecně využitelné Galaxy nabízíme našim uživatelům specializovanou instanci Galaxy s nástrojem Repeat Explorer. Ke službě je potřeba se registrovat.
RepeatExplorer je výkonný nástroj pro zpracování dat, který je založen na platformě Galaxy. Jeho hlavním účelem je charakterizace opakujících se sekvencí v datech získaných ze sekvenování. Klíčové vlastnosti:
Více informací: https://galaxy-elixir.cerit-sc.cz/
OnDemand
Open OnDemand https://ondemand.grid.cesnet.cz/ je služba, která uživatelům umožňuje přístup k výpočetním zdrojům přes webový prohlížeč v grafickém režimu. Uživatel může spouštět běžné úlohy PBS, získat přístup k frontend terminálům, kopírovat soubory mezi úložišti nebo spouštět několik grafických aplikací přímo v prohlížeči. Některé z funkcí:
Více nformací: https://docs.metacentrum.cz/software/ondemand/
Kubernetes/Rancher
Celá řada grafických aplikací je dostupná rovněž v Kubernetes / Rancher https://rancher.cloud.e-infra.cz/dashboard/ ve správě Centra CERIT-SC (Ansys, Remote Desktop, Matlab, RStudio, …)
Více informací: https://docs.cerit.io/
JupyterNotebooky
Jupyter Notebooks jsou prostředím „as a Service“ založeným na technologii Jupyter. Jedná se o nástroj, který je dostupný přes webový prohlížeč a umožňuje uživatelům kombinovat kód (zejména v jazyce Python), výstupy ve formátu Markdown, text, matematiku, výpočty a bohatý mediální obsah.
Uživatelé MetaCentra mohou využívat Jupyter Notebooks ve třech variantách:
a) v cloudu: Pro uživatele MetaCentra je dostupný Jupyter přes MetaCentrum Cloud Hub. Registrace není nutná, stačí se přihlásit pomocí svého Metacentrum účtu. Více informací: https://docs.metacentrum.cz/related/jupyter/
b) v Kubernetes: Jupyter lze také provozovat v Kubernetes clusteru. V tomto případě se přihlašuje také pomocí Metacentrum přihlašovacích údajů.
Více informací: https://docs.cerit.io/docs/jupyterhub.html
c) jako aplikace v OnDemand
https://ondemand.grid.cesnet.cz/
AlphaFold
AlphaFold je populární nástroj založený na umělé inteligenci, který slouží k predikci 3D struktury proteinů. Jeho revoluční přístup v oblasti biochemie a návrhu léčiv umožňuje přesněji předpovídat, jak se proteiny skládají do třídimenzionálních struktur. Opět jej nabízíme ve třech variantách:
a) Centrum CERIT-SC nabízí přístup k AlphaFold as a Service ve webovém prohlížeči (jako předpřipravený Jupyter Notebook)
Více informací: https://docs.cerit.io/docs/alphafold.html
b) v dávkových úlohách v OnDemand https://ondemand.grid.cesnet.cz/pun/sys/myjobs/workflows/new
c) v dávkových úlohách pomocí RemoteDesktop a předpřipravených kontejnerů pro Singularity
Více informací: https://docs.metacentrum.cz/software/sw-list/alphafold/
Archivní úložiště du4.cesnet.cz v MetaCentru připojené jako storage-du-cesnet.metacentrum.cz je již mimo záruku a vykazuje řadu technických problémů v mechanice páskové knihovny, což neohrožuje samotná uložená data, ale komplikuje jejich dostupnost. Kolegové z Datových úložišť CESNET připravují přesun stávajících dat na nový systém (Object Storage).
Nyní je potřeba co nejvíce utlumit provoz na tomto úložišti, prosíme proto
Pokud potřebujete zde uložená data k výpočtům, domluvte si prioritní přesun s kolegy na du-support(at)cesnet.cz
Pokud naopak zde máte uložená data, která již neplánujete používat ani stěhovat (například staré zálohy), prosíme, kontaktujte rovněž kolegy na du-support(at)cesnet.cz
Vážení uživatelé,
přeposíláme pozvánku s kurzy SVS FEM (Ansys):
|
|
SVS FEM s.r.o., Trnkova 3104/117c, 628 00 Brno
+420 543 254 554 | http://www.svsfem.cz
S přáním příjemného počítání,
Z důvodu poruchovosti a stáří jsme nedávno zrušili, nebo v dohledné době rušit plánujeme, stará disková pole Centra CERIT-SC:
• /storage/brno3-cerit/
• /storage/brno1-cerit/
Nedávno jsme zrušili diskové pole /storage/brno3-cerit/ a data z /home adresářů jsme přesunuli do /storage/brno12-cerit/home/LOGIN/brno3 (alternativně přímo do /home, pokud byl na novém úložišti prázdný).
Dočasně zůstal funkční symlink /storage/brno3-cerit/home/LOGIN/…, který vede na stejná data na novém poli. Od nynějška prosím používejte novou cestu ke stejným datům /storage/brno12-cerit/home/LOGIN/…
Všechna data z brno3 jsou již fyzicky přestěhována na nové pole! Není potřeba nic nikam kopírovat.
V blízké budoucnosti začneme stěhovat data z diskového pole /storage/brno1-cerit/ do /storage/brno12-cerit/home/LOGIN/brno1/.
Data přestěhujeme my, v době, kdy nebudou používána v úlohách.
Dočasně zůstane funkční symlink /storage/brno1-cerit/home/LOGIN/…, který povede na stejná data na novém poli. Ten bude po zrušení pole smazán a data budou dostupná jako /storage/brno12-cerit/home/LOGIN/brno1/.
POZOR na poli /storage/brno1-cerit/ jsou uložená také data z archivů starých, dávno zrušených diskových polí. Data z archivů neplánujeme přenášet automaticky! Pokud data z následujících archivů používáte, ozvěte se nám na meta@cesnet.cz, potřebná data překopírujeme rovněž do /storage/brno12-cerit/:
• /storage/brno4-cerit-hsm/
• /storage/brno7-cerit/
• /storage/jihlava1-cerit/
Jediným diskovým polem, připojeným do MetaCentra z Centra CERIT-SC, bude nadále /storage/brno12-cerit/ (storage-brno12-cerit.metacentrum.cz)
Všechna svá data najdete na diskovém poli /storage/brno12-cerit/home/LOGIN/… a symlinky na stará úložiště budou nejpozději v létě zrušeny.
S omluvou za komplikace a s přáním pěkného dne,
Vaše MetaCentrum
Vážení uživatelé,
přeposíláme pozvánku s kurzy v IT4Innovation.
|
||||||||||||
|
||||||||||||
|
S přáním příjemného počítání,
Výzkumníci z Katedry kybernetiky FAV ZČU, kteří na jaře přednášeli na Gridovém semináři MetaCentra, a se kterými jsme nedávno připravili reportáž o využívání našich služeb, získali ocenění AI Awards 2023. Gratulujeme!
Za oceněným projektem zachování historického dědictví a kulturní paměti, který spočívá ve zpřístupnění archivu historických dokumentů NKVD/KGB, stojí také naše služby, zejména Kubernetes cluster Kubus a s ním spojená disková úložiště.
Tyto výpočetní a datové zdroje k řešení velmi náročných úloh spravuje pro oblast vědy a výzkumu MetaCentrum. Více informací v tiskové zprávě ZČU.
Náš kolega Zdeněk Šustr dnes vystupuje na konferenci Copernicus forum a Inspirujme se 2023 ve Hvězdáně a planetáriu v Brně. Představí nové služby, data a plány národního uzlu Sentinel CollGS a projekt GREAT. Konference je součástí akce Czech Space Week. Je zaměřena na dálkový průzkum Země a infrastruktury INSPIRE pro sdílení prostorových dat.
Projekt GREAT je financován z prostředků Evropské unie, programu Digital Europe Programme (DIGITAL – ID: 101083927).
Vážení uživatelé,
přeposíláme pozvánku s kurzy v IT4Innovation.
|
|
|
|
|
|
S přáním příjemného počítání,
Vážení uživatelé,
na základě zpětné vazby, kterou jsme od Vás získali v uživatelském dotazníku z přelomu roku, jsme nejčastější dotazy zpracovali do podoby Tipu dne.
Nově se Vám zobrazí na všech frontendech náhodná rada v podobě krátkého textu na konci výpisu MOTD po přihlášení na frontend.
Zobrazování tipů si můžete na vybraném frontendu deaktivovat pomocí přikazu "touch ~/.hushmotd".
S přáním příjemného počítání,
Vážení uživatelé,
s radostí oznamujeme, že jsme do MetaCentra pořídili nový velice zajímavý HW.
Více informací najdete také v tiskové zprávě e-INFRA CZ "Vědci v ČR získali nejpokročilejší systém pro AI a dva nové clustery pro náročné technické výpočty"
Masarykova univerzita (CERIT-SC) se stala průkopníkem v oblasti podpory umělé inteligence (AI) a výkonné výpočetní technologie díky instalaci nejnovějšího a nejvyspělejšího systému NVIDIA DGX H100. Jedná se o první zařízení tohoto typu v celé ČR (a Evropě), které přináší extrémní výpočetní sílu a inovativní možnosti pro výzkum.
Díky nejnovější architektuře GPU NVIDIA Hopper DGX H100 disponuje osmi pokročilými grafickými procesory NVIDIA H100 Tensor Core, každý s GPU pamětí 80 GB. Umožňuje tak paralelní zpracování obrovských datových objemů a výrazně urychluje výpočetní úlohy.
Konfigurace systému NVIDIA DGX H100 capy.cerit-sc.cz
Server DGX H100 je dodáván s předinstalovaným softwarovým balíčkem NVIDIA DGX, který obsahuje komplexní sadu softwarových nástrojů pro hluboké učení, včetně předkonfigurovaných prostředí.
Stroj je přístupný na požádání ve speciální frontě gpu_dgx@meta-pbs.metacentrum.cz.
Pro přístup žádejte na adrese meta@cesnet.cz. V žádosti popište důvody pro přidělení tohoto zdroje (potřebnost a schopnost efektivního využítí. Zároveň popište stručně očekávané výsledky, předpokládaný objem zdrojů a časový rozsah potřebného přístupu.
Kromě toho mohou uživatelé MetaCentra začít využívat dva zcela nové výpočetní clustery, které pořídíl CESNET. První byl zprovozněn v Ústavu molekulární genetiky Akademie věd ČR v Praze-Krči pod názvem TURIN a druhý na Ústavu výpočetní techniky Masarykovy univerzity v Brně pod jménem TYRA.
Pražský cluster TURIN má 52 uzlů, z nichž každý disponuje 64 jádry CPU a 512 GB RAM. Jeho brněnský kolega TYRA je tvořen 44 uzly a jinak s totožnou technickou specifikací.
Oba clustery jsou osazeny procesory AMD společně s technologií AMD 3D V-Cache. Jde o nejvýkonnější serverové procesory určené pro náročné výpočty.
Konfigurace clusterů turin.metacentrum.cz a tyra.metacentrum.cz
Kompletní seznam aktuálně dostupných výpočetních serverů je na https://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Masarykova univerzita (CERIT-SC) se stala průkopníkem v oblasti podpory umělé inteligence (AI) a výkonné výpočetní technologie díky instalaci nejnovějšího a nejvyspělejšího systému NVIDIA DGX H100. Jedná se o první zařízení tohoto typu v celé ČR, které přináší extrémní výpočetní sílu a inovativní možnosti pro výzkum.
Díky nejnovější architektuře GPU NVIDIA Hopper DGX H100 disponuje osmi pokročilými grafickými procesory NVIDIA H100 Tensor Core, každý s GPU pamětí 80 GB o celkovém výpočetním výkonu 32 TeraFLOPS. Umožňuje tak paralelní zpracování obrovských datových objemů a výrazně urychluje výpočetní úlohy. Díky vysoce výkonným paměťovým subsystémům v grafických akcelerátorech poskytuje rychlý přístup k datům a optimalizuje výkon při práci s velkými datovými sadami. Uživatelé tak mohou dosáhnout bezkonkurenční efektivity a odezvy ve svých AI úlohách.
Server DGX H100 je dodáván s předinstalovaným softwarovým balíčkem NVIDIA DGX, který obsahuje komplexní sadu softwarových nástrojů pro hluboké učení, včetně předkonfigurovaných prostředí.
Stroj je přístupný na požádání ve speciální frontě gpu_dgx@meta-pbs.metacentrum.cz.
Pro přístup žádejte na adrese meta@cesnet.cz. V žádosti popište důvody pro přidělení tohoto zdroje (potřebnost a schopnost efektivního využít). Zároveň popište stručně očekávané výsledky, předpokládaný objem zdrojů a časový rozsah potřebného přístupu.
Konfigurace NVIDIA DGX H100 (capy.cerit-sc.cz)
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
MetaCentrum bylo rozšířeno o nové clustery:
1) CPU cluster turin.metacentrum.cz, 52 uzlů, 3328 jader CPU, s následující specifikací každého uzlu:
2) CPU cluster tyra.metacentrum.cz, 44 uzlů, 2816 jader CPU, s následující specifikací každého uzlu:
Clustery jsou dostupné v prostředí plánovacího serveru @pbs-meta prostřednictvím standardních krátkých front. Po otestování budou přidány i delší fronty.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Vážení uživatelé,
připravili jsme pro Vás novou dokumentaci MetaCentra, která je dostupná na https://docs.metacentrum.cz/ .
Obsah jsme strukturovali podle témat, která Vás zajímají, ta najdete v horní liště. Po rozkliknutí vybraného tématu se rozbalí pomocné menu vlevo s další navigací. V pravo je pak obsah s tématy obsaženými na stránce.
Do přípravy dokumentace jsme promítli i zpětnou vazbu, kterou jste nám poslali v dotazníku (děkujeme). Například jsme pročistili spoustu neaktuálních informací, které zůstávaly dohledatelné ve wiki a pokusili jsme se zpřehlednit výukové příklady.
Kvůli možnosti zpětného dohledání informací nebude původní dokumentace smazána hned, ale zůstane dočasně přístupná. Od konce března 2023 však není aktualizována!
Proč jsme zvolili jiný formát dokumentace a opustili wiki?
Jak jistě víte, probíhá integrace poskytovaných služeb do jednotné platformy e-INFRA CZ*. Součástí této integrace je sjednocení formátu všech uživatelských dokumentací. Do budoucna naši novou dokumentaci začleníme do společné dokumentace všech poskytovaných služeb v rámci aktivit e-INFRA CZ https://docs.e-infra.cz/.
-----
* e-INFRA CZ je infrastruktura pro vědu a výzkum, která spojuje a koordinuje aktivity tří českých e-infrastruktur: CESNET, CERIT-SC a IT4Innovations. Více informací naleznete na domovské stránce e-INFRA CZ https://www.e-infra.cz/.
-----
Nová dokumentace stále prochází vývojem a změnami. V případě, že narazíte na jakékoliv problémy, nejasnosti nebo Vám něco chybí, dejte nám prosím vědět na e-mailu meta@cesnet.cz . Už teď přemýšlíme, jak pro Vás ještě lépe rozpracovat část dokumentace věnované instalacím SW.
S pozdravem,
tým MetaCentra
Vážení uživatelé,
dovolujeme si přeposlat informaci o grantové soutěži v IT4I:
|
||||
|
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na hybridní školení Introduction to MPI:
--
Dear Madam / Sir,
The Czech National Competence Center in HPC is inviting you to a course Introduction to MPI, which will be held hybrid (online and onsite) on 30–31 May 2023.
Message Passing Interface (MPI) is a dominant programming model on clusters and distributed memory architectures. This course is focused on its basic concepts such as exchanging data by point-to-point and collective operations. Attendees will be able to immediately test and understand these constructs in hands-on sessions. After the course, attendees should be able to understand MPI applications and write their own code.
Introduction to MPI
Date: 30–31 May 2023, 9 am to 4 pm
Registration deadline: 23 May 2023
Venue: online via Zoom, onsite at IT4Innovations, Studentská 6231/1B, 708 00 Ostrava–Poruba, Czech Republic
Tutors: Ondřej Meca, Kristian Kadlubiak
Language: English
Web page: https://events.it4i.cz/event/165/
Please do not hesitate to contact us might you have any questions. Please write us at training@it4i.cz.
We are looking forward to meeting you online and onside.
Best regards,
Training Team IT4Innovations
training@it4i.cz
Vážení uživatelé,
Rádi bychom Vás pozvali na tradiční Seminář MetaCentra, který se bude konat v Praze 12. a 13. dubna 2023.
Společně s EOSC CZ jsme připravili bohatý program, který by Vás mohl zajímat.
První den akce bude věnován EOSC CZ aktivitám, především pak přípravě národní repozitářové platformy a ukládání/archivování výzkumných dat v ČR.
Druhý den pak proběhne Seminář gridového počítání 2023, který bude zaměřen na představení novinek a nových služeb, které MetaCentrum nabízí.
Mezi nimi budou například Singularity kontejnery, NVIDIA framework pro AI, Galaxy, grafická prostředí v OnDemand a Kubernetes, Jupyter Notebooky, Matlab (zvaná přednáška) a mnoho dalšího. Odpoledne se bude konat volitelný Hands-on workshop s omezenou kapacitou, kde si dozvíte mnoho zajímavého a pod vedením našich odborníků si můžete vyzkoušet témata, která Vás zajímají.
Protože chceme, aby Seminář odpovídal Vašim potřebám, budeme velmi rádi, když nám sdělíte, která témata Vás zajímají a co byste si chtěli vyzkoušet. Pokusíme se je zařadit do programu. Náměty prosím pište na meta@cesnet.cz.
Podrobnější informace a registraci najdete na stránce semináře: https://metavo.metacentrum.cz/cs/seminars/Seminar2023/index.html
Těšíme se na Vaši účast! Seminář proběhne v českém jazyce.
Vaše MetaCentrum
Vážení uživatelé,
rádi bychom vám oznámili, že od od čtvrtka 9. 3. 2023 se mění způsob výpočtu fairshare. Přidáváme nový koeficient s názvem "spec", který bere v úvahu rychlost výpočetního uzlu, na kterém běží úloha.
Dosud se "usage fairshare" počítal jako usage = used_walltime*PE
, kde PE je "procesor ekvivalent" vyjadřující kolik zdrojů (ncpus, mem, scratch, gpu...) si uživatel na stroji alokoval.
Nově se bude počítat jako usage = spec*used_walltime*PE
, kde "spec" značí koeficient, který vystihuje výkon hlavního uzlu (spec na jádro), na kterém běží úloha. Tento koeficient nabývá hodnot od 3 do 10.
Doufáme, že vám tato změna umožní ještě efektivnější využití našich výpočetních zdrojů. Pokud máte jakékoli dotazy, neváhejte nás kontaktovat.
Vážení uživatelé,
připravili jsme novou verzi grafického prostředí OnDemand, které je dostupné nově na https://ondemand.metacentrum.cz
Open OnDemand je služba, která uživatelům umožňuje přístup k výpočetním zdrojům přes webový prohlížeč v grafickém režimu. Uživatel může spouštět běžné úlohy PBS, získat přístup k frontend terminálům, kopírovat soubory mezi našimi úložišti nebo spouštět několik grafických aplikací v prohlížeči. Mezi nejpoužívanější dostupné aplikace patří Matlab, ANSYS, MetaCentrum Remote Desktop a VMD (viz úplný seznam GUI aplikací dostupných přes OnDemand). Grafické relace jsou trvalé, můžete k nim přistupovat z různých počítačů v různých časech nebo dokonce současně.
Přihlašovací jméno a heslo do rozhraní Open OnDemand V2 je vaše přihlašovací jméno e-INFRA CZ / Metacentrum a heslo Metacentra.
Více informací najdete v dokumentaci: https://wiki.metacentrum.cz/wiki/OnDemand
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na hybridní školení High Performance Data Analysis with R:
--
Dear Madam / Sir,
The Czech National Competence Center in HPC is inviting you to a course High Performance Data Analysis with R, which will be held hybrid (online and onsite) on 26–27 April 2023.
This course is focused on data analysis and modeling in R statistical programming language. The first day of the course will introduce how to approach a new dataset to understand the data and its features better. Modeling based on the modern set of packages jointly called TidyModels will be shown afterward. This set of packages strives to make the modeling in R as simple and as reproducible as possible.
The second day is focused on increasing computation efficiency by introducing Rcpp for seamless integration of C++ code into R code. A simple example of CUDA usage with Rcpp will be shown. In the afternoon, the section on parallelization of the code with future and/or MPI will be presented.
High Performance Data Analysis with R
Date: 26–27 April 2023, 9 am to 5 pm
Registration deadline: 20 April 2023
Venue: online via Zoom, onsite at IT4Innovations, Studentská 6231/1B, 708 00 Ostrava – Poruba, Czech Republic
Tutor: Tomáš Martinovič
Language: English
Web page: https://events.it4i.cz/event/163/
Please do not hesitate to contact us might you have any questions. Please write us at training@it4i.cz.
We are looking forward to meeting you online and onside.
Best regards,
Training Team IT4Innovations
training@it4i.cz
Vážení uživatelé,
Rádi bychom se dozvěděli, co si myslíte o námi poskytovaných službách.
Najděte si prosím přibližně 15 minut na vyplnění formuláře pro zpětnou vazbu a poskytněte nám tak cenné informace potřebné pro rozvoj našich služeb.
Chápeme, že Váš čas strávený nad tímto dotazníkem je cenný, a proto každý, kdo formulář vyplní a bude mít vyplněné přihlašovací údaje do e-INFRA CZ, od nás obdrží odměnu v podobě 0,5 impaktované publikace, která navýší fairshare a zvýší prioritu uživatele v prostředí PBS.
Formulář pro zpětnou vazbu (vyberte prosím libovolnou jazykovou variantu):
Děkujeme vám za Vaši zpětnou vazbu. Přejeme Vám mnoho úspěchů a publikací i v roce 2023.
S pozdravem,
Vaše MetaCentrum
Vážení uživatelé,
kvůli optimalizaci na NUMA systému serveru ursa byla zavedena fronta uv18.cerit-pbs.cerit-sc.cz, která umožňuje alokovat procesory pouze po nasobcích 18 tak, aby byl vždy využit celý NUMA node a nedocházelo k výraznému zpomalování výpočtu při zbytečné alokaci úlohy na více numa nodů.
Do fronty jsou proto přijímány pouze úlohy v násobcích 18 jader CPU a má vysokou prioritu.
S pozdravem,
Vaše MetaCentrum
Vážení uživatelé,
nově je možné při žádosti o zdroje pro výpočetní úlohu zadat minimální rychlost CPU výpočetního nodu, t.j. zajistit, aby výpočetní uzel, na kterém úloha poběží, neměl procesor pomalejší než je určitá definovaná hodnota. Tento parametr se jmenuje spec a jeho číselná hodnota vychází z metodiky https://www.spec.org/ . Více k použití parametru spec se dočtete v naší uživatelské wiki na https://wiki.metacentrum.cz/wiki/About_scheduling_system#CPU_speed.
Vyžádání strojů s rychlejším procesorem může vést ke zkrácení výpočetní doby, na druhou stranu se tím omezuje množina nodů, kterou má úloha potenciálně k dispozici, a úloha tedy může čekat déle ve frontě. Používejte proto parametr spec s rozmyslem.
S pozdravem,
Vaše MetaCentrum
Vážení uživatelé,
V rámci kontroly zabezpečení infrastruktury Metacentra jsme identifikovali
několik slabých uživatelských hesel. Aby byla zajištěna dostatečná ochrana
prostředí Metacentra, bude u příslušných uživatelů potřeba, aby provedli změnu
svého hesla na portále MetaCentra
(https://metavo.metacentrum.cz/cs/myaccount/heslo.html).
Uživatele, kterých se to týká, budeme kontaktovat přímo.
V případě dotazů se prosím obraťte na meta@cesnet.cz.
S pozdravem,
Vaše MetaCentrum
Uživatelé mohou nově přistupovat ke grafickému rozhraní aplikací proklikem přes webový prohlížeč. Návod na wiki https://wiki.metacentrum.cz/wiki/Remote_desktop#Quick_start_I_-_Run_GUI_desktop_in_a_web_browser.
Dřívější způsob přístupem přes VNC klienta je nadále možný - viz https://wiki.metacentrum.cz/wiki/Remote_desktop#Quick_start_II_-_Run_GUI_desktop_in_a_VNC_session a následující návody.
Uživatelé mohou nově získat historii svých úloh, včetně těch starších než 24 hodin, příkazem
pbs-get-job-history <job_id>
Pokud příkaz nalezne úlohu v archivu, vytvoří v aktuálním adresáři podadresář s názvem job_ID (např. 11808203.meta-pbs.metacentrum.cz), který obsahuje několik souborů. Důležité jsou zejména
job_ID.SC - kopie skriptu předaného příkazu qsub
job_ID.ER - standardní výstup úlohy (STDOUT)
job_ID.OU - standardní chybový výstup úlohy (STDERR)
Více informací je k dispozici v dokumentaci: https://wiki.metacentrum.cz/wiki/PBS_get_job_history
Na GPU kartách mohou nově uživatelé specifikovat, kolik nejméně paměti musí mít GPU karta k dispozici. K tomu slouží parametr gpu_mem. Například příkaz
qsub -q gpu -l select=1:ncpus=2:ngpus=1:mem=10gb:scratch_local=10gb:gpu_mem=10gb -l walltime=24:0:0
zařídí, aby se úloze přidělil stroj s GPU kartou, která má alespoň 10 GB paměti.
Více informací je k dispozici v dokumentaci https://wiki.metacentrum.cz/wiki/GPU_stroje
V souvislosti s tím bychom uživatele rádi upozornili, že pro specifikaci GPU karet je vhodnější používat kombinaci parametrů
gpu_mem a cuda_cap než název konkrétního klastru. Prvně uvedený způsob zahrne širší množinu strojů a tím pádem se zkrátí čekání úlohy ve frontě.
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na ESFRI Open Session
--
Dear All,
I am pleased to invite you to the 3rd ESFRI Open Session, with the leading theme Research Infrastructures and Big Data. The event will take place on June 30th 2022, from 13:00 until 14:30 CEST and will be fully virtual. The event will feature a short presentation from the Chair on recent ESFRI activities, followed by presentations from 6 Research infrastructures on the theme and there will also be an opportunity for discussion. The detailed agenda of the 3rd Open Session will soon be available via the event webpage.
ESFRI holds Open Sessions at its plenary meetings twice a year, to communicate to a wider audience about its activities. They are intended to serve both the ESFRI Delegates and representatives of the Research Infrastructures community, and facilitate both-ways exchange. ESFRI has launched the Open Session initiative as a part of the goals set within the ESFRI White Paper - Making Science Happen.
I would like to inform you that the Open Session will be recorded and will be at your disposal at our ESFRI YouTube channel. The recordings from the previous Open Sessions themed around the ESFRI RIs response to the COVID-19 pandemic, and the European Green Deal, are available here.
Please forward this invitation to your colleagues in the EU Research & Innovation ecosystem that you deem would benefit from the event.
Registration is mandatory for participation, and should be done via the following link:
https://us06web.zoom.us/webinar/register/WN_0-sM43ktT3mPuCzXi3KNdQ
Your attendance at the Open Session will be highly appreciated.
Sincerely,
Jana Kolar,
ESFRI Chair
Vážení uživatelé,
Dovolujeme si Vás tímto pozvat k účasti na Seminář gridového počítání - MetaCentrum 2022, který se koná 10. května 2022 v Praze v hotelu Diplomat.
Seminář je součástí konference e-infrastruktury e-INFRA CZ 2022 https://www.e-infra.cz/konference-e-infra-cz
Představíme Vám infrastrukturu e-INFRA CZ, její služby, mezinárodní projekty a výzkumné aktivity. Seznámíme vás s aktuálními novinkami a nastíníme naše plány.
V odpoledním programu vám nabídneme dvě paralelní sekce. Jedna se zaměří na rozvoj sítě, její bezpečnost a multimédia a druhá na zpracování a ukládání dat - Seminář gridového počítání MetaCentrum 2022.
V podvečer se pak zájemci mohou zúčastnit bonusové sekce Gridová služba MetaCentrum - Best Practices s následnou volnou diskuzí o tématech, která Vás zajímají a nedají Vám spát.
Více informací, program a registraci najdete na stránce akce https://metavo.metacentrum.cz/cs/seminars/seminar2022/index.html
Na shledanou se těší Vaše MetaCentrum
MetaCentrum bylo rozšířeno o nové clustery:
galdor.metacentrum.cz vlastník CESNET, 20 uzlů, 1280 jader CPU a 80 GPU kartami NVIDIA A40, s následující specifikací každého uzlu:
Cluster je dostupný v prostředí plánovacího serveru @pbs-meta prostřednictvím standardních krátkých front a prioritní fronty gpu.
Na GPU clusterech je možné využívat dockerové obrazy z NVIDIA GPU Cloud (NGC) -- nejpoužívanější prostředí pro vývoj machine learning a deep learning aplikací, HPC aplikací nebo vizualizaci akcelerovanou NVIDIA GPU kartami. Nasazení těchto aplikací je pak otázkou zkopírování odkazu na příslušný Docker obraz, jeho spuštění spuštění v Docker kontejneru v Singularity. Více informací najdete na https://wiki.metacentrum.cz/wiki/NVidia_deep_learning_frameworks
halmir.metacentrum.cz vlastník CESNET, 31 uzlů, 1984 jader CPU, s následující specifikací každého uzlu:
Cluster je dostupný v prostředí plánovacího serveru @pbs-meta prostřednictvím standardních krátkých front. Po otestování budou přidány i delší fronty.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
Problémy s kompatibilitou některých aplikací s OS Debian11 průběžně řešíme rekompilací nových SW modulů. Pokud narazíte na problém u své aplikace, vyzkoušejte přidání modulu debian10-compat na začátek spouštěcího skriptu. Pokud problémy přetrvávají, dejte nám vědět na meta(at)cesnet.cz.
S přáním příjemného počítání,
Vážení uživatelé,
zveme Vás na webinář Představení Kubernetes jako další výpočetní platformy dostupné uživatelům MetaCentra
Záznam z webináře https://youtu.be/zUrkd5qmbAc
Dokumentace ke Kubernetes a Rancheru https://docs.cerit.io/
Vážení uživatelé,
v infrastruktuře MetaCentrum pokračujeme v přechodu na nové algoritmy používané pro autentizaci uživatelů a ověření jejich hesel.
Nové algoritmy jsou bezpečnější a přináší podporu nových zařízení a operačních systémů. Pro dokončení přechodu bude u některých uživatelů potřeba, aby provedli nové zadání svého hesla v aplikaci pro změnu hesla na portále Metacentra (https://metavo.metacentrum.cz/cs/myaccount/heslo.html).
Uživatele, kterých se to týká, budeme kontaktovat přímo.
Připomínáme, že po uživatelích nikdy nepožadujeme zasílání hesel mailem. Veškeré informace o správě hesel jsou dostupné ze stránek MetaCentra.
V případě dotazů se prosím obraťte na support@metacentrum.cz.
S pozdravem,
Vaše MetaCentrum
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na EGI webinář OpenRDM
--
Dear all
I'm please to announce the first webinar in the new year which is related to the current hot topic, Data Space. Register now to reserve your place!
Title: openRDM
Date and Time: Wednesday, 12th January 2022 |14:00 -15:00 PM CEST
Description: The talk will introduce OpenBIS, an Open Biology Information System, designed to facilitate robust data management for a wide variety of experiment types and research subjects. It allows tracking, annotating, and sharing of data throughout distributed research projects in different quantitative sciences.
Agenda: https://indico.egi.eu/event/5753/
Registration: us02web.zoom.us/webinar/register/WN_6xn2eqnjTI60-AtB6FKEEg
Speaker: Priyasma Bhoumik, Data Expert, ETH Zurich. Priyasma holds a PhD in Computational Sciences, from University of South Carolina, USA. She has worked as a Gates Fellow in Harvard Medical School to explore computational approaches to understanding the immune selection mechanism of HIV, for better vaccine strategy. She moved to Switzerland to join Novartis and has worked in the pharma industry in the field of data science before joining ETHZ.
If you missed any previous webinars, you can find recordings at our website: https://www.egi.eu/webinars/
Please let's know if there are any topics you are interested in, and we can arrange according to your requests.
Looking forward to seeing you on Wednesday!
Yin
----
Dr Yin Chen
Community Support Officer
EGI Foundation (Amsterdam, The Netherlands)
W: www.egi.eu | E: yin.chen@egi.eu | M: +31 (0)6 3037 3096 | Skype: yin.chen.egi | Twitter: @yinchen16
EGI: Advanced Computing for Research
The EGI Foundation is ISO 9001:2015 and ISO/IEC 20000-1:2011 certified
Od nynějška je možné používat nový typ scratche, tzv. SHM scratch. Tento scratch je určen pro úlohy, které potřebují extrémně rychlé čtení a zápis z/do souborů. SHM scratch existuje pouze v RAM, proto jsou data v něm uložená neperzistentní a zanikají s pádem nebo skončením úlohy. Více o použití SHM scratchů se dočtete na stránce https://wiki.metacentrum.cz/wiki/Scratch_storage
S přátelským pozdravem
MetaCentrum
Z důvodu obměny hardware budou úložiště /storage/brno8, resp. /storage/ostrava1 zrušena a 27. 9. 2021 budou odpojena. Data z domovských adresářů budou přesunuta do adresáře /storage/brno2/home/USERNAME/brno8. Tento přesun zajistíme. Žádáme nicméně uživatele, aby na rušených úložištích smazali data, která nechtějí zachovávat, a pomohli nám tak zkrátit proces kopírování.
S přátelským pozdravem
MetaCentrum
Připravili jsme nástroj pro prodlužování úloh, který mohou v omezené míře využít uživatelé k prodloužení svých úloh, u kterých neodhadli potřebný čas walltime.
Úlohy je možné prodloužit z příkazové řádky na libovolném frontendu příkazem
qextend <full jobID> <additional_walltime>
Příklad:
(BUSTER)melounova@skirit:~$ qextend 8152779.meta-pbs.metacentrum.cz 01:00:00 The walltime of the job 8152779.meta-pbs.metacentrum.cz has been extended. Additional walltime: 01:00:00 New walltime: 02:00:00
Jako prevence proti nadužívání nástroje (přílišná volnost v prodlužování by velmi ztížila plánování úloh) jsme nastavili následující limity:
Interval je klouzavý. Prodloužení úloh starší 30 dnů jsou „zapomenuta“ a již nezabírají Vaši kvótu.
Více informací najdete v dokumentaci https://wiki.metacentrum.cz/wiki/Prolong_walltime
S přátelským pozdravem
MetaCentrum & CERIT-SC
Dobrý den,
oznamujeme, že 15.8.2021 dojde ke zrušení clusteru hador poskytující služby Hadoop. Náhradou je virtualizované prostředí v cloudu, včetně navrhovaného postupu vytvoření jednostrojové nebo vícestrojové varianty clusteru.
Více informací: https://wiki.metacentrum.cz/wiki/Hadoop
S přátelským pozdravem
MetaCentrum
Vzhledem k narůstajícímu množství dat na našich polích jsou některé diskové operace již neúměrně dlouhé. Problémy způsobují zejména hromadné manipulace s daty (kopírování celých uživatelských adresářů, prohledávání, zálohování apod). Komplikace působí hlavně velké množství souborů, u některých uživatelů jsou to řádově i desítky miliónů.
Rádi bychom vás touto cestou požádali o kontrolu počtu souborů ve vašich domovských adresářích a jejich redukci. Aktuální stav je uvedený
Kvóta kterou plánujeme zavést bude orientačně 1-2 milióny souborů na uživatele. Věříme, ze pro drtivou většinu z vás bude naprosto dostatečná, v odůvodněných případech bude možno ji navýšit obdobně jako datovou kvótu.
Kvóty plánujeme zavádět postupně v následujících měsících. Při redukci počtu souborů využívejte prosím přistup přímo přes frontendy diskových polí, jak je uvedeno na naší wiki v sekci Práce s daty: https://wiki.metacentrum.cz/wiki/Prace_s_daty
Informace o způsobu zálohování jednotlivých polí jsou uvedeny na výše zmíněné wiki stránce Práce s daty, včetně doporučení jak nakládat s různými typy dat. I když bychom rádi zálohovali vše, není to ekonomicky či technicky vždy možné. Jakkoli jsou nehody vedoucí ke ztrátě dat řídké, rádi bychom opět zdůraznili, že ne každé pole je zálohované a je vhodné na to pamatovat při ukládání důležitých dat.
Abychom vám usnadnili orientaci v režimu záloh jednotlivých polí, nově ji zobrazujeme i v tabulce MOTD při každém přihlášení na výpočetní frontend.
Kvůli zvýšení bezpečnosti našich uživatelů jsme se rozhodli zrušit možnost zápisu cizími uživateli (ACL group a other) do kořenových domovských adresářů, ve kterých se nachází citlivé soubory typu .k5login, .profile apod, u kterých není žádoucí, aby s nimi mohl manipulovat někdo jiný než vlastník.
Proto budeme od 1.7. práva zápisu kontrolovat a strojově odebírat. Možnost zápisu do dalších podadresářů, typicky z důvodu sdílení dat v rámci skupiny, zůstává i nadále zachována.
Více informací naleznete na našich wiki stránkách v sekci Sdílení dat ve skupině:
https://wiki.metacentrum.cz/wiki/Sdileni_dat_ve_skupine
S přátelským pozdravem
MetaCentrum
V rámci zvyšování bezpečnostních standardů zavádí Metacentrum 2 novinky:
1) Nový mechanismus monitoringu uživatelských přístupů, jehož cílem je předejít zneužití odcizených přihlašovacích údajů. Nově bude lokace, ze které se uživatel přihlašuje, porovnávána s historií přístupů daného uživatele. V případě, že bude detekováno přihlášení z dosud neznámé lokace, bude uživateli zaslán informační e-mail spolu s žádostí o kontrolu, zda přihlášení skutečně provedl on.
Žádáme uživatele, aby v případě, že zjistí nesrovnalosti, postupovali podle pokynů v informačním e-mailu.
2) Změna šifrování uživatelských hesel. Během úprav bezpečnostní archiktury Metacentra bylo nutné zavést podporu pro nové šifrovací metody, které se používají během přihlašování. K dokončení procesu je nezbytné, aby si uživatelé, kterých se změny týkají, změnili heslo. Samotné heslo není nutné měnit, pouze připomínáme na nutnost používat dostatečně silná hesla.
Uživatele, kterých se změna týká, budeme o nutnosti změnit heslo v následujících týdnech informovat e-mailem. Připomínáme, že změna hesla se provádí na portále Metacentra na odkazu https://metavo.metacentrum.cz/cs/myaccount/heslo.html
S přátelským pozdravem
MetaCentrum & CERIT-SC
Vážení uživatelé,
dne 21. dubna 2021 proběhl další (desátý) ročník Semináře gridového počítání 2021, tentokráte jako součást třídenní online Konference CESNET 25 http://www.cesnet.cz/konferenceCESNET.
Prezentace z celé konference jsou zveřejněné na stránce konference
Prezentace a videozáznamy ze Semináře gridového počítání, včetně hands-on, jsou k dispozici na webu MetaCentra: https://metavo.metacentrum.cz/cs/seminars/seminar2021/index.html
S přátelským pozdravem
MetaCentrum & CERIT-SC
Vážení uživatelé,
dnes začíná Konference e-infrastruktury CESNET!
Zítra proběhne náš Seminář gridového počítání 2021!
Konference probíhá od úterý 20. 4. do čtvrtka 22. 4. Dopolední sekce začínají v 9:00 a odpolední ve 13:00.
Ke konferenci se připojte přes ZOOM.
20.4.
21.4.
22.4.
Konference také poběží také přes YouTube, odkaz najdete na webu http://www.cesnet.cz/konferenceCESNET v programu u každé sekce.
Podrobný program našeho MetaCentrového semináře: https://metavo.metacentrum.cz/cs/seminars/seminar2021/index.html. Zde budou po skončení akce zveřejněny prezentace ze semináře.
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC
Vážení uživatelé,
Dovolujeme si Vás tímto pozvat k účasti na Seminář gridového počítání 2021.
KDY: 21. 4. 2021
KDE: online (před začátkem akce Vám přijde link, pomocí kterého se připojíte na konferenci)
PROGRAM:
V dopolední části našeho semináře zazní přednášky o novinkách v MetaCentru, CERIT-SC i IT4Innovation. Kromě toho se představí naše národní aktivity v prostředí European Open Science Cloud a zazní zkušenosti z naší spolupráce s uživatelskou komunitou ESA, konkrétně o zpracovávání a uchovávání dat z družic Sentinel.
V odpolední části Semináře gridového počítání proběhne prakticky zaměřený Hands-on seminář, který se skládá z 6 samostatných tutorialů na téma obecné rady, grafická prostředí, kontejnery, podpora AI, JupyterNotebooks, nadstavba nad MetaCloudem,...
Seminář je součástí třídenní konference e-infrastruktury CESNET 2021 https://www.cesnet.cz/akce/konferencecesnet/, která se koná 20. - 22. 4. 2021.
REGISTRACE:
Program semináře, konference a registrace na konferenci: https://metavo.metacentrum.cz/cs/seminars/seminar2021/index.html
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC
Vážení uživatelé,
Pokud Vaše práce souvisí s výpočetní analýzou, a používáte nebo uvažujete o využití grafického portálu Galaxy, prosíme, vyplňte krátký dotazník české komunity Galaxy:
Cílem dotazníku je zmapovat zájmy českých vědeckých komunit, z nichž některé již Galaxy využívají, např. RepeatExplorer (https://repeatexplorer-elixir.cerit-sc.cz/) nebo naše vlastní instance MetaCentra (https://galaxy.metacentrum.cz/), nebo provozují vlastní instance. Chceme identifikovat zájmy a zaměřit na ně naše tréninkové a terénní úsilí.
Spolu s komunitním dotazníkem také spouštíme Galaxy-Czech mailing list na adrese
https://lists.galaxyproject.org/lists/galaxy-czech.lists.galaxyproject.org/
Je volně přístupný a bude sloužit k informování zájemců o novinkách a připravovovaných akcích napříč všemi instancemi Galaxy, podpoře komunitní diskuse a informačnímu propojení s dalšími národními nebo aktuálními komunitami Galaxy. Pokud Vás zajímá, co se děje v komunitě Galaxy, přihlaste se k odběru.
S přáním příjemného počítání,
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nové clustery Přírodovědecké fakulty Uiverzity Karlovy v Praze (1328 jader CPU)
1) nový GPU stroj cha.natur.cuni.cz (lokalita Praha, vlastník UK), 1 uzel, 32 jader CPU, s následující specifikací:
2) nový cluster mor.natur.cuni.cz (lokalita Praha, vlastník UK), 4 uzly, 80 jader CPU, s následující specifikací každého uzlu:
3) nový cluster pcr.natur.cuni.cz (lokalita Praha, vlastník UK), 16 uzlů, 1024 jader CPU, s následující specifikací každého uzlu:
4) nový GPU cluster fau.natur.cuni.cz (lokalita Praha, vlastník UK), 3 uzly, 192 jader CPU, s následující specifikací každého uzlu:
Clustery jsou dostupné v prostředí plánovacího serveru @pbs-meta prostřednictvím standardních krátkých front, fronty gpu a prioritní fronty vlastníka "cucam".
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový cluster:
zia.cerit-sc.cz (lokalita Brno, vlastník CERIT-SC), 5 uzlů, 640 jader CPU a GPU kartami NVIDIA A100, s následující specifikací každého uzlu:
Cluster je dostupný v prostředí plánovacího serveru @pbs-cerit prostřednictvím standardních krátkých front a prioritní fronty gpu.
Cluster je vybavený aktuálně nejvýkonnějšími grafickými akcelerátory NVIDIA A100 https://www.nvidia.com/en-us/data-center/a100/ . Na těchto grafických kartách je možné ještě více urychlit mnoho masivně paralelních úloh a vědeckých (HPC) aplikací nebo efektivněji řešit algoritmy umělé inteligence (AI).
Mezi hlavní výhody NVIDIA A100 patří specializovaná Tensor jádra pro machine learning aplikace nebo velká paměť (40 GB na každý akcelerátor). Podporuje výpočty pomocí tensor jader s různou přesností, kromě INT4, INT8, BF16, FP16, FP64 přibyl i nový formát TF32.
Na clusterech CERIT-SC je možné využívat dockerové obrazy z NVIDIA GPU Cloud (NGC) -- nejpoužívanější prostředí pro vývoj machine learning a deep learning aplikací, HPC aplikací nebo vizualizaci akcelerovanou NVIDIA GPU kartami. Nasazení těchto aplikací je pak otázkou zkopírování odkazu na příslušný Docker obraz, jeho spuštění spuštění v Docker kontejneru (v Podmanovi, alternativně v Singularity). Více informací najdete na https://wiki.metacentrum.cz/wiki/NVidia_deep_learning_frameworks
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na LUMI ROADSHOW
--
Dear Madam/Sir,
We invite you to a new EuroHPC ivent:
LUMI ROADSHOW
The EuroHPC LUMI supercomputer, currently under deployment in Kajaani, Finland, will be one of the world’s fastest computing systems with performance over 550 PFlop/s. The LUMI supercomputer is procured jointly by the EuroHPC Joint Undertaking and the LUMI consortium. IT4Innovations is one of the LUMI consortium members.
We are organizing a special event to introduce the LUMI supercomputer and to make the first early access call for pilot testing of this World’s unique infrastructure, which is exclusive to the consortium's member states.
Part of this event will also be introducing the Czech National Competence Center in HPC. IT4Innovations joined the EuroCC project which was kicked off by the EuroHPC JU in September and is now establishing the National Competence Center for HPC in the Czech Republic. It will help share knowledge and expertise in HPC and implement supporting activities of this field focused on industry, academia, and public administration.
Register now for this event which will take place online on February 17, 2021! This event will gather the main Czech stakeholders from the HPC community together!
The event will be held in English.
Event webpage: https://events.it4i.cz/e/LUMI_Roadshow
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nové clustery:
1) nový cluster kirke.meta.czu.cz (lokalita Plzeň, vlastník CESNET), 60 uzlů, 3840 jader CPU, s následující specifikací každého uzlu:
Cluster je dostupný v prostředí plánovacího serveru @pbs-meta prostřednictvím standardních front.
2) nový cluster elwe.hw.elixir-czech.cz (lokalita Praha, vlastník ELIXIR-CZ), 20 uzlů, 1280 jader CPU, s následující specifikací každého uzlu:
Cluster je dostupný v prostředí plánovacího serveru @pbs-elixir prostřednictvím speciálních front s přednostním právem přístupu pro členy národního uzlu ELIXIR-CZ
3) nový cluster eltu.hw.elixir-czech.cz (lokalita Vestec, vlastník ELIXIR-CZ), 2 uzly, 192 jader CPU, s následující specifikací každého uzlu:
Cluster je dostupný v prostředí plánovacího serveru @pbs-elixir prostřednictvím speciálních front s přednostním právem přístupu pro členy národního uzlu ELIXIR-CZ
4) nový cluster samson.ueb.cas.cz (vlastník Ústav experimentální botaniky AV ČR, Olomouc), 1 uzel, 112 jader CPU, s následující specifikací každého uzlu:
Cluster je dostupný v prostředí plánovacího serveru @pbs-cerit prostřednictvím prioritních front prio a ueb pro vlastníky clusteru a standardních front s maximální delkou 2 dny pro ostatní uživatele.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový cluster
gita.cerit-sc.cz (lokalita Brno, vlastník CERIT-SC), 14 +14 uzlů, 892 jader CP, polovina uzlů osazena GPU kartami NVIDIA 2080 TI; s následující specifikací každého uzlu:
Cluster je dostupný v prostředí plánovacího serveru @pbs-cerit prostřednictvím standardních front a prioritní fronty gpu.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
V MetaCentru/CERIT-SC dojde tento týden k upgrade všech PBS serverů na novou verzi.
Mezi největší změny bude patřit zapnutí notifikací o zabítí úloh, které bude rozesílat PBS bezprostředně po násilném zabití úlohy z důvodu překročení mem, cpu anebo walltime.
Nové nastavení se projeví postupně, až po restartu všech výpočetních uzlů.
Více informací najdete v dokumentaci:
https://wiki.metacentrum.cz/wiki/Pruvodce_pro_zacatecniky#Ukon.C4.8Den.C3.AD_.C3.BAlohy
https://wiki.metacentrum.cz/wiki/Beginners_guide#Job_termination
S omluvou za komplikace,
Vaše MetaCentrum
V posledních několika týdnech probíhá upgrade OS z Debian9 na Debian10 na většině frontendů a výpočetních strojů. Strojů z OS Centos se upgrade netýká.
Brzy nebude k dispozici žádný výpočetní stroj s OS Debian9, odstraňte prosím ze svých úloh požadavek os=debian9, úlohy s tímto požadavkem se spouštět nebudou.
Problémy s kompatibilitou některých aplikací s OS Debian10 průběžně řešíme rekompilací nových SW modulů. Pokud narazíte na problém u své aplikace, vyzkoušejte přidání modulu debian9-compat na začátek spouštěcího skriptu. Pokud problémy přetrvávají (chybějící knihovny atd.), dejte nám vědět na meta(at)cesnet.cz.
Seznam uzlů s OS Debian9/Debian10/Centos7 je možné zobrazit v seznamu vlastností ve webové aplikaci PBSMon:
* https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian9
* https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian10
* https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Dcentos7
Seznam frontendů včetně aktuálního OS je k dispozici na wiki https://wiki.metacentrum.cz/wiki/Frontend
Poznámka: Některé speciální stroje dostupné ve speciálních frontách mohou mít odlišný OS, např. urga, ungu (ve frontě uv@wagap-pro) a phi (ve frontě phi@wagap-pro) běží na OS CentOS 7.
Vážení uživatelé,
vzhledem k tomu, že při rozesílání emailů informujících o změně stavu výpočetní úlohy dochází v některých případech (velké množství úloh) k problémům se spam filtry, rozhodli jsme se od nynějška rozesílat tyto emaily agregovaně za časový interval 30 minut. To se týká emailů informujících o konci nebo pádu úlohy. Emaily informující o započetí úlohy budou i nadále odesílány okamžitě.
Více informací o parametrech agregace na https://wiki.metacentrum.cz/wiki/Email_notifications
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na PRACE training course
--
Dear Madam/Sir,
We invite you to a new PRACE training course, organized by IT4Innovations National Supercomputing Center, with the title:
Parallel Visualization of Scientific Data using Blender
Basic information:
Date: Thu September 24, 2020, 9:30am - 4:30pm
Registration deadline: Wed September 16, 2020
Venue: IT4Innovations, Studentska 1b, Ostrava
Tutors: Petr Strakoš, Milan Jaroš, Alena Ješko (IT4Innovations)
Level: Beginners
Language: English
Main web page: https://events.prace-ri.eu/e/ParVis-09-2020
The course, an enriched rerun of a successful training from 2019, will focus on visualization of scientific data that can arise from simulations of different physical phenomena (e.g. fluid dynamics, structural analysis, etc.). To create visually pleasing outputs of such data, a path tracing rendering method will be used within the popular 3D creation suite Blender. We shall introduce two of our plug-ins we have developed: Covise Nodes and Bheappe. The first is used to extend Blender capabilities to process scientific data, while the latter integrates cluster rendering in Blender. Moreover, we shall demonstrate basics of Blender, present a data visualization example, and render a created scene on a supercomputer.
This training is a PRACE Training Centre course (PTC), co-funded by the Partnership of Advanced Computing in Europe (PRACE).
For more information and registration please visit
https://events.prace-ri.eu/e/ParVis-09-2020 or https://events.it4i.cz/e/ParVis-09-2020.
PLEASE NOTE: The organization of the course will be adapted to the current COVID-19 regulations and participants must comply with them. In case of the forced reduction of the number of participants, earlier registrations will be given priority.
We look forward to meeting you on the course.
Best regards,
Training Team IT4Innovations
training@it4i.cz
Vážený uživateli služby MetaCentrum Cloud.
Rádi bychom vás informovali ohledně nové služby nasazené v rámci služby MetaCentrum Cloud. Load Balancer as a Service je služba umožňující přes OpenStack API/GUI vytvářet a spravovat load balancery pomocí kterých lze následně zprostředkovat přístup ke službám provozovaným v rámci služby MetaCentrum Cloud.
Krátký popis služby a odkaz na dokumentaci naleznete na https://cloud.gitlab-pages.ics.muni.cz/documentation/gui/#lbaas.
S pozdravem
Tým MetaCentrum Cloud
cloud.metacentrum.cz
OpenOnDemand je služba, která uživateli umožňuje přístup k výpočetním prostředkům CERIT-SC prostřednictvím webového prohlížeče v grafickém režimu. Mezi aktuálně dostupné aplikace patří Matlab, ANSYS a VMD, další budou podle zájmu přibývat. Pro webové rozhraní Open OnDemand https://ondemand.cerit-sc.cz/ je přihlašovací jméno a heslo stejné jako pro Metacentrum.
V případě dotazů kontaktujte support@cerit-sc.cz
Více informací je k dispozici v dokumentaci https://wiki.metacentrum.cz/wiki/OnDemand
Na strojích v MetaCentru je nyní nově možné využít frameworky pro deep learning z NVIDIA GPU Cloudu. Frameworky je možné spouštět jak v Singularity (celé MetaCentrum), tak Dockeru (Podman; jen CERIT-SC).
Více informací je k dispozici v dokumentaci https://wiki.metacentrum.cz/wiki/NVidia_deep_learning_frameworks
CVMFS (CernVM filesystem) je souborový systém vyvinutý v Cernu, který umožňuje rychlé, škálovatelné a spolehlivé nasazení softwaru na distribuované výpočetní infrastruktuře. CVMFS je souborový systém jen pro čtení, v MetaCentru jej používáme pro ukládání některých SW modulů (alternativa AFS). Podobně jako svazky AFS je dostupný jako klientský software pro přístup k CVMFS repozitářům a serverových nástrojů pro vytváření nových repozitářů typu CVMFS.
Více informací je k dispozici v dokumentaci https://wiki.metacentrum.cz/wiki/CVMFS
Vážení uživatelé, dovolte nám, abychom Vás informovali o službě na podporu výzkumu a vývoje, kterou IT4Innovations poskytuje v rámci mezinárodního H2020 projektu Centrum excelence POP2. Jedná se o *Bezplatnou asistenci v oblasti optimalizace výkonu paralelních aplikací*. Služba je určena nejen pro všechny akademicko-vědecké pracovníky, ale i pracovníky firem, kteří vyvíjí nebo používají paralelní kódy a nástroje a hodí se jim odborná pomoc s jejich optimalizací pro efektivní spouštění na HPC systémech. V případě zájmu nás neváhejte kontaktovat: info@it4i.cz <mailto:info@it4i.cz>. S pozdravem, Vaše IT4Innovations
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na
IT4Innovations and M Computers would like to invite you to three full day NVIDIA Deep Learning Institute certified training courses to learn more about Artificial Intelligence (AI) and High Performance Computing (HPC) development for NVIDIA GPUs.
The first half day is an introduction by IT4Innovations and M Computers about the latest state of the art NVIDIA technologies. We also explain our services offered for AI and HPC, for industrial and academic users. The introduction will include a tour though IT4Innovations‘ computing center, which hosts an NVIDIA DGX-2 system and the new Barbora cluster with V100 GPUs.
The first full day training course, Fundamentals of Deep Learning for Computer Vision, is provided by IT4Innovations and gives you an introduction to AI development for NVIDIA GPUs.
Two further HPC related full day courses, Fundamentals of Accelerated Computing with CUDA C/C++ and Fundamentals of Accelerated Computing with OpenACC, are delivered as PRACE training courses through the collaboration with the Leibniz Supercomputing Centre of the Bavarian Academy of Sciences (Germany).
We are pleased to be able to offer the course Fundamentals of Deep Learning for Computer Vision to industry free of charge, for the first time. Further courses for industry may be instigated upon request.
Academic users can participate free of charge for all three courses.
Více informací naleznete na http://nvidiaacademy.it4i.cz/
Po úspěšném upgrade PBS serveru v CERIT-SC zahájíme ve středu 8. 1. upgrade ostaních PBS serverů (arien-pro a pbs.elixir-czech.cz) na novou, nekompatibilní verzi (jiná implementace Kerbera). Připravujeme proto nové PBS servery a stávající PBS servery budou, po doběhnutí úloh, odstaveny z provozu:
S omluvou za komplikace,
Vaše MetaCentrum
V MetaCentru/CERIT-SC dojde k upgrade všech PBS serverů na novou, nekompatibilní verzi (jiná implementace Kerbera). Připravujeme proto nové PBS servery a stávající PBS servery budou, po doběhnutí úloh, odstaveny z provozu:
S omluvou za komplikace,
Vaše MetaCentrum
Pro přístup do fronty 'adan' je potřeba speciální oprávnění. Pokud máte zájem stát se AI testerem, konraktujte nás na meta(at)cesnet.cz.
Jméno ADAN není náhodné, ve světě J. R. R. Tolkiena označuje v elfském jazyce „člověka“. Cluster ADAN je díky svým parametrům určen zejména pro tzv. strojové učení (machine learning), které spadá do sféry umělé inteligence.
Tip: Pokud narazíte na problém s kompatibilitou mezi jednotlivými generacemi GPU karet, je možné omezit výběr strojů s určitou generací karet pomocí parametru gpu_cap=[cuda20,cuda35,cuda61,cuda70,cuda75].
Dále byl zprovozněn frontend tilia.ibot.cas.cz (s aliasem tilia.metacentrum.cz) a diskové pole /storage/pruhonice1-ibot/home dedikovane pro skupinu ibot.
Clustery jsou dostupné prostřednictvím fronty 'ibot' (vyhrazené vlastníkům clusteru). Po otestování bude pravděpodobně zpřístupněný prostřednictvím krátkých standardních front.
Pravidla využití jsou dostupné na stránce vlastníka clusteru: https://sorbus.ibot.cas.cz/
Aktuálně probíhá stěhování clusteru zenon.cerit-sc.cz (1888 CPU, 60 uzlů) do OpenStacku, během několika dní bude znovu přístupný přes PBS server wagap-pro. Zároveň probíhá upgrade operačního systému na Debian10.
Cluster bude dostupný stejným způsobem jako doposud (PBS server wagap-pro, běžné fronty).
Problémy s kompatibilitou některých aplikací s OS Debian10 průběžně řešíme rekompilací nových SW modulů. Pokud narazíte na problém u své aplikace, vyzkoušejte přidání modulu debian9-compat na začátek spouštěcího skriptu. Pokud problémy přetrvávají, dejte nám vědět na meta(at)cesnet.cz.
Seznam uzlů s OS Debian9/Debian10/Centos7 je možné zobrazit v seznamu vlastností ve webové aplikaci PBSMon:
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian9
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian10
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Dcentos7
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový stroj ursa.cerit-sc.cz (lokalita Brno, vlastník CERIT-SC), 1 uzel, 504 CPU jader, 10 TB RAM.
Cluster je dostupný v prostředí plánovacího serveru @wagap-pro prostřednictvím fronty UV.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Vážení uživatelé,
v souvislosti s přípravou nového cloudového prostředí postaveného na OpenStacku, není od 5. 6. 2019 dovoleno zakládat nové vm v OpenNebule. Běžící virtuály budou v průběhu několika týdnů přemigrovány do nového prostředí. O migraci informujeme vlastníky vm individuelně.
Pro spouštění nových vm využijte rovnou nové prostředí založené na OpenStacku https://cloud2.metacentrum.cz/ .
S přátelským pozdravem
MetaCentrum & CERIT-SC
Vážení uživatelé,
dne 30. ledna 2019 proběhl na ČVUT v Praze další (devátý) ročník Semináře gridového počítání 2019, tentokráte jako součást dvoudenní Konference e-Infrastruktutury CESNET 2019 https://konference.cesnet.cz. První den konference zazněly obecné průřezové přednášky z portfolia služeb CESNETu a druhý den semináře proběhly 4 paralelní sekce a 2 Hands-on semináře.
Prezentace z celé konference jsou zveřejněné na stránce konference https://konference.cesnet.cz. Videozáznam z konference je k dispozici na Youtube https://www.youtube.com/playlist?list=PLvwguJ6ySH1cdCfhUHrwwrChhysmO6IU7
Prezentace ze Semináře gridového počítání, včetně hands-on, jsou k dispozici na webu MetaCentra: https://metavo.metacentrum.cz/cs/seminars/seminar2019/index.html
S přátelským pozdravem
MetaCentrum & CERIT-SC
Vážení uživatelé,
Dovolujeme si Vás tímto pozvat k účasti na Seminář gridového počítání 2019, který se koná 30. ledna 2019 v Nové budově ČVUT (Thákurova 9) v Praze 6.
Seminář gridového počítání 2019 bude zaměřen na zpracování, analýzu a ukládání dat a představení novinek v gridovém a cloudovém prostředí MetaCentrum a CERIT-SC. V rámci semináře zazní zvaná přednáška o nových produktech NVIDIA v oblasti vědeckých výpočtů.
Po ukončení Semináře gridového počítání proběhne prakticky zaměřený Hands-on seminář (kapacita omezená na 15 osob).
Program semináře a další informace: https://metavo.metacentrum.cz/cs/seminars/seminar2019/index.html
Seminář je součástí dvoudenní konference CESNET 2019 https://konference.cesnet.cz (29. - 30. 1. 2019). První den konference zazní obecné průřezové přednášky z portfolia služeb CESNETu a druhý den semináře budou 4 paralelní sekce a 2 Hands-on semináře:
Účast na konferenci (a Semináři gridového počítání) je podmíněná registrací ma konferenci a je bezplatná. Pokud se chcete zúčastnit prakticky zaměřeného Hands-on semináře MetaCentra / CERIT-SC, nezapomeňte se na něj zaregistrovat zvlášť.
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový cluster charon.nti.tul.cz (lokalita Liberec, vlastník TUL), 20 uzlů, 400 CPU jader.
Cluster je dostupný v prostředí plánovacího serveru @arien-pro prostřednictvím standardních front a prioritní fronty charon, která je dostupná vlastníkům clusteru (skupina charon).
Novy frontend bude i nadale pristupny pod jmene charon.metacentrum.cz (z duvodu zpetne kompatibility zachovame i alias charon-ft.metacentrum.cz.
Cluster běží na OS Debian9, v případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
Nové pole /storage/liberec3-tul/home/
Nové pole (30 TB) bude sloužit jako domovský adresář na clusteru charon a bude dostupné v adreséři /storage/liberec3-tul/ na všech strojích Metacentra, členové skupiny charon zde budou mit nastavenu kvotu 1 TB, všichni ostatní 10 GB.
S přáním příjemného počítání,
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový cluster nympha.zcu.cz (lokalita Plzeň, vlastník CESNET), 64 uzlů, 2048 CPU jader.
Cluster je dostupný v prostředí plánovacího serveru @arien-pro prostřednictvím standardních front. Ze začátku jsou podporovány pouze krátké úlohy.
Cluster běží na OS Debian9, v případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
CESNET a CERIT-SC se podílejí na projektu EOSC – The European Open Science Cloud, který má za cíl poskytnou důvěryhodné prostředí s volně dostupnými službami určené pro uchovávání dat, jejich správu, sdílení, analýzu a opakované použití pro všechny vědecké disciplíny. V rámci oficiálního zahájení ve Vídni je představen EOSC Portal, který poskytuje přístup k datům, službám a zdrojům. Je zdrojem aktuálních informací o iniciativě EOSC, včetně osvědčených postupů, řízení a uživatelských příběhů.
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nové diskové pole /storage/brno1-cerit/home s kapacitou 1,8 PB (lokalita Brno, vlastník CERIT-SC).
Zároveň došlo k odstavení /storage/brno4-cerit-hsm. Všechna data z něj byla přesunuta na nové pole /storage/brno1-cerit/home a jsou přístupná rovněž pod původním symlinkem.
Pozor: Na stroj storage-brno4-cerit-hsm.metacentrum.cz se už nelze hlásit přímo. Pro přístup ke svým datům se hlaste na nové pole. Přehled NFS4 diskových polí najdete na wiki https://wiki.metacentrum.cz/wiki/NFS4_Servery
Kompletní seznam aktuálně dostupných výpočetních serverů a datových úložišť je k dispozici na https://metavo.metacentrum.cz/pbsmon2/nodes/physical.
S přáním příjemného počítání,
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový cluster zenon.cerit-sc.cz (lokalita Brno, vlastník CERIT-SC), 60 uzlů, 1920 CPU jader.
Cluster je dostupný v prostředí plánovacího serveru @wagap-pro prostřednictvím standardních front.
Cluster běží na OS Debian9, v případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Cluster je dostupný prostřednictvím 'gpu' fronty a krátkých standardních front.
Kvůli problémům s kompatibilitou nějkterých SW je tato karta k dispozici ve speciální frontě gpu_titan na PBS serveru wagap-pro.
Všechny GPU stroje běží již na OS Debian9, v případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Pokud narazíte na problém s kompatibilitou mezi jednotlivými generacemi GPU karet, je možné omezit výběr strojů s určitou generací karet pomocí parametru gpu_cap=[cuda20,cuda35,cuda61,cuda70].
Aktuálně jsou k dispozici následující GPU fronty:
V krátké době bude dokončen upgrade strojů s OS Debian8 na Debian9 v obou plánovacích systémech. Vyjímkou jsou staré stroje běžící na OS Debian8 v CERIT-SC (již po záruce), které budou vyřazené z provozu pravděpodobně na podzim a nemá u nich smysl upgrade provádět.
Problémy s kompatibilitou některých aplikací s OS Debian9 průběžně řešíme rekompilací nových SW modulů. Pokud narazíte na problém u své aplikace, vyzkoušejte přidání modulu debian8-compat na začátek spouštěcího skriptu. Pokud problémy přetrvávají, dejte nám vědět na meta@cesnet.cz .
Stroje s jiným OS (centos7) budou i nadále k dispozici přes speciální fronty: např. urga, ungu (ve frontě uv@wagap-pro) a phi (ve frontě phi@wagap-pro)
Seznam uzlů s OS Debian9/Debian8/Centos7 je možné zobrazit v seznamu vlastností ve webové aplikaci PBSMon:
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian9
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian8
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Dcentos7
Moduly amber-14-gpu8 a amber-16-gpu zpřístupňují všechny verze binárek, nejen pro GPU (paralelní verze a verze pro GPU jsou odlišeny standardně příponami .MPI resp. .cuda a .cuda.MPI), a jsou kompilovány pro os=debian9
Všechny GPU stroje již nyní běží pod OS Debian9, ale pokud není v zadání úlohy explicitně požadována GPU, je třeba os=debian9 explicitně zadávat, dokud běží neupgradované stroje.
Doporučujeme používat tyto nové balíčky (lépe optimalizované než starší modul amber-16).
Vážení uživatelé,
s potěšením přeposíláme pozvánku:
We would like to invite you to this new training event at HLRS Stuttgart on Sep 19, 2018.
To help organizations solve the most challenging problems using AI and deep learning NVIDIA Deep Learning Institute (DLI), Cray and HLRS are organizing a 1-day workshop on Deep Learning which combines business presentations and practical hands-on sessions.
In this Deep Learning workshop you will learn how to design and train neural networks on multi-GPU systems.
This workshop is offered free of charge but numbers are limited.
The workshop will be run in English.
https://www.hlrs.de/training/2018/DLW
With kind regards
Nurcan Rasig and Bastian Koller
-------
Nurcan Rasig | Sales Manager
Office +49 7261 978 304 | Cell +49 160 701 9582 | nrasig@cray.com
Cray Computer Deutschland GmbH â Maximilianstrasse 54 â D-80538 Muenchen
Tel. +49 (0)800 0005846 â www.cray.com
Sitz: Muenchen â Registergericht: Muenchen HRB 220596
Geschaeftsfuehrer: Peter J. Ungaro, Mike C. Piraino, Dominik Ulmer.
Hope to see you there!
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový GPU stroj white1.cerit-sc.cz (lokalita Brno, vlastník CERIT-SC), 24 CPU jader.
Cluster je dostupný v prostředí plánovacího serveru @wagap-pro prostřednictvím 'gpu' fronty a krátkých standardních front.
Cluster běží na OS Debian9, v případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Vážení uživatelé,
s potěšením přeposíláme pozvánku na setkání uživatelů Turbomole:
TURBOMOLE Users Meet Developers
20 - 22 September 2018 in Jena, Germany
This meeting will bring together the community of Turbomole developers and users to highlight selected applications demonstrating new features and capabilities of the code, present new theoretical developments, identify new user needs, and discuss future directions.
We cordially invite you to participate. For details see:
http://www.meeting2018.sierkalab.com/
Hope to see you there!
Regards,
Turbomole Support Team and Turbomole developers
Vážení uživatelé,
s potěšením přeposíláme pozvánku na 5. ročník letního setkání příznivců technických výpočtů a počítačových simulací:
Datum: 6. - 7. 9. 2018 (čtvrtek až pátek), registrace od 8:30
Součástí akce je soutěž o nejlepší uživatelský projekt. Informace o soutěži
Tento týden došlo ke změně nastavení front gpu@wagap-pro, gpu@arien-pro a gpu_long@arien-pro.
Kvůli omezení přístupu ne-GPU úloh na GPU stroje jsme ve frontách gpu a gpu_long na obou PBS serverech nastavili nutnost explicitního zadání požadavku na minimálně jednu GPU kartu, např.:
Pokud není GPU karta v zadání úlohy požadovaná, zobrazí se následující hlášení a úloha není systémem přijata:
'qsub: Job violates queue and/or server resource limits'
Zároveň jsme k 26. 6. 2018 nastavili průchodnost úloh ve frontách gpu mezi oběma PBS servery (úlohy z fronty gpu na arien-pro můžou být spuštěny PBS serverem wagap-pro a naopak). Fronta gpu_long je spravovaná pouze PBS serverem arien-pro, té se změna netýká.
Více informací o nastavení GPU: https://wiki.metacentrum.cz/wiki/GPU_clusters
S díky za pochopení,
Uživatelská podpora MetaCentra
V pondělí 18. 6. 2018 došlo ke změně nastavení fronty uv@wagap.cerit-sc.cz.
Věříme, že nyní budou oba speciální stroje UV lépe použitelné pro zpracování opravdu velkých úloh, pro které jsou primárně určeny. Malé úlohy budou znevýhodněné, aby tyto velké úlohy neblokovaly. Pro malé úlohy jsou k dispozici další vhodnější stroje.
S díky za pochopení,
Uživatelská podpora MetaCentra
Vážení uživatelé,
dovoluji si Vám přeposlat pozvánku na přednášku prof. Johna Womersleyho na téma „The European Spallation Source“, která se uskuteční v prostorách Akademie věd ČR na Národní třídě dne 15. června 2018 od 14:00.
Více informací naleznete v PDF.
S přáním hezkého dne,
Petr Ventluka, MŠMT
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový SMP cluster konos[1-8].fav.zcu.cz (lokalita Plzeň, vlastník KMA/FAV ZČU). Cluster obsahuje 8 uzlů (160 CPU jader), každý z nich má následující hardwarovou specifikaci:
Cluster je dostupný v prostředí plánovacího serveru @arien-pro prostřednictvím prioritní fronty iti, fronty gpu a krátkých běžných front. Členové projektu ITI/KKY mohou požádat o přístup do fronty vedoucího skupiny.
$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=debian9 …
$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=^any …
Případné problémy s během aplikací (chybějícími knihovnami apod.) na strojích s OS Debian9 nám, prosím, neprodleně hlaste na meta@cesnet.cz .
V případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Vážení uživatelé,
V pátek 11. května proběhl v Praze v NTK další ročník Semináře gridového počítání 2018. Seminář byl letos zaměřen na zpracování, analýzu a ukládání dat v gridovém i cloudovém prostředí MetaCentrum a CERIT-SC. Semináře se zúčastnilo více než 70 stávajících i budoucích uživatelů MetaCentra. Měli příležitost se, mimo jiné, dozvědět o připravovaných novinkách v cloudovém prostředí, naučit se zacházet s containery a získali tip, jak správně a efektivně ukládat a zpracovávat data a posílat úlohy do PBS Pro prostředí.
Seminář byl organizován projektem MetaCentrum sdružení CESNET z.s.p.o. a Centrem CERIT-SC při Ústavu výpočetní techniky Masarykovy univerzity. Sponzorem akce byla společnost SafeDX.
Podrobnosti o akci včetně přednášek jsou k dispozici na webu MetaCentra: https://metavo.metacentrum.cz/cs/seminars/seminar2018/index.html
S přátelským pozdravem
MetaCentrum & CERIT-SC
Vážení uživatelé,
dovolujeme si Vás pozvat na další ročník Semináře gridového počítání 2018
Seminář je organizován projektem MetaCentrum sdružení CESNET a Centrem CERIT-SC.
Program semináře a další informace: https://metavo.metacentrum.cz/cs/seminars/seminar2018/index.html
Účast na semináři je podmíněná registrací a je bezplatná. Registrace končí 9.5.2018.
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC
MetaCentrum bylo rozšířeno o nový cluster glados[1-17].cerit-sc.cz (lokalita Brno, vlastník CERIT-SC), 680 CPU, 17 uzlů s následující HW specifikací:
Cluster je dostupný v prostředí plánovacího serveru @wagap-pro prostřednictvím standardních front.
$ qsub ... -l select=1:ncpus=1:gpu=1 ...
$ qsub -l walltime=1:0:0 -l select=1:ncpus=1:mem=400mb:scratch_ssd=400mb:os=debian9 ...
CERIT-SC rozšířilo portfolium strojů s novým OS Debian9 (všechny nové stroje a některé starší). Od příštího týdne vypneme dočasné defaultní nastavení plánovače na Debian8. Pokud po vypnutí ve svých úlohách explicitně neuvedete požadovaný OS, plánovací systém vybere libovolný z nich, který je v dané frontě k dispozici.
Pokud chcete mít výběr operačního systému pod kontrolou, můžete využit následující volby (defaultní fronta):
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=debian9 …
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=debian8 …
V případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Případné problémy s během aplikací (chybějícími knihovnami apod.) na strojích s OS Debian9 nám, prosím, neprodleně hlaste na meta@cesnet.cz .
Seznam uzlů s OS Debian9/Debian8/Centos7 je možné zobrazit v seznamu vlastností ve webové aplikaci PBSMon:
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian9
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian8
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Dcentos7
V průběhu dubna plánujeme úklid a pokud možno i sjednocení vlastností strojů v obou prostředích @arien-pro i @wagap-pro.
Operační systém
Začneme s důsledným označováním operačního systému strojů parametrem os=<debian8, debian9,centos7>
Nadbytečné původní vlastnosti centos7, debian8 a debian9 postupně na strojích zrušíme (pozůstatek PBS Torque). Pro výběr operačního systému v příkazu qsub postupujte podle návodu výše v bodu 2.
Tip: Sestavovač Qsub pro pomoc s napsáním zadání úlohy a výběrem strojů: https://metavo.metacentrum.cz/pbsmon2/qsub_pbspro
Kvůli opakovaným problémům s plnými scratchi na frontendech zavedeme automatické promazávání starých dat (starší 60 dnů) také na frontendech. Nenechávejte ve scratchi na frontendech žádná důležitá data. Přeneste si je do /home adresářů.
Pro skupinu českého národního uzlu ELIXIR-CZ jsme zprovoznili následující clustery:
• elmo1.hw.elixir-czech.cz - 224 CPU in total, SMP, 4 nodes with 56 CPUs, 768 GB RAM (Praha UOCHB)
• elmo2.hw.elixir-czech.cz - 96 CPU in total, HD, 4 nodes with 24 CPUs, 384 GB RAM (Praha UOCHB)
• elmo3.hw.elixir-czech.cz - 336 CPU in total, SMP, 6 nodes with 56 CPUs, 768 GB RAM (Brno)
• elmo4.hw.elixir-czech.cz - 96 CPU in total, HD, 4 nodes with 24 CPUs, 384 GB RAM (Brno)
Stroje jsou přístupné přes prioritní frontu elixircz (PBS server @arien-pro), do které mají přístup pouze členové českého národního uzlu ELIXIR-CZ a jejich spolupracovníci. Členství ve skupině podléhá schvalování. Podmínky a další informace jsou uvedené na wiki https://wiki.metacentrum.cz/wiki/Elixir. Ostatní uživatelé MetaCentra budou moci brzy nové clustery využít v běžných krátkých frontách.
Popis a nastavení fronty: https://metavo.metacentrum.cz/pbsmon2/queue/elixircz
Vzorový qsub:
$ qsub -q elixircz@arien-pro.ics.muni.cz -l select=1:ncpus=2:mem=2gb:scratch_local=1gb -l walltime=24:00:00 muj_script.sh
Quickstart: https://wiki.metacentrum.cz/w/images/f/f8/Quickstart-pbspro-ELIXIR.pdf
Stroje mají nainstalovaný OS Debian9. Případné problémy s během aplikací (chybějícími knihovnami apod.) na strojích s OS Debian9 nám, prosím, neprodleně hlaste na meta@cesnet.cz .
V případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový SMP cluster zelda[1-10].cerit-sc.cz (lokalita Brno, vlastník CERIT-SC). Cluster obsahuje 10 uzlů (720 CPU jader), každý z nich má následující hardwarovou specifikaci:
Cluster je dostupný v prostředí plánovacího serveru @wagap-pro prostřednictvím standardní fronty.
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=debian9 …
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=^any …
Případné problémy s během aplikací (chybějícími knihovnami apod.) na strojích s OS Debian9 nám, prosím, neprodleně hlaste na meta@cesnet.cz . V případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Vážení uživatelé,
předáváme nabídku stáží v HPC centrech v Eropě (program HPC-Europe3)
=============================================
HPC-Europa3 programme offers visit grants to one of the 9 supercomputing centres around Europe: CINECA (Bologna - IT), EPCC (Edinburgh - UK), BSC (Barcelona - SP), HLRS (Stuttgart - DE), SurfSARA (Amsterdam - NL), CSC (Helsinki - FIN), GRNET (Athens, GR), KTH (Stockolm, SE), ICHEC (Dublin, IE).
The project is based on a program of visit, in the form of traditional transnational access, with researchers visiting HPC centres and/or scientific hosts who will mentor them scientifically and technically for the best exploitation of the HPC resources in their research. The visitors will be funded for travel, accommodation and subsistence, and provided with an amount of computing time suitable for the approved project.
The calls for applications are issued 4 times per year and published online on the HPC-Europa3 website. Upcoming call deadline: Call #3 - 28 February 2018 at 23:59
For rmore details visit programme webpage http://www.hpc-europa.eu/guidelines
===============================================
V případě zájmu se obracejte přímo na organizátory akce.
Coordinator:
Paola Alberigo
SCAI Department - CINECA
Via Magnanelli 6/3
40033 Casalecchio di Reno (Italy)
e-mail: staff@hpc-europa.org
S přátelským pozdravem,
MetaCentrum
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový SMP cluster aman[1-10].ics.muni.cz (lokalita Brno, vlastník CESNET), 560 CPU, 10 uzlů s následujíci HW specifikací:
Cluster je dostupný v prostředí plánovacího serveru @arien-pro prostřednictvím standardních front. Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový cluster hildor[1-28].metacentrum.cz (lokalita České Budějovice, vlastník CESNET), 672 CPU, 28 uzlů s následujíci HW specifikací
Cluster je dostupný v prostředí plánovacího serveru @arien-pro prostřednictvím standardních front. Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Seznam uzlů s OS Debian9 je možné zobrazit v Sestavovači Qsub (volba :os=debian9) https://metavo.metacentrum.cz/pbsmon2/qsub_pbspro
Pokud nenastavíte nic, budete ještě po přechodnou dobu spouštět úlohy ve frontě default@wagap-pro na strojích výhradně s OS Debian8. Pokud chcete vyzkoušet připravenost svých skriptů na nový operační systém, můžete využit následující volby:
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=debian9 …
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=debian8 …
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=^any …
Případné problémy s během aplikací (chybějícími knihovnami apod.) na strojích s OS Debian9 nám, prosím, neprodleně hlaste na meta@cesnet.cz .
Poznámka: Některé speciální stroje dostupné ve speciálních frontách mohou mít odlišný OS, např. urga, ungu (ve frontě uv@wagap-pro) a phi (ve frontě phi@wagap-pro) běží na OS CentOS 7.
Speciální uzel/frontend oven.ics.muni.cz s velkým množstvím nevýkonných virtuálních CPU je určený především pro běh výkonnostně nenáročných řídících/resubmitovacích úloh. Je přístupný přes speciální frontu 'oven', která je dostupná všem uživatelům MetaCentra.
Nastavení fronty 'oven':
Parametry uzlu oven.ics.muni.cz:
Jednoduchý příklad submitovací úlohy:
echo "echo hostname | qsub" | qsub -q oven
Více informací na wiki https://wiki.metacentrum.cz/wiki/Uzel_Oven
Zveme uživatele MetaCentra na kurz "What you need to know about performance analysis using Intel tools" pořádaný Národním superpočítačovým centrem IT4Innovations.
Kdy: středa 14. června 2017 9.00-17.30 hod.
Kde: areál VŠB-TUO v Ostravě-Porubě, budova IT4Innovations, místnost 207
Jazyk: angličtina
Úroveň: pokročilý
Tutor: Georg Zitzlsberger (IT4Innovations)
Podrobnější informace o kurzu a registraci naleznete na webové stránce:
http://training.it4i.cz/en/PAUIT-06-2017
Případné dotazy směřujte na: training[at]it4i.cz
Training Team IT4Innovations
-------------------------
Vážení uživatelé,
dovolujeme si Vám předat pozvánku na workshop "Introduction to Gaussian: Theory and Practice":
============================================================
WORKSHOP IN SPAIN IN JULY 2017
We are very pleased to announce that the workshop "Introduction to Gaussian: Theory and Practice" will be held at the University of Santiago de Compostela in Spain from July 10-14, 2017. Researchers at all levels from academic and industrial sectors are welcome.
Full details are available on our website at:
www.gaussian.com/ws_spain17
Follow us on LinkedIn for announcements, Tips & FAQs, and other info: www.linkedin.com/company/gaussian-inc
============================================================
S přátelským pozdravem
MetaCentrum
CERIT-SC pokračuje s přesunem běžných výpočetních strojů z prostředí PBS Torque @wagap do nového prostředí s plánovacím systémem PBS Pro @wagap-pro.
***ZMĚNA SYSTÉMU FRONTENDU***
Dne 11. 5. bude frontend zuphux.cerit-sc.cz přenastaven do prostředí @wagap-pro a zároveň dojde k upgrade verze OS (Centos 7.3).
Zároveň dojde k zastavení přijímání nových úloh v prostředí Torque (@wagap). Stávající úlohy se dopočítají na zbylých uzlech. Zbylé výpočetní uzly v Torque budou po uvolnění postupně převáděny do prostředí PBS Pro. Stroje zařazené v PBS Pro jsou v PBSMonu označené nápisem "Pro" https://metavo.metacentrum.cz/pbsmon2/nodes/physical .
qsub-q uv
-l select=1:ncpus=48:mem=20gb:scratch_local=20gb -l walltime=1:00:00 skript.sh
S omluvou za komplikace a s díky za pochopení,
Uživatelská podpora centra CERIT-SC
CERIT-SC pokračuje s přesunem běžných výpočetních strojů z prostředí PBS Torque @wagap do nového prostředí s plánovacím systémem PBS Pro @wagap-pro.
Frontend zuphux.cerit-sc.cz zůstává prozatím (do převedení alespoň poloviny zdrojů) nastaven defaultně na prostředí @wagap. Pro aktivaci PBSPro na tomto frontendu je proto nutné, provést po přihlášení aktivaci nového prostředí příkazem:
zuphux$ module add pbspro-client ... nastaví PBSPro prostředí @wagap-pro obdobně zuphux $ module rm pbspro-client ... vrátí Torque prostředí @wagap
qsub-q uv
-l select=1:ncpus=48:mem=20gb:scratch_local=20gb -l walltime=1:00:00 skript.sh
Uživatelská podpora centra CERIT-SC
Vážení uživatelé,
ve čtvrtek 30. března proběhl další ročník Semináře gridového počítání 2017, zaměřený na zpracování, analýzu a ukládání dat a představení novinek v gridovém a cloudovém prostředí MetaCentrum a CERIT-SC. Semináře se zúčastnilo více než 90 vědců.
Seminář byl organizován projektem MetaCentrum sdružení CESNET a Centrem CERIT-SC.
Program semináře a prezentace z jednotlivých přednášek jsou k dispozici na stránce semináře.
S přátelským pozdravem
MetaCentrum & CERIT-SC
Vážení uživatelé,
s cílem zlepšit využití cloudových zdrojů v MetaCloudu jsme zavedli mechanismus expirace zapomenutých virtuálních strojů. Jeho podstatou je, že každý vlastník musí vždy po určité době potvrdit trvající zájem o běh každého svého stroje, jinak bude stroj odstraněn a zdroje se uvolní pro ostatní uživatele. Již nyní můžete u svých virtuálních strojů vidět naplánované akce na vypnutí. Celý popis systému najdete na wiki stránce Expirace virtuálních strojů a včas vám přijde upozornění elektronickou poštou.
Váš MetaCloud tým
CERIT-SC započal s přesunem běžných výpočetních strojů z prostředí PBS Torque @wagap do nového prostředí s plánovacím systémem PBS Professional @wagap-pro.
Frontend zuphux.cerit-sc.cz zůstává prozatím (do převedení alespoň poloviny zdrojů) nastaven defaultně na prostředí @wagap. Pro aktivaci PBSPro je proto nutné, po přihlášení na frontend, provést aktivaci nového prostředí příkazem:
$module add pbspro-client ... nastaví PBSPro prostředí @wagap-pro obdobně $module rm pbspro-client ... vrátí Torque prostředí @wagap
Připomínáme hlavní odlišnosti PBS Pro:
qsub-q uv
-l select=1:ncpus=48:mem=20gb:scratch_local=20gb -l walltime=1:00:00 skript.sh
Dokumentace k novému plánovacímu prostředí PBS Professional: https://wiki.metacentrum.cz/wiki/PBS_Professional
MetaCentrum & CERIT-SC
Vážení uživatelé,
dovolujeme si Vás pozvat na další ročník Semináře gridového počítání 2017
Seminář je organizován projektem MetaCentrum sdružení CESNET a Centrem CERIT-SC.
Program semináře je k dispozici na stránce semináře.
Na akci je nezbytná registrace. Účast na semináři je bezplatná.
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC
module add pbspro-client
Důležité:
qsub -l select=3:ncpus=2:mem=1gb:scratch_local=1gb -l walltime=1:00:00 -l matlab=1 skript.sh
Sestavovač qsub a další informace jsou k dispozici v aplikaci PBSMon: https://metavo.metacentrum.cz/cs/state/personal
Dokumentace k novému plánovacímu prostředí PBS Professional je na wiki: https://wiki.metacentrum.cz/wiki/Prostředí_PBS_Professional
S omluvou za komplikace,
Vaše MetaCentrum
.
Vážení uživatelé,
uv
@wagap-pro.cerit-sc.cz
).Použítí experimentálního prostředí PBS Pro centra CERIT-SC (@wagap-pro)
$module add pbspro-client ... nastaví PBSPro prostředí @wagap-pro $module rm pbspro-client ... vrátí Torque prostředí @wagap
uv
@wagap-pro.cerit-sc.cz, phi
@wagap-pro.cerit-sc.cz
storage-brno3-cerit.metacentrum.cz (/storage/brno3-cerit/home/)
qsub-q uv
-l select=1:ncpus=48:mem=20gb:scratch_local=20gb -l walltime=1:00:00 skript.sh
Dokumentace k novému plánovacímu prostředí PBS Professional: https://wiki.metacentrum.cz/wiki/PBS_Professional
MetaCentrum & CERIT-SC
Vážení uživatelé,
připravili jsme přehlednější a aktuální verzi dokumentace na wiki. Záměrně jsme v ní informace výrazně zjednodušili a zestručnili, věříme, že bude uživatelsky přívětivější. Pokud byste v ní nemohli něco najít nebo naopak najdete nesrovnalosti, pište nám na meta@cesnet.cz.
Nová wiki: https://wiki.metacentrum.cz/wiki/
Původní wiki: https://wiki.metacentrum.cz/wikiold/
MetaCentrum & CERIT-SC
Vážení uživatelé,
uv
@wagap-pro.cerit-sc.cz
).Použítí experimentálního prostředí PBS Pro centra CERIT-SC (@wagap-pro)
$module add pbspro-client ... nastaví PBSPro prostředí @wagap-pro $module rm pbspro-client ... vrátí Torque prostředí @wagap
uv
@wagap-pro.cerit-sc.cz, phi
@wagap-pro.cerit-sc.cz
storage-brno3-cerit.metacentrum.cz (/storage/brno3-cerit/home/)
qsub-q uv
-l select=1:ncpus=48:mem=20gb:scratch_local=20gb -l walltime=1:00:00 skript.sh
Dokumentace k novému plánovacímu prostředí PBS Professional: https://wiki.metacentrum.cz/wiki/PBS_Professional
MetaCentrum & CERIT-SC
Velká část uzlů a frontendů byla převedena z plánovacího prostředí PBS Torque (@arien) do PBS Pro (@arien-pro).
qsub -l select=3:ncpus=2:mem=1gb:scratch_local=1gb -l walltime=1:00:00 -l matlab=1 skript.sh
Sestavovač qsub a další informace jsou k dispozici v aplikaci PBSMon: https://metavo.metacentrum.cz/cs/state/personal
Dokumentace k novému plánovacímu prostředí PBS Professional je na wiki: https://wiki.metacentrum.cz/wiki/Prostředí_PBS_Professional
Vážení uživatelé,
Centrum CERIT-SC zprovoznilo nový speciální cluster s procesory Intel Xeon Phi 7210. Cluster je dostupný z nově vytvořeného experimántálním prostředí PBS Pro plánovacího serveru @wagap-pro
Xeon Phi je masivně paralelní architektura složená z velkého množství x86 jader (tzvn. Many Integrated Core). Narozdíl od starší generace, nový Xeon Phi (vychází z architektury Knight Landing) je self-booting systém (konvenční CPU není nutné), plně kompatibilní s architekturou x86. Úlohy se proto mohou spouštět stejným způsobem jako na konvenčních procesorech s využitím stejných aplikací. Není vyžadována rekompilace nebo přepis algoritmu aplikace, i když speciáně upravené úlohy dokážou z této technologie více profitovat. Xeon Phi procesory mají oproti konvenčním procesorům velmi malý výkon na jádro, přínos Xeon Phi se objeví až při využití ve vysoce paralelních úlohách.
Porovnání Xeon Phi s konvenčním procesory: http://sc16.supercomputing.org/sc-archive/tech_poster/poster_files/post133s2-file3.pdf
Použítí Xeon Phi v experimentálním prostředí PBS Pro centra CERIT-SC (@wagap-pro)
$module add pbspro-client ... nastaví PBSPro prostředí @wagap-pro $module rm pbspro-client ... vrátí Torque prostředí @wagap
phi
@wagap-pro.cerit-sc.cz
storage-brno3-cerit.metacentrum.cz
; POZOR ostatní pole nejsou k tomuto clusteru z technických důvodů připojena přes NFS, data z nich se kopírují příkazem scp
qsub-q
-l select=3:ncpus=12:mem=1gb:scratch_ssd=1gb -l walltime=1:00:00 skript.sh
phi
Dokumentace k novému plánovacímu prostředí PBS Professional: https://wiki.metacentrum.cz/wiki/PBS_Professional
Jak efektivně využít Xeon Phi
Navzdory deklarované kompatibilitě s x86 CPU, ne všechny typy úloh jsou vhodné pro Xeon Phi.
numactl -m l _your-binary_
Více informací o architektuře Xeon Phi poskytne webinář https://colfaxresearch.com/how-knl/
MetaCentrum & CERIT-SC
Aktuální informace o novinkách infrastruktur MetaCentrum a CERIT-SC.
Obsah:
qsub -l select=3:ncpus=2:mem=1gb:scratch_local=1gb -l walltime=1:00:00 -l matlab=1 skript.sh
Vážení uživatelé MetaCloudu,
V souvislosti s přípravou přechodu na OpenNebulu verze 5 (v týdnu mezi 9. a 13. lednem t.r.) dojde v nejbližších dnech k úpravě bezpečnostních nastavení v MetaCloudu.
Výchozí bezpečnostní nastavení se změní ze zcela otevřeného na téměř zcela uzavřené. Standardně bude k nově vytvořeným strojům povolen pouze přístup na port SSH (TCP port 22). Jakékoli další porty bude třeba dodatečně povolit s pomocí předdefinovaných bezpečnostních skupin (Security Groups).
V šablonách, které už v současnosti měly nastavené filtrování provozu s pomocí atributů WHITE_PORTS, *musí jejich vlastníci provést adekvátní úpravy* a propojení s vhodným nastavením Security Groups. Virtuální stroje spuštěné ze šablon ještě se starými atributy tím nebudou přímo dotčeny, ale v dalším kroku po upgradu je bude třeba zastavit a znovu vytvořit s novým nastavením.
Pokud Vám z nějakého důvodu nebude dostačovat výběr z existujících Security Groups, kontaktujte nás a společně připravíme vhodné řešení.
S pozdravem
MetaCloud tým
Vážení uživatelé,
s potěšením oznamujeme, že jsme do experimentálního prostředí s plánovacím systémem PBS Professional (PBS Pro), dostupného z čelního uzlu tarkil.grid.cesnet.cz, přidali nový cluster:
SMP cluster meduseld.grid.cesnet.cz, 6 uzlů (336 CPU jader), každý s následujícími parametry:
Použití experimentálního prostředí s PBS Pro:
qsub -l select=3:ncpus=2:mem=1gb:scratch_local=1gb -l walltime=1:00:00 -l matlab=1 skript.sh
Dokumentace k novému plánovacímu prostředí PBS Professional: https://wiki.metacentrum.cz/wiki/Prostředí_PBS_Professional
Připomínky a náměty můžete posílat do RT meta@cesnet.cz
Vážení uživatelé,
rádi bychom představili nový plánovací systém PBS Professional (PBS Pro), který nyní nasazujeme v testovací verzi v experimentálním prostředí dostupném z čelního uzlu tarkil.grid.cesnet.cz.
PBS Pro v budoucnosti nahradí stávající plánovač Torque, doporučujeme tedy si jej s předstihem vyzkoušet už nyní.
Důvod pro změnu:
Změny PBS Pro oproti Torque:
Použití experimentálního prostředí s PBS Pro:
qsub -l select=3:ncpus=2:mem=1gb:scratch_local=1gb -l walltime=1:00:00 -l matlab=1 skript.sh
Dokumentace k novému plánovacímu prostředí PBS Professional: https://wiki.metacentrum.cz/wiki/Prostředí_PBS_Professional
Věříme, že nové možnosti, které PBS Pro poskytuje, umožní uživatelům MetaCentra lépe specifikovat své úlohy a tedy i snadněji a rychleji získat zajímavé výsledky ve svém výzkumu.
Připomínky a náměty můžete posílat do RT meta@cesnet.cz
1) Zrušení nadbytečných vlastností
2) Zavedení cgroups
3) Defaultní fronta a zrušení obecně přístupných časových front
4) Reinstalace strojů na OS Debian 8
Z důvodu zpřehlednění a zjednodušení zadávání a plánování úloh došlo k redukci počtu vlastností. Zrušili jsme ty, které se z historických důvodů vyskytují na všech strojích nebo se již téměř nepoužívají:
linux, x86_64, nfs4, em64t, x86, *core, nodecpus*, nehalem/opteron/, noautoresv, xen, ...
Aktuální seznam dostupných vlastností: http://metavo.metacentrum.cz/pbsmon2/props
Cgroups umožňuje omezit spotřebu prostředků (paměti, procesoru) pro danou úlohu.
Pokud víte, že Vaše úloha překračuje RAM nebo počet přidělených CPU jader a nedokážete tyto omezit přímo v aplikaci, použijte přepínač -W cgroup=true při zadání úlohy, např.:
qsub -W cgroup=true -l nodes=1:ppn=4 -l mem=1gb ...
Cgroups nahrazuje dříve doporučený způsob nodecpus*#excl -- vlastnost nodecpus* byla zrušena.
Ve výchozím nastavení plánovače nejsou cgroups použity (může zpomalit swapující úlohu a nelze poznat, kolik prostředků úloha skutečně potřebuje pro efektivní běh).
Podpora cgroups není nastavena na všech strojích, aktuální seznam strojů k testování lze získat v pbsmonu jako přehled strojů s nastavenou vlastností cgroup:
http://metavo.metacentrum.cz/pbsmon2/props#cgroup
Více informací: https://wiki.metacentrum.cz/wiki/Cgroups
Před více než rokem jsme sjednotili zadávání úloh -- v obou prostředích plánovacích serverů @wagap a @arien -- zavedením parametru -l walltime=<OCEKAVANA_MAX_DOBA_BEHU>.
Na @wagap byly zrušeny dočasně ponechané časové fronty q_2h, q_4h, q_1d, q_2d, q_4d, q_1w, q_2w, q_2w_plus. Své úlohy proto zadávejte výhradně s parametrem walltime, např.
-l walltime=2h, -l walltime=3d30m,...
Více informací na wiki: https://wiki.metacentrum.cz/wiki/Spouštění_úloh_v_plánovači
Využíváme všech plánovaných i neplánovaných odstávek clusterů a postupně povyšujeme operační systém na frontendech i uzlech na OS Debian 8.
Aktuální seznam uzlů s vlastností debian8 najdete v přehledu vlastností v aplikaci PBSmon: http://metavo.metacentrum.cz/pbsmon2/props#debian8
nebo v osobním přehledu (sestavovači qsub) http://metavo.metacentrum.cz/cs/state/personal
Případné problémy s během aplikací (chybějícími knihovnami apod.) na těchto strojích nám, prosíme, neprodleně hlaste.
Pokud narazíte na problém, do vyřešení se můžete vyhnout spouštění úloh na strojích s vlastností debian8 takto:
-l nodes=1:ppn=4:^debian8 – negace vlastnosti, úloha nebude naplánovaná na uzly s vlastností debian8, nebo -l nodes=1:ppn=4:debian7 - přidělí stroje se starší verzí OS Debian7
Společnost HUMUSOFT s.r.o. pořádá ve dnech 8. - 9. 9. 2016 Technical Computing Camp, třetí ročník neformálního letního setkání příznivců technických výpočtů a počítačových simulací.
KDY: Čtvrtek 8. 9. od 9 h - pátek 9. 9. do 15h
KDE: Brněnská prehrada, hotel Fontána
Vstup ZDARMA
Další informace a přihláška zde: http://www.humusoft.cz/tcc
V průběhu akce Technical Computing Camp představíme moderní nástroje pro technické výpočty a počítačovou simulaci MATLAB a COMSOL Multiphysics a ukážeme jejich využití ve spojení s celou řadou hi-tech "hraček" (LEGO, Arduino, Raspberry Pi, Kinect, roboti, mobilní zařízení, kamery, ...). Ve spolupráci se slovenským Národním centrem robotiky si letos poprvé budete moci vyzkoušet práci s robotem NAO, makerspace Dílna 21 uspořádá klání Zumo robotů, u kterých budete programovat jejich chování. Také si ukážeme nejnovější nástroje pro analýzu rozsáhlých dat, strojové učení, počítačové vidění, modelování fyzikálních systémů či návrh a ladění řídicích systémů.
V programu akce naleznete přednášky, praktické ukázky i prostor pro vlastní práci pod dohledem našich specialistů. Přednášet budou odborníci z firmy HUMUSOFT s.r.o., MathWorks i další zvaní hosté.
Setkání je určeno všem, kteří se v neformálním prostředí chtějí dozvědět více o možnostech využití inženýrských nástrojů MATLAB a COMSOL Multiphysics. Na své si přijdou jak stávající uživatelé uvedených systémů, tak začátečníci a příznivci výpočetních, modelovacích a simulačních systémů. Nástroje si budete moci vyzkoušet a následně své poznatky a dotazy diskutovat s dalšími účastníky.
V rámci "Technical Computing Camp" bude probíhat i soutež o nejlepší uživatelský projekt. Studenti se mohou zúčastnit se svou diplomovou či bakalářskou prací.
--------------------------
MetaCentrum bylo rozšířeno o nový cluster exmag.fzu.cz (FzÚ AV ČR Praha), 640 CPU, 32 uzlů s následujíci HW specifikací
Cluster je dostupný v prostředí plánovacího serveru @arien prostřednictvím privátních front exmag a luna a veřejných krátkodobých front. Kompletní seznam dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Dne 11. 5. bude frontend zuphux.cerit-sc.cz přenastaven do prostředí @wagap-pro a zároveň dojde k upgrade verze OS (Centos 7.3).
Zároveň dojde k zastavení přijímání nových úloh v prostředí Torque (@wagap). Stávající úlohy se dopočítají na zbylých uzlech. Zbylé výpočetní uzly v Torque budou po uvolnění postupně převáděny do prostředí PBS Pro. Stroje zařazené v PBS Pro jsou v PBSMonu označené nápisem "Pro" https://metavo.metacentrum.cz/pbsmon2/nodes/physical .
S omluvou za komplikace a s díky za pochopení,
Uživatelská podpora centra CERIT-SC
MetaCentrum bylo rozšířeno o nový stroj upol128.upol.cz (UP Olomouc)
Stroj upol128 je dostupný přes prioritní frontu vtp vyhrazenou pro skupinu vtp_upol a veřejnou frontu uv_2h.
MetaCentrum bylo rozšířeno o nový cluster alfrid (NTIS ZČU)
Cluster alfrid je dostupný přes prioritní frontu iti a přes krátkodobé úlohy z běžné fronty.
Nabídka pro všechny uživatele a fanoušky systému ANSYS
Na konci ledna 2016 vyšla nová verze ANSYS 17.0. V každé oblasti fyziky přináší řadu zlepšení které uživatelům umožní výrazně zvýšit efektivitu i produktivitu práce.
Přijďte se podívat 8.3. 2016 do hotelu Avanti Brno co nového přináší verze 17.0 pro Vaši oblast výzkumu / práce. Čeká Vás živá demonstrace práce v prostředí, možnost diskuse konkrétních zadání s našimi specialisty a spousta informací ze světa ANSYSu.
Přístup na seminář je pro všechny registrované zdarma, více informací týkajících se semináře a registrační formulář zde: https://www.svsfem.cz/update-ansys17
Nevyvhovuje Vám termín semináře v Brně? Zkuste jiné město případně se s námi spojte rádi Vám sdělíme veškeré možnosti.
MetaCentrum bylo rozšířeno o nový cluster CERIT-SC:
Cluster zefron je dostupný přes standardní frontu na Torque serveru wagap.cerit-sc.cz.
Jeden uzel (zefron8) je osazen GPU kartou NVIDIA Tesla K40, zapůjčenou z Loschmidt Laboratories. GPU úloha se v prostředí CERIT-SC (server @wagap) zadává jako standardní úloha, pouze se specifikací počtu GPU:
-l nodes=1:ppn=X:gpu=1
MetaCentrum bylo rozšířeno o nové clustery vlastníků ze ZČU a CEITEC MU:
ScaleMP cluster alfrid je přístupný prostřednictvím speciální fronty scalemp (Torque server arien.ics.muni.cz). O přístup je třeba požádat (kromě uživatelů ze skupin kky a iti) vlastníky HW, nejlépe emailem na meta@cesnet.cz s kopií na honzas@ntis.zcu.cz.Více informací na https://wiki.metacentrum.cz/wiki/ScaleMP
Cluster lex je přístupný všem zájemcům MetaCentra prostřednictvím front preemptible a backfill (Torque server arien.ics.muni.cz). Uživatelé z CEITEC MU a NCBR mají privilegovaný přístup.
Clustery zubat a krux jsou přístupné všem zájemcům MetaCentra prostřednictvím front s maximální dobou běhu 1 den (Torque server arien.ics.muni.cz). Uživatelé z CEITEC MU a NCBR mají privilegovaný přístup.
V úterý 1. prosince se v brněnském hotelu Continental konal další ročník uživatelského semináře Grid Computing Workshop 2015, věnovaný přehledu informací a novinek z českého národního gridového a cloudového prostředí MetaCentrum a CERIT-SC, tentokrát se zaměřením na bioinformatickou vědeckovýzkumnou komunitu.
Letošního ročníku se zúčastnilo bezmála 80 výzkumných pracovníků nejen z České republiky.
Workshop byl organizován projektem MetaCentrum sdružení CESNET a Centrem CERIT-SC při ÚVT MU, za významné spoluúčasti společnosti Atos IT Solutions and Services, s.r.o. Prezentace a fotky z akce jsou k dispozici na stránce semináře http://metavo.metacentrum.cz/cs/seminars/seminar2015/index.html
MetaCentrum & CERIT-SC
Vážení uživatelé,
dovolujeme si Vás pozvat na další ročník Semináře gridového počítání 2015
Titulárním sponzorem letošního setkání je společnost Atos IT Solutions and Services, s.r.o., mj. dodavatel bioinformatického SW. V rámci dopoledního bloku semináře tak budou odborníci společnosti ATOS prezentovat jaké nástroje nabízejí pro bioinformatiku.
Program semináře je k dispozici na stránce semináře. Na akci je nezbytná registrace, kapacita sálu je omezena. Účast na semináři je bezplatná.
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC.
PS: Seminář je organizován projektem MetaCentrum sdružení CESNET a Centrem CERIT-SC za významné spoluúčasti zmíněného partnera -- společnosti Atos IT Solutions and Services, s.r.o.
MetaCentrum v pátek zprovoznilo nové diskové pole (náhrada za staré pole /storage/plzen1/) a došlo tak k navýšení úložné kapacity z 60 TB na 350 TB.
Diskové pole je umístěno v lokalitě Plzeň a je dostupné ze všech clusterů v MetaCentru stejným způsobem jako pole původní (stejný název /storage/plzen1/, NFS4 server storage-plzen1.metacentrum.cz), uživatelské kvóty zůstaly rovněž nezměněny.
MetaCentrum bylo rozšířeno o nový cluster ida.meta.zcu.cz, obsahující celkem 28 strojů (560 CPU jader), každý s následující konfigurací:
Stroje jsou přístupné přes Torque server arien.ics.muni.cz, po dobu testování jen pro krátší úlohy.
S přáním příjemného počítání,
MetaCentrum
Rádi bychom Vám touto cestou oznámili, že MetaCentrum pro vás spustilo samostatný cluster s platformou Hadoop pro zpracování velkých dat. Prostředí je určeno především pro provádění výpočtů typu Map-Reduce nad rozsáhlými, obvykle nestrukturovanými daty. Služba je doplněna obvyklými nadstavbami (Pig, Hive, Hbase, YARN, …) a plně integrována s infrastrukturou MetaCentra.
Používat ji mohou všichni oprávnění uživatelé MetaCentra po registraci do samostatné skupiny 'hadoop'. V současnosti je v clusteru k dispozice ve 27 uzlech celkem 432 CPU, 3,5 TB RAM a 1 PB diskového prostoru v HDFS. Další informace o této službě vč. odkazů na registrační formulář a postupně rostoucí Wiki s návody najdete na Meta Webu: http://www.metacentrum.cz/cs/hadoop/
S přáním příjemného počítání,
MetaCentrum zprovoznilo nové diskové pole
Diskové pole je umístěno v lokalitě Brno a je dostupné ze všech clusterů v MetaCentru. Účty na diskovém poli byly zřízeny automaticky všem členům MetaCentra, není třeba o ně nijak speciálně žádat.
Diskové pole /storage/brno2/ je zaplněno již z 99 %, pokud na něm máte data, zvažte jejich přesun na pole nové, které je v tuto chvíli úplně prázdné. Zaplnění diskových polí můžete sledovat na stránce http://metavo.metacentrum.cz/pbsmon2/nodes/physical a http://metavo.metacentrum.cz/cs/state/personal
Archivní data, která již nepotřebujete bezprostředně k výpočtům, doporučujeme přesunout ze /storage/<location>/home/ do
|/storage/plzen2-archive/ or /storage/jihlava2-archive/ (obojí jsou archivní (HSM) úložiště CESNETu). Získáte tak jistotu, že o svá data nepříjdete, díky archivační politice na HSM budou archovovaná ve 2 kopiích.
Podrobnější informace o dostupných polích viz https://wiki.metacentrum.cz/wiki/Souborové_systémy_v_MetaCentru
MetaCentrum bylo rozšířeno o nový výpočetní cluster a stroj s velkou pamětí:
Stroje jsou spravované Torque serverem @arien a přístupné přes frontu vlastníků "ubo" a standardní fronty s délkou trvání do 2 dnů.
Stroj je spravovaný Torque serverem @wagap a přístupný přes frontu "uv". Výkon každého uzlu dle SPECfp2006: 13198 (34.37 na jádro).
S přáním příjemného počítání,
MetaCentrum & CERIT-SC
Část clusteru zewura9 - zewura20 byla přestěhovaná do nově vybudovaného sálu centra CERIT-SC a zprovozněna pod novým názvem zebra1.cerit-sc.cz - zebra12.cerit-sc.cz (z důvodu fyzicky odlišné lokality). Parametry a režim přístupu ke clusteru zůstávají stejné.
S přáním příjemného počítání,
MetaCentrum
Vážení uživatelé,
dovolujeme si Vás pozvat na další ročník Semináře gridového počítání 2014, který se bude konat dne 2. prosince 2014 (cca 10-17hod.) v Praze na Masarykově koleji ČVUT, Thákurova 1.
Registrace na seminář, který je zdarma přístupný nejen uživatelům národního gridu, je k dispozici na http://metavo.metacentrum.cz/metareg/
Seminář bude věnován přehledu informací a novinek o českém národním gridovém a cloudovém prostředí MetaCentrum a CERIT-SC (nový plánovací systém, nové výpočetní zdroje, novinky a tipy ve využití infrastruktur, výsledky spoluprací s uživatelskými skupinami, atp.).
Titulárním sponzorem letošního setkání je společnost Humusoft s.r.o., mj. dodavatel výpočetního prostředí MATLAB. V rámci dopoledního bloku semináře tak budou odborníci společnosti Humusoft prezentovat přehled možností vědeckovýzkumného využití nástroje MATLAB, včetně prezentace možností paralelního, distribuovaného a GPU počítání. Prezentovány budou i informace o efektivním spouštění Matlab výpočtů v prostředí námi poskytované infrastruktury. Více informací najdete na stránkách semináře.
V rámci semináře bychom rádi uvítali i 3-4 prezentace Vás, našich uživatelů, které posléze rádi odměníme "děkovacím záznamem" a tím navýšením Vašeho fairshare indikátoru (=> rychlejším spouštění Vašich úloh). Návrhy prezentací během cca 15 minut informujících o Vašem výzkumu realizovaném na námi poskytovaných infrastrukturách nám prosíme zasílejte do 23. listopadu na adresu meta@cesnet.cz .
Poznámka: Vámi prezentovaný výzkum vůbec nemusí souviset s Matlabem -- v rámci těchto prezentací bychom Vás rádi poprosili především o náhled do Vašich výzkumných aktivit a výsledků (a přínosů, které Vašemu výzkumu naše infrastruktura poskytuje), ať už je realizujete v jakémkoliv nástroji...
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC.
PS: Seminář je organizován projektem MetaCentrum sdružení CESNET a Centrem CERIT-SC za významné spoluúčasti zmíněného partnera -- společnosti Humusoft s.r.o., výhradního zástupce americké firmy MathWorks, Inc. pro Českou republiku a Slovensko.
Zveme všechny uživatele MetaCentra na slavnostní otevření a zahájení provozu Centra vzdělávání, výzkumu a inovací pro ICT v Brně (CERIT), které se koná v pátek 19. září 2014 v nových prostorách Fakulty informatiky MU a Ústavu výpočetní techniky, Botanická 68 a, Brno.
Zájemce zveme zejména na Workshop CERIT-SC a na prohlídku nových prostor FI a ÚVT, zejména pak některých zajímavých laboratoří, výpočetních sálů a poslucháren.
V 7. patře vědecko-technického parku bude k vidění přehlídka vědeckých posterů doktorských studentů FI. Jejich autoři budou k dispozici pro případné dotazy mezi 12.30 - 13.30.
Výběr z programu:
12:30 – 13:30 posterová soutěž, 7. patro vědecko-technického parku
od 13:00 vernisáž výstavy (Ateliér grafického designu) a prohlídka prostor
13:30 – 15:00 Workshop na téma Spolupráce mezi CERIT-SC, výzkumníky a studenty, A217
15:00 – 16:00 Setkání absolventů FI MU, A217
Více informací k průběhu akce najdete na stránce CERIT-SC, partnera akce.
Aktuální informace o novinkách infrastruktur MetaCentrum a CERIT-SC.
Stručné shrnutí novinek:
A nyní detailněji:
1. Amber:
- zakoupili jsme licenci nejnovější verze nástroje pokrývajícího široké spektrum metod výpočetní chemie, využitelnou všemi uživateli MetaCentra
- připravili jsme moduly podporující jak sériové/distribuované výpočty (modul "amber-14"), tak výpočty na grafických procesorech (GPU - modul "amber-14-gpu")
- obě varianty jsou pro maximální efektivitu kompilovány Intel kompilátorem s podporou Intel MKL knihoven
- více viz https://wiki.metacentrum.cz/wiki/Amber
2. GALAXY:
- Galaxy (viz http://galaxyproject.org/ ) je webová platforma pro jednoduchou a transparentní realizaci bioinformatických výpočtů
- připravili jsme vlastní Galaxy instanci, která podporuje vícero bioinformatických nástrojů (např. bfast, blast, bowtie2, bwa, cuff tools, fastx and fastqc tools, fastqc, mosaik, muscle, repeatexplorer, rsem, samtools, tophat2 atp.)
- (další nástroje lze doplnit na požádání)
- výpočty, sestavené v rámci webového rozhraní Galaxy, jsou poté prováděny skrze standardní gridové úlohy
- bližší informace viz https://wiki.metacentrum.cz/wiki/Galaxy_application , přímý přístup na portál skrze https://galaxy.metacentrum.cz (standardní uživatelské jméno a heslo)
3. Projektové adresáře:
- prosíme, ozvěte se nám, pokud ve svých domovských adresářích udržujete objemná data centrálně instalovaných aplikací (např. databáze SW), které nebylo vhodné umisťovat na AFS -- přesuneme je do projektových adresářů
- tyto můžete využít i pro sdílení dat Vašeho projektu -- tato data budou umístěna mimo Vaše domovské adresáře v /storage/projects/MUJPROJEKT
- podpora sdílení dat může být realizována vytvořením vlastní skupiny uživatelů, viz předchozí novinka
4. Hands-on školící seminář:
- připravujeme hands-on školící seminář pro efektivní využívání služeb infrastruktur MetaCentra a CERIT-SC
- předpokládané konání bude v termínu 4.-15.8. (v závislosti na výsledku hlasování), konat se bude v Praze (v budoucnu i v dalších městech)
- více informací a registrační formulář naleznete na https://www.surveymonkey.com/s/MetaSeminar-Praha
5. Nově instalované/upgradované aplikace:
Komerční software:
1. Amber
- zakoupena licence nejnovější verze 14 programu Amber, viz výše
2. Geneious
- upgrade na verzi 7.1.5
Volně dostupný software:
* blast+ (ver. 2.2.29)
- a program that compares nucleotide or protein sequences to sequence databases and calculates the statistical significance of matches
* bowtie2 (ver. 2.2.3)
- Bowtie 2 is an ultrafast and memory-efficient tool for aligning sequencing reads to long reference sequences.
* cellprofiler (ver. 2.1.0)
- an open-source software designed to enable biologists to quantitatively measure phenotypes from thousands of (cell/non-cell) images automatically
* cuda (ver. 6.0)
- CUDA Toolkit 6.0 (libraries, compiler, tools, samples)
* diyabc (ver. 2.0.4)
- user-friendly approach to Approximate Bayesian Computation for inference on population history using molecular markers
* eddypro (ver. 20140509)
- a powerful software application for processing eddy covariance data
* fsl (ver. 5.0.6)
- a comprehensive library of analysis tools for FMRI, MRI and DTI brain imaging data
* gerp (ver. 05-2011)
- GERP identifies constrained elements in multiple alignments by quantifying
* gpaw (ver. 0.10, Python 2.6+2.7, Intel+GCC variants)
- density-functional theory (DFT) Python code based on the projector-augmented wave (PAW) method and the atomic simulation environment (ASE)
* gromacs (ver. 4.6.5)
- a program package enabling to define minimalization of energy of system and dynamic behaviour of molecular systems
* hdf5 (ver. 1.8.12-gcc-serial)
- data model, library, and file format for storing and managing data.
* htseq (ver. 0.6.1)
- a Python package that provides infrastructure to process data from high-throughput sequencing assays
* infernal (ver. 1.1, GCC+Intel+PGI variants)
- search sequence databases for homologs of structural RNA sequences
* mono (ver. 3.4.0)
- open-source .NET implementation allowing to run C# applications
* openfoam (ver. 2.3.0)
- a free, open source CFD software package
* phylobayes (ver. mpi-1.5a)
- Bayesian Markov chain Monte Carlo (MCMC) sampler for phylogenetic inference
* phyml (ver. 3.0-mpi)
- estimates maximum likelihood phylogenies from alignments of nucleotide or amino acid sequences
* picard (ver. 1.80 + 1.100)
- a set of tools (in Java) for working with next generation sequencing data in the BAM format
* qt (ver. 4.8.5)
- cross-platform application and UI framework
* R (ver. 3.1.0)
- a software environment for statistical computing and graphics
* rpy (ver. 1.0.3)
- python wrapper for R
* rpy2 (ver. 2.4.2)
- python wrapper for R
* rsem (ver. 1.2.8)
- package for estimating gene and isoform expression levels from RNA-Seq data
* soapalign (ver. 2.21)
- The new program features in super fast and accurate alignment for huge amounts of short reads generated by Illumina/Solexa Genome Analyzer.
* soapdenovo (ver. trans-1.04)
- de novo transcriptome assembler basing on the SOAPdenovo framework
* spades (ver. 3.1.0)
- St. Petersburg genome assembler. It is intended for both standard (multicell) and single-cell MDA bacteria assemblies.
* stacks (ver. 1.19)
- a software pipeline for building loci from short-read sequences
* tablet (ver. 1.14)
- a lightweight, high-performance graphical viewer for next generation sequence assemblies and alignments
* tassel (ver. 3.0)
- TASSEL has multiple functions, including associati on study, evaluating evolutionary relationships, analysis of linkage disequilibrium, principal component analysis, cluster analysis, missing data imputation and data visualization
* tcltk (ver. 8.5)
- powerful but easy to learn dynamic programming language and graphical user interface toolkit
* tophat (ver. 2.0.12)
- TopHat is a fast splice junction mapper for RNA-Seq reads.
* trinotate (ver. 201407)
- comprehensive annotation suite designed for automatic functional annotation of transcriptomes, particularly de novo assembled transcriptomes, from model or non-model organisms
* wgs (ver. 8.1)
- whole-genome shotgun (WGS) assembler for the reconstruction of genomic DNA sequence from WGS sequencing data
S přáním úspěšných výpočtů
Tom Rebok,
MetaCentrum + CERIT-SC.
V uplynulých letech se centrum CERIT-SC společně s MetaCentrem zabývalo zhodnocením efektivity stávajícího Torque plánovače. Výsledkem dlouhodobého výzkumu bylo vyvinutí nového plánovače založeného na tvorbě rozvrhu, který řeší nejkritičtější nedostatky původního plánovače.
Nový plánovač bude nasazen na Torque serveru @wagap příští týden. Aktuální běžící úlohy nebudou přepnutím plánovače ovlivněny.
Mezi klíčové výhody nového rozvrhového plánovače patří:
Největší změnou je skutečnost, že plánovač nepoužívá fronty, s výjímkou prioritních front dedikovaných uživatelské komunitě na základě speciální domluvy.
Protože nasazení nového plánovače je významným zásahem do infrastruktury, žádáme uživatele, aby nám hlásili neobvyklé chování plánovače na adresu uživatelské podpory support@cerit-sc.cz. Uživatelská podpora bude po přechodnou dobu posílena o vývojový tým nového plánovače.
Datový prostor na hierarchickém úložišti (HSM) v Brně je nyní přímo přístupný ze všech strojů MetaCentra a CERIT-SC. Úložiště je připojeno v adresáři /storage/brno5-archive/home/
Uživatelé z virtuální organizace MetaCentrum mají k dispozici diskový prostor standardně s kvótou 5 TB, starší data jsou přesouvána na pásky a MAID. Kvóta může být na požádání navýšena.
Pro HSM platí odlišné nastavení (platí pro Brno, Jihlavu i Plzeň):
Aktuální využití úložišť: http://metavo.metacentrum.cz/pbsmon2/nodes/physical#storages_hsm
Návod, jak data kopírovat: https://wiki.metacentrum.cz/wiki/Archivní_data
Úložiště HSM se hodí zejména pro odkládání archivních dat, se kterými se již aktivně nepracuje. Nepoužívejte jej pro živá data nebo pro data, nad kterými se bezprostředně provádějí výpočty. Úložiště je hierarchické, to znamená, že systém automaticky přesouvá déle nepoužívaná data na pomalejší média, v tomto případě magnetické pásky a vypínatelné disky (MAID). Data jsou přitom stále pro uživatele viditelná v souborovém systému, jen je třeba počítat s tím, že přístup k dlouho nepoužitým datům může být pomalejší.
Kompletní dokumentaci úložiště najdete na https://du.cesnet.cz/
Úložiště je provozováno Oddělením datových úložišť CESNET, http://du.cesnet.cz.
S dotazy a žádostmi na uživatelskou podporu se obracejte na podporu MetaCentra (meta@cesnet.cz).
Zasíláme Vám aktuální informace o novinkách infrastruktur MetaCentrum a CERIT-SC.
Stručné shrnutí novinek:
A nyní detailněji:
1. Podpora sdílení dat ve skupinách:
- na požádání Vám založíme systémovou skupinu, v rámci které si budete moci sami spravovat její členy (skrze grafické rozhraní systému Perun)
- podporujeme sdílení dat skupinou v rámci domovských adresářů uživatelů i sdílení dat skupinou v rámci scratchových adresářů
- pro bližší informace navštivte https://wiki.metacentrum.cz/wiki/Sdílení_dat_ve_skupině
2. Gaussian-Linda:
- zakoupili jsme licenci paralelního rozšíření programu Gaussian -- Gaussian-Linda, využitelnou všemi uživateli MetaCentra
- paralelní/distribuované zpracování Vašich výpočtů je dostupné skrze modul "g09-D.01linda"
- potřebné volby jsou (při požadavku úlohy na více uzlů) do vstupního Gaussian souboru automaticky zaváděny skriptem "g09-prepare"
- bližší informace viz https://wiki.metacentrum.cz/wiki/Gaussian-GaussView
3. Přidělování uzlů vzájemně propojených Infiniband sítí distribuovaným výpočtům:
- dosavadní obcházení nedokonalosti plánovače při požadavku na Infiniband uzly (skrze požadavek na uzly konkrétního clusteru) již není nutné
- při požadavku na uzly propojené Infiniband sítí doplňte volbu "-l place=infiniband" (tj. např. "qsub -l nodes=2:ppn=2:infiniband -l place=infiniband ...") -- plánovač Vám automaticky nalezne uzly (vzájemně propojené IB sítí), které mohou potenciálně být i z různých clusterů
- do budoucna plánujeme volbu "-l place=infiniband" doplňovat automaticky při požadavku na Infiniband uzly, tj. dostatečným požadavkem bude "-l nodes=X:ppn=Y:infiniband"...
- bližší informace viz https://wiki.metacentrum.cz/wiki/Paralelní_aplikace
4. Nově instalované/upgradované aplikace:
Komerční software:
1. Gaussian Linda
- Linda parallel programming model involves a master process, which runs on the current processor, and a number of worker processes which can run on other nodes of the network
- pořízení paralelního rozšíření Gaussian-Linda
2. Matlab
- an integrated system covering tools for symbolic and numeric computations, analyses and data visualizations, modeling and simulations of real processes, etc.
- upgrade na verzi 8.3
3. CLC Genomics Workbench
- a tool for analyzing and visualizing next generation sequencing data, which incorporates cutting-edge technology and algorithms
- upgrade na verzi 7.0
4. PGI Cluster Development Kit
- a collection of tools for development parallel and serial programs in C, Fortran, etc.
- upgrade na verzi 14.3
Volně dostupný software:
* bayarea (ver. 1.0.2)
- Bayesian inference of historical biogeography for discrete areas
* bioperl (ver. 1.6.1)
- a toolkit of perl modules useful in building bioinformatics solutions in Perl
* blender (ver. 2.70a)
- Blender is a free and open source 3D animation suite
* cdhit (ver. 4.6.1)
- program for clustering and comparing protein or nucleotide sequences
* cuda (ver. 5.5)
- CUDA Toolkit 5.5 (libraries, compiler, tools, samples)
* eddypro (ver. 20140509)
- a powerful software application for processing eddy covariance data
* flash (ver. 1.2.9)
- very fast and accurate software tool to merge paired-end reads from next-generation sequencing experiments
* fsl (ver. 5.0.6)
- a comprehensive library of analysis tools for FMRI, MRI and DTI brain imaging data
* gcc (ver. 4.7.0 and 4.8.1)
- a compiler collection, which includes front ends for C, C++, Objective-C, Fortran, Java, Ada and libraries for these languages
* gmap (ver. 2014-05-06)
- A Genomic Mapping and Alignment Program for mRNA and EST Sequences, Genomic Short-read Nucleotide Alignment Program
* grace (ver. 5.1.23)
- a WYSIWYG tool to make two-dimensional plots of numerical data
* heasoft (ver. 6.15)
- a Unified Release of the FTOOLS and XANADU Software Packages
* hdf5 (ver. 1.8.12, GCC+Intel+PGI versions)
- data model, library, and file format for storing and managing data.
* hmmer (ver. 3.1b1, GCC+Intel+PGI versions)
- HMMER is used for searching sequence databases for homologs of protein sequences, and for making protein sequence alignments.
* igraph (ver. 0.7.1, GCC+Intel versions)
- collection of network analysis tools
* java3d
- Java 3D
* jdk (ver. 8)
- Oracle JDK 8.0
* jellyfish (ver. 2.1.3)
- tool for fast and memory-efficient counting of k-mers in DNA
* lagrange (ver. 0.20-gcc)
- likelihood models for geographic range evolution on phylogenetic trees, with methods for inferring rates of dispersal and local extinction and ancestral ranges
* molden (ver. 5.1)
- a package for displaying Molecular Density from the Ab Initio packages GAMESS-* and GAUSSIAN and the Semi-Empirical packages Mopac/Ampac, etc.
* mosaik (ver. 1.1 and 2.1)
- a reference-guided assembler
* mugsy (ver. v1r2.3)
- multiple whole genome aligner
* oases (ver. 0.2.08)
- Oases is a de novo transcriptome assembler designed to produce transcripts from short read sequencing technologies, such as Illumina, SOLiD, or 454 in the absence of any genomic assembly.
* opencv (ver. 2.4)
- OpenCV c++ library for image processing and computer vision. (http://meta.cesnet.cz/wiki/OpenCV)
* openmpi (ver. 1.8.0, Intel+PGI+GCC versions)
- an implementation of MPI
* OSAintegral (ver. 10.0)
- a software tool deditaced for analysis of the data provided by the INTEGRAL satellite
* omnetpp (ver. 4.4)
- extensible, modular, component-based C++ simulation library and framework, primarily for building network simulators.
* p4vasp (ver. 0.3.28)
- a collection of both secure hash functions and various encryption algorithms
* pasha (ver. 1.0.10)
- parallel short read assembler for large genomes
* perfsuite (ver. 1.0.0a4)
- a collection of tools, utilities, and libraries for software performance analysis (produced by SGI)
* perl (ver. 5.10.1)
- Perl programming language
* phonopy (ver. 1.8.2)
- post-process phonon analyzer, which calculates crystal phonon properties from input information calculated by external codes
* picard (ver. 1.80 and 1.100)
- a set of tools (in Java) for working with next generation sequencing data in the BAM format
* quake (ver. 0.3.5)
- tool to correct substitution sequencing errors in experiments with deep coverage
* R (ver. 3.0.3)
- a software environment for statistical computing and graphics
* sga (ver. 0.10.13)
- memory efficient de novo genome assembler
* smartflux (ver. 1.2.0)
- a powerful software application for processing eddy covariance data
* theano (ver. 0.6)
- Python library that allows to define, optimize, and evaluate mathematical expressions involving multi-dimensional arrays efficiently
* tophat (ver. 2.0.8)
- TopHat is a fast splice junction mapper for RNA-Seq reads.
* trimmomatic (ver. 0.32)
- A flexible read trimming tool for Illumina NGS data
* trinity (ver. 201404)
- novel method for the efficient and robust de novo reconstruction of transcriptomes from RNA-seq data
* velvet (ver. 1.2.10)
- an assembler used in sequencing projects that are focused on de novo assembly from NGS technology data
* VESTA (ver. 3.1.8)
- 3D visualization program for structural models and 3D grid data such as electron/nuclear densities
* xcrysden (ver. 1.5)
- a crystalline and molecular structure visualisation program aiming at display of isosurfaces and contour
S přáním úspěšných výpočtů
Tomáš Rebok,
MetaCentrum NGI.
Centrum CERIT-SC pořádá ve spolupráci s SGI pokročilý kurz o architektuře systému SGI UV2 a optimalizaci aplikací pro běh na ní.
Primární cílovou skupinou jsou uživatelé aplikací s vysokou náročností na výkon, a uživatelé, kteří ke své práci využívají vlastní kód nebo existující aplikační kód modifikují.
Kurz je plánován na 2,5 dne, v termínu 13.-15.5.2014 v prostorách CERIT-SC v Brně, Šumavská 15 (viz http://www.cerit-sc.cz/cs/about/Contacts/).
Bude veden v angličtině, přednášejícím je expert SGI dr. Gabriel Koren. V případě zájmu je možné účastnit se videokonferenčně. Pořízení záznamu není možné.
Předpokládaná probíraná témata jsou:
Kapacita kurzu je omezena, zájemce prosíme, aby se registrovali na http://www.cerit-sc.cz/registrace/. V poznámce uveďte, dáváte-li přednost videokonferenci.
Praktické ukázky profilování a optimalizace bychom rádi předvedli na skutečných problémech a aplikacích, nejen na uměle vytvořených příkladech. Uvítáme proto vaše vstupy. K tomu potřebujeme:
Program by měl být schopen potenciálně využít významnou část UV2 v CERIT-SC (tj. alespoň desítky jader CPU nebo stovky GB RAM). Doba běhu na dodaných vstupních datech by měla být v rozmezí 1-20 minut.
Během kurzu se za pomoci školícího tyto programy pokusíme co nejvíce vylepšit z pohledu efektivity jejich běhu na UV2. Přínosem pro vás tedy bude nejen samotný proces optimalizace ale i přímo jeho výsledek.
Prosíme o zaslání návrhů na takové problémy k řešení do 30.4.2014 na <ljocha@ics.muni.cz>. Nedokážeme odhadnout, jak velký bude zájem, dovolí-li to rozsah kurzu, zahrneme do programu všechny.
Těšíme se na hojnou účast a zajímavé příspěvky k programu.
Aleš Křenek <ljocha@ics.muni.cz>
za tým CERIT-SC
Datový prostor na hierarchickém úložišti (HSM) v Jihlavě je nyní přímo přístupný ze všech strojů MetaCentra a CERIT-SC. Úložiště je připojeno v adresáři /storage/jihlava2-archive/home/
Uživatelé z virtuální organizace MetaCentrum mají k dispozici diskový prostor standardně s kvótou 5 TB, starší data jsou přesouvána na pásky a MAID. Kvóta může být na požádání navýšena.
Pro HSM platí odlišné nastavení (platí pro Jihlavu i Plzeň):
--------------------------------------------------------------------------------------------------------------------------------------
|Prosíme zvažte přesun svých archivních dat, která nepotřebujete bezprostředně
|k výpočtům (ze svazků /storage/<lokalita>/home/ na některé z připojených HSM
|(/storage/plzen2-archive/ nebo /storage/jihlava2-archive/).
|Na brněnských svazcích dochází místo. Navíc získáte výhodu zálohování ve dvou kopiích.
--------------------------------------------------------------------------------------------------------------------------------------
Aktuální využití úložišť: http://metavo.metacentrum.cz/cs/state/personal
Návod, jak data kopírovat: https://wiki.metacentrum.cz/wiki/Archivní_data
Úložiště HSM se hodí zejména pro odkládání archivních dat, se kterými se již aktivně nepracuje. Nepoužívejte jej pro živá data nebo pro data, nad kterými se bezprostředně provádějí výpočty. Úložiště je hierarchické, to znamená, že systém automaticky přesouvá déle nepoužívaná data na pomalejší média, v tomto případě magnetické pásky a vypínatelné disky (MAID). Data jsou přitom stále pro uživatele viditelná v souborovém systému, jen je třeba počítat s tím, že přístup k dlouho nepoužitým datům může být pomalejší.
Dokumentaci k adresářové struktuře HSM úložiště najdete na
https://du.cesnet.cz/wiki/doku.php/cs/navody/home-migrace-plzen/start
Kompletní dokumentaci úložiště najdete na https://du.cesnet.cz/wiki/doku.php/cs/navody/start
Úložiště je provozováno Oddělením datových úložišť CESNET, http://du.cesnet.cz.
S dotazy a žádostmi na uživatelskou podporu se obracejte na podporu MetaCentra (meta@cesnet.cz).
Dobrý den,
z důvodu získání lepšího přehledu o datech ve scratchích a možnosti identifikace starých nepotřebných dat kvůli promazávání, si Vás dovolujeme upozornit, že zápis do základního scratchového adresáře /scratch*/$USER bude od
**** 1. května 2014 ZNEMOŽNĚN ****
tj. úlohy budou moci zapisovat pouze do přiděleného podadresáře /scratch*/$USER/job_JOBID.
Ujistěte se prosím, že Vaše skripty pracují s proměnnou $SCRATCHDIR, ukazatelem na scratchový prostor, který byl Vaší úloze při startu přidělen. Příklad ukázkového skriptu je dostupný na wiki.
Rovněž prosíme, abyste své nové úlohy zadávali s proměnnou $SCRATCHDIR (pokud využíváte scratche). V opačném případě skončí po tomto datu neúspěchem (nemožností zapsat data do základního scratchového adresáře).
Poznámka: Pokud práci s proměnnou $SCRATCHDIR využíváte již nyní, žádná změna se Vás nedotkne -- ve svých skriptech nemusíte nic upravovat.
Napište nám, pokud budete potřebovat pomoc s úpravou svých skriptů, či pokud by Vaše dlouhotrvající výpočty mohly být touto změnou postiženy. Napište nám rovněž, pokud ke svým výpočtům potřebujete zápis do základního scratchového adresáře např. z důvodu sdílení objemných dat mezi úlohami. V tomto případě Vám v základním scratchovém adresáři vytvoříme prostor určený pro uložení těchto dat.
Více informací o svazku /scratch najdete také na wiki: https://wiki.metacentrum.cz/wiki/Úložiště_scratch
S diky za pochopení a s přáním úspěšných výpočtů,
Ivana Křenková
V rámci avizované komplexní údržby a analýzy stavu diskového pole /storage/brno1 se bohužel ukázalo, že jeho bezporuchový provoz již není dále udržitelný a mj. i vzhledem k jeho stáří (jedná se o naše nejstarší diskové pole) jsme nuceni jej ***TRVALE ODSTAVIT***.
Důsledky, které z tohoto plynou pro Vás, uživatele:
***DŮLEŽITÉ:***
Omlouváme se za komplikace způsobené touto odstávkou.
S díky za pochopení a s přáním úspěšných výpočtů
Tom Rebok.
Představujeme Vám další pravidelnou informaci o provozních novinkách infrastruktur MetaCentrum a CERIT-SC:
1. Podpora paralelních/distribuovaných výpočtů v Matlabu -- zjednodušení práce s přípravou paralelního/distribuovaného poolu workerů:
2. Nově instalovaný/pořízený SW:
Pozn.: Bližší informace o instalovaných aplikacích jsou k dispozici na stránce aplikací: https://wiki.metacentrum.cz/wiki/Kategorie:Aplikace
KOMERČNÍ PROGRAMY:
Wien2k (wien2k-13.1)
VOLNĚ DOSTUPNÉ PROGRAMY:
* allpathslg (ver. 48203) - short read genome assembler from the Computational Research and Development group at the Broad Institute
* atlas (ver. 3.10.1, compiled by gcc4.4.5 and gcc4.7.0) - The ATLAS (Automatically Tuned Linear Algebra Software) project is an ongoing research effort focusing on applying empirical techniques in order to provide portable performance.
* cm5pac (ver. 2013) - a package to carry out a calculation of CM5 partial atomic charges using Hirshfeld atomic charges from Gaussian 09's output file (calculations performed in Revision D.01 of Gaussian 09 may produce wrong CM5 charges in certain cases)
* damask (ver. 2689) - flexible and hierarchically structured model of material point behavior for the solution of (thermo-) elastoplastic boundary value problems
* fastq_illumina_filter (ver. 0.1) - Illumina's CASAVA pipeline produces FASTQ files with both reads that pass filtering and reads that don't
* fftw (ver. 3.3, variants: double, omp, ompdouble) - C subroutine library for computing the discrete Fourier transform
* gmap (ver. 2013-11-27) - A Genomic Mapping and Alignment Program for mRNA and EST Sequences, Genomic Short-read Nucleotide Alignment Program
* gnuplot (ver. 4.6.4) - a portable command-line driven graphing utility allowing to visualize mathematical functions and data
* grace (ver. 5.1.23) - a WYSIWYG tool to make two-dimensional plots of numerical data
* lammps (ver. dec2013) - Large-scale Atomic/Molecular Massively Parallel Simulator
* maker (ver. 2.28) - Genome annotation pipeline. Its purpose is to allow smaller eukaryotic and prokaryotic genome projects to independently annotate their genomes and to create genome databases.
* masurca (ver. 2.1.0) - MaSuRCA is whole genome assembly software. It combines the efficiency of the de Bruijn graph and Overlap-Layout-Consensus (OLC) approaches.
* metaVelvet (ver. 1.2) - a short read assember for metagenomics
* numpy (ver. 1.8.0 for Python 2.6, compiled with gcc and Intel) - a Python language extension defining the numerical array and matrix type and basic operations over them (compiled with Intel MKL libraries support for faster performance) * NWChem (ver. 6.3.2) - an ab initio computational chemistry software package which also includes quantum chemical and molecular dynamics functionality
* openmpi (ver. 1.6.5, gcc + pgi + intel) - an implementation of MPI
* orca (ver. 3.0.1) - modern electronic structure program package
* paramiko (ver. 1.12) - a Python module that implements the SSH2 protocol for secure (encrypted and authenticated) connections to remote machines
* pycrypto (ver. 2.6.1) - a collection of both secure hash functions (such as SHA256 and RIPEMD160) and various encryption algorithms (AES, DES, RSA, ElGamal, etc.)
* SOAPdenovo2 - a novel short-read assembly method that can build a de novo draft assembly for the human-sized genomes (includes SOAPec, GapCloser, Data prepare and Error Correction modules)
* sRNAworkbench3.0 - a suite of tools for analysing small RNA (sRNA) data from Next Generation Sequencing devices
* ugene (ver. 1.13) - a free open-source cross-platform bioinformatics software
* vcftools (ver. 0.1.11) - an ultrafast, memory-efficient short read aligner of short DNA sequences
* vtk (ver. 5.4.2) - freely available software system for 3D computer graphics, image processing and visualization
* xmgrace (ver. 5.1.23) - a WYSIWYG tool to make two-dimensional plots of numerical data
S pozdravem Tomáš Rebok,
MetaCentrum + CERIT-SC.
Jak jsme avizovali, představujeme Vám další pravidelnou informaci o provozních novinkách infrastruktur MetaCentrum a CERIT-SC:
1. Rozšířené možnosti plánovače -- nové možnosti specifikace odhadované doby běhu úloh:
2. Nově instalovaný/pořízený SW:
Pozn.: Bližší informace o instalovaných aplikacích jsou k dispozici na
stránce aplikací: https://wiki.metacentrum.cz/wiki/Kategorie:Aplikace
KOMERČNÍ PROGRAMY (dostupné všem registrovaným uživatelům):
VOLNĚ DOSTUPNÉ PROGRAMY:
* atomsk (ver. b0.7.2) - a command-line program intended to read many types of atomic position files, and convert them to many other formats
* clview (ver. 2010) - graphical, interactive tool for inspecting the ACE format assembly files generated by CAP3 or phrap
* cthyb - The TRIQS-based hybridization-expansion matrix solver allows to solve the generic problem of a quantum impurity embedded in a conduction bath
* erlang (ver. r16) - programming language used to build massively scalable soft real-time systems with requirements on high availability
* erne (ver. 1.4, gcc+intel) - a short string alignment package providing an all-inclusive set of tools to handle short (NGS-like) reads
* repeatexplorer - RepeatExplorer is a computational pipeline for discovery and characterization of repetitive sequences in eukaryotic genomes.
S pozdravem Tomáš Rebok,
MetaCentrum + CERIT-SC
MetaCentrum bylo rozšířeno o cluster luna.fzu.cz (Fyzikální ústav AV ČR), celkem 47 strojů (752 CPU jader), každý v konfiguraci:
Cluster je přístupný přes fronty luna, short a normal (Torque server @arien).
S přáním příjemného počítání,
MetaCentrum
Na clustery CERIT-SC (zewura, zegox, zigur, zapat, zuphux a ungu) je nově připojeno hierarchické datové úložiště (HSM) CERIT-SC. HSM je připojeno v adresáři /storage/brno4-cerit-hsm/home a je v testovacím provozu.
Úložiště je hierarchické, to znamená, že systém automaticky přesouvá déle nepoužívaná data na pomalejší média, v tomto případě na vypínatelné disky (MAID). Uživatel se o to nemusí starat, všechna data jsou zobrazena v souborovém systému. Je třeba počítat s tím, že přístup k dlouho nepoužívaným datům může být pomalejší (disky se musí roztočit).
Pokud uživatel kdekoli na úložišti založí adresář "Archive", tak data v něm i jeho podadresářích budou ukládány rovnou na vypínatelné disky.
Vzhledem k technologii MAID je úložiště použitelné i pro živější data, jeho hlavním a preferovaným účelem jsou nicméně střednědobé archivy.
Jak jsme avizovali, zasíláme Vám další pravidelnou informaci o provozních novinkách infrastruktur MetaCentrum a CERIT-SC:
1. Prostředí pro podporu práce s GUI aplikacemi (VNC servery)
2. Nově instalovaný/pořízený SW:
Pozn.: Bližší informace o instalovaných aplikacích jsou k dispozici na stránce aplikací: https://wiki.metacentrum.cz/wiki/Kategorie:Aplikace
KOMERČNÍ PROGRAMY (dostupné všem registrovaným uživatelům):
VOLNĚ DOSTUPNÉ PROGRAMY:
* atsas (ver. 2.5.1) - A program suite for small-angle scattering data analysis from biological macromolecules.
* boost (ver. 1.55) - a boost library
* cdbfasta - Fast indexing and retrieval of fasta records from flat file databases
* cmake (ver. 2.8.11) - a cross-platform, open-source build system
* elk (ver. 2.2.9) - all-electron full-potential linearised augmented-plane wave (compiled against Intel MKL, MPI + OpenMP support)
* fastQC (ver. 0.10.1) - a quality control tool for high throughput sequence data
* freebayes (ver. 9.9.2) - a Bayesian genetic variant detector designed to find small polymorphisms (SNPs & MNPs), and complex events smaller than the length of a short-read sequencing alignment
* garli (ver. 2.01) - GARLI is a program that performs phylogenetic inference using the maximum-likelihood criterion
* gsl (ver. 1.16, gcc+intel) - GNU Scientific Library tools collection
* last (ver. 356) - LAST finds similar regions between sequences.
* mafft (ver. 7.029) - a multiple sequence alignment program which offers a range of alignment methods
* mrbayes (ver. 3.2.2) - MrBayes is a program for the Bayesian estimation of phylogeny.
* mrNA (ver. 1.0, gcc+intel) - rNA is an aligner for short reads produced by Next Generation Sequencers
* rsem (ver. 1.2.8) - package for estimating gene and isoform expression levels from RNA-Seq data
* rsh-to-ssh (ver. 1.0) - forces using SSH instead of RSH (useful for some applications, may be further used system-widely)
* sassy (ver. 0.1.1.3) - SaSSY is a short, paired-read assembler designed primarily to assemble data generated using Illumina platforms.
* seqtk (ver. 1.0) - fast and lightweight tool for processing sequences in the FASTA or FASTQ format
* spades (ver. 2.5.1) - St. Petersburg genome assembler. It is intended for both standard (multicell) and single-cell MDA bacteria assemblies.
* sparx - environment for Cryo-EM image processing
* tablet (ver. 1.13) - a lightweight, high-performance graphical viewer for next generation sequence assemblies and alignments
* trinity (ver. 201311) - novel method for the efficient and robust de novo reconstruction of transcriptomes from RNA-seq data
* vasp (ver. 4.6, 5.2 and 5.3) - Vienna Ab initio Simulation Package (VASP) for atomic scale materials modelling (newly compiled with Intel MKL and MPI support, available just for users owning a VASP license)
* visit (ver. 2.6.3) - a free interactive parallel visualization and graphical analysis tool for viewing scientific data
S pozdravem Tomáš Rebok,
MetaCentrum + CERIT-SC.
MetaCentrum bylo rozšířeno o unikátní NUMA server SGI UV2 (ungu.cerit-sc.cz), celkem 288 CPU jader v konfiguraci:
Stroj je hardwarově rozdělen na tzv. partitions jevící se jako samostatné stroje ungu1 a ungu2. Nejedná se ale o virtualizaci v běžném smyslu. Ungu1 je běžně přístupný v Torque, ungu2 je vyhrazen pro experimenty. Konkrétní rozdělení muže být měněno podle aktuální potřeby.
Stroj je přístupný po dobu testování přes frontu 'uv@wagap.cerit-sc.cz', výhledově bude přístupný i v běžných frontách.
S přáním příjemného počítání,
MetaCentrum & CERIT-SC
MetaCentrum bylo rozšířeno o dva nové clustery a diskové pole:
Stroje jsou přístupné po dobu testování pouze přes frontu debian7, i pro gpu úlohy.
Stroje jsou přístupné po dobu testování přes fronty debian7 a luna.
S přáním příjemného počítání,
MetaCentrum
Počínaje tímto kalendářním měsícem se Vás pokusíme pravidelně 1x měsíčně informovat o nejdůležitějších provozních změnách (zahrnujících mj. i nově instalovaný SW) provedených na infrastrukturách MetaCentra a CERIT-SC.
Nejdůležitější provozní novinky:
1. Testovací uzly s OS Debian 7 brzy do produkčního provozu
2. Nově instalovaný/pořízený SW: (vzhledem k této první novince budeme výjimečně sumarizovat SW za posledních 5 kalendářních měsíců)
Pozn.: Bližší informace o instalovaných aplikacích jsou k dispozici na stránce aplikací: https://wiki.metacentrum.cz/wiki/Kategorie:Aplikace
KOMERČNÍ PROGRAMY (dostupné všem registrovaným uživatelům):
VOLNĚ DOSTUPNÉ PROGRAMY:
* argus (ver. 3.0.6) - a tool for developing network activity audit strategies and prototype technology to support network operations, performance and security management
* bedtools (ver. 2.17) - bedtools utilities are a swiss-army knife of tools for a wide-range of genomics analysis tasks
* bfast (ver. 0.7.0) - a tool for fast and accurate mapping of short reads to reference sequences
* bioperl (ver. 1.6.1) - a toolkit of perl modules useful in building bioinformatics solutions in Perl
* blast (ver. 2.2.26) - a program that compares nucleotide or protein sequences to sequence databases and calculates the statistical significance of matches
* blast+ (ver. 2.2.26 + 2.2.27) - a program that compares nucleotide or protein sequences to sequence databases and calculates the statistical significance of matches
* boost (ver. 1.49) - a boost library
* bowtie (ver. 1.0.0) - an ultrafast, memory-efficient short read aligner of short DNA sequences
* bwa (ver. 0.7.5a) - a fast lightweight tool that aligns relatively short sequences to a sequence database
* clumpp (ver. 1.1.2) - a program that deals with label switching and multimodality problems in population-genetic cluster analyses
* cp2k (ver. 2.3 + 2.4) - a program to perform atomistic and molecular simulations of solid state, liquid, molecular, and biological systems
* dendroscope (ver. 3.2.8) - an interactive viewer for rooted phylogenetic trees and networks
* echo (ver. 1.12) - Short-read Error Correction
* erne (ver. 1.2) - a short string alignment package providing an all-inclusive set of tools to handle short (NGS-like) reads
* fpc (ver. 9.4) - a tool that takes a set of clones and their restriction fragments as an input and assembles the clones into contigs
* gcc (ver. 4.7.0 + 4.8.1) - a compiler collection, which includes front ends for C, C++, Objective-C, Fortran, Java, Ada and libraries for these languages
* gromacs (ver. 4.6.1) - a program package enabling to define minimalization of energy of system and dynamic behaviour of molecular systems
* ltrdigest (ver. 1.3.3 + 1.5.1) - a collection of bioinformatics tools (in the realm of genome informatics)
* minia (ver. 1.5418) - a short-read assembler based on a de Bruijn graph, capable of assembling a human genome on a desktop computer in a day
* mosaik (ver. 1.1 + 2.1) - a reference-guided assembler
* mpich2 - an implementation of MPI
* mpich3 - an implementation of MPI
* mrbayes (ver. 3.2.2) - a program for the Bayesian estimation of phylogeny
* multidis - a package for numerical simulations of mixed classical nuclear and quantum electronic dynamics of atomic complexes with many electronic states and transitions between them involved
* mvapich (ver. 3.0.3) - MPI implementation supporting Infiniband
* ncl (ver. 6.1.2) - an interpreted language designed specifically for scientific data analysis and visualization
* nco (ver. 4.2.5-gcc) - a tool that manipulates data stored in netCDF format
* numpy (ver. 1.7.1-py2.7) - a Python language extension defining the numerical array and matrix type and basic operations over them (compiled with Intel MKL libraries support for faster performance)
* open3dqsar - a software aimed at high-throughput chemometric analysis of molecular interaction fields
* openmpi (ver. 1.6) - an implementation of MPI
* parallel (ver. 2013) - a shell tool for executing jobs in parallel using one or more computers
* phycas - an application for carrying out phylogenetic analyses; it's also a C++ and Python library that can be used to create new applications or to extend the current functionality
* phyml (ver. 3.0) - estimates maximum likelihood phylogenies from alignments of nucleotide or amino acid sequences
* pyfits (ver. 3.1.2-py2.7) - a Python library providing access to FITS files (used within astronomy community to store images and tables)
* python (ver. 2.7.5) - a general-purpose high-level programming language
* qiime (ver. 1.7.0) - a software package for comparison and analysis of microbial communities
* raxml (ver. 7.3.0) - fast implementation of maximum-likelihood (ML) phylogeny estimation that operates on both nucleotide and protein sequence alignments
* R (ver. 3.0.1) - a software environment for statistical computing and graphics
* samtools (ver. 0.1.18 + 0.1.19) - utilities for manipulating alignments in the SAM format
* scipy (ver. 0.12.0-py2.7) - a language extension that uses numpy to do advanced math, signal processing, optimization, statistics and much more (compiled with Intel MKL libraries support for faster performance)
* sklearn (ver. 0.14.1-py2.7) - a Python language extension that uses Numpy and Scipy to provide simple and efficient tools for data mining and data analysis
* snapp (ver. 1.1.1) - a package for inferring species trees and species demographics from independent biallelic markers
* sox (ver. 14.4.1) - a command line utility that can convert various formats of audio files and apply to them various sound effects
* sparsehash (ver. 2.0.2) - an extremely memory-efficient hash_map implementation
* sratools (ver. 2.3.2) - a collection of tools storing and manipulating raw sequencing data from the next generation sequencing platforms (using the NCBI-defined interchange format)
* stacks (ver. 1.02) - a software pipeline for building loci from short-read sequences
* symos97 (ver. 6.0) - an application for developing of dispersion sutudies for evaulating quality of atmosphere according to SYMOS'97 methodics (just for VSB-TU users)
* wrf (ver. 3.4.1) - a next-generation mesoscale numerical weather prediction system designed to serve both operational forecasting and atmospheric research needs
* xcrysden (ver. 1.5) - a crystalline and molecular structure visualisation program aiming at display of isosurfaces and contour
* xmipp (ver. 3.0.1) - a suite of image processing programs, primarily aimed at single-particle 3D electron microscopy
S pozdravem Tomáš Rebok,
MetaCentrum + CERIT-SC.
MetaCentrum zve všechny své uživatele na Seminář gridového počítání 2013, který se bude konat 25. listopadu 2013 v Kongresovém sále hotelu International, Husova 16, Brno. Seminář bude věnován přehledu informací a novinek o českém národním gridovém a cloudovém prostředí MetaCentrum a centru CERIT-SC (nový plánovací systém, nové výpočetní zdroje, výsledky spoluprací s uživatelskými skupinami...).
Dopolední blok semináře bude věnován nástroji ANSYS, který MetaCentrum spolu s centrem CERIT-SC nedávno zakoupilo v plošné licenci pro všechny své uživatele (Ansys Fluent, Ansys CFX a Ansys Mechanical). Prostředí je široce využitelné v různých vědních oborech, což bude spolu s informacemi o efektivním zpracování úloh v Ansys produktech nastíněno v plánované zvané přednášce.
Seminář je organizován projektem MetaCentrum sdružení CESNET a Centrem CERIT-SC za významné spoluúčasti našich partnerů ze společnosti SVS FEM s.r.o. (dodavatel prostředí ANSYS).
Více informací, program a přihlášky
CESNET zve všechny uživatele MetaCentra na celodenní seminář o komplexu služeb, které poskytuje e-infrastruktura CESNET.
Seminář bude zaměřen na novinky, ale i praktické využití služeb e-infrastruktury a jejich začlenění do stávajících IT řešení na straně uživatele.V rámci semináře zazní krátká prezentace aktivity MetaCentrum. Pravidelný jednodenní seminář MetaCentra, který se bude věnovat výhradně službám MetaCentra, proběhne o měsíc později - 25. 11. 2013 v Brně.
Účast na semináři je bezplatná, ale je třeba se zaregistrovat! Podrobný program, formulář pro on-line registraci a všechny další informace naleznete na http://www.cesnet.cz/sdruzeni/akce/sluzby-2013/. Seminář bude veden v českém jazyce.
Kdy: 21. října 2013 (9.30 – 17.00)
Kde: Modrá posluchárna, Univerzita Karlova v Praze, Celetná 20, Praha 1
Více informací sdělí organizátor akce:
Gabriela Krčmařová
Oddělení komunikace a vnějších vztahů
CESNET, Zikova 4, 160 00 Praha 6
Pracoviště: Zikova 13a
tel.: 234680233
Ke dnešnímu dni jsme do infrastruktury nainstalovali nové verze následujících aplikací:
Bližší informace viz dokumentační stránky aplikací.
V reakci na časté výpadky elektřiny v Jihlavě v důsledku letních bouřek jsme přistoupili k reorganizaci front na clusterech centra CERIT-SC. Dlouhé fronty byly posíleny v Brně, v Jihlavě jsou v tuto chvíli povolené fronty do 4 dnů. S ustáváním bouřek a s minimalizací pravděpodobnosti dalšího výpadku budeme délku front postupně navyšovat.
Clustery v Jihlavě jsou na nezálohovaných okruzích kvůli nedostatečné kapacitě místních záložních zdrojů (při výstavbě serverovny nebylo s takovým příkonem počítáno). Posílení jejich kapacity by znamenalo netriviální investiční výdaje z prostředků Masarykovy univerzity, což je na pronajatém sále organizačně i administrativně velmi obtížné. V současné době se staví nové sály v Brně v rekonstruované budově Fakulty informatiky MU, kam tyto clustery v případě potřeby přesuneme (výhledově přelom 2014/15).
Omlouváme se za způsobené komplikace.
Datový prostor na hierarchickém úložišti v Plzni je nyní přímo přístupný ze všech strojů MetaCentra. Úložiště je připojeno v adresáři /storage/plzen2-archive/home/
Úložiště se hodí zejména pro odkládání archivních dat, se kterými se již aktivně nepracuje. Nepoužívejte jej pro živá data nebo pro data, nad kterými se bezprostředně provádějí výpočty. Úložiště je hierarchické, to znamená, že systém automaticky přesouvá déle nepoužívaná data na pomalejší média, v tomto případě magnetické pásky. Data jsou přitom stále pro uživatele viditelná v souborovém systému, jen je třeba počítat s tím, že přístup k dlouho nepoužitým datům může být pomalejší.
Uživatelé z virtuální organizace MetaCentrum mají k dispozici diskový prostor s kvótou 5 TB, starší data jsou přesouvána na pásky. Kvóta může být na požádání navýšena, případně lze přímo na úložišti ručně vyvolat migraci dat na pásky, což uvolní diskový prostor.
Dalším důsledkem speciálního režimu tohoto úložiště je, že nezapadá přesně do zvyklostí, jak se v MetaCentru pracuje s diskovými poli. Jeho specifika:
Dokumentaci k adresářové struktuře najdete na http://du.cesnet.cz/wiki/doku.php/navody/home-migrace-plzen/start
Kompletní dokumentaci úložiště na https://du.cesnet.cz/wiki/doku.php/navody/start
Úložiště je provozováno Oddělením datových úložišť CESNET, http://du.cesnet.cz. S dotazy a žádostmi na uživatelskou podporu se obracejte na podporu MetaCentra meta@cesnet.cz.
V souvislosti s reinstalací clusterů Luna (stroje luna1 a luna3) a Eru (eru1, eru2) došlo k reorganizaci diskových kapacit v Praze. Domovské adresáře (/home) byly přesunuty na nové diskové pole v Praze (/storage/praha1/home). Uživatelská data z původního domovského adresáře /home byla přesunuta do adresářů:
Všechny čtyři stroje jsou zpět v provozu, během testovacího období jsou povoleny jen kratší úlohy.
Návod pro přístup na datová úložiště viz wiki
https://wiki.metacentrum.cz/wiki/Přímý_přístup_na_datová_úložiště
Dnes jsme do infrastruktury doinstalovali novou verzi aplikace gridMathematica (rozšiřuje možnosti paralelního zpracování Wolfram Mathematica), a to ve verzi 9.0.1. Tato nová verze je využitelná stejnými mechanismy, jako verze předchozí -- více viz stránky aplikace gridMathematica.
Centrum CERIT-SC zprovoznilo nové diskové pole /storage/jihlava1-cerit/ (374 TB).
Pole slouží zároveň jako /home pro jihlavské clustery Zigur a Zapat. Narozdíl od ostatních diskových polí není prozatím zálohováno na pásky, ale pravidelnými snapshoty s archivací po dobu 14 dnů.
Diskové pole je umístěno v lokalitě Jihlava a je dostupné ze všech clusterů v MetaCentru. Účty na diskovém poli byly zřízeny automaticky všem členům MetaCentra, není třeba o ně nijak speciálně žádat. Podrobnější informace viz http://www.cerit-sc.cz/cs/Hardware/ a
https://wiki.metacentrum.cz/wiki/Souborové_systémy_v_MetaCentru
Centrum CERIT-SC předává do provozu 2 clustery v lokalitě Jihlava:
Podrobnější informace najdete na http://www.cerit-sc.cz/cs/Hardware/.
Na obou clusterech je dočasně k dispozici malý lokální /home s omezenou kvótou. Cca do měsíce bude v lokalitě Jihlava zprovozněno diskové pole centra CERIT-SC. Pro větší data jsou na obou clusterech dostupné všechny svazky /storage.
Clustery jsou přístupny dávkovým způsobem přes Torque server centra CERIT-SC. Po dobu testovacího provozu budou na těchto uzlech spouštěny pouze kratší úlohy. Postup, jak na clusteru spustit úlohu a další informace najdete na http://www.cerit-sc.cz/cs/docs/.
Některé uzly budou dostupné rovněž v prostředí MetaCloud pro spouštění uživatelských obrazů operačního systému apod. Poměr přiřazení uzlů mezi Torque a MetaCloud budeme průběžně měnit podle aktuální potřeby.
IT4I zve uživatele MetaCentra na pravidelný workshop "Přístup k výpočetním prostředkům a HPC službám pro Českou Republiku", který se koná 7. května v prostorách Podnikatelského inkubátoru Vysoké školy báňské - Technické univerzity Ostrava, Studentská 6202/17, místnost č. 332, 3. patro.
Tématem workshopu je jak získat výpočetní čas na superpočítačích infrastruktury PRACE a také nově na malém klastru, který bude od května tohoto roku provozovat IT4Innovations.
V odpoledním bloku přednášek zazní aktuální informace o budovaných e-Infrastrukturách CESNET a CERIT-SC se zaměřením na služby poskytované pro výpočetní komunitu.
Účast na workshopu je bezplatná a zváni jsou všichni zájemci o HPC a výkonné počítání. Bližší informace naleznete v programu. Registrovat se můžete do 3. května 2013.
Po nečekaném výpadku, způsobenému požárem v UKB MU, který jsme využili k upgradu OS na clusteru Perian, vracíme tento cluster zpět do provozu. Nyní by měly být k plánování úloh k dispozici stroje perian[1-56].ncbr.muni.cz včetně frontendu perian.ncbr.muni.cz, s operačním systémem Debian 6.0. Kromě povýšení operačního systému se změny dotknuly i domácího adresáře uživatelů. Ten je nyní nově namapován na /storage/brno2 stejně jako na clusteru skirit.ics.muni.cz. Data ze starého (lokálního) domácího adresáře naleznete v umístění /home/perian_home.
Chtěli bychom Vás upozornit na skutečnost, že po roce rozesílání informativních e-mailů o překračování zažádaných limitů na paměť a procesory, zapínáme příští týden zabíjení úloh i na PBS serveru @arien (na PBS serveru @wagap je zabíjení úloh už delší dobu zapnuté).
Údaje o spotřebovaných zdrojích naleznete ve výpise qstat -f <jobID>
nebo v aplikaci PBSMon na webu http://metavo.metacentrum.cz/cs/state/personal
Prosíme, zkontrolujte si, jestli Vaše běžně zadávané úlohy dané limity nepřekračují.
Více informací najdete na wiki https://wiki.metacentrum.cz/wiki/Příčiny_nestandardního_skončení_úlohy.
IT4Innovation zve členy MetaCentra na 5denní letní školu superpočítání s názvem
PRACE summer school 2013 - Framework for Scientific Computing on Supercomputers,
která se bude konat 17. - 21. 6. v Ostravě.
Detaily a přihlášky najdete na stránce letní školy.
MetaCentrum bylo rozšířeno o GPU cluster Gram + stroj Ramdal s 1 TB RAM
Režimu přístupu ke GPU:
Režim přístupu ke stroji s 1 TB RAM
Stroj Ramdal je přístupný ve zvláštním režimu, pokud máte zájem o jeho využití, kontaktujte nás na meta@cesnet.cz a uveďte zdůvodnění.
Superpočítačové centrum IT4Innovations vyhlašuje 1. kolo Veřejné
grantové soutěže, ve kterém bude rozděleno 4 750 000 core hours.
Příjem žádostí probíhá do 4. 3. 2013. Detailní informace, včetně
elektronického formuláře žádosti, naleznete zde:
http://www.it4i.cz/vypocetni-cas-verejny.php.
Do soutěže se mohou přihlásit zaměstnanci jiných akademických a
výzkumných institucí než IT4Innovations, které mají sídlo nebo pobočku v
České republice (jedná se i o zaměstnance VŠB-TUO, OU, OSU, UGN AV a
VUT, kteří neparticipují na projektu IT4Innovations). Dále osoby, které
získaly a/nebo se podílí na realizaci výzkumného grantu z veřejných
zdrojů České republiky. Pro oprávněnost žadatele není důležité
občanství.
Cílem grantových soutěží IT4Innovations je rozdělení výpočetního času s
ohledem na rozvoj a aplikaci superpočítačových metod, stejně jako na
přínos a užitek pro společnost. Veřejná grantová soutěž bude vypisována
dvakrát za rok. Nabídky budou procházet vědeckým, technickým a
ekonomickým hodnocením.
Pro zájemce z řad zaměstnanců IT4Innovations vyhlašujeme Interní
grantovou soutěž. Informace o ní naleznete zde:
http://www.it4i.cz/vypocetni-cas-interni.php.
V případě jakýchkoliv dotazů se, prosím, neváhejte obrátit na open.access.it4i@vsb.cz.
S pozdravem,
Branislav Jansík
Ředitel Superpočítačového centra IT4Innovations
MetaCentrum bylo rozšířeno o nový cluster (hildor[1-26].prf.jcu.cz)
http://metavo.metacentrum.cz/pbsmon2/resource/hildor.prf.jcu.cz
Cluster je umístěn na sále JU v Českých Budějovicích.
Specifikace každého ze 26 uzlů:
Účty na clusteru Hildor byly vytvořeny automaticky všem uživatelům
MetaCentra. Po dobu testovacího provozu bude cluster přístupný z front
short, normal a backfill.
V MetaCentru je k dispozici nová sada (komerčního) software:
Více informací o dostupném SW viz wiki
IT4I zve uživatele MetaCentra na workshop "Přístup k výpočetním prostředkům a HPC službám pro Českou Republiku", který se koná 6. listopadu v prostorách Podnikatelského inkubátoru Vysoké školy báňské - Technické univerzity Ostrava, Studentská 6202/17, místnost č. 332.
Workshop je určen zájemcům z řad akademické obce a výzkumu, kteří by v budoucnu rádi využili nejvýkonnější evropské HPC prostředky, včetně výpočetních kapacit IT4Innovations a PRACE. Na workshopu se rovněž představí CESNET a CERIT-SC.
Registrace probíhá do 2. listopadu 2012 na adrese http://www.it4i.cz/aktuality_121022.php#reg Účast na workshopu je bezplatná a zváni jsou všichni zájemci o HPC a superpočítačové technologie.
S pozdravem a přáním příjemného dne,
Mgr. Klára Janoušková, M.A.
Manažer pro vnější vztahy
IT4Innovations
Centrum CERIT-SC rozšiřuje výpočetní a úložné kapacity o
* 48 uzlů HD clusteru zegox[1-48].cerit-sc.cz -- každý uzel 2x6 CPU jader, 90 GB RAM, 2x600 GB pevný disk
* Nové diskové pole /storage/brno3-cerit/home/ (250 TB) -- narozdíl od ostatních diskových polí není toto pole zálohováno na pásky, ale pravidelnými tzvn. snapshoty s archivací po dobu 14 dnů
Cluster i diskové pole jsou umístěny v lokalitě Brno na sále ÚVT MU.
Účty vám byly zřízeny automaticky, není třeba o ně nijak speciálně žádat. Podrobnější informace viz http://www.cerit-sc.cz/cs/Hardware/.
Větší část clusteru (aktuálně 40 uzlů) je přístupná dávkovým způsobem přes Torque server centra CERIT-SC. Po dobu několika týdnů testovacího provozu budou na těchto uzlech spouštěny pouze kratší úlohy. Postup, jak na clusteru spustit úlohu a další informace najdete na http://www.cerit-sc.cz/cs/docs/.
Ostatní uzly jsou dostupné v prostředí MetaCloud (viz http://meta.cesnet.cz/wiki/Kategorie:Cloudy) pro spouštění uživatelských obrazů operačního systému apod. Poměr přiřazení uzlů mezi Torque a MetaCloud budeme průběžně měnit podle aktuální potřeby.
Zároveň upozorňujeme, že nejstarší diskové pole /storage/brno1/ je úplně plné, prosíme vlastníky velkého objemu dat, aby zvážili přes jejich části na některé z dalších diskových polí (všechna pole jsou dostupná ze všech čelních i výpočetních uzlů MetaCentra, v závorce využitelná kapacita):
* /storage/brno3-cerit/home/LOGIN (nové diskové pole centra CERIT-SC, 260 TB)
* /storage/brno2/home/LOGIN (druhé diskové pole v Brně, 110 TB)
* /storage/brno1/home/LOGIN (původní /storage/home v Brně, 85 TB)
* /storage/plzen/home/LOGIN (diskové pole v Plzni, 44 TB).
Více informací viz https://meta.cesnet.cz/wiki/Souborové_systémy_v_MetaCentru#Svazky_.2Fstorage
S přáním příjemného počítání,
Centrum CERIT-SC
Centrum CERIT-SC rozšiřuje výpočetní kapacity o dalších 12 uzlů SMP clusteru zewura[9-20].cerit-sc.cz. Uzly jsou velmi podobné stávajícím.
Specifikace každého ze 12 nových uzlů:
* 8 procesorů Intel E7-4860 (každý 10 jader, 2.26 GHz)
* 512 GB RAM
* 12x 900GB pevné disky, formátovány v RAID-5 použity pro systém i scratch, celková užitná kapacita 9.9 TB
* vlastník CERIT-SC
* lokalita Brno, sál ÚVT MU
Podrobnější informace najdete na http://www.cerit-sc.cz/cs/Hardware/.
Účty na nových uzlech clusteru vám byly zřízeny automaticky, není třeba o ně nijak speciálně žádat. Úlohy zádávané do dávkového systému budou na nové uzly směřovány automaticky. Postup, jak na něm spustit úlohu, informace o připojených discích apod. najdete na http://www.cerit-sc.cz/cs/docs/. S veškerými připomínkami, dotazy, hlášením problémů atd. se prosím obracejte na adresu support@cerit-sc.cz.
S přáním příjemného počítání,
Centrum CERIT-SC
V souvislosti s dříve avizovaným rozšířením úložných kapacit v
MetaCentru došlo k reorganizaci úložných kapacit v Plzni:
* domovské adresáře z nympha:/home (již nyní sdílené s clustery minos a konos) byly přesunuty na nové diskové pole
* všechny plzeňské stroje {nympha,minos,konos,ajax} sdílí nyní tento /home, k dispozici je zda cca 45 TB volného místa
* tento adresář je zároveň dostupný na všech strojích metacentra v /storage/plzen1/home
* data z konos:/home byla již dříve nakopírována na /storage/brno1/home/LOGIN/konos_home
* data z ajax:/home jsou k dispozici na /storage/plzen1/home/LOGIN/ajax_home
* standardní kvóta pro /storage/plzen1/: 1 TB
Dále jsou nově na všech strojích v MetaCentru (s vlastností 'nfs4') dostupné následující svazky:
* /storage/brno1/home/LOGIN (storage-brno1.metacentrum.cz,smaug1.ics.muni.cz)
* /storage/brno2/home/LOGIN (storage-brno2.metacentrum.cz,nienna1|nienna2|nienna-home.ics.muni.cz)
* /storage/plzen1/home/LOGIN (storage-plzen1.metacentrum.cz, storage-eiger1|storage-eiger2|storage-eiger3.zcu.cz)
Data na všech třech diskových polích jsou pravidelně zálohována.
Stávající označení svazku /storage/home/ bude fungovat jen po přechodnou dobu. Používejte místo něj /storage/brno1/home/
--------------------------------------------------------
POZOR
--------------------------------------------------------
Na /storage/brno1/ dochází místo, prosíme, zvažte přesun některých svých dat na nová disková pole v Brně a Plzni.
--------------------------------------------------------
MetaCentrum bylo rozšířeno o nový cluster (minos[1-49].zcu.cz) http://www.metacentrum.cz/cs/resources/hardware.html#minos
Cluster je umístěn na sále ZČU v Plzni.
Specifikace každého ze 49 uzlů:
* procesor: 2x 6-cores(12-threads) Xeon E5645 2.40GHz
* paměť: 24 GB
* disk: 2x 600 GB
* síť: 1 Gbps Ethernet Infiniband
* vlastník: CESNET
Cluster Minos je přístupný všem zájemcům z MetaCentra. Účty na tomto clusteru byly vytvořeny automaticky všem uživatelům MetaCentra. Po dobu testovacího provozu bude cluster přístupný z front short, normal a backfill.
MetaCentrum ve spoluráci s centrem CERIT-SC připravilo pro uživatele experimentální instalaci akademického výpočetního (HPC) cloudu.
MetaCloud je alternativou ke konvenčnímu spouštění úloh dávkovým systémem. Místo spouštění úlohy v prostředí jednoho operačního systému definovaného MetaCentrem, jsou spouštěny celé virtuální stroje pod plnou kontrolou uživatele. K vytvoření virtuálního stroje se použije tzv. obrazu - kompletní instalace libovolného operačního systému. Je možno použít některého z předpřipravených obrazů nebo si vytvořit obraz vlastní, podporujeme i obrazy používané na Amazon EC2.
Virtuální výpočetní prostředí je přístupné prostřednictvím dvou různých rozhraní -- uživatelsky přívětivé webové rozhraní OpenNebula Sunstone nebo rozhraní ONE tools pro přístup přes příkazovou řádku, pro pokročilé uživatele.
Zájemci z MetaCentra mohou požádat o experimentální cloudový účet na e-mailu cloud@metacentrum.cz.
HW zdroje
* cluster s 10 uzly (24 CPU a 100 GB RAM pro každý uzel)
* 40 TB sdíleného diskového prostoru (pouze přes rozhraní S3)
V případě zájmu jsme připraveni přidat do cloudového prostředí další zdroje.
Další informace a dokumentace je na wiki http://meta.cesnet.cz/wiki/Kategorie:Cloudy
IT4I zve uživatele MetaCentra na workshop Přístup k výpočetním prostředkům a HPC službám pro Českou Republiku, který se koná 5. dubna, v prostorách Podnikatelského inkubátoru Vysoké školy báňské - Technické univerzity Ostrava (http://pi.cpit.vsb.cz/kontakt).
Cílem workshopu je seznámit českou výzkumnou komunitu s možnostmi využití nejvýkonnějších evropských HPC prostředků, které jsou sdruženy do celoevropské HPC infrastruktury PRACE. V rámci programu bude představena výzkumná infrastruktura PRACE a její hlavní výpočetní systémy. Prezentovány budou základní služby této infrastruktury, jako je přístup k výpočetním zdrojům a školící a vzdělávací aktivity. Důraz bude kladen na možnosti dosažení a využití těchto služeb uživateli z ČR. Více detailů naleznete na stránce http://www.it4i.cz/aktuality_120315.php. Účast na workshopu je bezplatná a zváni jsou všichni zájemci o HPC a superpočítačové technologie.
V případě jakýchkoliv dotazů nás neváhejte kontaktovat (klara.janouskova@vsb.cz; 733 627 896).
S pozdravem a přáním příjemného dne,
Mgr. Klára Janoušková, M.A.
Manažer pro vnější vztahy
IT4Innovations
Vysoká škola báňská – Technická univerzita Ostrava
17. listopadu 15/2172
708 33 Ostrava-Poruba
Mob.: 420 733 627 896
Tel.: 420 597 329 088
e-mail: klara.janouskova@vsb.cz
web: www.IT4I.cz
Pro uživatele MetaCentra jsme nově pořídili následující aplikace nebo jejich rozšíření:
Matlab (http://meta.cesnet.cz/wiki/Matlab)
* nové vývojové toolboxy:
Matlab Compiler, Matlab Coder, Java Builder
* navýšení počtu licencí toolboxů:
Bioinformatics Toolbox (10 licencí), Database Toolbox (9),
Distributed Computing Toolbox (15)
Licence je přístupná všem uživatelům MetaCentra pro akademické použití.
Maple (http://meta.cesnet.cz/wiki/Maple)
* 30 nových licencí Maple 15
Licence je přístupná všem uživatelům MetaCentra pro akademické použití.
gridMathematica (http://meta.cesnet.cz/wiki/GridMathematica)
* 15 nových licencí programu gridMathematica
Rozšíření síťové instalace programu Mathematica na některých univerzitách.
V letošním roce budeme nakupovat další programové vybavení
a rovněž vývojové prostředí (např. PGI a Intel).
Hledáme náměty na další aplikační software, který má
potenciál využití větší skupinou uživatelů.
Náměty prosím posílejte na meta@cesnet.cz.
MetaCentrum bylo rozšířeno o nový SMP cluster (mandos[1-14].ics.muni.cz) tvořený 14 uzly po 64 CPU jádrech ve sdílené paměti. Cluster je umístěn na sále ÚVT v Brně.
Specifikace každého ze 14 uzlů:
* procesor: 4x AMD Opteron 6274 (celkem 64 jader, takt 2.5GHz)
* paměť: 256 GB
* disk: 870GB scratch lokální, 27TB scratch sdílený s ostatními mandosy
* síť: ethernet 1Gb/s, Infiniband (mezi mandosy) 40Gb/s
* vlastník: CESNET
Cluster Mandos je přístupný všem zájemcům z MetaCentra. Účty na tomto clusteru byly vytvořeny automaticky všem uživatelům MetaCentra s účtem na clusteru Skirit.
Úložné kapacity (NFSv4) v MetaCentru budou v nejbližší době rozšířeny o dvě nová disková pole v Brně a Plzni.
Nově budou dostupné následující svazky (v závorce dostupná kapacita):
Pozor: stávající označení svazku /storage/home/ bude fungovat jen po přechodnou dobu.
Zároveň dojde ke změně svazků /home v Brně a Plzni
Přesun domovských adresářů si vyžádá odstavení všech dotčených výpočetních uzlů umístěných na sále ÚVT v Brně a následně v Plzni. O datu přesunu budete informováni.
Jsem rád, že k vánočnímu přání mohu přidat i jeden splněný slib. Centrum CERIT-SC dává uživatelům MetaCentra k dispozici první výpočetní cluster.
Cluster tvoří 8 uzlů po 80 jádrech CPU ve sdílené paměti, podrobnější informace najdete na http://www.cerit-sc.cz/cs/Hardware/.
Účty na clusteru vám byly zřízeny automaticky, není třeba o ně nijak speciálně žádat. Cluster je obsluhován vlastním serverem dávkového systému Torque. Postup, jak na něm spustit úlohu, informace o připojených discích apod. najdete na http://www.cerit-sc.cz/cs/docs/.
Centrum CERIT-SC je do značné míry experimentální infrastrukturou, nikoli jen prostředím pro rutinní výpočty, proto uvítáme a budeme vstřícní k námětům na zajímavé nestandardní použití těchto zdrojů.
S veškerými připomínkami, dotazy, hlášením problémů atd. se prosím obracejte na adresu support@cerit-sc.cz.