Tyto novinky můžete číst jako RSS.
Masarykova univerzita (CERIT-SC) se stala průkopníkem v oblasti podpory umělé inteligence (AI) a výkonné výpočetní technologie díky instalaci nejnovějšího a nejvyspělejšího systému NVIDIA DGX H100. Jedná se o první zařízení tohoto typu v celé ČR, které přináší extrémní výpočetní sílu a inovativní možnosti pro výzkum.
Díky nejnovější architektuře GPU NVIDIA Hopper DGX H100 disponuje osmi pokročilými grafickými procesory NVIDIA H100 Tensor Core, každý s GPU pamětí 80 GB o celkovém výpočetním výkonu 32 TeraFLOPS. Umožňuje tak paralelní zpracování obrovských datových objemů a výrazně urychluje výpočetní úlohy. Díky vysoce výkonným paměťovým subsystémům v grafických akcelerátorech poskytuje rychlý přístup k datům a optimalizuje výkon při práci s velkými datovými sadami. Uživatelé tak mohou dosáhnout bezkonkurenční efektivity a odezvy ve svých AI úlohách.
Server DGX H100 je dodáván s předinstalovaným softwarovým balíčkem NVIDIA DGX, který obsahuje komplexní sadu softwarových nástrojů pro hluboké učení, včetně předkonfigurovaných prostředí.
Stroj je přístupný na požádání ve speciální frontě gpu_dgx@meta-pbs.metacentrum.cz.
Pro přístup žádejte na adrese meta@cesnet.cz. V žádosti popište důvody pro přidělení tohoto zdroje (potřebnost a schopnost efektivního využít). Zároveň popište stručně očekávané výsledky, předpokládaný objem zdrojů a časový rozsah potřebného přístupu.
Konfigurace NVIDIA DGX H100 (capy.cerit-sc.cz)
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
MetaCentrum bylo rozšířeno o nové clustery:
1) CPU cluster turin.metacentrum.cz, 52 uzlů, 3328 jader CPU, s následující specifikací každého uzlu:
2) CPU cluster tyra.metacentrum.cz, 44 uzlů, 2816 jader CPU, s následující specifikací každého uzlu:
Clustery jsou dostupné v prostředí plánovacího serveru @pbs-meta prostřednictvím standardních krátkých front. Po otestování budou přidány i delší fronty.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Vážení uživatelé,
připravili jsme pro Vás novou dokumentaci MetaCentra, která je dostupná na https://docs.metacentrum.cz/ .
Obsah jsme strukturovali podle témat, která Vás zajímají, ta najdete v horní liště. Po rozkliknutí vybraného tématu se rozbalí pomocné menu vlevo s další navigací. V pravo je pak obsah s tématy obsaženými na stránce.
Do přípravy dokumentace jsme promítli i zpětnou vazbu, kterou jste nám poslali v dotazníku (děkujeme). Například jsme pročistili spoustu neaktuálních informací, které zůstávaly dohledatelné ve wiki a pokusili jsme se zpřehlednit výukové příklady.
Kvůli možnosti zpětného dohledání informací nebude původní dokumentace smazána hned, ale zůstane dočasně přístupná. Od konce března 2023 však není aktualizována!
Proč jsme zvolili jiný formát dokumentace a opustili wiki?
Jak jistě víte, probíhá integrace poskytovaných služeb do jednotné platformy e-INFRA CZ*. Součástí této integrace je sjednocení formátu všech uživatelských dokumentací. Do budoucna naši novou dokumentaci začleníme do společné dokumentace všech poskytovaných služeb v rámci aktivit e-INFRA CZ https://docs.e-infra.cz/.
-----
* e-INFRA CZ je infrastruktura pro vědu a výzkum, která spojuje a koordinuje aktivity tří českých e-infrastruktur: CESNET, CERIT-SC a IT4Innovations. Více informací naleznete na domovské stránce e-INFRA CZ https://www.e-infra.cz/.
-----
Nová dokumentace stále prochází vývojem a změnami. V případě, že narazíte na jakékoliv problémy, nejasnosti nebo Vám něco chybí, dejte nám prosím vědět na e-mailu meta@cesnet.cz . Už teď přemýšlíme, jak pro Vás ještě lépe rozpracovat část dokumentace věnované instalacím SW.
S pozdravem,
tým MetaCentra
Vážení uživatelé,
dovolujeme si přeposlat informaci o grantové soutěži v IT4I:
|
||||
|
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na hybridní školení Introduction to MPI:
--
Dear Madam / Sir,
The Czech National Competence Center in HPC is inviting you to a course Introduction to MPI, which will be held hybrid (online and onsite) on 30–31 May 2023.
Message Passing Interface (MPI) is a dominant programming model on clusters and distributed memory architectures. This course is focused on its basic concepts such as exchanging data by point-to-point and collective operations. Attendees will be able to immediately test and understand these constructs in hands-on sessions. After the course, attendees should be able to understand MPI applications and write their own code.
Introduction to MPI
Date: 30–31 May 2023, 9 am to 4 pm
Registration deadline: 23 May 2023
Venue: online via Zoom, onsite at IT4Innovations, Studentská 6231/1B, 708 00 Ostrava–Poruba, Czech Republic
Tutors: Ondřej Meca, Kristian Kadlubiak
Language: English
Web page: https://events.it4i.cz/event/165/
Please do not hesitate to contact us might you have any questions. Please write us at training@it4i.cz.
We are looking forward to meeting you online and onside.
Best regards,
Training Team IT4Innovations
training@it4i.cz
Vážení uživatelé,
Rádi bychom Vás pozvali na tradiční Seminář MetaCentra, který se bude konat v Praze 12. a 13. dubna 2023.
Společně s EOSC CZ jsme připravili bohatý program, který by Vás mohl zajímat.
První den akce bude věnován EOSC CZ aktivitám, především pak přípravě národní repozitářové platformy a ukládání/archivování výzkumných dat v ČR.
Druhý den pak proběhne Seminář gridového počítání 2023, který bude zaměřen na představení novinek a nových služeb, které MetaCentrum nabízí.
Mezi nimi budou například Singularity kontejnery, NVIDIA framework pro AI, Galaxy, grafická prostředí v OnDemand a Kubernetes, Jupyter Notebooky, Matlab (zvaná přednáška) a mnoho dalšího. Odpoledne se bude konat volitelný Hands-on workshop s omezenou kapacitou, kde si dozvíte mnoho zajímavého a pod vedením našich odborníků si můžete vyzkoušet témata, která Vás zajímají.
Protože chceme, aby Seminář odpovídal Vašim potřebám, budeme velmi rádi, když nám sdělíte, která témata Vás zajímají a co byste si chtěli vyzkoušet. Pokusíme se je zařadit do programu. Náměty prosím pište na meta@cesnet.cz.
Podrobnější informace a registraci najdete na stránce semináře: https://metavo.metacentrum.cz/cs/seminars/Seminar2023/index.html
Těšíme se na Vaši účast! Seminář proběhne v českém jazyce.
Vaše MetaCentrum
Vážení uživatelé,
rádi bychom vám oznámili, že od od čtvrtka 9. 3. 2023 se mění způsob výpočtu fairshare. Přidáváme nový koeficient s názvem "spec", který bere v úvahu rychlost výpočetního uzlu, na kterém běží úloha.
Dosud se "usage fairshare" počítal jako usage = used_walltime*PE
, kde PE je "procesor ekvivalent" vyjadřující kolik zdrojů (ncpus, mem, scratch, gpu...) si uživatel na stroji alokoval.
Nově se bude počítat jako usage = spec*used_walltime*PE
, kde "spec" značí koeficient, který vystihuje výkon hlavního uzlu (spec na jádro), na kterém běží úloha. Tento koeficient nabývá hodnot od 3 do 10.
Doufáme, že vám tato změna umožní ještě efektivnější využití našich výpočetních zdrojů. Pokud máte jakékoli dotazy, neváhejte nás kontaktovat.
Vážení uživatelé,
připravili jsme novou verzi grafického prostředí OnDemand, které je dostupné nově na https://ondemand.metacentrum.cz
Open OnDemand je služba, která uživatelům umožňuje přístup k výpočetním zdrojům přes webový prohlížeč v grafickém režimu. Uživatel může spouštět běžné úlohy PBS, získat přístup k frontend terminálům, kopírovat soubory mezi našimi úložišti nebo spouštět několik grafických aplikací v prohlížeči. Mezi nejpoužívanější dostupné aplikace patří Matlab, ANSYS, MetaCentrum Remote Desktop a VMD (viz úplný seznam GUI aplikací dostupných přes OnDemand). Grafické relace jsou trvalé, můžete k nim přistupovat z různých počítačů v různých časech nebo dokonce současně.
Přihlašovací jméno a heslo do rozhraní Open OnDemand V2 je vaše přihlašovací jméno e-INFRA CZ / Metacentrum a heslo Metacentra.
Více informací najdete v dokumentaci: https://wiki.metacentrum.cz/wiki/OnDemand
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na hybridní školení High Performance Data Analysis with R:
--
Dear Madam / Sir,
The Czech National Competence Center in HPC is inviting you to a course High Performance Data Analysis with R, which will be held hybrid (online and onsite) on 26–27 April 2023.
This course is focused on data analysis and modeling in R statistical programming language. The first day of the course will introduce how to approach a new dataset to understand the data and its features better. Modeling based on the modern set of packages jointly called TidyModels will be shown afterward. This set of packages strives to make the modeling in R as simple and as reproducible as possible.
The second day is focused on increasing computation efficiency by introducing Rcpp for seamless integration of C++ code into R code. A simple example of CUDA usage with Rcpp will be shown. In the afternoon, the section on parallelization of the code with future and/or MPI will be presented.
High Performance Data Analysis with R
Date: 26–27 April 2023, 9 am to 5 pm
Registration deadline: 20 April 2023
Venue: online via Zoom, onsite at IT4Innovations, Studentská 6231/1B, 708 00 Ostrava – Poruba, Czech Republic
Tutor: Tomáš Martinovič
Language: English
Web page: https://events.it4i.cz/event/163/
Please do not hesitate to contact us might you have any questions. Please write us at training@it4i.cz.
We are looking forward to meeting you online and onside.
Best regards,
Training Team IT4Innovations
training@it4i.cz
Vážení uživatelé,
Rádi bychom se dozvěděli, co si myslíte o námi poskytovaných službách.
Najděte si prosím přibližně 15 minut na vyplnění formuláře pro zpětnou vazbu a poskytněte nám tak cenné informace potřebné pro rozvoj našich služeb.
Chápeme, že Váš čas strávený nad tímto dotazníkem je cenný, a proto každý, kdo formulář vyplní a bude mít vyplněné přihlašovací údaje do e-INFRA CZ, od nás obdrží odměnu v podobě 0,5 impaktované publikace, která navýší fairshare a zvýší prioritu uživatele v prostředí PBS.
Formulář pro zpětnou vazbu (vyberte prosím libovolnou jazykovou variantu):
Děkujeme vám za Vaši zpětnou vazbu. Přejeme Vám mnoho úspěchů a publikací i v roce 2023.
S pozdravem,
Vaše MetaCentrum
Vážení uživatelé,
kvůli optimalizaci na NUMA systému serveru ursa byla zavedena fronta uv18.cerit-pbs.cerit-sc.cz, která umožňuje alokovat procesory pouze po nasobcích 18 tak, aby byl vždy využit celý NUMA node a nedocházelo k výraznému zpomalování výpočtu při zbytečné alokaci úlohy na více numa nodů.
Do fronty jsou proto přijímány pouze úlohy v násobcích 18 jader CPU a má vysokou prioritu.
S pozdravem,
Vaše MetaCentrum
Vážení uživatelé,
nově je možné při žádosti o zdroje pro výpočetní úlohu zadat minimální rychlost CPU výpočetního nodu, t.j. zajistit, aby výpočetní uzel, na kterém úloha poběží, neměl procesor pomalejší než je určitá definovaná hodnota. Tento parametr se jmenuje spec a jeho číselná hodnota vychází z metodiky https://www.spec.org/ . Více k použití parametru spec se dočtete v naší uživatelské wiki na https://wiki.metacentrum.cz/wiki/About_scheduling_system#CPU_speed.
Vyžádání strojů s rychlejším procesorem může vést ke zkrácení výpočetní doby, na druhou stranu se tím omezuje množina nodů, kterou má úloha potenciálně k dispozici, a úloha tedy může čekat déle ve frontě. Používejte proto parametr spec s rozmyslem.
S pozdravem,
Vaše MetaCentrum
Vážení uživatelé,
V rámci kontroly zabezpečení infrastruktury Metacentra jsme identifikovali
několik slabých uživatelských hesel. Aby byla zajištěna dostatečná ochrana
prostředí Metacentra, bude u příslušných uživatelů potřeba, aby provedli změnu
svého hesla na portále MetaCentra
(https://metavo.metacentrum.cz/cs/myaccount/heslo.html).
Uživatele, kterých se to týká, budeme kontaktovat přímo.
V případě dotazů se prosím obraťte na meta@cesnet.cz.
S pozdravem,
Vaše MetaCentrum
Uživatelé mohou nově přistupovat ke grafickému rozhraní aplikací proklikem přes webový prohlížeč. Návod na wiki https://wiki.metacentrum.cz/wiki/Remote_desktop#Quick_start_I_-_Run_GUI_desktop_in_a_web_browser.
Dřívější způsob přístupem přes VNC klienta je nadále možný - viz https://wiki.metacentrum.cz/wiki/Remote_desktop#Quick_start_II_-_Run_GUI_desktop_in_a_VNC_session a následující návody.
Uživatelé mohou nově získat historii svých úloh, včetně těch starších než 24 hodin, příkazem
pbs-get-job-history <job_id>
Pokud příkaz nalezne úlohu v archivu, vytvoří v aktuálním adresáři podadresář s názvem job_ID (např. 11808203.meta-pbs.metacentrum.cz), který obsahuje několik souborů. Důležité jsou zejména
job_ID.SC - kopie skriptu předaného příkazu qsub
job_ID.ER - standardní výstup úlohy (STDOUT)
job_ID.OU - standardní chybový výstup úlohy (STDERR)
Více informací je k dispozici v dokumentaci: https://wiki.metacentrum.cz/wiki/PBS_get_job_history
Na GPU kartách mohou nově uživatelé specifikovat, kolik nejméně paměti musí mít GPU karta k dispozici. K tomu slouží parametr gpu_mem. Například příkaz
qsub -q gpu -l select=1:ncpus=2:ngpus=1:mem=10gb:scratch_local=10gb:gpu_mem=10gb -l walltime=24:0:0
zařídí, aby se úloze přidělil stroj s GPU kartou, která má alespoň 10 GB paměti.
Více informací je k dispozici v dokumentaci https://wiki.metacentrum.cz/wiki/GPU_stroje
V souvislosti s tím bychom uživatele rádi upozornili, že pro specifikaci GPU karet je vhodnější používat kombinaci parametrů
gpu_mem a cuda_cap než název konkrétního klastru. Prvně uvedený způsob zahrne širší množinu strojů a tím pádem se zkrátí čekání úlohy ve frontě.
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na ESFRI Open Session
--
Dear All,
I am pleased to invite you to the 3rd ESFRI Open Session, with the leading theme Research Infrastructures and Big Data. The event will take place on June 30th 2022, from 13:00 until 14:30 CEST and will be fully virtual. The event will feature a short presentation from the Chair on recent ESFRI activities, followed by presentations from 6 Research infrastructures on the theme and there will also be an opportunity for discussion. The detailed agenda of the 3rd Open Session will soon be available via the event webpage.
ESFRI holds Open Sessions at its plenary meetings twice a year, to communicate to a wider audience about its activities. They are intended to serve both the ESFRI Delegates and representatives of the Research Infrastructures community, and facilitate both-ways exchange. ESFRI has launched the Open Session initiative as a part of the goals set within the ESFRI White Paper - Making Science Happen.
I would like to inform you that the Open Session will be recorded and will be at your disposal at our ESFRI YouTube channel. The recordings from the previous Open Sessions themed around the ESFRI RIs response to the COVID-19 pandemic, and the European Green Deal, are available here.
Please forward this invitation to your colleagues in the EU Research & Innovation ecosystem that you deem would benefit from the event.
Registration is mandatory for participation, and should be done via the following link:
https://us06web.zoom.us/webinar/register/WN_0-sM43ktT3mPuCzXi3KNdQ
Your attendance at the Open Session will be highly appreciated.
Sincerely,
Jana Kolar,
ESFRI Chair
Vážení uživatelé,
Dovolujeme si Vás tímto pozvat k účasti na Seminář gridového počítání - MetaCentrum 2022, který se koná 10. května 2022 v Praze v hotelu Diplomat.
Seminář je součástí konference e-infrastruktury e-INFRA CZ 2022 https://www.e-infra.cz/konference-e-infra-cz
Představíme Vám infrastrukturu e-INFRA CZ, její služby, mezinárodní projekty a výzkumné aktivity. Seznámíme vás s aktuálními novinkami a nastíníme naše plány.
V odpoledním programu vám nabídneme dvě paralelní sekce. Jedna se zaměří na rozvoj sítě, její bezpečnost a multimédia a druhá na zpracování a ukládání dat - Seminář gridového počítání MetaCentrum 2022.
V podvečer se pak zájemci mohou zúčastnit bonusové sekce Gridová služba MetaCentrum - Best Practices s následnou volnou diskuzí o tématech, která Vás zajímají a nedají Vám spát.
Více informací, program a registraci najdete na stránce akce https://metavo.metacentrum.cz/cs/seminars/seminar2022/index.html
Na shledanou se těší Vaše MetaCentrum
MetaCentrum bylo rozšířeno o nové clustery:
galdor.metacentrum.cz vlastník CESNET, 20 uzlů, 1280 jader CPU a 80 GPU kartami NVIDIA A40, s následující specifikací každého uzlu:
Cluster je dostupný v prostředí plánovacího serveru @pbs-meta prostřednictvím standardních krátkých front a prioritní fronty gpu.
Na GPU clusterech je možné využívat dockerové obrazy z NVIDIA GPU Cloud (NGC) -- nejpoužívanější prostředí pro vývoj machine learning a deep learning aplikací, HPC aplikací nebo vizualizaci akcelerovanou NVIDIA GPU kartami. Nasazení těchto aplikací je pak otázkou zkopírování odkazu na příslušný Docker obraz, jeho spuštění spuštění v Docker kontejneru v Singularity. Více informací najdete na https://wiki.metacentrum.cz/wiki/NVidia_deep_learning_frameworks
halmir.metacentrum.cz vlastník CESNET, 31 uzlů, 1984 jader CPU, s následující specifikací každého uzlu:
Cluster je dostupný v prostředí plánovacího serveru @pbs-meta prostřednictvím standardních krátkých front. Po otestování budou přidány i delší fronty.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
Problémy s kompatibilitou některých aplikací s OS Debian11 průběžně řešíme rekompilací nových SW modulů. Pokud narazíte na problém u své aplikace, vyzkoušejte přidání modulu debian10-compat na začátek spouštěcího skriptu. Pokud problémy přetrvávají, dejte nám vědět na meta(at)cesnet.cz.
S přáním příjemného počítání,
Vážení uživatelé,
zveme Vás na webinář Představení Kubernetes jako další výpočetní platformy dostupné uživatelům MetaCentra
Záznam z webináře https://youtu.be/zUrkd5qmbAc
Dokumentace ke Kubernetes a Rancheru https://docs.cerit.io/
Vážení uživatelé,
v infrastruktuře MetaCentrum pokračujeme v přechodu na nové algoritmy používané pro autentizaci uživatelů a ověření jejich hesel.
Nové algoritmy jsou bezpečnější a přináší podporu nových zařízení a operačních systémů. Pro dokončení přechodu bude u některých uživatelů potřeba, aby provedli nové zadání svého hesla v aplikaci pro změnu hesla na portále Metacentra (https://metavo.metacentrum.cz/cs/myaccount/heslo.html).
Uživatele, kterých se to týká, budeme kontaktovat přímo.
Připomínáme, že po uživatelích nikdy nepožadujeme zasílání hesel mailem. Veškeré informace o správě hesel jsou dostupné ze stránek MetaCentra.
V případě dotazů se prosím obraťte na support@metacentrum.cz.
S pozdravem,
Vaše MetaCentrum
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na EGI webinář OpenRDM
--
Dear all
I'm please to announce the first webinar in the new year which is related to the current hot topic, Data Space. Register now to reserve your place!
Title: openRDM
Date and Time: Wednesday, 12th January 2022 |14:00 -15:00 PM CEST
Description: The talk will introduce OpenBIS, an Open Biology Information System, designed to facilitate robust data management for a wide variety of experiment types and research subjects. It allows tracking, annotating, and sharing of data throughout distributed research projects in different quantitative sciences.
Agenda: https://indico.egi.eu/event/5753/
Registration: us02web.zoom.us/webinar/register/WN_6xn2eqnjTI60-AtB6FKEEg
Speaker: Priyasma Bhoumik, Data Expert, ETH Zurich. Priyasma holds a PhD in Computational Sciences, from University of South Carolina, USA. She has worked as a Gates Fellow in Harvard Medical School to explore computational approaches to understanding the immune selection mechanism of HIV, for better vaccine strategy. She moved to Switzerland to join Novartis and has worked in the pharma industry in the field of data science before joining ETHZ.
If you missed any previous webinars, you can find recordings at our website: https://www.egi.eu/webinars/
Please let's know if there are any topics you are interested in, and we can arrange according to your requests.
Looking forward to seeing you on Wednesday!
Yin
----
Dr Yin Chen
Community Support Officer
EGI Foundation (Amsterdam, The Netherlands)
W: www.egi.eu | E: yin.chen@egi.eu | M: +31 (0)6 3037 3096 | Skype: yin.chen.egi | Twitter: @yinchen16
EGI: Advanced Computing for Research
The EGI Foundation is ISO 9001:2015 and ISO/IEC 20000-1:2011 certified
Od nynějška je možné používat nový typ scratche, tzv. SHM scratch. Tento scratch je určen pro úlohy, které potřebují extrémně rychlé čtení a zápis z/do souborů. SHM scratch existuje pouze v RAM, proto jsou data v něm uložená neperzistentní a zanikají s pádem nebo skončením úlohy. Více o použití SHM scratchů se dočtete na stránce https://wiki.metacentrum.cz/wiki/Scratch_storage
S přátelským pozdravem
MetaCentrum
Z důvodu obměny hardware budou úložiště /storage/brno8, resp. /storage/ostrava1 zrušena a 27. 9. 2021 budou odpojena. Data z domovských adresářů budou přesunuta do adresáře /storage/brno2/home/USERNAME/brno8. Tento přesun zajistíme. Žádáme nicméně uživatele, aby na rušených úložištích smazali data, která nechtějí zachovávat, a pomohli nám tak zkrátit proces kopírování.
S přátelským pozdravem
MetaCentrum
Připravili jsme nástroj pro prodlužování úloh, který mohou v omezené míře využít uživatelé k prodloužení svých úloh, u kterých neodhadli potřebný čas walltime.
Úlohy je možné prodloužit z příkazové řádky na libovolném frontendu příkazem
qextend <full jobID> <additional_walltime>
Příklad:
(BUSTER)melounova@skirit:~$ qextend 8152779.meta-pbs.metacentrum.cz 01:00:00 The walltime of the job 8152779.meta-pbs.metacentrum.cz has been extended. Additional walltime: 01:00:00 New walltime: 02:00:00
Jako prevence proti nadužívání nástroje (přílišná volnost v prodlužování by velmi ztížila plánování úloh) jsme nastavili následující limity:
Interval je klouzavý. Prodloužení úloh starší 30 dnů jsou „zapomenuta“ a již nezabírají Vaši kvótu.
Více informací najdete v dokumentaci https://wiki.metacentrum.cz/wiki/Prolong_walltime
S přátelským pozdravem
MetaCentrum & CERIT-SC
Dobrý den,
oznamujeme, že 15.8.2021 dojde ke zrušení clusteru hador poskytující služby Hadoop. Náhradou je virtualizované prostředí v cloudu, včetně navrhovaného postupu vytvoření jednostrojové nebo vícestrojové varianty clusteru.
Více informací: https://wiki.metacentrum.cz/wiki/Hadoop
S přátelským pozdravem
MetaCentrum
Vzhledem k narůstajícímu množství dat na našich polích jsou některé diskové operace již neúměrně dlouhé. Problémy způsobují zejména hromadné manipulace s daty (kopírování celých uživatelských adresářů, prohledávání, zálohování apod). Komplikace působí hlavně velké množství souborů, u některých uživatelů jsou to řádově i desítky miliónů.
Rádi bychom vás touto cestou požádali o kontrolu počtu souborů ve vašich domovských adresářích a jejich redukci. Aktuální stav je uvedený
Kvóta kterou plánujeme zavést bude orientačně 1-2 milióny souborů na uživatele. Věříme, ze pro drtivou většinu z vás bude naprosto dostatečná, v odůvodněných případech bude možno ji navýšit obdobně jako datovou kvótu.
Kvóty plánujeme zavádět postupně v následujících měsících. Při redukci počtu souborů využívejte prosím přistup přímo přes frontendy diskových polí, jak je uvedeno na naší wiki v sekci Práce s daty: https://wiki.metacentrum.cz/wiki/Prace_s_daty
Informace o způsobu zálohování jednotlivých polí jsou uvedeny na výše zmíněné wiki stránce Práce s daty, včetně doporučení jak nakládat s různými typy dat. I když bychom rádi zálohovali vše, není to ekonomicky či technicky vždy možné. Jakkoli jsou nehody vedoucí ke ztrátě dat řídké, rádi bychom opět zdůraznili, že ne každé pole je zálohované a je vhodné na to pamatovat při ukládání důležitých dat.
Abychom vám usnadnili orientaci v režimu záloh jednotlivých polí, nově ji zobrazujeme i v tabulce MOTD při každém přihlášení na výpočetní frontend.
Kvůli zvýšení bezpečnosti našich uživatelů jsme se rozhodli zrušit možnost zápisu cizími uživateli (ACL group a other) do kořenových domovských adresářů, ve kterých se nachází citlivé soubory typu .k5login, .profile apod, u kterých není žádoucí, aby s nimi mohl manipulovat někdo jiný než vlastník.
Proto budeme od 1.7. práva zápisu kontrolovat a strojově odebírat. Možnost zápisu do dalších podadresářů, typicky z důvodu sdílení dat v rámci skupiny, zůstává i nadále zachována.
Více informací naleznete na našich wiki stránkách v sekci Sdílení dat ve skupině:
https://wiki.metacentrum.cz/wiki/Sdileni_dat_ve_skupine
S přátelským pozdravem
MetaCentrum
V rámci zvyšování bezpečnostních standardů zavádí Metacentrum 2 novinky:
1) Nový mechanismus monitoringu uživatelských přístupů, jehož cílem je předejít zneužití odcizených přihlašovacích údajů. Nově bude lokace, ze které se uživatel přihlašuje, porovnávána s historií přístupů daného uživatele. V případě, že bude detekováno přihlášení z dosud neznámé lokace, bude uživateli zaslán informační e-mail spolu s žádostí o kontrolu, zda přihlášení skutečně provedl on.
Žádáme uživatele, aby v případě, že zjistí nesrovnalosti, postupovali podle pokynů v informačním e-mailu.
2) Změna šifrování uživatelských hesel. Během úprav bezpečnostní archiktury Metacentra bylo nutné zavést podporu pro nové šifrovací metody, které se používají během přihlašování. K dokončení procesu je nezbytné, aby si uživatelé, kterých se změny týkají, změnili heslo. Samotné heslo není nutné měnit, pouze připomínáme na nutnost používat dostatečně silná hesla.
Uživatele, kterých se změna týká, budeme o nutnosti změnit heslo v následujících týdnech informovat e-mailem. Připomínáme, že změna hesla se provádí na portále Metacentra na odkazu https://metavo.metacentrum.cz/cs/myaccount/heslo.html
S přátelským pozdravem
MetaCentrum & CERIT-SC
Vážení uživatelé,
dne 21. dubna 2021 proběhl další (desátý) ročník Semináře gridového počítání 2021, tentokráte jako součást třídenní online Konference CESNET 25 http://www.cesnet.cz/konferenceCESNET.
Prezentace z celé konference jsou zveřejněné na stránce konference
Prezentace a videozáznamy ze Semináře gridového počítání, včetně hands-on, jsou k dispozici na webu MetaCentra: https://metavo.metacentrum.cz/cs/seminars/seminar2021/index.html
S přátelským pozdravem
MetaCentrum & CERIT-SC
Vážení uživatelé,
dnes začíná Konference e-infrastruktury CESNET!
Zítra proběhne náš Seminář gridového počítání 2021!
Konference probíhá od úterý 20. 4. do čtvrtka 22. 4. Dopolední sekce začínají v 9:00 a odpolední ve 13:00.
Ke konferenci se připojte přes ZOOM.
20.4.
21.4.
22.4.
Konference také poběží také přes YouTube, odkaz najdete na webu http://www.cesnet.cz/konferenceCESNET v programu u každé sekce.
Podrobný program našeho MetaCentrového semináře: https://metavo.metacentrum.cz/cs/seminars/seminar2021/index.html. Zde budou po skončení akce zveřejněny prezentace ze semináře.
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC
Vážení uživatelé,
Dovolujeme si Vás tímto pozvat k účasti na Seminář gridového počítání 2021.
KDY: 21. 4. 2021
KDE: online (před začátkem akce Vám přijde link, pomocí kterého se připojíte na konferenci)
PROGRAM:
V dopolední části našeho semináře zazní přednášky o novinkách v MetaCentru, CERIT-SC i IT4Innovation. Kromě toho se představí naše národní aktivity v prostředí European Open Science Cloud a zazní zkušenosti z naší spolupráce s uživatelskou komunitou ESA, konkrétně o zpracovávání a uchovávání dat z družic Sentinel.
V odpolední části Semináře gridového počítání proběhne prakticky zaměřený Hands-on seminář, který se skládá z 6 samostatných tutorialů na téma obecné rady, grafická prostředí, kontejnery, podpora AI, JupyterNotebooks, nadstavba nad MetaCloudem,...
Seminář je součástí třídenní konference e-infrastruktury CESNET 2021 https://www.cesnet.cz/akce/konferencecesnet/, která se koná 20. - 22. 4. 2021.
REGISTRACE:
Program semináře, konference a registrace na konferenci: https://metavo.metacentrum.cz/cs/seminars/seminar2021/index.html
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC
Vážení uživatelé,
Pokud Vaše práce souvisí s výpočetní analýzou, a používáte nebo uvažujete o využití grafického portálu Galaxy, prosíme, vyplňte krátký dotazník české komunity Galaxy:
Cílem dotazníku je zmapovat zájmy českých vědeckých komunit, z nichž některé již Galaxy využívají, např. RepeatExplorer (https://repeatexplorer-elixir.cerit-sc.cz/) nebo naše vlastní instance MetaCentra (https://galaxy.metacentrum.cz/), nebo provozují vlastní instance. Chceme identifikovat zájmy a zaměřit na ně naše tréninkové a terénní úsilí.
Spolu s komunitním dotazníkem také spouštíme Galaxy-Czech mailing list na adrese
https://lists.galaxyproject.org/lists/galaxy-czech.lists.galaxyproject.org/
Je volně přístupný a bude sloužit k informování zájemců o novinkách a připravovovaných akcích napříč všemi instancemi Galaxy, podpoře komunitní diskuse a informačnímu propojení s dalšími národními nebo aktuálními komunitami Galaxy. Pokud Vás zajímá, co se děje v komunitě Galaxy, přihlaste se k odběru.
S přáním příjemného počítání,
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nové clustery Přírodovědecké fakulty Uiverzity Karlovy v Praze (1328 jader CPU)
1) nový GPU stroj cha.natur.cuni.cz (lokalita Praha, vlastník UK), 1 uzel, 32 jader CPU, s následující specifikací:
2) nový cluster mor.natur.cuni.cz (lokalita Praha, vlastník UK), 4 uzly, 80 jader CPU, s následující specifikací každého uzlu:
3) nový cluster pcr.natur.cuni.cz (lokalita Praha, vlastník UK), 16 uzlů, 1024 jader CPU, s následující specifikací každého uzlu:
4) nový GPU cluster fau.natur.cuni.cz (lokalita Praha, vlastník UK), 3 uzly, 192 jader CPU, s následující specifikací každého uzlu:
Clustery jsou dostupné v prostředí plánovacího serveru @pbs-meta prostřednictvím standardních krátkých front, fronty gpu a prioritní fronty vlastníka "cucam".
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový cluster:
zia.cerit-sc.cz (lokalita Brno, vlastník CERIT-SC), 5 uzlů, 640 jader CPU a GPU kartami NVIDIA A100, s následující specifikací každého uzlu:
Cluster je dostupný v prostředí plánovacího serveru @pbs-cerit prostřednictvím standardních krátkých front a prioritní fronty gpu.
Cluster je vybavený aktuálně nejvýkonnějšími grafickými akcelerátory NVIDIA A100 https://www.nvidia.com/en-us/data-center/a100/ . Na těchto grafických kartách je možné ještě více urychlit mnoho masivně paralelních úloh a vědeckých (HPC) aplikací nebo efektivněji řešit algoritmy umělé inteligence (AI).
Mezi hlavní výhody NVIDIA A100 patří specializovaná Tensor jádra pro machine learning aplikace nebo velká paměť (40 GB na každý akcelerátor). Podporuje výpočty pomocí tensor jader s různou přesností, kromě INT4, INT8, BF16, FP16, FP64 přibyl i nový formát TF32.
Na clusterech CERIT-SC je možné využívat dockerové obrazy z NVIDIA GPU Cloud (NGC) -- nejpoužívanější prostředí pro vývoj machine learning a deep learning aplikací, HPC aplikací nebo vizualizaci akcelerovanou NVIDIA GPU kartami. Nasazení těchto aplikací je pak otázkou zkopírování odkazu na příslušný Docker obraz, jeho spuštění spuštění v Docker kontejneru (v Podmanovi, alternativně v Singularity). Více informací najdete na https://wiki.metacentrum.cz/wiki/NVidia_deep_learning_frameworks
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na LUMI ROADSHOW
--
Dear Madam/Sir,
We invite you to a new EuroHPC ivent:
LUMI ROADSHOW
The EuroHPC LUMI supercomputer, currently under deployment in Kajaani, Finland, will be one of the world’s fastest computing systems with performance over 550 PFlop/s. The LUMI supercomputer is procured jointly by the EuroHPC Joint Undertaking and the LUMI consortium. IT4Innovations is one of the LUMI consortium members.
We are organizing a special event to introduce the LUMI supercomputer and to make the first early access call for pilot testing of this World’s unique infrastructure, which is exclusive to the consortium's member states.
Part of this event will also be introducing the Czech National Competence Center in HPC. IT4Innovations joined the EuroCC project which was kicked off by the EuroHPC JU in September and is now establishing the National Competence Center for HPC in the Czech Republic. It will help share knowledge and expertise in HPC and implement supporting activities of this field focused on industry, academia, and public administration.
Register now for this event which will take place online on February 17, 2021! This event will gather the main Czech stakeholders from the HPC community together!
The event will be held in English.
Event webpage: https://events.it4i.cz/e/LUMI_Roadshow
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nové clustery:
1) nový cluster kirke.meta.czu.cz (lokalita Plzeň, vlastník CESNET), 60 uzlů, 3840 jader CPU, s následující specifikací každého uzlu:
Cluster je dostupný v prostředí plánovacího serveru @pbs-meta prostřednictvím standardních front.
2) nový cluster elwe.hw.elixir-czech.cz (lokalita Praha, vlastník ELIXIR-CZ), 20 uzlů, 1280 jader CPU, s následující specifikací každého uzlu:
Cluster je dostupný v prostředí plánovacího serveru @pbs-elixir prostřednictvím speciálních front s přednostním právem přístupu pro členy národního uzlu ELIXIR-CZ
3) nový cluster eltu.hw.elixir-czech.cz (lokalita Vestec, vlastník ELIXIR-CZ), 2 uzly, 192 jader CPU, s následující specifikací každého uzlu:
Cluster je dostupný v prostředí plánovacího serveru @pbs-elixir prostřednictvím speciálních front s přednostním právem přístupu pro členy národního uzlu ELIXIR-CZ
4) nový cluster samson.ueb.cas.cz (vlastník Ústav experimentální botaniky AV ČR, Olomouc), 1 uzel, 112 jader CPU, s následující specifikací každého uzlu:
Cluster je dostupný v prostředí plánovacího serveru @pbs-cerit prostřednictvím prioritních front prio a ueb pro vlastníky clusteru a standardních front s maximální delkou 2 dny pro ostatní uživatele.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový cluster
gita.cerit-sc.cz (lokalita Brno, vlastník CERIT-SC), 14 +14 uzlů, 892 jader CP, polovina uzlů osazena GPU kartami NVIDIA 2080 TI; s následující specifikací každého uzlu:
Cluster je dostupný v prostředí plánovacího serveru @pbs-cerit prostřednictvím standardních front a prioritní fronty gpu.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
V MetaCentru/CERIT-SC dojde tento týden k upgrade všech PBS serverů na novou verzi.
Mezi největší změny bude patřit zapnutí notifikací o zabítí úloh, které bude rozesílat PBS bezprostředně po násilném zabití úlohy z důvodu překročení mem, cpu anebo walltime.
Nové nastavení se projeví postupně, až po restartu všech výpočetních uzlů.
Více informací najdete v dokumentaci:
https://wiki.metacentrum.cz/wiki/Pruvodce_pro_zacatecniky#Ukon.C4.8Den.C3.AD_.C3.BAlohy
https://wiki.metacentrum.cz/wiki/Beginners_guide#Job_termination
S omluvou za komplikace,
Vaše MetaCentrum
V posledních několika týdnech probíhá upgrade OS z Debian9 na Debian10 na většině frontendů a výpočetních strojů. Strojů z OS Centos se upgrade netýká.
Brzy nebude k dispozici žádný výpočetní stroj s OS Debian9, odstraňte prosím ze svých úloh požadavek os=debian9, úlohy s tímto požadavkem se spouštět nebudou.
Problémy s kompatibilitou některých aplikací s OS Debian10 průběžně řešíme rekompilací nových SW modulů. Pokud narazíte na problém u své aplikace, vyzkoušejte přidání modulu debian9-compat na začátek spouštěcího skriptu. Pokud problémy přetrvávají (chybějící knihovny atd.), dejte nám vědět na meta(at)cesnet.cz.
Seznam uzlů s OS Debian9/Debian10/Centos7 je možné zobrazit v seznamu vlastností ve webové aplikaci PBSMon:
* https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian9
* https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian10
* https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Dcentos7
Seznam frontendů včetně aktuálního OS je k dispozici na wiki https://wiki.metacentrum.cz/wiki/Frontend
Poznámka: Některé speciální stroje dostupné ve speciálních frontách mohou mít odlišný OS, např. urga, ungu (ve frontě uv@wagap-pro) a phi (ve frontě phi@wagap-pro) běží na OS CentOS 7.
Vážení uživatelé,
vzhledem k tomu, že při rozesílání emailů informujících o změně stavu výpočetní úlohy dochází v některých případech (velké množství úloh) k problémům se spam filtry, rozhodli jsme se od nynějška rozesílat tyto emaily agregovaně za časový interval 30 minut. To se týká emailů informujících o konci nebo pádu úlohy. Emaily informující o započetí úlohy budou i nadále odesílány okamžitě.
Více informací o parametrech agregace na https://wiki.metacentrum.cz/wiki/Email_notifications
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na PRACE training course
--
Dear Madam/Sir,
We invite you to a new PRACE training course, organized by IT4Innovations National Supercomputing Center, with the title:
Parallel Visualization of Scientific Data using Blender
Basic information:
Date: Thu September 24, 2020, 9:30am - 4:30pm
Registration deadline: Wed September 16, 2020
Venue: IT4Innovations, Studentska 1b, Ostrava
Tutors: Petr Strakoš, Milan Jaroš, Alena Ješko (IT4Innovations)
Level: Beginners
Language: English
Main web page: https://events.prace-ri.eu/e/ParVis-09-2020
The course, an enriched rerun of a successful training from 2019, will focus on visualization of scientific data that can arise from simulations of different physical phenomena (e.g. fluid dynamics, structural analysis, etc.). To create visually pleasing outputs of such data, a path tracing rendering method will be used within the popular 3D creation suite Blender. We shall introduce two of our plug-ins we have developed: Covise Nodes and Bheappe. The first is used to extend Blender capabilities to process scientific data, while the latter integrates cluster rendering in Blender. Moreover, we shall demonstrate basics of Blender, present a data visualization example, and render a created scene on a supercomputer.
This training is a PRACE Training Centre course (PTC), co-funded by the Partnership of Advanced Computing in Europe (PRACE).
For more information and registration please visit
https://events.prace-ri.eu/e/ParVis-09-2020 or https://events.it4i.cz/e/ParVis-09-2020.
PLEASE NOTE: The organization of the course will be adapted to the current COVID-19 regulations and participants must comply with them. In case of the forced reduction of the number of participants, earlier registrations will be given priority.
We look forward to meeting you on the course.
Best regards,
Training Team IT4Innovations
training@it4i.cz
Vážený uživateli služby MetaCentrum Cloud.
Rádi bychom vás informovali ohledně nové služby nasazené v rámci služby MetaCentrum Cloud. Load Balancer as a Service je služba umožňující přes OpenStack API/GUI vytvářet a spravovat load balancery pomocí kterých lze následně zprostředkovat přístup ke službám provozovaným v rámci služby MetaCentrum Cloud.
Krátký popis služby a odkaz na dokumentaci naleznete na https://cloud.gitlab-pages.ics.muni.cz/documentation/gui/#lbaas.
S pozdravem
Tým MetaCentrum Cloud
cloud.metacentrum.cz
OpenOnDemand je služba, která uživateli umožňuje přístup k výpočetním prostředkům CERIT-SC prostřednictvím webového prohlížeče v grafickém režimu. Mezi aktuálně dostupné aplikace patří Matlab, ANSYS a VMD, další budou podle zájmu přibývat. Pro webové rozhraní Open OnDemand https://ondemand.cerit-sc.cz/ je přihlašovací jméno a heslo stejné jako pro Metacentrum.
V případě dotazů kontaktujte support@cerit-sc.cz
Více informací je k dispozici v dokumentaci https://wiki.metacentrum.cz/wiki/OnDemand
Na strojích v MetaCentru je nyní nově možné využít frameworky pro deep learning z NVIDIA GPU Cloudu. Frameworky je možné spouštět jak v Singularity (celé MetaCentrum), tak Dockeru (Podman; jen CERIT-SC).
Více informací je k dispozici v dokumentaci https://wiki.metacentrum.cz/wiki/NVidia_deep_learning_frameworks
CVMFS (CernVM filesystem) je souborový systém vyvinutý v Cernu, který umožňuje rychlé, škálovatelné a spolehlivé nasazení softwaru na distribuované výpočetní infrastruktuře. CVMFS je souborový systém jen pro čtení, v MetaCentru jej používáme pro ukládání některých SW modulů (alternativa AFS). Podobně jako svazky AFS je dostupný jako klientský software pro přístup k CVMFS repozitářům a serverových nástrojů pro vytváření nových repozitářů typu CVMFS.
Více informací je k dispozici v dokumentaci https://wiki.metacentrum.cz/wiki/CVMFS
Vážení uživatelé, dovolte nám, abychom Vás informovali o službě na podporu výzkumu a vývoje, kterou IT4Innovations poskytuje v rámci mezinárodního H2020 projektu Centrum excelence POP2. Jedná se o *Bezplatnou asistenci v oblasti optimalizace výkonu paralelních aplikací*. Služba je určena nejen pro všechny akademicko-vědecké pracovníky, ale i pracovníky firem, kteří vyvíjí nebo používají paralelní kódy a nástroje a hodí se jim odborná pomoc s jejich optimalizací pro efektivní spouštění na HPC systémech. V případě zájmu nás neváhejte kontaktovat: info@it4i.cz <mailto:info@it4i.cz>. S pozdravem, Vaše IT4Innovations
Vážení uživatelé,
dovolujeme si Vám přeposlat pozvánku na
IT4Innovations and M Computers would like to invite you to three full day NVIDIA Deep Learning Institute certified training courses to learn more about Artificial Intelligence (AI) and High Performance Computing (HPC) development for NVIDIA GPUs.
The first half day is an introduction by IT4Innovations and M Computers about the latest state of the art NVIDIA technologies. We also explain our services offered for AI and HPC, for industrial and academic users. The introduction will include a tour though IT4Innovations‘ computing center, which hosts an NVIDIA DGX-2 system and the new Barbora cluster with V100 GPUs.
The first full day training course, Fundamentals of Deep Learning for Computer Vision, is provided by IT4Innovations and gives you an introduction to AI development for NVIDIA GPUs.
Two further HPC related full day courses, Fundamentals of Accelerated Computing with CUDA C/C++ and Fundamentals of Accelerated Computing with OpenACC, are delivered as PRACE training courses through the collaboration with the Leibniz Supercomputing Centre of the Bavarian Academy of Sciences (Germany).
We are pleased to be able to offer the course Fundamentals of Deep Learning for Computer Vision to industry free of charge, for the first time. Further courses for industry may be instigated upon request.
Academic users can participate free of charge for all three courses.
Více informací naleznete na http://nvidiaacademy.it4i.cz/
Po úspěšném upgrade PBS serveru v CERIT-SC zahájíme ve středu 8. 1. upgrade ostaních PBS serverů (arien-pro a pbs.elixir-czech.cz) na novou, nekompatibilní verzi (jiná implementace Kerbera). Připravujeme proto nové PBS servery a stávající PBS servery budou, po doběhnutí úloh, odstaveny z provozu:
S omluvou za komplikace,
Vaše MetaCentrum
V MetaCentru/CERIT-SC dojde k upgrade všech PBS serverů na novou, nekompatibilní verzi (jiná implementace Kerbera). Připravujeme proto nové PBS servery a stávající PBS servery budou, po doběhnutí úloh, odstaveny z provozu:
S omluvou za komplikace,
Vaše MetaCentrum
Pro přístup do fronty 'adan' je potřeba speciální oprávnění. Pokud máte zájem stát se AI testerem, konraktujte nás na meta(at)cesnet.cz.
Jméno ADAN není náhodné, ve světě J. R. R. Tolkiena označuje v elfském jazyce „člověka“. Cluster ADAN je díky svým parametrům určen zejména pro tzv. strojové učení (machine learning), které spadá do sféry umělé inteligence.
Tip: Pokud narazíte na problém s kompatibilitou mezi jednotlivými generacemi GPU karet, je možné omezit výběr strojů s určitou generací karet pomocí parametru gpu_cap=[cuda20,cuda35,cuda61,cuda70,cuda75].
Dále byl zprovozněn frontend tilia.ibot.cas.cz (s aliasem tilia.metacentrum.cz) a diskové pole /storage/pruhonice1-ibot/home dedikovane pro skupinu ibot.
Clustery jsou dostupné prostřednictvím fronty 'ibot' (vyhrazené vlastníkům clusteru). Po otestování bude pravděpodobně zpřístupněný prostřednictvím krátkých standardních front.
Pravidla využití jsou dostupné na stránce vlastníka clusteru: https://sorbus.ibot.cas.cz/
Aktuálně probíhá stěhování clusteru zenon.cerit-sc.cz (1888 CPU, 60 uzlů) do OpenStacku, během několika dní bude znovu přístupný přes PBS server wagap-pro. Zároveň probíhá upgrade operačního systému na Debian10.
Cluster bude dostupný stejným způsobem jako doposud (PBS server wagap-pro, běžné fronty).
Problémy s kompatibilitou některých aplikací s OS Debian10 průběžně řešíme rekompilací nových SW modulů. Pokud narazíte na problém u své aplikace, vyzkoušejte přidání modulu debian9-compat na začátek spouštěcího skriptu. Pokud problémy přetrvávají, dejte nám vědět na meta(at)cesnet.cz.
Seznam uzlů s OS Debian9/Debian10/Centos7 je možné zobrazit v seznamu vlastností ve webové aplikaci PBSMon:
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian9
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian10
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Dcentos7
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový stroj ursa.cerit-sc.cz (lokalita Brno, vlastník CERIT-SC), 1 uzel, 504 CPU jader, 10 TB RAM.
Cluster je dostupný v prostředí plánovacího serveru @wagap-pro prostřednictvím fronty UV.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Vážení uživatelé,
v souvislosti s přípravou nového cloudového prostředí postaveného na OpenStacku, není od 5. 6. 2019 dovoleno zakládat nové vm v OpenNebule. Běžící virtuály budou v průběhu několika týdnů přemigrovány do nového prostředí. O migraci informujeme vlastníky vm individuelně.
Pro spouštění nových vm využijte rovnou nové prostředí založené na OpenStacku https://cloud2.metacentrum.cz/ .
S přátelským pozdravem
MetaCentrum & CERIT-SC
Vážení uživatelé,
dne 30. ledna 2019 proběhl na ČVUT v Praze další (devátý) ročník Semináře gridového počítání 2019, tentokráte jako součást dvoudenní Konference e-Infrastruktutury CESNET 2019 https://konference.cesnet.cz. První den konference zazněly obecné průřezové přednášky z portfolia služeb CESNETu a druhý den semináře proběhly 4 paralelní sekce a 2 Hands-on semináře.
Prezentace z celé konference jsou zveřejněné na stránce konference https://konference.cesnet.cz. Videozáznam z konference je k dispozici na Youtube https://www.youtube.com/playlist?list=PLvwguJ6ySH1cdCfhUHrwwrChhysmO6IU7
Prezentace ze Semináře gridového počítání, včetně hands-on, jsou k dispozici na webu MetaCentra: https://metavo.metacentrum.cz/cs/seminars/seminar2019/index.html
S přátelským pozdravem
MetaCentrum & CERIT-SC
Vážení uživatelé,
Dovolujeme si Vás tímto pozvat k účasti na Seminář gridového počítání 2019, který se koná 30. ledna 2019 v Nové budově ČVUT (Thákurova 9) v Praze 6.
Seminář gridového počítání 2019 bude zaměřen na zpracování, analýzu a ukládání dat a představení novinek v gridovém a cloudovém prostředí MetaCentrum a CERIT-SC. V rámci semináře zazní zvaná přednáška o nových produktech NVIDIA v oblasti vědeckých výpočtů.
Po ukončení Semináře gridového počítání proběhne prakticky zaměřený Hands-on seminář (kapacita omezená na 15 osob).
Program semináře a další informace: https://metavo.metacentrum.cz/cs/seminars/seminar2019/index.html
Seminář je součástí dvoudenní konference CESNET 2019 https://konference.cesnet.cz (29. - 30. 1. 2019). První den konference zazní obecné průřezové přednášky z portfolia služeb CESNETu a druhý den semináře budou 4 paralelní sekce a 2 Hands-on semináře:
Účast na konferenci (a Semináři gridového počítání) je podmíněná registrací ma konferenci a je bezplatná. Pokud se chcete zúčastnit prakticky zaměřeného Hands-on semináře MetaCentra / CERIT-SC, nezapomeňte se na něj zaregistrovat zvlášť.
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový cluster charon.nti.tul.cz (lokalita Liberec, vlastník TUL), 20 uzlů, 400 CPU jader.
Cluster je dostupný v prostředí plánovacího serveru @arien-pro prostřednictvím standardních front a prioritní fronty charon, která je dostupná vlastníkům clusteru (skupina charon).
Novy frontend bude i nadale pristupny pod jmene charon.metacentrum.cz (z duvodu zpetne kompatibility zachovame i alias charon-ft.metacentrum.cz.
Cluster běží na OS Debian9, v případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
Nové pole /storage/liberec3-tul/home/
Nové pole (30 TB) bude sloužit jako domovský adresář na clusteru charon a bude dostupné v adreséři /storage/liberec3-tul/ na všech strojích Metacentra, členové skupiny charon zde budou mit nastavenu kvotu 1 TB, všichni ostatní 10 GB.
S přáním příjemného počítání,
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový cluster nympha.zcu.cz (lokalita Plzeň, vlastník CESNET), 64 uzlů, 2048 CPU jader.
Cluster je dostupný v prostředí plánovacího serveru @arien-pro prostřednictvím standardních front. Ze začátku jsou podporovány pouze krátké úlohy.
Cluster běží na OS Debian9, v případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
CESNET a CERIT-SC se podílejí na projektu EOSC – The European Open Science Cloud, který má za cíl poskytnou důvěryhodné prostředí s volně dostupnými službami určené pro uchovávání dat, jejich správu, sdílení, analýzu a opakované použití pro všechny vědecké disciplíny. V rámci oficiálního zahájení ve Vídni je představen EOSC Portal, který poskytuje přístup k datům, službám a zdrojům. Je zdrojem aktuálních informací o iniciativě EOSC, včetně osvědčených postupů, řízení a uživatelských příběhů.
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nové diskové pole /storage/brno1-cerit/home s kapacitou 1,8 PB (lokalita Brno, vlastník CERIT-SC).
Zároveň došlo k odstavení /storage/brno4-cerit-hsm. Všechna data z něj byla přesunuta na nové pole /storage/brno1-cerit/home a jsou přístupná rovněž pod původním symlinkem.
Pozor: Na stroj storage-brno4-cerit-hsm.metacentrum.cz se už nelze hlásit přímo. Pro přístup ke svým datům se hlaste na nové pole. Přehled NFS4 diskových polí najdete na wiki https://wiki.metacentrum.cz/wiki/NFS4_Servery
Kompletní seznam aktuálně dostupných výpočetních serverů a datových úložišť je k dispozici na https://metavo.metacentrum.cz/pbsmon2/nodes/physical.
S přáním příjemného počítání,
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový cluster zenon.cerit-sc.cz (lokalita Brno, vlastník CERIT-SC), 60 uzlů, 1920 CPU jader.
Cluster je dostupný v prostředí plánovacího serveru @wagap-pro prostřednictvím standardních front.
Cluster běží na OS Debian9, v případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Cluster je dostupný prostřednictvím 'gpu' fronty a krátkých standardních front.
Kvůli problémům s kompatibilitou nějkterých SW je tato karta k dispozici ve speciální frontě gpu_titan na PBS serveru wagap-pro.
Všechny GPU stroje běží již na OS Debian9, v případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Pokud narazíte na problém s kompatibilitou mezi jednotlivými generacemi GPU karet, je možné omezit výběr strojů s určitou generací karet pomocí parametru gpu_cap=[cuda20,cuda35,cuda61,cuda70].
Aktuálně jsou k dispozici následující GPU fronty:
V krátké době bude dokončen upgrade strojů s OS Debian8 na Debian9 v obou plánovacích systémech. Vyjímkou jsou staré stroje běžící na OS Debian8 v CERIT-SC (již po záruce), které budou vyřazené z provozu pravděpodobně na podzim a nemá u nich smysl upgrade provádět.
Problémy s kompatibilitou některých aplikací s OS Debian9 průběžně řešíme rekompilací nových SW modulů. Pokud narazíte na problém u své aplikace, vyzkoušejte přidání modulu debian8-compat na začátek spouštěcího skriptu. Pokud problémy přetrvávají, dejte nám vědět na meta@cesnet.cz .
Stroje s jiným OS (centos7) budou i nadále k dispozici přes speciální fronty: např. urga, ungu (ve frontě uv@wagap-pro) a phi (ve frontě phi@wagap-pro)
Seznam uzlů s OS Debian9/Debian8/Centos7 je možné zobrazit v seznamu vlastností ve webové aplikaci PBSMon:
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian9
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian8
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Dcentos7
Moduly amber-14-gpu8 a amber-16-gpu zpřístupňují všechny verze binárek, nejen pro GPU (paralelní verze a verze pro GPU jsou odlišeny standardně příponami .MPI resp. .cuda a .cuda.MPI), a jsou kompilovány pro os=debian9
Všechny GPU stroje již nyní běží pod OS Debian9, ale pokud není v zadání úlohy explicitně požadována GPU, je třeba os=debian9 explicitně zadávat, dokud běží neupgradované stroje.
Doporučujeme používat tyto nové balíčky (lépe optimalizované než starší modul amber-16).
Vážení uživatelé,
s potěšením přeposíláme pozvánku:
We would like to invite you to this new training event at HLRS Stuttgart on Sep 19, 2018.
To help organizations solve the most challenging problems using AI and deep learning NVIDIA Deep Learning Institute (DLI), Cray and HLRS are organizing a 1-day workshop on Deep Learning which combines business presentations and practical hands-on sessions.
In this Deep Learning workshop you will learn how to design and train neural networks on multi-GPU systems.
This workshop is offered free of charge but numbers are limited.
The workshop will be run in English.
https://www.hlrs.de/training/2018/DLW
With kind regards
Nurcan Rasig and Bastian Koller
-------
Nurcan Rasig | Sales Manager
Office +49 7261 978 304 | Cell +49 160 701 9582 | nrasig@cray.com
Cray Computer Deutschland GmbH â Maximilianstrasse 54 â D-80538 Muenchen
Tel. +49 (0)800 0005846 â www.cray.com
Sitz: Muenchen â Registergericht: Muenchen HRB 220596
Geschaeftsfuehrer: Peter J. Ungaro, Mike C. Piraino, Dominik Ulmer.
Hope to see you there!
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový GPU stroj white1.cerit-sc.cz (lokalita Brno, vlastník CERIT-SC), 24 CPU jader.
Cluster je dostupný v prostředí plánovacího serveru @wagap-pro prostřednictvím 'gpu' fronty a krátkých standardních front.
Cluster běží na OS Debian9, v případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Vážení uživatelé,
s potěšením přeposíláme pozvánku na setkání uživatelů Turbomole:
TURBOMOLE Users Meet Developers
20 - 22 September 2018 in Jena, Germany
This meeting will bring together the community of Turbomole developers and users to highlight selected applications demonstrating new features and capabilities of the code, present new theoretical developments, identify new user needs, and discuss future directions.
We cordially invite you to participate. For details see:
http://www.meeting2018.sierkalab.com/
Hope to see you there!
Regards,
Turbomole Support Team and Turbomole developers
Vážení uživatelé,
s potěšením přeposíláme pozvánku na 5. ročník letního setkání příznivců technických výpočtů a počítačových simulací:
Datum: 6. - 7. 9. 2018 (čtvrtek až pátek), registrace od 8:30
Součástí akce je soutěž o nejlepší uživatelský projekt. Informace o soutěži
Tento týden došlo ke změně nastavení front gpu@wagap-pro, gpu@arien-pro a gpu_long@arien-pro.
Kvůli omezení přístupu ne-GPU úloh na GPU stroje jsme ve frontách gpu a gpu_long na obou PBS serverech nastavili nutnost explicitního zadání požadavku na minimálně jednu GPU kartu, např.:
Pokud není GPU karta v zadání úlohy požadovaná, zobrazí se následující hlášení a úloha není systémem přijata:
'qsub: Job violates queue and/or server resource limits'
Zároveň jsme k 26. 6. 2018 nastavili průchodnost úloh ve frontách gpu mezi oběma PBS servery (úlohy z fronty gpu na arien-pro můžou být spuštěny PBS serverem wagap-pro a naopak). Fronta gpu_long je spravovaná pouze PBS serverem arien-pro, té se změna netýká.
Více informací o nastavení GPU: https://wiki.metacentrum.cz/wiki/GPU_clusters
S díky za pochopení,
Uživatelská podpora MetaCentra
V pondělí 18. 6. 2018 došlo ke změně nastavení fronty uv@wagap.cerit-sc.cz.
Věříme, že nyní budou oba speciální stroje UV lépe použitelné pro zpracování opravdu velkých úloh, pro které jsou primárně určeny. Malé úlohy budou znevýhodněné, aby tyto velké úlohy neblokovaly. Pro malé úlohy jsou k dispozici další vhodnější stroje.
S díky za pochopení,
Uživatelská podpora MetaCentra
Vážení uživatelé,
dovoluji si Vám přeposlat pozvánku na přednášku prof. Johna Womersleyho na téma „The European Spallation Source“, která se uskuteční v prostorách Akademie věd ČR na Národní třídě dne 15. června 2018 od 14:00.
Více informací naleznete v PDF.
S přáním hezkého dne,
Petr Ventluka, MŠMT
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový SMP cluster konos[1-8].fav.zcu.cz (lokalita Plzeň, vlastník KMA/FAV ZČU). Cluster obsahuje 8 uzlů (160 CPU jader), každý z nich má následující hardwarovou specifikaci:
Cluster je dostupný v prostředí plánovacího serveru @arien-pro prostřednictvím prioritní fronty iti, fronty gpu a krátkých běžných front. Členové projektu ITI/KKY mohou požádat o přístup do fronty vedoucího skupiny.
$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=debian9 …
$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=^any …
Případné problémy s během aplikací (chybějícími knihovnami apod.) na strojích s OS Debian9 nám, prosím, neprodleně hlaste na meta@cesnet.cz .
V případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Vážení uživatelé,
V pátek 11. května proběhl v Praze v NTK další ročník Semináře gridového počítání 2018. Seminář byl letos zaměřen na zpracování, analýzu a ukládání dat v gridovém i cloudovém prostředí MetaCentrum a CERIT-SC. Semináře se zúčastnilo více než 70 stávajících i budoucích uživatelů MetaCentra. Měli příležitost se, mimo jiné, dozvědět o připravovaných novinkách v cloudovém prostředí, naučit se zacházet s containery a získali tip, jak správně a efektivně ukládat a zpracovávat data a posílat úlohy do PBS Pro prostředí.
Seminář byl organizován projektem MetaCentrum sdružení CESNET z.s.p.o. a Centrem CERIT-SC při Ústavu výpočetní techniky Masarykovy univerzity. Sponzorem akce byla společnost SafeDX.
Podrobnosti o akci včetně přednášek jsou k dispozici na webu MetaCentra: https://metavo.metacentrum.cz/cs/seminars/seminar2018/index.html
S přátelským pozdravem
MetaCentrum & CERIT-SC
Vážení uživatelé,
dovolujeme si Vás pozvat na další ročník Semináře gridového počítání 2018
Seminář je organizován projektem MetaCentrum sdružení CESNET a Centrem CERIT-SC.
Program semináře a další informace: https://metavo.metacentrum.cz/cs/seminars/seminar2018/index.html
Účast na semináři je podmíněná registrací a je bezplatná. Registrace končí 9.5.2018.
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC
MetaCentrum bylo rozšířeno o nový cluster glados[1-17].cerit-sc.cz (lokalita Brno, vlastník CERIT-SC), 680 CPU, 17 uzlů s následující HW specifikací:
Cluster je dostupný v prostředí plánovacího serveru @wagap-pro prostřednictvím standardních front.
$ qsub ... -l select=1:ncpus=1:gpu=1 ...
$ qsub -l walltime=1:0:0 -l select=1:ncpus=1:mem=400mb:scratch_ssd=400mb:os=debian9 ...
CERIT-SC rozšířilo portfolium strojů s novým OS Debian9 (všechny nové stroje a některé starší). Od příštího týdne vypneme dočasné defaultní nastavení plánovače na Debian8. Pokud po vypnutí ve svých úlohách explicitně neuvedete požadovaný OS, plánovací systém vybere libovolný z nich, který je v dané frontě k dispozici.
Pokud chcete mít výběr operačního systému pod kontrolou, můžete využit následující volby (defaultní fronta):
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=debian9 …
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=debian8 …
V případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Případné problémy s během aplikací (chybějícími knihovnami apod.) na strojích s OS Debian9 nám, prosím, neprodleně hlaste na meta@cesnet.cz .
Seznam uzlů s OS Debian9/Debian8/Centos7 je možné zobrazit v seznamu vlastností ve webové aplikaci PBSMon:
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian9
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Ddebian8
https://metavo.metacentrum.cz/pbsmon2/props?property=os%3Dcentos7
V průběhu dubna plánujeme úklid a pokud možno i sjednocení vlastností strojů v obou prostředích @arien-pro i @wagap-pro.
Operační systém
Začneme s důsledným označováním operačního systému strojů parametrem os=<debian8, debian9,centos7>
Nadbytečné původní vlastnosti centos7, debian8 a debian9 postupně na strojích zrušíme (pozůstatek PBS Torque). Pro výběr operačního systému v příkazu qsub postupujte podle návodu výše v bodu 2.
Tip: Sestavovač Qsub pro pomoc s napsáním zadání úlohy a výběrem strojů: https://metavo.metacentrum.cz/pbsmon2/qsub_pbspro
Kvůli opakovaným problémům s plnými scratchi na frontendech zavedeme automatické promazávání starých dat (starší 60 dnů) také na frontendech. Nenechávejte ve scratchi na frontendech žádná důležitá data. Přeneste si je do /home adresářů.
Pro skupinu českého národního uzlu ELIXIR-CZ jsme zprovoznili následující clustery:
• elmo1.hw.elixir-czech.cz - 224 CPU in total, SMP, 4 nodes with 56 CPUs, 768 GB RAM (Praha UOCHB)
• elmo2.hw.elixir-czech.cz - 96 CPU in total, HD, 4 nodes with 24 CPUs, 384 GB RAM (Praha UOCHB)
• elmo3.hw.elixir-czech.cz - 336 CPU in total, SMP, 6 nodes with 56 CPUs, 768 GB RAM (Brno)
• elmo4.hw.elixir-czech.cz - 96 CPU in total, HD, 4 nodes with 24 CPUs, 384 GB RAM (Brno)
Stroje jsou přístupné přes prioritní frontu elixircz (PBS server @arien-pro), do které mají přístup pouze členové českého národního uzlu ELIXIR-CZ a jejich spolupracovníci. Členství ve skupině podléhá schvalování. Podmínky a další informace jsou uvedené na wiki https://wiki.metacentrum.cz/wiki/Elixir. Ostatní uživatelé MetaCentra budou moci brzy nové clustery využít v běžných krátkých frontách.
Popis a nastavení fronty: https://metavo.metacentrum.cz/pbsmon2/queue/elixircz
Vzorový qsub:
$ qsub -q elixircz@arien-pro.ics.muni.cz -l select=1:ncpus=2:mem=2gb:scratch_local=1gb -l walltime=24:00:00 muj_script.sh
Quickstart: https://wiki.metacentrum.cz/w/images/f/f8/Quickstart-pbspro-ELIXIR.pdf
Stroje mají nainstalovaný OS Debian9. Případné problémy s během aplikací (chybějícími knihovnami apod.) na strojích s OS Debian9 nám, prosím, neprodleně hlaste na meta@cesnet.cz .
V případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový SMP cluster zelda[1-10].cerit-sc.cz (lokalita Brno, vlastník CERIT-SC). Cluster obsahuje 10 uzlů (720 CPU jader), každý z nich má následující hardwarovou specifikaci:
Cluster je dostupný v prostředí plánovacího serveru @wagap-pro prostřednictvím standardní fronty.
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=debian9 …
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=^any …
Případné problémy s během aplikací (chybějícími knihovnami apod.) na strojích s OS Debian9 nám, prosím, neprodleně hlaste na meta@cesnet.cz . V případě problémů s kompatibilitou vyzkoušejte přidání modulu debian8-compat.
Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Vážení uživatelé,
předáváme nabídku stáží v HPC centrech v Eropě (program HPC-Europe3)
=============================================
HPC-Europa3 programme offers visit grants to one of the 9 supercomputing centres around Europe: CINECA (Bologna - IT), EPCC (Edinburgh - UK), BSC (Barcelona - SP), HLRS (Stuttgart - DE), SurfSARA (Amsterdam - NL), CSC (Helsinki - FIN), GRNET (Athens, GR), KTH (Stockolm, SE), ICHEC (Dublin, IE).
The project is based on a program of visit, in the form of traditional transnational access, with researchers visiting HPC centres and/or scientific hosts who will mentor them scientifically and technically for the best exploitation of the HPC resources in their research. The visitors will be funded for travel, accommodation and subsistence, and provided with an amount of computing time suitable for the approved project.
The calls for applications are issued 4 times per year and published online on the HPC-Europa3 website. Upcoming call deadline: Call #3 - 28 February 2018 at 23:59
For rmore details visit programme webpage http://www.hpc-europa.eu/guidelines
===============================================
V případě zájmu se obracejte přímo na organizátory akce.
Coordinator:
Paola Alberigo
SCAI Department - CINECA
Via Magnanelli 6/3
40033 Casalecchio di Reno (Italy)
e-mail: staff@hpc-europa.org
S přátelským pozdravem,
MetaCentrum
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový SMP cluster aman[1-10].ics.muni.cz (lokalita Brno, vlastník CESNET), 560 CPU, 10 uzlů s následujíci HW specifikací:
Cluster je dostupný v prostředí plánovacího serveru @arien-pro prostřednictvím standardních front. Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Vážení uživatelé,
MetaCentrum bylo rozšířeno o nový cluster hildor[1-28].metacentrum.cz (lokalita České Budějovice, vlastník CESNET), 672 CPU, 28 uzlů s následujíci HW specifikací
Cluster je dostupný v prostředí plánovacího serveru @arien-pro prostřednictvím standardních front. Kompletní seznam aktuálně dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Seznam uzlů s OS Debian9 je možné zobrazit v Sestavovači Qsub (volba :os=debian9) https://metavo.metacentrum.cz/pbsmon2/qsub_pbspro
Pokud nenastavíte nic, budete ještě po přechodnou dobu spouštět úlohy ve frontě default@wagap-pro na strojích výhradně s OS Debian8. Pokud chcete vyzkoušet připravenost svých skriptů na nový operační systém, můžete využit následující volby:
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=debian9 …
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=debian8 …
zuphux$ qsub -l select=1:ncpus=2:mem=1gb:scratch_local=1gb:os=^any …
Případné problémy s během aplikací (chybějícími knihovnami apod.) na strojích s OS Debian9 nám, prosím, neprodleně hlaste na meta@cesnet.cz .
Poznámka: Některé speciální stroje dostupné ve speciálních frontách mohou mít odlišný OS, např. urga, ungu (ve frontě uv@wagap-pro) a phi (ve frontě phi@wagap-pro) běží na OS CentOS 7.
Speciální uzel/frontend oven.ics.muni.cz s velkým množstvím nevýkonných virtuálních CPU je určený především pro běh výkonnostně nenáročných řídících/resubmitovacích úloh. Je přístupný přes speciální frontu 'oven', která je dostupná všem uživatelům MetaCentra.
Nastavení fronty 'oven':
Parametry uzlu oven.ics.muni.cz:
Jednoduchý příklad submitovací úlohy:
echo "echo hostname | qsub" | qsub -q oven
Více informací na wiki https://wiki.metacentrum.cz/wiki/Uzel_Oven
Zveme uživatele MetaCentra na kurz "What you need to know about performance analysis using Intel tools" pořádaný Národním superpočítačovým centrem IT4Innovations.
Kdy: středa 14. června 2017 9.00-17.30 hod.
Kde: areál VŠB-TUO v Ostravě-Porubě, budova IT4Innovations, místnost 207
Jazyk: angličtina
Úroveň: pokročilý
Tutor: Georg Zitzlsberger (IT4Innovations)
Podrobnější informace o kurzu a registraci naleznete na webové stránce:
http://training.it4i.cz/en/PAUIT-06-2017
Případné dotazy směřujte na: training[at]it4i.cz
Training Team IT4Innovations
-------------------------
Vážení uživatelé,
dovolujeme si Vám předat pozvánku na workshop "Introduction to Gaussian: Theory and Practice":
============================================================
WORKSHOP IN SPAIN IN JULY 2017
We are very pleased to announce that the workshop "Introduction to Gaussian: Theory and Practice" will be held at the University of Santiago de Compostela in Spain from July 10-14, 2017. Researchers at all levels from academic and industrial sectors are welcome.
Full details are available on our website at:
www.gaussian.com/ws_spain17
Follow us on LinkedIn for announcements, Tips & FAQs, and other info: www.linkedin.com/company/gaussian-inc
============================================================
S přátelským pozdravem
MetaCentrum
CERIT-SC pokračuje s přesunem běžných výpočetních strojů z prostředí PBS Torque @wagap do nového prostředí s plánovacím systémem PBS Pro @wagap-pro.
***ZMĚNA SYSTÉMU FRONTENDU***
Dne 11. 5. bude frontend zuphux.cerit-sc.cz přenastaven do prostředí @wagap-pro a zároveň dojde k upgrade verze OS (Centos 7.3).
Zároveň dojde k zastavení přijímání nových úloh v prostředí Torque (@wagap). Stávající úlohy se dopočítají na zbylých uzlech. Zbylé výpočetní uzly v Torque budou po uvolnění postupně převáděny do prostředí PBS Pro. Stroje zařazené v PBS Pro jsou v PBSMonu označené nápisem "Pro" https://metavo.metacentrum.cz/pbsmon2/nodes/physical .
qsub-q uv
-l select=1:ncpus=48:mem=20gb:scratch_local=20gb -l walltime=1:00:00 skript.sh
S omluvou za komplikace a s díky za pochopení,
Uživatelská podpora centra CERIT-SC
CERIT-SC pokračuje s přesunem běžných výpočetních strojů z prostředí PBS Torque @wagap do nového prostředí s plánovacím systémem PBS Pro @wagap-pro.
Frontend zuphux.cerit-sc.cz zůstává prozatím (do převedení alespoň poloviny zdrojů) nastaven defaultně na prostředí @wagap. Pro aktivaci PBSPro na tomto frontendu je proto nutné, provést po přihlášení aktivaci nového prostředí příkazem:
zuphux$ module add pbspro-client ... nastaví PBSPro prostředí @wagap-pro obdobně zuphux $ module rm pbspro-client ... vrátí Torque prostředí @wagap
qsub-q uv
-l select=1:ncpus=48:mem=20gb:scratch_local=20gb -l walltime=1:00:00 skript.sh
Uživatelská podpora centra CERIT-SC
Vážení uživatelé,
ve čtvrtek 30. března proběhl další ročník Semináře gridového počítání 2017, zaměřený na zpracování, analýzu a ukládání dat a představení novinek v gridovém a cloudovém prostředí MetaCentrum a CERIT-SC. Semináře se zúčastnilo více než 90 vědců.
Seminář byl organizován projektem MetaCentrum sdružení CESNET a Centrem CERIT-SC.
Program semináře a prezentace z jednotlivých přednášek jsou k dispozici na stránce semináře.
S přátelským pozdravem
MetaCentrum & CERIT-SC
Vážení uživatelé,
s cílem zlepšit využití cloudových zdrojů v MetaCloudu jsme zavedli mechanismus expirace zapomenutých virtuálních strojů. Jeho podstatou je, že každý vlastník musí vždy po určité době potvrdit trvající zájem o běh každého svého stroje, jinak bude stroj odstraněn a zdroje se uvolní pro ostatní uživatele. Již nyní můžete u svých virtuálních strojů vidět naplánované akce na vypnutí. Celý popis systému najdete na wiki stránce Expirace virtuálních strojů a včas vám přijde upozornění elektronickou poštou.
Váš MetaCloud tým
CERIT-SC započal s přesunem běžných výpočetních strojů z prostředí PBS Torque @wagap do nového prostředí s plánovacím systémem PBS Professional @wagap-pro.
Frontend zuphux.cerit-sc.cz zůstává prozatím (do převedení alespoň poloviny zdrojů) nastaven defaultně na prostředí @wagap. Pro aktivaci PBSPro je proto nutné, po přihlášení na frontend, provést aktivaci nového prostředí příkazem:
$module add pbspro-client ... nastaví PBSPro prostředí @wagap-pro obdobně $module rm pbspro-client ... vrátí Torque prostředí @wagap
Připomínáme hlavní odlišnosti PBS Pro:
qsub-q uv
-l select=1:ncpus=48:mem=20gb:scratch_local=20gb -l walltime=1:00:00 skript.sh
Dokumentace k novému plánovacímu prostředí PBS Professional: https://wiki.metacentrum.cz/wiki/PBS_Professional
MetaCentrum & CERIT-SC
Vážení uživatelé,
dovolujeme si Vás pozvat na další ročník Semináře gridového počítání 2017
Seminář je organizován projektem MetaCentrum sdružení CESNET a Centrem CERIT-SC.
Program semináře je k dispozici na stránce semináře.
Na akci je nezbytná registrace. Účast na semináři je bezplatná.
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC
module add pbspro-client
Důležité:
qsub -l select=3:ncpus=2:mem=1gb:scratch_local=1gb -l walltime=1:00:00 -l matlab=1 skript.sh
Sestavovač qsub a další informace jsou k dispozici v aplikaci PBSMon: https://metavo.metacentrum.cz/cs/state/personal
Dokumentace k novému plánovacímu prostředí PBS Professional je na wiki: https://wiki.metacentrum.cz/wiki/Prostředí_PBS_Professional
S omluvou za komplikace,
Vaše MetaCentrum
.
Vážení uživatelé,
uv
@wagap-pro.cerit-sc.cz
).Použítí experimentálního prostředí PBS Pro centra CERIT-SC (@wagap-pro)
$module add pbspro-client ... nastaví PBSPro prostředí @wagap-pro $module rm pbspro-client ... vrátí Torque prostředí @wagap
uv
@wagap-pro.cerit-sc.cz, phi
@wagap-pro.cerit-sc.cz
storage-brno3-cerit.metacentrum.cz (/storage/brno3-cerit/home/)
qsub-q uv
-l select=1:ncpus=48:mem=20gb:scratch_local=20gb -l walltime=1:00:00 skript.sh
Dokumentace k novému plánovacímu prostředí PBS Professional: https://wiki.metacentrum.cz/wiki/PBS_Professional
MetaCentrum & CERIT-SC
Vážení uživatelé,
připravili jsme přehlednější a aktuální verzi dokumentace na wiki. Záměrně jsme v ní informace výrazně zjednodušili a zestručnili, věříme, že bude uživatelsky přívětivější. Pokud byste v ní nemohli něco najít nebo naopak najdete nesrovnalosti, pište nám na meta@cesnet.cz.
Nová wiki: https://wiki.metacentrum.cz/wiki/
Původní wiki: https://wiki.metacentrum.cz/wikiold/
MetaCentrum & CERIT-SC
Vážení uživatelé,
uv
@wagap-pro.cerit-sc.cz
).Použítí experimentálního prostředí PBS Pro centra CERIT-SC (@wagap-pro)
$module add pbspro-client ... nastaví PBSPro prostředí @wagap-pro $module rm pbspro-client ... vrátí Torque prostředí @wagap
uv
@wagap-pro.cerit-sc.cz, phi
@wagap-pro.cerit-sc.cz
storage-brno3-cerit.metacentrum.cz (/storage/brno3-cerit/home/)
qsub-q uv
-l select=1:ncpus=48:mem=20gb:scratch_local=20gb -l walltime=1:00:00 skript.sh
Dokumentace k novému plánovacímu prostředí PBS Professional: https://wiki.metacentrum.cz/wiki/PBS_Professional
MetaCentrum & CERIT-SC
Velká část uzlů a frontendů byla převedena z plánovacího prostředí PBS Torque (@arien) do PBS Pro (@arien-pro).
qsub -l select=3:ncpus=2:mem=1gb:scratch_local=1gb -l walltime=1:00:00 -l matlab=1 skript.sh
Sestavovač qsub a další informace jsou k dispozici v aplikaci PBSMon: https://metavo.metacentrum.cz/cs/state/personal
Dokumentace k novému plánovacímu prostředí PBS Professional je na wiki: https://wiki.metacentrum.cz/wiki/Prostředí_PBS_Professional
Vážení uživatelé,
Centrum CERIT-SC zprovoznilo nový speciální cluster s procesory Intel Xeon Phi 7210. Cluster je dostupný z nově vytvořeného experimántálním prostředí PBS Pro plánovacího serveru @wagap-pro
Xeon Phi je masivně paralelní architektura složená z velkého množství x86 jader (tzvn. Many Integrated Core). Narozdíl od starší generace, nový Xeon Phi (vychází z architektury Knight Landing) je self-booting systém (konvenční CPU není nutné), plně kompatibilní s architekturou x86. Úlohy se proto mohou spouštět stejným způsobem jako na konvenčních procesorech s využitím stejných aplikací. Není vyžadována rekompilace nebo přepis algoritmu aplikace, i když speciáně upravené úlohy dokážou z této technologie více profitovat. Xeon Phi procesory mají oproti konvenčním procesorům velmi malý výkon na jádro, přínos Xeon Phi se objeví až při využití ve vysoce paralelních úlohách.
Porovnání Xeon Phi s konvenčním procesory: http://sc16.supercomputing.org/sc-archive/tech_poster/poster_files/post133s2-file3.pdf
Použítí Xeon Phi v experimentálním prostředí PBS Pro centra CERIT-SC (@wagap-pro)
$module add pbspro-client ... nastaví PBSPro prostředí @wagap-pro $module rm pbspro-client ... vrátí Torque prostředí @wagap
phi
@wagap-pro.cerit-sc.cz
storage-brno3-cerit.metacentrum.cz
; POZOR ostatní pole nejsou k tomuto clusteru z technických důvodů připojena přes NFS, data z nich se kopírují příkazem scp
qsub-q
-l select=3:ncpus=12:mem=1gb:scratch_ssd=1gb -l walltime=1:00:00 skript.sh
phi
Dokumentace k novému plánovacímu prostředí PBS Professional: https://wiki.metacentrum.cz/wiki/PBS_Professional
Jak efektivně využít Xeon Phi
Navzdory deklarované kompatibilitě s x86 CPU, ne všechny typy úloh jsou vhodné pro Xeon Phi.
numactl -m l _your-binary_
Více informací o architektuře Xeon Phi poskytne webinář https://colfaxresearch.com/how-knl/
MetaCentrum & CERIT-SC
Aktuální informace o novinkách infrastruktur MetaCentrum a CERIT-SC.
Obsah:
qsub -l select=3:ncpus=2:mem=1gb:scratch_local=1gb -l walltime=1:00:00 -l matlab=1 skript.sh
Vážení uživatelé MetaCloudu,
V souvislosti s přípravou přechodu na OpenNebulu verze 5 (v týdnu mezi 9. a 13. lednem t.r.) dojde v nejbližších dnech k úpravě bezpečnostních nastavení v MetaCloudu.
Výchozí bezpečnostní nastavení se změní ze zcela otevřeného na téměř zcela uzavřené. Standardně bude k nově vytvořeným strojům povolen pouze přístup na port SSH (TCP port 22). Jakékoli další porty bude třeba dodatečně povolit s pomocí předdefinovaných bezpečnostních skupin (Security Groups).
V šablonách, které už v současnosti měly nastavené filtrování provozu s pomocí atributů WHITE_PORTS, *musí jejich vlastníci provést adekvátní úpravy* a propojení s vhodným nastavením Security Groups. Virtuální stroje spuštěné ze šablon ještě se starými atributy tím nebudou přímo dotčeny, ale v dalším kroku po upgradu je bude třeba zastavit a znovu vytvořit s novým nastavením.
Pokud Vám z nějakého důvodu nebude dostačovat výběr z existujících Security Groups, kontaktujte nás a společně připravíme vhodné řešení.
S pozdravem
MetaCloud tým
Vážení uživatelé,
s potěšením oznamujeme, že jsme do experimentálního prostředí s plánovacím systémem PBS Professional (PBS Pro), dostupného z čelního uzlu tarkil.grid.cesnet.cz, přidali nový cluster:
SMP cluster meduseld.grid.cesnet.cz, 6 uzlů (336 CPU jader), každý s následujícími parametry:
Použití experimentálního prostředí s PBS Pro:
qsub -l select=3:ncpus=2:mem=1gb:scratch_local=1gb -l walltime=1:00:00 -l matlab=1 skript.sh
Dokumentace k novému plánovacímu prostředí PBS Professional: https://wiki.metacentrum.cz/wiki/Prostředí_PBS_Professional
Připomínky a náměty můžete posílat do RT meta@cesnet.cz
Vážení uživatelé,
rádi bychom představili nový plánovací systém PBS Professional (PBS Pro), který nyní nasazujeme v testovací verzi v experimentálním prostředí dostupném z čelního uzlu tarkil.grid.cesnet.cz.
PBS Pro v budoucnosti nahradí stávající plánovač Torque, doporučujeme tedy si jej s předstihem vyzkoušet už nyní.
Důvod pro změnu:
Změny PBS Pro oproti Torque:
Použití experimentálního prostředí s PBS Pro:
qsub -l select=3:ncpus=2:mem=1gb:scratch_local=1gb -l walltime=1:00:00 -l matlab=1 skript.sh
Dokumentace k novému plánovacímu prostředí PBS Professional: https://wiki.metacentrum.cz/wiki/Prostředí_PBS_Professional
Věříme, že nové možnosti, které PBS Pro poskytuje, umožní uživatelům MetaCentra lépe specifikovat své úlohy a tedy i snadněji a rychleji získat zajímavé výsledky ve svém výzkumu.
Připomínky a náměty můžete posílat do RT meta@cesnet.cz
1) Zrušení nadbytečných vlastností
2) Zavedení cgroups
3) Defaultní fronta a zrušení obecně přístupných časových front
4) Reinstalace strojů na OS Debian 8
Z důvodu zpřehlednění a zjednodušení zadávání a plánování úloh došlo k redukci počtu vlastností. Zrušili jsme ty, které se z historických důvodů vyskytují na všech strojích nebo se již téměř nepoužívají:
linux, x86_64, nfs4, em64t, x86, *core, nodecpus*, nehalem/opteron/, noautoresv, xen, ...
Aktuální seznam dostupných vlastností: http://metavo.metacentrum.cz/pbsmon2/props
Cgroups umožňuje omezit spotřebu prostředků (paměti, procesoru) pro danou úlohu.
Pokud víte, že Vaše úloha překračuje RAM nebo počet přidělených CPU jader a nedokážete tyto omezit přímo v aplikaci, použijte přepínač -W cgroup=true při zadání úlohy, např.:
qsub -W cgroup=true -l nodes=1:ppn=4 -l mem=1gb ...
Cgroups nahrazuje dříve doporučený způsob nodecpus*#excl -- vlastnost nodecpus* byla zrušena.
Ve výchozím nastavení plánovače nejsou cgroups použity (může zpomalit swapující úlohu a nelze poznat, kolik prostředků úloha skutečně potřebuje pro efektivní běh).
Podpora cgroups není nastavena na všech strojích, aktuální seznam strojů k testování lze získat v pbsmonu jako přehled strojů s nastavenou vlastností cgroup:
http://metavo.metacentrum.cz/pbsmon2/props#cgroup
Více informací: https://wiki.metacentrum.cz/wiki/Cgroups
Před více než rokem jsme sjednotili zadávání úloh -- v obou prostředích plánovacích serverů @wagap a @arien -- zavedením parametru -l walltime=<OCEKAVANA_MAX_DOBA_BEHU>.
Na @wagap byly zrušeny dočasně ponechané časové fronty q_2h, q_4h, q_1d, q_2d, q_4d, q_1w, q_2w, q_2w_plus. Své úlohy proto zadávejte výhradně s parametrem walltime, např.
-l walltime=2h, -l walltime=3d30m,...
Více informací na wiki: https://wiki.metacentrum.cz/wiki/Spouštění_úloh_v_plánovači
Využíváme všech plánovaných i neplánovaných odstávek clusterů a postupně povyšujeme operační systém na frontendech i uzlech na OS Debian 8.
Aktuální seznam uzlů s vlastností debian8 najdete v přehledu vlastností v aplikaci PBSmon: http://metavo.metacentrum.cz/pbsmon2/props#debian8
nebo v osobním přehledu (sestavovači qsub) http://metavo.metacentrum.cz/cs/state/personal
Případné problémy s během aplikací (chybějícími knihovnami apod.) na těchto strojích nám, prosíme, neprodleně hlaste.
Pokud narazíte na problém, do vyřešení se můžete vyhnout spouštění úloh na strojích s vlastností debian8 takto:
-l nodes=1:ppn=4:^debian8 – negace vlastnosti, úloha nebude naplánovaná na uzly s vlastností debian8, nebo -l nodes=1:ppn=4:debian7 - přidělí stroje se starší verzí OS Debian7
Společnost HUMUSOFT s.r.o. pořádá ve dnech 8. - 9. 9. 2016 Technical Computing Camp, třetí ročník neformálního letního setkání příznivců technických výpočtů a počítačových simulací.
KDY: Čtvrtek 8. 9. od 9 h - pátek 9. 9. do 15h
KDE: Brněnská prehrada, hotel Fontána
Vstup ZDARMA
Další informace a přihláška zde: http://www.humusoft.cz/tcc
V průběhu akce Technical Computing Camp představíme moderní nástroje pro technické výpočty a počítačovou simulaci MATLAB a COMSOL Multiphysics a ukážeme jejich využití ve spojení s celou řadou hi-tech "hraček" (LEGO, Arduino, Raspberry Pi, Kinect, roboti, mobilní zařízení, kamery, ...). Ve spolupráci se slovenským Národním centrem robotiky si letos poprvé budete moci vyzkoušet práci s robotem NAO, makerspace Dílna 21 uspořádá klání Zumo robotů, u kterých budete programovat jejich chování. Také si ukážeme nejnovější nástroje pro analýzu rozsáhlých dat, strojové učení, počítačové vidění, modelování fyzikálních systémů či návrh a ladění řídicích systémů.
V programu akce naleznete přednášky, praktické ukázky i prostor pro vlastní práci pod dohledem našich specialistů. Přednášet budou odborníci z firmy HUMUSOFT s.r.o., MathWorks i další zvaní hosté.
Setkání je určeno všem, kteří se v neformálním prostředí chtějí dozvědět více o možnostech využití inženýrských nástrojů MATLAB a COMSOL Multiphysics. Na své si přijdou jak stávající uživatelé uvedených systémů, tak začátečníci a příznivci výpočetních, modelovacích a simulačních systémů. Nástroje si budete moci vyzkoušet a následně své poznatky a dotazy diskutovat s dalšími účastníky.
V rámci "Technical Computing Camp" bude probíhat i soutež o nejlepší uživatelský projekt. Studenti se mohou zúčastnit se svou diplomovou či bakalářskou prací.
--------------------------
MetaCentrum bylo rozšířeno o nový cluster exmag.fzu.cz (FzÚ AV ČR Praha), 640 CPU, 32 uzlů s následujíci HW specifikací
Cluster je dostupný v prostředí plánovacího serveru @arien prostřednictvím privátních front exmag a luna a veřejných krátkodobých front. Kompletní seznam dostupných výpočetních serverů je na http://metavo.metacentrum.cz/pbsmon2/hardware.
S přáním příjemného počítání,
Dne 11. 5. bude frontend zuphux.cerit-sc.cz přenastaven do prostředí @wagap-pro a zároveň dojde k upgrade verze OS (Centos 7.3).
Zároveň dojde k zastavení přijímání nových úloh v prostředí Torque (@wagap). Stávající úlohy se dopočítají na zbylých uzlech. Zbylé výpočetní uzly v Torque budou po uvolnění postupně převáděny do prostředí PBS Pro. Stroje zařazené v PBS Pro jsou v PBSMonu označené nápisem "Pro" https://metavo.metacentrum.cz/pbsmon2/nodes/physical .
S omluvou za komplikace a s díky za pochopení,
Uživatelská podpora centra CERIT-SC
MetaCentrum bylo rozšířeno o nový stroj upol128.upol.cz (UP Olomouc)
Stroj upol128 je dostupný přes prioritní frontu vtp vyhrazenou pro skupinu vtp_upol a veřejnou frontu uv_2h.
MetaCentrum bylo rozšířeno o nový cluster alfrid (NTIS ZČU)
Cluster alfrid je dostupný přes prioritní frontu iti a přes krátkodobé úlohy z běžné fronty.
Nabídka pro všechny uživatele a fanoušky systému ANSYS
Na konci ledna 2016 vyšla nová verze ANSYS 17.0. V každé oblasti fyziky přináší řadu zlepšení které uživatelům umožní výrazně zvýšit efektivitu i produktivitu práce.
Přijďte se podívat 8.3. 2016 do hotelu Avanti Brno co nového přináší verze 17.0 pro Vaši oblast výzkumu / práce. Čeká Vás živá demonstrace práce v prostředí, možnost diskuse konkrétních zadání s našimi specialisty a spousta informací ze světa ANSYSu.
Přístup na seminář je pro všechny registrované zdarma, více informací týkajících se semináře a registrační formulář zde: https://www.svsfem.cz/update-ansys17
Nevyvhovuje Vám termín semináře v Brně? Zkuste jiné město případně se s námi spojte rádi Vám sdělíme veškeré možnosti.
MetaCentrum bylo rozšířeno o nový cluster CERIT-SC:
Cluster zefron je dostupný přes standardní frontu na Torque serveru wagap.cerit-sc.cz.
Jeden uzel (zefron8) je osazen GPU kartou NVIDIA Tesla K40, zapůjčenou z Loschmidt Laboratories. GPU úloha se v prostředí CERIT-SC (server @wagap) zadává jako standardní úloha, pouze se specifikací počtu GPU:
-l nodes=1:ppn=X:gpu=1
MetaCentrum bylo rozšířeno o nové clustery vlastníků ze ZČU a CEITEC MU:
ScaleMP cluster alfrid je přístupný prostřednictvím speciální fronty scalemp (Torque server arien.ics.muni.cz). O přístup je třeba požádat (kromě uživatelů ze skupin kky a iti) vlastníky HW, nejlépe emailem na meta@cesnet.cz s kopií na honzas@ntis.zcu.cz.Více informací na https://wiki.metacentrum.cz/wiki/ScaleMP
Cluster lex je přístupný všem zájemcům MetaCentra prostřednictvím front preemptible a backfill (Torque server arien.ics.muni.cz). Uživatelé z CEITEC MU a NCBR mají privilegovaný přístup.
Clustery zubat a krux jsou přístupné všem zájemcům MetaCentra prostřednictvím front s maximální dobou běhu 1 den (Torque server arien.ics.muni.cz). Uživatelé z CEITEC MU a NCBR mají privilegovaný přístup.
V úterý 1. prosince se v brněnském hotelu Continental konal další ročník uživatelského semináře Grid Computing Workshop 2015, věnovaný přehledu informací a novinek z českého národního gridového a cloudového prostředí MetaCentrum a CERIT-SC, tentokrát se zaměřením na bioinformatickou vědeckovýzkumnou komunitu.
Letošního ročníku se zúčastnilo bezmála 80 výzkumných pracovníků nejen z České republiky.
Workshop byl organizován projektem MetaCentrum sdružení CESNET a Centrem CERIT-SC při ÚVT MU, za významné spoluúčasti společnosti Atos IT Solutions and Services, s.r.o. Prezentace a fotky z akce jsou k dispozici na stránce semináře http://metavo.metacentrum.cz/cs/seminars/seminar2015/index.html
MetaCentrum & CERIT-SC
Vážení uživatelé,
dovolujeme si Vás pozvat na další ročník Semináře gridového počítání 2015
Titulárním sponzorem letošního setkání je společnost Atos IT Solutions and Services, s.r.o., mj. dodavatel bioinformatického SW. V rámci dopoledního bloku semináře tak budou odborníci společnosti ATOS prezentovat jaké nástroje nabízejí pro bioinformatiku.
Program semináře je k dispozici na stránce semináře. Na akci je nezbytná registrace, kapacita sálu je omezena. Účast na semináři je bezplatná.
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC.
PS: Seminář je organizován projektem MetaCentrum sdružení CESNET a Centrem CERIT-SC za významné spoluúčasti zmíněného partnera -- společnosti Atos IT Solutions and Services, s.r.o.
MetaCentrum v pátek zprovoznilo nové diskové pole (náhrada za staré pole /storage/plzen1/) a došlo tak k navýšení úložné kapacity z 60 TB na 350 TB.
Diskové pole je umístěno v lokalitě Plzeň a je dostupné ze všech clusterů v MetaCentru stejným způsobem jako pole původní (stejný název /storage/plzen1/, NFS4 server storage-plzen1.metacentrum.cz), uživatelské kvóty zůstaly rovněž nezměněny.
MetaCentrum bylo rozšířeno o nový cluster ida.meta.zcu.cz, obsahující celkem 28 strojů (560 CPU jader), každý s následující konfigurací:
Stroje jsou přístupné přes Torque server arien.ics.muni.cz, po dobu testování jen pro krátší úlohy.
S přáním příjemného počítání,
MetaCentrum
Rádi bychom Vám touto cestou oznámili, že MetaCentrum pro vás spustilo samostatný cluster s platformou Hadoop pro zpracování velkých dat. Prostředí je určeno především pro provádění výpočtů typu Map-Reduce nad rozsáhlými, obvykle nestrukturovanými daty. Služba je doplněna obvyklými nadstavbami (Pig, Hive, Hbase, YARN, …) a plně integrována s infrastrukturou MetaCentra.
Používat ji mohou všichni oprávnění uživatelé MetaCentra po registraci do samostatné skupiny 'hadoop'. V současnosti je v clusteru k dispozice ve 27 uzlech celkem 432 CPU, 3,5 TB RAM a 1 PB diskového prostoru v HDFS. Další informace o této službě vč. odkazů na registrační formulář a postupně rostoucí Wiki s návody najdete na Meta Webu: http://www.metacentrum.cz/cs/hadoop/
S přáním příjemného počítání,
MetaCentrum zprovoznilo nové diskové pole
Diskové pole je umístěno v lokalitě Brno a je dostupné ze všech clusterů v MetaCentru. Účty na diskovém poli byly zřízeny automaticky všem členům MetaCentra, není třeba o ně nijak speciálně žádat.
Diskové pole /storage/brno2/ je zaplněno již z 99 %, pokud na něm máte data, zvažte jejich přesun na pole nové, které je v tuto chvíli úplně prázdné. Zaplnění diskových polí můžete sledovat na stránce http://metavo.metacentrum.cz/pbsmon2/nodes/physical a http://metavo.metacentrum.cz/cs/state/personal
Archivní data, která již nepotřebujete bezprostředně k výpočtům, doporučujeme přesunout ze /storage/<location>/home/ do
|/storage/plzen2-archive/ or /storage/jihlava2-archive/ (obojí jsou archivní (HSM) úložiště CESNETu). Získáte tak jistotu, že o svá data nepříjdete, díky archivační politice na HSM budou archovovaná ve 2 kopiích.
Podrobnější informace o dostupných polích viz https://wiki.metacentrum.cz/wiki/Souborové_systémy_v_MetaCentru
MetaCentrum bylo rozšířeno o nový výpočetní cluster a stroj s velkou pamětí:
Stroje jsou spravované Torque serverem @arien a přístupné přes frontu vlastníků "ubo" a standardní fronty s délkou trvání do 2 dnů.
Stroj je spravovaný Torque serverem @wagap a přístupný přes frontu "uv". Výkon každého uzlu dle SPECfp2006: 13198 (34.37 na jádro).
S přáním příjemného počítání,
MetaCentrum & CERIT-SC
Část clusteru zewura9 - zewura20 byla přestěhovaná do nově vybudovaného sálu centra CERIT-SC a zprovozněna pod novým názvem zebra1.cerit-sc.cz - zebra12.cerit-sc.cz (z důvodu fyzicky odlišné lokality). Parametry a režim přístupu ke clusteru zůstávají stejné.
S přáním příjemného počítání,
MetaCentrum
Vážení uživatelé,
dovolujeme si Vás pozvat na další ročník Semináře gridového počítání 2014, který se bude konat dne 2. prosince 2014 (cca 10-17hod.) v Praze na Masarykově koleji ČVUT, Thákurova 1.
Registrace na seminář, který je zdarma přístupný nejen uživatelům národního gridu, je k dispozici na http://metavo.metacentrum.cz/metareg/
Seminář bude věnován přehledu informací a novinek o českém národním gridovém a cloudovém prostředí MetaCentrum a CERIT-SC (nový plánovací systém, nové výpočetní zdroje, novinky a tipy ve využití infrastruktur, výsledky spoluprací s uživatelskými skupinami, atp.).
Titulárním sponzorem letošního setkání je společnost Humusoft s.r.o., mj. dodavatel výpočetního prostředí MATLAB. V rámci dopoledního bloku semináře tak budou odborníci společnosti Humusoft prezentovat přehled možností vědeckovýzkumného využití nástroje MATLAB, včetně prezentace možností paralelního, distribuovaného a GPU počítání. Prezentovány budou i informace o efektivním spouštění Matlab výpočtů v prostředí námi poskytované infrastruktury. Více informací najdete na stránkách semináře.
V rámci semináře bychom rádi uvítali i 3-4 prezentace Vás, našich uživatelů, které posléze rádi odměníme "děkovacím záznamem" a tím navýšením Vašeho fairshare indikátoru (=> rychlejším spouštění Vašich úloh). Návrhy prezentací během cca 15 minut informujících o Vašem výzkumu realizovaném na námi poskytovaných infrastrukturách nám prosíme zasílejte do 23. listopadu na adresu meta@cesnet.cz .
Poznámka: Vámi prezentovaný výzkum vůbec nemusí souviset s Matlabem -- v rámci těchto prezentací bychom Vás rádi poprosili především o náhled do Vašich výzkumných aktivit a výsledků (a přínosů, které Vašemu výzkumu naše infrastruktura poskytuje), ať už je realizujete v jakémkoliv nástroji...
Těšíme se na viděnou!
S přátelským pozdravem
MetaCentrum & CERIT-SC.
PS: Seminář je organizován projektem MetaCentrum sdružení CESNET a Centrem CERIT-SC za významné spoluúčasti zmíněného partnera -- společnosti Humusoft s.r.o., výhradního zástupce americké firmy MathWorks, Inc. pro Českou republiku a Slovensko.
Zveme všechny uživatele MetaCentra na slavnostní otevření a zahájení provozu Centra vzdělávání, výzkumu a inovací pro ICT v Brně (CERIT), které se koná v pátek 19. září 2014 v nových prostorách Fakulty informatiky MU a Ústavu výpočetní techniky, Botanická 68 a, Brno.
Zájemce zveme zejména na Workshop CERIT-SC a na prohlídku nových prostor FI a ÚVT, zejména pak některých zajímavých laboratoří, výpočetních sálů a poslucháren.
V 7. patře vědecko-technického parku bude k vidění přehlídka vědeckých posterů doktorských studentů FI. Jejich autoři budou k dispozici pro případné dotazy mezi 12.30 - 13.30.
Výběr z programu:
12:30 – 13:30 posterová soutěž, 7. patro vědecko-technického parku
od 13:00 vernisáž výstavy (Ateliér grafického designu) a prohlídka prostor
13:30 – 15:00 Workshop na téma Spolupráce mezi CERIT-SC, výzkumníky a studenty, A217
15:00 – 16:00 Setkání absolventů FI MU, A217
Více informací k průběhu akce najdete na stránce CERIT-SC, partnera akce.
Aktuální informace o novinkách infrastruktur MetaCentrum a CERIT-SC.
Stručné shrnutí novinek:
A nyní detailněji:
1. Amber:
- zakoupili jsme licenci nejnovější verze nástroje pokrývajícího široké spektrum metod výpočetní chemie, využitelnou všemi uživateli MetaCentra
- připravili jsme moduly podporující jak sériové/distribuované výpočty (modul "amber-14"), tak výpočty na grafických procesorech (GPU - modul "amber-14-gpu")
- obě varianty jsou pro maximální efektivitu kompilovány Intel kompilátorem s podporou Intel MKL knihoven
- více viz https://wiki.metacentrum.cz/wiki/Amber
2. GALAXY:
- Galaxy (viz http://galaxyproject.org/ ) je webová platforma pro jednoduchou a transparentní realizaci bioinformatických výpočtů
- připravili jsme vlastní Galaxy instanci, která podporuje vícero bioinformatických nástrojů (např. bfast, blast, bowtie2, bwa, cuff tools, fastx and fastqc tools, fastqc, mosaik, muscle, repeatexplorer, rsem, samtools, tophat2 atp.)
- (další nástroje lze doplnit na požádání)
- výpočty, sestavené v rámci webového rozhraní Galaxy, jsou poté prováděny skrze standardní gridové úlohy
- bližší informace viz https://wiki.metacentrum.cz/wiki/Galaxy_application , přímý přístup na portál skrze https://galaxy.metacentrum.cz (standardní uživatelské jméno a heslo)
3. Projektové adresáře:
- prosíme, ozvěte se nám, pokud ve svých domovských adresářích udržujete objemná data centrálně instalovaných aplikací (např. databáze SW), které nebylo vhodné umisťovat na AFS -- přesuneme je do projektových adresářů
- tyto můžete využít i pro sdílení dat Vašeho projektu -- tato data budou umístěna mimo Vaše domovské adresáře v /storage/projects/MUJPROJEKT
- podpora sdílení dat může být realizována vytvořením vlastní skupiny uživatelů, viz předchozí novinka
4. Hands-on školící seminář:
- připravujeme hands-on školící seminář pro efektivní využívání služeb infrastruktur MetaCentra a CERIT-SC
- předpokládané konání bude v termínu 4.-15.8. (v závislosti na výsledku hlasování), konat se bude v Praze (v budoucnu i v dalších městech)
- více informací a registrační formulář naleznete na https://www.surveymonkey.com/s/MetaSeminar-Praha
5. Nově instalované/upgradované aplikace:
Komerční software:
1. Amber
- zakoupena licence nejnovější verze 14 programu Amber, viz výše
2. Geneious
- upgrade na verzi 7.1.5
Volně dostupný software:
* blast+ (ver. 2.2.29)
- a program that compares nucleotide or protein sequences to sequence databases and calculates the statistical significance of matches
* bowtie2 (ver. 2.2.3)
- Bowtie 2 is an ultrafast and memory-efficient tool for aligning sequencing reads to long reference sequences.
* cellprofiler (ver. 2.1.0)
- an open-source software designed to enable biologists to quantitatively measure phenotypes from thousands of (cell/non-cell) images automatically
* cuda (ver. 6.0)
- CUDA Toolkit 6.0 (libraries, compiler, tools, samples)
* diyabc (ver. 2.0.4)
- user-friendly approach to Approximate Bayesian Computation for inference on population history using molecular markers
* eddypro (ver. 20140509)
- a powerful software application for processing eddy covariance data
* fsl (ver. 5.0.6)
- a comprehensive library of analysis tools for FMRI, MRI and DTI brain imaging data
* gerp (ver. 05-2011)
- GERP identifies constrained elements in multiple alignments by quantifying
* gpaw (ver. 0.10, Python 2.6+2.7, Intel+GCC variants)
- density-functional theory (DFT) Python code based on the projector-augmented wave (PAW) method and the atomic simulation environment (ASE)
* gromacs (ver. 4.6.5)
- a program package enabling to define minimalization of energy of system and dynamic behaviour of molecular systems
* hdf5 (ver. 1.8.12-gcc-serial)
- data model, library, and file format for storing and managing data.
* htseq (ver. 0.6.1)
- a Python package that provides infrastructure to process data from high-throughput sequencing assays
* infernal (ver. 1.1, GCC+Intel+PGI variants)
- search sequence databases for homologs of structural RNA sequences
* mono (ver. 3.4.0)
- open-source .NET implementation allowing to run C# applications
* openfoam (ver. 2.3.0)
- a free, open source CFD software package
* phylobayes (ver. mpi-1.5a)
- Bayesian Markov chain Monte Carlo (MCMC) sampler for phylogenetic inference
* phyml (ver. 3.0-mpi)
- estimates maximum likelihood phylogenies from alignments of nucleotide or amino acid sequences
* picard (ver. 1.80 + 1.100)
- a set of tools (in Java) for working with next generation sequencing data in the BAM format
* qt (ver. 4.8.5)
- cross-platform application and UI framework
* R (ver. 3.1.0)
- a software environment for statistical computing and graphics
* rpy (ver. 1.0.3)
- python wrapper for R
* rpy2 (ver. 2.4.2)
- python wrapper for R
* rsem (ver. 1.2.8)
- package for estimating gene and isoform expression levels from RNA-Seq data
* soapalign (ver. 2.21)
- The new program features in super fast and accurate alignment for huge amounts of short reads generated by Illumina/Solexa Genome Analyzer.
* soapdenovo (ver. trans-1.04)
- de novo transcriptome assembler basing on the SOAPdenovo framework
* spades (ver. 3.1.0)
- St. Petersburg genome assembler. It is intended for both standard (multicell) and single-cell MDA bacteria assemblies.
* stacks (ver. 1.19)
- a software pipeline for building loci from short-read sequences
* tablet (ver. 1.14)
- a lightweight, high-performance graphical viewer for next generation sequence assemblies and alignments
* tassel (ver. 3.0)
- TASSEL has multiple functions, including associati on study, evaluating evolutionary relationships, analysis of linkage disequilibrium, principal component analysis, cluster analysis, missing data imputation and data visualization
* tcltk (ver. 8.5)
- powerful but easy to learn dynamic programming language and graphical user interface toolkit
* tophat (ver. 2.0.12)
- TopHat is a fast splice junction mapper for RNA-Seq reads.
* trinotate (ver. 201407)
- comprehensive annotation suite designed for automatic functional annotation of transcriptomes, particularly de novo assembled transcriptomes, from model or non-model organisms
* wgs (ver. 8.1)
- whole-genome shotgun (WGS) assembler for the reconstruction of genomic DNA sequence from WGS sequencing data
S přáním úspěšných výpočtů
Tom Rebok,
MetaCentrum + CERIT-SC.
V uplynulých letech se centrum CERIT-SC společně s MetaCentrem zabývalo zhodnocením efektivity stávajícího Torque plánovače. Výsledkem dlouhodobého výzkumu bylo vyvinutí nového plánovače založeného na tvorbě rozvrhu, který řeší nejkritičtější nedostatky původního plánovače.
Nový plánovač bude nasazen na Torque serveru @wagap příští týden. Aktuální běžící úlohy nebudou přepnutím plánovače ovlivněny.
Mezi klíčové výhody nového rozvrhového plánovače patří:
Největší změnou je skutečnost, že plánovač nepoužívá fronty, s výjímkou prioritních front dedikovaných uživatelské komunitě na základě speciální domluvy.
Protože nasazení nového plánovače je významným zásahem do infrastruktury, žádáme uživatele, aby nám hlásili neobvyklé chování plánovače na adresu uživatelské podpory support@cerit-sc.cz. Uživatelská podpora bude po přechodnou dobu posílena o vývojový tým nového plánovače.
Datový prostor na hierarchickém úložišti (HSM) v Brně je nyní přímo přístupný ze všech strojů MetaCentra a CERIT-SC. Úložiště je připojeno v adresáři /storage/brno5-archive/home/
Uživatelé z virtuální organizace MetaCentrum mají k dispozici diskový prostor standardně s kvótou 5 TB, starší data jsou přesouvána na pásky a MAID. Kvóta může být na požádání navýšena.
Pro HSM platí odlišné nastavení (platí pro Brno, Jihlavu i Plzeň):
Aktuální využití úložišť: http://metavo.metacentrum.cz/pbsmon2/nodes/physical#storages_hsm
Návod, jak data kopírovat: https://wiki.metacentrum.cz/wiki/Archivní_data
Úložiště HSM se hodí zejména pro odkládání archivních dat, se kterými se již aktivně nepracuje. Nepoužívejte jej pro živá data nebo pro data, nad kterými se bezprostředně provádějí výpočty. Úložiště je hierarchické, to znamená, že systém automaticky přesouvá déle nepoužívaná data na pomalejší média, v tomto případě magnetické pásky a vypínatelné disky (MAID). Data jsou přitom stále pro uživatele viditelná v souborovém systému, jen je třeba počítat s tím, že přístup k dlouho nepoužitým datům může být pomalejší.
Kompletní dokumentaci úložiště najdete na https://du.cesnet.cz/
Úložiště je provozováno Oddělením datových úložišť CESNET, http://du.cesnet.cz.
S dotazy a žádostmi na uživatelskou podporu se obracejte na podporu MetaCentra (meta@cesnet.cz).
Zasíláme Vám aktuální informace o novinkách infrastruktur MetaCentrum a CERIT-SC.
Stručné shrnutí novinek:
A nyní detailněji:
1. Podpora sdílení dat ve skupinách:
- na požádání Vám založíme systémovou skupinu, v rámci které si budete moci sami spravovat její členy (skrze grafické rozhraní systému Perun)
- podporujeme sdílení dat skupinou v rámci domovských adresářů uživatelů i sdílení dat skupinou v rámci scratchových adresářů
- pro bližší informace navštivte https://wiki.metacentrum.cz/wiki/Sdílení_dat_ve_skupině
2. Gaussian-Linda:
- zakoupili jsme licenci paralelního rozšíření programu Gaussian -- Gaussian-Linda, využitelnou všemi uživateli MetaCentra
- paralelní/distribuované zpracování Vašich výpočtů je dostupné skrze modul "g09-D.01linda"
- potřebné volby jsou (při požadavku úlohy na více uzlů) do vstupního Gaussian souboru automaticky zaváděny skriptem "g09-prepare"
- bližší informace viz https://wiki.metacentrum.cz/wiki/Gaussian-GaussView
3. Přidělování uzlů vzájemně propojených Infiniband sítí distribuovaným výpočtům:
- dosavadní obcházení nedokonalosti plánovače při požadavku na Infiniband uzly (skrze požadavek na uzly konkrétního clusteru) již není nutné
- při požadavku na uzly propojené Infiniband sítí doplňte volbu "-l place=infiniband" (tj. např. "qsub -l nodes=2:ppn=2:infiniband -l place=infiniband ...") -- plánovač Vám automaticky nalezne uzly (vzájemně propojené IB sítí), které mohou potenciálně být i z různých clusterů
- do budoucna plánujeme volbu "-l place=infiniband" doplňovat automaticky při požadavku na Infiniband uzly, tj. dostatečným požadavkem bude "-l nodes=X:ppn=Y:infiniband"...
- bližší informace viz https://wiki.metacentrum.cz/wiki/Paralelní_aplikace
4. Nově instalované/upgradované aplikace:
Komerční software:
1. Gaussian Linda
- Linda parallel programming model involves a master process, which runs on the current processor, and a number of worker processes which can run on other nodes of the network
- pořízení paralelního rozšíření Gaussian-Linda
2. Matlab
- an integrated system covering tools for symbolic and numeric computations, analyses and data visualizations, modeling and simulations of real processes, etc.
- upgrade na verzi 8.3
3. CLC Genomics Workbench
- a tool for analyzing and visualizing next generation sequencing data, which incorporates cutting-edge technology and algorithms
- upgrade na verzi 7.0
4. PGI Cluster Development Kit
- a collection of tools for development parallel and serial programs in C, Fortran, etc.
- upgrade na verzi 14.3
Volně dostupný software:
* bayarea (ver. 1.0.2)
- Bayesian inference of historical biogeography for discrete areas
* bioperl (ver. 1.6.1)
- a toolkit of perl modules useful in building bioinformatics solutions in Perl
* blender (ver. 2.70a)
- Blender is a free and open source 3D animation suite
* cdhit (ver. 4.6.1)
- program for clustering and comparing protein or nucleotide sequences
* cuda (ver. 5.5)
- CUDA Toolkit 5.5 (libraries, compiler, tools, samples)
* eddypro (ver. 20140509)
- a powerful software application for processing eddy covariance data
* flash (ver. 1.2.9)
- very fast and accurate software tool to merge paired-end reads from next-generation sequencing experiments
* fsl (ver. 5.0.6)
- a comprehensive library of analysis tools for FMRI, MRI and DTI brain imaging data
* gcc (ver. 4.7.0 and 4.8.1)
- a compiler collection, which includes front ends for C, C++, Objective-C, Fortran, Java, Ada and libraries for these languages
* gmap (ver. 2014-05-06)
- A Genomic Mapping and Alignment Program for mRNA and EST Sequences, Genomic Short-read Nucleotide Alignment Program
* grace (ver. 5.1.23)
- a WYSIWYG tool to make two-dimensional plots of numerical data
* heasoft (ver. 6.15)
- a Unified Release of the FTOOLS and XANADU Software Packages
* hdf5 (ver. 1.8.12, GCC+Intel+PGI versions)
- data model, library, and file format for storing and managing data.
* hmmer (ver. 3.1b1, GCC+Intel+PGI versions)
- HMMER is used for searching sequence databases for homologs of protein sequences, and for making protein sequence alignments.
* igraph (ver. 0.7.1, GCC+Intel versions)
- collection of network analysis tools
* java3d
- Java 3D
* jdk (ver. 8)
- Oracle JDK 8.0
* jellyfish (ver. 2.1.3)
- tool for fast and memory-efficient counting of k-mers in DNA
* lagrange (ver. 0.20-gcc)
- likelihood models for geographic range evolution on phylogenetic trees, with methods for inferring rates of dispersal and local extinction and ancestral ranges
* molden (ver. 5.1)
- a package for displaying Molecular Density from the Ab Initio packages GAMESS-* and GAUSSIAN and the Semi-Empirical packages Mopac/Ampac, etc.
* mosaik (ver. 1.1 and 2.1)
- a reference-guided assembler
* mugsy (ver. v1r2.3)
- multiple whole genome aligner
* oases (ver. 0.2.08)
- Oases is a de novo transcriptome assembler designed to produce transcripts from short read sequencing technologies, such as Illumina, SOLiD, or 454 in the absence of any genomic assembly.
* opencv (ver. 2.4)
- OpenCV c++ library for image processing and computer vision. (http://meta.cesnet.cz/wiki/OpenCV)
* openmpi (ver. 1.8.0, Intel+PGI+GCC versions)
- an implementation of MPI
* OSAintegral (ver. 10.0)
- a software tool deditaced for analysis of the data provided by the INTEGRAL satellite
* omnetpp (ver. 4.4)
- extensible, modular, component-based C++ simulation library and framework, primarily for building network simulators.
* p4vasp (ver. 0.3.28)
- a collection of both secure hash functions and various encryption algorithms
* pasha (ver. 1.0.10)
- parallel short read assembler for large genomes
* perfsuite (ver. 1.0.0a4)
- a collection of tools, utilities, and libraries for software performance analysis (produced by SGI)
* perl (ver. 5.10.1)
- Perl programming language
* phonopy (ver. 1.8.2)
- post-process phonon analyzer, which calculates crystal phonon properties from input information calculated by external codes
* picard (ver. 1.80 and 1.100)
- a set of tools (in Java) for working with next generation sequencing data in the BAM format
* quake (ver. 0.3.5)
- tool to correct substitution sequencing errors in experiments with deep coverage
* R (ver. 3.0.3)
- a software environment for statistical computing and graphics
* sga (ver. 0.10.13)
- memory efficient de novo genome assembler
* smartflux (ver. 1.2.0)
- a powerful software application for processing eddy covariance data
* theano (ver. 0.6)
- Python library that allows to define, optimize, and evaluate mathematical expressions involving multi-dimensional arrays efficiently
* tophat (ver. 2.0.8)
- TopHat is a fast splice junction mapper for RNA-Seq reads.
* trimmomatic (ver. 0.32)
- A flexible read trimming tool for Illumina NGS data
* trinity (ver. 201404)
- novel method for the efficient and robust de novo reconstruction of transcriptomes from RNA-seq data
* velvet (ver. 1.2.10)
- an assembler used in sequencing projects that are focused on de novo assembly from NGS technology data
* VESTA (ver. 3.1.8)
- 3D visualization program for structural models and 3D grid data such as electron/nuclear densities
* xcrysden (ver. 1.5)
- a crystalline and molecular structure visualisation program aiming at display of isosurfaces and contour
S přáním úspěšných výpočtů
Tomáš Rebok,
MetaCentrum NGI.
Centrum CERIT-SC pořádá ve spolupráci s SGI pokročilý kurz o architektuře systému SGI UV2 a optimalizaci aplikací pro běh na ní.
Primární cílovou skupinou jsou uživatelé aplikací s vysokou náročností na výkon, a uživatelé, kteří ke své práci využívají vlastní kód nebo existující aplikační kód modifikují.
Kurz je plánován na 2,5 dne, v termínu 13.-15.5.2014 v prostorách CERIT-SC v Brně, Šumavská 15 (viz http://www.cerit-sc.cz/cs/about/Contacts/).
Bude veden v angličtině, přednášejícím je expert SGI dr. Gabriel Koren. V případě zájmu je možné účastnit se videokonferenčně. Pořízení záznamu není možné.
Předpokládaná probíraná témata jsou:
Kapacita kurzu je omezena, zájemce prosíme, aby se registrovali na http://www.cerit-sc.cz/registrace/. V poznámce uveďte, dáváte-li přednost videokonferenci.
Praktické ukázky profilování a optimalizace bychom rádi předvedli na skutečných problémech a aplikacích, nejen na uměle vytvořených příkladech. Uvítáme proto vaše vstupy. K tomu potřebujeme:
Program by měl být schopen potenciálně využít významnou část UV2 v CERIT-SC (tj. alespoň desítky jader CPU nebo stovky GB RAM). Doba běhu na dodaných vstupních datech by měla být v rozmezí 1-20 minut.
Během kurzu se za pomoci školícího tyto programy pokusíme co nejvíce vylepšit z pohledu efektivity jejich běhu na UV2. Přínosem pro vás tedy bude nejen samotný proces optimalizace ale i přímo jeho výsledek.
Prosíme o zaslání návrhů na takové problémy k řešení do 30.4.2014 na <ljocha@ics.muni.cz>. Nedokážeme odhadnout, jak velký bude zájem, dovolí-li to rozsah kurzu, zahrneme do progr