Руководство пользователя кластерной ВС Jet
1. Подключение к кластеру
Доступ к кластеру (управляющему узлу) осуществляется по протоколу SSH. Адрес управляющего узла: jet.cpct.sibsutis.ru
, порт 22.
Пример подключения к кластеру из операционной системы GNU/Linux:
$ ssh username@jet.cpct.sibsutis.ruДля копирования файлов с/на кластер используется протокол SCP.
Пример копирования файла на кластер:
$ scp ~/code/src.c username@jet.cpct.sibsutis.ru:~/destПример копирования файла с кластера:
$ scp username@jet.cpct.sibsutis.ru:~/data/src.c ~/home/dest
Также для копирования файлов на кластер и с кластера можно использовать Midnight Commander. Для этого необходимо выбрать пункт Shell link
в меню Left
или Right
, затем ввести username@jet.cpct.sibsutis.ru
в диалоговом окне. После этого в одной из панелей появится домашний каталог пользователя username
на кластере.
2. Управление учетной записью
2.1. Изменение пароля
Для изменения пароля используйте команду passwd. Выполните команду passwd и введите текущий пароль (current, при вводе пароль не отображается). Затем введите новый пароль (New password). Повторно введите новый пароль (Retype new password).
$ passwd Changing password for user ivanov. Changing password for ivanov. (current) UNIX password: New password: Retype new password: passwd: all authentication tokens updated successfully.
2.2. Дисковые квоты
Для просмотра дисковых квот используйте команду quota.
3. Компиляция и сборка последовательных программ
На кластере установлены компиляторы трех производителей: проекта GNU, компаний Intel.
Сборка C-программы:
$ gcc –o prog ./prog.c
Сборка FORTRAN-программы:
$ gfortran –o prog ./prog.f
4. Компиляция и сборка OpenMP-программ
Сборка C-программы:
$ gcc –fopenmp –o prog ./prog.c
Сборка FROTRAN-программы:
$ gfortran –fopenmp –o prog ./prog.f
5. Компиляция и сборка MPI-программ
Для компиляции и сборки MPI-программ служат команды mpicc
, mpicxx
, mpif77
, mpif90
.
Ниже приведен пример сборки C-программы.
$ mpicc –o mpiprog ./mpiprog.c
Пример сборки C++-программы.
$ mpicxx –o mpiprog ./mpiprog.cpp
Пример сборки Fortran-программы.
$ mpif90 –o mpiprog ./mpiprog.f
6. Система пакетной обработки заданий
6.1. Общие сведения и основные команды
На кластере Jet установлена система пакетной обработки заданий TORQUE. Для запуска программы через систему пакетной обработки заданий необходимо подготовить паспорт задачи – файл, в котором указываются ресурсы, требуемые для выполнения программы.
Основные команды:
pbsnodes – выводит информацию о состоянии вычислительных узлов;
qsub – ставит задачу в очередь;
qstat – отображает состояние очереди и список задач в ней;
qdel – удаляет задачу из очереди;
qalter – позволяет модифицировать параметры задачи, поставленной в очередь;
Для запуска параллельных программ настроены две очереди задач: debug и release. Для каждой очереди заданы ограничения на время выполнения программ на ресурсах системы:
– очередь debug – 20 минут;
– очередь release – 10 суток.
Очередь по умолчанию – debug.
6.2. Запуск OpenMP-программ
Для запуска OpenMP-программы на кластере через систему очередей, необходимо подготовить паспорт задачи – файл, в котором указать ресурсы необходимые для ее выполнения программы (по умолчанию программа направляется в очередь debug).
Для запуска программы необходимо подготовить файл с заданием. Ниже приведен пример такого файла с именем omp.job
.
$ cat ./omp.job #PBS -N myomptask #PBS -l nodes=1:ppn=8 #PBS -j oe cd $PBS_O_WORKDIR export OMP_NUM_THREADS=6 ./openmp_prog
Для постановки задания в очередь используется команда qsub.
$ qsub ./omp.job
По завершению работы программы в текущем каталоге будет создан файл с сообщениями, выводимыми во время ее выполнения. Имя файла будет содержать название задания (например, myomptask.o234
) и суффикс oN
, где N
–порядковый номер задания, выделенный ему системой очередей.
6.3. Запуск MPI-программ
Для запуска программы необходимо подготовить файл с заданием. Ниже приведен пример запуск 16 процессов MPI-программы (по 8 процессов на каждом узле).
$ cat ./mpiprog.job #PBS -N mpiprog #PBS -l nodes=2:ppn=8 #PBS -j oe cd $PBS_O_WORKDIR mpiexec ./mpiprog
Для постановки задания в очередь используется команда qsub.
$ qsub ./mpiprog.job
По завершению работы программы в текущем каталоге будет создан файл с сообщениями, выводимыми во время ее выполнения. Имя файла будет содержать название задания (например, mpiprog.o434
) и суффикс oN
, где N
–порядковый номер задания, выделенный ему системой очередей.
Для просмотра очереди задач служит команда qstat.
Пример задания для запуска двух ветвей MPI-программ - на узлах cn1 и cn2.
$ cat ./mpiprog-serv.job #PBS -N mpiprog-test #PBS -l nodes=cn1:ppn=1+cn2:ppn=1 #PBS -j oe cd $PBS_O_WORKDIR mpiexec ./mpiprog
6.4. Постановка задач в очередь release
Для постановки задачи в очередь release, необходимо в файле задания указать опцию: #PBS –q release Ниже приведен пример запуск 64 процессов MPI-программы (по 8 процессов на каждом узле).
$ cat ./mpiprog.job #PBS -N mpiprog #PBS –q release #PBS -l nodes=8:ppn=8 #PBS -j oe cd $PBS_O_WORKDIR mpiexec ./mpiprog
7. Инструкции по использованию языка параллельного программирования Cray Chapel
8. Инструкции по использованию языка параллельного программирования IBM X10
9. Инструкции по доступу к вычислительному узлу с GPU NVIDIA GTX 680 (Kepler)
Ссылки
1. Dual-Core Intel® Xeon® Processor 5100 Series // http://ark.intel.com/ru/products/series/23692/Intel-Xeon-Processor-5100-Series#@All
2. Message Passing Interface Forum // http://www.mpi-forum.org/
3. OpenMP // http://www.openmp.org
4. PuTTY // http://www.chiark.greenend.org.uk/~sgtatham/putty/
5. WinSCP // http://winscp.net/eng/docs/lang:ru
6. Midnight Commander // https://www.midnight-commander.org
7. TORQUE Resource Manager // http://www.adaptivecomputing.com/products/open-source/torque/
Последнее изменение: October 17, 2015, at 12:39 PM editor