tachyon_userguide_v1.2_20100305.hwp



Similar documents
TACHYON_Userguide_V1_0.hwp

Microsoft PowerPoint - 타키온1&2

Microsoft PowerPoint - chap01-C언어개요.pptx

Microsoft PowerPoint - chap02-C프로그램시작하기.pptx

Microsoft Word - 3부A windows 환경 IVF + visual studio.doc

LAMMPS-11Aug17 설치 문서

06-슈퍼컴을(JE)

<B0F8B4EBC0FCBBEABDC720B0EDBCD3B0E8BBEABFEB20C5ACB7AFBDBAC5CD20BDC3BDBAC5DB20C0CCBFEBBEC8B3BBBCAD2E687770>

휠세미나3 ver0.4

PowerPoint 프레젠테이션

비디오 / 그래픽 아답터 네트워크 만약에 ArcGolbe를 사용하는 경우, 추가적인 디스크 공간 필요. ArcGlobe는 캐시파일을 생성하여 사용 24 비트 그래픽 가속기 Oepn GL 2.0 이상을 지원하는 비디오카드 최소 64 MB 이고 256 MB 이상을 메모리

Raspbian 설치 라즈비안 OS (Raspbian OS) 라즈베리파이 3 Model B USB 마우스 USB 키보드 마이크로 SD 카드 마이크로 SD 카드리더기 HDM I 케이블모니터

<4D F736F F D20C5EBC7D5C7D8BCAEBDC3BDBAC5DB5F D2BC0C720424D54B0E1B0FABAB8B0EDBCAD2E646F63>

Microsoft PowerPoint - eSlim SV [080116]

Microsoft PowerPoint - eSlim SV [ ]

untitled

Adobe Flash 취약점 분석 (CVE )

천둥사용자매뉴얼 서울대학교매니코어프로그래밍연구단매니코어소프트 ( 주 ) 버전 년 4월 22일

Level 학습 성과 내용 1수준 (이해) 1. 기본적인 Unix 이용법(명령어 또는 tool 활용)을 습득한다. 2. Unix 운영체계 설치을 익힌다. 모듈 학습성과 2수준 (응용) 1. Unix 가상화 및 이중화 개념을 이해한다. 2. 하드디스크의 논리적 구성 능력

목차 백업 계정 서비스 이용 안내...3 * 권장 백업 정책...3 * 넷하드(100G 백업) 계정 서버로 백업하는 2가지 방법...3 * 백업서버 이용시 주의사항...3 WINDOWS 서버 사용자를 위한 백업서비스 이용 방법 네트워크 드라이브에 접속하여

Microsoft PowerPoint - 02_Linux_Fedora_Core_8_Vmware_Installation [호환 모드]

슬라이드 1

PCServerMgmt7

PowerPoint 프레젠테이션

6주차.key

<목 차 > 제 1장 일반사항 4 I.사업의 개요 4 1.사업명 4 2.사업의 목적 4 3.입찰 방식 4 4.입찰 참가 자격 4 5.사업 및 계약 기간 5 6.추진 일정 6 7.사업 범위 및 내용 6 II.사업시행 주요 요건 8 1.사업시행 조건 8 2.계약보증 9 3

untitled

Sena Technologies, Inc. HelloDevice Super 1.1.0

Microsoft Word - ntasFrameBuilderInstallGuide2.5.doc

PowerPoint 프레젠테이션

커알못의 커널 탐방기 이 세상의 모든 커알못을 위해서

/chroot/lib/ /chroot/etc/

공개 SW 기술지원센터

PowerPoint 프레젠테이션

Windows 8에서 BioStar 1 설치하기

[Brochure] KOR_TunA

<4D F736F F F696E74202D20B8AEB4AABDBA20BFC0B7F920C3B3B8AEC7CFB1E22E BC8A3C8AF20B8F0B5E55D>


Microsoft PowerPoint - comp_prac_081223_2.pptx

사용자계정관리 1. 사용자계정관리 사용자 (user), 그룹 (group) u 다중사용자시스템 (Multi-User System) - 1 대의시스템을동시에여러사람이접속하여쓸수있게하는시스템 u 사용자 (user) - 시스템관리자 : root (=Super user) -

SQL Developer Connect to TimesTen 유니원아이앤씨 DB 기술지원팀 2010 년 07 월 28 일 문서정보 프로젝트명 SQL Developer Connect to TimesTen 서브시스템명 버전 1.0 문서명 작성일 작성자

10X56_NWG_KOR.indd

untitled

Microsoft Word - DELL_PowerEdge_TM_ R710 서버 성능분석보고서.doc


PowerPoint 프레젠테이션

지난시간에... 우리는 kernel compile을위하여 cross compile 환경을구축했음. UBUNTU 12.04에서 arm-2009q3를사용하여 간단한 c source를빌드함. 한번은 intel CPU를위한 gcc로, 한번은 ARM CPU를위한 gcc로. AR

Microsoft PowerPoint - 사용자지침서2

Integ

SIGIL 완벽입문

<4D F736F F F696E74202D20BFEEBFB5C3BCC1A6BDC7BDC D31C7D0B1E229202D20BDA92E BC8A3C8AF20B8F0B5E55D>

*2008년1월호진짜

PowerPoint 프레젠테이션

DocsPin_Korean.pages

PowerPoint 프레젠테이션

<4D F736F F F696E74202D203137C0E55FBFACBDC0B9AEC1A6BCD6B7E7BCC72E707074>

Microsoft PowerPoint UNIX Shell.ppt

Straight Through Communication

ISP and CodeVisionAVR C Compiler.hwp

목차 BUG 문법에맞지않는질의문수행시, 에러메시지에질의문의일부만보여주는문제를수정합니다... 3 BUG ROUND, TRUNC 함수에서 DATE 포맷 IW 를추가지원합니다... 5 BUG ROLLUP/CUBE 절을포함하는질의는 SUBQUE

이도경, 최덕재 Dokyeong Lee, Deokjai Choi 1. 서론

Microsoft PowerPoint - AME_InstallRoutine_ver8.ppt

워드표준 가이드

PathEye 공식 블로그 다운로드 받으세요!! 지속적으로 업그래이드 됩니다. 여러분의 의견을 주시면 개발에 반영하겠 습니다.

(72) 발명자 서진교 경기 용인시 수지구 풍덕천2동 1167 진산마을 삼성5차아파트526동 1004호 조필제 경기 용인시 풍덕천동 유스빌 401호 - 2 -

Microsoft Word - windows server 2003 수동설치_non pro support_.doc

fprintf(fp, "clf; clear; clc; \n"); fprintf(fp, "x = linspace(0, %d, %d)\n ", L, N); fprintf(fp, "U = [ "); for (i = 0; i <= (N - 1) ; i++) for (j = 0


MAX+plus II Getting Started - 무작정따라하기

<C0CCBCBCBFB52DC1A4B4EBBFF82DBCAEBBE7B3EDB9AE2D D382E687770>

Splentec V-WORM Quick Installation Guide Version: 1.0 Contact Information 올리브텍 주소 : 경기도성남시분당구구미로 11 ( 포인트타운 701호 ) URL: E-M

슬라이드 1

PowerPoint 프레젠테이션

Microsoft Word - zfs-storage-family_ko.doc

Microsoft Word - Automap3

본교재는수업용으로제작된게시물입니다. 영리목적으로사용할경우저작권법제 30 조항에의거법적처벌을받을수있습니다. [ 실습 ] 스위치장비초기화 1. NVRAM 에저장되어있는 'startup-config' 파일이있다면, 삭제를실시한다. SWx>enable SWx#erase sta

Backup Exec

untitled

Appendix B

PowerPoint 프레젠테이션

경우 1) 80GB( 원본 ) => 2TB( 복사본 ), 원본 80GB 는 MBR 로디스크초기화하고 NTFS 로포맷한경우 복사본 HDD 도 MBR 로디스크초기화되고 80GB 만큼포맷되고나머지영역 (80GB~ 나머지부분 ) 은할당되지않음 으로나온다. A. Window P

10 강. 쉘스크립트 l 쉘스크립트 Ÿ 쉘은명령어들을연속적으로실행하는인터프리터환경을제공 Ÿ 쉘스크립트는제어문과변수선언등이가능하며프로그래밍언어와유사 Ÿ 프로그래밍언어와스크립트언어 -프로그래밍언어를사용하는경우소스코드를컴파일하여실행가능한파일로만들어야함 -일반적으로실행파일은다

4th-KOR-SANGFOR HCI(CC)

Mango-IMX6Q mfgtool을 이용한 이미지 Write하기

R50_51_kor_ch1

<41736D6C6F D20B9AEBCADBEE7BDC42E687770>

CONTENTS 목차 1. 전원 및 설치시 주의사항 2 2. 시스템 사용시 바른 자세 4 3. 시스템 구성품 확인 5 슬림형 케이스1 6 슬림형 케이스2 7 타워형 케이스1 8 타워형 케이스2 9 일체형 케이스1 10 망분리형 케이스 시스템 시작 및 종료

1) 인증서만들기 ssl]# cat > // 설명 : 발급받은인증서 / 개인키파일을한파일로저장합니다. ( 저장방법 : cat [ 개인키

Solaris Express Developer Edition

임베디드시스템설계강의자료 6 system call 2/2 (2014 년도 1 학기 ) 김영진 아주대학교전자공학과

Microsoft Word - Korean_뷰어 메뉴얼_공용_ADVR&SWi_.doc

Windows 10 General Announcement v1.0-KO

SRC PLUS 제어기 MANUAL

슬라이드 1

Microsoft PowerPoint UNIX Shell.pptx

PowerPoint 프레젠테이션

인켈(국문)pdf.pdf

untitled

Microsoft Word - Generic_Gas_Simulation_BMT 결과 보고서.doc

PowerPoint 프레젠테이션

Transcription:

KISTI TACHYON 사용자 지침서 Ver. 1.2 슈퍼컴퓨팅센터

목 차 1. 시스템 사양 및 구성 가. 계산 노드 나. Interconnection 네트워크 다. 스토리지 2. 기본 사용자 환경 가. 로그인 나. 사용자 쉘 변경 다. 패스워드 변경 라. 사용자 계정 SRU Time 사용량 확인 마. 작업 수행시 유의 사항 바. 작업 디렉토리 사. SAM-QFS(데이터 아카이빙) 3. 사용자 프로그래밍 환경 가. 프로그래밍 도구 설치 현황 나. 프로그램 컴파일 및 디버깅 다. 프로그램 프로파일링 4. 계산노드에서의 Batch 작업 실행 가. 큐 구성 나. 작업 제출 및 모니터링 다. 작업 제어 - 2 -

1. 시스템 사양 및 구성 KISTI TACHYON 사용자 지침서 슈퍼컴퓨터 4호기 초병렬 컴퓨팅 시스템의 1차 시스템인 TACHYON(타키온)은 SUN의 Blade 6048 시스템을 기반으로 구성되었으며, 이론최고성능(Rpeak) 24TFlops를 보이고 있다. 이는 2008년 6월에 발표된 세계 슈퍼컴퓨터의 Linpack 성능 순위 (www.top.org) 에서 130위에 해당된다. 2007년 말에 기반공사를 마무리하고 2008년 초부터 본격적으로 설치작업에 돌입한 Tachyon 시스템은 1월에 시스템의 하드웨어 설치 및 구성, 2월부터 약 두 달간에 걸쳐 소프트웨어 설치 및 벤치마크, 4월부터 약 두 달간에 걸친 내부 사용자 안정화 테스트 및 사용자/요금 정책 결정, 6월부터 한 달 일정으로 진행된 10명 내외의 주요 외부 사용자를 대상으로 한 안정화 테스트, 7월 한 달 기간의 일반 사용자를 대상으로 한 베타 테스트를 거쳐 8월경에는 정식 서비스 오픈을 준비하고 있다. 구 분 내 용 비 고 제조사 및 모델 SUN Blade 6048 아키텍처 클러스터 블레이드 타입 프로세서 노드수 AMD Opteron 2.0GHz(Barcelona) upgraded to 2.3GHz on 2009/06 컴퓨팅 노드 188개 시스템 버스 : HyperTransport (6.4GB/sec) L1/L2/L3 : 64KB/4*512KB/2MB on-die 로그인 노드 3개(X4600) 디버깅 노드 4개(Blade 6048) CPU 코어수 3,008개 16개/노드 이론최고성능(Rpeak) 24.58 TFlops 28.26 TFlops (after upgrading) Rmax 16.99 TFlops 메모리 DDR2/667MHz 6TB 32GB/노드, 2GB/코어 디스크 스토리지 SUN X4500/STK6140 207TB 테이프 스토리지 SUN SL8500 422TB Interconnection 네트워크 Infiniband 4X DDR Voltaire ISR 2012 스위치 쿨링 방식 수냉식 Libert XDP/XDH 운영체제 CentOS 4.6 Kernel 2.6.9-67.0.4.ELsmp 파일시스템 Lustre 1.6.6 스크래치 디렉터리 홈 디렉터리 아카이빙 프로그램 SAM-QFS 4.6 작업 관리 프로그램 SGE 6.1 [ Tachyon 시스템 사양 ] - 3 -

[TACHYON 시스템 구성도] 가. 계산 노드 188개의 계산 노드들은 높은 집적도를 가진 4개의 Sun Blade 6048 랙에 장착되어 있다. 각각의 Sun Blade 6048 랙은 4개의 Shelf로 구성되며, 각각의 shelf에는 12개의 x6420 블레이드 노드가 블레이드 노드가 위치한다. 각각의 x6420 블레이드는 AMD사의 NUMA기반 서버 프로세서인 쿼드코어 2.0GHz CPU (코드명 Barcelona) (2009년 6월 모두 2.3GHz로 업그레이드함) 4개와 32GB 메모리, 그리고 HDD 대용의 8GB CF Memory drive와 2개의 x8 PCI-e bridge를 가지고 있다. - 4 -

[SUN Blade 6048] [x6420 블레이드 노드 블록 다이어그램] 나. Interconnection 네트워크 노드 간 계산 네트워크 및 파일 I/O 통신을 위한 백본 네트워크로 Infiniband를 사용하고 있다. 4x IB DDR을 사용하여 non-blocking IB 네트워크로 구축하였으며, 이를 위해 1대의 288 port voltaire ISR 2012 IB 스위치에 모든 계산 노드와 로그인 노드와 파일 서비스 노드를 비롯한 주요 인프라 노드들을 채널 당 2.5GB/sec(20Gbps)의 대역폭을 제공하는 4x IB로 연결하였다. [Voltaire ISR2012 IB 스위치] [IB 스위치 후면] 다. 스토리지 TACHYON의 스크래치와 홈 파일 시스템을 위해 19대의 SUN X4500 서버를 연동하여 스토리지 시스템을 구성하였다. 이를 통해 11TB 용량의 홈 디렉토리(/home01)와 두 개 의 글로벌 스크래치 디렉토리(54TB의 /work01, 40TB의 /work02)를 제공하고 있다. 스크래치 및 홈 디렉토리는 Lustre 파일시스템을 통해 계산노드를 비롯한 모든 노드에 서비스 되고 있으며 Veritas NetBackup 솔루션을 통해 홈 디렉토리를 주기적으로 테이 - 5 -

프 라이브러리에 백업하고 있다. 사용자의 대용량 데이터에 대한 아카이빙을 지원하기 위해 SAN용 디스크 스토리지(STK6140)와 테이프 라이브러리를 통해 2 단계의 실시간 아카이빙을 지원하고 있다. 아카이빙은 로그인 노드에서 사용자가 FTP를 통해 저장하고 자 하는 데이터를 아카이빙 서버로 전송하면 자동으로 저장되는 방식으로 서비스된다. [ SUN X4500 디스크 및 X4600 서버 ] [SUN STK 6140 SAN 디스크] - 6 -

2. 기본 사용자 환경 가. 로그인 - 사용자의 초기 접속은 대표 호스트 네임인 tachyon.ksc.re.kr와 4개의 로그인 노드의 호스트 네임인 tachyon[a-c].ksc.re.kr을 통하여 접근할 수 있다. - 시스템에 대한 액세스는 ssh, sftp, ftp, X11 만이 허용된다. 1 유닉스 혹은 리눅스에서 $ ssh -l 사용자ID hostname 또는 $ ssh -l 사용자ID IP address 2 윈도우즈에서 - putty 나 SSH Secure Shell Client 등의 ssh 접속 유틸리티를 이용한다 - 프로그램은 인터넷을 통해 무료로 다운 받을 수 있다 3 노드 구성 비고 호스트 이름 IP 주소 tachyon.ksc.re.kr DNS 대표 호스트 네임 로그인 노드 tachyona.ksc.re.kr 150.183.147.213 (3노드) tachyonb.ksc.re.kr 150.183.147.214 CPU Limit (Interactive Process) 10분 디버깅 노드 (4노드) 컴퓨팅 노드 (188노드) tachyonc.ksc.re.kr 150.183.147.215 tachyon189 로그인 노드를 통해서 tachyon190 접근 가능 tachyon191 (eg. ssh tachyon189) tachyon192 SGE(배치 스케줄러)를 tachyon001-188 통해서만 작업 실행 가 능함 컴파일 및 디버깅용 컴퓨팅 노드와 동일한 스 펙임 30분간 어플리케이션 수 행 가능 일반 사용자는 모니터링을 위해 1분간 접근 허용 - 7 -

나. 사용자 쉘 변경 기본으로 설정되는 bash에서 다른 shell로 변경하고자 할 경우 ldapchsh 명령어를 사용한다. 사용자의 홈디렉터리에 있는 해당 환경설정 파일을 적절히 수정하여 사용 하고, 환경 설정 파일의 원본이 필요한 경우 사용자가 직접 /applic/shell 디렉터리에서 필요한 쉘의 환경 설정 파일을 자신의 홈 디렉터리로 복사하여 적절히 수정하여 사용한다. $ ldapchsh 다. 패스워드 변경 사용자 패스워드를 변경하기 위해서는 passwd 명령을 사용한다. $ passwd 패스워드 관련 보안 정책 1 사용자 password 길이를 8 character 이상 설정 2 사용자 password 변경 기간을 2개월로 설정 3 새로운 패스워드는 이전 패스워드와 비교하여 2문자 이상 달라야 한다. 4 최대 허용 로그인 재시도 회수 :10회 5 사용자가 password 변경 시 새로운 password가 사용자가 계정을 갖고 있는 KISTI 슈퍼컴퓨팅센터의 GAIA등 다른 시스템에도 그대로 적용된다. 라. 사용자 계정 SRU Time 사용량 확인 통합 슈퍼컴퓨터 계정 관리 시스템(ISAM)에 접속하여 사용자 계약정보, 배치 작업 사용 상세내역, 총 SRU Time 사용량 등을 확인할 수 있다. $ isam 마. 작업 수행 시 유의 사항 - 로그인 노드에서는 CPU time을 10분으로 제한하고 있기 때문에 프로그램 수정, 디버깅 및 배치 작업 제출 등의 기본적인 작업만 수행한다. - CPU time으로 10분 이상 소요되는 디버깅 및 기타 인터랙티브 작업은 디버깅 노드에서 수행해야 한다. - 홈 디렉터리는 용량 및 I/O 성능이 제한되어 있기 때문에, 모든 계산 작업은 /work01 혹은 /work02 스크래치 디렉터리의 사용자 작업 공간에서 이루어져야 한다. - 사용자 작업 디렉토리는 용도에 따라 다른 정책을 적용받는다. 사용자의 쿼터는 - 8 -

홈디렉토리의 경우 6GB로 제한되나 스크래치 디렉토리의 경우 1TB까지 허용하여 대용량 I/O작업도 가능하도록 지원하고 있다. - 스크래치 디렉토리의 경우 데이터가 한없이 누적되는 것을 막기 위해 4일간 사용하지 않은 데이터는 자동 삭제되도록 설정되어 있다. - /applic 공유 디렉토리는 사용자가 사용하는 작업 관련 주요 명령어들과 컴파일러 그리고 라이브러리들을 제공한다. 바. 작업 디렉터리 구분 내용 용량 제한 홈 디렉터리 /home01 스크래치 디렉터리 애플리케이션 디렉터리 /work01 /work02 구좌 당 6GB 사용자 당 1TB 파일 삭제 정책 - 4일 이상 액세스 하지 않은 파일 자동 삭제 파일시스템 종류 Lustre 백업 유무 디렉터리 마운트 여부 컴퓨팅 노드 로그인 노드 디버깅 노드 /applic - - 홈 및 스크래치 디렉터리 용량 제한 및 사용량 확인 $ quotaprint [ USER DISK USAGE IN THE HOME & SCRATCH DIR ] ================================================================ ID/GROUP DIR QUOTA_LIMIT USED_DISK AVAIL_DISK ================================================================ in1000 /home01 12573MB 10937MB 1636MB test /work01 1073740MB 54905MB 1018835MB test /work02 1073740MB 0MB 1073740MB ================================================================ 사. SAM-QFS(데이터 아카이빙) 홈 디렉터리의 용량을 초과한 사용자 데이터를 보관하기 위해서 SAM-QFS 기반의 데이터 아카이빙을 지원한다. SAM-QFS 사용법은 별도의 SAM-QFS 사용자 지침서 를 참조 한다. - 9 -

3. 사용자 프로그래밍 환경 KISTI TACHYON 사용자 지침서 Tachyon 시스템에는 PGI를 비롯하여 GNU GCC와 Intel 컴파일러를 제공하고 있으며 MPI(Message Passing Interface)로 mvapich1과 OpenMPI를 제공하고 있다. 수학 라이브러리를 비롯하여 여러 어플리케이션 라이브러리를 컴파일러 및 MPI별로 제공하고 있으나 사용자는 필요한 경우 사용자의 홈 디렉토리 등에 라이브러리를 설치하여 사용할 수 있다. 컴파일러 및 MPI 라이브러리 환경은 select-mpi-[bash csh]을 통해 쉽게 다른 환경으로 변경하여 사용할 수 있다. 가. 프로그래밍 도구 설치 현황 (/applic 디렉터리 참조) 구분 항목 컴파일러 (/applic/compilers) 프로파일러 (/applic/lib.{compiler}/tau) 디버거 (/applic/debuggers) MPI 라이브러리 (/applic/mpi) 수학 라이브러리 (/applic/lib.{compiler}) 기타 라이브러리 (/applic/lib.{compiler}) 상용 소프트웨어 (/applic/applications) PGI CDK 7.1 Intel Compiler 10.1 gcc 3.4.6.9 (/usr) TAU cvs version for Barcelona TotalView 8.3 MVAPICH 1.0 OpenMPI 1.2.5 향후 MVAPICH2 지원 예정 Aztec 2.1 ACML 4.0.1 ATLAS 3.6 BLAS BLACS FFTW 3.1.2 GotoBLAS 1.23 LAPACK Scalapack 1.8 Petsc 2.3.3 HDF4 4.2 HDF5 1.8 NCAR 5.0.0-9 NetCDF 3.6.2-4 VTK 5.0.4 Gaussian 03 http://www.ksc.re.kr 보유자원-S/W 정보 참조 - 10 -

나. 프로그램 컴파일 및 디버깅 본 시스템에서는 GNU 컴파일러 이외에 Portland Group(PGI) 컴파일러, Intel 컴파일러를 지원한다. 또한 이들 컴파일러를 사용하여 사전에 컴파일 한 MPI 라이브러리를 사용자에게 제공한다. 모든 프로그램은 PGI, Intel, GNU 컴파일러를 사용하여 컴파일 가능하며 MPI 환경을 이용한 컴파일도 가능하다(예: gcc, pgcc, icc, mpicc). 컴파일러에서 사용한 옵션은 MPI 환경에서도 사용할 수 있다. 병렬프로그래밍 환경의 지원을 위해서, 본 시스템에는 MVAPICH, OpenMPI를 지원한다. PGI Intel GCC 컴파일러 위치 /applic/compilers/pgi /applic/compilers/intel /usr 각 컴파일러에 대한 자세한 내용은 다음 웹 링크를 참조한다. GCC : http://gcc.gnu.org/onlinedocs/gcc-3.4.6/gcc.pdf PGI : http://www.pgroup.com/doc/pgiug.pdf Intel : http://www.intel.com/cd/software/products/asmo-na/eng/346158.htm 본 시스템에는 컴파일에 필요한 수치 계산 및 기타 라이브러리들을 별도의 디렉터리에 제공 하고 있는데, 이러한 라이브러리들 각각은 컴파일러의 이름에 따라 /applic/lib.[compiler]에 설치되어 있다. 구분 /applic/lib.pgi /applic/lib.intel /applic/lib.gcc 내용 pgi로 컴파일된 라이브러리들 intel로 컴파일된 라이브러리들 gcc로 컴파일된 라이브러리들 또한 MPI를 사용하는 라이브러리들의 경우 각 MPI Library 별로 컴파일 되어 있다. 예를 들어 gcc로 컴파일된 BLACS의 경우 MPI 이름에 따라 다음과 같이 세 하위 디렉터리를 갖게 된다. - 11 -

구분 내용 /applic/lib.gcc/blacs/mvapich mvapich로 컴파일된 BLACS /applic/lib.gcc/blacs/openmpi openmpi로 컴파일된 BLACS 1) 컴파일러 환경변수 각 컴파일러에 맞는 환경변수의 자동 설정을 위해.bashrc와.bashrc-[mpi]-[compiler] 파일을 제공한다. 예를 들어, pgi 컴파일러와 mvapich를 사용하기 위해서는.bashrcmvapich-pgi를 사용해야 한다. 각 컴파일러별.bashrc_[mpi]_[compiler]에는 PATH, MANPATH, LD_LIBRARY_PATH, LICENSE_FILE 등이 해당 컴파일러 환경에 맞게 지정되어 있고, 사용자는 이 파일들 중 자신이 사용하고자 하는 MPI나 컴파일러에 따라 한 가지만을 사용하면 된다. 이 파일은 라이브러리 패키지에 포함된 실행 바이너리들의 PATH를 export 해주는.bashrc-binpath 파일과 이 라이브러리들의 위치를 LD_LIBRARY_PATH에 기록해주는.bashrc-libpath 파일을 실행하게 된다. Tachyon 시스템에 새로운 라이브러리가 설치되면 /applic/shell 디렉터리 아래의.bashrc-binpath와.bashrc-libpath 파일이 업데이트된다. 이 파일들은 사용자 디렉토리로 자동 복사되지 않으므로 새로 설치된 라이브러리를 편리하게 사용하고자 하는 사용자는 /applic/shell 디렉터리에 있는 파일을 자신의 home 디렉토리에 주기적으로 복사해 주는 것이 좋다. 이러한 환경설정은 select-mpi-[bash csh] 명령어를 통해 쉽게 다른 컴파일러 환경으로 변경하여 사용할 수 있다. 한번 이 명령어를 사용하고 나면 설정된 MPI와 compiler를 사용하도록 이후에도 계속 유지되므로, 시스템 접속 시 매번 사용할 필요는 없다. select-mpi-bash을 이용한 컴파일러 및 MPI 지정 (다음 로그인부터 적용) 사용법 예제 선택 가능한 MPI 선택 가능한 Compiler select-mpi-bash [MPI] [Compiler] $ select-mpi-bash mvapich pgi mvapich, openmpi gnu, intel, pgi - 12 -

2) 순차 프로그램 컴파일 순차 프로그램은 병렬 프로그램 환경을 고려하지 않은 프로그램을 말한다. 즉, MPI와 같은 병렬 프로그램 인터페이스를 사용하지 않는 프로그램으로써, 한 개의 노드에서만 동작할 수 있는 프로그램이다. 순차 프로그램 컴파일시 사용되는 컴파일러별 옵션은 병렬 프로그램을 컴파일할 때도 그대로 사용되므로, 순차 프로그램에 관심이 없다 하더라도 참조하는 것이 좋다. 벤더 컴파일러 명령 프로그램 소스 확장자 pgcc C.c PGI pgcpp C++.c,.C,.cc,.cpp pgf77 F77.f,.for,.fpp,.F,.FOR pgf90/pgf95 F90/95.f,.for,.f90,.f95,.fpp,.F,.FOR,.F90,.F95 icc C.c Intel icc C++.c,.C,.cc,.cpp,.cxx,.c++ ifort F90.f,.for,.ftn,.f90,.fpp,.F,.FOR,.FTN,.FPP,.F90 GCC gcc C.c g++ C++.C,.cc,.cpp,.cxx 컴파일러 별 주요 옵션 최적화 컴파일을 위해 다음의 옵션을 부여할 수 있다. 1 GNU 컴파일러 컴파일러 옵션 -O[1 2 3] -funroll-all-loops -ffast-math 설명 오브젝트 최적화. 숫자는 최적화 레벨 모든 루프를 unrolling함 fast floating point model 사용 -minline-all-stringops 더 많은 inlining 허용 -g 디버깅 정보를 생성 --help 옵션 목록 출력 권장 옵션 : -O3 -axt -xw -m64 -fpic -i_dynamic - 13 -

2 Intel 컴파일러 컴파일러 옵션 설명 -O[1 2 3] 오브젝트 최적화. 숫자는 최적화 레벨 -ip, -ipo 프로시저 간 최적화 -vec_report[0 1 2 3 4] 벡터 진단 정보의 양을 조절 -xw 타겟 아키텍처 : SSE, SSE2 인스트럭션을 위한 코드를 포함 -fast -xt -O3 -ipo -no-prec-div -static의 매크로 -static 공유 라이브러리를 링크하지 못하게 함 -g fp 디버깅 정보를 생성 -openmp OpenMP 기반의 multi-thread 코드 사용 -openmp_report[0 1 2] OpenMP 병렬화 진단 레벨 조절 -help 옵션 목록 출력 권장 옵션 : O2 xw -m64 3 PGI 컴파일러 컴파일러 옵션 -O[0 1 2 3 4] -Mipa=fast -fast -fastsse -g, -gopt -mp -Minfo=mp, ipa -help 설명 오브젝트 최적화. 숫자는 최적화 레벨 프로시저 간 최적화 -O2 -Munroll=c:1 -Mnoframe -Mlre Mautoinline 의 매크로 SSE, SSE2를 지원하는 최적화 디버깅 정보를 생성 OpenMP 기반의 multi-thread 코드 사용 OpenMP관련 정보, 프로시저 간 최적화 옵션 목록 출력 권장 옵션 : -fast -tp barcelona-64 컴파일러 사용 예제 컴파일러 예제 GNU PGI Intel gcc o test.exe O3 test.c pgcc/pgcpp/pgf95 o test.exe fast test.c/cc/f90 icc/ifort o test.exe O3 xw test.c/cc/f90-14 -

3) MPI 병렬 프로그램 컴파일 사용자는 다음 표의 MPI 명령을 실행할 수 있는데, 이 명령은 일종의 wrapper로써.bashrc를 통해 지정된 컴파일러가 소스를 컴파일하게 된다. 컴파일러 프로그램 소스 확장자 mpicc C.c mpicxx/mpicc C++.cc,.c,.cpp,.cxx mpif90 F77/F90.f,.for,.ftn,.f90,.f95,.fpp mpicc로 컴파일을 하더라도, 옵션은 wrapping되는 본래의 컴파일러에 해당하는 옵션을 사용해야 한다. 사용 예제 intel컴파일러 사용시 : mpicc/mpif90 o test.exe O2 xw test.cc/f90 pgi 컴파일러 사용시 : mpicc/mpif90 o test.exe fast test.f90-15 -

4) 프로그램 디버깅 tachyon 시스템에서의 디버깅 작업은 디버깅 노드(tachyon189-192)에서 수행해야 하고, 디버깅을 수행할 프로그램은 컴파일 옵션에 -g를 사용하여 빌드된 것이어야 한다. 병렬 프로그램에 대한 디버깅도 이 디버깅 노드에서 수행해야 하므로, -machinefile 옵션에 디버깅 노드들을 기재해 주는 것에 유념해야 한다. tachyon에서는 GUI base 디버깅 도구인 totalview를 제공하고 있다. totalview는 순차 작업의 디버깅 뿐만 아니라 병렬 작업의 디버깅 또한 가능하다. 순차 작업의 디버깅 디버깅 정보를 바이너리에 넣어두기 위해서, 컴파일 시 g 옵션을 추가한다. $ pgcc -g -o simple simple.c 다음의 형식으로 Totalview를 실행시켜 디버깅을 수행한다. 실행파일은 절대경로를 입력해야한다. $ totalview [executable_file] -a [command_line_args] 위와 같이 입력하면 아래의 totalview GUI가 사용자 화면에 보이게 된다. 이 화면에서 디버깅 작업을 수행할 수 있는데, 자세한 사항은 다음의 totalview 사용자 가이드를 참조한다. http://www.totalviewtech.com/documentation/latest/pdf/user_guide.pdf - 16 -

병렬 작업의 디버깅 병렬 작업의 디버깅을 위해 병렬 작업을 수행시킬 때와 마찬가지로 로그인 노드에서 작업 실행에 필요한 파일들을 스크래치 디렉터리로 복사하고 디버깅 노드에 로그인 해야 한다. 또한, 실행 파일 컴파일시 -g 옵션을 반드시 넣어야 한다. MPI 프로그램의 실행은 MPI 종류와 관계없이 mpirun 명령을 사용한다. n 또는 np 옵션으로 프로세스의 수를 지정하고 -machinefile {filename} 옵션으로 실행에 참여할 호스트를 결정한다. {filename} 파일에는 아래와 같이 실행할 MPI 프로세스의 수만큼 디버깅 노드의 호스트 이름을 써넣어주는데, 맨 첫 라인에는 현재 로그인한 debugging 노드의 이름을 적어줌에 유의한다. [testuser01@tachyon191 /lustre1/testuser01]# cat mf tachyon191 tachyon189 tachyon190 tachyon192 tachyon191 tachyon189 tachyon190 tachyon192 [testuser01@tachyon191 /lustre1/testuser01]# mpirun -tv -dbg=totalview -np 4 -machinefile mf./mpi_pi 위의 mpirun 명령을 실행하면 아래와 같이 totalview관련 UI가 화면에 나타나게 된다. UI의 Go 버튼을 클릭하면 생성된 MPI task별 작업 현황을 파악할 수 있다. - 17 -

이 화면에서 디버깅 작업을 수행할 수 있는데, 자세한 사항은 다음의 totalview 사용자 가이드를 참조한다. http://www.totalviewtech.com/documentation/latest/pdf/user_guide.pdf - 18 -

다. 프로그램 프로파일링 Tachyon 시스템에서의 프로파일링 작업은 디버깅 노드(tachyon189-192)에서 수행해야만 한다. 병렬 프로그램에 대한 프로파일링도 이 디버깅 노드들에서 수행해야 하므로, 추후 프로파일링을 위한 프로그램 실행시 -machinefile 옵션에 디버깅 노드들을 기재해 주는 것에 유념해야 한다. Tachyon시스템은 MPI 프로그램 프로파일링을 위해 TAU를 지원한다. TAU는 Tuning / Analysis Utility의 약자로써 Multi count를 지원하는 프로파일링 도구이다. 이를 사용하여 프로그램 내부 function 단위의 실행시간, call 횟수, 총 실행시간 중 차지하는 비율 등을 알아낼 수 있다. 기본적으로 프로그램을 실행한 이후 프로그램의 동작 과정을 Tracing하게 되는데, 이를 위해 그전에 프로그램 바이너리에 instrument 코드가 삽입되어야 하고, 그 일은 TAU compiler가 수행해 준다. 현재 tachyon시스템에 설치된 compiler 및 MPI 환경별로 지원하는 TAU가 각각 설치되어 있어, 사용자는 사용자 프로그램의 동작 결과를 노드별로 파악할 수 있고, 전체적으로 동작한 Summary도 제공받을 수 있다. TAU에 대한 보다 상세한 사용방법은 http://www.cs.uoregon.edu/research/tau/docs/tut orial/index.html을 참조한다. TAU의 기본적인 사용법 1. tau compiler를 통해 instrumented 바이너리를 생성 2. 위의 과정을 통해 만들어진 바이너리를 디버깅 노드에서 실행 (프로파일링) 3. 작업이 종료 후 만들어진 performance file(profile.*.*.*)을 확인 4. 위의 단계에서 만들어진 performance file를 visualization 툴 등을 통해 분석 $ pprof // text-based $ paraprof // GUI-based TAU 사용 예 (디버깅 노드에서) 1 select-mpi-[shell] 명령어를 이용하여 프로그램 빌드 환경을 선택 이미 사전에 선택하였다면 이 부분은 넘어가도 좋다. $ select-mpi-bash mvapich pgi 2 환경 설정 파일 복사 TAU의 Multicount기능을 사용하려면 COUNTER1, COUNTER2, COUNTER3등의 환경변수가 지정되어 있어야 한다. 기본 3가지 카운터에 대한 내용을 적어놓은 파일이 /applic/shell 디렉토리의.*shrc 파일로 되어 있으므로, 자신의 shell에 맞은 파일을 가져와 홈 디렉토리에 복사해도 되고, 환경변수를 설정하는 부분만 복사해서 - 19 -

사용해도 된다. 또한 사용자의 home 디렉토리에 존재하는.*shrc-binpath,.*shrc-libpath, 등의 파일이 최신인지 확인하고 그렇지 않다면 /applic/shell 디렉토리에서 home 디렉토리로 복사한다. 사용자가 사용하는 쉘과 관련된 파일을 복사하면 된다. 복사된 환경 설정 파일이 적용되려면 재로그인해야 한다. $ cp -a /applic/shell/.bash* ~ or $ cp -a /applic/shell/.cshrc* ~ or $ cp -a /applic/shell/.tcshrc* ~ 3 소스 코드가 있는 곳으로 이동하여 tau 컴파일러를 사용하여 소스코드를 빌드한다. 사용자 코드가 Makefile등으로 빌드 된다면 Makefile내의 mpicc, mpicxx, mpif90 등이 사용되는 곳을 tau_cc.sh, tau_cxx.sh, tau_f90.sh 등으로 치환하여 빌드한다. $ tau_cc.sh -o cpi_s_tau cpi_s.c 4 빌드된 소스코드를 interactive mode로 디버깅 노드에서 실행한다. hosts파일에 디버깅노드들만 기술해야 함에 유의한다. $ mpirun -np 4 -machinefile hosts./cpi_s_tau ➄ 실행이 완료되면 실행파일이 존재하는 디렉토리에 다음과 같은 디렉토리가 생성된다. $ ls cpi_s_tau # 실행파일 hosts # machinefile MULTI GET_TIME_OF_DAY/ MULTI PAPI_FP_INS/ MULTI PAPI_TOT_CYC/ Tachyon에 설치된 TAU는 MultiCounter를 지원한다. 현재 Event Counter를 GET_TIME_OF_DAY, PAPI_FP_INS, PAPI_TOT_CYC 등 3개를 사용하도록.*shrc에 지정되어 있기 때문에 3개의 디렉토리가 생성된다. 각각의 디렉토리 내에는 다음과 같은 파일들이 존재한다. 본 예제에서 4개의 debugging노드에서 MPI프로그램을 실행시켰으므로 4개의 profile.*.0.0 파일이 나온다. $ ls MULTI GET_TIME_OF_DAY/ profile.0.0.0 profile.1.0.0 profile.2.0.0 profile.3.0.0-20 -

다른 카운터도 사용하고 싶다면 http://www.cs.uoregon.edu/research/tau/docs/ newguide/ch03s06.html#papi_table 문서를 참조하여 사용자 홈디렉토리의.*shrc 파일을 수정하여 카운터를 추가할 수 있다. Event counter는 최대 25개까지 사용할 수 있다. ➅ pprof를 통한 분석 $ cd MULTI GET_TIME_OF_DAY $ pprof Reading Profile files in profile.* NODE 0;CONTEXT 0;THREAD 0: --------------------------------------------------------------------------------------- %Time Exclusive Inclusive #Call #Subrs Count/Call Name counts total counts --------------------------------------------------------------------------------------- 100.0 3.274E+07 7.879E+07 1 1.0676E+07 78792781 int main(int, char **) C 53.9 4.248E+07 4.248E+07 1.0668E+07 0 4 double f(double) C 2.9 2.297E+06 2.297E+06 7998 0 287 MPI_Reduce() 1.6 1.113E+06 1.273E+06 1 45 1272652 MPI_Init() 0.2 1.569E+05 1.569E+05 1 0 156885 MPI_Allgather() 0.0 3950 4043 1 5 4043 MPI_Finalize() 0.0 1177 1177 2 0 588 MPI_Allreduce() 0.0 408 450 2 6 225 MPI_Comm_create() 0.0 277 299 1 3 299 MPI_Comm_split() 0.0 181 181 2 0 90 MPI_Bcast() 0.0 112 112 13 0 9 MPI_Errhandler_set() 0.0 94 94 5 0 19 MPI_Type_struct() 0.0 93 93 6 0 16 MPI_Type_contiguous() 0.0 91 91 11 0 8 MPI_Type_commit() 0.0 81 81 3 0 27 MPI_Comm_free() 0.0 55 55 4 0 14 MPI_Attr_put() 0.0 52 52 2 0 26 MPI_Group_incl() 0.0 35 35 4 0 9 MPI_Comm_rank() 0.0 31 31 3 0 10 MPI_Group_free() 0.0 21 21 1 0 21 MPI_Comm_size() 0.0 20 20 1 0 20 MPI_Comm_group() 0.0 17 17 1 0 17 MPI_Get_processor_name() ---------------------------------------------------------------------------------------... 한 개의 디렉토리를 선택하여 그 디렉토리에서 pprof를 실행시키면 profile.*.0.0등 의 파일을 읽어들여 결과를 분석해준다. - 21 -

4. 계산노드에서의 Batch 작업 실행 클러스터의 Batch 작업 스케쥴러로 Sun Grid Engine (이하 SGE)을 사용하고 있다. 사용자가 작업 제출시 사용할 수 있는 큐는 작업에 사용하는 CPU수와 실행시간에 따라 적절히 선택되어야 한다. 사용자별 최대 제출할 수 있는 작업의 수는 10개로 제한되나 이 값은 시스템의 부하 정도에 따라 변동될 수 있다. 사용자 작업의 스케쥴링은 해당 큐의 Priority와 Fair-Share 정책에 따라 자동으로 결정된다. 가. 큐 구성 큐이름 Wall Clock Limit (시간) 작업 실행 노드 SU 작업별 CPU수 Priority Charge Rate 비고 normal 48 tachyon001-188 17-1536 normal 1 long 168 tachyon001-188 1-128 Low 1 Long running 작업 strategy TBD tachyon001-188 32-3008 High 1 special 12 tachyon001-188 1537-3008 - 2 Grand Challenge 작업 대규모 자원 전용 (사전 예약) 사용자별 최대 Runinng 작업수 : 10개 (작업 부하에 따라 수시로 조정될 수 있음) 베타테스트 기간 중에 사용했던 야 함 small 큐는 더 이상 존재하지 않으므로 대신 long 큐를 사용해 큐 구성 정보 확인하기 $ showq 나. 작업 제출 및 모니터링 1) 작업 제출 SGE를 사용하여 배치 작업을 제출하기 위해서는 job script 파일을 작성하여 qsub 명령을 사용해야한다. 예제 job script가 /applic/shell/job_examples/job_script 에 위치하며 사용자는 필요시 복사하여 사용할 수 있다. 여기에는 serial 및 MPI 작업 그리고 OpenMP+MPI를 포함하여 여러 스크립트 예제가 제공되고 있다. $ qsub job_script - 22 -

Serial 프로그램 작업 스크립트 작성 예제(serial.sh) #!/bin/bash #$ -V # 작업 제출 노드의 쉘 환경변수를 컴퓨팅 노드에도 적용 (default) #$ -cwd # 현재 디렉터리를 작업 디렉터리로 사용 #$ -N serial_job # Job Name, 명시하지 않으면 job_script 이름을 가져옴 #$ -q long # Queue name #$ -R yes # Resource Reservation #$ -wd /work01/<user01>/serialtest # 작업 디렉터리를 설정. 현재 디렉토리(PWD)가 # /work01/<user01>/serialtest가 아닌 경우 사용, # 그렇지 않으면 cwd로 충분함 #$ -l h_rt=01:00:00 # 작업 경과 시간 (hh:mm:ss) (wall clock time), 누락 시 작업 강제 종료 #$ -M myemailaddress # 작업 관련 메일을 보낼 사용자 메일 주소 #$ -m e # 작업 종료 시에 메일을 보냄 #serial application 중에서 multi-thread로 형태로 수행하는 경우, #이에 맞게 OMP_NUM_THREADS 값을 변경해주어야 함. 예를 들면 gaussian의 경우 #사용할 %Nproc 혹은 %Nprocshared 값과 같게 OMP_NUM_THREADS를 지정해야 함 #$ -l OMP_NUM_THREADS=1 export OMP_NUM_THREADS=1 serial.exe - 23 -

mpi 프로그램 작업 스크립트 작성 예제(mpi.sh) 1 select-mpi-[shell] 명령어를 이용하여 job 실행환경 선택 $ select-mpi-bash [mvapich openmpi] [pgi intel gnu] 2 MPI task(cpu) 수 명시 #$ -pe mpi_fu {Total_MPI_task(CPU)} #$ -pe mpi_fu 32 #!/bin/bash #$ -V # 작업 제출 노드의 쉘 환경변수를 컴퓨팅 노드에도 적용 (default) #$ -cwd # 현재 디렉터리를 작업 디렉터리로 사용 #$ -N mvapich_job # Job Name, 명시하지 않으면 job_script 이름을 가져옴 #$ -pe mpi_fu 32 # selec-bash-mpi에서 선택한 mvapich로 실행되며 각 노드의 가용 cpu를 # 모두 채워서(fu : fill_up) 총 32개의 MPI task가 실행됨. #$ -q normal # 큐 이름(17개 이상의 CPU를 사용하는 경우에는 normal 큐를 # 16개 이하 CPU를 사용하는 경우 small or long 큐 사용) #$ -R yes # Resource Reservation ##$ -wd /work01/<user01>/mvapich # 작업 디렉터리를 설정. 현재 디렉토리(PWD)가 # /work01/<user01>/mvapich가 아닌 경우 사용, # 그렇지 않으면 cwd 옵션으로 충분함 #$ -l h_rt=01:00:00 # 작업 경과 시간 (hh:mm:ss) (wall clock time), 누락 시 강제 작업 종료 #$ -l normal # normal queue에 job실행 시 다른 queue보다 높은 priority를 # 얻기 위해 반드시 명시, 누락 시 작업 강제 종료 ##$ -M myemailaddress # 작업 관련 메일을 보낼 사용자 메일 주소 ##$ -m e # 작업 종료 시에 메일을 보냄 mpirun -machinefile $TMPDIR/machines -np $NSLOTS./mpi.exe * 이탤릭체로 작성된 부분은 수정하지 않고 그대로 사용한다. - 24 -

많은 메모리를 사용하는 mpi 프로그램 작업 스크립트 작성 예제(mpi_mem.sh) #!/bin/bash #$ -V #$ -cwd #$ -N mvapich_job #$ -pe mpi_16cpu 32 #$ -q normal #$ -R yes #$ -l h_rt=01:00:00 #$ -l normal ##$ -M myemailaddress ##$ -m e #unset existing MPI affinities export MV2_USE_AFFINITY=0 export MV2_ENABLE_AFFINITY=0 export VIADEV_USE_AFFINITY=0 export VIADEV_ENABLE_AFFINITY=0 mpirun -np $NSLOTS -machinefile $TMPDIR/machines./numa.sh # 사용자 프로그램이 아니라 아래와 같은 numa관련 shell script를 제출한다. * 이탤릭체로 작성된 부분은 수정하지 않고 그대로 사용한다. numa.sh #!/bin/bash #socket numbers in a compute node SPN=4 #get my MPI rank [ "x$pmi_rank"!= "x" ] && RANK=$PMI_RANK [ "x$mpi_rank"!= "x" ] && RANK=$MPI_RANK [ "x$mpirun_rank"!= "x" ] && RANK=$MPIRUN_RANK [ "x$ompi_mca_ns_nds_vpid"!= "x" ] && RANK=$OMPI_MCA_ns_nds_vpid # MPI rank 별로 cpu core에 할당 socket=$(( ($RANK + 3) % $SPN )) echo "myrank: $RANK, mysocket: $socket, hostname: $(hostname)" /usr/bin/numactl --cpunodebind=$socket --membind=$socket./mpi.exe #./mpi.exe는 사용자 실행파일 * 이탤릭체로 작성된 부분은 수정하지 않고 그대로 사용한다. - 25 -

OpenMP 프로그램 작업 스크립트 작성 예제(openmp.sh) #!/bin/bash #$ -V # 작업 제출 노드의 쉘 환경변수를 컴퓨팅 노드에도 적용 (default) #$ -cwd # 현재 디렉터리를 작업 디렉터리로 사용 #$ -N openmp_job # Job Name, 명시하지 않으면 job_script 이름을 가져옴 #$ -pe openmp 4 # OpenMP thread 수 #$ -q long # Queue name(openmp 작업은 long 큐 사용 가능) #$ -R yes # Resource Reservation ##$ -wd /work02/<user01>/openmp # 작업 디렉터리를 설정. 현재 디렉토리(PWD)가 # /lustre1/<user01>/openmp가 아닌 경우 사용, # 그렇지 않으면 cwd로 충분함. 주석처리 권장 #$ -l h_rt=01:00:00 # 작업 경과 시간 (hh:mm:ss) (wall clock time), 누락 시 작업 강제 종료 ##$ -M myemailaddress # 작업 관련 메일을 보낼 사용자 메일 주소 ##$ -m e # 작업 종료 시에 메일을 보냄 export OMP_NUM_THREADS=4./omp.exe - 26 -

Hybrid(MPI+OpenMP) 프로그램 작업 스크립트 작성 예제(hybrid.sh) Hybird 작업 수행 시에는 아래와 같은 옵션 및 환경변수 설정에 유의해야 한다. 1 select-mpi-[shell] 명령어를 이용하여 job 실행환경 선택 $ select-mpi-bash [mvapich openmpi] [pgi intel gnu] 2 노드 MPI process수 / 전체 MPI task(cpu) 수 명시 #$ -pe mpi_{mpi_task(cpu)_per_node}cpu {Total_MPI_task(CPU)} #$ -pe mpi_4cpu 16 # 노드당 4개의 MPI task를 사용하고, # 전체 MPI task는 16개가 된다. 3 MPI 타스크 당 OpenMP 쓰레드 수를 의미하는 옵션으로 OMP_NUM_THREADS 리소스 지정 #$ -l OMP_NUM_THREADS={OpenMP_threads_per_MPI_task} #$ -l OMP_NUM_THREADS=4 # total openmp thread = 16 x 4 = 64 4 MPI task 당 OpenMP thread 수를 OMP_NUM_THREADS 환경변수로 명시 export OMP_NUM_THREADS=4 #!/bin/bash #$ -V # 작업 제출 노드의 쉘 환경변수를 컴퓨팅 노드에도 적용 (default) #$ -cwd # 현재 디렉터리를 작업 디렉터리로 사용 #$ -N hybrid_job # Job Name, 명시하지 않으면 job_script 이름을 가져옴 #$ -pe mpi_4cpu 16 # 전체 MPI task(cpu) 16개, 노드 당 MPI task(cpu) 4개 #$ -q normal # Queue name #$ -R yes # Resource Reservation ##$ -wd /work02/<user01>/hybrid # 작업 디렉터리를 설정. 현재 디렉토리(PWD)가 # /lustre1/<user01>/hybrid가 아닌 경우 사용, # 그렇지 않으면 cwd로 충분함 #$ -l h_rt=01:00:00 # 작업 경과 시간 (hh:mm:ss) (wall clock time), 누락 시 강제 작업 종료 #$ -l normal # normal queue에 job실행 시 다른 queue보다 높은 priority를 # 얻기 위해 반드시 명시, 누락 시 작업 강제 종료 #$ -l OMP_NUM_THREADS=4 # MPI 타스크 당 OpenMP 쓰레드 수를 의미하며, 아래 # OMP_NUM_THREADS 환경변수 에서 명기한 OpenMP # 쓰레드 숫자와 동일한 값 지정. 누락 시 작업 강제 종료 #$ -M myemailaddress # 작업 관련 메일을 보낼 사용자 메일 주소 #$ -m e # 작업 종료 시에 메일을 보냄 export OMP_NUM_THREADS=4 mpirun -machinefile $TMPDIR/machines -np $NSLOTS./hybrid.exe - 27 -

거대 도전과제(Grand Challenge) 과제 계정(G1/G2)의 작업제출 예제 거대 도전과제의 경우 G1/G2 계정에 따라 사용할 수 있는 최소 코어수가 아래와 같이 제한된다. 구분 최소 core 수 G1 128 G2 256 또한 G1/G2 계정을 통해서는 strategy 큐만을 사용해야 하며 long 또는 normal 큐를 사용할 수 없다. strategy 큐를 사용하는 MPI batch 작업의 제출 예제는 다음과 같다. #!/bin/bash #$ -V # 작업 제출 노드의 쉘 환경변수를 컴퓨팅 노드에도 적용 (default) #$ -cwd # 현재 디렉터리를 작업 디렉터리로 사용 #$ -N mvapich_job # Job Name, 명시하지 않으면 job_script 이름을 가져옴 #$ -pe mpi_16cpu 256 # G1 계정의 경우 128, G2 계정의 경우 256 #$ -q strategy # G1/G2 계정의 경우 strategy 큐만을 사용할 수 있음 #$ -l str # "-l normal" 대신 이것을 사용해야 함 #$ -R yes # Resource Reservation #$ -l h_rt=01:00:00 # 작업 예상 시간(wall clock time), 누락 시 강제 작업 종료 mpirun -machinefile $TMPDIR/machines -np $NSLOTS./mpi_program.exe 일부 작업의 경우 SGE 쪽의 bug로 인해 사용자가 큐의 조건에 부합하지 않는 작업을 제출할 경우 자동 종료하는 것이 아니라 qw 상태에 머무는 경우가 있습니다. 이와 같은 증상이 오랫동안 지속될 경우 관리자에게 알려주시기 바랍니다. - 28 -

작업 스크립트 옵션 리스트 옵션 Argument 기 능 -q queue_name 작업을 수행할 queue 명시 Parallel Environment를 선택하고, min_proc-max_proc 개수 만큼의 병렬 process를 수행 mpi_rr : 라운드 로빈 방식으로 노드의 CPU 할당 mpi_fu : 각 노드의 비어있는 CPU를 꽉 채워서 할당 -pe pe_name min_proc[-max_proc] mpi_[1-16]cpu : 정해진(범위 : 1-16) 숫자 만큼 노드의 CPU 할당 openmp : 순수한 openmp 프로그램의 쓰레드를 위한 CPU 할당 mpi의 종류[mvapich,openmpi]는 select-mpi-[bash,csh,ksh] 스크립트로 미리 선택함. -N job_name Job의 이름을 정해줌 Batch 작업의 shell을 지정. 미 지정 시 SGE가 지정한 shell -S shell (absolute path) 로 수행(/bin/bash) -M Email address 사용자의 email address를 명시 언제 email notification을 보낼 지 명시 b: Mail is sent at the beginning of the job. e: Mail is sent at the end of the job. -m {b e a s n} a: Mail is sent when the job is aborted or rescheduled s: Mail is sent when the job is suspended. n: No mail is sent. (default) 사용자의 현재 shell의 모든 환경변수가 qsub시에 job에 적용 -V 되도록 함 -cwd 현재 디렉터리를 job의 working directory로 사용.(default) -o output_file Job의 stdout 결과를 output_file 로 저장 -e error_file Job의 stderr 결과를 error_file 로 저장 Resource limit을 지정 h_rt : 작업경과 예상시간 (hh:mm:ss) (wall clock time) normal : normal 큐에 작업 제출 시 Job이 높은 우선순위 를 얻기 위해 반드시 명시 ( -l normal 혹은 -l normal=true ) strategy : strategy 큐에 작업 제출 시 작업이 높은 우선 순위를 얻기 위해 반드시 명시 ( -l strategy 혹은 -l strategy=true ) -l resource=value OMP_NUM_THREADS : MPI 타스크 당 쓰레드 수를 의미하며, hybrid[mpi+openmp] 병렬 작업 실행 시 반드시 명기 (-l OMP_NUM_THREADS=[MPI 타스크 당 OpenMP 쓰레드 수]) normal, strategy 큐를 제외한 다른 큐는 -l 옵션으로 기본 priority이기 때문에 큐 이름을 명시할 필요 없음. 추후 변경 시 공지 예정 - 29 -

dependancy가 있는 다수 작업 제출 예제 KISTI TACHYON 사용자 지침서 1 Job_A 가 끝난 후 Job_B 가 실행되어야 하는 경우 # qsub Job_A.sh (Jobname은 Job_A라고 가정) Your job 504 ("Job_A") has been submitted # qsub -hold_jid Job_A job_b.sh 혹은 # qsub -hold_jid 504 job_b.sh 2 Job_A와 job_b 가 끝난 후 Job_C 가 실행되어야 하는 경우 # qsub Job_A.sh (Jobname은 Job_A라고 가정) Your job 504 ("Job_A") has been submitted # qsub Job_B.sh (Jobname은 Job_B라고 가정) Your job 505 ("Job_B") has been submitted # qsub -hold_jid Job_A,Job_B Job_C.sh 혹은 # qsub -hold_jid 504,505 Job_C.sh - 30 -

2) 작업 모니터링 작업 제출 후에, 사용자는 qstat 명령을 이용하여 job의 상태를 모니터링 할 수 있다 기본 작업 정보 $ qstat (사용자 자신) job-id prior name user state submit/start at queue slots ja-task-id ----------------------------------------------------------------------------------------- 254 0.55500 work6 user1 r 04/02/2008 10:13:09 bmt.q@tachyon087 1 253 0.55500 work5 user1 r 04/01/2008 03:44:20 bmt.q@tachyon035 1 252 0.55500 work7 user1 r 04/01/2008 11:54:34 bmt.q@tachyon035 1 $ qstat -u '*' (모든 사용자) qstat 명령을 사용하면 사용자 자신이 제출한 job들의 작업정보를 확인할 수 있다. 상기 예제는 user1 사용자가 qstat명령을 수행하였을 때 나타난 화면이다. user1 사용자는 work5,6,7이라는 작업을 제출하였고, 그 작업들은 각각 253, 254, 252의 job-id를 갖게 되었다는 정보가 나타난다. 각각의 job의 상태는 r(unning)이고, 각 작업당 1개의 태스크가 동작중임이 표현되어 있다. job의 상태는 r(unning), t(temporary: 상태 변경중), u(nknown), s(uspended), a(larm), d(isabled), E(rror), qw(queue waiting)등과 같이 표현된다. qstat -u "*" 와 같이 입력하면 모든 사용자가 제출한 작업에 대해서 확인할 수 있다. 상세 작업 정보 $ qstat f u "*" queuename qtype used/tot. load_avg arch states ---------------------------------------------------------------------------- all.q@davinci02 BIP 1/4 0.14 lx24-amd64 257 0.55500 sleep root r 04/01/2008 10:49:54 1 ---------------------------------------------------------------------------- all.q@davinci03 BIP 1/4 0.13 lx24-amd64 258 0.55500 sleep root r 04/01/2008 10:49:54 1 ---------------------------------------------------------------------------- all.q@davinci04 BIP 2/4 0.01 lx24-amd64 256 0.55500 sleep root r 04/01/2008 10:49:54 1 261 0.55500 sleep sgeadmin r 04/01/2008 10:50:09 1 ---------------------------------------------------------------------------- all.q@grid01 BIP 1/4 0.36 lx24-amd64 259 0.55500 sleep sgeadmin r 04/01/2008 10:50:09 1 qstat -f 의 명령을 사용하면, 각 queue의 세부 동작상태를 확인할 수 있다. queue별로 queue type, 사용된 queue/total queue, 평균 load, queue의 status등을 확인할 수 있고, 더불어 그 queue에서 동작하고 있는 job들의 정보도 확인할 수 있다. - 31 -

Pending 작업에 대한 상세 정보[Pending 이유] 출력 $ qstat -j job_id $ qalter -w v job_id Option Result no option 명령을 실행한 사용자 job의 상세 list를 보여줌 -f 명령을 실행한 사용자에 대한 queue와 job의 상세 리스트를 보여줌 -u user_id 명시한 user_id에 대한 상태를 보여줌. u "*"는 전체 사용자의 상태를 보여줌. 주로 f 옵션과 함께 쓰임. -r Job의 resource requirement를 display -ext Job의 Extended information을 display -j <jobid> Pending/running job에 대한 information을 보여줌 -t Job의 subtask에 대한 추가 정보 display [ qstat 옵션 ] 3) 노드 상태 모니터링 $ showhost HOSTNAME ARCH NCPU(AVAIL/TOT) LOAD MEMTOT MEMUSE SWAPTO SWAPUS ----------------------------------------------------------------------------------- tachyon001 lx24-amd64 0/16 16.03 31.4G 2.7G 0.0 0.0 tachyon002 lx24-amd64 0/16 16.00 31.4G 3.7G 0.0 0.0 tachyon003 lx24-amd64 0/16 16.04 31.4G 3.7G 0.0 0.0 tachyon004 lx24-amd64 0/16 16.03 31.4G 3.7G 0.0 0.0 tachyon005 lx24-amd64 1/16 15.53 31.4G 3.6G 0.0 0.0 tachyon006 lx24-amd64 0/16 16.00 31.4G 3.7G 0.0 0.0 tachyon007 lx24-amd64 0/16 16.01 31.4G 3.7G 0.0 0.0 tachyon008 lx24-amd64 2/16 14.03 31.4G 3.4G 0.0 0.0 tachyon009 lx24-amd64 0/16 16.00 31.4G 3.7G 0.0 0.0 tachyon010 lx24-amd64 0/16 16.03 31.4G 3.7G 0.0 0.0 tachyon011 lx24-amd64 0/16 16.03 31.4G 3.7G 0.0 0.0 tachyon012 lx24-amd64 0/16 16.02 31.4G 3.7G 0.0 0.0 tachyon013 lx24-amd64 0/16 16.03 31.4G 3.7G 0.0 0.0-32 -

다. 작업 제어 작업 삭제 사용자는 qdel 명령을 이용하여 pending/running job을 queue로부터 삭제할 수 있다 $ qdel <jobid> : 해당 <jobid>를 가지는 작업 삭제 $ qdel -u <username> : <username>의 모든 작업 삭제 작업 suspend/resume 사용자는 qmod 명령을 이용하여 running 상태의 job을 suspend/resume할 수 있다 $ qmod -sj <jobid> # suspend job $ qmod usj <jobid> # unsuspend(resume) job 사용자 지원 - 시스템 기술지원 : 홍태영, 042) 869-0667, tyhong@kisti.re.kr - 계정 지원 : 김성준, 042) 869-0636, sjkim@kisti.re.kr - 사용자교육 지원 : 이홍석, 042) 869-0579, hsyi@kisti.re.kr - 홈페이지 : http://www.ksc.re.kr - 33 -