> qsub -l hostname=compute-1-10 sample.sh
Posted by 옥탑방람보
,

Cluster Setting

<다운로드>

OS: Rocks Clusters 5.1 (http://rocksclusters.org)

Job manager: Torque 2.4 (http://www.clusterresources.com/products/torque-resource-manager.php)

Install document: http://www.rocksclusters.org/rocks-documentation/4.3/install-frontend.html

 

<준비사항> OS, DVD-ROM, Torque roll이 담긴 CD (선택사항)

 

<설치>

1) Frontend 설치

1. 네트웍선은 eth1에 연결하여 외부로 연결되는 스위치에 연결

2. Eth0는 사설 IP 연결, Eth1 public IP 연결 (변경가능)

3. 사설 IP는 내부 네트워망에서 쓰는 IP cluster에서 각 노드들을 묶어 주는 스위치단에서 할당된다. Public IP는 우리가 보통 쓰는 IP

2) OS 설치

1. DVD넣은 후 화면상에 build 입력하여 frontend로 들어간다. (Computing노드로 들어갈 때에는 그냥 엔터) (IP를 넣으라는 화면이 나오면 back버튼을 눌러야 되는 <= 이런 어이없는 경우 있음)

2. Local Rolls는 로칼머신에 필요한 패키지 설치이다. 여기에서 base, ganglia, hpc, kernel, os, sge는 반드시 필요한 것들이며 나머지들도 필요시 설치해준다.

3. SGE대신 Torque설치시에는 여기에서 Torque roll 담긴 CD를 이용하여 roll을 띄워 같이 설치한다.

4. Ethernet Configuration for eth0이 나오면 설정을 바꾸지 않고 바로 다음으로 넘어간다. (사설아이피 세팅, 사설아이피 대역 설정필요시 여기서 조정가능)

5. Ethernet Configuration for eth1이 나오면 적절한 IP등을 넣어준다. IP, Netmask, Gateway, DNS

6. manual partitioning 선택

7. /boot, /, swap, /export 잡아 줌. (/export 영역이 마스터와 노드가 공유하는 영역임)

8. SoftRaid 잡을 경우

1. RAID로 잡을 것들을 모두 software RAID로 잡는다.

2. 각 디스크들을 하나씩 지정하며 software RAID로 지정한다.

3. 모두 지정하고 나서 RAID라는 버튼을 누른다.

4. RAID 타입을 설정한다.

RAID 0는 전체의 디스크를 하나로 쓰게 하는 것이다.

RAID 1 mirroring하는 형태이다. 같은 내용을 두개의 다른 disk에 똑같이 쓴다.

RAID 5 RAID 0 RAID 1의 혼합형태로 하나의 disk spare가 되고 하나의 디스크가 문제가 발생시 복구 되는 형태이다. 경로는 /export 로 지정한다.

3) Computing node 설치

1. frontend의 터미널상에서 insert_ethers 명령 실행

2. computing 노드를 인식할 수 있는 모드로 들어간다. (옵션 중 제일 위의 compute 선택)

3. 각노드의 PXE부팅(F12) → 안되면 각 노드 전원 켜고 rocks CD 넣는다.

4. 이 과정을 모든 노드에 반복한다. 단 간격을 주고 해야 순서대로 인식이 된다.

5. 특정 호스트에 노드 붙이는 방법(c0-4에 붙이고자할때): insert-ethers --cabinet=0 --rank=4

6. 만약 노드를 물지 않는 것이 생긴다면… 물지 않은 노드 한뒤 다시 인식시켜준다.

insert_ethers --remove hostname 명령을 이용한다.

insert-ethers --remove="compute-0-1"

4) Ganglia 세팅

1. 방화벽 세팅

1. iptable 80포트 오픈(root권한, /etc/sysconfig)

2. Disable setlinux

2. Configuration

1. /etc/gmetad.conf   /etc/gmond.conf 파일을 수정해야한다.

2. Gmetad.conf 수정

파일을 열면 data_source  “Cluster1” localhost:8649 부분이 있다.

여기에 다른 서버 정보를 추가하면 된다.

) data_source “Cluster2” IP_ADDRESS

3. Gmond.conf 수정

trusted_hosts  IP_ADDRESS

이 줄을 추가하면 이 로칼 서버의 모니터링 정보가IP_ADDRESS서버로 전송되어진다.

IP_ADDRESS 주소서버의 ganglia를 보면 이 로칼 서버의 정보가 모니터링 되어진다.

/etc/init.d/gmetad restart

     /etc/init.d/gmond restart

5) User 세팅

1. 기존 유저정보 있다면 다음 파일에 존재하는 정보를 옮겨온다 /etc/shadow, /etc/group, /etc/passwd

2. User추가에 있어

1. adduser USERNAME

2. passwd USERNAME

3. su USERNAME

4. rocks sync users (root권한으로 su -)

6) 기타세팅

1. frontend nfs 이용시 ( default ) 성능향상 옵션

> vi /etc/sysconfig/nfs

RPCNFSDCOUNT=64  <-------- 계산노드의 숫자보다 높게 설정

2. isilon 장비 (스토리지) 이용시 성능향상 옵션

> vi /etc/auto.master

/share /etc/auto.share --timeout=1200

/home /etc/auto.home --rsize=32768,wsize=32768,hard,intr

상기와 같이 수정후 저장.

아래의 명령으로 /etc/auto.master file 복사 및 autofs reload 실시함.

> rocks sync config

> rocks run host "service autofs reload"

Posted by 옥탑방람보
,
Exception in thread "main" java.lang.RuntimeException: SAM validation error: ERROR: Record 62094965, Read name ILLUMINA-A16956_100211:4:14:19403:10471#0, MAPQ should be 0 for unmapped read

이러한 에러 발생시,

VALIDATION_STRINGENCY=
LENIENT

옵션을 추가해준다.


This is a common problem, and you'll run into it with all the Picard suite of tools.

There's a setting that goes something like VALIDATION_STRINGENCY, and if you set it to LENIENT, it will complain about those reads, but it won't stop on them.

This happens with bwa, because it concatenates reference sequence, which leads to slightly odd things happening when a read aligns over the overlap. So this might be the source of your problem. Regardless of what's causing it, you can examine the problem reads, and cut them out, or change the stringency to let them go through.

 
Posted by 옥탑방람보
,
SGE would not read your .bashrc or .bash_profile when starting jobs.
You need to include -V or -v option.
ex) qsub -V -cwd -j y script.sh

-V
Specifies that all environment variables active within the qsub utility be exported to the context of the job.
  
-v variable[=value],...
Defines or redefines the environment variables to be exported to the execution context of the job. If the -v option is present Grid Engine will add the environment variables defined as arguments to the switch and, optionally, values of specified variables, to the execution context of the job.

You can also set as default option.
> vi /opt/gridengine/default/common/sge_request
(ADD) -V


이옵션을 쓰게 되면 NFS로 물린 각 계정 내에 설정된 설정정보 뿐 아니라 /etc/bashrc 등 마스터에 글로벌하게 설정된 설정정보도 다 가지고 간다. 따라서 각 노드에 직접 접속하여서는 설정이 적용되지 않지만 SGE를 통해서 적용되는 현상이 발생될 수 있다.
Posted by 옥탑방람보
,
java -jar MarkDuplicates.jar INPUT=test.bam OUTPUT=test.marked.bam METRICS_FILE=test.txt TMP_DIR=. ASSUME_SORTED=true
Posted by 옥탑방람보
,
import inspec
print inspect.getfile( inspect.currentframe() )

import os
print os.path.abspath( __file__ )
 
import sys
sys._getframe().f_code.co_filename 
Posted by 옥탑방람보
,