http://www.bioconductor.org/about/mirrors/mirror-how-to/

 

1. 방화벽 오픈 - 873번

 

2. 데이터 다운로드

    $> rsync -zrtlv --delete bioconductor.org::2.11 /local/bioc/packages/2.11

3. 아파치에 연결

    $> ln -s /local/bioc /var/www/html/bioconductor

4. 연결 정보 변경

5. bioconductor 설치

6. bioconductor 내 cran 사이트 설정부분 변경 및 brainarray 데이터 주소 삭제

    * biocLite() 시 시간이 오래 소요되는 원인을 찾는 중 확인된 사항임

    $bioconductor 미러서버> cd /local/bioc/packages/2.11/bioc/src/contrib/

    $bioconductor 미러서버> cp BiocInstaller_1.8.3.tar.gz BiocInstaller_1.8.3.tar.gz.ori

    $bioconductor 미러서버> tar xvfz BiocInstaller_1.8.3.tar.gz

    $bioconductor 미러서버> vim BiocInstaller/R/biocLite.R

      repos["CRAN"] <- "http://XXX/cran"   #86번째줄의 정보를 구축된 미러사이트 주소로 변경

      #repos[["MBNI"]] <- mbniUrl   #89번째줄의 내용을 주석처리함 (추후 http://brainarray.mbni.med.umich.edu/bioc 데이터 받고 나면 mbniUrl 부분을 데이터 받은 서버 주소로 변경해서 반영할 필요 있음)

    $bioconductor 미러서버> tar cvfz BiocInstaller_1.8.3.tar.gz BiocInstaller

     

    $설치할 서버> cd /home/bio/install/R/library/BiocInstaller

    $설치할 서버> R

    $R> source("http://XXX/bioconductor/packages/2.11/biocLite.R")

    $R> biocLite()

Posted by 옥탑방람보
,

<Cran Mirror Howto>

http://cran.r-project.org/mirror-howto.html

1. (미러서버) 방화벽 오픈

    ftp.kaist.ac.kr (21,22,80,873)

    cran.r-project.org (21,22,80,873) - 873만 뚫으면 됨.

2. (미러서버) rsync로 데이터 동기화

    rsync -rtlzv --delete cran.r-project.org::CRAN /local/cran/    # kaist의 경우 ftp.kaist.ac.kr::cran (소문자)

3. (미러서버) 아파치 구동 (외부로 80포트 뚫여있어야 함)

    $> vi /etc/httpd/conf/httpd.conf

    ...

    LoadModule rewrite_module modules/mod_rewrite.so       # uncomment

    ...

    AddType text/html .shtml

    ...

    AddHander server-parsed .shtml

    ...

    RewriteEngine on

    RewriteRule /cran/package=(.+) /cran/web/packages/$1/index.html [R=seeother]   # http://XXX/cran/ 을 홈디렉토리로 사용할 경우

    RewriteRule /cran/view=(.+) /cran/web/views/$1.html [R=seeother]

    $> /etc/init.d/httpd restart

4. (클라이언트 서버) CRAN repository 사이트 설정

    $> touch R_HOME/etc/Rprofile.site  # touch /usr/lib64/R/etc/Rprofile.site

    $> cd R_HOME/etc/Rprofile.site

    $> vi Rprofile.site

    options(repos=c(CRAN="http://미러서버아이피/cran"))

     

<rocks clusters>

$> cp R_HOME/etc/Rprofile.site /export

$> rocks run host "mount -t nfs masterHostName:/export /mnt"

$> rocks run host "cp /mnt/Rprofile.site R_HOME/etc/"

$> rocks run host "umount /mnt"

$> rm /export/Rprofile.site

 

* 완료 테스트

R> install.packages("ggplot2")  # over R version 2.14

R> install.packages("ENmisc")

 

Posted by 옥탑방람보
,

<minicpan 을 이용한 미러사이트 구축>

 

1. (미러서비스 서버) 방화벽 오픈

    http://ftp.kaist.ac.kr/CPAN (80)

    ftp://ftp.kaist.ac.kr/CPAN (21)

    기타 미러사이트로 가는 80, 21번 포트 (둘 중 하나만 오픈되어 있으면 됨)

    * 만약 rsync로 지속적 업데이터 원한다면 873 포트 오픈 필요

    ($> rsync -av --delete ftp.kaist.ac.kr::cpan /local/cpan/)

 2. (미러서비스 서버) 관련 모듈 설치 (minicpan을 실행시키기 위해)

    CentoOS 5.4 의 경우 아래와 같은 모듈 설치가 필요하였다.

    (다운로드는 www.cpan.org 에서)

    CPAN::Mini

    Encode::Locale

    File::HomeDir

    File::PATH

    File::Which

    HTTP::Message

    Scalar::List::Utils

    libwww::perl

3. (미러서비스 서버) minicpan 실행 (미러사이트로 부터 패키지들 다운로드)

4. (미러서비스 서버) internal mirror 사이트로 서비스 하기 위해 ftp 설정

    21번 외부 방화벽 오픈

    $> vi /etc/vsftpd/vsftpd.conf

      anon_root=/local/   # ftp 서비스 홈디렉토리 변경

5. (cpan 사용할 서버) cpan을 사용할 서버에서 internal mirror cpan ftp 서비스가 실행중인 서버를 바라보게 설정

    $> cpan   # 이 명령어 실행 후 미러사이트 설정하는 부분에서 internal mirror 사이트 주소 입력 (예, ftp://XXX.XXX.XXX/cpan/)

    (cpan 의 Config.pm 파일 위치 파악이 필요, cpan 실행 한번은 해야 Contig.pm 파일 생성됨)

    (CentOS 의 경우 /usr/lib/perl5/5.8.8/CPAN/Contig.pm)

     

    <rocks clusters>

    $> cp /usr/lib/perl5/5.8.8./CPAN/Config.pm /export

    $> rocks run host "mount -t nfs masterHostName:/export/ /mnt"

    $> rocks run host "cp /mnt/Config.pm /usr/lib/perl5/5.8.8/CPAN/"

    $> rocks run host "umount /mnt"

 

'TA > Common' 카테고리의 다른 글

[bioconductor] bioconductor 미러사이트 구축  (0) 2012.12.24
[cran] cran internal mirror 사이트 구축  (0) 2012.12.24
[ssh] ssh 접속시 root 접속 제한  (0) 2012.12.24
[iptables]  (0) 2012.12.24
[linux] chattr, lsattr  (0) 2012.12.13
Posted by 옥탑방람보
,

<ssh 접속시 root 접속 제한>

 

1. 파일 수정

$> vi /etc/ssh/sshd_config

PermitRootLogin no #수정

 

2. 데몬 재시작

$> /etc/init.d/sshd reload #접속해 있는 사용자에게 영향 없음

 

<사용자 중 특정 사용자만 "su -" 명령 가능>

 

1. 명령어 실행

$> usermod -G whell USERID

 

2. 파일 수정 (주석제거)

$> vi /etc/pam.d/su

auth required pam_wheel.so use_uid

 

3. 테스트

$> USERID 로 접속하여 su - 되는지 확인

'TA > Common' 카테고리의 다른 글

[cran] cran internal mirror 사이트 구축  (0) 2012.12.24
[cpan] cpan internal mirror 사이트 구축  (0) 2012.12.24
[iptables]  (0) 2012.12.24
[linux] chattr, lsattr  (0) 2012.12.13
[syslog] syslog를 이용한 로그 데이터 수집 및 파싱  (0) 2012.12.13
Posted by 옥탑방람보
,

[iptables]

TA/Common 2012. 12. 24. 11:15

1. hosts.allow, hosts.deny 파일에 적용된 접속 차단 사례가 있는지 확인

 

2. iptables disable

    $> /etc/sysconfig/iptables stop

 

3. 새로운 규칙 적용 (예)

    $> vi /etc/sysconfig/iptables

    # Generated by iptables-save v1.3.5 on Tue Sep 18 17:55:36 2012

    *filter

    :INPUT ACCEPT [454:58836]

    :FORWARD ACCEPT [0:0]

    :OUTPUT ACCEPT [735:221237]

    -A INPUT -m state --state RELATED,ESTABLISHED -j ACCEPT

    -A INPUT -p icmp -j ACCEPT

    -A INPUT -i lo -j ACCEPT

    -A INPUT -s XXX.XXX.XXX.XXX -j ACCEPT                  #특정 IP에 대해 접속 허용

    -A INPUT -s XXX.XXX.XXX.0/255.255.255.0 -j ACCEPT   # c클래스 접속 허용

    -A INPUT -m iprange --src-range XXX.XXX.XXX.1-XXX.XXX.XXX.60 -j ACCEPT   #IP범위 지정해서 접속 허용 (1~60번)

    -A INPUT -m tcp -p tcp --dport 7201 -j ACCEPT            #특정 포트에 대해 모든 IP에서 접속 허용

    -A INPUT -j LOG --log-level 4

    -A INPUT -j REJECT --reject-with icmp-host-prohibited

    -A FORWARD -j REJECT --reject-with icmp-host-prohibited

    COMMIT

4. run level 적용

    $> chkconfig --level 345 iptables on

 

5. chattr 적용

    $> chattr +i /etc/sysconfig/iptables

 

6. iptables 시작

    $> /etc/init.d/iptables  start

 

7. iptables 적용 확인

    $> iptables -vnL

 

<rocks cluster 경우>

1. master 의 적용은 위와 같이 해결

2. computing node에 적용

  $> cp /etc/syscofig/iptables /export/

  $> rocks run host "mount -t nfs XXX.XXX.XXX(마스터아이피):/export /mnt"

  $> chmod 644 /export/iptables

  $> rocks run host "cp /mnt/iptables /etc/sysconfig/"

  $> rocks run host "umount /mnt"

  $> rocks run host "chkconfig --level 345 iptables on"

  $> rocks run host "chattr +i /etc/sysconfig/iptables"

  $> rocks run host "/etc/init.d/iptables start"

  $> rocks run host "hostname;iptables -nvL | grep someting"

Posted by 옥탑방람보
,

$root> qconf -ap serial

    slots = 9999

$root> qsub -cwd -pe serial 6 test.sh

 

'TA > Cluster' 카테고리의 다른 글

[sge] queue management in SGE  (0) 2012.12.24
[sge] SGE qsub bashrc bash_profile  (0) 2012.12.24
[sge] qsub 할때 default option 값 지정해두는 방법  (0) 2012.12.24
[sge] sge qsub, qstat, qdel  (0) 2012.12.24
[sge] sge queue 그룹 관리  (0) 2012.12.24
Posted by 옥탑방람보
,

qsub 할때 default option 값 지정해두는 방법

$> vi /opt/gridengine/default/common/sge_request

파일내에 넣어주면 된다.

 

예)

유저의 환경설정 상태를 그대로 가지고 가는 옵션 인 -V 를 이 파일내에 넣어준다.

'TA > Cluster' 카테고리의 다른 글

[sge] SGE qsub bashrc bash_profile  (0) 2012.12.24
[sge] qsub 할때 slot 수 할당하는 방법  (0) 2012.12.24
[sge] sge qsub, qstat, qdel  (0) 2012.12.24
[sge] sge queue 그룹 관리  (0) 2012.12.24
[useradd] 클러스터에서 계정 추가  (0) 2012.12.24
Posted by 옥탑방람보
,

1. job 제출

    $> qsub [jobname]  

    $> qsub -cwd [jobname]  # 현재 디렉토리에 STDOUT, STDERROR 씀.

    $> qsub -j y [jobname]  # STDOUT, STDERROR 를 같은 파일에 씀.

    $> qsub -q [queuename] [jobname] # 지정된 queuename 에만 job을 던짐.

    $> qsub -l hostname=[hostname] [jobname] # 지정된 hostname 에만 job을 던짐. 예) qsub -l hostname=compute-0-1

    $> qsub -S [path] [jobname]  # path 실행파일로 job을 실행 예) qsub -S /usr/bin/python sample.py

2. job 삭제

    $> qdel [jobid]  # 지정된 jobid 를 삭제

    $> qdel -u [userid]  # 지정된 userid 가 던진 job은 모두 삭제

    $> qdel -f  # 강제로 job을 삭제 (Eqw 등 되어진 상황에서는 sge 상 정보만 삭제하게 됨. 실제 노드에서는 돌고 있음)

3. job 모니터링

    $> qstat

    $> qstat -u "[userid]" # 지정된 userid 가 던진 job을 모니터링  예) qdel -u "*"  모든 계정에 대해 잡 모니터링

Posted by 옥탑방람보
,

1. queue 그룹 생성

    $> qconf -aq rloa.q  #생성

    $> qconf -mq rloa.q  #관리

2. hosts 그룹 생성

    $> qconf -ahgrp @rloahosts # 생성 (반드시 hostanme 앞에는 @ 가 있어야 한다)

    $> qconf -mhgrp @rloahosts # 수정

      group_name @rloahosts

      hostslist  hostname-0-0.local hostname-0-1.local hostname-0-2.local

    $> qconf -shgrp @rloahosts # 보기

    $> qconf -mq rloa.q             # 반영

      hostlist            @rloahosts

3. user 그룹 생성

    $> qconf -am rloausers # 생성

    $> qconf -mu rloausers # 수정

      name rloausers

      type ACL DEPT

      fshare 0

      oticket 0

      entries userid1,userid2,userid3

    $> qconf -mq rloa.q       # 반영

       user_lists       rloausers

Posted by 옥탑방람보
,

<일반적인 경우>

$> useradd userid

$> passwd userid

$> su - userid  

$> exit

$> rocks sync users

 

<nas를 계정의 홈디렉토리로 사용하는 경우>

$> mount -t nfs XXX.XXX.XXX.XXX:/nas/data/home /mnt

$> useradd -d /mnt/userid userid

$> passwd userid

$> su - userid

$> vi /etc/passwd (root계정으로)  

   userid:x:501:501::/home/userid:/bin/bash   #home 디렉토리 위치를 /mnt/userid 에서 /home/userid 로 수정

$> vi /etc/auto.home

   userid   XXX.XXX.XXX.XXX:/nas/data/home/userid  #추가

$> su - userid

$> exit

$> umount /mnt

$> rocks sync users

 

== rocks syns users 했는데, 모든 노드에 설정이 반영되지 않을 때

$> rocks run host "411get --all; service autofs restart"

$> rocks sync users

 

== 위와 같이 해도 안될때 컴퓨팅 노드에 411 데몬 마스터 노드 아이피가 정확하게 입력되었는지 확인

$ compute-0-0> cat /etc/411.conf

만약 틀리게 입력되어 있으면 모든 노드에 있는 이 파일을 수정하고

$> rocks run host "411get --all; service autofs restart"

$> rocks sync users

Posted by 옥탑방람보
,