학과 서버 관리 - 운영 #365

Similar documents
휠세미나3 ver0.4

슬라이드 1

K7VT2_QIG_v3

Simplify your Job Automatic Storage Management DB TSC

Oracle Database 10g: Self-Managing Database DB TSC

Mango220 Android How to compile and Transfer image to Target

목차 BUG offline replicator 에서유효하지않은로그를읽을경우비정상종료할수있다... 3 BUG 각 partition 이서로다른 tablespace 를가지고, column type 이 CLOB 이며, 해당 table 을 truncate

PowerPoint Presentation

초보자를 위한 분산 캐시 활용 전략

Pacemaker/Corosync 클러스터에서 GFS2구성

리뉴얼 xtremI 최종 softcopy

ORANGE FOR ORACLE V4.0 INSTALLATION GUIDE (Online Upgrade) ORANGE CONFIGURATION ADMIN O

Tablespace On-Offline 테이블스페이스 온라인/오프라인

62

목 차

Mars OS System Administration Guide

zbrush 4r7 p3 crack macintoshinstmank

Microsoft PowerPoint - Linux_10gRAC_3Node

Microsoft PowerPoint - 알고리즘_1주차_2차시.pptx


Solaris System Administration

<4D F736F F F696E74202D20B8AEB4AABDBA20BFC0B7F920C3B3B8AEC7CFB1E22E BC8A3C8AF20B8F0B5E55D>

본교재는수업용으로제작된게시물입니다. 영리목적으로사용할경우저작권법제 30 조항에의거법적처벌을받을수있습니다. [ 실습 ] 스위치장비초기화 1. NVRAM 에저장되어있는 'startup-config' 파일이있다면, 삭제를실시한다. SWx>enable SWx#erase sta

4. #include <stdio.h> #include <stdlib.h> int main() { functiona(); } void functiona() { printf("hihi\n"); } warning: conflicting types for functiona

학과 서버 관리 - 운영 #328

DocsPin_Korean.pages

MySQL-Ch10

PowerPoint 프레젠테이션

Orcad Capture 9.x

NoSQL

Microsoft PowerPoint - eSlim SV [ ]

디지털포렌식학회 논문양식


Secure Programming Lecture1 : Introduction

solution map_....

PowerPoint Presentation

GNU/Linux 1, GNU/Linux MS-DOS LOADLIN DOS-MBR LILO DOS-MBR LILO... 6

The Self-Managing Database : Automatic Health Monitoring and Alerting

Microsoft PowerPoint Android-SDK설치.HelloAndroid(1.0h).pptx

Linux Server 리눅스왕초보실무를익혀라! 리눅스서버 20 fedora 김영훈ㆍ정거룡지음

°ø±â¾Ð±â±â


6.24-9년 6월

PCServerMgmt7

ETL_project_best_practice1.ppt

Sena Device Server Serial/IP TM Version

LXR 설치 및 사용법.doc

PowerPoint 프레젠테이션

Mango-AM335x LCD Type 커널 Module Parameter에서 변경하기

vm-웨어-01장

Analytics > Log & Crash Search > Unity ios SDK [Deprecated] Log & Crash Unity ios SDK. TOAST SDK. Log & Crash Unity SDK Log & Crash Search. Log & Cras

강의10

Integ

예제 1.1 ( 관계연산자 ) >> A=1:9, B=9-A A = B = >> tf = A>4 % 4 보다큰 A 의원소들을찾을경우 tf = >> tf = (A==B) % A

bn2019_2

알아 둘 사항 아이오드 제조사는 본 기기에 하드디스크를 포함하여 출고하지 않습니다. 따라서 하드디스크에 문제가 발생할 경우, 구매처 또는 해당 하드디스크 서비 스센터에 문의 하시기 바랍니다. 정해진 용도 외의 사용으로 발생한 문제에 대해서, 당사는 어떠한 책임도 지지

Windows Server 2012

28 THE ASIAN JOURNAL OF TEX [2] ko.tex [5]

Microsoft Word - HD-35 메뉴얼_0429_.doc

(72) 발명자 서진교 경기 용인시 수지구 풍덕천2동 1167 진산마을 삼성5차아파트526동 1004호 조필제 경기 용인시 풍덕천동 유스빌 401호 - 2 -

i n i n i n 1

제 9 도는 6제어항목의 세팅목표의 보기가 표시된 레이더 챠트(radar chart). 제 10 도는 제 6 도의 함수블럭(1C)에서 사용되는 각종 개성화 함수의 보기를 표시하는 테이블. 제 11a 도 제 11c 도까지는 각종 조건에 따라 제공되는 개성화함수의 변화의

MPLAB C18 C

Microsoft Word - LVM으로리눅스설치및운용.doc

목차 BUG DEQUEUE 의 WAIT TIME 이 1 초미만인경우, 설정한시간만큼대기하지않는문제가있습니다... 3 BUG [qp-select-pvo] group by 표현식에있는컬럼을참조하는집합연산이존재하지않으면결괏값오류가발생할수있습니다... 4

HWP Document

(01-16)유형아작중1-2_스피드.ps

화판_미용성형시술 정보집.0305

금오공대 컴퓨터공학전공 강의자료

Copyright 2012, Oracle and/or its affiliates. All rights reserved.,,,,,,,,,,,,,.,..., U.S. GOVERNMENT END USERS. Oracle programs, including any operat

github_introduction.key

4S 1차년도 평가 발표자료

Splentec V-WORM Quick Installation Guide Version: 1.0 Contact Information 올리브텍 주소 : 경기도성남시분당구구미로 11 ( 포인트타운 701호 ) URL: E-M

소개 TeraStation 을 구입해 주셔서 감사합니다! 이 사용 설명서는 TeraStation 구성 정보를 제공합니다. 제품은 계속 업데이트되므로, 이 설명서의 이미지 및 텍스트는 사용자가 보유 중인 TeraStation 에 표시 된 이미지 및 텍스트와 약간 다를 수

1

Microsoft PowerPoint - eSlim SV [080116]

Solaris Express Developer Edition

PowerPoint 프레젠테이션

단계

RHEV 2.2 인증서 만료 확인 및 갱신

vi 사용법

10-2 삼각형의닮음조건 p270 AD BE C ABC DE ABC 중 2 비상 10, 11 단원도형의닮음 (& 활용 ) - 2 -

Connection 8 22 UniSQLConnection / / 9 3 UniSQL OID SET

2008

<BCF6C1A4BBE7C7D72DB5F0C0DAC0CEBAD0B7F9C7A55FB0B3C1A4BEC828C3D6C1BE29345F E687770>

Contents I. 칼라스 네트워크 플레이어란 1. Pc-Fi를 넘어서 발전한 차세대 음악 플레이어 칼라스 네트워크 플레이어의 장점 3. 시스템 기본 구성

Oracle9i Real Application Clusters

PowerPoint 프레젠테이션

11¹Ú´ö±Ô

untitled

<31332DB9E9C6AEB7A2C7D8C5B72D3131C0E528BACEB7CF292E687770>

Microsoft PowerPoint - 6.pptx

±¹¹ÎÀºÇà-¸ñÂ÷Ãâ·Â¿Ï¼º

Microsoft PowerPoint - ch07.ppt

2주차

Citrix Workload Balancing 2.1 설치 가이드

_ _0.xls

(001~007)수능기적(적통)부속

Microsoft PowerPoint SDK설치.HelloAndroid(1.5h).pptx

Transcription:

학과서버관리 - 운영 #365 운영 # 354 ( 신규 ): 2017-02-19 작업 x3650 M3 에디스크추가설치 2017/03/01 16:34 - 성제호 상태 : 완료시작시간 : 2017/03/01 우선순위 : 보통완료기한 : 담당자 : 성제호진척도 : 100% 범주 : XenServer 추정시간 : 0.00 시간 목표버전 : v1.0 설명 XenServer 로사용중인 x3650 M3 에디스크 3 개를추가하였다. 3 개모두다른곳에서사용하다, 용도를다음과같이변경하여설치하였다. 2 개는 500GB 크기의 SAS 디스크 ( 현재고장나있는 x3650 M3 서버에설치되어있던 ) 1 개는 500GB 크기의 SSD 디스크 (FreeNAS 의 Cache 로사용하기위해개인적으로구입함 ) XenServer 에서사용하기위해서는 SR 이라는단위로초기화하여야하는데, 기존에이미사용중이던디스크 2 개와구별이어려워서이기회에목록을정리하려한다. 하위일감 : 운영 # 366: XenServer 의잘못된 PBD 정보를수정 완료 이력 #1-2017/03/01 16:36 - 성제호 현재사용중인로컬디스크는다음두개의 SR 로초기화되어있다. uuid ( RO) : 3bab78ce-0638-feed-2b9b-d4c5fd179825 name-label ( RW): Local storage name-description ( RW): host ( RO): xs1.cs.gnu.ac.kr allowed-operations (SRO): unplug; plug; PBD.create; update; PBD.d snapshot; VDI.create; VDI.destroy current-operations (SRO): VDIs (SRO): f1f4763d-68e6-4d41-8d57-263d94b38fe1; b 92ee8e541; 8fa1636d-2b7a-48f9-a13b-4981ccb16156; 2ab43af3-45aa-4bca-aeb PBDs (SRO): c77e3c1a-a170-c247-cd83-72ebf5a1904a virtual-allocation ( RO): 382252089344 physical-utilisation ( RO): 383036424192 physical-size ( RO): 590394425344 type ( RO): lvm content-type ( RO): user shared ( RW): false introduced-by ( RO): <not in database> is-tools-sr ( RO): false other-config (MRW): i18n-original-value-name_label: Local s sm-config (MRO): allocation: thick; use_vhd: true; devse 5e71f160ec blobs ( RO): local-cache-enabled ( RO): false tags (SRW): clustered ( RO): false uuid ( RO) : 6c425b59-c520-be17-cbcd-32e23ad89171 name-label ( RW): Local storage 2 name-description ( RW): host ( RO): xs1.cs.gnu.ac.kr allowed-operations (SRO): unplug; plug; PBD.create; update; PBD.d snapshot; VDI.create; VDI.destroy current-operations (SRO): VDIs (SRO): 56d00ab4-c79f-42db-b426-c98d4219fb46; 6 78fa3aa8; d82977df-308d-4bf3-bb8d-cca430028960; 32a52e65-ede5-4234-9614 007d3cdeb1 PBDs (SRO): 7c00b1dd-5b0e-2f47-16f8-fbbca318949b virtual-allocation ( RO): 508953624576 2018/12/03 1/10

physical-utilisation ( RO): 509993811968 physical-size ( RO): 598984359936 type ( RO): lvm content-type ( RO): shared ( RW): false introduced-by ( RO): <not in database> is-tools-sr ( RO): false other-config (MRW): sm-config (MRO): allocation: thick; use_vhd: true; devse 8a6f0766a9 blobs ( RO): local-cache-enabled ( RO): false tags (SRW): clustered ( RO): false SR 은 XenServer 입장에서보면추상화된스토리지저장소이다. SR 의이면의물리장치는감춰져있는데, 이는 PBD (Physical Block Device) 라고부른다. 3bab78ce-0638-feed-2b9b-d4c5fd179825 (Local Storage) 의 PBD [root@xs1 ~]# xe pbd-list uuid=6c425b59-c520-be17-cbcd-32e23ad89171 uuid ( RO) : c77e3c1a-a170-c247-cd83-72ebf5a1904a host ( RO) [DEPRECATED]: f899fdf6-fbad-4e28-973a-b74e706f980c host-uuid ( RO): f899fdf6-fbad-4e28-973a-b74e706f980c host-name-label ( RO): xs1.cs.gnu.ac.kr sr-uuid ( RO): 3bab78ce-0638-feed-2b9b-d4c5fd179825 sr-name-label ( RO): Local storage device-config (MRO): device: /dev/disk/by-id/scsi-3600605b00 currently-attached ( RO): true other-config (MRW): storage_driver_domain: OpaqueRef:1d04e8 6c425b59-c520-be17-cbcd-32e23ad89171 (Local Storage 1) 의 PBD [root@xs1 ~]# xe pbd-list uuid=7c00b1dd-5b0e-2f47-16f8-fbbca318949b p uuid ( RO) : 7c00b1dd-5b0e-2f47-16f8-fbbca318949b host ( RO) [DEPRECATED]: f899fdf6-fbad-4e28-973a-b74e706f980c host-uuid ( RO): f899fdf6-fbad-4e28-973a-b74e706f980c host-name-label ( RO): xs1.cs.gnu.ac.kr sr-uuid ( RO): 6c425b59-c520-be17-cbcd-32e23ad89171 sr-name-label ( RO): Local storage 2 device-config (MRO): device: /dev/sdb currently-attached ( RO): true other-config (MRW): storage_driver_domain: OpaqueRef:1d04e8 device-config 의정보를확인하여, 해당 SR 을생성할때사용된디스크의인식자를확인할수있다. 안타깝게도, /dev/sdb 와같은형태의인식자는디스크의설치순서에따라변동될수있으므로, /dev/disk/by-i 고유번호로생성하는것이옳다. 2018/12/03 2/10

#2-2017/03/01 16:48 - 성제호 디스크의 id 별로설치된목록을추려보면다음과같다. [root@xs1 ~]# ls -l1 /dev/disk/by-id/scsi-3600605b00* lrwxrwxrwx 1 root root 9 2월 24 06:40 /dev/disk/by-id/scsi-3600605b003 lrwxrwxrwx 1 root root 9 2월 24 06:40 /dev/disk/by-id/scsi-3600605b003 lrwxrwxrwx 1 root root 9 2월 24 06:40 /dev/disk/by-id/scsi-3600605b003 lrwxrwxrwx 1 root root 9 2월 24 06:40 /dev/disk/by-id/scsi-3600605b004 lrwxrwxrwx 1 root root 10 2월 24 06:40 /dev/disk/by-id/scsi-3600605b004 d1 lrwxrwxrwx 1 root root 10 2월 24 06:40 /dev/disk/by-id/scsi-3600605b004 d2 lrwxrwxrwx 1 root root 10 2월 24 06:40 /dev/disk/by-id/scsi-3600605b004 d3 lrwxrwxrwx 1 root root 10 2월 24 06:40 /dev/disk/by-id/scsi-3600605b004 d4 lrwxrwxrwx 1 root root 9 3월 1 16:22 /dev/disk/by-id/scsi-3600605b004 현재이미사용중인디스크는다음의두개이다. scsi-3600605b004a372701e75955e71f160ec (/dev/sdd) scsi-3600605b003afdeb02042118a6f0766a9 (/dev/sdb) 다음세개의디스크는새로설치한디스크이다. scsi-3600605b003afdeb02042118a6f07149c (/dev/sda) scsi-3600605b003afdeb02042121c77b7b700 (/dev/sdc) scsi-3600605b004a372701e75980a9ab60100 (/dev/sde) 문제는, 세개의디스크모두약 500GB 의디스크이다보니, 어느디스크가 SAS 인지 SSD 인지구별이안간다. 이디스크는 RAID 컨트롤러에의해 VD 로추상화되어있기때문에더욱그렇다. 다행히, fdisk 로확인해보니디스크하나의용량의차이가있어서이디스크가 SSD 디스크임을추측할수있었다. [root@xs1 ~]# fdisk -l /dev/sda Disk /dev/sda: 599.0 GB, 598999040000 bytes, 1169920000 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes [root@xs1 ~]# fdisk -l /dev/sdc Disk /dev/sdc: 499.0 GB, 498999492608 bytes, 974608384 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes [root@xs1 ~]# fdisk -l /dev/sde Disk /dev/sde: 599.0 GB, 598999040000 bytes, 1169920000 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes 2018/12/03 3/10

#3-2017/03/01 17:05 - 성제호 참고 : How to Create a Local Storage Repository 다음과같이생성할수있다. SSD 디스크를 XenServer 의 SR 로추가한예 [root@xs1 ~]# xe sr-create content-type=user device-config:device=/de 77b7b700 host-uuid=f899fdf6-fbad-4e28-973a-b74e706f980c name-label="l 3f9baeb1-d661-231f-50d3-6d2e9f72962a #4-2017/03/01 18:37 - 성제호 디스크중하나가다음의오류를일으키며 SR 로추가되지않았다. [root@xs1 /]# xe sr-create content-type=user device-config:device=/dev/ 0100 host-uuid=f899fdf6-fbad-4e28-973a-b74e706f980c name-label="local The SR operation cannot be performed because a device underlying the SR 이미해당디스크가 SR 로사용되고있다는에러였다. SR 목록과 PBD 목록을모두뽑아서해당디스크가사용되고있는지확인했으나, 실제로사용되지않고있었다. SR 을추가시키는과정에서어떤오류가발생하는지확인하고싶어서, /var/log/smlog 파일을확인해보았다. /var/log/smlog DummyRef: 700b3f1b-ef71-8b6a-31f4-53ce3111b2e2 SR.create', 'args': [' eaca-9a8f8944c3a6', 'session_ref': 'OpaqueRef:80f8232d-8374-0d53-9ae9 /disk/by-id/scsi-3600605b004a372701e75980a9ab60100', 'SRmaster': 'tru Mar 1 17:25:03 xs1 SM: [24449] lock: opening lock file /var/lock/sm/ sr Mar 1 17:25:03 xs1 SM: [24449] LVMCache created for VG_XenStorage-16 e Mar 1 17:25:03 xs1 SM: [24449] ['/sbin/vgs', 'VG_XenStorage-16005b20 Mar 1 17:25:03 xs1 SM: [24449] FAILED in util.pread: (rc 5) stdout: enstorage-16005b20-96d3-c02b-494f-f47d969370be" not found Mar 1 17:25:03 xs1 SM: [24449] Cannot process volume group VG_XenS 47d969370be Mar 1 17:25:03 xs1 SM: [24449] ' Mar 1 17:25:03 xs1 SM: [24449] LVMCache: will initialize now Mar 1 17:25:03 xs1 SM: [24449] LVMCache: refreshing Mar 1 17:25:03 xs1 SM: [24449] ['/sbin/lvs', '--noheadings', '--unit 16005b20-96d3-c02b-494f-f47d969370be'] Mar 1 17:25:04 xs1 SM: [24449] FAILED in util.pread: (rc 5) stdout: enstorage-16005b20-96d3-c02b-494f-f47d969370be" not found Mar 1 17:25:04 xs1 SM: [24449] Cannot process volume group VG_XenS 47d969370be Mar 1 17:25:04 xs1 SM: [24449] ' Mar 1 17:25:04 xs1 SM: [24449] lock: acquired /var/lock/sm/16005b20- Mar 1 17:25:04 xs1 SM: [24449] sr_create {'sr_uuid': '16005b20-96d3- f:6d900c76-fe83-76dd-a3b8-ccc1ef8c7997'} Mar 1 17:25:04 xs1 SM: [24449] LVHDSR.create for 16005b20-96d3-c02b- Mar 1 17:25:04 xs1 SM: [24449] ['/sbin/vgs', 'VG_XenStorage-16005b20 2018/12/03 4/10

The SR device is currently in use [opterr=device /dev/disk/by-id/scsi device is currently in use [opterr=device /dev/disk/by-id/scsi-36006 Mar 1 17:25:04 xs1 SM: [24449] FAILED in util.pread: (rc 5) stdout: enstorage-16005b20-96d3-c02b-494f-f47d969370be" not found Mar 1 17:25:04 xs1 SM: [24449] Cannot process volume group VG_XenS 47d969370be Mar 1 17:25:04 xs1 SM: [24449] ' Mar 1 17:25:04 xs1 SM: [24449] ['sginfo', '-s', '/dev/sde'] Mar 1 17:25:04 xs1 SM: [24449] pread SUCCESS Mar 1 17:25:04 xs1 SM: [24449] ['/usr/lib/udev/scsi_id', '-g', '--de Mar 1 17:25:04 xs1 SM: [24449] pread SUCCESS Mar 1 17:25:04 xs1 SM: [24449] Raising exception [16, The SR device e /dev/disk/by-id/scsi-3600605b004a372701e75980a9ab60100 in use, plea nce of this device]] Mar 1 17:25:04 xs1 SM: [24449] lock: released /var/lock/sm/16005b20- Mar 1 17:25:04 xs1 SM: [24449] ***** generic exception: sr_create: E use, please check your existing SRs for an instance of this device] Mar 1 17:25:04 xs1 SM: [24449] return self._run_locked(sr) Mar 1 17:25:04 xs1 SM: [24449] rv = self._run(sr, target) Mar 1 17:25:04 xs1 SM: [24449] return sr.create(self.params['sr_ Mar 1 17:25:04 xs1 SM: [24449] File "/opt/xensource/sm/lvmsr", lin Mar 1 17:25:04 xs1 SM: [24449] lvutil.createvg(self.root, self.v Mar 1 17:25:04 xs1 SM: [24449] File "/opt/xensource/sm/lvutil.py", Mar 1 17:25:04 xs1 SM: [24449] + 'SRs for an instance of this de Mar 1 17:25:04 xs1 SM: [24449] File "/opt/xensource/sm/xs_errors.p Mar 1 17:25:04 xs1 SM: [24449] raise SR.SROSError(errorcode, err Mar 1 17:25:04 xs1 SM: [24449] Mar 1 17:25:04 xs1 SM: [24449] ***** Local VHD on LVM: EXCEPTION <cl ase check your existing SRs for an instance of this device] Mar 1 17:25:04 xs1 SM: [24449] ret = cmd.run(sr) Mar 1 17:25:04 xs1 SM: [24449] return self._run_locked(sr) Mar 1 17:25:04 xs1 SM: [24449] rv = self._run(sr, target) Mar 1 17:25:04 xs1 SM: [24449] return sr.create(self.params['sr_ Mar 1 17:25:04 xs1 SM: [24449] File "/opt/xensource/sm/lvmsr", lin Mar 1 17:25:04 xs1 SM: [24449] lvutil.createvg(self.root, self.v Mar 1 17:25:04 xs1 SM: [24449] File "/opt/xensource/sm/lvutil.py", Mar 1 17:25:04 xs1 SM: [24449] + 'SRs for an instance of this de Mar 1 17:25:04 xs1 SM: [24449] File "/opt/xensource/sm/xs_errors.p Mar 1 17:25:04 xs1 SM: [24449] raise SR.SROSError(errorcode, err Mar 1 17:25:04 xs1 SM: [24449] Mar 1 17:25:04 xs1 SM: [24449] lock: closed /var/lock/sm/16005b20-96 정상적으로생성되는 SR 로그와비교해보면, 중간에이미 SR 이사용된다는예외가발생함을볼수있다. 이것이처음에는 XenServer 의메타데이터상의손상이라고생각했으나, 디스크상에남아있는잔재로인한오류일것으로생각되었 실제로, 로그상의 backtrace 를확인해보면, /opt/xensource/sm/lvutil.py 635번째줄에서오류가발생했다의 backtrace 의 /opt/xensource/sm/xs_errors.py 는실제오류가발생한함수이니, 그직전의 lvu 한다. /opt/xensource/sm/lvutil.py 의 616~636 번째줄 defcreatevg (root, vgname, 'thick sr_alloc= '): systemroot = util.getrootdev() rootdev = root.split( ',')[0] # Create PVs for each device fordev inroot.split( ','): ifdev in[systemroot, '%s1' % systemroot, '%s2' % systemroot]: raise xs_errors.xenerror( 'Rootdev ', \ opterr=( 'Device %s contains core ' system \ files, + 'please use another ') % dev) device ifnotos.path.exists(dev): raise xs_errors.xenerror( 'InvalidDev ', \ opterr=( 'Device %s does not ') % exist dev) 2018/12/03 5/10

try : f = os.open( "%s" % dev, os.o_rdwr os.o_excl) except : raise xs_errors.xenerror( 'SRInUse ', \ opterr=( 'Device %s in use, please check ' \ your existing + 'SRs for an instance of ') % this dev) device os.close(f) 이함수는, 해당디스크에서 PV 를생성하는항목이다. 여기서 f = os.open("%s" % dev, os.o_rdwr 항목을실행하는 도중 os.o_excl) 오류가발생해서 SRInUse 예외가발동된것이다. dev 는 /dev/disk/by-id/scsi-3600605b004a372701e75980a9ab60100 로추정된다. 이것을실제시스템에서수행해봤더니다음과같은오류가발생했다. >>> import os >>> os.open("/dev/disk/by-id/scsi-3600605b004a372701e75980a9ab60100", o Traceback (most recent call last): File "<stdin>", line 1, in <module> OSError: [Errno 16] Device or resource busy: '/dev/disk/by-id/scsi-3600 장치를열수없으며, 해당에러번호는 16 번이고이는 SMlog 상에서도나타나있다. 어째서해당장치가바쁜 ( 사용중 ) 인것인가? #5-2017/03/01 18:59 - 성제호 사실이논의를이어나가기위해서는, 일종의논리의연결이형성되어야한다. 즉, 이런오류가났는데이런이유때문에발생한것이다. 라는논리의연결이문제까지이어져야한다. 안타깝게도, 중간의연결고리가끊어졌다. 즉, 답은알지만논리의연결이중간에마치손실되어마법처럼이어져있다. 이문제의정답부터말하자면, 새로설치된디스크에이미 LVM 이구성되어있던것이문제였다. 이것이이미 LVM 에의해 scan 되어 import 되어있었기때문에, 장치는이미사용중이었고쓰기모드로읽을수없었 /dev/disk/by-id/scsi-3600605b004a372701e75980a9ab60100 -> /dev/sde [root@xs1 /]# pvscan PV /dev/sde VG VG_XenStorage-6c425b59-c520-be17-cbcd-32e23ad8917 GiB free]... 생략... [root@xs1 /]# pvdisplay /dev/disk/by-id/scsi-3600605b004a372701e75980 --- Physical volume --- 2018/12/03 6/10

PV Name /dev/sde VG Name VG_XenStorage-6c425b59-c520-be17-cbcd-32e23ad PV Size 557.86 GiB / not usable 14.00 MiB Allocatable yes PE Size 4.00 MiB Total PE 142809 Free PE 21217 Allocated PE 121592 PV UUID V9NPnN-ljFB-1TCL-dm8o-0c7n-aDET-kLViHS 이를완전히 destroy 시킨후, 다시 SR 을생성하면될것이다. 그러나, 다음과같은에러가발생하였다. [root@xs1 /]# pvremove -vf /dev/disk/by-id/scsi-3600605b004a372701e7598 pvremove -vf /dev/disk/by-id/scsi-3600605b004a372701e75980a9ab60100: ata_read_only is set. 이는 lvm.conf 설정파일에다음과같이제약되어있기때문이었다. /etc/lvm/lvm.conf # Configuration option global/metadata_read_only. # No operations that change on-disk metadata are permitted. # Additionally, read-only commands that encounter metadata in # repair will still be allowed to proceed exactly as if the r # been performed (except for the unchanged vg_seqno). Inappro # use could mess up your system, so seek advice first! metadata_read_only = 1 굳이 XenServer 의설정을강제로바꾸고싶지않았기때문에, 다른방법을찾아야했다. 커뮤니티에서권장하는방법은다음과같았다. LVM 관련명령을수행할때, metadata_read_only 설정을일시적으로무력화하는방법 sr-introduce 명령으로, 기존의 SR 을현재의 XenServer 로 introduce 하는방법 ( 참고 Recover a LVM config after ) accidentarl 'sr-create..' SR 을잘다루는것은 XenServer 운영에매우중요하므로, sr-introduce 를연습해보기로한다. 2018/12/03 7/10

#6-2017/03/01 19:23 - 성제호 참고 : How to Introduce a Local Storage Repository in XenServer XenServer 에서는 SR 이라는단위로저장소를바라본다. 추상화된 SR 을대상으로블록을다루는데, SR 의이면에는실제물리장치를정의한 PBD 가존재한다. XenServer 들은, 그리고 VM 의디스크들은모두 SR 을인식한다. 따라서, 이를인식하는수단인 SR 의 UUID 가중요해진다. 그래서 SR 을 introduce 하는과정에는기존에사용하던 SR 의 UUID 를그대로보존하는것이중요하다. 다음과같이 introduce 가이루어진다. 1.sr introduce 명령을이용해고정된 uuid 와속성을 XenServer 에등록함 2.pbd create 하여, introduce 한 SR 의 UUID 에연결한다 3.pbd plug 하여, 실제장치에 PBD 를연결한다 기존에사용하던디스크를 XenServer 에불러오는상황인데, VG 이름에기존에사용하던 SR 의 UUID 가이미기록되즉, 이전의 SR 에서는 6c425b59-c520-be17-cbcd-32e23ad89171 라는 UUID 를사용했음을알수 [root@xs1 ~]# pvscan PV /dev/sde VG VG_XenStorage-6c425b59-c520-be17-cbcd-32e23ad89171 free] sr-introduce 로 6c425b59-c520-be17-cbcd-32e23ad89171 라는 UUID 의 SR 을생성 [root@xs1 ~]# xe sr-introduce uuid=6c425b59-c520-be17-cbcd-32e23ad891 4" content-type=user An SR with that uuid already exists. uuid: 6c425b59-c520-be17-cbcd-32e23ad89171 이런, 이미 6c425b59-c520-be17-cbcd-32e23ad89171 가사용중이다. UUID 가겹칠확률은거의불찾아보니, 기존에 SR 로사용중인디스크의 UUID 로확인되었다. 아마도이전에 Mirror 로사용되던디스크를다시장착한게아닌가생각된다. Mirror 구성된디스크는서로완전히동일하기때문이다절대로. 겹칠따라서수없는 UUID 가겹치게된것같다. SR 을 introduce 하려면, VG 의이름부터바꾸는작업부터해야할것같다. 새로운 UUID 는 SMlog 에기록되어있던실패한 UUID 인 16005b20-96d3-c02b-494f-f47d96937 기존디스크의 VG 이름을새로운 UUID 를포함한이름으로변경이때 metadata_read_only 옵션을 0 으로해제함 [root@xs1 ~]# sudo vgrename VG_XenStorage-6c425b59-c520-be17-cbcd-32e d3-c02b-494f-f47d969370be --config global{metadata_read_only=0} Volume group "VG_XenStorage-6c425b59-c520-be17-cbcd-32e23ad89171" s e-16005b20-96d3-c02b-494f-f47d969370be" 변경된 VG 를활성화 [root@xs1 ~]# vgchange -ay VG_XenStorage-16005b20-96d3-c02b-494f-f47d only=0} 6 logical volume(s) in volume group "VG_XenStorage-16005b20-96d3-c0 새로운 UUID 를기준으로 sr-introduce 함 [root@xs1 ~]# xe sr-introduce uuid=16005b20-96d3-c02b-494f-f47d969370 4" content-type=user 16005b20-96d3-c02b-494f-f47d969370be 새로생성한 SR 에 PBD 를생성함 [root@xs1 ~]# xe pbd-create sr-uuid=16005b20-96d3-c02b-494f-f47d96937 2018/12/03 8/10

csi-3600605b004a372701e75980a9ab60100 host-uuid=f899fdf6-fbad-4e28-97 84fb161a-76a6-06fa-c08e-899f3f88e925 pbd-plug 로생성한 PBD 를활성화 [root@xs1 ~]# xe pbd-plug uuid=84fb161a-76a6-06fa-c08e-899f3f88e925 #7-2017/03/01 19:58 - 성제호 아주심각한문제가생겼다 전제로생각했던, PBD device-config 객체의 (MRO): 항목은 device: 실제가아니었다 /dev/sdb. 즉, 내가 /dev/sdb 가해당 PBD 의연결이라고생각했지만, 실제로는 /dev/sde 에연결되어있었다. Mirror 디스크라서기존디스크와의내용이공교롭게겹친것이아니라, 실제로사용중인디스크였던것이다. 이작업은다행히도중에이상한증상을보여알수있었다. 새로생성한 SR 에서 rescan 이불가능했고기존디스크의 SR 에서디스크생성이불가능했다. 따라서 VG 이름을다시원복하여, 기존 SR 에서가상디스크생성이동작함을확인했다. 그러나새로생성한 SR 은 PBD 를 unplug 하는것은불가능했다. 이대로 XenServer 를재기동한다면문제가된신규 SR 을해제하는과정에서 Hang 이걸려버릴것이다. 그러나현재는재기동하지않으면새로생성한 PBD 와 SR 을삭제하는것이불가능하다. #8-2017/03/01 20:04 - 성제호 다행히큰문제없이새로생성했던 PBD 와 SR 을제거할수있었다. 재부팅은필요없게되었다. [root@xs1 log]# xe pbd-unplug uuid=84fb161a-76a6-06fa-c08e-899f3f88e925 [root@xs1 log]# xe pbd-destroy uuid=84fb161a-76a6-06fa-c08e-899f3f88e92 [root@xs1 log]# xe sr-destroy uuid=16005b20-96d3-c02b-494f-f47d969370be The SR has no attached PBDs sr: 16005b20-96d3-c02b-494f-f47d969370be (Local storage 4) [root@xs1 log]# xe sr-forget uuid=16005b20-96d3-c02b-494f-f47d969370be 2018/12/03 9/10

Powered by TCPDF (www.tcpdf.org) #9-2017/03/01 20:33 - 성제호 성제호의덧글 : 아주심각한문제가생겼다 전제로생각했던, PBD device-config 객체의 (MRO): 항목은 device: 실제가아니었다 /dev/sdb. 즉, 내가 /dev/sdb 가해당 PBD 의연결이라고생각했지만, 실제로는 /dev/sde 에연결되어있었다. Mirror 디스크라서기존디스크와의내용이공교롭게겹친것이아니라, 실제로사용중인디스크였던것이다. 이문제를해결하기위해 #366일감을생성하여처리하였다. 현재는정상적으로교정되었다. #10-2017/03/01 20:36 - 성제호마지막디스크를정상적으로추가하였다. [root@xs1 ~]# xe sr-create content-type=user device-config:device=/dev/ 66a9 host-uuid=f899fdf6-fbad-4e28-973a-b74e706f980c name-label="local 0eab3a11-d5a5-5b7f-3090-d7b1916b8105 #11-2017/03/01 20:40 - 성제호 - 파일에 pbd-list_20170301.txt 이 ( 가 ) 추가되었습니다. - 파일에 sr-list_20170301.txt 이 ( 가 ) 추가되었습니다. 현재의 SR 과 PBD 목록을정리하였다. #12-2017/03/01 20:40 - 성제호 - 목표버전을 ( 를 ) 시작에서 v1.0( 으 ) 로변경되었습니다. - 담당자을 ( 를 ) 성제호 ( 으 ) 로지정되었습니다. - 상태을 ( 를 ) 신규에서완료 ( 으 ) 로변경되었습니다. - 범주을 ( 를 ) XenServer( 으 ) 로지정되었습니다. 파일 pbd-list_20170301.txt 2.89 KB2017/03/01 성제호 sr-list_20170301.txt 5.75 KB2017/03/01 성제호 2018/12/03 10/10