사용자지침서

Size: px
Start display at page:

Download "사용자지침서"

Transcription

1 사용자지침서

2

3

4

5

6

7

8

9

10 βλ β hardlim Ex. hardlim 함수의사용예 CEMTool>> x=[ ]; CEMTool>> y=hardlim(x) λ λ y = CEMTool>> y=hardlim(x,-1) y = linear λ λ Ex. linear 함수의사용예 CEMTool>> x=[ ]; CEMTool>> y=linear(x) y = CEMTool>> y=linear(x,"d")

11 y = plinear λ λ λ λ Ex. plinear 함수의사용예 CEMTool>> x=[ ]; CEMTool>> y=plinear(x,0,2) y = CEMTool>> y=plinear(x,0,2,"d") y = logsig Ex. logsig 함수의사용예 CEMTool>> x=[ ]; CEMTool>> y=logsig(x) λ λ y = CEMTool>> y=tansig(x,"d") y = tansig Ex. tansig 함수의사용예 CEMTool>> x=[ ]; CEMTool>> y=tansig(x) λ λ λ y = CEMTool>> y=tansig(x,"d") y = rbf

12 λγ λ Ex. rbf 함수의사용예 CEMTool>> x=[ ]; CEMTool>> c=[ ]; CEMTool>> y=rbf(x,c,0.5) y =

13 η η η η η

14 CEMTool>> pattern = [ ; ; ; ]; CEMTool>> target = pattern; CEMTool>> w = genlayer(pattern, target, [ ]); CEMTool>> b = -0.5*ones(1,5); CEMTool>> w = trainheb(w, pattern, target, 50, 0.2, 0.05); CEMTool>> output=simulnet(w, b, "hardlim", pattern) CEMTool>> w

15 % Hebbian 학습데모 (demo_hebb.cem) // define 100, 5-element input vectors. pattern = [ ; ; ; ]; target = pattern; msgprint(" "); msgprint(" 학습패턴 "); pattern msgprint(" "); msgprint(" 목표출력패턴 "); pattern // generate a network w = genlayer(pattern, target, [ ]); [n m]=size(target); b = -0.5*ones(1,m); msgprint(" "); msgprint(" weight 초기화 "); w // train the network using the Hebbian learning rule. // the input and the target are the same // learning rate is 0.2, decay rate is 0.05 w = trainheb(w, pattern, target, 50, 0.2, 0.05); // test the network output=simulnet(w, b, "hardlim", pattern); e = errornet(w, b, "hardlim", pattern, target); msgprint(" "); msgprint(" ( 네트워크출력 ) - ( 목표출력 )");

16 output - target msgprint(" "); msgprint(" 평균제곱오차 : "); e λ λ

17 η η CEMTool>> pattern = [ ; CEMTool>> target = [ ]'; ]'; CEMTool>> [w b] = genlayer(pattern, target, [ ], "b"); CEMTool>> [w b errors] = trainpc(w,b,pattern,target,0.1,100,0.01);

18 % 퍼셉트론을이용한패턴분류데모 (demo_pc.cem) /* 퍼셉트론 (perceptron) 학습규칙데모 - 2차원평면상의두집합을구분하는문제 */ msgprint(" "); msgprint(" 퍼셉트론학습규칙을사용하여 2차원평면상의점들을 "); msgprint(" 두개의집합으로구분한다."); msgprint(" "); // 6, 2-element input vectors. pattern = [ ; ]';

19 // target vector target = [ ]'; figure; plot(pattern(1:5;1), pattern(1:5;2), "o", pattern(6:10;1), pattern(6:10;2), "xb"); xtitle("x"); ytitle("y"); title(" 하나의퍼셉트론을사용한 2개의집합분류 ") // generate a network [w b] = genlayer(pattern, target, [ ], "b"); // train the network using perceptron learning rule. // learning rate is 0.5, training epoch 100, error level 0.01 [w b errors] = trainpc(w, b, pattern, target, 0.1, 100, 0.01); // test the network with point (-1,0) -> 1 left=[-2 3]; right=[2*w(1)/w(2)-b/w(2) -3*w(1)/w(2)-b/w(2)]; figure; plot(pattern(1:5;1), pattern(1:5;2), "o", pattern(6:10;1), pattern(6:10;2), "xb", left, right); xtitle("x"); ytitle("y"); title(" 퍼셉트론을사용한분류결과 ")

20 Δ η η Δ η π CEMTool>> x=linspace(0,8*pi,100)'; CEMTool>> pattern = [sin(x) cos(x)];

21 CEMTool>> target = pattern*[3.2; -1.7]+2.5; CEMTool>> [w b] = genlayer(pattern, target, [ ], "b"); CEMTool>> [w b errors] = trainwh(w, b, pattern, target, 0.1, 10);

22 CEMTool>> w CEMTool>> b % Widrow-Hoff 학습규칙을이용한학습데모 (demo_lin.cem) // input, output training signal x=linspace(0,8*pi,100)'; pattern = [sin(x) cos(x)]; target = pattern*[3.2; -1.7]+2.5; figure; plot(x, pattern, "b", x, target, "r"); title(" 학습패턴 ( 입력 - 푸른색, 출력 - 붉은색 )"); // generate a network [w b] = genlayer(pattern, target, [ ], "b"); // train the network using Widrow-Hoff rule. // learning rate is 0.01 [w b errors] = trainwh(w, b, pattern, target, 0.01, 10); // training result y=simulnet(w,b,"linear",pattern); plot(x, pattern, "b", x, target, "r", x, y, "B*"); title(" 학습결과 ( 입력-푸른색, 출력-붉은색 )"); // error curve

23 figure; plot(1:max(size(errors)),errors); xtitle(" 학습회수 "); ytitle(" 평균제곱오차 "); title(" 학습과정 "); msgprint(" "); msgprint(" 학습된계수 : ") w msgprint(" 학습된바이어스 :"); b msgprint(" "); η

24 Δ η η π CEMTool>> x=linspace(0,4*pi,50)'; CEMTool>> pattern = [sin(x) cos(x)]; CEMTool>> target = (pattern*[4; -3]+1)/8; CEMTool>> [w b] = genlayer(pattern, target, [ ], "b"); CEMTool>> [w b errors] = trainwh(w,b,pattern,target,0.1,10,0.0002);

25 % 델타학습규칙을이용한학습데모 (demo_del.cem) msgprint(" 단층신경망을델타학습규칙을사용하여학습한다."); msgprint(" 그림의학습하려는함수는아래두개의삼각함수의 "); msgprint(" 선형조합으로얻어진다."); msgprint(" y = (4*sin(x) - 3*cos(x) + 1)/8"); // input, output training signal x=linspace(0,4*pi,50)'; pattern = [sin(x) cos(x)]; target = (pattern*[4; -3]+1.0)/8; figure; plot(x, pattern, "b", x, target, "r"); title(" 학습패턴 ( 입력 - 푸른색, 출력 - 붉은색 )"); // generate a network

26 [w b] = genlayer(pattern, target, [ ], "b"); // train the network using delta learning rule. // learning rate is // maximum training number is 10 // stop if error is smaller than [w b errors] = traindelt(w, b, "tansig", pattern, target, 0.05, 10, ) // training result y=simulnet(w,b,"tansig",pattern); plot(x, pattern, "b", x, target, "r", x, y, "B*"); title(" 학습결과 ( 입력-푸른색, 출력-붉은색 )"); // error curve figure; plot(1:max(size(errors)),errors); xtitle(" 학습회수 "); ytitle(" 평균제곱오차 "); title(" 학습과정 "); msgprint(" "); msgprint(" 학습된계수 : ") w msgprint(" 학습된바이어스 :"); b msgprint(" ");

27 Δ η

28

29

30 δ η δ α δ δ η α

31 CEMTool>> pattern = [ ; ; ; ; ; ; ; ; ; ]; CEMTool>> target=eye(10); CEMTool>> [w1 b1 w2 b2] = genmlp(pattern, 9, target, [ ]);

32 CEMTool>> [w1 b1 w2 b2 errs esave] = trainbp(w1, b1, "tansig", w2, b2, "logsig", pattern, target, 0.5, 1.5, 2000, 0.01); CEMTool>> out=simulnet(w1,b1,"tansig",w2,b2,"logsig",pattern);

33 % 다층인식자를사용한숫자인식데모 (demo_mlp2.cem) msgprint(" 오차역전파학습을이용한숫자인식 "); msgprint(" "); msgprint(" 숫자패턴 "); msgprint(" "); msgprint(" # ## ### # # #### ### #### ## ## ## ");

34 msgprint("## # # # # # # # # # # # # # #"); msgprint(" # # # #### ### ### # ## ### # #"); msgprint(" # # # # # # # # # # # # #"); msgprint("### #### ### # ### ## # ## #### ## "); // 6, 2-element input vectors. pattern = [ ; ; ; ; ; ; ; ; ; ]; [N M]=size(pattern); // 패턴개수 target=eye(n); // target vector // generate a network [w1 b1 w2 b2] = genmlp(pattern, 9, target, [ ]); // train the network using percetron learning rule. [w1 b1 w2 b2 errs esave] = trainbp(w1, b1, "tansig", w2, b2, "logsig", pattern, target, 0.5, 1.5, 2000, 0.01); // display the training result out=simulnet(w1,b1,"tansig",w2,b2,"logsig",pattern); [a output]=max(out); output=rem(output,n); msgprint(" ") msgprint(" 학습결과 "); show="? >?"; for(i=1; i<=n; i=i+1) { show(4)=int2str(rem(i,n)); show(18)=int2str(output(i)); msgprint(show);

35 } // test the network with perturbed patterns [a b]=size(pattern); pat=zeros(size(pattern)); for(i=1; i<=a; i=i+1) { for(j=1; j<=a; j=j+1) { if(rand(1)<0.1) // 10 percents perturbation pat(i;j)=1-pattern(i;j); else pat(i;j)=pattern(i;j); } } out=simulnet(w1,b1,"tansig",w2,b2,"logsig",pat); [a output]=max(out); output=rem(output,10); msgprint(" "); msgprint(" 테스트결과 "); show="? >?"; for(i=1; i<=n; i=i+1) { show(4)=int2str(rem(i,n)); show(18)=int2str(output(i)); msgprint(show); }

36

37 α α

38 α α α ρ π CEMTool>> pattern=linspace(0,4*pi,300)'; CEMTool>> target=sin(3*pattern)+0.2*pattern; γ CEMTool>> [c w e]=trainrbf(pattern,target,50,5,"d");

39 γ CEMTool>> out=simulrbf(c,w,gamma,tp); % RBFN 을사용해서 1 차원비선형함수를학습하는데모 (demo_rbf.cem)

40 % 입력패턴 : N개의점으로구성 N=300; pattern=linspace(0,4*pi,n)'; desired=sin(3*pattern)+0.2*pattern; % 학습 hidden=50; gamma=3; msgprint(" "); msgprint(" 학습중..."); msgprint(" "); [c w e]=trainrbf(pattern,desired,hidden,gamma,"d"); % 테스트집합구성 N=200; tp=sort(rand(n, 1))*4*pi; td=sin(3*tp)+0.2*tp; msgprint(" "); msgprint(" 테스트중..."); errs=testrbf(c,w,gamma,tp,td); out=simulrbf(c,w,gamma,tp); msgprint(" "); msgprint(" 테스트결과 ( 평균제곱오차 ) : "); mean(errs.*errs) //plot(tp,out,"r*",tp,td,"b",tp,errs,"c"); plot(tp,td,"b",tp,out,"r*"); title("rbfn 테스트결과 ");

41

42 μ γ γ μ μ μ ψ μ ψ μ μ ψ γ

43 γ α α α α

44 γ βγ β CEMTool>> pattern=linspace(-1,1,100)'; CEMTool>> target=zeros(100,1); CEMTool>> for(i=1; i<=100; i=i+1) { if(pattern(i)<-0.2) target(i)=-2.5*pattern(i)-1.5; else if(pattern(i)<0) target(i)=5*pattern(i); else target(i)=sin(15*pattern(i)/(pattern(i)+1)); } γ γ CEMTool>> [rf lf trainout]= trainplan(pattern,target,0.005,100,20,0.01,"d"); γ

45 CEMTool>> testout=simulplan(rf, lf, testp);

46 % PLAN을사용해서 1차원비선형함수를학습하는데모 (demo_plan1.cem) % 입력패턴과목적값 P=linspace(-1,1,100)'; D=zeros(100,1); for(i=1; i<=100; i=i+1) { if(p(i)<-0.2) D(i)=-2.5*P(i)-1.5; else if(p(i)<0) D(i)=5*P(i); else D(i)=sin(15*P(i)/(P(i)+1)); } figure; plot(p,d,"b"); title(" 학습할함수 ");

47 % 입력파라미터 gamma=0.003; % RF의폭 T=100; % threshold value of regulation node errbound=0.0006; % 허용되는오차한계 MAX_TRAIN=20; % 하나의 gamma 값에대한학습회수 % 학습시키고결과 plot [rf lf errs]=trainplan(p,d,gamma,t,max_train,errbound,"d"); trainout=simulplan(rf,lf,p); plot(p,d,"b",p,trainout,"r"); title("plan의학습결과 "); % 테스트하고결과 plot(sort해서 ) testp=2*rand(100,1)-1; [testp order]=sort(testp); testd=zeros(100,1); for(i=1; i<=100; i=i+1) { if(testp(i)<-0.2) testd(i)=-2.5*testp(i)-1.5; else if(testp(i)<0) testd(i)=5*testp(i); else testd(i)=sin(15*testp(i)/(testp(i)+1)); } figure; testout=simulplan(rf, lf, testp); plot(testp,testd,"b",testp,testout,"r"); title("plan의테스트결과 ");

48

49 α α α CEMTool>> p=somplane(11,11,"grid"); CEMTool>> [w nb]=gensom(p,8,8,"line");

50

51 CEMTool>> w=trainsom(w,nb,p,10,30,0.1,100,100,1); τ η τ

52

53 % 2차원패턴을 1차원이웃으로구성된 SOM을사용해서학습하는데모 (demo_som2.cem) p=somplane(11,11,"grid"); figure; plot(p(:,1),p(:,2),"or"); title("2차원입력데이터 "); [w nb]=gensom(p,8,8,"line"); figure; plotsom(w,nb); title("1차원연결뉴런들의초기위치 "); figure; w=trainsom(w,nb,p,10,30,0.1,100,100,1);

54

55 신경망활성함수 함수이름 설명 쓰이는곳 hardlim 문턱값활성함수 2,3장 linear 선형활성함수 2,3장 plinear 부분선형활성함수 2,3장 tansig Hyperbolic tangent sigmoid 2,3장 logsig Logistic sigmoid 2,3장 rbf Radial basis function 2,4장 nntf 신경망활성함수설명 2,3,4장 단층인식자 함수이름 설명 쓰이는곳 genlayer 하나의뉴런층 (layer) 생성 2장 trainheb Hebbian 학습규칙 2.2.1절 trainpc 퍼셉트론학습규칙 2.2.2절 trainwh Widrow-Hoff 학습규칙 2.2.3절 traindelt 델타학습규칙 2.2.4절 simulnet 앞먹임신경망의출력계산 2,3장 errornet 앞먹임신경망의오차계산 2,3장 다층인식자 함수이름 설명 쓰이는곳 genmlp 다층인식자생성 3장 trainbp 역전파학습규칙 3장 simulnet 앞먹임신경망의출력계산 3장 errornet 앞먹임신경망의오차계산 3장

56 방사형기저함수망 (RBFN) 함수이름 설명 쓰이는곳 trainrbf 직교최소제곱법으로 RBFN 학습 4장 simulrbf RBFN의출력계산 4장 testrbf RBFN의오차계산 4장 부분선형근사신경회로망 (PLAN) 함수이름 설명 쓰이는곳 trainplan PLAN 학습 5장 simulplan PLAN의출력계산 5장 testplan PLAN의오차계산 5장 자기구성신경회로망 (SOM) 함수이름 설명 쓰이는곳 distance 데이터간의거리를여러방법으로계산 6장 nbmat 뉴런의이웃과의거리를행렬로생성 6장 neighbor 주어진거리내에속하는뉴런을검색 6장 somplane SOM의뉴런들을 2차원평면상에생성 6장 gensom SOM 생성 6장 trainsom SOM 학습 6장 simulsom 입력과가장가까운뉴런검색 6장 plotsom SOM의연결관계를도시 6장 som SOM 관련함수설명 6장

57 hardlim 목적 hard limit 전달함수의출력을계산 문법 Y = HARDLIM(X,B) 입력 X : PxR 행렬 B : Px1 바이어스벡터 출력 Y : PxR 행렬 설명 (i,j) 원소는 hardlim(x(i;j)-b(i)) 이다. 바이어스벡터는생략할수있으며, 이때는 0 으로간주한다. 사용예제 CEMTool>> X = [-2 1;3 0]; CEMTool>> B = [0; -1]; CEMTool>> Y = hardlim(x,b) Y = 관련함수 nntf 종류신경회로망툴박스함수

58 linear 목적 linear 전달함수의출력을계산 문법 Y = LINEAR(X, OPTION) 입력 X : PxR 행렬 OPTION : "d" - 미분값출력 출력 Y : PxR 행렬 설명입력값을그대로출력하는전달함수이다. 미분옵션이주어지면 1 을리턴한다. 사용예제 CEMTool>> X = [-2 1;1 3]; CEMTool>> Y1 = linear(x) Y1 = CEMTool>> Y2 = linear(x,"d") Y2 = 관련함수 nntf 종류신경회로망툴박스함수

59 plinear 목적부분선형전달함수의출력을계산 문법 Y = PLINEAR(X, LOW, HIGH, OPTION) 입력 X : PxR 행렬 LOW : 출력이 0이되는점중가장큰값 HIGH : 출력이 1이되는점중가장작은값 OPTION : "d" - 미분값출력 출력 Y : PxR 행렬 설명 1, if x-high>=0 (x-low)/(high-low), if low<=x<high 0, if x<low 사용예제 CEMTool>> X = [0-3;1 6]; CEMTool>> Y = plinear(x,-1,3) Y = 관련함수 nntf 종류신경회로망툴박스함수

60 tansig 목적 hyperbolic tangent sigmoid 전달함수의출력을계산 문법 Y = TANSIG(X, OPTION) 입력 X : PxR 행렬 OPTION : "d" - 미분값출력 출력 Y : PxR 행렬 설명 사용예제 CEMTool>> X = [-2 1;1 3]; CEMTool>> Y1 = tansig(x) Y1 = CEMTool>> Y2 = tansig(x,"d") Y2 = 관련함수 logsig, nntf 종류신경회로망툴박스함수

61 logsig 목적 logistic sigmoid 전달함수의출력을계산 문법 Y = LOGSIG(X, OPTION) 입력 X : PxR 행렬 OPTION : "d" - 미분값출력 출력 Y : PxR 행렬 설명 사용예제 CEMTool>> X = [-2 1;1 3]; CEMTool>> Y1 = logsig(x) Y1 = CEMTool>> Y2 = logsig(x,"d") Y2 = 관련함수 tansig, nntf 종류신경회로망툴박스함수

62 rbf 목적 radial basis 전달함수의출력을계산 문법 Y = RBF(X, C, W) 입력 X : PxR 행렬 C : QxR 중심값행렬 W : radial basis 함수의폭 출력 Y : PxQ 행렬 설명 사용예제 CEMTool>> X = [0 1;1 1]; CEMTool>> C = [1 2]; CEMTool>> Y = rbf(x,c,3) Y = 관련함수 nntf 종류신경회로망툴박스함수

63 genlayer 목적앞먹임신경회로망의층하나를생성 문법 [W, B] = GENLAYER(INPUT, OUTPUT, RANGE, OPTION) 입력 INPUT : PxQ 입력패턴행렬혹은입력벡터의길이 OUTPUT : PxR 출력패턴행렬혹은출력벡터의길이 RANGE : 가중치의최소, 최대값벡터 [min max] 생략하면 [-1 1] 로간주 OPTION : "b" - bias 벡터생성 출력 W B : QxR 가중치행렬 : 1xR bias 벡터 설명앞먹임신경망의층을하나생성시킨다. INPUT, OUTPUT 은입출력패턴이올수도있고, 입출력패턴의길이가올수도있다. 초기화되는가중치와바이어스의범위를지정해줄수있으며, 범위가주어지지않으면, [-1 1] 사이의값으로생성한다. 바이어스는옵션으로지정할때에만생성된다. 사용예제 CEMTool>> W = genlayer(3,4,[ ]) W = CEMTool>> [W B] = genlayer(3,4,[ ],"b") W = B = 관련함수 genmlp 종류신경회로망툴박스함수

64 trainheb 목적 Hebbian 학습규칙으로신경회로망학습 문법 W = TRAINHEB(WEIGHT, INPUT, OUTPUT, EPOCH, LRATE, DRATE) 입력 WEIGHT : QxR 가중치행렬 INPUT : PxQ 입력행렬 OUTPUT : PxR 출력행렬 EPOCH : 학습회수 LRATE : 학습률 (learing rate) DRATE : 감쇄율 (decay rate) 출력 W : QxR 학습된가중치행렬 설명 Hebbian 학습규칙은같은시간에두뉴런의활성이크면이들뉴런사이의연결가중치를증가시키는훈련방법이다. 연결가중치의변화는학습률에의해조절된다. 이때연결가중치가발산하는경우가있는데, 감쇄율을사용하여조절할수있다. γ η 가중치 패턴 출력 γ 학습률 η 감쇄율 Ref Haykin, S., Neural Networks, 2nd Edition, Prentice-Hall, New Jersey, 1999 Lin, C.-T. and George, C.S. Lee, Neural Fuzzy Systems, Prentice-Hall, New Jersey, 1996 사용예제 CEMTool>> P = [1 0 0; 0 1 0; 0 0 1; 1 1 1]; CEMTool>> W = genlayer(p,p,[ ]); CEMTool>> B = 0.5*ones(1,3); CEMTool>> W = trainheb(w,p,p,50,0.2,0.05); CEMTool>> simulnet(w,b,"hardlim",p)

65 관련함수 genlayer, simulnet, demo_hebb 종류신경회로망툴박스함수

66 trainpc 목적퍼셉트론학습규칙으로네트워크훈련 문법 [W,B,ERRORS] = TRAINPC(WEIGHT,BIAS,PATTERN,TARGET,LRATE,EPOCH,EBOUND) 입력 WEIGHT : QxR 가중치행렬 BIAS : Qx1 bias 벡터 PATTERN : PxQ 입력패턴행렬 TARGET : PxR 목적행렬 LRATE : 학습률 EPOCH : 학습회수 EBOUND : 허용오차한계 출력 W : QxR 학습된가중치행렬 B : Qx1 학습된 bias 벡터 ERRORS : 학습과정을저장한오차벡터 설명선형적으로분리될수있는벡터집합을분류하는신경회로망을훈련시키는함수이다. 출력은 0 과 1 로구성된다. 퍼셉트론학습규칙은다음과같다. γ γ 가중치 바이어스 패턴 학습지도값 오차 γ 학습률 Ref Haykin, S., Neural Networks, 2nd Edition, Prentice-Hall, New Jersey, 1999 Lin, C.-T. and George, C.S. Lee, Neural Fuzzy Systems, Prentice-Hall, New Jersey, 1996 사용예제 CEMTool>> P = [-1 1; 1 1; -1-1; 1-1]; CEMTool>> T = [ ]'; CEMTool>> [W B] = genlayer(p,t,[ ],"b"); CEMTool>> [W B E] = trainpc(w,b,p,t,0.1,100,0.01); CEMTool>> Y = simulnet(w,b,"hardlim",p)

67 Y = 관련함수 genlayer, simulnet, errornet, demo_pc 종류신경회로망툴박스함수

68 trainwh 목적 Widrow-Hoff 학습규칙으로신경회로망훈련 문법 [W,B,ERRORS] = TRAINWH(WEIGHT, BIAS, PATTERN, TARGET, LRATE, EPOCH) 입력 WEIGHT : QxR 가중치행렬 BIAS : Qx1 bias 벡터 PATTERN : PxQ 입력패턴행렬 TARGET : PxR 목적행렬 LRATE : 학습률 EPOCH : 학습회수 출력 W : QxR 학습된가중치행렬 B : Qx1 학습된바이어스벡터 ERRORS : 오차벡터 ( 학습에따른평균제곱오차 ) 설명 Widrow-Hoff 학습규칙에의해선형신경망을훈련시킨다. 이때학습시킬신경망은은닉층이없는단층신경회로망이어야한다. γ γ 가중치 바이어스 패턴 학습지도값 오차 γ 학습률 Ref Haykin, S., Neural Networks, 2nd Edition, Prentice-Hall, New Jersey, 1999 Lin, C.-T. and George, C.S. Lee, Neural Fuzzy Systems, Prentice-Hall, New Jersey, 1996 사용예제 CEMTool>> X = linspace(0,2*pi,100)'; CEMTool>> P = [sin(x) cos(x)]; CEMTool>> T = P*[2; -1]+3; CEMTool>> [W B] = genlayer(p,t,[ ],"b"); CEMTool>> [W B E] = trainwh(w,b,p,t,0.1,20); CEMTool>> W

69 CEMTool>> B 관련함수 genlayer, simulnet, errornet, demo_lin 종류신경회로망툴박스함수

70 traindelt 목적델타학습규칙으로신경회로망훈련 문법 [W,B,ERRORS] = TRAINWH(WEIGHT,BIAS,TF,PATTERN,TARGET,LRATE,EPOCH,BOUND) 입력 WEIGHT : QxR 가중치행렬 BIAS : Qx1 bias 벡터 TF : 활성함수 PATTERN : PxQ 입력패턴행렬 TARGET : PxR 목적행렬 LRATE : 학습률 EPOCH : 학습회수 출력 W : QxR 학습된가중치행렬 B : Qx1 학습된바이어스벡터 ERRORS : 오차벡터 ( 학습에따른평균제곱오차 ) 설명델타학습규칙에의해신경회로망을훈련시킨다. 델타학습규칙은다음과같다. γ γ 가중치 바이어스 패턴 학습지도값 오차 γ 학습률 활성함수 Ref Haykin, S., Neural Networks, 2nd Edition, Prentice-Hall, New Jersey, 1999 Lin, C.-T. and George, C.S. Lee, Neural Fuzzy Systems, Prentice-Hall, New Jersey, 1996 사용예제 CEMTool>> X = linspace(0,2*pi,100)'; CEMTool>> P = [sin(x) cos(x)]; CEMTool>> T = (P*[4; -3]+1)/8; CEMTool>> [W B] = genlayer(p,t,[ ],"b");

71 CEMTool>> [W B E] = traindelta(w,b,"tansig",p,t,0.05,10,0.0002); CEMTool>> W CEMTool>> B 관련함수 genlayer, simulnet, errornet, demo_del 종류신경회로망툴박스함수

72 simulnet 목적단층, 다층인식자의출력계산 문법 Y = SIMULNET(W1,B1,TF1,W2,B2,TF2,W3,B3,TF3,W4,B4,TF4,PATTERN) 입력 W1 : QxR 층1과층2 사이의가중치행렬 B1 : 1xQ 층2의바이어스벡터 TF1 : 층2의전달함수 W2 : RxS 층2와층3 사이의가중치행렬 B2 : Sx1 층3의바이어스벡터 TF2 : 층3의전달함수 W3 : SxT 층3과층4 사이의가중치행렬 B3 : 1xS 층4의바이어스벡터 TF3 : 층4의전달함수 W4 : TxU 층4과층5 사이의가중치행렬 B4 : 1xT 층5의바이어스벡터 TF4 : 층5의전달함수 PATTERN : PxQ 입력패턴행렬 출력 Y : PxT 출력행렬 설명다층인식자에대해입력에의해나타나는대한출력을구한다. 신경망은층을은닉층 3 층을포함하여 4 개까지가질수있고각각층마다다른전달함수를사용할수있다. 사용예제 CEMTool>> P = [1-3 2; 4 1 1]; CEMTool>> [W1 B1 W2 B2 W3 B3]=genmlp(P,[5 4],2,[ ]); CEMTool>> Y = simulnet(w1,b1,"logsig",w2,b2,"tansig",w3,b3,"linear",p) Y = 관련함수 genlayer, errornet 종류신경회로망툴박스함수

73 errornet 목적단층, 다층인식자의주어진패턴에대한오차계산 문법 E = ERRORNET(W1, B1, TF1, W2, B2, TF2, W3, B3, TF3, W4, B4, TF4, PATTERN, TARGET) 입력 W1 : QxR 층1과층2 사이의가중치행렬 B1 : 1xQ 층2의 bias 벡터 TF1 : 층2의전달함수 W2 : RxS 층2와층3 사이의가중치행렬 B2 : Sx1 층3의 bias 벡터 TF2 : 층3의전달함수 W3 : SxT 층3과층4 사이의가중치행렬 B3 : 1xS 층4의 bias 벡터 TF3 : 층4의전달함수 W4 : TxU 층4과층5 사이의가중치행렬 B4 : 1xT 층5의 bias 벡터 TF4 : 층5의전달함수 PATTERN : PxQ 입력패턴행렬 TARGET : PxU 목표출력행렬 출력 E : 평균제곱오차 설명앞먹임다층인식자에대해입력과목표출력을가지고신경회로망의오차를계산한다. 신경망은층을 5 개까지가질수있으며, 각각의층마다다른전달함수를사용할수있다. 오차로는모든패턴에대한오차의제곱의평균을출력한다. 사용예제 CEMTool>> P = [1-3 2; 4 1 1]; CEMTool>> T = [0; 1]; CEMTool>> [W1 B1 W2 B2 W3 B3]=genmlp(P,[5 4],T,[ ]); CEMTool>> E = errornet(w1,b1,"logsig",w2,b2,"tansig",w3,b3, "linear",p) E = (weight 가임의로생성되므로값이일정하지는않음 )

74 관련함수 simulnet, trainbp 종류신경회로망툴박스함수

75 genmlp 목적다층인식자생성 문법 [W1,B1,W2,B2,W3,B3,W4,B4,...] = GENMLP(INPUT, HIDDEN, OUTPUT, RANGE) 입력 INPUT : PxQ 입력패턴행렬혹은입력벡터의길이 HIDDEN : 은닉층의노드수벡터 ( 최대 3 개까지지원 ) OUTPUT : PxR 출력패턴행렬혹은출력벡터의길이 RANGE : 가중치의최소, 최대값벡터 ([min max]) 생략하면 [-1 1] 로간주 출력 W1, W2... : 가중치행렬 B1, B2... : bias 벡터 설명다층인식자를생성시킨다. INPUT, OUTPUT은입출력패턴이올수도있고, 입출력패턴의길이가올수도있다. HIDDEN은은닉층의뉴런의개수를지정하는벡터이다. 은닉층이하나이면숫자가되고, 여러개이면각층의뉴런수를표시하는벡터가된다. 은닉층은 3층까지만지원된다. 예를들어 2개의은닉층이각각 4개와 5개의노드를갖는다고하면 HIDDEN=[4 5] 가된다. 은닉층은최대 3개까지지정할수있다. RANGE 값이주어지지않으면 [-1 1] 사이의임의값으로모든값을초기화한다. 사용예제 CEMTool>> [W1 B1 W2 B2 W3 B3]=genmlp(3,[5 4],2,[ ]) W1 = B1 = W2 = B2 = W3 =

76 B3 = 관련함수 genlayer, trainbp 종류신경회로망툴박스함수

77 trainbp 목적오차역전파학습 (backpropagation learning) 규칙으로다층인식자학습 문법 [W1 B1 W2 B2 ERRS ESAVE] = TRAINBP(W1,B1,TF1,W2,B2,TF2,PATTERN,TARGET, LRATE,MOMEN,EPOCH,BOUND,OPTION) 입력 W1 : QxR 층1과층2 사이의가중치행렬 B1 : 1xQ 층2의 bias 벡터 TF1 : 층2의전달함수 W2 : RxS 층2와층3 사이의가중치행렬 B2 : Sx1 층3의 bias 벡터 TF2 : 층3의전달함수 PATTERN : PxQ 입력패턴행렬 TARGET : PxS 목적값행렬 LRATE : 학습률 (learning rate) MOMEN : 관성률 (momentum) EPOCH : 최대학습회수 BOUDN : 허용오차한계 OPTION : "d" - 학습중에메시지출력 출력 W1 B1 W2 B2 ERRS ESAVE : 학습된가중치행렬 : 학습된 bias 벡터 : 학습된가중치행렬 : 학습된 bias 벡터 : Px1 각패턴의오차 : 학습과정을저장한오차벡터 10번학습할때 1번저장 설명오차역전파학습규칙은하나의연결가중치가출력오차에미치는영향을출력층으로부터역으로추산하여학습을진행하는방식이다. 학습률은연결가중치를변화시키는크기를조절한다. 관성률은학습이진행되어온방향으로가중치를줌으로써학습속도를높이는효과를준다. 학습은 EPOCH 로표시한학습회수가다할때까지계속되지만, 그이전에오차가한계보다작아지면중단된다. 학습방법은현재입력패턴전체에대해한번갱신하는 Batch 학습방식만지원한다. Ref Haykin, S., Neural Networks, 2nd Editoin, Prentice-Hall, New Jersey,

78 1999 Lin, C.-T. and George, C.S. Lee, Neural Fuzzy Systems, Prentice-Hall, New Jersey, 1996 사용예제 CEMTool>> P = [1-3 2; 4 1 1]; CEMTool>> T = [0; 1]; CEMTool>> [W1 B1 W2 B2] = genmlp(p,4,t,[ ]); CEMTool>> [W1 B1 W2 B2 E ESAVE]=trainbp(W1,B1,"tansig",W2,B2,"logsig", P,T,0.5,0.5,1000,0.01); CEMTool>> Y = simulnet(w1,b1,"tansig",w2,b2,"logsig",p) Y = (weight 가임의로생성되므로값이일정하지는않음 ) 관련함수 genmlp, simulnet, errornet, demo_bp1, demo_bp2 종류신경회로망툴박스함수

79 trainrbf 목적 radial basis 함수네트워크학습 문법 [CENTER, WEIGHT] = TRAINRBF(PATTERN, TARGET, HIDDEN, GAMMA, OPTION) 입력 PATTERN : PxR 입력패턴행렬 TARGET : Px1 목표출력벡터 HIDDEN : 은닉층의최대노드수 GAMMA : radial basis 함수의폭 OPTION : "d" - 학습중에메시지를화면에표시 출력 CENTER : radial basis 함수의중심값행렬 WEIGHT : 은닉층에서출력노드사이의가중치벡터 ERR : Px1 각각으패턴에대한학습오차 설명 trainrbf 는 radial basis 함수네트워크를학습시키는함수이다. 직교최소제곱법 (orthogonal least square) 을사용하여오차를가장많이줄여주는패턴을중심으로갖는노드를생성시키면서학습한다. Ref Chen, S., "Orthogonal Least Square Learning Algorithm for Radial Basis Function Networks," IEEE Trans. Neural Networks, Vol. 2, No. 2, 1991 사용예제 CEMTool>> X = [5 1;2 3]; CEMTool>> D = [1; 2]; CEMTool>> [C W] = trainrbf(x,d,10,3); CEMTool>> simulrbf(c,w,3,x) 1 2 관련함수 rbf, simulrbf, testrbf, demo_rbf 종류신경회로망툴박스함수

80 simulrbf 목적 radial basis 함수네트워크의출력을계산 문법 Y = SIMULRBF(CETER, WEIGHT, GAMMA, PATTERN) 입력 CENTER : QxR 중심값행렬 WEIGHT : Qx1 가중치벡터 GAMMA : radial basis 함수의폭 PATTERN : PxR 입력패턴행렬 출력 Y : Px1 출력벡터 설명학습된 radial basis 함수네트워크에대한출력을구한다. 사용예제 CEMTool>> X = [5 1;2 3]; CEMTool>> D = [1; 2]; CEMTool>> [C W] = trainrbf(x,d,10,3); CEMTool>> Y = simulrbf(c,w,3,x) Y = 1 2 관련함수 trainrbf, testrbf, rbf, demo_rbf 종류신경회로망툴박스함수

81 testrbf 목적 radial basis 전달함수네트워크의오차계산 문법 ERRS = TESTRBF(CENTER, WEIGHT, GAMMA, PATTERN, TARGET) 입력 CENTER : QxR 중심값행렬 WEIGHT : Qx1 가중치벡터 GAMMA : radial basis 함수의폭 PATTERN : PxR 입력패턴행렬 TARGET : Px1 원하는출력벡터 출력 ERRS : Px1 오차벡터 설명학습된 RBFN 에대해주어진입력과목표출력값을이용하여네트워크의오차를구한다. ( 오차 ) = (RBFN 의출력 ) - ( 목표값 ) 사용예제 CEMTool>> X = [5 1;2 3]; CEMTool>> D = [1; 2]; CEMTool>> [C W] = trainrbf(x,d,10,3); CEMTool>> ERR = testrbf(c,w,3,x,d) ERR = 0 0 관련함수 nntf 종류신경회로망툴박스함수

82 trainplan 목적부분선형근사신경회로망 (PLAN) 학습 문법 [RF, LF, ERRS] = TRAINPLAN(PATTERN,TARGET,GM,THRES,MAXNUM,ERRB,OLDRF, OLDLF,OPTION) 입력 PATTERN : PxR 입력패턴 TARGET : Px1 출력벡터 GM : receptive field의폭을결정하는값 THRES : receptive field에속하는지판단하는문턱값 MAXNUM : 주어진 GM에대한최대학습회수 ERRB : 허용하는오차한도 OLDRF : 미리학습되어있는 RF 행렬 ( 생략가능 ) OLDLF : 미리학습되어있는 LF 행렬 ( 생략가능 ) OPTION : "f" - gamma 값을고정 "d" - 학습상황표시 출력 RF LF ERRS : Mx(R+2) RF 노드의중심벡터, 폭, 학습회수 : Mx(R+1+(R+1)^2) LF 노드의가중치와자기상관행렬벡터 : Px1 각각의입력에대한오차벡터 설명 PLAN 은임의의비선형사상을국부영역에서유사사상으로근사한다. 각노드는 RF 와 LF 를갖는데, RF 는국부영역을표현하고, LF 는그영역을선형으로근사한다. 초기에주어진 gamma 값으로충분히근사할수없으면, 0.9*gamma 로줄여서계속학습을시도한다. Ref Choi, C.-H. and Choi. J.Y., "Constructive Neural Networks with Piecewise Interpolation Capabilities for Function Approximations," IEEE Trans. on Neural Networks, Vol.5, No.6, 사용예제 CEMTool>> X = [5 1;2 3]; CEMTool>> D = [1; 2]; CEMTool>> [RF LF OUT] = trainplan(x,d,0.5,100,10,0.01); CEMTool>> Y = simulplan(rf,lf,x) Y =

83 관련함수 simulplan, testplan 종류신경회로망툴박스함수

84 simulplan 목적부분선형근사신경회로망 (PLAN) 의출력계산 문법 Y = SIMULPLAN(RF, LF, PATTERN) 입력 RF : Mx(R+2) RF 노드행렬 LF : Mx(R+1+(R+1)^2) LF 노드행렬 PATTERN : PxR 입력패턴 출력 Y : Px1 출력벡터 설명학습된 PLAN 의출력을구한다. 사용예제 CEMTool>> X = [5 1;2 3]; CEMTool>> D = [1; 2]; CEMTool>> [RF LF OUT] = trainplan(x,d,0.5,100,10,0.01); CEMTool>> Y = simulplan(rf,lf,x) Y = 관련함수 trainplan, testplan 종류신경회로망툴박스함수

85 testplan 목적부분선형학습신경회로망 (PLAN) 의오차계산 문법 ERRS = TESTPLAN(RF, LF, PATTERN, TARGET) 입력 PATTERN : PxR 입력패턴 TARGET : Px1 출력벡터 RF : Mx(R+2) RF 노드행렬 LF : Mx(R+1+(R+1)^2) LF 노드행렬 출력 ERRS : Px1 오차벡터 설명학습된 PLAN 에대해주어진입력과목표출력값을이용하여 PLAN 의오차를구한다. ( 오차 ) = (PLAN 의출력 ) - ( 목표값 ) 사용예제 CEMTool>> X = [5 1;2 3]; CEMTool>> D = [1; 2]; CEMTool>> [RF LF OUT] = trainplan(x,d,0.5,100,10,0.01); CEMTool>> ERR = testplan(rf,lf,x,d) ERR = 0 0 관련함수 trainplan, simulplan 종류신경회로망툴박스함수

86 distance 목적데이터간의거리를여러가지 metric 을통하여계산 문법 D = DISTANCE(W, OPTION) 입력 W : PxQ 데이터패턴행렬 ( 하나의데이터는 1xQ 벡터 ) OPTION : "ucli" - 유클리드거리 "grid" - 대각선방향을 1 로취급 ( 한점에서같은거리를갖는집합의모양이정사각형 ) "diam" - 격자모양에서 1 간의거리를 1 로하여계산 ( 한점에서같은거리를갖는집합의모양이마름모 ) 출력 D : PxP 거리행렬 설명여러개의벡터들간의거리를계산하여하나의행렬에저장한다. D 행렬의 (i,j) 원소는 i 번째패턴과 j 번째패턴의거리를나타낸다. 따라서 D 는대칭행렬이며, 대각원소는모두 0 이다. 사용예제 CEMTool>> P = [1 2; 2 1; 3 4] P = CEMTool>> D = distance(p,"ucli") D = CEMTool>> D = distance(p,"grid") D = CEMTool>> D = distance(p,"diam")

87 D = 관련함수 nbmat, neighbor, somplane, som 종류신경회로망툴박스함수

88 nbmat 목적 SOM 뉴런의이웃과의연결관계에따른거리를행렬로생성한다. 문법 W = NBMAT(P, Q, OPTION) 입력 P : 생성할뉴런의행수 Q : 생성할뉴런의열수 OPTION : "line" - 뉴런들이 1개의선으로연결 (1차원뉴런 ) "circ" - 유클리드거리로이웃을결정 ( 하나의뉴런에서같은거리를갖는집합의모양이원 ) "grid" - 대각선방향을 1로취급 ( 하나의뉴런에서같은거리를갖는집합의모양이정사각형 ) "diam" - 격자모양에서 1간의거리를 1로하여계산 ( 하나의뉴런에서같은거리를갖는집합의모양이마름모 ) "hexa" - 육각형모양으로이웃이생성 출력 NB : (PQ)x(PQ) 뉴런간의거리행렬 설명입력패턴과생성할뉴런의수, 이웃간의관계를이용하여 2 차원 SOM 의뉴런들의연결관계에따른거리관계를생성한다. 사용예제 CEMTool>> P = [1 2; 2 1; 3 4] P = CEMTool>> NB = nbmat(2,3,"circ") NB =

89 CEMTool>> NB = nbmat(2,3,"hexa") NB = 관련함수 distance, neighbor, somplane, som 종류신경회로망툴박스함수

90 neighbor 목적주어진뉴런에서정한거리내에속하는뉴런을찾아낸다. 문법 NB = NEIGHBOR(NM, P, D) 입력 NM : 뉴런간의거리가저장되어있는행렬 P : 이웃을구하고자하는뉴런 D : 이웃의최대거리 출력 NB : Rx2 행렬 ( 거리 D 내에있는이웃의수 ) NB(:,1) - 이웃이되는뉴런의번호 NB(:,2) - 이웃뉴런과의거리 설명주어진뉴런에서정한거리내에속하는뉴런을찾아서, 뉴런의번호와거리를행렬로표시한다. 사용예제 CEMTool>> P = [1 2; 2 1; 3 4] P = CEMTool>> NM = nbmat(2,3,"circ") NM = CEMTool>> NB = neighbor(nm,2,1.5) NB =

91 관련함수 distance, somplane, simulsom 종류신경회로망툴박스함수

92 somplane 목적 SOM 의뉴런의위치를주어진규칙에따라 2 차원평면상에만든다. 문법 PL = SOMPLANE(ROW, COL, OPTION) 입력 ROW : 생성할뉴런의행수 COL : 생성할뉴런의열수 OPTION : "grid" - 1 간격의 grid 마다하나의뉴런을만든다. "hexa" - 육각형모양으로뉴런을만든다. "rand" - 육각형모양에잡음을넣어만든다. 출력 NB : (ROWxCOL)x2 위치행렬 설명주어진옵션에따른모양에의해 (x,y) 좌표상의점을 ROWxCOL 개생성한다. 사용예제 CEMTool>> PL1 = SOMPLANE(3,3,"grid") PL1 = CEMTool>> PL2 = SOMPLANE(3,3,"hexa") PL2 =

93 관련함수 som 종류신경회로망툴박스함수

94 gensom 목적 SOM 을생성한다. 문법 [W NB] = GENSOM(P, M, N, OPTION) 입력 PATTERN : PxQ 패턴행렬 ( 하나의데이터는 1xQ 벡터 ) M : 생성하는뉴런의행수 N : 생성하는뉴런의열수 OPTION : "line" - 뉴런들이 1개의선으로연결 (1차원뉴런 ) "circ" - 유클리드거리로이웃을결정 ( 하나의뉴런에서같은거리를갖는집합의모양이원 ) "grid" - 대각선방향을 1로취급 ( 하나의뉴런에서같은거리를갖는집합의모양이정사각형 ) "diam" - 격자모양에서 1간의거리를 1로하여계산 ( 하나의뉴런에서같은거리를갖는집합의모양이마름모 ) "hexa" - 육각형모양으로이웃이생성 출력 W NB : MxN 생성뉴런행렬 : (MN)x(MN) 뉴런간의거리행렬 설명입력패턴과생성할뉴런의수, 이웃간의관계를이용하여하나의 SOM 을생성한다. 각차원에서입력패턴의최소값과최대값사이에존재하도록 W 가초기화되며, 주어진행, 열의수와옵션에의해이웃을가지도록 NB 가초기화된다. 사용예제 CEMTool>> P = [1 2; 2 1; 3 4] P = CEMTool>> [W NB] = gensom(p,3,3,"circ") W =

95 NB = 관련함수 nbmat, somplane, distance, som 종류신경회로망툴박스함수

96 trainsom 목적 SOM 을학습한다 문법 W = TRAINSOM(W, NB, P, D0, TAU1, ETA0, TAU2, EPOCH, PPLOT) 입력 W : NxQ SOM 뉴런의연결강도행렬 NB : NxN 뉴런의거리행렬 P : MxQ 입력행렬 D0 : 이웃과의거리의초기값 (default : max(max(nb));) TAU1 : 이웃과의거리가줄어드는시상수 (default : 1000/log(D0)) ETA0 : 학습률의초기값 (default : 0.1) TAU2 : 학습률이줄어드는시상수 (default : 1000) EPOCH : 최대학습회수 (default : 2000) PPLOT : 뉴런상태를도시하는간격 (default : 100) 출력 W : NxQ 학습된뉴런의연결강도행렬 설명 SOM 을경쟁학습을통해훈련시키는함수이다. Ref Haykin, S., Neural Networks, 2nd Edition, Prentice-Hall, New Jersey, 1999 Lin, C.-T. and George, C.S. Lee, Neural Fuzzy Systems, Prentice-Hall, New Jersey, 1996 사용예제 CEMTool>> P = SOMPLANE(3,3,"grid"); CEMTool>> [W NB] = GENSOM(P,2,3,"hexa"); CEMTool>> W = TRAINSOM(W,NB,P,[],[],[],[],[],[]); 관련함수 simulsom, som 종류신경회로망툴박스함수

97 simulsom 목적주어진패턴과가장가까운 SOM 뉴런을찾는다. 문법 Y = SIMULSOM(W, P) 입력 W : NxQ SOM 뉴런의연결강도행렬 P : MxQ 입력행렬 출력 Y : Nx1 P 와가장가까운뉴런의번호 설명하나혹은여러개의입력패턴에대해가장가까운연결강도를갖는 SOM 의뉴런들을찾는다. 사용예제 CEMTool>> P = [1 2; 2 1; 3 4] P = CEMTool>> [W NB] = gensom(p,2,3,"circ") W = NB = CEMTool>> Y = simulsom(w, [-1 2]) Y = 5

98 관련함수 trainsom, som 종류신경회로망툴박스함수

99 plotsom 목적 SOM 의뉴런들과이웃관계를도시한다. 문법 PLOTSOM(W, NB, D) 입력 W : PxQ 뉴런의위치행렬 ( 하나의뉴런은 1xQ 벡터 ) NB : 이웃과의거리를저장하는행렬 D : 이웃의최대거리 설명뉴런을 2 차원평면상에점으로도시하고, D 보다작거나같은이웃뉴런을선으로연결한다. 사용예제 CEMTool>> W = somplane(2,3,"hexa") W = CEMTool>> NB = nbmat(2,3,"hexa") NB = CEMTool>> PLOTSOM(W,NB,1) 관련함수 distance, som 종류신경회로망툴박스함수

100 예제이름 설명 쓰이는곳 demo_heb.cem Hebbian 학습규칙데모 2.2.1절 demo_pc.cem 퍼셉트론학습규칙데모 2.2.2절 demo_lin.cem Widrow-Hoff 학습규칙데모 2.2.3절 demo_del.cem 델타학습규칙데모 2.2.4절 demo_mlp1.cem 다층인식자학습데모 (XOR 문제 ) 3장 demo_mlp2.cem 다층인식자학습데모 ( 숫자인식 ) 3.3절 demo_rbf.cem RBFN 학습데모 ( 함수근사 ) 4.3절 demo_plan1.cem PLAN 학습데모 ( 함수근사 ) 5.3절 demo_plan2.cem PLAN 학습데모 ( 시계열예측 ) 5장 demo_som1.cem SOM 학습데모 (SOM 생성 ) 6장 demo_som2.cem SOM 학습데모 (1차원이웃구조 ) 6.3절 demo_som3.cem SOM 학습데모 (2차원이웃구조 ) 6.3절

1-1-basic-43p

1-1-basic-43p A Basic Introduction to Artificial Neural Network (ANN) 도대체인공신경망이란무엇인가? INDEX. Introduction to Artificial neural networks 2. Perceptron 3. Backpropagation Neural Network 4. Hopfield memory 5. Self Organizing

More information

딥러닝 첫걸음

딥러닝 첫걸음 딥러닝첫걸음 4. 신경망과분류 (MultiClass) 다범주분류신경망 Categorization( 분류 ): 예측대상 = 범주 이진분류 : 예측대상범주가 2 가지인경우 출력층 node 1 개다층신경망분석 (3 장의내용 ) 다범주분류 : 예측대상범주가 3 가지이상인경우 출력층 node 2 개이상다층신경망분석 비용함수 : Softmax 함수사용 다범주분류신경망

More information

Introduction to Deep learning

Introduction to Deep learning Introduction to Deep learning Youngpyo Ryu 동국대학교수학과대학원응용수학석사재학 youngpyoryu@dongguk.edu 2018 년 6 월 30 일 Youngpyo Ryu (Dongguk Univ) 2018 Daegu University Bigdata Camp 2018 년 6 월 30 일 1 / 66 Overview 1 Neuron

More information

Vector Differential: 벡터 미분 Yonghee Lee October 17, 벡터미분의 표기 스칼라미분 벡터미분(Vector diffrential) 또는 행렬미분(Matrix differential)은 벡터와 행렬의 미분식에 대 한 표

Vector Differential: 벡터 미분 Yonghee Lee October 17, 벡터미분의 표기 스칼라미분 벡터미분(Vector diffrential) 또는 행렬미분(Matrix differential)은 벡터와 행렬의 미분식에 대 한 표 Vector Differential: 벡터 미분 Yonhee Lee October 7, 08 벡터미분의 표기 스칼라미분 벡터미분(Vector diffrential) 또는 행렬미분(Matrix differential)은 벡터와 행렬의 미분식에 대 한 표기법을 정의하는 방법이다 보통 스칼라(scalar)에 대한 미분은 일분수 함수 f : < < 또는 다변수 함수(function

More information

신경망 (Neural Networks) < 인공지능입문 > 강의 허민오 Biointelligence Laboratory School of Computer Science and Engineering Seoul National University

신경망 (Neural Networks) < 인공지능입문 > 강의 허민오 Biointelligence Laboratory School of Computer Science and Engineering Seoul National University 신경망 (Neural Networks) < 인공지능입문 > 강의 허민오 Bioitelligece Laboratory School of Computer Sciece ad Egieerig Seoul Natioal Uiversity 목차 신경망이란? 퍼셉트론 - 퍼셉트론의구조와학습목표 - 퍼셉트론의활성화함수 - 퍼셉트론의학습 : 델타규칙신경망의학습 - 다층퍼셉트론

More information

PowerPoint Presentation

PowerPoint Presentation 4 장. 신경망 들어가는말 신경망 1940년대개발 ( 디지털컴퓨터와탄생시기비슷 ) 인간지능에필적하는컴퓨터개발이목표 4.1 절 일반적관점에서간략히소개 4.2-4.3 절 패턴인식의분류알고리즘으로서구체적으로설명 4.2 절 : 선형분류기로서퍼셉트론 4.3 절 : 비선형분류기로서다층퍼셉트론 4.1.1 발상과전개 두줄기연구의시너지 컴퓨터과학 계산능력의획기적발전으로지능처리에대한욕구의학

More information

Gray level 변환 및 Arithmetic 연산을 사용한 영상 개선

Gray level 변환 및 Arithmetic 연산을 사용한 영상 개선 Point Operation Histogram Modification 김성영교수 금오공과대학교 컴퓨터공학과 학습내용 HISTOGRAM HISTOGRAM MODIFICATION DETERMINING THRESHOLD IN THRESHOLDING 2 HISTOGRAM A simple datum that gives the number of pixels that a

More information

비트와바이트 비트와바이트 비트 (Bit) : 2진수값하나 (0 또는 1) 를저장할수있는최소메모리공간 1비트 2비트 3비트... n비트 2^1 = 2개 2^2 = 4개 2^3 = 8개... 2^n 개 1 바이트는 8 비트 2 2

비트와바이트 비트와바이트 비트 (Bit) : 2진수값하나 (0 또는 1) 를저장할수있는최소메모리공간 1비트 2비트 3비트... n비트 2^1 = 2개 2^2 = 4개 2^3 = 8개... 2^n 개 1 바이트는 8 비트 2 2 비트연산자 1 1 비트와바이트 비트와바이트 비트 (Bit) : 2진수값하나 (0 또는 1) 를저장할수있는최소메모리공간 1비트 2비트 3비트... n비트 2^1 = 2개 2^2 = 4개 2^3 = 8개... 2^n 개 1 바이트는 8 비트 2 2 진수법! 2, 10, 16, 8! 2 : 0~1 ( )! 10 : 0~9 ( )! 16 : 0~9, 9 a, b,

More information

예제 1.1 ( 경기값과공정한경기 ) >> A = [5 3 9; 8 10 11; 6 2 8], P = [0 1 0], Q = [1 0 0]' % 3x3 행렬경기 A = 5 3 9 8 10 11 6 2 8 P = 0 1 0 Q = 1 0 0 >> E = P * A * Q % 경기자 R은항상 2행을선택하고 C는항상 1열을선택하면, % R은 $8을얻는것이보장되고

More information

Microsoft PowerPoint - 기계공학실험1-1MATLAB_개요2D.pptx

Microsoft PowerPoint - 기계공학실험1-1MATLAB_개요2D.pptx 1. MATLAB 개요와 활용 기계공학실험 I 2013년 2학기 MATLAB 시작하기 이장의내용 MATLAB의여러창(window)들의 특성과 목적 기술 스칼라의 산술연산 및 기본 수학함수의 사용. 스칼라 변수들(할당 연산자)의 정의 및 변수들의 사용 방법 스크립트(script) 파일에 대한 소개와 간단한 MATLAB 프로그램의 작성, 저장 및 실행 MATLAB의특징

More information

Artificial Intelligence: Assignment 5 Seung-Hoon Na December 15, Numpy: Tutorial 다음 자료를 참조하여 numpy기본을 공부하시오.

Artificial Intelligence: Assignment 5 Seung-Hoon Na December 15, Numpy: Tutorial 다음 자료를 참조하여 numpy기본을 공부하시오. Artificial Intelligence: Assignment 5 Seung-Hoon Na December 15, 2018 1 Numpy: Tutorial 다음 자료를 참조하여 numpy기본을 공부하시오. https://docs.scipy.org/doc/numpy-1.15.0/user/quickstart.html https://www.machinelearningplus.com/python/

More information

Multi-pass Sieve를 이용한 한국어 상호참조해결 반-자동 태깅 도구

Multi-pass Sieve를 이용한 한국어 상호참조해결 반-자동 태깅 도구 Siamese Neural Network 박천음 강원대학교 Intelligent Software Lab. Intelligent Software Lab. Intro. S2Net Siamese Neural Network(S2Net) 입력 text 들을 concept vector 로표현하기위함에기반 즉, similarity 를위해가중치가부여된 vector 로표현

More information

(Hyunoo Shim) 1 / 24 (Discrete-time Markov Chain) * 그림 이산시간이다연쇄 (chain) 이다왜 Markov? (See below) ➀ 이산시간연쇄 (Discrete-time chain): : Y Y 의상태공간 = {0, 1, 2,..., n} Y n Y 의 n 시점상태 {Y n = j} Y 가 n 시점에상태 j 에있는사건

More information

chap 5: Trees

chap 5: Trees 5. Threaded Binary Tree 기본개념 n 개의노드를갖는이진트리에는 2n 개의링크가존재 2n 개의링크중에 n + 1 개의링크값은 null Null 링크를다른노드에대한포인터로대체 Threads Thread 의이용 ptr left_child = NULL 일경우, ptr left_child 를 ptr 의 inorder predecessor 를가리키도록변경

More information

목차 포인터의개요 배열과포인터 포인터의구조 실무응용예제 C 2

목차 포인터의개요 배열과포인터 포인터의구조 실무응용예제 C 2 제 8 장. 포인터 목차 포인터의개요 배열과포인터 포인터의구조 실무응용예제 C 2 포인터의개요 포인터란? 주소를변수로다루기위한주소변수 메모리의기억공간을변수로써사용하는것 포인터변수란데이터변수가저장되는주소의값을 변수로취급하기위한변수 C 3 포인터의개요 포인터변수및초기화 * 변수데이터의데이터형과같은데이터형을포인터 변수의데이터형으로선언 일반변수와포인터변수를구별하기위해

More information

JAVA 프로그래밍실습 실습 1) 실습목표 - 메소드개념이해하기 - 매개변수이해하기 - 새메소드만들기 - Math 클래스의기존메소드이용하기 ( ) 문제 - 직사각형모양의땅이있다. 이땅의둘레, 면적과대각

JAVA 프로그래밍실습 실습 1) 실습목표 - 메소드개념이해하기 - 매개변수이해하기 - 새메소드만들기 - Math 클래스의기존메소드이용하기 (   ) 문제 - 직사각형모양의땅이있다. 이땅의둘레, 면적과대각 JAVA 프로그래밍실습 실습 1) 실습목표 - 메소드개념이해하기 - 매개변수이해하기 - 새메소드만들기 - Math 클래스의기존메소드이용하기 ( http://java.sun.com/javase/6/docs/api ) 문제 - 직사각형모양의땅이있다. 이땅의둘레, 면적과대각선의길이를계산하는메소드들을작성하라. 직사각형의가로와세로의길이는주어진다. 대각선의길이는 Math클래스의적절한메소드를이용하여구하라.

More information

슬라이드 1

슬라이드 1 장연립방정식을 풀기위한반복법. 선형시스템 : Guss-Sedel. 비선형시스템 . 선형시스템 : Guss-Sedel (/0) 반복법은초기근을가정한후에더좋은근의값을추정하는체계적인절차를이용한다. G-S 방법은선형대수방정식을푸는반복법중에서 가장보편적으로사용되는방법이다. 개의방정식에서 인 ( 대각원소들이모두 0 이아닌 ) 경우를다루자. j j b j b j j j

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 11 곡선과곡면 01 Spline 곡선 02 Spline 곡면 03 Subdivision 곡면 C n 연속성 C 0 연속성 C 1 연속성 2 C 2 연속성 01 Spline 곡선 1. Cardinal Spline Curve 2. Hermite Spline Curve 3. Bezier Spline Curve 4. Catmull-Rom Spline Curve 5.

More information

1 1 장. 함수와극한 1.1 함수를표현하는네가지방법 1.2 수학적모형 : 필수함수의목록 1.3 기존함수로부터새로운함수구하기 1.4 접선문제와속도문제 1.5 함수의극한 1.6 극한법칙을이용한극한계산 1.7 극한의엄밀한정의 1.8 연속

1 1 장. 함수와극한 1.1 함수를표현하는네가지방법 1.2 수학적모형 : 필수함수의목록 1.3 기존함수로부터새로운함수구하기 1.4 접선문제와속도문제 1.5 함수의극한 1.6 극한법칙을이용한극한계산 1.7 극한의엄밀한정의 1.8 연속 1 1 장. 함수와극한 1.1 함수를표현하는네가지방법 1.2 수학적모형 : 필수함수의목록 1.3 기존함수로부터새로운함수구하기 1.4 접선문제와속도문제 1.5 함수의극한 1.6 극한법칙을이용한극한계산 1.7 극한의엄밀한정의 1.8 연속 2 1.1 함수를표현하는네가지방법 함수 f : D E 는집합 D 의각원소 x 에집합 E 에속하는단하나의원소 f(x) 를 대응시키는규칙이다.

More information

특집 2 부 3 신경회로망 신경회로망에대한연구는뇌신경생리학으로부터유래되어패턴인식이나연산기억장치, 최적화, 로봇제어, 문자인식, 음성인식, 신호처리등의분야로확대됐을뿐아니라경제, 경영분야의의사결정시스템에도응용되기에이르렀다. 최근에는데이터마이닝의주요기법으로손꼽히고있다. 신현

특집 2 부 3 신경회로망 신경회로망에대한연구는뇌신경생리학으로부터유래되어패턴인식이나연산기억장치, 최적화, 로봇제어, 문자인식, 음성인식, 신호처리등의분야로확대됐을뿐아니라경제, 경영분야의의사결정시스템에도응용되기에이르렀다. 최근에는데이터마이닝의주요기법으로손꼽히고있다. 신현 3 신경회로망 신경회로망에대한연구는뇌신경생리학으로부터유래되어패턴인식이나연산기억장치, 최적화, 로봇제어, 문자인식, 음성인식, 신호처리등의분야로확대됐을뿐아니라경제, 경영분야의의사결정시스템에도응용되기에이르렀다. 최근에는데이터마이닝의주요기법으로손꼽히고있다. 신현정서울대학교산업공학과 hjshin72@snu.ac.kr 조성준서울대학교산업공학과교수 zoon@snu.ac.kr

More information

예제 1.1 ( 관계연산자 ) >> A=1:9, B=9-A A = B = >> tf = A>4 % 4 보다큰 A 의원소들을찾을경우 tf = >> tf = (A==B) % A

예제 1.1 ( 관계연산자 ) >> A=1:9, B=9-A A = B = >> tf = A>4 % 4 보다큰 A 의원소들을찾을경우 tf = >> tf = (A==B) % A 예제 1.1 ( 관계연산자 ) >> A=1:9, B=9-A A = 1 2 3 4 5 6 7 8 9 B = 8 7 6 5 4 3 2 1 0 >> tf = A>4 % 4 보다큰 A 의원소들을찾을경우 tf = 0 0 0 0 1 1 1 1 1 >> tf = (A==B) % A 의원소와 B 의원소가똑같은경우를찾을때 tf = 0 0 0 0 0 0 0 0 0 >> tf

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 System Software Experiment 1 Lecture 5 - Array Spring 2019 Hwansoo Han (hhan@skku.edu) Advanced Research on Compilers and Systems, ARCS LAB Sungkyunkwan University http://arcs.skku.edu/ 1 배열 (Array) 동일한타입의데이터가여러개저장되어있는저장장소

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 3 장. 다층퍼셉트론 PREVIEW 신경망 기계학습역사에서가장오래된기계학습모델이며, 현재가장다양한형태를가짐 1950년대퍼셉트론 1980년대다층퍼셉트론 3장은 4장딥러닝의기초가됨 3.1 신경망기초 3.1.1 인공신경망과생물신경망 3.1.2 신경망의간략한역사 3.1.3 신경망의종류 3.1.1 인공신경망과생물신경망 사람의뉴런 두뇌의가장작은정보처리단위 세포체는 cell

More information

Microsoft PowerPoint - MDA 2008Fall Ch2 Matrix.pptx

Microsoft PowerPoint - MDA 2008Fall Ch2 Matrix.pptx Mti Matrix 정의 A collection of numbers arranged into a fixed number of rows and columns 측정변수 (p) 개체 x x... x 차수 (nxp) 인행렬matrix (n) p 원소 {x ij } x x... x p X = 열벡터column vector 행벡터row vector xn xn... xnp

More information

Microsoft PowerPoint - m05_Equation1(Print) [호환 모드]

Microsoft PowerPoint - m05_Equation1(Print) [호환 모드] Chap. 5 비선형방정식의해법 (1) - 구간법 CAE 기본개념소개 비선형방정식의개요 증분탐색법 이분법 가위치법 1 Chap.5 비선형방정식 (1) 비선형방정식 (Nonlinear Equation) 선형방정식 : Ax = b 해석적인방법으로방정식을만족하는해의계산이용이함한번의계산으로해를구할수있음 x = A -1 b (Direct calculation) Example:

More information

<B4EBC7D0BCF6C7D02DBBEFB0A2C7D4BCF62E687770>

<B4EBC7D0BCF6C7D02DBBEFB0A2C7D4BCF62E687770> 삼각함수. 삼각함수의덧셈정리 삼각함수의덧셈정리 삼각함수 sin (α + β ), cos (α + β ), tan (α + β ) 등을 α 또는 β 의삼각함수로나 타낼수있다. 각 α 와각 β 에대하여 α >0, β >0이고 0 α - β < β 를만족한다고가정하 자. 다른경우에도같은방법으로증명할수있다. 각 α 와각 β 에대하여 θ = α - β 라고놓자. 위의그림에서원점에서거리가

More information

장연립방정식을풀기위한반복법 12.1 선형시스템 : Gauss-Seidel 12.2 비선형시스템 12.1 선형시스템 : Gauss-Seidel (1/10) 반복법은초기근을가정한후에더좋은근의값을추정하는체계적인절차를이용한다. G-S 방법은선형대수방정

장연립방정식을풀기위한반복법 12.1 선형시스템 : Gauss-Seidel 12.2 비선형시스템 12.1 선형시스템 : Gauss-Seidel (1/10) 반복법은초기근을가정한후에더좋은근의값을추정하는체계적인절차를이용한다. G-S 방법은선형대수방정 . 선형시스템 : GussSedel. 비선형시스템. 선형시스템 : GussSedel (/0) 반복법은초기근을가정한후에더좋은근의값을추정하는체계적인절차를이용한다. GS 방법은선형대수방정식을푸는반복법중에서 가장보편적으로사용되는방법이다. 개의방정식에서 인 ( 대각원소들이모두 0 이아닌 ) 경우를다루자. j j b j j b j j 여기서 j b j j j 현재반복단계

More information

슬라이드 1

슬라이드 1 빅데이터분석을위한데이터마이닝방법론 SAS Enterprise Miner 활용사례를중심으로 9 주차 예측모형에대한평가 Assessment of Predictive Model 최종후, 강현철 차례 6. 모형평가의기본개념 6.2 모델비교 (Model Comparison) 노드 6.3 임계치 (Cutoff) 노드 6.4 의사결정 (Decisions) 노드 6.5 기타모형화노드들

More information

소성해석

소성해석 3 강유한요소법 3 강목차 3. 미분방정식의근사해법-Ritz법 3. 미분방정식의근사해법 가중오차법 3.3 유한요소법개념 3.4 편미분방정식의유한요소법 . CAD 전처리프로그램 (Preprocessor) DXF, STL 파일 입력데이타 유한요소솔버 (Finite Element Solver) 자연법칙지배방정식유한요소방정식파생변수의계산 질량보존법칙 연속방정식 뉴톤의운동법칙평형방정식대수방정식

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 [ 인공지능입문랩 ] SEOPT ( Study on the Elements Of Python and Tensorflow ) . ( 통계적이아니라시행착오적 ) 회귀분석 ( 지도학습 ) by Tensorflow - Tensorflow 를사용하는이유, 신경망구조 - youngdocseo@gmail.com 인공지능 데이터분석 When you re fundraising,

More information

π >> x=linspace(0,2*pi,30); >> y=sin(x); >> plot(x,y) π

π >> x=linspace(0,2*pi,30); >> y=sin(x); >> plot(x,y) π π >> x=linspace(,2*pi,3); >> y=sin(x); >> plot(x,y) - - - - - 2 3 4 5 6 7 π >> x=linspace(,2*pi,3); y=sin(x); z=cos(x); >> plot(x,y,x,z) - - - - - 2 3 4 5 6 7 >> x=linspace(,2*pi,3); y=sin(x); z=cos(x);

More information

Microsoft PowerPoint - Ch13

Microsoft PowerPoint - Ch13 Ch. 13 Basic OP-AMP Circuits 비교기 (Comparator) 하나의전압을다른전압 ( 기준전압, reference) 와비교하기위한비선형장치 영전위검출 in > 기준전압 out = out(max) in < 기준전압 out = out(min) 비교기 영이아닌전위검출 기준배터리 기준전압분배기 기준전압제너다이오드 비교기 예제 13-1: out(max)

More information

LIDAR와 영상 Data Fusion에 의한 건물 자동추출

LIDAR와 영상 Data Fusion에 의한 건물 자동추출 i ii iii iv v vi vii 1 2 3 4 Image Processing Image Pyramid Edge Detection Epipolar Image Image Matching LIDAR + Photo Cross correlation Least Squares Epipolar Line Matching Low Level High Level Space

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 실습 1 배효철 th1g@nate.com 1 목차 조건문 반복문 System.out 구구단 모양만들기 Up & Down 2 조건문 조건문의종류 If, switch If 문 조건식결과따라중괄호 { 블록을실행할지여부결정할때사용 조건식 true 또는 false값을산출할수있는연산식 boolean 변수 조건식이 true이면블록실행하고 false 이면블록실행하지않음 3

More information

adfasdfasfdasfasfadf

adfasdfasfdasfasfadf C 4.5 Source code Pt.3 ISL / 강한솔 2019-04-10 Index Tree structure Build.h Tree.h St-thresh.h 2 Tree structure *Concpets : Node, Branch, Leaf, Subtree, Attribute, Attribute Value, Class Play, Don't Play.

More information

3 Gas Champion : MBB : IBM BCS PO : 2 BBc : : /45

3 Gas Champion : MBB : IBM BCS PO : 2 BBc : : /45 3 Gas Champion : MBB : IBM BCS PO : 2 BBc : : 20049 0/45 Define ~ Analyze Define VOB KBI R 250 O 2 2.2% CBR Gas Dome 1290 CTQ KCI VOC Measure Process Data USL Target LSL Mean Sample N StDev (Within) StDev

More information

사용자지침서 Gene1=[ 1 0 1 1 0 1, 1.56 ]; Gene2=[ 1 1 0 0 0 0, 2.58 ]; Gene3=[ 0 0 1 1 1 0, 1.97 ]; : : Population=[ Gene1; Gene2; Gene3; ]; Gene1=[ 12 123 56, 2.67]; Gene2=[111 96 11, 12.5]; Gene3=[ 4

More information

statistics

statistics 수치를이용한자료요약 statistics hmkang@hallym.ac.kr 한림대학교 통계학 강희모 ( 한림대학교 ) 수치를이용한자료요약 1 / 26 수치를 통한 자료의 요약 요약 방대한 자료를 몇 개의 의미있는 수치로 요약 자료의 분포상태를 알 수 있는 통계기법 사용 중심위치의 측도(measure of center) : 어떤 값을 중심으로 분포되어 있는지

More information

Microsoft Word - SDSw doc

Microsoft Word - SDSw doc MIDAS/SDS Ver..4.0 기술자료 Design>Shear Check Result KCI-USD99의슬래브의불균형모멘트에대한고려기준은다음과같습니다. 7.11. 전단편심설계 (1) 슬래브의평면에수직한위험단면의도심에대해전단편심에의해전달된다고보아야할불균형모멘트의비율은다음과같다. γ υ 1 = 1 b 1+ 3 b 1 () 전단편심에의한모멘트전달로인한전단응력은위의

More information

함수공간 함수공간, 점열린위상 Definition 0.1. X와 Y 는임의의집합이고 F(X, Y ) 를 X에서 Y 로의모든함수족이라하자. 집합 F(X, Y ) 에위상을정의할때이것을함수공간 (function space) 이라한다. F(X, Y ) 는다음과같이적당한적집합과

함수공간 함수공간, 점열린위상 Definition 0.1. X와 Y 는임의의집합이고 F(X, Y ) 를 X에서 Y 로의모든함수족이라하자. 집합 F(X, Y ) 에위상을정의할때이것을함수공간 (function space) 이라한다. F(X, Y ) 는다음과같이적당한적집합과 함수공간 함수공간, 점열린위상 Definition.1. X와 Y 는임의의집합이고 F(X, Y ) 를 X에서 Y 로의모든함수족이라하자. 집합 F(X, Y ) 에위상을정의할때이것을함수공간 (function spce) 이라한다. F(X, Y ) 는다음과같이적당한적집합과같음을볼수있다. 각 x X에대해 Y x = Y 라하자. 그리고 F := Y x x X 이라하자.

More information

Microsoft PowerPoint - ch03ysk2012.ppt [호환 모드]

Microsoft PowerPoint - ch03ysk2012.ppt [호환 모드] 전자회로 Ch3 iode Models and Circuits 김영석 충북대학교전자정보대학 2012.3.1 Email: kimys@cbu.ac.kr k Ch3-1 Ch3 iode Models and Circuits 3.1 Ideal iode 3.2 PN Junction as a iode 3.4 Large Signal and Small-Signal Operation

More information

@ p a g e c o n te n tt y p e = " te x t/ h tm l;c h a rs e t= u tf- 8 " fo r (in t i= 0 ; i< = 1 0 ; i+ + ) { o u t.p rin tln (" H e llo W o rld " + i + " < b r/> " ); = re s u lt + re s u lts u m ()

More information

歯TC프로그래밍매뉴얼

歯TC프로그래밍매뉴얼 Turning Center (TC) HX - Programming Manual Serial No. : PG-20011119 HX - Programming Manual Turning Center (TC) 1...!. 2 (Program)...19 3 (G )...33 4 (Interpolation Functions)...37 5 (Feed Function)...73

More information

% Rectangular Value 입력 t = -50 : 1 : 50; % 시간영역 for i = 1 : 101 if abs ( t ( i ) ) < 10 x ( i ) = 1; else x ( i ) = 0; % 화면을 2 열 1 행으로나눈후 % 2 열 1 행에 R

% Rectangular Value 입력 t = -50 : 1 : 50; % 시간영역 for i = 1 : 101 if abs ( t ( i ) ) < 10 x ( i ) = 1; else x ( i ) = 0; % 화면을 2 열 1 행으로나눈후 % 2 열 1 행에 R % sin 그래프계산및출력 t = -50 : 1 : 50; T = 10; f = 1/T; Nsin = sin ( ( 2 * pi * f * t ) ) % 시간영역 % 주기 % 주파수 % sin(2πft) % F(sin) 계산 Fsin = fftshift ( fft ( Nsin ) ); % 화면을 2 열 1 행으로나눈후 % 2 열 1 행에 Sin 그래프출력 subplot

More information

지능정보연구제 16 권제 1 호 2010 년 3 월 (pp.71~92),.,.,., Support Vector Machines,,., KOSPI200.,. * 지능정보연구제 16 권제 1 호 2010 년 3 월

지능정보연구제 16 권제 1 호 2010 년 3 월 (pp.71~92),.,.,., Support Vector Machines,,., KOSPI200.,. * 지능정보연구제 16 권제 1 호 2010 년 3 월 지능정보연구제 16 권제 1 호 2010 년 3 월 (pp.71~92),.,.,., Support Vector Machines,,., 2004 5 2009 12 KOSPI200.,. * 2009. 지능정보연구제 16 권제 1 호 2010 년 3 월 김선웅 안현철 社 1), 28 1, 2009, 4. 1. 지능정보연구제 16 권제 1 호 2010 년 3 월 Support

More information

(Hyunoo Shim) 1 / 26 조건부생명확률 (coningen probabiliy) 이란? 사망의순서 ( 조건이됨 ) 를고려한생명확률동시생존자 / 최종생존자생명확률 : 사망이 x이든 y이든가리지않음 ( 대칭적 ) [ 조건부생명확률 : x와 y의사망순서를고려함 ( 비대칭적 ) ➀ 기호 : 예를들어, q 1 xy a) 사망순서 : 숫자 1, 2, 3,...

More information

Precipitation prediction of numerical analysis for Mg-Al alloys

Precipitation prediction of numerical analysis for Mg-Al alloys 저작자표시 - 비영리 - 변경금지 2.0 대한민국 이용자는아래의조건을따르는경우에한하여자유롭게 이저작물을복제, 배포, 전송, 전시, 공연및방송할수있습니다. 다음과같은조건을따라야합니다 : 저작자표시. 귀하는원저작자를표시하여야합니다. 비영리. 귀하는이저작물을영리목적으로이용할수없습니다. 변경금지. 귀하는이저작물을개작, 변형또는가공할수없습니다. 귀하는, 이저작물의재이용이나배포의경우,

More information

(Microsoft PowerPoint - Ch6_NumAnalysis.ppt [\310\243\310\257 \270\360\265\345])

(Microsoft PowerPoint - Ch6_NumAnalysis.ppt [\310\243\310\257 \270\360\265\345]) 수치해석 Numercal Analyss 6009 Ch6. Roots: Open Methods 개방법 : 한개의초기값에서시작하거나구간내에근을포함하지않을수도있는두개의초기값에서시작한다. 구간법과개방법의비교 (a 구간법 ( 이분법 (b 개방법 발산하는경우 (c 개방법-수렴하는경우 Numercal Analyss 6. 단순고정점반복법 (/3 f ( = 0 을재배열하여유도

More information

Microsoft Word - LAB_OPamp_Application.doc

Microsoft Word - LAB_OPamp_Application.doc 실험. OP Amp 의기본응용회로 Voltage Follower/Impedance Buffer 위의 OP amp 회로에서출력전압신호는입력전압신호와항상같으므로, voltage follower라고불린다. 이회로는어떤기능을가지는회로에부하저항을연결하였을때, 부하저항이미치는영향을최소화하기위해서사용될수있다. 예를들면 low-pass filter 회로에부하저항이연결된다음과같은회로를고려해본다.

More information

= ``...(2011), , (.)''

= ``...(2011), , (.)'' Finance Lecture Note Series 사회과학과 수학 제2강. 미분 조 승 모2 영남대학교 경제금융학부 학습목표. 미분의 개념: 미분과 도함수의 개념에 대해 알아본다. : 실제로 미분을 어떻게 하는지 알아본다. : 극값의 개념을 알아보고 미분을 통해 어떻게 구하는지 알아본다. 4. 미분과 극한: 미분을 이용하여 극한값을 구하는 방법에 대해 알아본다.

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 Chapter Radar Cross Section ( R C S ) 엄효준교수 한국과학기술원 Contents.1. RCS Definition.. RCS Prediction Methods.3. RCS Dependency on Aspect Angle and Frequency.4. RCS Dependency on Polarization.5. RCS of Simple

More information

제 11 장포인터 유준범 (JUNBEOM YOO) Ver 본강의자료는생능출판사의 PPT 강의자료 를기반으로제작되었습니다.

제 11 장포인터 유준범 (JUNBEOM YOO) Ver 본강의자료는생능출판사의 PPT 강의자료 를기반으로제작되었습니다. 제 11 장포인터 유준범 (JUNBEOM YOO) Ver. 2.0 jbyoo@konkuk.ac.kr http://dslab.konkuk.ac.kr 본강의자료는생능출판사의 PPT 강의자료 를기반으로제작되었습니다. 이번장에서학습할내용 포인터이란? 변수의주소 포인터의선언 간접참조연산자 포인터연산 포인터와배열 포인터와함수 이번장에서는포인터의기초적인지식을학습합니다.

More information

<343320C1A4B1B3B9FC2DBACEBAD0B9E6C0FC20C1F8B4DCC0BB20C0A7C7D128C0FAC0DABBA1B0A3B1DBBEBEC8AEC0CE292E687770>

<343320C1A4B1B3B9FC2DBACEBAD0B9E6C0FC20C1F8B4DCC0BB20C0A7C7D128C0FAC0DABBA1B0A3B1DBBEBEC8AEC0CE292E687770> Journal of the Korea Academia-Industrial cooperation Society Vol. 14, No. 9 pp. 4455-4461, 2013 http://dx.doi.org/10.5762/kais.2013.14.9.4455 정교범 1*, 곽선근 2 1 홍익대학교전자전기공학과, 2 ( 주 ) 코맥스 Comparison of Artificial

More information

cat_data3.PDF

cat_data3.PDF ( ) IxJ ( 5 0% ) Pearson Fsher s exact test χ, LR Ch-square( G ) x, Odds Rato θ, Ch-square Ch-square (Goodness of ft) Pearson cross moment ( Mantel-Haenszel ), Ph-coeffcent, Gamma (γ ), Kendall τ (bnary)

More information

저작자표시 - 비영리 - 변경금지 2.0 대한민국 이용자는아래의조건을따르는경우에한하여자유롭게 이저작물을복제, 배포, 전송, 전시, 공연및방송할수있습니다. 다음과같은조건을따라야합니다 : 저작자표시. 귀하는원저작자를표시하여야합니다. 비영리. 귀하는이저작물을영리목적으로이용할

저작자표시 - 비영리 - 변경금지 2.0 대한민국 이용자는아래의조건을따르는경우에한하여자유롭게 이저작물을복제, 배포, 전송, 전시, 공연및방송할수있습니다. 다음과같은조건을따라야합니다 : 저작자표시. 귀하는원저작자를표시하여야합니다. 비영리. 귀하는이저작물을영리목적으로이용할 저작자표시 - 비영리 - 변경금지 2.0 대한민국 이용자는아래의조건을따르는경우에한하여자유롭게 이저작물을복제, 배포, 전송, 전시, 공연및방송할수있습니다. 다음과같은조건을따라야합니다 : 저작자표시. 귀하는원저작자를표시하여야합니다. 비영리. 귀하는이저작물을영리목적으로이용할수없습니다. 변경금지. 귀하는이저작물을개작, 변형또는가공할수없습니다. 귀하는, 이저작물의재이용이나배포의경우,

More information

학습목차 2.1 다차원배열이란 차원배열의주소와값의참조

학습목차 2.1 다차원배열이란 차원배열의주소와값의참조 - Part2- 제 2 장다차원배열이란무엇인가 학습목차 2.1 다차원배열이란 2. 2 2 차원배열의주소와값의참조 2.1 다차원배열이란 2.1 다차원배열이란 (1/14) 다차원배열 : 2 차원이상의배열을의미 1 차원배열과다차원배열의비교 1 차원배열 int array [12] 행 2 차원배열 int array [4][3] 행 열 3 차원배열 int array [2][2][3]

More information

example code are examined in this stage The low pressure pressurizer reactor trip module of the Plant Protection System was programmed as subject for

example code are examined in this stage The low pressure pressurizer reactor trip module of the Plant Protection System was programmed as subject for 2003 Development of the Software Generation Method using Model Driven Software Engineering Tool,,,,, Hoon-Seon Chang, Jae-Cheon Jung, Jae-Hack Kim Hee-Hwan Han, Do-Yeon Kim, Young-Woo Chang Wang Sik, Moon

More information

한약재품질표준화연구사업단 고삼 ( 苦參 ) Sophorae Radix 생약연구과

한약재품질표준화연구사업단 고삼 ( 苦參 ) Sophorae Radix 생약연구과 한약재품질표준화연구사업단 고삼 ( 苦參 ) Sophorae Radix 생약연구과 - 1 - KP 11 Sophorae Radix Sophora flavescens Solander ex Aiton oxymatrine, matrine 1.0% CP 2015 Sophorae Flavescentis Radix Sophora flavescens Aiton - JP 16

More information

목차 배열의개요 배열사용하기 다차원배열 배열을이용한문자열다루기 실무응용예제 C 2

목차 배열의개요 배열사용하기 다차원배열 배열을이용한문자열다루기 실무응용예제 C 2 제 7 장. 배열 목차 배열의개요 배열사용하기 다차원배열 배열을이용한문자열다루기 실무응용예제 C 2 배열의개요 배열 (array) 의정의 같은데이터형을가지는여러개의변수를하나의배열명으로공유 기억공간을순차적으로할당받아사용하는것 [ 7.1] C 3 배열의개요 배열 (array) 의필요성 같은데이터형의여러개의변수간결하게선언 기억공간을순차적으로변수의값들을저장, 관리

More information

체의원소를계수로가지는다항식환 Theorem 0.1. ( 나눗셈알고리듬 (Division Algorithm)) F 가체일때 F [x] 의두다항식 f(x) = a 0 + a 1 x + + a n x n, a n 0 F 와 g(x) = b 0 + b 1 x + + b m x

체의원소를계수로가지는다항식환 Theorem 0.1. ( 나눗셈알고리듬 (Division Algorithm)) F 가체일때 F [x] 의두다항식 f(x) = a 0 + a 1 x + + a n x n, a n 0 F 와 g(x) = b 0 + b 1 x + + b m x 체의원소를계수로가지는다항식환 Theorem 0.1. ( 나눗셈알고리듬 (Division Algorithm)) F 가체일때 F [x] 의두다항식 f(x) = a 0 + a 1 x + + a n x n, a n 0 F 와 g(x) = b 0 + b 1 x + + b m x m, b m 0 F, m > 0 에대해 f(x) = g(x)q(x) + r(x) 을만족하는

More information

ch3.hwp

ch3.hwp 미디어정보처리 (c) -4 한남대 정보통신멀티미디어학부 MCCLab. - -...... (linear filtering). Z k = n i = Σn m Σ j = m M ij I ji 컨볼루션 영역창 I I I I 3 I 4 I 5 I 6 I 7 I 8 x 컨볼루션 마스크 M M M M 3 M 4 M 5 M 6 M 7 M 8 I 입력 영상 Z 4 = 8 k

More information

PowerPoint Presentation

PowerPoint Presentation MATLAB 기초사용법 2.2. MATLAB 의작업환경 Help 현재 directory Workspace 2.2. MATLAB 의작업환경 2.2.2 MATLAB 의작업폴더 >> cd >> dir * Path: MATLAB 프로그램이파일을찾는경로 2.2. MATLAB 의작업환경 2.2.4. MATLAB 의작업방법 1) MATLAB 에서실행되는파일인 m 파일을만들어실행하는방법

More information

사용자 설명서 SERVO DRIVE (FARA-CSD,CSDP-XX)

사용자 설명서 SERVO DRIVE (FARA-CSD,CSDP-XX) A3 : 30W 10 : 1kW A5 : 50W 15 : 1.5kW 01 : 100W 20 : 2kW.... 08 : 800W 50 : 5kW CSD series CSDD series CSDF series CSDS series CSDH series CSDN series CSDX series A : AC110V B : AC220V S : / P : 20?C

More information

untitled

untitled int i = 10; char c = 69; float f = 12.3; int i = 10; char c = 69; float f = 12.3; printf("i : %u\n", &i); // i printf("c : %u\n", &c); // c printf("f : %u\n", &f); // f return 0; i : 1245024 c : 1245015

More information

Microsoft PowerPoint - 3ÀÏ°_º¯¼ö¿Í »ó¼ö.ppt

Microsoft PowerPoint - 3ÀÏ°_º¯¼ö¿Í »ó¼ö.ppt 변수와상수 1 변수란무엇인가? 변수 : 정보 (data) 를저장하는컴퓨터내의특정위치 ( 임시저장공간 ) 메모리, register 메모리주소 101 번지 102 번지 변수의크기에따라 주로 byte 단위 메모리 2 기본적인변수형및변수의크기 변수의크기 해당컴퓨터에서는항상일정 컴퓨터마다다를수있음 short

More information

Microsoft PowerPoint - 알고리즘_5주차_1차시.pptx

Microsoft PowerPoint - 알고리즘_5주차_1차시.pptx Basic Idea of External Sorting run 1 run 2 run 3 run 4 run 5 run 6 750 records 750 records 750 records 750 records 750 records 750 records run 1 run 2 run 3 1500 records 1500 records 1500 records run 1

More information

Microsoft PowerPoint - chap-11.pptx

Microsoft PowerPoint - chap-11.pptx 쉽게풀어쓴 C 언어 Express 제 11 장포인터 컴퓨터프로그래밍기초 이번장에서학습할내용 포인터이란? 변수의주소 포인터의선언 간접참조연산자 포인터연산 포인터와배열 포인터와함수 이번장에서는포인터의기초적인지식을학습한다. 컴퓨터프로그래밍기초 2 포인터란? 포인터 (pointer): 주소를가지고있는변수 컴퓨터프로그래밍기초 3 메모리의구조 변수는메모리에저장된다. 메모리는바이트단위로액세스된다.

More information

슬라이드 1

슬라이드 1 Pairwise Tool & Pairwise Test NuSRS 200511305 김성규 200511306 김성훈 200614164 김효석 200611124 유성배 200518036 곡진화 2 PICT Pairwise Tool - PICT Microsoft 의 Command-line 기반의 Free Software www.pairwise.org 에서다운로드후설치

More information

신경망을 이용한 멜로디 패턴 인식

신경망을 이용한 멜로디 패턴 인식 신경망을이용한멜로디패턴인식 Melody Pattern Recognition using Artificial Neural Networks 서울대학교공과대학컴퓨터공학부 97419-012 김석환 apex@apex.pe.kr 요약 지금까지컴퓨터를이용한문서검색에는많은연구가있어왔다. 우리가이용하는인터넷검색엔진은이러한문서정보검색을기반으로하는하나의시스템이라고할수있다. 그러나소리나영상에관하여사용자친화적

More information

Microsoft PowerPoint - ch10 - 이진트리, AVL 트리, 트리 응용 pm0600

Microsoft PowerPoint - ch10 - 이진트리, AVL 트리, 트리 응용 pm0600 균형이진탐색트리 -VL Tree delson, Velskii, Landis에의해 1962년에제안됨 VL trees are balanced n VL Tree is a binary search tree such that for every internal node v of T, the heights of the children of v can differ by at

More information

(Microsoft PowerPoint - Ch21_NumAnalysis.ppt [\310\243\310\257 \270\360\265\345])

(Microsoft PowerPoint - Ch21_NumAnalysis.ppt [\310\243\310\257 \270\360\265\345]) 수치해석 161009 Ch21. Numerical Differentiation 21.1 소개및배경 (1/2) 미분 도함수 : 독립변수에대한종속변수의변화율 y = x f ( xi + x) f ( xi ) x dy dx f ( xi + x) f ( xi ) = lim = y = f ( xi ) x 0 x 차분근사 도함수 1 차도함수 : 곡선의한점에서접선의구배 21.1

More information

A sudy on realizaion of speech and speaker recogniion sysem based on feedback of recogniion value

A sudy on realizaion of speech and speaker recogniion sysem based on feedback of recogniion value Maser s Thesis A sudy on realizaion of speech and speaker recogniion sysem based on feedback of recogniion value (Kim, Hyun Goo) Deparmen of Mechanical Engineering, Division of Mechanical Engineering Korea

More information

15 홍보담당관 (언론홍보담당) 김병호 ( 金 秉 鎬 ) 16 (행정담당) 박찬해 ( 朴 鑽 海 ) 예산담당관 17 (복지행정담당) 이혁재 ( 李 赫 在 ) 18 (보육담당) 주사 이영임 ( 李 泳 任 ) 기동근무해제. 19 (장애인담당) 박노혁 ( 朴 魯 爀 ) 기동

15 홍보담당관 (언론홍보담당) 김병호 ( 金 秉 鎬 ) 16 (행정담당) 박찬해 ( 朴 鑽 海 ) 예산담당관 17 (복지행정담당) 이혁재 ( 李 赫 在 ) 18 (보육담당) 주사 이영임 ( 李 泳 任 ) 기동근무해제. 19 (장애인담당) 박노혁 ( 朴 魯 爀 ) 기동 人 事 發 令 논산시 (2013. 2. 7일자) 일련 1 감사담당관 지방행정사무관 이정열 ( 李 廷 烈 ) 2 지방행정사무관 김오형 ( 金 五 衡 ) 감사담당관 3 지방행정사무관 조상환 ( 趙 相 煥 ) 행정지원과 4 지방행정사무관 이정호 ( 李 廷 鎬 ) 5 지방행정사무관 서형욱 ( 徐 炯 旭 ) 6 산림공원과 지방행정사무관 이연형 ( 李 連 炯 ) 취암동

More information

(Microsoft PowerPoint - Ch17_NumAnalysis.ppt [\310\243\310\257 \270\360\265\345])

(Microsoft PowerPoint - Ch17_NumAnalysis.ppt [\310\243\310\257 \270\360\265\345]) 수치해석 6009 Ch7. Polyomial Iterpolatio 다항식보간법 T C ρ kg/m µ N s/m v m /s -40 0 0 50 00 50 00 50 00 400.5.9.0.09 0.946 0.85 0.746 0.675 0.66 0.55.5 0-5.7 0-5.80 0-5.95 0-5.7 0-5.8 0-5.57 0-5.75 0-5.9 0-5.5

More information

MAX+plus II Getting Started - 무작정따라하기

MAX+plus II Getting Started - 무작정따라하기 무작정 따라하기 2001 10 4 / Version 20-2 0 MAX+plus II Digital, Schematic Capture MAX+plus II, IC, CPLD FPGA (Logic) ALTERA PLD FLEX10K Series EPF10K10QC208-4 MAX+plus II Project, Schematic, Design Compilation,

More information

(001~006)개념RPM3-2(부속)

(001~006)개념RPM3-2(부속) www.imth.tv - (~9)개념RPM-(본문).. : PM RPM - 대푯값 페이지 다민 PI LPI 알피엠 대푯값과산포도 유형 ⑴ 대푯값 자료 전체의 중심적인 경향이나 특징을 하나의 수로 나타낸 값 ⑵ 평균 (평균)= Ⅰ 통계 (변량)의 총합 (변량의 개수) 개념플러스 대푯값에는 평균, 중앙값, 최 빈값 등이 있다. ⑶ 중앙값 자료를 작은 값부터 크기순으로

More information

딥러닝튜토리얼 Deep Learning Tutorial - 신경망과딥러닝의이해 Understanding Neural Network & Deep Learning

딥러닝튜토리얼 Deep Learning Tutorial - 신경망과딥러닝의이해 Understanding Neural Network & Deep Learning 딥러닝튜토리얼 Deep Learning Tutorial - 신경망과딥러닝의이해 Understanding Neural Network & Deep Learning 집필기관및참여인원 : 소프트웨어정책연구소 안성원 추형석 전남대학교 김수형 목 차 제 1 장서론 2 제2장단일퍼셉트론 2 제1절구조 2 제2절기능 3 제3절학습원리 5 제4절단층퍼셉트론 8 제3장다층퍼셉트론

More information

해양모델링 2장5~18 2012.7.27 12:26 AM 페이지6 6 오픈소스 소프트웨어를 이용한 해양 모델링 2.1.2 물리적 해석 식 (2.1)의 좌변은 어떤 물질의 단위 시간당 변화율을 나타내며, 우변은 그 양을 나타낸 다. k 5 0이면 C는 처음 값 그대로 농

해양모델링 2장5~18 2012.7.27 12:26 AM 페이지6 6 오픈소스 소프트웨어를 이용한 해양 모델링 2.1.2 물리적 해석 식 (2.1)의 좌변은 어떤 물질의 단위 시간당 변화율을 나타내며, 우변은 그 양을 나타낸 다. k 5 0이면 C는 처음 값 그대로 농 해양모델링 2장5~18 2012.7.27 12:26 AM 페이지5 02 모델의 시작 요약 이 장에서는 감쇠 문제를 이용하여 여러분을 수치 모델링 세계로 인도한다. 유한 차분법 의 양해법과 음해법 그리고 일관성, 정확도, 안정도, 효율성 등을 설명한다. 첫 번째 수치 모델의 작성과 결과를 그림으로 보기 위해 FORTRAN 프로그램과 SciLab 스크립트가 사용된다.

More information

Multi-pass Sieve를 이용한 한국어 상호참조해결 반-자동 태깅 도구

Multi-pass Sieve를 이용한 한국어 상호참조해결 반-자동 태깅 도구 Machine Learning Linear Regression siga α 2015.06.06. siga α Issues siga α 2 Issues https://www.facebook.co/architecturearts/videos/ 1107531579263808/ 8 살짜리조카에게데이터베이스 (DB) 가무엇인지 3 줄의문장으로설명하시오 6 개월동안최대

More information

Microsoft PowerPoint - e pptx

Microsoft PowerPoint - e pptx Import/Export Data Using VBA Objectives Referencing Excel Cells in VBA Importing Data from Excel to VBA Using VBA to Modify Contents of Cells 새서브프로시저작성하기 프로시저실행하고결과확인하기 VBA 코드이해하기 Referencing Excel Cells

More information

Structure and Interpretation of Computer Programs: Assignment 3 Seung-Hoon Na October 4, George (아래 3개의 문제에 대한 구현이 모두 포함된 george.rkt파일을 제출하시오.

Structure and Interpretation of Computer Programs: Assignment 3 Seung-Hoon Na October 4, George (아래 3개의 문제에 대한 구현이 모두 포함된 george.rkt파일을 제출하시오. Structure and Interpretation of Computer Programs: Assignment 3 Seung-Hoon Na October 4, 2018 1 George (아래 3개의 문제에 대한 구현이 모두 포함된 george.rkt파일을 제출하시오. 실행후 Problem 1.3에 대한 Display결과가 나와야 함) George 그림은 다음과

More information

Microsoft PowerPoint - chap06-2pointer.ppt

Microsoft PowerPoint - chap06-2pointer.ppt 2010-1 학기프로그래밍입문 (1) chapter 06-2 참고자료 포인터 박종혁 Tel: 970-6702 Email: jhpark1@snut.ac.kr 한빛미디어 출처 : 뇌를자극하는 C프로그래밍, 한빛미디어 -1- 포인터의정의와사용 변수를선언하는것은메모리에기억공간을할당하는것이며할당된이후에는변수명으로그기억공간을사용한다. 할당된기억공간을사용하는방법에는변수명외에메모리의실제주소값을사용하는것이다.

More information

Microsoft PowerPoint - LA_ch6_1 [호환 모드]

Microsoft PowerPoint - LA_ch6_1 [호환 모드] Chapter 6 선형변환은무질서한과정과공학제어시스템의설계에관한연구에사용된다. 또한전기및음성신호로부터의소음여과와컴퓨터그래픽등에사용된다. 선형변환 Liear rasformatio 6. 6 변환으로서의행렬 Matrices as rasformatios 6. 변환으로서의행렬 6. 선형연산자의기하학 6.3 핵과치역 6.4 선형변환의합성과가역성 6.5 컴퓨터그래픽 si

More information

Microsoft Word - SAS_Data Manipulate.docx

Microsoft Word - SAS_Data Manipulate.docx 수학계산관련 함수 함수 형태 내용 SIN(argument) TAN(argument) EXP( 변수명 ) SIN 값을계산 -1 argument 1 TAN 값을계산, -1 argument 1 지수함수로지수값을계산한다 SQRT( 변수명 ) 제곱근값을계산한다 제곱은 x**(1/3) = 3 x x 1/ 3 x**2, 세제곱근 LOG( 변수명 ) LOGN( 변수명 )

More information

Microsoft Word - LectureNote.doc

Microsoft Word - LectureNote.doc 5. 보간법과회귀분석 . 보간법 Iterpolto. 서론 응용예 : 원자간 pr-wse tercto Tlor Seres oe-pot ppromto 를사용할수없는이유 Appromte / t 3 usg Tlor epso t.! P! 3 4 5 6 7 P 3-3 -5-43 -85 . Newto Tlor Seres 와의관계 te dvded derece Forwrd

More information

A Hierarchical Approach to Interactive Motion Editing for Human-like Figures

A Hierarchical Approach to Interactive Motion Editing for Human-like Figures 단일연결리스트 (Singly Linked List) 신찬수 연결리스트 (linked list)? tail 서울부산수원용인 null item next 구조체복습 struct name_card { char name[20]; int date; } struct name_card a; // 구조체변수 a 선언 a.name 또는 a.date // 구조체 a의멤버접근 struct

More information

슬라이드 1

슬라이드 1 마이크로컨트롤러 2 (MicroController2) 2 강 ATmega128 의 external interrupt 이귀형교수님 학습목표 interrupt 란무엇인가? 기본개념을알아본다. interrupt 중에서가장사용하기쉬운 external interrupt 의사용방법을학습한다. 1. Interrupt 는왜필요할까? 함수동작을추가하여실행시키려면? //***

More information

완벽한개념정립 _ 행렬의참, 거짓 수학전문가 NAMU 선생 1. 행렬의참, 거짓개념정리 1. 교환법칙과관련한내용, 는항상성립하지만 는항상성립하지는않는다. < 참인명제 > (1),, (2) ( ) 인경우에는 가성립한다.,,, (3) 다음과같은관계식을만족하는두행렬 A,B에

완벽한개념정립 _ 행렬의참, 거짓 수학전문가 NAMU 선생 1. 행렬의참, 거짓개념정리 1. 교환법칙과관련한내용, 는항상성립하지만 는항상성립하지는않는다. < 참인명제 > (1),, (2) ( ) 인경우에는 가성립한다.,,, (3) 다음과같은관계식을만족하는두행렬 A,B에 1. 행렬의참, 거짓개념정리 1. 교환법칙과관련한내용, 는항상성립하지만 는항상성립하지는않는다. < 참인명제 > (1),, (2) ( ) 인경우에는 가성립한다.,,, (3) 다음과같은관계식을만족하는두행렬 A,B에대하여 AB=BA 1 가성립한다 2 3 (4) 이면 1 곱셈공식및변형공식성립 ± ± ( 복호동순 ), 2 지수법칙성립 (은자연수 ) < 거짓인명제 >

More information

Artificial Intelligence: Assignment 6 Seung-Hoon Na December 15, Sarsa와 Q-learning Windy Gridworld Windy Gridworld의 원문은 다음 Sutton 교재의 연습문제

Artificial Intelligence: Assignment 6 Seung-Hoon Na December 15, Sarsa와 Q-learning Windy Gridworld Windy Gridworld의 원문은 다음 Sutton 교재의 연습문제 Artificial Intelligence: Assignment 6 Seung-Hoon Na December 15, 2018 1 1.1 Sarsa와 Q-learning Windy Gridworld Windy Gridworld의 원문은 다음 Sutton 교재의 연습문제 6.5에서 찾아볼 수 있다. http://incompleteideas.net/book/bookdraft2017nov5.pdf

More information

Microsoft PowerPoint - 05장(함수) [호환 모드]

Microsoft PowerPoint - 05장(함수) [호환 모드] 이장에서다룰내용 1 함수의기본 2 함수의입출력방법 함수 함수는입력을넣으면출력이나오는마술상자다. 3 4 재귀함수 Inline 함수 01_ 함수의기본 01_ 함수의기본 함수란 함수를사용할때의장점 반복적으로실행해야할내용을함수로만들어필요할때마다호출해사용할수있다. 프로그램이모듈화 ( 블록화 ) 되므로읽기쉽고, 디버그와편집이쉽다. 프로그램의기능과구조을한눈에알아보기쉽다.

More information

2002년 2학기 자료구조

2002년 2학기 자료구조 자료구조 (Data Structures) Chapter 1 Basic Concepts Overview : Data (1) Data vs Information (2) Data Linear list( 선형리스트 ) - Sequential list : - Linked list : Nonlinear list( 비선형리스트 ) - Tree : - Graph : (3)

More information

Microsoft PowerPoint - chap06-1Array.ppt

Microsoft PowerPoint - chap06-1Array.ppt 2010-1 학기프로그래밍입문 (1) chapter 06-1 참고자료 배열 박종혁 Tel: 970-6702 Email: jhpark1@snut.ac.kr 한빛미디어 출처 : 뇌를자극하는 C프로그래밍, 한빛미디어 -1- 배열의선언과사용 같은형태의자료형이많이필요할때배열을사용하면효과적이다. 배열의선언 배열의사용 배열과반복문 배열의초기화 유연성있게배열다루기 한빛미디어

More information

PowerPoint 프레젠테이션

PowerPoint 프레젠테이션 Introduction to Deep Learning and Neural Networks Vision Modeling Lab. Division of Electrical Engineering Hanyang University, ERICA Campus 2 Contents Machine learning Artificial Neural Network (ANN) 신경망의역사와최근의딥러닝

More information

chap 5: Trees

chap 5: Trees Chapter 5. TREES 목차 1. Introduction 2. 이진트리 (Binary Trees) 3. 이진트리의순회 (Binary Tree Traversals) 4. 이진트리의추가연산 5. 스레드이진트리 (Threaded Binary Trees) 6. 히프 (Heaps) 7. 이진탐색트리 (Binary Search Trees) 8. 선택트리 (Selection

More information

OR MS와 응용-03장

OR MS와 응용-03장 o R M s graphical solution algebraic method ellipsoid algorithm Karmarkar 97 George B Dantzig 979 Khachian Karmarkar 98 Karmarkar interior-point algorithm o R 08 gallon 000 000 00 60 g 0g X : : X : : Ms

More information

1 장 C 언어복습 표준입출력배열포인터배열과포인터함수 const와포인터구조체컴파일러사용방법 C++ 프로그래밍입문

1 장 C 언어복습 표준입출력배열포인터배열과포인터함수 const와포인터구조체컴파일러사용방법 C++ 프로그래밍입문 1 장 C 언어복습 표준입출력배열포인터배열과포인터함수 const와포인터구조체컴파일러사용방법 C++ 프로그래밍입문 1. 표준입출력 표준입출력 입력 : 키보드, scanf 함수 출력 : 모니터, printf 함수문제 : 정수값 2개를입력받고두값사이의값들을더하여출력하라. #include int main(void) int Num1, Num2; int

More information

( 분류및특징 ) 학습방법에따라 1 지도학습 (Supervised 2 비지도 학습 (Unsupervised 3 강화학습 (Reinforcement 으로구분 3) < 머신러닝의학습방법 > 구분 지도학습 (Supervised 비지도학습 (Unsupervised 강화학습 (

( 분류및특징 ) 학습방법에따라 1 지도학습 (Supervised 2 비지도 학습 (Unsupervised 3 강화학습 (Reinforcement 으로구분 3) < 머신러닝의학습방법 > 구분 지도학습 (Supervised 비지도학습 (Unsupervised 강화학습 ( 보안연구부 -2016-016 머신러닝 (Machine 개요및활용동향 - 금융권인공지능 (AI) 을위한머신러닝과딥러닝 - ( 보안연구부보안기술팀 / 2016.3.24.) 개요 이세돌 9단과인공지능 (AI, Artificial Intelligence) 알파고 (AlphaGo) 의대국 ( 16 년 3월 9~15일총 5국 ) 의영향으로 4차산업혁명단계 1) 진입을인식함과더불어금융권에서도인공지능기술이주목받게됨에따라,

More information