49
산선생의 집입니다. 환영해요 선형 시스템 (Linear System) 본 내용은 "Linear System Theory and Design by Chi-Tsong Chen 3rd Edition"의 내용을 참 조하여 설명한다. 선형시스템에 필요한 선형 대수 및 기초 수학도 여기에 정리한다. Part I Linear Algebra Linear Independent Vectors 위 식을 만족시키는 가 0이외 값을 갖는다면 위 vector x는 Linear Dependent Vector라고 하고, 그렇지 않고 위 식을 만족하는 상수 는 오직 0 뿐일 때, Linear Independent Vector라고 한다. 여기서 Linear Independent 개념은 Matrix를 다루는데 있어서 매우 중요한 개념이다. Rank를 구 한다거나 할 때 항상 필요로 하는 개념이다. Matrix의 Differentiation과 Integral file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (1 of 49) [2007-05-21 오후 6:56:40]

선형 시스템 (Linear System) Part I Linear Algebra · 2015-01-21 · 산선생의 집입니다. 환영해요 선형 시스템 (Linear System) 본 내용은 "Linear System Theory

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

산선생의 집입니다. 환영해요

선형 시스템 (Linear System)

본 내용은 "Linear System Theory and Design by Chi-Tsong Chen 3rd Edition"의 내용을 참조하여 설명한다.

선형시스템에 필요한 선형 대수 및 기초 수학도 여기에 정리한다.

Part I Linear Algebra

Linear Independent Vectors

위 식을 만족시키는 가 0이외 값을 갖는다면 위 vector x는 Linear Dependent Vector라고 하고,

그렇지 않고 위 식을 만족하는 상수 는 오직 0 뿐일 때, Linear Independent Vector라고 한다.

여기서 Linear Independent 개념은 Matrix를 다루는데 있어서 매우 중요한 개념이다. Rank를 구한다거나

할 때 항상 필요로 하는 개념이다.

Matrix의 Differentiation과 Integral

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (1 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

Matrix의 Exponential

즉 행렬 지수함수의 미분법이 Scaler 지수함수의 미분법과 같다.

Basis and Representation

이라는 space에 속하는 모든 vector를 어떤 linearly independent vectors의 조합으로 나타낼 수 있다면,

이 linear independent vectors의 집합을 basis라고 한다. basis는 하나만 있는 것이 아니라 여러 개가 있을 수도 있다.

모든 vector x는 basis를 사용해서 표현할 수 있다. basis를 라 한다면

로 정의한다면, 로 나타낼 수가 있다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (2 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

여기서 를 basis 에 관한 vector x의 representation이라 한다.

따라서, 에 속하는 모든 vector x는 basis와 representation으로 표현할 수 있다.

Norms of Vectors

norm이라 하는 것의 의미는 거리나 크기의 일반화된 것을 말한다. 어떤 x의 real-valued function

의 norm은 표현한다.

일반적인 p-norm의 식은 다음과 같다.

우리가 주로 사용하는 Euclidean norm은 이다. 이것은 위 식의 2-norm이다.

Orthonormalization

어떤 vector x의 Euclidean norm(2-norm)이 1(= ) 이라면 x는 normalized라고 말한다.

norm이 1이라는 것은 이 vector의 크기가 1이라는 의미이다. 이것이 주로 사용하는 normalized(정규)의 의미이다.

주의할 점은 은 scaler이고, 은 vector x의 dimension을 갖는다는 것이다. 혼동하지 말자.

어떤 두 vectors 의 orthonormal은 다음과 같이 정의된다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (3 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

즉, 서로 다른 vector가 서로 직교(내적 =inner product가 0)하고 그 크기는 1인 것을 orthonormal 이라 한다.

어떤 주어진 linearly independent vectors의 집합 라 할 때, orthonormal 집합은 다음과 같이 얻는다.

Rank and Nullity

다음과 같은 linear algebraic equations을 생각해보자.

Ax = y where A는 m x n, y는 m x 1, x는 n x 1

이 식은 m개의 식이 있고, n개의 미지수로 이루어져 있다.

range space(column space) of A는 A의 가능한 모든 columns의 선형 조합으로 정의한다.

즉, column vectors로 span(확장)될 수 있는 space를 말한다.

Rank는 range space의 dimension으로 정의한다. 즉, A의 linearly independent columns의 수를 말한다.

이것은 A의 linearly independent rows의 수와 일치한다. 즉, Rank(A) min(m,n) where A는 m x n

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (4 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

Ax = 0을 만족하는 x를 null vector라고 하고, 이 때의 모든 x를 포함하는 space를 null space라고 한다.

즉 x는 equation의 solution이 되고 null space는 서로 다른 solutions space가 된다.

Nullity는 서로 다른 null vector의 최대 개수를 말한다. Rank와 Nullity 사이에는 다음과 같은 관계가 있다.

Nullity(A) = number of columns of A - Rank(A)

이 말은 A의 전체 columns중에서 서로 독립적인 것들의 개수를 빼면 solution vector의 최대 개수가 된다는 의미이다.

만약, Rank(A)가 number of columns of A와 같다면 Ax=0의 solution은 0 vector뿐이다.

if and only if A가 full rank를 갖는다면 Ax = y 의 solution은 모든 y에 대해서 존재하게 된다.

A가 full rank를 가지면 A는 nonsingular( )하고 nonsingular하면 A의 inverse가 존재한다는 의미이고,

따라서 으로 표현 가능하다.

Rank와 Nullity는 선형 system 뿐만 아니라 여러 곳에서 중요하게 사용되는 개념들이다. 나중에 이것들을 이용해서

system의 stability,observability,.. 등을 알아 내기도 한다.

Eigenvalue

real matrix n x n A에 대해, 를 만족하는 nonzero x가 존재할 때, 를 eigenvalue라고 한다.

이 때의 는 real(실수)이거나 complex(복소)일 수 있다. 또 이때의 에 대한 x를 eigenvector라고 한다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (5 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

가 결정되면 eigenspace가 결정되게 되는데, 이 space내에는 여러개의 eigenvector가 존재할 수 있다.

eigenvector를 결정할 때는 eigenspace내에서 임의의 것으로 결정하면 된다.

그럼, eigenvalue를 어떻게 얻는지 알아보자. 다음식을 통해서 얻을 수 있다.

I는 A의 order와 같은 n Identity matrix이다.

위 식을 살펴볼 때, x가 0이외의 solution을 갖기 위해서는 가 singular해야 된다.

즉, det(determinant) = 0이어야 x는 0이외의 solution을 갖게 된다.

이 식을 특성 방정식(characteristic equation)이라 한다.

모든 eigenvalues가 서로 다르다면 각각의 eigenvalue에 해당하는 eigenspace는 다르기 때문에

eigenvector 또한 다르다, 즉 eigenvector들끼리 linearly independent하다. 이 경우 diagonal matrix가

아닌 A를 이 linearly independent eigenvector를 사용해서 diagonal matrix 형태로 변형 시킬 수가 있다.

엄밀히 말하면, diagonal이 아닌 A를 eigenvectors로 이루어진 basis와 그 때의 diagonal representation으로

나눌 수가 있다. 즉 로 나타낼 수 있다. D는 A의 diagonal representation을 말한다.

diagonal matrix라는 것은 대각 terms을 제외한 term은 모두 0인 matrix를 말한다.

어떤 matrix가 diagonal matrix라는 것은 큰 매력을 갖는데, 그것은 계산이 쉽고, 조작이 간단하기 때문이다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (6 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

eigenvalue가 복소수(complex number)일 때는 실수일 때와 거의 똑같고 단지 실수에서의 transpose는

conjugate transpose로 바꿔주면 된다. inner product(내적)의 정의가 복소수에서는 바뀌게 된다.

자세한 것은 생략하기로 한다.

Jordan Form

A의 eigenvalues가 모두 서로 다르지 않을 때,즉 어떤 eigenvalue는 2차 이상의 order를 가지는 경우를 말한다.

이 때에는 A가 diagonal representation을 갖지 않을 수도 있다. 하지만 이것들은 block으로 diagonal하거나

triangular형태의 representation을 갖는다. 이 때 나타나는 것이 Jordan block이란 것이다.

우선 Jordan block이 어떻게 나오게 되는지 살펴본다.

4 x 4 matrix A의 eigenvalue는 오직 뿐이라면, 즉 는 오직 하나의 solution을 갖는다는 의미이다.

따라서, 의 nullity는 1이고, rank = 4 - 1=3이다.

eigenvalue가 하나이기 때문에 linearly independent eigenvector는 하나밖에 구할 수 없다.

지금 하고자 하는 것은 A의 representation을 Jordan form으로 얻고자 하는 것인데, basis를 구성하려면

lineary independent eigenvector가 4개 필요하게 된다. 따라서 더 구해야 할 것은 3개이다.

가 4중근이기 때문에, 는 다음과 같은 식을 만족하는 것들로 선택하면 될 것이다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (7 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

이 때, generalized eigenvector of grade n을 다음과 같이 정의할 수 있다.

즉, 가 linearly independent하기 위해서 이다. n=1일 때의 의미를 살펴보

면, 이다.

이제 n=4일 때, eigenvector를 다음과 같이 정의한다.

이것들은 generalized eigenvector이므로 그 정의를 만족해야 한다. 따라서,

eigenvector를 정의한 식으로부

터 ,를 얻을 수 있다.

이제 A를 basis 와 representation J로 나타내면,

J를 살펴보면 diagonal terms엔 똑같은 eigenvalue가 있고, 바로 위의 superdiagonal terms엔 1이 있다.

우리는 이 J를 order 4의 Jordan block이라 한다. 위와 같이 eigenvalue가 같은 submatrix를 Jordan block으로

나눌 수 있다. 일반적으로 로 표현할 수가 있는데, 의 형태, 몇 가지를 예를 보이겠다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (8 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

1. 2.

3.

각 matrix에서 Jordan block을 따로 표시하였다.

1번 같은 경우는 Jordan block이 2개 있으며, 첫 번째 block은 에 대해서 order 3이고, 에 대해서 order 1이다.

3번의 경우는 Jordan block이 [ ],[ ],[ ],[ ]이 되어 Jordan block이 총 4개이다.

위의 Jordan block들을 살펴보면 모두 upper triangular이고 block diagonal 형태인 것을 볼 수 있다.

이런 형태의 matrix도 diagonal만큼은 아니지만 계산 및 조작인 간단하다. 예를 들면 다음과 같은 것들이 있다.

의 determinant, 가 된다.

즉, triangular form의 determinant는 대각 terms의 곱으로 나타나게 된다.

만약 (nonsigular) 라면 이것은 대각 terms에 zero term이 없다는 얘기이다.

또 다른 예는 order 4의 Jordan block을 예를 들면,

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (9 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

이런 특성을 nilpotent라고 한다.

Functions of a Square Matrix

라 정의한다.

monic polynomial이란 위의 처럼 leading coefficient(여기서는 의 계수)가 1인 polynomial을 말한다.

minimal polynomial of A는 를 만족하는 최소차(least degree)의 monic

polynomial 로 정의한다.

minimal polynomial은 나중에 자주 나오는 놈이어서 여기서 제대로 알고 넘어가자.

일반적으로 A의 minimal polynomial를 구하는 것은 쉽지 않다. 하지만 A의 representation이 Jordan-form으로

표시된다면 minimal polynomial은 쉽게 얻을 수 있다.

가 multiplicity ( 중근) eigenvalue라 할 때, 특성 방정식은 다음과 같다.

Index of 를 라 표현하고, 이것은 와 관련된 모든 Jordan block중에서 가장 큰 order로 정의한다.

이제 이 index를 가지고 minimal polynomial을 정의할 수 있다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (10 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

앞의 Jordan block의 예를 세 개 들었는데, 각각의 minimal polynomial은 다음과 같다.

1. 2.

3.

3번은 Jordan block이 모두 order 1이고, 가 삼중근이어서 minimal로 표현된 것이다.

minimal polynomial은 characteristic polynomial의 인자(factor)들로 이루어져 있다.

물론, 특성 방정식보다 낮거나 같은 차수를 갖는다. 같은 경우는 모든 eigenvalue가 다를 때이다.

는 ordan block의 nilpotent에 따라 각 Jordan block은 0이 된다.

위 예를 보인 것을 보면, minimal polynomial은 각 Jordan block의 해당 index만큼 제곱되어 있기 때문에

nilpotent 성질에 따라, 이 되는 것이다.

minimal polynomial은 위 결과를 잘 보면서 그 의미를 파악하기 바란다.

Cayley-Hamilton Theorem

Characteristic polynomial of A를 다음과 같이 두면, 이것은 matrix에 대해서도 성립한다.

이 때의 특성 방정식은 minimal polynomial을 factor로 가지고 있으므로 다음과 같이 표현될 수 있다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (11 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

는 어떤 polynomial, minimal polynomial 정의에 따라 이므로

이므로 은 로 나타낼 수가 있다. 양변에 A를 곱하면

이므로 은 으로 나타낼 수 있다.

즉 모든 polynomial은 로 나타낼 수가 있다. 이것이 바로 Cayley-Hamilton Theorem이다.

어떤 polynomial 에 대해

이 성립한다.

만약, A의 minimal polynomial의 degree 를 안다면,

A의 모든 polynomial은 의 linear combination으로 나타낼 수가 있다.

이것의 linear combination이 바로 minimal polynomial인 것이다.

이것은 역으로 이 성립하는 것을 보여준다. 를 계산하기 위해서

Long division방법 를 몫과 나머지로 나누어서 표현할 수가 있다.

h(A)를 구할 수도 있지만 이것은 의 차수가 보다 많이 크다면 좋은 방법이 아니다.

이 때, 사용할 수 있는 방법은 우선 를 다음과 같이 정의한다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (12 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

Long division의 결과를 이용하여 원래의 polynomial을 이용하여 의 계수를 구한다.

A가 all distinct eigenvalue를 갖는다면, 위 식에 바로 대입하여 n개의 계수를 n개의 식으로 구할 수 있다.

A가 repeated eigenvalue(중근)를 갖는다면, 를 필요한 만큼 미분해서 식을 얻어서 푼다.

예를 들어, 일 때, 은 다음과 같이 구할 수 있다.

가 주어졌을 때, f(A)를 구하라는 것과 같다. 이므로 multiplicity 2의 eigenvalue를 갖는다.

라 두면,

위 두 연립방정식을 풀면 된다.

Lyapunov Equation

dLyapunov Equation은 나중에 system의 안정성을 판별할 수 있는 도구로 사용된다.

시스템 설계에서 Lyapunov equation은 매우 중요하게 사용되므로 분명히 알고 넘어가자.

다음의 식을 생각해 보자. 이것은 일반적 Lyapunov equation이다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (13 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

AM + MB = C A : n x n , B : m x m

위 식에서 행렬이 차수가 맞기 위해서는 C,M : n x n은 되어야 한다.

위 식은 standard linear algebraic equations으로 나타낼 수 있는데, 만약 n=3, m=2라 하면,

위 식을 전개해서 term by term으로 같다고 놓으면 다음과 같은 linear algebraic equation을 얻는다.

x

(식 1)

여기서 L(M) = AM + MB라 정의하면 , L(M)=C가 되고, L은 mn dimension을 같는다. 여기서는 6.

따라서 이 L의 eigenvalue를 라 하면, L(M)= M을 만족하는 nonzero M이 존재할 수 있다.

L은 mn square matrix이므로 mn개의 eigenvalues 를 갖는다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (14 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

A의 eigenvalue 의 right eigenvector를 u라 하고, 즉 .

B의 eigenvalue 의 left eigenvector를 v라 하면, 즉 .

L(uv) = Auv + uvB = uv + uv = ( + )uv 따라서 L의 eigenvalue는 ( + ) for i=1,2,...,n ; j=1,2...,m 가 된다.

즉, L의 eigenvalue는 A와 B의 모든 가능한 eigenvalue의 합이 된다.

square matrix의 determinant는 모든 대각 terms의 product이므로, + =0이 아니면, L은 nonsigular이다.

따라서 위의 (식1)의 solution M은 unique하다. 즉, Lyapunov equation이 nosingular하다고 말할 수 있다.

Part II Linear System

Causality

어떤 system의 현재의 output은 과거와 현재 input에만 의존하고 미래의 input에는 의존하지 않을 때

이 system은 Causal System이라고 한다. noncausal system은 predict system이라 할 수 있다. 따라서 다음식이 성립한다

Causal <==>

Lumpedness

어떤 system의 state variables의 수가 유한하거나 state vector가 유한한 vector일 때, 이 system은 lumped system이라 한다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (15 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

lumped system의 반대는 state variables수가 무한한 distributed system이라고 한다.

Linear System

다음 두 조건을 만족하는 system을 Linear System이라고 한다. 여기서 x는 state이고, u는 input, y는 output이다.

1)Additivity

2)Homogeneity

이 두식을 결합하여 하나의 식으로 나타낸 것이 superposition property이다.

여기서 input u(t)가 zero이면 ,즉 system이 zero-input system인 경우, output은 초기 상태

에 의해서 excite된다.

이때의 output을 zero-input response라 한다.

또한, 초기 상태 가 zero, 즉 system이 zero-state system인 경우, output은 input에 의해서 excite된다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (16 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

이때의 output을 zero-state response라 한다.

따라서 모든 선형 system의 output은 zero-input response와 zero-state response로 분리할 수 있다.

Response = zero-input response + zero-state response

Linear Time-Invariant (LTI) Systems

초기 상태와 input만 같다면, 이것들이 언제 system에 입력되더라도 결과의 waveform은 항상 같은 system을 말한다.

LTI system에서는 Laplace Transform이 중요하게 사용되는데, 여기서는 그 정의만 설명하고 넘어가기로 한다.

참고로, Laplace Transform은 LTI system에서만 사용한다. 그 이유는 Time variant systems의 경우 Laplace로 변환해서

한다고 해도 특별한 장점이 없기 때문이다.

G(s)를 Transfer function이라 한다.즉 Transfer Function은 input과 output의 관계를 나타낸다.

모든 rational transfer function(유리 전달함수) G(s)를 분자 N(s), 분모 D(s)로 분리할 수 있다. 이 때 몇 가지 용어를 정의한다

▼G(s) is proper <--> degree of D(s) degree of N(s). 즉 G(s)는 s가 infinite로 갈 때 0(클 때) 또는 상수(같을 때)가 된다.

▼G(s) is strictly proper <--> degree of D(s) > degree of N(s) , 즉 G(s)는 s가 infinite로 갈 때 0으로 수렴.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (17 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

▼G(s) is biproper <--> degree of D(s) = degree of N(s), G(s)는 s가 infinite로 갈 때 0이 아닌 상수로 수렴

▼G(s) is improper <--> degree of D(s) < degree of N(s), G(s)는 s가 infinite로 갈 때 infinite로 발산

▼D(s) and N(s) are coprime <--> common factor가 없는 경우. 이 경우 N(s)의 모든 근은 G(s)의 zeros가 되고,

D(s)의 모든 근은 G(s)의 poles이 된다.

State-space Equation of LTI Systems

state equation이란 것은 transfer function과 같이 하나의 system을 정의할 수 있는 식인데, transfer function은

단지 system의 input, output 간의 관계만 보여주고, 또한 SISO(single input single output) 경우에만 사용하다.

반면 state equation은 MIMO(multiple inputs multiple outputs)에도 사용가능하고, input과 output관계 뿐만 아니라

중간 단계의 어떤 곳이라도 state로 잡아서 system을 분석할 수 있다.

system이 lumped system인 경우 다음과 같은 식으로 state equation(상태 방정식)이 표현된다.

p inputs, q outputs, n state 일 때 A(n x n),B(n x p),C(q x n) and D(q x p)는 matrix이다.

위 식을 각각 Laplace Transform 시켜서 정리하면 다음과 같은 식을 얻는다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (18 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

[주의]여기서 A,B,C,D는 matrix이지 Laplace transform 된 것이 아니란 것을 주의하기 바란다.

Laplace transform된 것은 s의 함수로 표시된 것 만이다. 또한 Transfer matrix도 G(s)로 나타내는 것을 이해하기 바란다.

상황에 맞게 해석하길 바란다.

위 식에서 초기 상태 x(0)이 zero라면 이 때의 response(zero-state response)는 다음과 같이 된다.

여기서 G(s)는 Transfer matrix가 된다

.

Discrete-Time Systems

지금까지 다루어 온 것은 Continuous-Time Systems이었다. Discrete-Time system에 대한 것도 continuous system과

거의 유사한 개념으로 설명할 수 있다. 여기서는 discrete system이 continuous system과 다른 점에 초점을 맞춰 설명한다.

Continuous System에서는 system의 input, output 관계를 쉽게 알아보기 위해 Laplace Transform을 사용하였는데,

Discrete system에서는 Z-Transform을 사용한다. Z-Transform은 discrete LTI system을 설명하는데 중요한 tool이다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (19 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

State-space Equation of Discrete LTI Systems

x[k+1] = Ax[k] + Bu[k]

y[k] = Cx[k] + Du[k]

여기서 k는 kT를 나타내는데, T는 system의 sampling time이다. 이 때, kT는 discrete time을 말하고 sampling time을 생략하고

k만으로 시간을 표시한다.

기타 다른 식들은 continuous time system과 똑같다. 단지 s를 z로 바꿔 주기만 하면 된다.

Solution of LTI Equations

다음과 같은 LTI equation의 solution을 구해보자.

첫 번째 식의 양변에 를 곱하여 나타내면,

이므로(위 matrix 부분 참조) 이다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (20 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

그러므로 , 가 성립한다. 이 식을 0부터 t까지 적분하게 되면 x(t)를 얻을 수 있다.

, , 양변에 를 곱하면 결과적으로 다음과 같은 solution을 얻는다.

위 식에는 가 포함 되어 있다. 를 구하는 것은 간단하지 않다. 그 방법으로 몇 가지가 있다.

1.Cayley-Hamilton Theorem 이용

앞에서 Cayley-Hamilton Theorem에 대해서 살펴 보았는데, A의 eigenvalues를 구하고,

를 사용하여 구할 수 있다.

2. Jordan form을 이용

의 Jordan form 형태인 를 이용하여 를 구한다.

로부터 를 구한다. 즉 를 구하면 된다. 자세한 것은 생략한다.

3. Laplace Transform을 이용

, 여기서 L은 Laplace transform을 의미.

Solution of Discrete-Time LTI Equations

x[k+1] = Ax[k] + Bu[k]

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (21 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

y[k] = Cx[k] + Du[k]

이 equation의 solution은 k=0부터 순차적으로 대입하여 일반식을 이끌어 내면 된다.

x[1] = Ax[0] + Bu[0]

x[2] = Ax[1] + Bu[1] =

,

Equivalent State Equations

어떤 system의 state equation을 서로 다른 basis를 사용하여 서로 다른 state equation으로 표현할 수가 있다.

이것은 나중에 나올 canonical form 같은 경우에 자주 사용하게 되는데, 이렇듯 어떤 system의 state equation을

다른 형태로 변형 시켜 system 해석을 좀 더 용이하게 한다.

다음식과 같이 어떤 system의 state equation이 있을 때,

이것의 equivalent equation을 구해보자.

n x n matrix P를 nonsingular라고 하고, 라 하면, 원래의 state equation은 다음과 같이 바뀐다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (22 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

where

이 식을 원래의 state equation에 equivalent equation이라고 한다.

그럼, 이 equivalent equation의 특성을 살펴볼텐데, 그 유도는 생략하고 결과만 살펴보자.

1.원래의 equation과 equivalent equation은 같은 eigenvalues 갖는다. 즉, determinant가 같다.

2.같은 전달 행렬(transfer matrix)을 갖는다.

Time-Varying equations의 경우

이 때도 discrete와 유사하게 다음과 같은 equivalent equation으로 나타낼 수 있다.

여기서 P(t)를 equivalence transformation이라고 부른다.

만약 P(t)가 nonsignular이고 , P(t)와 가 continuous이고 , P(t)

와 가 모든 t에 대해 bound되어 있을 때,

P(t)를 Lyapunov transformation이라고 부른다. 또한 P(t)가 Lyapunov transformation인 위 state equations의 관계를

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (23 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

Lyapunov equivalent 하다고 말한다.

Canonical Forms

Canonical Form이란 의미는 대충 규격화된 형태를 의미하는 것 같다. 즉, 어떤 특정한 형태를 가지는 것이 아니고,

규격화된 형태의 총칭적 의미정도로 생각하면 될 것이다. 이 Canonical form 중에서 다음과 같은 형태의 것들을

Companion forms이라고 한다. 특성 방정식이 일 때,

이것들과 이것들의 transpose

이것들을 살펴보면, 특성방정식으로부터 쉽게 만들 수가 있는 것들임을 알 수 있다. 즉, 계수들로 이루어져 있다.

이런 것들은 rational canonical form의 일종이다.

rational canonical form외에 Jordan canonical form(modal form)이 있다는 것만 알고 넘어가자.

이런 Canonical form은 나중에 controllability, observability를 다룰 때 중요하게 사용된다.

Realizations

여기서 말하는 Realization은 전달 함수(transfer function)또는 전달 행렬(transfer matrix)에서

state equation을 얻는 것을 말한다. 즉, 전달 행렬을 알면서 그 system의 state equation을 얻어 낼 수 있다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (24 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

앞에서 state equation으로부터 transfer matrix를 얻어 내는 방법을 소개 한적이 있다.

transfer matrix G(s)는 위 식에서 를 만족하는 {A,B,C,D}가 존재할 때, G(s)는

realizable하다고 하고, {A,B,C,D}를 G(s)의 realization이라고 한다.

위의 내용은 system이 lumped system(state 수가 유한)의 경우이고, distributed system(state 수가 무한)의 경우는

모든 G(s)가 realizable하지 않는다.

G(s)의 realization은 그 수가 무한하며, 따라서 realization에서 중요하게 대두되는 것이 minimal realization일 것이다.

realization 및 realizable에 대해서 좀 더 알아보자.

transfer matrix G(s)는 realizable <====>G(s)는 proper rational matrix

proper rational matrix란 것은 앞에서도 설명했지만,

matrix가 분자 분모의 형태로 나타나고 분모의 차수가 분자의 차수보다 크거나 같은 matrix를 말한다.

proper transfer matrix를 realize하는 방법은 여러 가지가 있다. 여기서는 특수한 경우로 controllable-canonical form을 소개한다.

transfer matrix가 다음과 같이 상수 부분과 strict proper matrix로 분리 된다고 할 때,

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (25 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

이것의 realization은 다음과 같이 나타낼 수 있다. 이것을 controllable-canonical form이라고 한다.

Time varying에 대한 것은 생략하기로 한다.

Solution of Linear Time-Varying Equations

위 state equation의 solution을 구하기 전에 좀 더 간단한 의 solution을 구하는 방법부터 알아보자.

를 만족하는 n개의 solutions을 , n차 square matrix 라 했을 때, 다음과 같은 식을 만족한다.

여기서, 이 nonsigular라면, 즉 n개의 초기 states가 linearly independent일 때, X(t)를 fundamental matrix라고 말한다.

X(t)는 모든 t에 대해서 nonsigular 하고 이 때, 다음과 같이 state transition matrix를 정의한다.

state transition matrix 또한 의 unique solution이 된다. 즉,

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (26 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

이 state transition matrix는 모든 에 대해서 다음과 같은 특성이 있다.

1.

2.

3.

이제 state transition matrix를 써서 다음 equation의 solution을 구하면 다음과 같은 결과를 얻는다.

유도는 생략하기로 한다.

Discrete 경우에는 그 solution만 나타내기로 한다.

x[k+1] = A[k]x[x] + B[k]u[k]

y[k] = C[k]x[k] + D[k]u[k]

solution은 다음과 같다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (27 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

Stability

system의 stability는 아주 중요하다. 어떤 system이 stable하지 않다면 우리는 그 system을 사용할 수 없게 된다.

linear system의 response는 앞에서도 말했듯이 zero-input response와 zero-state response로 분리해서 나타낼 수 있다.

여기서는 여러 가지 stability에 대해서 알아보기로 한다.

먼저, SISO(single input single output) Linear time-invariant system에 대해서 알아보기로 하자.

여기서 g(t)는 impulse response를 나타낸다.

또한 input u(t)를 다음과 같은 조건을 만족할 때 bounded라고 말한다.

이제 BIBO(Bounded Input Bounded Output) stable의 조건을 알아보자. BIBO stable은 bounded input을 가했을 때,

output 또한 bounded되는 stability를 알아보는 것이다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (28 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

BIBO stable

BIBO stable은 zero-state response의 경우에 정의된다. 즉, system은 relaxed(초기 state가 zero)이어야 한다.

위 system은 BIBO stable하기 위한 필요 충분 조건은 다음과 같다.

의미 그대로 BIBO stable은 bounded input을 가했을 때, bounded output response가 나온다는 것을 의미한다.

proper rational transfer function G(s)를 갖는 SISO system이 BIBO stable하기 위한 필요 충분 조건은

G(s)의 모든 pole이 negative real part에 있는 것이다. 이것은 impulse response g(t)를 적분해도 모든 pole이

negative real part에 있기 때문에 무한대로 발산하지 않는 것을 말해준다. MIMO(Multiple Input Multiple Output) system에 대해서도

마찬가지로 적용할 수 있다.

discrete system의 경우에는 Laplace transform을 사용하지 않고 Z-transform을 사용하므로

proper rational transfer function G(z)를 갖는 SISO system이 BIBO stable하기 위한 필요충분 조건은

모든 G(z)의 pole의 크기가 1보다 작으면 된다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (29 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

이제 zero-input response에 대해서 알아보자. 이 때는 system이 relaxed가 아니다. 즉 초기 state가 zero가 아니다.

Marginally stable, Asymptotically stable

system equation의 모든 finite 초기 state가 bounded response를 갖는다면 zero-input response는 marginally stable 또는

stable in the sense of Lyapunov이라고 말한다.

이 때, 시간이 무한대로 갈 때 모든 finite 초기 상태에 대해서 response가 bounded이고 zero로 접근한다면

asymptotically stable이라고 한다.

zero-input response 즉, 가 marginally stable하기 위한 필요 충분 조건은

A의 모든 eigenvalues가 zero이거나 negative real part인데, 이 때 zero인 것은 A의 단일근(simple root)일 때이다.

가 asymptotically stable하기 위한 필요충분 조건은 A의 모든 eigen values가 negative real part에 있는 것이다.

여기서 혼동하지 말아야 할 것은 BIBO는 zero-state response에 관한 것이고, marginally stable, asyptotically stable은

zero-input response에 관한 것이라는 것이다. 하지만 의미적으로 보면 asymptotically stable하면 BIBO stable하다고 볼 수 있으나

BIBO stable하다고 asymtotically stable하다고 볼 수는 없다.

앞에서 나온 state equation의 equivalence transformation은 원래 system의 stability를 변화시키지 않으므로 서로 같다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (30 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

따라서 복잡한 원래의 식 대신 좀 더 간단하게 표현할 수 있는 equivalent eqution이 존재한다면 equivalent equation으로

stability를 판별하는 것이 낫다.

Asymptotically stable을 알아볼 수 있는 방법중에 다른 하나는 Lyapunov Theorem을 이용하는 방법이다. Lyapunov Theorem은

system의 stability를 판별하는데 자주 사용된다.

Lyapunov Theorem

A의 모든 eigenvalues가 negative real part에 있기 위한 필요충분 조건은 다음과 같다.

어떤 주어진 positive definite symmetric matrix N에 대해서 Lyapunov equation A'M + MA = -N 가

unique symmetric solution M을 갖는 경우이다. 이 때 M은 positive definite이다.

위 Lyapunov equation의 solution M은 다음과 같이 표현된다.

즉, 위 M이 unique symmetric, positive definite 인가를 검사해 보면 system의 asymptotically stable을 판별할 수 있다.

Linear Time-Varying system의 stability에 대해서 알아보자. SISO linear system은 다음과 같이 나타난다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (31 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

이것이 BIBO stble하려면 다음과 같은 조건을 만족해야 한다.

위 equations의 impulser response는 이고 zero-state response는

이다.

위 식이 BIBO stable하기 위한 필요충분 조건은 다음 두 식을 만족하는 가 존재하는 것이다.

1. 2.

zero-input response는 에 의해 나타나므로 response가 marginally stable하기 위한 필요충분 조건은

를 만족하는 finite M이 모든 t에 대해서 존재하는 것이다.

asymptotically stable하기 위한 필요 충분 조건은 다음 두 조건은 만족하는 것이다.

1. response가 marginally stable 2.

여기서 state transition matrix가 0으로 접근할 때 exponentially 접근하면 이것을 exponentially asymptotically stable이라 한다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (32 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

위 조건들은 time-invariant 경우와 유사한 것을 볼 수 있다. 하지만 time-varying인 경우 time-invariant와 달리

A(t)의 모든 eigenvalues가 negartive real part에 있다고 해도 asymtoticlally stable이나 marginally stable을 보장하지 못한다.

또한, time-invariant인 경우 equivalent transformation은 stability를 변화시키지 않다는고 했는데, time-varying의 경우에는

BIBO stable인 경우에만 해당한다. marginally stable, asymptotically stable인 경우에는 stability가 변한다.

하지만 Lyapunov transformation에 대해서는 marginally stability, asymtotically stability는 변하지 않는다.

또한, time-invariant에서는 asymptotically stable하면 BIBO stable하다고 볼 수 있다고 했지만,

time-varying에서는 일반적으로 그것이 성립하지 않는다.

Controllability

Controllability는 linear system의 내부 구조를 얘기할 때 자주 사용되는 의미이다.

state equation 에서 Controllability를 다음과 같이 정의한다.

Controllability

어떤 initial state 과 어떤 final state 에 대해서 final 시간내에 state 을 state 로 바꿀수 있는 input이 존재한다면

(A,B)는 controllable하다고 말하고, 존재하지 않으면 uncontrollable이라도 말한다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (33 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

즉, 어떤 state equation에서 유한의 시간내에 어떤 state라도 다른 어떤 state로 바꿀 수 있는 input이 존재하면

이 state equation은 controllable이라고 말한다는 것이다.

위 정의에서 보듯이 controllability는 states에만 관계된 것이므로 output은 상관이 없다. 따라서 state equation이

controllable하다는 것은 (A,B)가 controllable하다는 것과 같은 의미이다.

다음은 Controllability를 알아볼 수 있는 방법에 대한 요약이다. 이 모든 것들은 동치이다(equivalent statements)

1. n 차원 행렬 쌍 (A,B)는 controllable

2. n x n matrix 는 모든 t > 0 에 대해서 nonsigular

3. n x np controllability matrix 의 rank는 n이다. 즉 full row rank를 갖는다. 즉 nonsigular

4. n x (n + p) matrix 의 rank는 모든 A의 eigenvalue 에 대해서 full row rank를 갖는다.

5. 모든 A의 eigenvalues가 negative real part에 있다면, 다음 식의 unique solution은 positive definite이다.

. solution 이다.

이 solutoin 를 controllability Gramian이라고 부른다

(A,B)가 controllable한지 알아보기 위해 2~5번의 아무것이나 사용하면 될 것이다. 하지만 비교적 쉽게 구할 수 있는

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (34 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

3번이 자주 사용된다. 3번은 Matlab function "rank"로 쉽게 알아 볼 수 있다.

위 3번에서 n x np matrix C의 columns은 np개가 있다.

C의 rank가 n이면 되므로 즉, np개의 columns중 n개의 linearly independent columns가 있다면 controllable하다.

이 n개의 linearly independent columns을 찾는 방법에 대해서 알아보자. 물론 Matlab과 같은 tool을 사용하면 쉽게

구할 수 있지만 넘어가기엔 중요한 의미가 있어서 설명한다.

를 B의 i번째 column이라 할 때, C를 다음과 같이 나타낼 수 있다.

왼쪽에서부터 independent column을 찾아나간다. 이 앞의 것들과 dependent하다면

또한 dependent하다.

즉, 어떤 과 관련된 column이 앞에 것들과 dependent하다면 뒤에 와 관련된 모든 columns은 linearly dependent하게 된다.

따라서, 에 대해서 과 관련된 columns중 independent한 것들의 개수를 이라 한다면 다음과 같이 나타낼 수 있다.

. 의 i가 0보다 큰 것들은 모두 dependent가 되는 것이다.

집합 를 controllablility indices라고 말하고 C가 rank n을 갖는다

면 이 성립한다.

위 controllability indices중 그 값이 가장 큰 것을 (A,B)의 controllability index라고 말한다.

(A,B)가 controllable한지 알아보기 위해서 다음과 같이 좀 더 간단한 matrix를 사용할 수 있다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (35 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

위 내용으로부터 n차원 (A,B)가 controllable하기 위한 필요충분 조건은 다음과 같이 좀 더 간단히 구할 수 있다.

가 rank n을 가질 때, 즉 가 nonsigular인 것이다. 여기서 B의 rank는 p이다.

Observability

Observability는 간단히 말하면 output으로부터 intial state가 observable한지 아닌지를 나타내는 것이다.

state equation이 위와 같을 때 Observability를 다음과 같이 정의한다.

state equation에서 모르는 어떤 intial state x(0)에 대하여 동안 input u와 output y에 대한 정보로 모르는 intial state x(0)를

uniquely 결정하는데 충분한 유한한 이 존재하면 state equation은 Observable하고 존재하지 않으면 unobservable하다

즉, observability는 유한 시간 내에 input과 output의 정보를 가지고 intial state를 알아낼 수 있는지를 나타내는 것이다.

다음은 Observability를 알아볼 수 있는 방법에 대한 요약이다. 이 모든 것들은 동치이다(equivalent statements)

1. n 차원 행렬 쌍 (A,C)는 observable이다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (36 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

2. n x n matrix 은 모든 t > 0 에 대해 nonsigular이다.

3. 다음의 nq x n observaility matrix O가 rank n(full column rank)를 갖는다.

4. (n + q) x n matrix 가 A의 모든 eigenvalue 에 대해서full column rank를 갖는다.

5. 모든 A의 eigenvalues가 negative real part에 있다면, 다음 식의 unique solution은 positive definite이다.

. solution 이다.

이 solutoin 를 observability Gramian이라고 부른다

Controllability의 경우와 마찬가지로 Observability의 경우에도 3번식이 가장 쉽고 많이 이용된다.

또한 Controllability의 경우에서는 Controllability matrix C를 column에 대해서 independent를 따졌지만,

Observability matrix의 경우는 row가 column보다 크므로 row에 대해 independent를 따진다. 자세한 것은 생략하기로 한다.

집합 를 observability indices라고 하고 이 중에서 가장 큰 것을 observability index 라고 한다.

따라서, (A,C)의 모든 row에서 dependent한 것은 미리 제거한 다음과 같은 matrix로

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (37 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

observability를 검사한다.

위 내용으로부터 (A,C)가 observable하기 위한 필요충분 조건은 다음과 같다. 이 때 rank(C) = q이다.

가 rank n을 가질 때, 즉 가 nonsigular 일 때이다.

Canonical Decomposition

앞에서 살펴본 Controllability나 Observability를 보면 state equation의 모든 부분이 사용되지 않을 수 있다는 것을 알 수 있다.

즉, state equation을 잘 transformation하면 controllable state equation형태나 observable state equation으로 바꿀 수도

있다는 것을 알 수 있다. transformation하더라도 stability나 controllability, observability는 변하지 않는다.

여기서는 이런 transformation과 stability,controllability,observability의 관계에 대해서 알아본다.

다음과 같이 n 차원의 state equation이 있다고 하자.

controllability matrix C의 rank가 n보다 작은 인 경우를 생각해 보자. 즉 위 state equation은 uncontrollable이다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (38 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

이 때, n x n transformation matrix의 inverse 를 정의한다.

이것은 의 linearly independent columns와 P가 nonsigular하도록 나머지 columns을 선택하면 된다.

이제 를 사용하여 equivalence state equation을 다음과 같은 형태로 구할 수 있다.

위 식에서 가 붙은 것은 uncontrollable이고 c가 붙은 것은 controllable이다. 여기서

이다.

따라서 원래 uncontrollable state equation에서 controllable한 state만을 가지고 controllable state equation을 만들 수 있다.

이것은 원래의 state equation의 controllable state equation이고 transfer function은 서로 같다.

위에서 한 방법을 observability에 대해서도 할 수 있다. 그 결과들만을 살펴보기로 한다. n차원 observability matrix O에 대해서

일 때, n x n matrix 라 정의한다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (39 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

equivalence transofrmation 를 이용하여 원래의 state equation을 다음과 같은 형태로 만들 수 있다.

위 식에서 observable state eqution은 다음과 같다.

모든 state equation은 equivalence transformation에 의해서 다음과 같은 canonical form으로 나타낼 수 있다.

co가 붙은 것은 controllable and observable을 , 가 붙은 것은 controllable and unobservable을

가 붙은 것은 uncontrollable and observable을, 가 붙은 것은 uncontrollable and unobservable을 각각 가리킨다.

위 canonical form으로부터 controllable and observable state equation을 뽑아 낼 수 있다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (40 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

어떤 state equation에서 위와 같이 controllable and observable state equation을 얻는 방법은

우선, 원래의 state equation을 controllable 부분과 uncontrollable 부분으로 나누고 각각을 다시

observable 부분과 unobservable 부분으로 나누면 된다.

앞에서도 말했지만 equilvalence transformation은 transfer matrix는 원래의 state equation의 것과 같다.

즉, 원래의 state equation에서 controllable 부분과 observable 부분만이 input과 output에 관련한다.

transfer matrix는 다음과 같다.

어떤 system의 transfer matrix를 minimal realization하면 위와 같은 controllable and observable state equation 을 얻을 수가 있다.

마지막으로 Linear Time Varying(LTV) system의 state equation일 경우에 대해서 알아보자.

LTV state equation의 경우에 controllability는 다음과 같이 정의한다.

어떤 초기 state 에서 어떤 state 로 바꿀 수 있는 input이 finite time 동안에 존재하면

state equation은 에서 controllable이다. 주의할 것은 time-varying이기 때문에 항상 controllable하지 않다는 것이다.

n 차원의 행렬 쌍 (A(t), B(t))가 에서 controllable하기 위한 필요충분 조건은 다음과 같다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (41 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

가 nosingular가 되는 finite 이 존재하는 것이다.

여기서 는 의 state transition matrix이다.

그런데 state transition matrix를 사용하지 않고 controllability를 판별해 보자.

A(t), B(t)가 (n-1)번 미분 가능하다고 가정하고 로 정의한다. 이 M을 다음과 같이 recursive 형태로 정의한다.

이고 어떤 고정된 에 대해서 가 성립한다.

결론적으로 recursive식을 구하면 다음과 같다.

A(t)와 B(t)가 n-1번 미분 가능하다고 할 때, (A(t), B(t))는 다음과 같은 조건을 만족할 때 에서 controllable 하기 위한 충분 조건은

인 finite 이 존재하는 것이다.

Observability에 대해서는 다음과 같은 정리가 있다.

A(t)와 C(t)가 n-1번 미분 가능하다고 가정하고, (A(t), C(t))가 에서 observable 하기 위한 충분조건은 다음과 같다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (42 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

,

where 인 finite

이 존재하는 것이다.

Part III State Feedback and State Esimators

Control System에서 Design은 plant output y(t)가 reference signal r(t)를 얼마나 잘 따라가느냐가 문제이다.

여기서는 Control system을 design하는 것에 대해 다루기로 한다.

control system은 크게 open-loop control과 closed-loop control으로 나눈다. 각각의 특징은 이미 잘 알고 있다고 판단하여

설명을 하지 않고 넘어간다.

closed-loop control은 feedback control이라고도 한다. 여기서는 주로 feedback control에 대해 다룬다.

State Feedback

먼저 다음과 같이 간단한 n 차원의 single-variable state equation에 대해서 알아보기로 하자.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (43 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

위 그림은 state feedback의 block diagram이다. 위 block diagram에서 보면 control intpu u는 다음과 같다.

여기서 k는 feedback gain이고, 는 real constant이다. 입력 u를 원래의 state equation에 대입하면 다음과 같다.

k를 1xn real constant vector라 할 때, (A-bk,b)가 controllable하기 위한 필요충분 조건은 (A,b)가 controllable한 것이다.

또한, 원래의 state equation이 controllable하다면 state feedback u = r-kx에 의해서 A-bk의 eigenvalues를 복소수가 켤례인한

임의로 움직일 수 있다. k값을 조정하여 eigenvalues를 임의의로 바꿀 수가 있다. 이것은 controllability를 참고하라.

위 state equation에서 (A,b)가 controllable하다면 (A,b,c)를 controllable canonical form으로 바꿀 수 있다.

controllable cannoical form은 위에서 잠시 설명했듯이, 바로 transfer function을 구할 수 있는 state equation 형태이다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (44 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

state feedback이 없는 system의 transfer function은 다음과 같다.

state feedback 후의 state equation은 (A-bk,b,c)가 되고 (A,b)가 controllable하기 때문에 controllable하다.

(A-bk,b,c) 역시 controllable canonical form으로 바꿀 수 있고, reference r에서 y까지의 transfer function은 다음과 같다.

state feedback은 plant의 transfer function의 zeros에는 영향을 주지 않는다. 즉, state feedback 하더라도 원래의 transfer function과

state feedback 후의 transfer function의 zeros는 같다.

이로부터 state feedback은 state equation의 observability를 바꿀 수도 있다. 이것은 pole을 zero와 같게 만들 수 있기 때문이다.

State Estimator

State estimator는 state observer라고도 부른다. state estimator는 말 그대로 state를 estimat하는 것이다.

어떤 system에서 현실적으로 우리가 모든 state을 알 수는 없다. 비싼 장비를 사서 여러 state를 측정할 수도 있겠지만

너무 많은 비용이 들어간다. 따라서 우리는 state를 알고 있는 값들로부터 estimate하게 된다.

다음과 같은 state equation이 있을 때,

A,b,c는 알지만 state x를 모를 경우에 대해서 생각해 보자.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (45 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

x의 estimate를 라 하고, 위 식에 대입하면, 가 된다. 여기서 A,b는 알고 있는 값이기 때문에 초기 state만 값다면

이 된다. 문제는 원래의 state equation의 초기 state를 구하는 것이 된다. 여기서 Observability개념을 도입하면 된다.

원래의 state equation이 observable하다면 어떤 시간 동안내에 초기 state x(0)를 구할 수 있다.

따라서, 모든 state를 estimate할 수 있다. 하지만 위와 같이 open-loop estimator를 사용하면 문제점이 생긴다.

첫째, estimator를 구하기 위해서 매 순간마다 초기 state를 구하고 에 대입하여야 한다. 이것은 꽤나 불편한다.

둘째, 만약 A의 eigenvalues가 positive real part에 있다면 state와 state estimator에 약간의 오차가 생기면 disturbance가 생기거나

초기 state를 estimation하는데 있어 큰 오차가 발생할 수 있다. 따라서, open-loop estimator는 잘 사용되지 않는다.

일반적으로 estimator라 하면 closed-loop estimator를 말한다. 그 block diagram은 다음과 같다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (46 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

여기서 L이란 nx1 constant gain vector는 state와 estimator의 correct term이다.

state equation은 다음과 같이 바뀐다.

실제 state와 estimated state간의 차이 e(t)를 다음과 같이 나타낸다.

위 error식을 t에 대해 미분하면 다음과 같은 식을 얻는다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (47 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

위 식을 error dynamics라고 한다. 여기서 (A-Lc)의 eigenvalues를 임의로 바꿀 수 있다면 e(t)가 zero로 수렴하도록

control할 수 있다. 따라서 모든 초기 state에 대해서 error가 zero에 수렴하도록 estimator를 구할 수 있다.

이것은 초기 state를 구하지 않아도 된다는 얘기이다.

적절한 real constant vector L을 선택해서 (A-Lc)의 모든 eigenvalues를 임의로 바꿀 수 있는 필요충분 조건은

(A,c)가 observable하다는 것이다.

Feedback from Estimated States

위에서 살펴본 state feedback은 state를 알고 있다는 가정하에 한 것이고, 이번에는 state를 모르고

estimated state를 가지고 feedback해본다. 다음과 같은 estimator를 생각해 보자.

위에서 살펴봤듯이 (A,c)가 observable이면 적절한 L을 선택하여 estimated state와 real state간의 오차를 zero로 만들 수 있다.

state feedback u = r-kx에서 x를 이용할 수 없을 때 x의 estimate를 이용한다.

즉,

이것을 estimator식에 대입하여 augmented form으로 나타내면 다음과 같은 식을 얻는다.

여기에, 다음과 같은 equivalence transformation이 있다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (48 of 49) [2007-05-21 오후 6:56:40]

산선생의 집입니다. 환영해요

이 P를 사용하여 equivalent state equation을 다음과 같이 구할 수 있다.

위 식으로부터 state estimator를 넣는 것은 원래의 state equation의 eigenvalues에 영향을 주지 않는 다는 것을 알 수 있다.

또한, state estimator는 원래의 transfer function에도 영향을 주지 않는다.

file:///C|/Documents and Settings/nosanr/바탕 화면/산선생의 집입니다_ 환영해요.htm (49 of 49) [2007-05-21 오후 6:56:41]