Introduction to Algorithms, Third Edition



Download 4,84 Mb.
Pdf ko'rish
bet542/618
Sana07.04.2022
Hajmi4,84 Mb.
#534272
1   ...   538   539   540   541   542   543   544   545   ...   618
Bog'liq
Introduction-to-algorithms-3rd-edition

Lemma 28.4
If
A
is a symmetric positive-definite matrix, then every leading submatrix of
A
is
symmetric and positive-definite.
Proof
That each leading submatrix
A
k
is symmetric is obvious. To prove that
A
k
is positive-definite, we assume that it is not and derive a contradiction. If
A
k
is not
positive-definite, then there exists a
k
-vector
x
k
¤
0
such that
x
T
k
A
k
x
k
0
. Let
A
be
n
n
, and
A
D
A
k
B
T
B
C
(28.14)
for submatrices
B
(which is
.n
k/
k
) and
C
(which is
.n
k/
.n
k/
). Define
the
n
-vector
x
D
. x
T
k
0 /
T
, where
n
k 0
s follow
x
k
. Then we have
x
T
Ax
D
. x
T
k
0 /
A
k
B
T
B
C
x
k
0
D
. x
T
k
0 /
A
k
x
k
Bx
k
D
x
T
k
A
k
x
k
0 ;
which contradicts
A
being positive-definite.


834
Chapter 28
Matrix Operations
We now turn to some essential properties of the Schur complement. Let
A
be
a symmetric positive-definite matrix, and let
A
k
be a leading
k
k
submatrix
of
A
. Partition
A
once again according to equation (28.14). We generalize equa-
tion (28.9) to define the
Schur complement
S
of
A
with respect to
A
k
as
S
D
C
BA
1
k
B
T
:
(28.15)
(By Lemma 28.4,
A
k
is symmetric and positive-definite; therefore,
A
1
k
exists by
Lemma 28.3, and
S
is well defined.) Note that our earlier definition (28.9) of the
Schur complement is consistent with equation (28.15), by letting
k
D
1
.
The next lemma shows that the Schur-complement matrices of symmetric posi-
tive-definite matrices are themselves symmetric and positive-definite. We used this
result in Theorem 28.2, and we need its corollary to prove the correctness of LU
decomposition for symmetric positive-definite matrices.
Lemma 28.5 (Schur complement lemma)
If
A
is a symmetric positive-definite matrix and
A
k
is a leading
k
k
submatrix
of
A
, then the Schur complement
S
of
A
with respect to
A
k
is symmetric and
positive-definite.
Proof
Because
A
is symmetric, so is the submatrix
C
. By Exercise D.2-6, the
product
BA
1
k
B
T
is symmetric, and by Exercise D.1-1,
S
is symmetric.
It remains to show that
S
is positive-definite. Consider the partition of
A
given in
equation (28.14). For any nonzero vector
x
, we have
x
T
Ax > 0
by the assumption
that
A
is positive-definite. Let us break
x
into two subvectors
y
and
´
compatible
with
A
k
and
C
, respectively. Because
A
1
k
exists, we have
x
T
Ax
D
. y
T
´
T
/
A
k
B
T
B
C
y
´
D
. y
T
´
T
/
A
k
y
C
B
T
´
By
C
C ´
D
y
T
A
k
y
C
y
T
B
T
´
C
´
T
By
C
´
T
C ´
D
.y
C
A
1
k
B
T
´/
T
A
k
.y
C
A
1
k
B
T
´/
C
´
T
.C
BA
1
k
B
T
/´ ;
(28.16)
by matrix magic. (Verify by multiplying through.) This last equation amounts to
“completing the square” of the quadratic form. (See Exercise 28.3-2.)
Since
x
T
Ax > 0
holds for any nonzero
x
, let us pick any nonzero
´
and then
choose
y

A
1
k
B
T
´
, which causes the first term in equation (28.16) to vanish,
leaving
´
T
.C
BA
1
k
B
T

D
´
T
S ´
as the value of the expression. For any
´
¤
0
, we therefore have
´
T
S ´
D
x
T
Ax > 0
, and thus
S
is positive-definite.


28.3
Symmetric positive-definite matrices and least-squares approximation
835
Corollary 28.6
LU decomposition of a symmetric positive-definite matrix never causes a division
by
0
.
Proof
Let
A
be a symmetric positive-definite matrix. We shall prove something
stronger than the statement of the corollary: every pivot is strictly positive. The first
pivot is
a
11
. Let
e
1
be the first unit vector, from which we obtain
a
11
D
e
T
1
Ae
1
> 0
.
Since the first step of LU decomposition produces the Schur complement of
A
with respect to
A
1
D
.a
11
/
, Lemma 28.5 implies by induction that all pivots are
positive.
Least-squares approximation
One important application of symmetric positive-definite matrices arises in fitting
curves to given sets of data points. Suppose that we are given a set of
m
data points
.x
1
; y
1
/; .x
2
; y
2
/; : : : ; .x
m
; y
m
/ ;
where we know that the
y
i
are subject to measurement errors. We would like to
determine a function
F .x/
such that the approximation errors
i
D
F .x
i
/
y
i
(28.17)
are small for
i
D
1; 2; : : : ; m
. The form of the function
F
depends on the problem
at hand. Here, we assume that it has the form of a linearly weighted sum,
F .x/
D
n
X
j
D
1
c
j
f
j
.x/ ;
where the number of summands
n
and the specific
basis functions
f
j
are chosen
based on knowledge of the problem at hand. A common choice is
f
j
.x/
D
x
j
1
,
which means that
F .x/
D
c
1
C
c
2
x
C
c
3
x
2
C C
c
n
x
n
1
is a polynomial of degree
n
1
in
x
. Thus, given
m
data points
.x
1
; y
1
/; .x
2
; y
2
/;
: : : ; .x
m
; y
m
/
, we wish to calculate
n
coefficients
c
1
; c
2
; : : : ; c
n
that minimize the
approximation errors
1

2
; : : : ; 
m
.
By choosing
n
D
m
, we can calculate each
y
i
exactly
in equation (28.17). Such
a high-degree
F
“fits the noise” as well as the data, however, and generally gives
poor results when used to predict
y
for previously unseen values of
x
. It is usu-
ally better to choose
n
significantly smaller than
m
and hope that by choosing the
coefficients
c
j
well, we can obtain a function
F
that finds the significant patterns
in the data points without paying undue attention to the noise. Some theoretical


836
Chapter 28
Matrix Operations
principles exist for choosing
n
, but they are beyond the scope of this text. In any
case, once we choose a value of
n
that is less than
m
, we end up with an overde-
termined set of equations whose solution we wish to approximate. We now show
how to do so.
Let
A
D
˙
f
1
.x
1
/
f
2
.x
1
/
: : :
f
n
.x
1
/
f
1
.x
2
/
f
2
.x
2
/
: : :
f
n
.x
2
/
::
:
::
:
: ::
::
:
f
1
.x
m
/ f
2
.x
m
/ : : : f
n
.x
m
/
denote the matrix of values of the basis functions at the given points; that is,
a
ij
D
f
j
.x
i
/
. Let
c
D
.c
k
/
denote the desired
n
-vector of coefficients. Then,
Ac
D
˙
f
1
.x
1
/
f
2
.x
1
/
: : :
f
n
.x
1
/
f
1
.x
2
/
f
2
.x
2
/
: : :
f
n
.x
2
/
::
:
::
:
: ::
::
:
f
1
.x
m
/ f
2
.x
m
/ : : : f
n
.x
m
/
˙
c
1
c
2
::
:
c
n
D
˙
F .x
1
/
F .x
2
/
::
:
F .x
m
/
is the
m
-vector of “predicted values” for
y
. Thus,
D
Ac
y
is the
m
-vector of
approximation errors
.
To minimize approximation errors, we choose to minimize the norm of the error
vector
, which gives us a
least-squares solution
, since
k
k D
m
X
i
D
1
2
i
!
1=2
:
Because
k
k
2
D k
Ac
y
k
2
D
m
X
i
D
1
n
X
j
D
1
a
ij
c
j
y
i
!
2
;
we can minimize
k
k
by differentiating
k
k
2
with respect to each
c
k
and then
setting the result to
0
:


28.3
Symmetric positive-definite matrices and least-squares approximation
837
d
k
k
2
dc
k
D
m
X
i
D
1
2
n
X
j
D
1
a
ij
c
j
y
i
!
a
i k
D
0 :
(28.18)
The
n
equations (28.18) for
k
D
1; 2; : : : ; n
are equivalent to the single matrix
equation
.Ac
y/
T
A
D
0
or, equivalently (using Exercise D.1-2), to
A
T
.Ac
y/
D
0 ;
which implies
A
T
Ac
D
A
T
y :
(28.19)
In statistics, this is called the
normal equation
. The matrix
A
T
A
is symmetric
by Exercise D.1-2, and if
A
has full column rank, then by Theorem D.6,
A
T
A
is positive-definite as well. Hence,
.A
T
A/
1
exists, and the solution to equa-
tion (28.19) is
c
D
.A
T
A/
1
A
T
y
D
A
C
y ;
(28.20)
where the matrix
A
C
D
..A
T
A/
1
A
T
/
is the
pseudoinverse
of the matrix
A
. The
pseudoinverse naturally generalizes the notion of a matrix inverse to the case in
which
A
is not square. (Compare equation (28.20) as the approximate solution to
Ac
D
y
with the solution
A
1
b
as the exact solution to
Ax
D
b
.)
As an example of producing a least-squares fit, suppose that we have five data
points
.x
1
; y
1
/
D
.
1; 2/ ;
.x
2
; y
2
/
D
.1; 1/ ;
.x
3
; y
3
/
D
.2; 1/ ;
.x
4
; y
4
/
D
.3; 0/ ;
.x
5
; y
5
/
D
.5; 3/ ;
shown as black dots in Figure 28.3. We wish to fit these points with a quadratic
polynomial
F .x/
D
c
1
C
c
2
x
C
c
3
x
2
:
We start with the matrix of basis-function values


838
Chapter 28
Matrix Operations
0.5
1.0
1.5
2.0
2.5
3.0
0.0
1
2
3
4
5
0
–1
–2
x
y
F
(
x
) = 1.2 – 0.757
x
+ 0.214
x
2
Figure 28.3
The least-squares fit of a quadratic polynomial to the set of five data points
f
.
1; 2/; .1; 1/; .2; 1/; .3; 0/; .5; 3/
g
. The black dots are the data points, and the white dots are their
estimated values predicted by the polynomial
F .x/
D
1:2
0:757x
C
0:214x
2
, the quadratic poly-
nomial that minimizes the sum of the squared errors. Each shaded line shows the error for one data
point.
A
D
1 x
1
x
2
1
1 x
2
x
2
2
1 x
3
x
2
3
1 x
4
x
2
4
1 x
5
x
2
5
D
1
1
1
1
1
1
1
2
4
1
3
9
1
5 25
;
whose pseudoinverse is
A
C
D
0:500
0:300
0:200
0:100
0:100
0:388
0:093
0:190
0:193
0:088
0:060
0:036
0:048
0:036
0:060
:
Multiplying
y
by
A
C
, we obtain the coefficient vector
c
D
1:200
0:757
0:214
;
which corresponds to the quadratic polynomial


28.3
Symmetric positive-definite matrices and least-squares approximation
839
F .x/
D
1:200
0:757x
C
0:214x
2
as the closest-fitting quadratic to the given data, in a least-squares sense.
As a practical matter, we solve the normal equation (28.19) by multiplying
y
by
A
T
and then finding an LU decomposition of
A
T
A
. If
A
has full rank, the
matrix
A
T
A
is guaranteed to be nonsingular, because it is symmetric and positive-
definite. (See Exercise D.1-2 and Theorem D.6.)

Download 4,84 Mb.

Do'stlaringiz bilan baham:
1   ...   538   539   540   541   542   543   544   545   ...   618




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©hozir.org 2024
ma'muriyatiga murojaat qiling

kiriting | ro'yxatdan o'tish
    Bosh sahifa
юртда тантана
Боғда битган
Бугун юртда
Эшитганлар жилманглар
Эшитмадим деманглар
битган бодомлар
Yangiariq tumani
qitish marakazi
Raqamli texnologiyalar
ilishida muhokamadan
tasdiqqa tavsiya
tavsiya etilgan
iqtisodiyot kafedrasi
steiermarkischen landesregierung
asarlaringizni yuboring
o'zingizning asarlaringizni
Iltimos faqat
faqat o'zingizning
steierm rkischen
landesregierung fachabteilung
rkischen landesregierung
hamshira loyihasi
loyihasi mavsum
faolyatining oqibatlari
asosiy adabiyotlar
fakulteti ahborot
ahborot havfsizligi
havfsizligi kafedrasi
fanidan bo’yicha
fakulteti iqtisodiyot
boshqaruv fakulteti
chiqarishda boshqaruv
ishlab chiqarishda
iqtisodiyot fakultet
multiservis tarmoqlari
fanidan asosiy
Uzbek fanidan
mavzulari potok
asosidagi multiservis
'aliyyil a'ziym
billahil 'aliyyil
illaa billahil
quvvata illaa
falah' deganida
Kompyuter savodxonligi
bo’yicha mustaqil
'alal falah'
Hayya 'alal
'alas soloh
Hayya 'alas
mavsum boyicha


yuklab olish