Manuscript dvi



Download 0,65 Mb.
Pdf ko'rish
bet4/9
Sana24.06.2023
Hajmi0,65 Mb.
#953211
1   2   3   4   5   6   7   8   9
Bog'liq
Robust speaker recognition in noisy conditions IEE

as compared to
the probabilities of the same subset produced for the other noise conditions/speakers

l
0
, s
0
)
6
= (Φ
l
, s
)
. This effectively leads to a posterior probability formulation of (2). Define the posterior
probability of speaker
s
and noise condition
Φ
l
given test subset
X
sub
as
P
(
s,
Φ
l
|
X
sub
) =
P
(
X
sub
|
s,
Φ
l
)
P
(
s,
Φ
l
)
P
s
0
,l
0
P
(
X
sub
|
s
0
,
Φ
l
0
)
P
(
s
0
,
Φ
l
0
)
(4)
On the right, (4) performs a normalization for
P
(
X
sub
|
s,
Φ
l
)
using the average probability
P
(
X
sub
)
of
subset
X
sub
calculated over all speakers and trained noise conditions, with
P
(
s,
Φ
l
) =
P

l
|
s
)
P
(
s
)
being
a prior probability for speaker
s
and noise condition
Φ
l
. Maximizing posterior probability
P
(
s,
Φ
l
|
X
sub
)
for
X
sub
leads to an estimate for the matching subset
X
Φ
l
,s
that effectively maximizes the likelihood
ratios
P
(
X
Φ
l
,s
|
s,
Φ
l
)
/P
(
X
Φ
l
,s
|
s
0
,
Φ
l
0
)
for
(
s,
Φ
l
)
compared to all
(
s
0
,
Φ
l
0
)
6
= (
s,
Φ
l
)
1
.
To incorporate the posterior probability (4) into the model, we first rewrite (1) in terms of
P
(
s,
Φ
l
|
X
)
,
1
Dividing the numerator and denominator of (4) by
P
(
X
sub
|
s,
Φ
l
)
gives
P
(
s,
Φ
l
|
X
sub
) =
P
(
s,
Φ
l
)
P
(
s,
Φ
l
) +
P
(
s
0
,
Φ
l
0
)
6
=(
s,
Φ
l
)
P
(
s
0
,
Φ
l
0
)
P
(
X
sub
|
s
0
,
Φ
l
0
)
/P
(
X
sub
|
s,
Φ
l
)
Therefore maximizing
P
(
s,
Φ
l
|
X
sub
)
for
X
sub
is equivalent to the maximization of the likelihood ratios
P
(
X
sub
|
s,
Φ
l
)
/P
(
X
sub
|
s
0
,
Φ
l
0
)
for
X
sub
.
November 10, 2005
DRAFT


6
i.e., the posterior probabilities of speaker
s
and noise condition
Φ
l
given frame vector
X
:
P
(
X
|
s
) =
L
X
l
=0
P

l
|
s
)
P
(
X
|
s,
Φ
l
)
=
L
X
l
=0
P

l
|
s
)
P
(
X
|
s,
Φ
l
)
P
(
X
)
P
(
X
)
=
"
L
X
l
=0
P

l
|
s
)
P
(
s,
Φ
l
)
P
(
s,
Φ
l
|
X
)
#
P
(
X
)
=
"
L
X
l
=0
1
P
(
s
)
P
(
s,
Φ
l
|
X
)
#
P
(
X
)
(5)
The last term in (5),
P
(
X
)
, is not a function of the speaker index and thus has no effect in recognition.
Replacing
P
(
s,
Φ
l
|
X
)
in (5) with the optimized posterior probability for the test subset and assuming an
equal prior
P
(
s
)
for all the speakers, we obtain an operational version of (2) for recognition:
P
(
X
|
s
)

L
X
l
=0
max
X
sub

X
P
(
s,
Φ
l
|
X
sub
)
(6)
where
P
(
s,
Φ
l
|
X
sub
)
is defined in (4) with
P
(
s,
Φ
l
)
replaced by
P

l
|
s
)
due to the assumption of a
uniform
P
(
s
)
.
The search in (6) for the matching subset can be computationally expensive for large frame vectors
X
. We simplify the algorithm by approximating each
P
(
X
sub
|
s,
Φ
l
)
in (4) using the probability for the
union of all subsets of the same size as
X
sub
. As such,
P
(
X
sub
|
s,
Φ
l
)
can be written, with the size of
X
sub
indicated in brackets, as [28]
P
(
X
sub
(
M
)
|
s,
Φ
l
)

X
all
X
0
sub
(
M
)

X
P
(
X
0
sub
(
M
)
|
s,
Φ
l
)
(7)
where
X
sub
(
M
)
represents a subset with
M
components (
M

N
). Since the sum in (7) includes all
subsets, it includes the matching subset that can be assumed to dominate the sum due to the best data-
model match. Eq. (7) for
0
< M

N
can be computed efficiently using a recursive algorithm assuming
independence between the subband components (i.e. (3)). Note that (7) is not a function of the identity
of
X
sub
but only a function of the size of
X
sub
(i.e.
M
). We therefore effectively turn the maximization
in (6) for the identity of the matching subset, of a complexity of
O
(2
N
)
, to the maximization for the size
of the matching subset,
max
M
P
(
s,
Φ
l
|
X
sub
(
M
))
, of a complexity of
O
(
N
)
, where
P
(
s,
Φ
l
|
X
sub
(
M
))
is of a form as (4) with each
P
(
X
sub
|
s,
Φ
l
)
replaced by the union probability
P
(
X
sub
(
M
)
|
s,
Φ
l
)
. We call
max
M
P
(
s,
Φ
l
|
X
sub
(
M
))
the
posterior union model
(PUM), which has been studied previously (e.g. [29])
as a missing-feature method without requiring identity of the noisy data assuming clean data training
(i.e.
Φ
l
= Φ
0
). The UC model (6) is reduced to a PUM with single-condition training (e.g.
L
= 0
).
November 10, 2005
DRAFT


7
So far we have discussed the calculation of the probability for a single frame. The probability of a
speaker given an utterance with
T
frames
X
T
1
=
{
X
1
, X
2
, ..., X
T
}
can be defined as
P
(
X
T
1
|
s
) = [
T
Y
t
=1
P
(
X
t
|
s
)]
1
/T
(8)
where
P
(
X
t
|
s
)
is defined by (6). Since
P
(
X
t
|
s
)
is a properly normalized probability measure, the value
of
P
(
X
T
1
|
s
)
, with normalization against the length of the utterance as shown in (8), is used directly for
speaker verification as well as for speaker identification in our experimental studies.
B. Training Data Generation and Model Complexity Reduction
As shown in (2), the UC model effectively practices a reconstruction of the test noise condition using
a limited number of trained noise conditions. To make the model suitable for a wide range of noises,
the multi-condition training sets
Φ
1
, ...,
Φ
L
may be created from
Φ
0
(i.e. the clean training set) by
adding white noise to the clean training data at consecutive SNRs, with each
Φ
l
corresponding to a
specific SNR. This accounts for the noise over the full frequency range and a wide amplitude range and
therefore allows the expression of sophisticated noise spectral structures by piece-wise (i.e. band-wise)
approximation. Instead of white noise, we may also consider the use of low-pass filtered white noise at
various SNRs in the creation of the multi-condition training data. The low-pass filtering simulates the
high-frequency rolloff characteristics seen in many microphones. Finally, a combination of different types
of noise, including real noise data as in common multi-condition model training, can be used to create
the training data for the model. A simple example of the combination will be demonstrated in the paper.
Without prior knowledge of the structure of the test noise, a unform noise-condition prior
P

l
|
s
)
can
be used to combine different noise conditions.
In the above we assume that the noisy training data are generated by adding noises electronically to
the clean training data. The potential of the UC model, that allows the use of a limited number of noise
conditions to model potentially arbitrary noise conditions, makes it feasible to add noise acoustically into
the training data, thereby more closely matching the physical process of how real-world noisy test data
are generated. Fig.1 shows an example, in which white noises at various SNRs are added

Download 0,65 Mb.

Do'stlaringiz bilan baham:
1   2   3   4   5   6   7   8   9




Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©hozir.org 2024
ma'muriyatiga murojaat qiling

kiriting | ro'yxatdan o'tish
    Bosh sahifa
юртда тантана
Боғда битган
Бугун юртда
Эшитганлар жилманглар
Эшитмадим деманглар
битган бодомлар
Yangiariq tumani
qitish marakazi
Raqamli texnologiyalar
ilishida muhokamadan
tasdiqqa tavsiya
tavsiya etilgan
iqtisodiyot kafedrasi
steiermarkischen landesregierung
asarlaringizni yuboring
o'zingizning asarlaringizni
Iltimos faqat
faqat o'zingizning
steierm rkischen
landesregierung fachabteilung
rkischen landesregierung
hamshira loyihasi
loyihasi mavsum
faolyatining oqibatlari
asosiy adabiyotlar
fakulteti ahborot
ahborot havfsizligi
havfsizligi kafedrasi
fanidan bo’yicha
fakulteti iqtisodiyot
boshqaruv fakulteti
chiqarishda boshqaruv
ishlab chiqarishda
iqtisodiyot fakultet
multiservis tarmoqlari
fanidan asosiy
Uzbek fanidan
mavzulari potok
asosidagi multiservis
'aliyyil a'ziym
billahil 'aliyyil
illaa billahil
quvvata illaa
falah' deganida
Kompyuter savodxonligi
bo’yicha mustaqil
'alal falah'
Hayya 'alal
'alas soloh
Hayya 'alas
mavsum boyicha


yuklab olish