29 Des 2012

Penggenerasian Ciri I : Transformasi Linier

Penggenerasian Ciri I : Transformasi Linier

Octa Heriana, 05906-TE
Sumarna, 06248-TE
Jurusan Teknik Elektro FT UGM,
Yogyakarta
6.1 PENDAHULUAN
Tujuan dari bab ini adalah penggenerasian ciri-ciri melalui transformasi linier pada cuplikan-cuplikan
masukan (pengukuran). Konsep dasarnya adalah mentransformasikan (mengalih-ragamkan) sekumpulan
hasil pengkuran menjadi kumpulan ciri baru. Jika transformasi tersebut dipilih yang sesuai, maka ciri-ciri
domain transformasi dapat menunjukkan sifat-sifat ‘kemasan informasi’ yang tinggi dibandingkn dengan
cuplikan masukan aslinya. Ini berarti bahwa sebagian besar informasi kaitan klasifikasi terperas menjadi
ciri-ciri dalamjumlah yang relative kecil, sehingga mengurangi dimensi ruang ciri yang diperlukan.
Alasan yang mendasari ciri-ciri berbasis transformasi tersebut adalah bahwa kesesuaian transformasi
yang dipilih dapat menggali dan menghilangkan kelebihan informasi yang biasanya ada dalam sejumlah
cuplikan yang diperoleh dengan piranti pengukuran. Sebagai contoh suatu citra yang dihasilkan dari suatu
piranti pengukuran, misalnya piranti sinar-X atau kamera. Piksel-piksel (cuplikan masukan) pada berbagai
posisi di dalam citra mempunyai korelasi berderajad besar, terkait dengan konsistensi morpologik internal
citra nyata yang membedakannya dari derau (noise). Kemudian jika digunakan piksel-piksel tersebut
sebagai ciri-ciri, maka akan terdapat informasi berlebihan yang berderajad besar. Secara alternatif, misalnya
jika diperoleh transformasi Fourier dari suatu citra nyata, maka hal tersebut menjelaskan bahwa sebagian
besar energy yang terletak pada komponen frekuensi rendah berhubungan dengan adanya korelasi tinggi
antar aras keabuan (gray level) piksel-piksel tersebut. Sehingga penggunaan koefisien Fourier sebagai ciri
menunjukkan suatu pilhan yang rasional, sebab energy rendah memungkinkan kehilangan informasi kecil,
koefisien-koefisien frekuensi tinggi dapat diabaikan.
6.2 VEKTOR-VEKTOR BASIS DAN CITRA
Misalkan x(0), x(1), x(2), …, x(N-1) merupakan sejumlah cuplikan masukan dan x adalah suatu vector
Nx1 yang sesuai,
xT = [x(0), x(1), x(2), …, x(N-1)].
Diberikan suatu matrik unitary NxN yaitu A1, mendefinisikan suatu vector tertransformasi y dari x sebagai :
y = AH x ≡
⎥ ⎥ ⎥ ⎥ ⎥ ⎥


⎢ ⎢ ⎢ ⎢ ⎢ ⎢



H
N
H
H
a
a
a
1
1
0
.
. x (6.1)
di mana “H” menyatakan suatu opersi Hermitian, yaitu konjugasi komplek dan transposisi. Dari (6.1) dan
definisi matrik unitary diperoleh :
x = Ay = Σ−
=
1
0
( )
N
i
y i ai (6.2)
Kolom-kolom pada A, ai, i = 0, 1, 2, …, (N-1), disebut vector-vektor basis dari suatu transformasi. Elemenelemen
y(i) dari y bukan sesuatu tetapi yang penting adalah proyeksi-proyeksi x pada vector-vektor basis
tersebut. Pengambilan inner-product dari x dengan aj diperoleh :
〈 aj , x 〉 ≡ aj
H x = Σ−
=
1
0
( )
N
i
i y 〈 aj , ai 〉 = Σ−
=
1
0
( )
N
i
y i ij δ = y(j) (6.3)
Hal ini terkait dengan sifat unitary dari A, yaitu AH A = I atau 〈 aj , ai 〉 = ai
H aj = ij δ .
Dalam banyak persoalan, seperti pada analisis citra, sekumpulan cuplikan masukan merupakan runtun
(sequence) dua dimensi X (i,j); i, j = 0, 1, 2, ..., (N-1), pendefinisian NxN matrik X alih-alih sebuah vektor.
Pada kasus tersebut dapat ditentukan suatu ekivalensi N2 vektor x, sebagai contoh dengan urutan baris
matrik satu sesudah yang lain (urutan lexicographic)
xT = [X(0,0), ..., X(0, N-1), ..., X(N-1, 0), ..., X(N-1, N-1)]
dan kemudian mentransformasikan vektor ekivalen ini. Tetapi hal ini bukan cara kerja yang paling efisien.
Jumlah operasi yang diperlukan untuk N2x N2 kwadrat matrik (A) dengan N2 x1 vector x adalah dalam orde
O(N4) yang menjadi penghalang pada banyak aplikasi. Kemungkinan alternatif adalah mentransformasikan
matrik X melalui sekelompok matrik basis atau citra basis. Misalkan U dan V adalah matrik unitary NxN.
Menentukan matrik tertransformasi Y dari X sebagai
Y = UH X V (6.4)
atau X = U Y VH (6.5)
Jumlah operasinya sekarang berkurang menjadi O(N3). Persamaan (6.5) secara alternatif dapat dituliskan
sebagai :
X = Σ−
=
1
0
N
i
Σ−
=
1
0
( , )
N
j
Y i j ui vj
H (6.6)
di mana ui merupaka vector kolom dari U dan vj adalah vektor kolom dari V. Setiap outer product ui vj
H
merupakan sebuah matrik NxN
ui vj
H =
⎥ ⎥ ⎥ ⎥ ⎥


⎢ ⎢ ⎢ ⎢ ⎢


− − −

*
1 1
*
1 0
*
0 1
*
0 0
. .
. . . .
. . . .
. .
iN j iN jN
i j i jN
u v u v
u v u v
≡ Аij
dan (6.6) merupakan ekspansi dari matrik X dalam suku-suku N2 citra basis (matrik basisi). Tanda *
menyatakan konjugasi komplek. Jika Y menghasilkan diagonal, maka (6.6) menjadi :
X = Σ−
=
1
0
( , )
N
i
Y i i ui vi
H
dan jumlah citra basis direduksi menjadi N. Interpretasi yang sama terhadap (6.3) juga mungkin. Terhadap
yang terakhir tersebut, selanjutnya mendefinisikan inner product antara dua matrik sebagai :
〈 A, B 〉 ≡ Σ−
=
1
0
N
m
Σ−
=
1
0
N
n
A*(m,n) B(m,n) . (6.7)
Dapat ditunjukkan bahwa
Y(i,j) = 〈 Аij, X 〉. (6.8)
Sebenarnya elemen (i,j) dari matrik tertransformasi dihasilkan dari perkalian setiap elemen X dengan
konjugasi dari elemen Aij yang bersesuaian dan menjumlahkannya untuk semua produk.
Transformasi-transformasi jenis (6.4) juga dikenal sebagai separable. Alasannya adalah bahwa itu dapat
dicari dari mereka sebagai rangkaian transformasi satu dimensi, pertama dioperasikan pada vektor kolom
dan kemudian pada vektor-vektor baris. Sebagai contoh hasil perantara pada (6.4), Z = UH X, adalah
ekivalen dengan N transformasi yang dikenakan pada vektor-vektor kolom dari X, dan (UH X)V = (VHZH)H
adalah ekivalen dengan urutan ke dua dari N transformasi yang bekerja pada baris-baris Z.
Contoh 6.1. Diberikan citra X dan matrik tansformasi ortogonal U sebagai
X = ⎥⎦

⎢⎣

2 3
1 2
, U =
2
1
⎥⎦

⎢⎣ ⎡
1 −1
1 1
citra tertransformasi Y = UTXU adalah
Y =
2
1
⎥⎦

⎢⎣

1 −1
1 1
⎥⎦

⎢⎣

2 3
1 2
⎥⎦

⎢⎣

1 −1
1 1
= ⎥⎦

⎢⎣



1 0
4 1
.
Citra basis yang bersesuaian adalah :
A00 =
2
1
⎥⎦

⎢⎣

1
1 [1 1] =
2
1
⎥⎦

⎢⎣

1 1
1 1
.
A11 =
2
1
⎥⎦

⎢⎣

−1
1 [1 −1] =
2
1
⎥⎦

⎢⎣



1 1
1 1
.
Dengan cara yang sama dapat diperoleh :
A01 = AT 10 =
2
1
⎥⎦

⎢⎣



1 1
1 1
.
6.3 TRANSFORMASI KARHUNEN-LOEVE
Misalkan x adalah vektor dari cuplikan masukan. Pada kasus larik (array) citra, x dapat dibentuk dengan
urutan lexicographic terhadap elemen-elemen larik. Sifat-sifat yang diinginkan dari ciri-ciri yang digenerasi
adalah tak terkorelasi timbal-balik dengan maksud untuk menghindari berlebihnya informasi. Tujuan dari
bagian ini adalah menggenerasi ciri-ciri yang secara optimal tak terkorelasi, yaitu E[y(i)y(j)] = 0, i ≠ j.
Misalkan data nyata :
y = AT x. (6.9)
Dari definisi matrik korelasi diperoleh :
Ry ≡ E[yyT] = E[AT xxT A] = AT RxA. (6.10)
Tetapi Rx adalah matrik simetris, dan karenanya vektor-vektor eigen yang saling ortogonal. Kemudian, jika
matrik A dipilih sedemikian hingga kolom-kolomnya merupakan vektor eigen ortogonal ai, i = 0, 1, 2, ...,
N-1, dari Rx, maka Ry adalah diagonal
Ry = AT Rx A = Λ (6.11)
di mana Λ adalah matrik diagonal dengan elemen-elemen pada diagonalnya masing-masing nilai eigen λi,
dengan i = 0, 1, 2, ..., N-1, dari Rx. Selanjutnya, pengambilan Rx positif memastikan nilai eigen-nya positif.
Transformasi yang dihasilkan tersebut dikenal sebagai transformasi Karhunen-Loeve (KL). Transformasi KL
sangat fundamental di dalam pengenalan pola serta dalam aplikasi pemrosesan sinyal dan citra. Sifat-sifat
pentingnya meliputi :
Mean square error approximation. Dari persamaan (6.2) dan (6.3) diperoleh :
x = Σ−
=
1
0
( )
N
i
y i ai dan y(i) = ai
T x (6.12)
Sekarang mendefinisikan vektor baru dalam subspace berdimensi m sebagai :
xˆ = Σ−
=
1
0
( )
m
i
y i ai (6.13)
di mana hanya m vektor-vektor basis yang dicakup. Dengan jelas, ini bukanlah sesuatu tetapi proyeksi x
pada subspace dijangkau oleh m vector-vektor eigen (ortonormal) yang tercakup dalam somasi. Jika
diusahakan untuk mendekati x dengan proyeksinya xˆ , hasil mean square error (MSE) diberikan oleh :
E [ 2 ] x − xˆ = E
⎥ ⎥⎦

⎢ ⎢⎣

Σ−
=
1 2
( )
N
i m
i y i a (6.14)
Selanjutnya memilih vektor-vektor eigen yang menghasilkan MSE minimum. Dari (6.14) dan mengingat
akan sifat ortonormalitas dari vektor-vektor eigen tersebut diperoleh :
E
⎥ ⎥⎦

⎢ ⎢⎣

Σ−
=
1 2
( )
N
i m
i a i y = E ⎥⎦

⎢⎣
⎡ Σ Σ ( ( ) )( ( ) ) j
T
i
i j
y i a y j a (6.15)
= Σ−
=
1
[ 2 ( )]
N
i m
i y E = Σ−
=
1
[ ]
N
i m
i
T T
i a E xx a (6.16)
Kombinasi ini dengan persamaan (6.14) dan pendefinisian vektor eigen, akhirnya diperoleh :
E [ 2 ] ˆx x − = Σ−
=
N 1
i m
i i
T
i a a λ = Σ−
=
N 1
i m
i λ
(6.17)
Jika dipilih dalam (6.13) vektor-vektor eigen yang bersesuaian dengan nilai eigen m terbesar dari matrik
korelasi, maka error pada (6.17) diminimisasi, merupakan jumlah dari N-m nilai-nilai eigen terkecil.
Selanjutnya dapat ditunjukkan bahwa ini juga merupakan MSE minimum, dibandingkan dengan pendekatan
lain untuk x oleh vektor berdimensi m. Hal ini menjadi alasan bahwa transformasi KL juga dikenal sebagai
Analisis Komponen Utama (PCA : Principal Component Analysis).
Bentuk lain dari transformasi KL diperoleh jika penghitungan A dalam suku-suku vektor-vektor eigen
pada matrik kovarian. Transformasi ini mendiagonaisasi matrik kovarian Σy,
Σy = AT Σx A = Λ. (6.18)
Pada umumnya keduanya berbeda dan serupa untuk vektor-vektor acak rerata nol. Dalam praktek ini
biasanya kasus, sebab jika ia salah dapat mengganti setiap vektor dengan x – E[x]. Hal itu dapat
ditunjukkan bahwa dalam kasus ini basis ortonormal yang dihasilkan (Σx vektor-vektor eigen i aˆ ) menjamin
bahwa MSE antara x dan pendekatannya diberikan oleh :
xˆ = Σ− =
1
0
( )
m
i
y i i aˆ + Σ−
=
1
[ ( )]ˆ
N
i m
i E y i a , y(i) ≡ T
i aˆ x adalah minimum. (6.19)
Komponen terakhir N-m tidak acak tetapi dibekukan masing-masing nilai reratanya.
Optimalitas transformasi KL, terhadap pendekatan MSE, membawa ke sifat-sifat utama dari kemasan
informasi dan memberikan alat untuk memilih ciri-ciri dominan m keluar dari N cuplikan pengukuran.
Tetapi meskipun ini mungkin merupakan kriteria yang baik, dalam banyak kasus ia tidak perlu dibawa ke
separabilitas kelas maksimum dalam subspace berdimensi lebih rendah. Hal ini beralasan karena reduksi
dimensionalitas bukan dioptimisasi terhadap separabilitas kelas. Pada Gambar 6.1, vektor-vektor ciri pada
kedua kelas mengikuti distribusi Gauss dengan matrik kovarian sama. Ellip-ellip tersebut menunjukkan
kurva dengan nilai pdf konstan. Vektor eigen a1 adalah yang bersesuaian dengan nilai eigen terbesar.
Proyeksi pada a1 membuat kedua kelas hampir serupa. Tetapi proyeksi pada a2 menjadikan kedua kelas
terpisah.
Varian Total. Misalkan E[x] adalah nol. Jika ini bukan kasus, reratanya selalu dapat dikurangi. Misalkan y
adalah KL tertransformasi vektor x. Dari masing-masing definisi diperoleh bahwa 2
y (i) σ ≡ E[y2(i)] = i
λ .
Yaitu bahwa nilai-nilai eigen dari matrik korelasi masukan sama dengan variansi ciri-ciri tertransformasi.
Kemudian pemilihan ciri-ciri itu, y(i) ≡ ai
T x, bersesuaian dengan nilai-nilai eigen terbesar m yang membuat
jumlah variansinya Σi i
λ maksimum. Dengan kata lain, ciri-ciri m yang terpilih menahan sebagian besar
varian total yang terkait dengan variable acak aslinya x(i). Tentu saja, yang terakhir itu sama dengan trace
dari Rx, yang diketahui dari aljabar linier sama dengan jumlah dari nilai-nilai eigen, yakni :
Σ−
=
1
0
N
i
i λ
.
Dapat ditunjukkan bahwa hal tersebut merupakan sifat yang lebih umum, yaitu bahwa dari semua
kemungkinan kumpulan ciri-ciri m, diperoleh melalui transformasi linier ortogonal pada x, salah satunya
dihasilkan dari transformasi KL yang memiliki jumlah varian terbesar.
a1
x1
x2
a2
Gambar 6.1. Transformasi KL tidak selalu terbaik untuk pengenalan pola.
Dalam contoh ini, proyeksi pada vektor eigen dengan nilai eigen yang lebih
besar membuat kedua kelas serupa. Dengan kata lain, proyeksi pada vektor
eigen yang lain menjadikan kelas-kelas tersebut terpisah.
Entropy. Diketahui bahwa entropy suatu proses didefinisikan sebagai Hy = -E[ln py(y)] dan merupakan
ukuran keacakan suatu proses. Untuk Gaussian dengan rerata nol dari proses berdimensi m multivariabel,
entropy tersebut menjadi :
Hy =
2
1 E[yT −1
y R y] +
2
1 ln y R +
2
1 m ln (2π). (6.20)
Tetapi E[yT −1
y R y] = E[trace {yT −1
y R y}] = E[trace { −1
y R y yT }] = trace (I) = m dengan menggunakan sifat
yang telah diketahui dari aljabar linier, maka determinannya adalah
ln y R = ln (λ0 λ1 λ2 ... λm-1).
Pemilihan terhadap ciri-ciri m yang bersesuaian nilai eigen terbesar m akan memaksimumkan entropy
proses. Hal ini diharapkan karena varian dan keacakan berhubungan langsung.
Catatan. Konsep subspace vektor eigen utama juga diekspliotasi sebagai pengklasifikasi. Pertama, rerata
cuplikan dari seluruh pelatihan dikurangkan dari vektor-vektor ciri. Untuk setiap kelas, ω
i, matrik korelasi
Ri diestimasi dan menghitung vektor-vektor eigen utama m (bersesuaian dengan nilai-nilai eigen terbesar
m). Suatu matrik Ai dibentuk menggunakan masing-masing vektor eigen sebagai kolom. Vektor ciri x yang
tidak diketahui kemudian diklasifikasi ke dalam kelas ω
j dengan :
x ATj
> AT x
i , ∀i ≠ j (6.21)
yaitu bahwa kelas tersebut sesuai dengan norm maksimum proyeksi subspace dari x. Dari teorema
Pythagoras, ini ekivalen dengan pengklasifikasian sebuah vektor dalam subspace kelas terdekat. Decision
surface-nya merupakan hyperplanes jika semua subspace memiliki dimensi yang sama atau surface kuadrik
dalam kasus yang lebih umum. Pengklasifikasian subspace mengintegrasi tahapan-tahapan penggenerasian
atau pemilihan ciri dan rancangan klasifikasi.
Contoh 6.2. Matrik korelasi dari sebuah vektor x diberikan sebagai :
Rx =
⎥ ⎥ ⎥


⎢ ⎢ ⎢




0,1 0,1 0,3
0,1 0,3 0,1
0,3 0,1 0,1
Menghitung transformasi KL dari vektor masukan tersebut.
Nilai-nilai eigen dari Rx adalah λ0 = 0,1; λ1 = λ2 = 0,4. Karena matrik Rx simetrik, maka selalu dapat disusun
vektor-vektor eigen ortonormal. Untuk kasus ini dapat diperoleh :
a0 =
3
1
⎥ ⎥ ⎥


⎢ ⎢ ⎢




1
1
1
, a1 =
6
1
⎥ ⎥ ⎥


⎢ ⎢ ⎢


1
1
2
, a2 =
2
1
⎥ ⎥ ⎥


⎢ ⎢ ⎢


−1
1
0
.
Transformasi KL kemudian ditentukan dengan :
⎥ ⎥ ⎥


⎢ ⎢ ⎢


(2)
(1)
(0)
y
y
y
=
⎥ ⎥ ⎥


⎢ ⎢ ⎢


− −

1/ 3 1/ 3 1/ 3
0 1/ 2 1/ 2
2 / 6 1/ 6 1/ 6
⎥ ⎥ ⎥


⎢ ⎢ ⎢


(2)
(1)
(0)
x
x
x
di mana y(0), y(1) besesuaian dengan dua nilai eigen terbesar.
6.4 DEKOMPOSISI NILAI SINGULAR
Diberikan sebuah matrik X dengan rank r, akan ditunjukkan bahwa ada NxN matrik-matrik unitary U
dan V sedemikian hingga :
X = U ⎥⎦

⎢⎣
⎡Λ
0
1/ 2
O
O VH atau Y ≡ ⎥⎦

⎢⎣
⎡Λ
0
1/ 2
O
O = UHXV (6.22)
di mana Λ1/ 2matrik diagonal r x r dengan elemen-elemen i
λ dan i
λ adalah nilai-nilai eigen bukan nol r
dari matrik XHX yang terkait. O menyatakan matrik elemen nol. Dengan kata lain, ada matrik unitary U dan
V sedemikian hingga matrik tertransformasi Y adalah diagonal. Dari (6.22) dapat ditunjukkan bahwa :
X = Σ−
=
1
0
r
i
i λ
ui vi
H (6.23)
di mana ui, vi berturut-turut merupakan kolom pertama r dari U dan V. Lebih tepatnya, ui, vi berturutturut
adalah vektor-vektor eigen dari XXH dan XHX. Nilai-nilai eigen i
λ dikenal sebagai nilai-nilai singular
dari X dan pengekspansian menurut (6.23) sebagai dekomposisi nilai singular (SVD : singular value
decomposition) dari X atau representasi spektral dari X.
Contoh 6.3. Diberikan suatu matrik X sebagai berikut. Tujuannya adalah menghitung dekomposisi nilai
singularnya.
X =
⎥ ⎥ ⎥ ⎥


⎢ ⎢ ⎢ ⎢


0 6
4 0
0 1
6 6
Langkah 1 : Mencari nilai-nilai eigen dan vektor-vektor eigen dari XTX = ⎥⎦

⎢⎣

36 73
52 36
Ini adalah λ0 = 100, λ1 = 25 dan vektor eigen yang bersesuaian adalah v0 = [0,6 ; 0,8]T; v1 = [0,8 ; -0,6]T.
Langkah 2 : Menghitung vektor-vektor eigen dari XXT. Yakni matrik 4x4 dengan rank-2. Vektor-vektor
eigen yang bersesuaian dengan nilai-nilai eigen bukan nol λ0, λ1 dihitung melalui (6.26), yaitu u0 = 0,1X v0,
u1 = 0,2X v1 atau masing-masing [0,84; 0,08; 0,24; 0,48]T dan [0,24; -0,12; 0,64; -0,72]T.
Langkah 3 : Menghitung SVD dari X, yaitu :
X = 10 [0,84; 0,08; 0,24; 0,48]T [0,6 ; 0,8] + 5 [0,24; -0,12; 0,64; -0,72]T [0,8 ; -0,6].
Jika dipertahankan suku-suku ke dua yang pertama, maka hasil pendekatannya adalah yang terbaik, dalam
rasa (sense) Frobenius, pendekatan rank-1 dari X.
6.5 ANALISIS KOMPONEN INDEPENDEN
Analisis komponen utama (PCA) dilakukan dengan transformasi KL yang menghasilkan ciri-ciri y(i), i
= 0, 1, 2, ..., N-1, yang tak terkorelasi timbal-balik. Solusi yang diperoleh dengan transformasi KL akan
optimal ketika pereduksian dimensionalitasnya menjadi tujuan dan menginginkan minimisasi pendekatan
MSE. Tetapi untuk aplikasi khusus seperti ilustrasi pada Gambar 6.1 solusi yang diperoleh jauh dari yang
diharapkan. Analisis komponen independen (ICA : Independent Component Analysis) berusaha untuk
mencapai lebih banyak dari pada dekorelasi sederhana terhadap data.
Diberikan sejumlah cuplikan masukan x, ditentukan matrik invertibel W berukuran NxN sedemikian
masukan-masukan y(i), i = 0, 1, 2, ..., N-1, dari vektor yang tertransformasi :
y = W x (6.34)
adalah independen timbal-balik. Tujuan dari independensi secara statistik adalah kondisi yang lebih kuat
dari pada ke-tidak korelasi-an yang diperlukan oleh PCA. Kedua keadaan hanya ekivalen untuk variabel
acak Gaussian.
Pencarian ciri-ciri independent dari pada tak terkorelasi memberikan arti penggalian informasi yang
sedikit lebih, tersembunyi di dalam statistik orde tinggi pada data. Seperti contoh Gambar 6.1 menyarankan
bahwa pemaksaan pencarian dengan menggali informasi dalam statistic orde ke dua hanya menghasilkan
sedikit yang menarik, untuk persoalan tersebut, arah proyeksi seperti pada a1. Tetapi a2 sudah pasti arah
yang lebih menarik dari pandangan titik pemisahan kelas. Penggunaan ICA dapat membuka selubung dari
statistik data orde tinggi suatu kelumit informasi yang menunjuk a2 sebagai sesuatu yang paling menarik.
Selanjutnya, pencarian ciri-ciri independent secara statistik yang sejalan dengan sifat pembangun peta
kognitif dunia luar di dalam otak, dengan pemrosesan data masukan dari indera. Hipotesis Barlow
mengatakan bahwa hasil pemrosesan awal yang terbentuk dari detector ciri-ciri visual dapat menghasilkan
proses reduksi kelebihan. Dengan kata lain, keluaran syaraf dimungkinkan secara statistik independen
timbal-balik, terkondisi, tentu saja pada penerimaan pesan sensor.
Dipastikan dahulu bahwa persoalan yang demikian terdefinisi dengan baik, memiliki solusi, dan dalam
kondisi apa. Diasumsikan bahwa vektor data acak masukan x adalah sungguh-sungguh tergenerasi oleh
kombinasi linier komponen-komponen (sumber) yang secara statistik independen dan stasioner dalam rasa
(sense) yang seksama, yaitu :
x = A y (6.35)
Tugas berikutnya adalah di bawah kondisi yang bagaimana matrik W dapat dihitung sehingga mencakup
komponen-komponen y dari persamaan (6.34) dengan penggalian informasi yang tersembunyi di dalam x.
Biasanya A diketahui sebagai matrik pencampur (mixing) dan W sebagai matrik pengurai (de-mixing).
ICA Berdasarkan Cumulant Orde-Empat dan -Dua.
Pendekatan ini dalam menjalankan ICA merupakan generalisasi langsung dari teknik PCA. Tansformasi
KL berfokus pada statistik orde dua dan bergantung pada korelasi silang E[y(i)y(j)] menjadi nol. Ketika pada
ICA bergantung pada komponen y menjadi independen secara statistik, hal ini setara dengan
kebergantungan semua cross-cumulant orde tinggi menjadi nol. Disarankan untuk membatasi hingga
cumulant orde empat sudah cukup untuk banyak aplikasi. Tiga yang pertama dari cumulant adalah sama
dengan tiga yang pertama dari moment, yaitu
κ1
(y(i)) = E[y(i)] = 0
κ2
(y(i)y(j)) = E[y(i)y(j)]
κ3
(y(i)y(j) y(k)) = E[y(i)y(j) y(k)]
dan cumulant orde empat diberikan oleh :
κ4
(y(i)y(j) y(k) y(r)) = E[y(i)y(j) y(k) y(r)] - E[y(i)y(j)] E[y(k)y(r)]
- E[y(i)y(k)] E[y(j)y(r)] - E[y(i)y(r)] E[y(j)y(k)]
di mana telah diasumsikan pemrosesan rerata nol. Asumsi lain yang biasanya digunakan dalam praktek
adalah terkait dengan kesimetrian pdf-pdf. Hal ini membuat semua cumulant orde ganjil nol. Persoalannya
sekarang direduksi untuk mendapatkan matrik W sehingga orde dua korelasi silang dan orde empat cross
cumulant dari variabel transformasi adalah nol. Hal ini dicapai dengan langkah-langkah berikut :
Langkah 1. Mengenakan PCA pada data masukan, yakni :
yˆ = AT x (6.36)
A adalah matrik transformasi unitary pada transformasi KL. Komponen dari vektor acak tertransformasi yˆ
adalah tak terkorelasi.
Langkah 2. Menghitung matrik unitary lain Aˆ sehingga cross cumulant orde empat dari komponen vektor
acak tertransformasi memenuhi
y = T Aˆ yˆ = 0. (6.37)
Ini adalah sama dengan pencarian sebuah matrik Aˆ yang membuat jumlah kwadrat auto-cumulant orde
empat maksimum, yaitu :
I A A T = ˆ ˆ max Ψ(Aˆ ) ≡ Σ−
=
1
0
N
i
κ4
(y(i))2 (6.38)
Jumlah kwadrat cumulant orde empat adalah invarian terhadap transformasi linier oleh matrik unitary.
Sehingga jumlah kwadrat cumulant orde empat tersebut tetap untuk yˆ , pemaksimuman jumlah kwadrat
auto-cumulant y akan memaksa cross-cumulant yang bersesuaian nol. Ruas kanan (6.38) merupakan fungsi
dari (a) elemen-elemen matrik Aˆ yang tidak diketahui, (b) elemen-elemen matrik A yang diketahui, dan (c)
cumulant komponen acak dari vektor data masukan x, yang mana diestimasi mendahului penerapan metode
tersebut. Dalam praktek, peng-nol-an cross-cumulant adalah dicapai dengan pendekatan. Hal ini disebabkan
(a) data masukan tidak patuh pada model linier (6.35), (b) data masukan dikorupsi oleh derau, yang tidak
akan diingat, dan (c) cumulant masukan hanya diketahui dengan pendekatan, sehingga mereka diestimasi
dengan sejumlah data masukan yang tersedia.
Ketika kedua langkah tersebut lengkap, vektor ciri final merupakan komponen independen (secara
pendekatan) yang diberikan dengan kombinasi transformasi :
y = (AAˆ )T x ≡ W x (6.39)
Ketika Aˆ merupakan unitary ketakterkorelasian yang telah dicapai pada langkah pertama diwarisi oleh
elemen-elemen y, yang sekarang memiliki cross-cumulant orde-empat dan –dua adalah nol.
ICA Berdasarkan Informasi Timbal-Balik (Mutual).
Pendekatan berdasarkan pada peng-nol-an cross-cumulant orde-empat dan –dua, walaupun sangat luas
digunakan dalam praktek, bagaimanapun juga kekurangan dalam generalitas dan juga secara eksternal
memaksakan struktur dalam matrik transformasi. Alternatifnya, pendekatan yang lebih nyaman secara teori
adalah estimasi W dengan minimisasi informasi timbal-balik antar variabel-variabel acak yang
ditransformasi. Informasi timbal-balik I(y) antar komponen y didefinisikan sebagai :
I(y) = -H(y) + Σ−
=
1
0
N
i
H(y(i)) (6.40)
di mana H(y(i)) merupakan entropy dari y(i) yang bersesuaian, didefinisikan sebagai :
H(y(i)) == - ∫ pi(y(i)) ln pi(y(i)) dy(i) (6.41)
di mana pi(y(i)) adalah pdf kecil dari y(i). Ternyata I(y) sama dengan jarak probabilitas Kullbach-Leibler
antar joint-pdf p(y) dan hasil kali dari masing-masing densitas probabilitas kecil Π−
=
1
0
( ( ))
N
i
i p y i .
Jarak ini (informasi timbal-balik terkait I(y)) alah nol jika komponen-komponen y(i) secara statistik
independen. Kombinasi (6.34), (6.40), (6.41) dan memperhatikan rumus hubungan kedua pdf yang terkait
dengan x dan y (y fungsi dari x), maka :
I(y) = -H(x) – ln det(W) - Σ∫

=
1
0
N
i
pi(y(i)) ln pi(y(i)) dy(i) (6.42)
di mana det(W) menyatakan determinan dari W. Elemen-elemen matrik tak diketahui W tersembunyi
dalam pdf-pdf kecil dari variabel-variabel yang ditransformasi y(i). Tetapi tidak mudah untuk menyatakan
dependensi ini secara eksplisit. Pendekatan yang dipakai adalah mengekspansi setiap probabilitas kecil di
sekitar pdf Gaussian g(y), mengikuti ekaspansi Edgeworth, dan memotong deret pada pendekatan yang
masuk akal. Misalnya mengambil hingga suku ke dua yang pertama dari ekspansi Edgeworth, diperoleh :
p(y) = g(y) (1 +
3!
1 κ
3(y)H3(y) +
4!
1 κ
4(y)H4(y) (6.43)
di mana Hk(y) adalah polynomial Hermit pada orde k. Untuk mendapatkan pernyataan pendekatan I(y)
dalam suku-suku cumulant dari y(i) dan W, kita dapat (a) menyisipkan ke dalam (6.42) pendekatan pdf di
dalam (6.43), (b) mengadopsi pendekatan ln(1+ y) ≈ y – y2, dan (c) menjalankan integrasi. Untuk kasus
persamaan (6.43) dan batasan W harus unitary, maka :
I(y) ≈ C – Σ−
=
1
0
N
i
( ( ( ))
12
1 2
3 κ y i + ( ( ))
48
1 2
4 κ y i + ( ( ))
48
7 4
4 κ y i - ( ( )) ( ( ))
8
1
4
2
3 κ y i κ y i ) (6.44)
di mana C dalam sesbuah independen variabel dari W. Di bawah asumsi bahwa pdf-pdf simetris (cumulant
orde tiga nol) dapat ditunjukkan maka minimisasi pernyataan pendekatan informasi timbal-balik (6.44)
adalah ekivalen dengan minimisasi jumlah kwadrat cumulant orde empat. Minimisasi I(y) pada (6.44)
dapat ditempuh dengan teknik menurunkan gradien, di mana ekspektasi yang tercakup (terkait dengan
cumulant) digantikan dengan masing-masing nilai sesaatnya.
Kembali ke persamaan (6.42) sebelum menerapkan pendekatan. Karena H(x) tidak tergantung pada W,
minimisasi I(y) adalah ekivalen dengan memaksimumkan :
J(W) = ln ) det(W + E ⎥⎦

⎢⎣
⎡Σ−
=
1
0
ln ( ( ))
N
i
i p y i (6.45)
Pengambilan gradien fungsi cost terhadap W menghasilkan :
W
J W

∂ ( ) = W-T – E[φ(y) xT] (6.46)
di mana
φ(y) ≡
T
N
N
p y N
p y N
p y
p y
⎥⎦

⎢⎣



− −


( ( 1))
( ( 1))
,...,
( (0))
( (0))
1
"
1
0
'0
(6.47)
dan
p' (y(i)) i ≡
( )
( ( ))
dy i
dp y i i . (6.48)
Jelas bahwa turunan dari densitas probabilitas kecil tergantung pada jenis pendekatan yang diadopsi dalam
setiap kasus. Skema kenaikan gradien umum pada langkah iterasi ke t dapat dituliskan :
W(t) = W(t – 1) + μ(t) (W -T(t – 1) - E[φ(y) xT])
W(t) = W(t – 1) + μ(t) (I – E[φ(y) yT] ) W -T(t – 1). (6.49)
Catatan
Dari gradient pada (6.46) terlihat bahwa pada titik stasioner berlaku :
W
J W

∂ ( )WT = E[I – φ(y) yT] = 0. (6.50)
Dengan kata lain, apa yang telah dicapai dengan ICA merupakan generalisasi non linier dari PCA. Kondisi
ke-tak terkorelasi-an dapat dituliskan :
E[I - y yT] = 0. (6.51)
Pembaruan persamaan (6.49) yang mencakup inversi dari transpose estimasi W yang sedang berjalan. Di
samping isu kerumitan komputasi, juga tidak ada jaminan invertibilitas proses adaptasi. Penggunaan
gradient alami (natural) sebagai penggan gradient pada (6.46) dihasilkan :
W(t) = W(t – 1) + μ(t) (I – E[φ(y) yT] ) WT(t – 1). (6.52)
yang tidak memuat inversi matrik dan pada saat yang sama meningkatkan konvergensi.
6.6 TRANSFORMASI FOURIER DISKRET (DFT)
Vektor basis / citra basis untuk ekspansi KL dan SVD adalah tidak tetap tetapi merupakan persoalan
kebebasan dan merupakan hasil dari proses optimisasi. Hal ini menjadi alasan untuk optimalitasnya terhadap
sifat-sifat dekorelasi dan kemasan informasi, tetapi dalam waktu yang bersamaan tercatat kelemahan
utamanya memiliki kerumitan komputasional yang tinggi. Selanjutnya akan dibahas transformasi yang
menggunakan vector/citra basis yang tetap. Suboptimalitasnya terhadap sifat dekorelasi dan kemasan
informasi terkompensasi dengan tuntutan komputasionalnya yang rendah.
DFT Satu-Dimensi
Diberikan cuplikan masukan N yakni x(0), x(1), x(2), ..., x(N-1), maka DFT-nya didefinisikan sebagai :
y(k) =
N
1 ( )exp( 2 )
1
0
kn
N
x n j
N
n
π
− Σ−
=
, k = 0, 1, 2, …, N-1 (6.53)
dan DFT balik (inverse) sebagai :
x(n) =
N
1 ( ) exp( 2 )
1
0
kn
N
y k j
N
k
π Σ−
=
, k = 0, 1, 2, …, N-1 (6.54)
di mana j ≡ −1 . Pengumpulan semua x(n) dan y(k) bersama-sama ke dalam dua vektor Nx1 dan
mendefinisikan :
WN = exp(-j
N
2π) (6.55)
maka (6.53), (6.54) dapat ditulisakan dalam bentuk matrik sebagai :
y = WH x, x = W y (6.56)
di mana :
WH =
N
1
⎥ ⎥ ⎥ ⎥


⎢ ⎢ ⎢ ⎢


− − − −

1 2( 1) ( 1)( 1)
2 1
1 .
. . . . .
1 .
1 1 1 . 1
N N
N
N
N
N
N
N
N N N
W W W
W W W
(6.57)
Hal itu tidak sulit untuk melihat bahwa W adalah matrik unitary dan simetrik W-1 = WH = W*.
Vektor-vektor basis adalah kolom-kolom dari W. Sebagai contoh untuk N = 4
W =
2
1
⎥ ⎥ ⎥ ⎥


⎢ ⎢ ⎢ ⎢


− −
− −
− −
j j
j j
1 1
1 1 1 1
1 1
1 1 1 1
dan vektor-vektor basis tersebut adalah
w0 =
2
1 [1, 1, 1, 1]T
w1 =
2
1 [1, j, -1, -j]T
w2 =
2
1 [1, -1, 1, -1]T
w3 =
2
1 [1, -j, -1, j]T
dan
x = Σ=
3
0
( )
i
y i wi.
Komputasi langsung dari (6.56) memerlukan O(N2) penghitungan. Tetapi dengan mengambil keuntungan
dari struktur spesifik matrik W, penghematan mendasar dalam penghitungan dimungkinkan melalui
algoritma FFT yang cerdas, di mana penghitungan setiap persamaan (6.56) dalam O(Nlog2 N) operasi.
DFT telah diperkenalkan sebagai jenis khusus dari transformasi unitary linier dari satu vektor ke yang lain.
DFT sebagai alat ekspansi runtun x(n) ke dalam sejumlah N basis runtun hk(n) sebagi :
x(n) = Σ−
=
1
0
( )
N
k
y k hk(n)
di mana
hk(n) =
N
1 exp(j
N
2π kn), untuk n = 0, 1, 2, ..., N-1
hk(n) = 0, untuk yang lainnya,
dan y(k) merupakan koefisien-koefisien ekspansi. Runtun basis DFT termasuk kelompok yang lebih umum
dari runtun yang diketahui ortonormal, yaitu :
〈hl(n), hk(n)〉 ≡ Σn
k l h (n)h* (n) = kl δ (6.58)
di mana 〈., .〉 dikenal sebagai inner product dari runtun hk(n), hl(n). Untuk ekspansi DFT tersebut diperoleh
〈hk(n), hl(n)〉 =
N
1 Σ−
=
1
0
exp
N
n
(j
N
2π kn) exp(-j
N
2π kn)
=
N
1 Σ−
=
1
0
exp
N
n
(j
N
2π (k - l) n), k, l = 0, 1, 2, ..., N-1.
Tetapi hal itu dapat ditunjukkan dengan mudah bahwa :
N
1 Σ−
=
1
0
exp
N
n
(j
N
2π (k - l) n) = 1, untuk l = k + rN, r = 0, ±1, ±2, ...
= 0, untuk yang lainnya. (6.59)
Sehingga :
〈hk(n), hl(n)〉 = kl δ .
DFT Dua-Dimensi
Diberikan suatu matrik/citra NxN, maka DFT dua-dimensinya didefinisikan sebagai :
Y(k, l) =
N
1 Σ−
=
1
0
N
m
Σ−
=
1
0
N
m
X(m, n) km
N W ln
N W (6.60)
dan DFT balik (inverse) adalah
X(m,n) =
N
1 Σ−
=
1
0
N
k
Σ−
=
1
0
N
l
Y(k, l) km
N W − − ln
N W . (6.61)
Jelas terbaca bahwa hal itu dapat dituliskan dalam bentuk yang lebih kompak sebagai :
Y = WH X WH, X = W Y W. (6.62)
DFT 2-D merupakan transformasi yang dapat dipisahkan dengan citra basis wi wj
T; i, j = 0, 1, 2, ..., N-1.
Jelas kelihatan dari (6.62) bahwa jumlah operasi yang diperlukan untuk masing-masing komputasi adalah
O(N2 log2 N), yaitu banyaknya penjumlahan dan perkalian yang diperlukan untuk komputasi DFT satudimensi
2N melalui algiritma FFT.
6.7 TRANSFORMASI KOSINUS DAN SINUS DISKRET
Diberikan cuplikan masukan N yakni x(0), x(1), x(2), ..., x(N-1), maka transformasi kosinus diskret
(DCT : Discrete cosine transform) di definisikan sebagai :
y(k) = α(k) Σ−
=
1
0
( )
N
n
n x cos ⎟⎠

⎜⎝
⎛ +
N
n k
2
π (2 1)
, k = 0, 1, 2, …, N-1 (6.63)
dan invers dari DCT tersebut diberikan oleh :
x(n) = Σ−
=
1
0
( ) ( )
N
k
k y k α cos ⎟⎠

⎜⎝
⎛ +
N
n k
2
π (2 1)
, n = 0, 1, 2, …, N-1 (6.64)
di mana :
α(k) =
N
1
, untuk k = 0, dan
=
N
2
, untuk k ≠ 0.
Dalam bentuk vector transformasi tersebut diberikan oleh y = CT x
di mana elemen-elemen matrik C diberikan oleh :
C(n,k) =
N
1 , k = 0, 0 ≤ n ≤ N-1
=
N
2
cos ⎟⎠

⎜⎝
⎛ +
N
n k
2
π (2 1)
, 1 ≤ k ≤ N-1, 0 ≤ n ≤ N-1.
Matrik C memiliki elemen-elemen riil, dan mudah dilihat bahwa ia ortogonal, C-1 = CT.
DCT 2-D merupakan transformasi yang dapat dipisah dan didefinisikan sebagai :
Y = CT X C, X = C Y CT (6.65)
Transformasi sinus diskret (DST : Discrete Sine Transform) didefinisikan melalui matrik transformasi
S(k,n) =
1
2
N +
sin ⎟⎠

⎜⎝

+
+ +
1
( 1)( 1)
N
π k n
; k, n = 0, 1, 2, …, N-1
dan ia juga merupakan transformasi orthogonal.
6.8 TRANSFORMASI HADAMARD
Transformasi Hadamard dan transformasi Haar memberikan keuntungan komputasi yang serius dari
transformasi DFT, DCT, dan DST. Matrik unitary-nya terdiri dari ±1 dan transformasi tersebut dihitung
melalui penjumlahan dan pengurangan saja, tanpa memuat perkalian. Sehingga diperoleh penghematan yang
mendasar terhadap operasi yang menghabiskan waktu ketika prosesor melakukan perkalian.
Matrik unitary Hadamard orde n adalah matrik NxN, N = 2n, dihasilkan dari aturan iterasi berikut :
Hn = H1 ⊗ Hn-1 (6.66)
di mana:
H1 =
2
1
⎥⎦

⎢⎣

1 −1
1 1
(6.67)
dan ⊗ menyatakan hasil kali Kronecker dari dua matrik :
A ⊗ B =
⎥ ⎥ ⎥


⎢ ⎢ ⎢


A N B A N B A N N B
A B A B A N B
( ,1) ( ,2) . ( , )
. . . .
(1,1) (1,2) . (1, )
di mana A(i,j) adalah elemen-elemen (i,j) dari A; i,j = 0, 1, 2, …, N. Kemudian sesuai dengan (6.66) dan
(6.67) diperoleh :
H2 = H1 ⊗ H1 =
2
1
⎥ ⎥ ⎥ ⎥


⎢ ⎢ ⎢ ⎢


− −
− −
− −
1 1 1 1
1 1 1 1
1 1 1 1
1 1 1 1
dan untuk n = 3
H3 = H1 ⊗ H2 =
2
1
⎥⎦

⎢⎣

− 2 2
2 2
H H
H H
.
Tidak sulit untuk menunjukkan ortogonalitas dari Hn, n = 1, 2, 3, ... yaitu bahwa −1
n H = T
n H = Hn.
Untuk sebuah vektor x dari N cuplikan dan N = 2n pasangan transformasinya adalah
y = Hn x, x = Hn y (6.68)
Transformasi Hadamard 2-D ditentukan dengan :
Y = Hn X Hn, X = Hn Y Hn. (6.69)
Transformasi Hadamard memiliki keuntungan terhadap sifat pengemasan energinya sangat baik.
6.9 TRANSFORMASI HAAR
Titik awal pendefinisian untuk transformasi Haar adalah hk(z), yang ditentukan dalam interval tertutup
[0,1]. Orde k dari fungsi diuraikan secara unik ke dalam dua bilangan integer p, q
k = 2p + q – 1, k = 0, 1, 2, ..., L-1, dan L = 2n.
di mana :
0 ≤ p ≤ n-1, 0 ≤ q ≤ 2p untuk p ≠ 0 dan q = 0 atau 1 untuk p = 0.
Tabel 6.1 merangkum masing-masing nilai pada L = 8. Fungsi Haar tersebut adalah
h0(z) ≡ h00(z) =
L
1 , z ∈ [0,1] (6.70)
hk(z) ≡ hpq(z) =
L
1 2p/2, p
q
2
−1
≤ z < p
q
2
−1/ 2
=
L
1 -2p/2, p
q
2
−1/ 2
≤ z < p
q
2
(6.71)
= 0 untuk yang lain di dalam [0,1].
Tabel 6.1. Parameter-parameter untuk Fungsi Haar
k 0 1 2 3 4 5 6 7
p 0 0 1 1 2 2 2 2
q 0 1 1 2 1 2 3 4
Matrik transformasi Haar orde L terdiri dari baris-baris yang dihasilkan fungsi sebelumnya yang terhitung
pada titik-titik z = m/L, m = 0, 1, 2, ..., L-1. Sebagai contoh matrik transformasi 8 x 8 adalah
H =
8
1
⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥


⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢






− −
− −
− − − −
0 0 0 0 0 0 2 2
0 0 0 0 2 2 0 0
0 0 2 2 0 0 0 0
2 2 0 0 0 0 0 0
0 0 0 0 2 2 2 2
2 2 2 2 0 0 0 0
1 1 1 1 1 1 1 1
1 1 1 1 1 1 1 1
(6.72)
Tidak sulit untuk melihat bahwa H-1 = HT, yakni H adalah ortogonal. Sifat kemasan energi dari transformasi
Haar tidak sangat baik. Transformasi Haar tersebut digunakan sebagai kendaraan untuk mendapatkan dari
dunia transformasi unitary hingga analisis multi-resolusi.
6.10 REVISIT PENGEMBANGAN HAAR
Split (bagi) set asal dari sampel-sampel input N (N genap) x(0), x(1),...,x(N-1) menjadi dua bagian
suksesif yaitu, (x(2k), x(2k+1)), k= 0, 1,..., -1, dan gunakan transformasi Haar pada L=2. Pasangan sampelsampel
yang ditransformasi adalah sebagai berikut.
, k=0, 1,..., (6.73)
Yaitu,
(6.74)
, k=0, 1,..., (6.75)
Dapat diinterpretasikan dengan N sampel input pada dua filter nonkausal dengan respon impuls
(h1(0)= ,h1(-1)= ) dan h0(0)= ,h0(-1)=- secara respektif. Fungsi transfernya adalah sebagai berikut.
(6.76)
(6.77)
Dengan kata lain, pada L=2, transformasi Haar menghitung sampel-sampel output pada kedua filter
ketika diumpankan dengan input sequence x(n), n=0,1,2,...,N-1.
(a)
(b)
Gambar 6.4. (a) Operasi subsampling dan (b) Interpretasi pemfilteran transformasi Haar.
(6.78)
Dengan operasi subsampling pada cabang yang lebih rendah setelah filter H0 dan H1, identitas Nobel
diarahkan menjadi:
(6.79)
Gambar 6.5. Pemfilteran dua tingkat yang diikuti dengan operasi subsampling
(6.80)
Dari fungsi transfer diatas dan mengambil operasi subsampling 4 (2x2), dua sampel pertama dari y1(k)
diberikan dengan.
(6.81)
Kemudian di-split satu langkah berikutnya sebagai:
(a)
(b)
Gambar 6.6. (a) Identitas Nobel I dan (b) equivalent bank filter dari Gambar 6.5.
Gambar 6.7. Bank filter tiga-struktur
Berdasarkan Gambar 6.7, menunjukkan bahwa
(6.82)
Dan
(6.83)
Persamaan ini merupakan hasil pada baris kedua dan pertama dari transformasi Haar pada vektor input.
Gambar 6.7 menunjukkan (tiga-tingkat) struktur pohon bank filter yang dibangkitkan dari H0(z) dan H1(z).
Gambar 6.8 menunjukkan respon-respon frekuensi dari kedua filter tersebut.
Gambar 6.8. Magnitude dari respon frekuensi untuk dua filter Haar. H1 adalah lowpass dan H0 adalah
highpass.
6.11 DISKRETE TIME WAVELET TRANSFORM (DTWT)
(a)
(b)
Gambar 6.9. Respon frekuensi ideal untuk (a) low-pass dan (b) high-pass filter.
Kasus Dua Band
Melihat dari kasus sederhana dua-band pada Gambar 6.4b, dimana sekarang dapat diasumsikan bahwa
filter-filter bukan hanya Haar saja. Jika h0(k), h1(k) adalah respon impulse respektif, maka kemudian dapat
ditulis:
Dimana y1(k) adalah output dari cabang yang lebih rendah pada Gambar 6.4b. Dengan mengumpulkan
y0(k), y1(k), k=0, 1, 2,..., dalam bentuk vektor didapat:
(a)
Gambar 6.10. Tiga-struktur bank filter sintesis
Y=Tix (6.84)
Dapat diasumsikan bahwa filter-filter itu dapat berupa nonkausal, dan merupakan juga Finite Impulse
Response (FIR). Ti pada dasarnya terdiri dari dua baris, satu dengan respon impuls dari H0 dan yang lainnya
dengan H1. Gambar 6.10b menunjukkan struktur kombinasi dari y0(k), y1(k), melalui filter G0, G1 untuk
membentuk sequence . Simbol input dari filter-flter menunjukkan upsampling dengan M operasi, yang
didefinisikan pada Gambar 6.10a. pada kasus ini M=2. Dengan kata lain ekuivalen dengan M-1 bernilai nol
diantara dua sampel. Input sequence dari filter G0, G1 akan menjadi:
...0 y0(0) 0 y0(1) 0 y0(2) 0...
...0 y1(0) 0 y1(1) 0 y1(2) 0...
Dan
Filter Gi diketahui sebagai filter sintesis dan koresponding Hi, dari Gambar 6.4b, sebagai filter analisis.
Dengan mengumpulkan (n) bersama-sama, dapat dilihat bahwa:
Atau
=T0y (6.85)
Dengan =x dapat diberikan [Vett 92]
T0 Ti = I = Ti T0 (6.86)
Dengan mengalikan Ti dengan kolom T0, persamaan ekuivalen dengan:
, i,j = 0, 1 (6.87)
Atau berdasarkan pada definisi dari inner product dalam (6.58),
(hi(2k-n),gj(n-2l))=δklδij
Bisa dikatakan bahwa bank filter dua-band adalah rekunstruksi sempurna dan (n)=x(n), maka
(6.88)
Persamaan diatas dapat dilihat dari perspektif yang berbeda. Sebuah perluasan dari x(n) ke sekuen basis
{g0(n-2k),g1(n-2k)}, k Є Z
Dimana Z adalah himpunan dari bilangan bulat. Dari berbagai sudut pandang y0(k), y1(k) adalah masingmasing
koefisien perluasan. Hal ini dikenal sebagai waktu diskrit transformasi wavelet (DTWT) dan
koefisien y0(k), y1(k) sebagai waktu diskrit koefisien wavelet. Jadi, diberi rekonstruksi yang sempurna duaband
Filter bank (sebagai contoh pada kondisi (6,87)) pasangan transformasi berikut didefinisikan
(6.89)
Keterangan
Dua set fungsi dasar yang terlibat, yaitu
hi (2k - n) ≡ Øik (n), gj(n – 2l) ≡ ψjl (n) i, j = 0, 1 dan k, l Є Z
Persamaan (6.87) adalah kondisi ortogonal antara Øik (n) dan ψjl (n), yaitu,
(Øik (n), ψjl (n) = δklδij
dan dikenal sebagai kondisi biorthogonality. Wavelet waktu diskrit mengubah pasangan pada (6.89) adalah
ekspansi biorthogonal.
Urutan dasar Øik (n) dan ψjl (n) dari ekspansi tersebut adalah menyusun jumlah sampel genap
sebanyak empat urutan dasar sekuen g0(n), g1 (n), h0 (-n), hl (- n), yang merupakan respon impuls sintesis
dan filter analisis time-reversed. Untuk pemulihan x (n) dari koefisien wavelet waktu diskritnya, setiap
koefisien yi(k) membobot dan menambahkan salinan sekuen gi(n) digeser oleh 2k.
Ketika urutan Øik (n) = hi(2k - n) itu sendiri ortogonal, yaitu.
, i, j = 0, 1 dan k, l Є Z
Kemudian
gi(n) = hi(n)
hl (0) 0.4829629 0.33267 0.2303778 0.1601024
hl (1) 0.8365163 0.806891 0.7148466 0.6038293
hl (2) 0.2241439 0.459877 0.6308808 0.7243085
hl (3) -0.1294095 -0.135011 -0.0279838 0.1384281
hl (4) -0.08544 -0.1870348 -0.2422949
hl (5) 0.03522 0.0308414 -0.0322449
hl (6) 0.0328830 0.0775715
hl (7) -0.0105974 -0.006241 5
hl (8) -0.0125807
hl (9) 0.0033357
Artinya, filter sintesis adalah membalikkan waktu dari filter analisis yang lainnya. Seperti halnya bank
filter dikenal sebagai ortogonal atau paraunitary, dan memiliki set yang sama untuk sekuen (hi saja) yang
terlibat dalam kedua persamaan transformasi wavelet waktu diskrit (6.89).
Sejumlah orthogonal dan rekonstruksi yang sempurna biorthogonal pasang filter telah diusulkan dalam
literatur, [Daub 90, Vett 95]. Tabel 6.2 memberikan koefisien untuk empat pertama filter Daubechies
ortogonal maksimal datar. Versi low-pass h1 (n) ditampilkan.
Versi tinggi-pass diperoleh sebagai h0 (n) = (-l)n hl (-n +2L - l), dimana L adalah panjang dari filter.
Selain kasus urutan dasar wavelet dengan nilai-nilai yang telah ditetapkan, besar upaya penelitian telah
dikhususkan untuk membangun urutan seperti yang dioptimalkan untuk masalah tertentu yang menarik. Ini
juga telah digunakan dalam aplikasi pengenalan pola. Misalnya, dalam [Mall 97] diusulkan untuk
merancang filter bank untuk mengoptimalkan kelas kriteria diskriminan. Pendekatan yang lain diikuti pada
[Szu 92] mana kombinasi linear optimal basis standar dicari untuk klasifikasi sinyal suara.
Ketika menerapkan filter bank dalam praktek, filter noncausal harus menunda tepat untuk membuatnya
terealisasi (Lampiran D). Hal inimenjadikan penting diperlukan untuk melibatkan unsur-unsur penundaan
tertentu pada titik-titik yang berbeda, dalam rangka menjaga properti rekonstruksi sempurna dari bank
analisis-sintesis (Soal 6.19).
Dalam prakteknya, jumlah sampel input x (n) terbatas, yaitu, n = 0, 1,. . . ,N - 1. Jadi, untuk perhitungan
(6.89), beberapa kondisi awal adalah diperlukan. Zero, periodik, atau ekstensi simetris dari data yang
populer alternatif. Seperti masalah pelaksanaan serta algoritma untuk efisiensi perhitungan koefisien DTWT
yang dibahas dalam [Vett 95, Bab 6].
Gambar 6.11. Tiga-struktur bank filter sintesis
Kasus Banyak Band
Gambar 6.11 menunjukkan bagian sintesis sesuai dengan analisis bank pada Gambar 6.7, dan merupakan
generalisasi dari konsep sintesis dua-band. Menggunakan identitas Noble yang ditunjukkan pada Gambar
6.12 (Soal 6.17), akhirnya dengan struktur yang setara dengan bagian sintesis, ditunjukkan pada Gambar
6.13. Biarkan fi(n) menjadi tanggapan impuls dari filter Fi. Sangat mudah untuk melihat kontribusi masingmasing
urutan yi (k) ke output (n) adalah
i=0, 1,...,J-2
Gambar 6.12. Bank filter sintesis struktur-pohon
Gambar 6.11 menunjukkan sintesis sesuai analisis bank. Gambar 6,7, dan merupakan generalisasi dari
konsep sintesis dua-band. Menggunakan Identitas Noble yang ditunjukkan pada Gambar 6.12 (Soal 6.17),
Diakhiri dengan struktur ekuivalen dari bagian sintesis yang ditunjukkan pada Gambar 6.13. Biarkan fi (n)
menjadi tanggapan impuls dari filter Fi. Sangat Mudah untuk Melihat bahwa masing-masing kontribusi yi
(k) ke output (n) adalah.
Identitas Nobel II
Gambar 6.13. Ekuivalen dari tiga-struktur bank filter dari Gambar 6.11
Rekonstruksi sempurna dari bank filter, yaitu,
(6.90)
Dimana
(6.91)
(6.92)
Kemudian dari (6.90), (6.91), dan (6.92) kita mendapatkan Tabel 6.3.
Keterangan
Karakteristik terkemuka DTWT adalah bahwa dasar urutan untuk masing-masingi tingkat adalah daya
dari 2 shift sekuen yang sesuai urutan
Dari transformasi wavelet kontinyu, semua analisa (sintesis) fungsi dasar yang dihasilkan dari analisis
tunggal (sintesis) fungsi sekuen dengan dilasi (skala waktu) dan pergeseran [Meye 93, Daub 90, Vett 95].
Jumlah ajaib 2, yang menentukan pergeseran kekuasaan di dasar urutan sekuen, hasil dari split berturut-turut
oleh dua pada struktur pohon bank filter, yang telah didopsi untuk memperkenalkan DTWT tersebut. Bank
filter tipe ini dikenal sebagai band oktaf-filter. Karakteristiknya adalah bahwa bandwidth dari masingmasing
filter di bank adalah sama dalam skala logaritmik. Kadang-kadang mereka juga disebut konstan-Q
bank filter untuk menekankan fakta bahwa rasio bandwidth filter dengan frekuensi masing-masing pusat
konstan. Generalisasi dari DTWT dengan M integer yang lain di tempat 2 juga dapat didefinisikan dan
digunakan [Stef 93].
Contoh 6.4. Transformasi Haar-Epilog
Kita telah melihat bahwa transformasi Haar setara dengan analisis struktur pohon filter bank. Mari kita
melihat masalah sintesis. Untuk 8 x 8 Haar mentransformasi dan setelah reshuffle baris dari matriks yang
sesuai Haar, didapatkan
Atau
Y= x
Dengan demikian transformasi Haar 8 x 8 memberikan empat koefisien pada resolusi terbaik tingkat 0,
dua dan tingkat 1, dan satu untuk masing-masing resolusi tingkat 2 dan 3. Kemudian akan desain bank
sintesis yang sesuai untuk mendapatkan x (n) dari koefisien ini. Respon impuls dari analisis filter Haar
adalah
Dapat dilihat bahwa
Maka filter sintesis dapat didefinisikan sebagai
Maka
Dari ekuivalen struktur bank sintesis dari Gambar 6.13 didapat
Dan respektif respon impuls adalah
Dengan argumen yang sama
Didapat
Atau
6.12 INTERPRETASI MULTIRESOLUSI
Tujuan dari bagian ini adalah untuk menyorot, tanpa menggunakan rincian matematika, aspek penting
dari transformasi wavelet yang bertanggung jawab atas keberhasilannya sebagai alat dalam pengenalan pola
serta berbagai aplikasi lain. Mari kita asumsikan untuk kesederhanaan bahwa dua filter di bank analisissintesis
dari filter bank paraunitary yang ideal. Gambar 6.14 menunjukkan besarnya respon dari filter
masing-masing dalam ekuivalen dari band oktaf filter bank struktur-pohon dari Gambar 6.13. Lebar respon
frekuensi (bandwidth) yang dibelah dua untuk setiap tingkat pohon (Gambar 6.14d). Artinya, "detail"
resolusi (high-pass) filter memiliki bandwidth yang lebar dan "kasar" resolusi (low-pass) filter adalah dari
bandwidth sempit. Filter F3 dan F2, dua resolusi kasar, dari bandwidth yang sama. Pengamatan ini adalah
benar untuk setiap band oktaf bank filter sejumlah tingkat J. Artinya, lebar Fi (z) adalah setengah dari lebar
Fi - 1 (z) dan lebar dari FJ-2 dan F J - 1 adalah sama.
Gambar 6.14. Bandwidth filter dalam filter band oktaf
Transformasi wavelet menyediakan sarana menganalisa sinyal input menjadi beberapa tingkat resolusi
yang berbeda secara hirarkis. Ini juga dikenal sebagai analisis multiresolusi. Dengan demikian, komponen
sinyal yang berbeda sesuai dengan kegiatan fisik dapat diwakili menjadi yang terbaik pada tingkat resolusi
yang berbeda: kegiatan frekuensi tinggi pendek pada resolusi yang lebih baik dan panjang frekuensi rendah
yang berada di tingkat resolusi tersebut.
Pada bagian sintesis, sinyal dapat direkonstruksi dari komponen multiresolusinya. Lihat, sebagai contoh,
Gambar 6.13. Urutan x (n) disintesis pertama oleh komponen kasar nya x3 (n) dan kemudian frekuensi lebih
tinggi (rinci) komponen ditambahkan, sehingga pendekatan yang berturut-turut lebih halus. Ketika
komponen dari detail terbaik, x0 (n), ditambahkan, sinyal asli diperoleh. Filosofi ini adalah inti dari sejumlah
skema kompresi sinyal.
Keterangan
Analisis sinyal di sejumlah komponen melalui bank filter adalah tidak baru dan kembali ke pekerjaan Gabor
di tahun 1940-an. Hal tersebut terkait langsung ke Transformasi Fourier waktu pendek didefinisikan sebagai
[Gabo 46 Vett 95]
(6.93)
dimana θ (n) adalah urutan jendela, yang pusatnya adalah berturut-turut pindah ke m poin yang berbeda.
Jadi, setiap kali, bagian dari urutan x (n) sekitar m (tergantung lebar efektif jendela) dipilih dan
ditransformasi Fourier. Hal ini dapat menunjukkan bahwa ini setara dengan menyaring sinyal x (n) dengan
bank filter, masing-masing berpusat pada frekuensi yang berbeda tetapi semua dari mereka memiliki
bandwidth yang sama (Soal 6.20). Ini adalah kelemahan, karena komponen sinyal frekuensi rendah dan
tinggi adalah "tampak" melalui jendela dalam waktu yang sama. Apa yang sebenarnya dibutuhkan adalah
jendela panjang untuk menganalisis perlahan waktu bervariasi komponen frekuensi rendah dan jendela
sempit untuk mendeteksi frekuensi tinggi kegiatan waktu-pendek. Seperti kita lihat, dari sebuah band oktaf
bank filter struktur-pohon, terkait dengan DTWT tersebut.
Dapat dikatakan tentang transformasi wavelet dan analisis multiresolusi adalah hanya sekilas cerita dari
keseluruhan, cerita yang benar-benar layak dilihat lebih lanjut, pada [Daub 90].
6.13 PAKET-PAKET WAVELET
DTWT ini telah diperkenalkan melalui band filter bank-oktaf, dan koefisien wavelet hasil pada output
bank, ketika masukannya diumpankan dengan sinyal yang menarik. Band oktaf filter bank dibangun
berturut-turut oleh dua pita frekuensi terendah dari bank struktur-pohon (Gambar 6.7). Namun, ada banyak
kasus di mana sebagian besar kegiatan tersebut tidak ada di band frekuensi rendah tapi di bagian tengah
frekuensi tinggi atau spektrum. Dalam kasus, mungkin berguna untuk dapat menempatkan frekuensi
bandwidth yang lebih halus dalam band dimana kegiatan tersebut terjadi. Sebagaimana akan kita lihat nanti
dalam bab ini, hal ini dapat meningkatkan kekuatan diskriminatif sistem dari sudut pandang klasifikasi.
Gambar 6.15a menunjukkan contoh bank filter struktur-pohon dengan membelah frekuensi halus yang
terjadi pada band frekuensi tengah. Gambar 6.15b menunjukkan bandwidth yang dihasilkan untuk masingmasing
filter (ideal) di bank (f-axis) dan panjang jendela masing-masing tanggapan impuls dalam domain
waktu (n-sumbu). Dengan kata lain, filter 2 dan 3 memiliki setengah bandwidth dan dua kali respon impuls
4. Selain itu, mereka memiliki satu keempat bandwidth dan impuls respon empat kali lebih lama daripada 1.
Sebagai perbandingan, Gambar 6.16 menunjukkan frekuensi-waktu resolusi plot untuk band-oktaf filter
bank (a) dan untuk sebuah bank dengan bandwidth yang sama (b), terkait dengan DTWT dan transformasi
Fourier waktu singkat, masing-masing. Setelah membebaskan diri dari band-oktafstruktur-pohon, bank filter
dapat dibangun oleh berbagai strategi pertumbuhan pohon, dengan Gambar 6.15 yang hanya satu
kemungkinan. Seperti halnya dengan filosofi-band oktaf, struktur-struktur pohon juga mengakibatkan satu
set urutan dasar untuk perluasan sinyal diskrit [Coif 92] disebut paket wavelet.
6.14 PANDANGAN GENERALISASI DUA-DIMENSI
Semua konsep yang dibahas sejauh ini dapat dipindahkan ke dalam kasus dua dimensi. Bagaimana
seseorang bisa mendefinisikan subsampling di sini? Cara langsung adalah melalui filosofi "terpisah".
Artinya, pertama-tama kita mengubah (filter) kolom di urutan dua dimensi dan kemudian dihasilkan baris.
Ini mengarah pada subsampling yang ditunjukkan pada Gambar 6.17. Dengan kata lain, kita meninggalkan
setiap baris yang lain dan setiap kolom lainnya (untuk subsampling oleh 2). Gambar 6.18 menunjukkan
struktur Filter bank yang sesuai. Urutan gambar (m, n) muncul dalam filter kolom tahap 1 setelah kolom dan
output masing-masing di subsampel oleh 2. gambar yang dihasilkan subsampel pada gilirannya disaring
pada tahap dua, yang sebelumnya dimasukkan ke dalam filter baris demi baris.
Gambar 6.15. Struktur-pohon paket wavelet
Dengan asumsi H0 menjadi filter high-pass dan H1 low-pass, empat frekuensi band yang dibentuk oleh
prosedur sebelumnya diilustrasikan dalam Gambar 6.19a. Kawasan H1 H1 sesuai dengan kolom low-pass
dan baris, H1 Ho untuk kolom low-pass dan baris high-pass, dan sebagainya. Gambar 6.19b menunjukkan
hasil segmentasi dari domain frekuensi ketika daerah low-pass H1 H1 adalah berturut split dengan
mengulangi prosedur.
Gambar 6.16. Frekuensi versus resolusi waktu untuk (a) band-oktaf dan (b) bandwidth bank filter yang sama
Gambar 6.17. Jarak subsampling 2 untuk gambar
Contoh 6.5. Gambar 6.20 menunjukkan gambar 64 x 64 dari segitiga. Tiga "baris" gambar adalah 32 x
32 gambar yang dihasilkan ketika melewati gambar segitiga melalui struktur Gambar 6.18. Dalam
penyaringan kolom tahap pertama garis vertikal berjalan melalui low-pass filter H1 (tidak ada variasi di
atasnya) dan garis horizontal dan diagonal melalui high-pass H0. Hal ini karena dalam penyaringan kolom
ini muncul sebagai impuls di masing-masing kolom, sehingga kaya pada frekuensi tinggi. Dalam baris
scanning tahap kedua garis horizontal yang akan melalui low-pass filter. penalaran serupa menjelaskan
posisi berbagai bagian segitiga dalam band yang berbeda. Meskipun ini jelas merupakan contoh yang sangat
sederhana, sangat instruktif. Ini menunjukkan bagaimana gambar asli dapat diperoleh dari komponen
multiresolusi dan juga bagaimana karakteristik yang berbeda (arah dalam kasus ini) dari keseluruhan dapat
diisolasi di
band berbeda.
Gambar 6.18. Elemen dasar untuk bank filter dua dimensi
Gambar 6.19. (a) divisi domain frekuensi (b) hasil divisi suksesif low-pass
Gambar 6.20. Gambar segitiga dan versi yang terfilter
6.15 APLIKASI
Pengenalan Karakter tulisan tangan
Gambar 6.21 menunjukkan karakter "3" serta kontur batasnya setelah penerapan algoritma kontur
melacak [Pita 92], sekarang menjadi tugas salah satu bentuk pengalan. Seperti dijelaskan secara lebih rinci
dalam Bab 7, batas dapat direpresentasikan sebagai kurva parametrik tertutup dalam bidang kompleks
(6.94)
dengan N adalah jumlah sampel (piksel) menelusuri kontur dan x (n), y (n) yang sesuai koordinat. Titik
pertama (x (0), y (0)) dari urutan dianggap sebagai asal.
Gambar 6.21. Koefisien wavelet untuk kurva batas karakter 3
Klasifikasi Tekstur
Gambar 6.22. (a) contoh gambar tekstur (b) transformasi paket wavelet
REFERENCES
[Akan 93] Akansu A.N., Hadda R.A. Multiresolution Signal Decomposition, Academic Press, 1992.
[Arbt 90] Arbter K., Snyder W. E., Burkhardt H., Hirzinger G “Application of affineinvariant Fourier
descriptors to recognition of 3-D objects,” IEEE Transactions on Pattern Analysis and Machine
Intelligence, Vol. 12(7), pp. 640-647, 1990.
[Atti 92] Attick J.J. “Entropy minimization: A design principle for sensory perception,” International
Journal of Neural Systems, Vol. 3, pp. 81-90, 1992.
[Barl 89] Barlow H.B. “Unsupervised learning,” Neural Computation, Vol. 1, pp. 295-3 11, 1989.
[Bell 00] Bell A.J. “Information theory, independent component analysis, and applications,” in
Unsupervised Adaptive Filtering, Part I: Blind Source Separation (Haykin S., ed.), pp. 237-264, John
Wiley & Sons, 2000.
[Bovi 90] Bovic A.C., Clark M., Geisler W.S. “Multichannel texture analysis using localized spatial filters,”
IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 12fl), pp. 55-73, 1990.
[Bovi 91] Bovic A.C. “Analysis of multichannel narrow-band filters for image texture segmentation,” IEEE
Transactions on Signal Processing, Vol. 39(9), pp. 2025-2044, 199 I.
[Brod 66] Brodatz P. Textures: A Photographic Album for Artists and Designers, Dover, New York, 1966.
[Burt 83] Burt P.J., Adelson E.H. “The Laplacian pyramid as a compact image code,” IEEE Transactions on
Communications, Vol. 31(4), pp. 532-540, 1983.
[Camp 66] Campell E, Kulikowski J. “Orientation selectivity of the human visual system,” Journal of
Physiology, Vol. 197, pp. 4 3 7 4 1 , 1966.
[Camp 68] Campell E, Robson J. “Application of Fourier analysis to the visibility of gratings,” Journal of
PhysiuZugy, Vol. 197, pp. 55 1-566, 1968.
[Chan 93] Chang T., Kuo C.C.J. “Texture analysis and classification with tree structured wavelet
transform,” IEEE Transactions on Image Processing, Vol. 2(4), pp. 429-442, 1993.
[Chua 96] Chuang GC.H., Kuo C.C.J. “Wavelet descriptor of planar curves: Theory and applications,” IEEE
Transactions on Image Processing, Vol. 5( l), pp. 56-71, 1996.
[Coif 92] Coifman R.R., Meyer Y., Wickerhauser M.V. “Wavelet analysis and signal processing,” in
Wavelets and Their Applications (Ruskai M.B. et al. eds.), pp. 153-178, Jones and Barlett, 1992.
[Como 94] Comon P. “Independent component analysis-A new concept?’ Signal Processing, Vol. 36, pp.
287-314, 1994.
[Crim 82] Crimmins T.R. “A complete set of Fourier descriptors for two dimensional shapes,” IEEE
Transactions on Systems, Man Cybernetics, Vol. 12(6), pp. 848-855, 1982.
[Daub 90] Daubechies I. Ten Lectures on Wavelets, SIAM, Philadelphia, 1991.
[Daug 85] Daugman J.G “Uncertainty relation for resolution in space, spatial frequency. and orientation
optimized by two dimensional visual cortical filters,” Journal of Optical Society ofAmerica, Vol. 2, pp.
1160-1.169, 1985.
[Deco 95] Deco G, Obradovic D. “Linear redundancy reduction learning,” Neural Networks, Vol. 8(5), pp.
751-755, 1995.
[Diam 96] Didmantaras K.I.. Kung S.Y. Principal Componenr Neural Nefworks, John Wiley, 1996.
[Doug 00] Douglas S.C., Amari S. “Natural gradient adaptation,” in Unsupervised Adaptive Filtering, Part
I: Blind Source Separation (Haykin S. ed.), pp. 13-61, John Wiley & Sons, 2000.
[Este 77] Esteban D., Galand C. “Application of quadrature mirror filters to split band voice coding
schemes,” Proceedings of the IEEE Conference on Acoustics Speech and Signal Pmcesing, pp. 191-
195, May 1977.
[Fie194] Field D.J. “What is the goal of sensory coding?’ Neural Computation, Vol. 6, pp. 559-601,1994.
[Flan 72] Flanagan J.L. Speech Analysis, Synthesis and Perception, Springer Verlag, New York, 1972.
[Gabo 46] Gabor D. “Theory of communications,” Journal of the Institute of Elec. Eng., Vol. 93, pp.
429457,1946.
[Geze 00] Gezerlis V., Theodoridis, S. “An optical music recognition system for the notation of Orthodox
Hellenic Byzantine music,” Proceedings of the International Conference on Pattern Recognition
(ICPR), Barcelona, 2000.
[Geze 02] Gezerlis V., Theodoridis S. “Optical character recognition of the Orthodox Hellenic Byzantine
music,” Pattern Recognition, Vol. 35(4), pp. 895-914,2002.
[Hale 95] Haley G., Manjunath B.S. “Rotation-invariant texture classification using modified Gabor filters,”
IEEE International Conference on Image Processing, pp. 262-265, 1995.
[Hale 99] Haley G., Manjunath B.S. “Rotation-invariant texture classification using complete space
frequency model,” IEEE Transactions on Imuge Prucessing, Vol. 8(2), pp. 255-269, 1999.
[Hayk 99] Haykin S. Neural Networks-A Comprehensive Foundation, 2nd edition, Prentice Hall, 1999.
[Hayk 00] Haykin S. (ed.) Unsupervised Adaptive Filtering, Part I: Blind Source Separtion, John Wiley &
Sons, 2000.
[Hube 85] Huber P.J. “Projection pursuit,” The Annals of Statistics, Vol. 13(2), pp. 435- 47S, 1985.
[Hui 96] Hui Y., Kok C.W., Nguyen T.Q. “Theory and design of shift invariant filter banks,” Proceeding of
IEEE TFTS’96, June 1996.
[Hyva 01] Hyvarien A., Karhunen J., Oja E. Independent Component Analysis, Wiley Interscience, 2001.
[Jain 89] Jain A.K. Fundamentals of Digital Image Processing, Prentice Hall, 1989.
[Jain 91] Jain A.K., Farrokhnia E “Unsupervised texture segmentation using Gabor filters,” Pattern
Recognition, Vol. 24(12), pp. 1167-1 186, 1991.
[Jone 87] Jones M.C., Sibson R. “What is projection pursuit?’ Journal of the Royal Statistical Society, Ser.
A, Vol. 150, pp. 1-36, 1987.
[Jutt 91] Jutten C., Herault J. “Blind separation of sources, Part I: An adaptive algorithm based on
neuromimetic architecture,” Signal Processing, Vol. 24, pp. 1-10, 1991.
[Kapo 96] Kapogiannopoulos G, Papadakis M. “Character recognition using biorthogonal discrete wavelet
transform,” Proceedings of the 41st annual SPIE meeting, Vol. 2825, August 1996.
[Koho 89] Kohonen T. Self-organization and Associative Memory, 3rd ed., Springer Verlag, 1989.
[Lain 93] Laine A,, Fan J. “Texture classification by wavelet packet signatures,” IEEE Transactions on
Pattern Analysis and Machine Intelligence, Vol. 15( 1 I), pp. 11 86-1191, 1993.
[Lain 96] Laine A,, Fan J. “Frame representations for texture segmentation,” IEEE Transcaction on Image
Processing, Vol. 5(5), pp. 771-780, 1996.
[Lee 98] Lee T.-W. Independent ComponentAnalysis, Kluwer Academic Publishers, 1998.
[Levi 85] Levine M.D. Vision in Man and Machine, McGraw-Hill, New York, 1985.
[Lim 90] Lim J.S. Two-Dimensional Signal Processing, Prentice Hall, 1990.
[Mall 89] Mallat S. “Multifrequency channel decompositions of images and wavelet models,” IEEE
Transactions on Acoustics, Speech, and Signal Processing, Vol.
[Mall 97] Mallet Y., Coomans D., Kautsky J., De Vel 0. “Classification using adaptive wavelets for feature
extraction,” IEEE Transactionsfor Pattern Analysis and Machine Intelligence, Vol. 19(10), pp. 1058-
1067, 1997.
[Marco 95] Marco S.D., Heller P.N., Weiss J. “An M-band two dimensional translationinvariant wavelet
transform and its applivations,” Proceedings of the IEEE Conference on Acoustics Speech and Signal
Processing, pp. 1077-1080, 1995. 37(12), pp. 2091-2110,1989.
[Meye 93] Meyer Y. Wavelets, Algorithms and Applications, SIAM, Philadelphia, 1993.
[Mojs 00] Mojsilovic A,, Popovic M.V., Rackov D.M. “On the selection of an optimal wavelet basis for
texture characterization,” IEEE Transactions Image Processing, Vol. 9( 12), 2000.
[Nach 75] Nachmais J., Weber A. “Discrimination of simple and complex gratings,’’ Vision Research, Vol.
15, pp. 217-223, 1975.
[Oja 83] Oja E. Subspace Methods for Pattern Recognition, Letchworth, U.K.: Res. Studies Press, 1983.
[Papo 91] Papoulis A. Probability, Rundom Variables, and Stochastic Processes, 3rd ed., McGraw-Hill,
1991.
[Pich 96] Pichler O., Teuner A., Hosticka, B. “A comparison of texture feature extraction using adaptive
Gabor filtering, pyramidal and tree structured wavelet transforms.’‘ Partern Recognition, Vol. 29(5),
pp. 733-742, 1996.
[Pita 92] Pitas I. Digital Image Processing Algorithms, Prentice Hall, 1992.
[Prak 97] Prakash M., Murty M.N. “Growing subspace pattern recognition methods and their neural network
models,” IEEE Transactions on Neural Networks, Vol. 8( 1). pp. 161-168, 1997.
[Proa 92] Proakis J., Manolakis D. Digital Signal Processing, 2nd ed., Macmillan, 1992.
[Stef 93] Steffen P., Heller P.N., Gopinath R.A., Burms C.S. “Theory of regular M-band wavelet bases,”
IEEE Tansactions on Signal Processing, Vol. 41 (1 2), pp. 3497-35 1 1, 1993.
[Stra 80] Strang G Linear Algebra and its Applications, 2nd ed., Harcourt Brace Jovanovich, 1980.
[Szu 92] Szu H.H., Telfer B.A., Katambe S. “Neural network adaptive wavelets for signal representation
and classification,” Optical Eng., Vol. 31, pp. 1907-1916, 1992.
[Turn 86] Turner M.R. “Texture discrimination by Gabor functions,” Biol. Cybern., Vol. 55, pp. 71-82,
1986.
[Unse 86] Unser M. “Local linear transforms for texture measurements,” Signal Processing, Vol. 11( I), pp.
61-79, 1986.
[Unse 89] Unser M., Eden M. “Multiresolution feature extraction and selection for texture segmentation,”
IEEE Transations on Pattern Analysis and Machine intelligence, Vol. 11(7), pp. 717-728, 1989.
[Unse 95] Unser M. ‘Texture classification and segmentation using wavelet frames,” IEEE Transactions on
Image Processing, Vol. 4(11), pp. 1549-1560, 1995.
[Vaid 93] Vaidyanathan P.P. Multirate Systems and Filter Banks, Prentice Hall, 1993.
[Vett92] Vetterli M., Herley C. “Wavelets and filter banks: Theory and design,” IEEE Transactions on
Signal Processing, Vol. 0(9), pp. 2207-2232, 1992.
[Vett 95] Vetterli M., Kovacevic J. Wavelets and Subband Coding, Prentice Hall, 1995. Pata731 Watanabe
S., Pakvasa N. “Subspace method in pattern recognition,” Proceedings of the International Joint
Conference on Pattern Recognition, pp. 25-32, 1973.
[Weld96] Weldon T., Higgins W., Dunn D. “Efficient Gabor filter design for texture segmentation,” Pattern
Recognition, Vol. 29(2), pp. 2005-2025, 1996.http://feripribadi.blogspot.com/

Tidak ada komentar:

Posting Komentar