29 Des 2012

PENYELESAIAN SISTEM PERSAMAAN LINIER DENGAN METODE ELIMINASI GAUSS-JORDAN

TUGAS ALJABAR LINIER
PENYELESAIAN SISTEM PERSAMAAN
LINIER DENGAN METODE ELIMINASI
GAUSS-JORDAN
Disusun oleh :
Rendy Wijaya (535080024)
Janson Hendryli (535080020)
Felisia (535080022)
Fakultas Teknologi Informasi
Universitas Tarumanagara
2009
1
DAFTAR ISI
DAFTAR ISI .................................................................................................................................. 2
BAB I PENDAHULUAN ........................................................................................................... 3
1.1 Latar Belakang ............................................................................................................ 3
1.2 Tujuan ......................................................................................................................... 3
1.3 Manfaat ....................................................................................................................... 3
BAB II PEMBAHASAN .............................................................................................................. 4
2.1 Sistem Persamaan Linier ............................................................................................. 4
2.2 Eliminasi Gauss-Jordan .............................................................................................. 5
2.3 Algoritma Program ...................................................................................................... 9
2.4 Keunggulan dan Kelemahan Program ........................................................................ 11
BAB III PENUTUP ........................................................................................................................ 12
3.1 Kesimpulan ................................................................................................................. 12
3.2 Saran-saran .................................................................................................................. 12
DAFTAR PUSTAKA ...................................................................................................................... 13
LAMPIRAN ................................................................................................................................... 14
2
BAB I
PENDAHULUAN
1.1 Latar Belakang
Laporan dan program ini merupakan tugas mata kuliah Aljabar Linier. Pembuatan laporan ini
merupakan salah satu tugas yang harus dikumpulkan. Topik yang dibahas dalam laporan ini adalah
penyelesaian sistem persamaan linier dengan metode eliminasi Gauss-Jordan.
1.2 Tujuan
Pembuatan laporan ini walau awalnya sebagai tugas mata kuliah Aljabar Linier sebenarnya juga
sangat membantu kelompok untuk memahami metode eliminasi Gauss-Jordan ini lebih baik. Tujuan
pembuatan program, di luar alasan kewajiban (tugas), adalah membantu pengguna lainnya yang ingin
menyelesaikan sistem persamaan linier.
1.3 Manfaat
Manfaat dari laporan serta program yang dibuat kelompok antara lain :
1. Membantu memahami lebih lanjut penyelesaian sistem persamaan linier dengan metode
eliminasi Gauss-Jordan.
2. Membantu pengguna yang ingin menyelesaikan sistem persamaan linier.
3. Membantu mempelajari langkah-langkah yang dilakukan untuk menyelesaikan sistem
persamaan linier.
3
BAB II
PEMBAHASAN
2.1 Sistem Persamaan Linier
Di dalam matematika, sistem persamaan linier adalah kumpulan persamaan-persamaan linier
yang memiliki variabel-variabel yang sama. Bentuk umum dari sistem persamaan linier dengan n
variabel dari m persamaan adalah sebagai berikut :
Pada contoh di atas, x1, x2, ..., xn adalah variabel-variabel yang tidak diketahui nilainya, dan a11,
a12, ..., amn adalah koefisien-koefisien dari sistem persamaan tersebut, sedangkan b1, b2, ..., bm adalah
konstanta.
Contoh dari sistem persamaan linier dengan 3 variabel:
2x – 3y + z = -1
x + 2y – 3z = -4
3x – y + 2z = 7
Pada persamaan di atas, variabel-variabelnya adalah x, y, dan z. Kita dapat mengganti x1, x2, ...,
xn dengan huruf-huruf lainnya untuk membedakan. Dalam contoh di atas, x1, x2, x3 diganti dengan x, y,
dan z secara berurutan.
Sebuah penyelesaian dari sistem persamaan linier adalah kumpulan n angka s1, s2, ..., sn
sedemikian sehingga jika kita mensubsitusi x1 = s1, x2 = s2, ..., xn = sn maka sistem persamaan tersebut
dapat dipenuhi.
Penyelesaian dari sistem persamaan linier pada contoh sebelumnya adalah :
x = 1
y = 2
4
z = 3
karena nilai-nilai tersebut membuat persamaan tersebut menjadi valid.
Ada beberapa metode untuk menyelesaikan sistem persamaan linier, namun yang akan dibahas
secara lanjut di laporan ini adalah metode eliminasi Gauss-Jordan.
2.2 Eliminasi Gauss-Jordan
Salah satu metode yang dapat digunakan untuk menyelesaikan sistem persamaan linier adalah
metode eliminasi Gauss-Jordan. Metode ini diberi nama Gauss-Jordan untuk menghormati Carl
Friedrich Gauss dan Wilhelm Jordan. Metode ini sebenarnya adalah modifikasi dari metode eliminasi
Gauss, yang dijelaskan oleh Jordan di tahun 1887.
Metode Gauss-Jordan ini menghasilkan matriks dengan bentuk baris eselon yang tereduksi
(reduced row echelon form), sementara eliminasi Gauss hanya menghasilkan matriks sampai pada
bentuk baris eselon (row echelon form).
Selain untuk menyelesaikan sistem persamaan linier, metode eliminasi Gauss-Jordan ini dapat
pula digunakan untuk mencari invers dari sebuah matriks.
Prosedur umum untuk metode eliminasi Gauss-Jordan ini adalah
1. Ubah sistem persamaan linier yang ingin dihitung menjadi matriks augmentasi.
2. Lakukan operasi baris elementer pada matriks augmentasi (A|b) untuk mengubah matriks
A menjadi dalam bentuk baris eselon yang tereduksi.
Contoh mengubah sistem persamaan linier menjadi matriks augmentasi.

Pengubahan dilakukan dengan membuat matriks yang elemen-elemennya adalah koefisienkoefisien
dari sistem persamaan linier..
Sedangkan langkah-langkah pada operasi baris elementer yaitu :
1. Menukar posisi dari 2 baris.
Ai ↔ Aj
2. Mengalikan baris dengan sebuah bilangan skalar positif.
Ai = k * Aj
5
3. Menambahkan baris dengan hasil kali skalar dengan baris lainnya.
Ai = Ai + k * Aj
Sebuah matriks sendiri bisa dikatakan sudah memiliki bentuk baris eselon yang tereduksi jika
telah memenuhi syarat-syarat berikut ini.
1. Jika sebuah baris seluruhnya bukan merupakan angka nol, maka angka bukan nol pertama
pada baris tersebut adalah 1 (leading 1).
2. Jika ada baris yang seluruhnya terdiri dari angka nol, maka baris tersebut dikelompokkan
di baris paling bawah dari matriks.
3. Jika ada 2 baris berurutan yang sama-sama tidak terdiri dari angka nol seluruhnya, maka
leading 1 dari baris yang lebih bawah berada di sebelah kanan dari leading 1 yang berada
di baris yang lebih atas.
4. Pada setiap kolom yang memiliki leading 1 di kolomnya, maka nilai yang ada di kolom
tersebut kecuali leading 1 adalah nol.
Sebuah matriks yang hanya memenuhi syarat 1 sampai 3 adalah matriks yang dalam bentuk baris
eselon. Sedangkan jika syarat keempat juga dipenuhi, maka matriks tersebut dapat dikatakan dalam
bentuk baris eselon yang tereduksi.
Berikut beberapa contoh matriks yang sudah dalam bentuk baris eselon tereduksi.
Berikut contoh langkah-langkah yang dilakukan untuk menyelesaikan sistem persamaan linier
dengan metode eliminasi Gauss-Jordan.
Diketahui sistem persamaan linier sebagai berikut.
2x + 4y - 2z = 12
x + 5y + 3z = 8
-3x + y + 3z = -4
1. Ubah sistem persamaan linier di atas menjadi matriks augmentasi.
2 4 -2 12
1 5 3 8
-3 1 3 -4
6
2. Kalikan baris pertama dengan 0.5
1 2 -1 6
1 5 3 8
-3 1 3 -4
3. Tambahkan baris kedua dengan (-1) kali baris pertama
1 2 -1 6
0 3 4 2
-3 1 3 -4
4. Tambahkan baris ketiga dengan 3 kali baris pertama
1 2 -1 6
0 3 4 2
0 7 0 14
5. Kalikan baris kedua dengan 1/3
1 2 -1 6
0 1 0.33 0.67
0 7 0 14
6. Tambahkan baris pertama dengan (-2) kali baris kedua
1 0 -3.67 4.67
0 1 0.33 0.67
0 7 0 14
7. Tambahkan baris ketiga dengan (-7) kali baris kedua
1 0 -3.67 4.67
0 1 0.33 0.67
0 0 -9.33 9.33
7
8. Kalikan baris ketiga dengan -1/9.33
1 0 -3.67 4.67
0 1 0.33 0.67
0 0 1 -1
9. Menambahkan baris pertama dengan 3.67 kali baris ketiga
1 0 0 1
0 1 0.33 0.67
0 0 1 -1
10. Menambahkan baris kedua dengan (-0.33) kali baris ketiga
1 0 0 1
0 1 0 2
0 0 1 -1
Setelah langkah ke-10, maka matriks ini telah dalam bentuk baris eselon tereduksi. Dari matriks
terakhir ini dapat disimpulkan bahwa nilai x = 1, y = 2, dan z = -1.
Contoh di atas diterapkan pada sistem persamaan linier dengan n variabel dan n persamaan.
Contoh berikut adalah cara menyelesaikan sistem persamaan linier dengan n variabel dan m persamaan.
Diketahui sistem persamaan linier sebagai berikut.
2x + 3y - 5z = 7
x + 4y + 8z = 3
1. Ubah menjadi matriks teraugmentasi
2 3 -5 7
1 4 8 3
2. Kalikan baris pertama dengan ½
1 1.5 -2.5 3.5
1 4 8 3
3. Tambahkan baris kedua dengan (-1) kali baris pertama
1 1.5 -2.5 3.5
0 2.5 10.5 -0.5
8
4. Kalikan baris kedua dengan 1/2.5
1 1.5 -2.5 3.5
0 1 4.2 -0.2
5. Tambahkan baris pertama dengan (-1.5) kali baris kedua
1 0 -8.8 3.8
0 1 4.2 -0.2
Penyelesaian untuk persamaan di atas akan menjadi :
x – 8.8z = 3.8
y + 4.2z = -0.2
Ada 3 macam kemungkinan penyelesaian dari sistem persamaan linier, yaitu :
1. Solusi yang unik. Hanya ada satu himpunan nilai (s1, s2, ..., sn) yang memenuhi sistem
persamaan linier tersebut.
2. Tidak ada solusi. Tidak ada himpunan nilai (s1, s2, ..., sn) yang memenuhi sistem
persamaan linier tersebut.
3. Solusi yang ada tidak berhingga. Ada lebih dari satu (tak berhingga) himpunan nilai
(s1, s2, ..., sn) yang memenuhi sistem persamaan linier tersebut.
2.3 Algoritma Program
Program yang dibuat kelompok menggunakan bahasa PHP dan berbasis web. Algoritma yang
digunakan program untuk menghasilkan hasil dari sistem persamaan linier adalah sebagai berikut.
1. Baca nilai n dan m. Nilai n disini melambangkan banyaknya variabel dalam persamaan.
Sedangkan nilai m menunjukkan banyaknya persamaan.
2. Baca nilai-nilai konstanta dari sistem persamaan tersebut, lalu masukkan ke dalam
sebuah array 2 dimensi m*(n+1). Pada langkah ini sistem persamaan linier telah
dimasukkan ke matriks augmentasi.
3. Lakukan proses pada diagonal matriks, dimulai dari posisi baris 1 kolom 1 (posisi kerja).
4. Lakukan untuk setiap baris di dalam matriks
a) Jika di baris tersebut semua berisi angka nol, maka pindahkan ke baris paling bawah.
b) Jika nilai matriks pada posisi kerja adalah nol, maka tukar dengan baris di bawahnya
9
yang tidak nol. Jika baris di bawahnya semua nol, maka pindah ke kolom berikutnya.
Setelah ditukar maka lanjut ke langkah selanjutnya. Sedangkan jika posisi kerja
bukan nol, lakukan langkah selanjutnya.
c) Bagi semua nilai di baris yang sedang dikerjakan dengan nilai pada posisi kerja.
d) Ubah semua nilai di kolom yang sedang dikerjakan menjadi nilai nol (kecuali kolom
pada baris yang sedang dikerjakan), dengan melakukan operasi baris elementer ketiga
pada setiap baris.
5. Tampilkan hasilnya.
6. Selesai.
Algoritma program di atas mungkin sulit dipahami, namun yang dilakukan program adalah sama
dengan cara pengoperasian manual. Perhatikan contoh di bawah ini.
1. Matriks A yang akan diproses adalah sebagai berikut :
2. Dimulai dari diagonal pada baris pertama, yaitu A[1,1], karena sudah bernilai 1 maka kita
akan lanjutkan ke langkah berikutnya yaitu mengubah setiap nilai di kolom pertama
menjadi nol.
3. Ubah A[2,1] menjadi nol dengan mengurangi baris kedua kolom j dengan 2 kali A[1, j].
4. Ubah A[3,1] menjadi nol dengan menambah baris ketiga kolom j dengan A[1, j].
5. Sekarang proses diagonal pada baris kedua. Untuk mengubah nilai A[2,2] menjadi 1,
maka bagi baris 2 dengan angka 3.
10
6. Setelah itu ubah setiap angka di kolom 2 kecuali pada baris kedua menjadi nol. Caranya
pertama-tama dengan menambah baris pertama dengan 2 kali baris kedua.
A[1, j] = A[1, j] + 2 * A[2, j]
7. Setelah itu, kurangi baris ketiga dengan baris kedua.
A[3, j] = A[3, j] – A[2, j]
8. Lanjut ke diagonal selanjutnya, yaitu A[3,3]. Karena A[3,3] sudah bernilai 1 maka
lanjutkan ke proses selanjutnya.
9. Untuk mengubah kolom ketiga baris pertama dan ketiga menjadi nol, maka lakukan
A[1, j] = A[1, j] – 2 * A[3, j]
A[2, j] = A[2, j] + A[3, j]
10. Sekarang matriks A telah berbentuk baris eselon yang tereduksi.
2.4 Keunggulan dan Kelemahan Program
Berikut beberapa keunggulan dari program ini :
1. Mempermudah perhitungan untuk sistem persamaan linier yang memiliki banyak
variabel.
2. Karena menggunakan komputasi dengan bantuan komputer, maka dapat mengurangi
kesalahan dalam perhitungan.
3. Menggunakan teknologi web (PHP) sehingga dapat diakses oleh pengguna tanpa
memperdulikan sistem operasi yang digunakan.
4. Program ini telah online dan dapat diakses di http://www.jansonhendryli.net/gaussjordan
Setiap program pastilah memiliki kekurangan. Berikut beberapa kekurangan dari program ini :
1. Nilai konstanta yang dapat dimasukkan dibatasi paling maksimum adalah 2,147,483,647.
11
2. Pada keadaan tertentu tidak dapat langsung menunjukkan nilai x1, x2, ..., xn .Maksudnya di
sini adalah hasil yang ditunjukkan terkadang masih berbentuk persamaan lainnya.
12
BAB III
PENUTUP
3.1 Kesimpulan
Sistem persamaan linier adalah kumpulan persaman-persamaan linier yang memiliki variabelvariabel
yang sama. Sistem persamaan linier memiliki penyelesaian, yaitu himpunan angka yang akan
memenuhi persamaan-persamaan tersebut jika disubstitusi. Ada 3 macam kemungkinan penyelesaian
dari sistem persamaan linier, yaitu ada solusi yang unik, tidak ada solusi, atau memiliki solusi yang tak
terhingga.
Ada berbagai macam cara untuk menyelesaikan sistem persamaan linier. Salah satunya adalah
dengan metode eliminasi Gauss-Jordan.
Eliminasi Gauss-Jordan menggunakan operasi baris elementer untuk menghasilkan matriks
augmentasi yang berbentuk baris eselon yang tereduksi.
3.2 Saran-saran
Program yang dibuat diharapkan dapat berguna bagi orang lain. Namun program yang berhasil
dibuat tetap memiliki beberapa kelemahan. Maka diharapkan program tersebut nantinya dapat
diperbaiki lebih lanjut sehingga dapat menjadi lebih baik lagi.
Kelompok terutama kesulitan untuk mencari bahan dari buku-buku atau website internet yang
membahas mengenai penyelesaian sistem persamaan linier pada n variabel dari m persamaan. Walau
akhirnya berhasil mendapatkan bahan yang diperlukan, namun tak banyak yang membahas. Sumber
terutama hanya membahas penyelesaian sistem persamaan linier pada n variabel dan n persamaan.
Sebaiknya sumber-sumber juga membahas mengenai penyelesaian sistem persamaan linier pada n
variabel dari m persamaan karena dapat juga dilakukan.
13
DAFTAR PUSTAKA
Anton, Howard dan Chris Rorres. 2005. Elementary Linear Algebra – Applications Version. John
Willey & Sons, Inc.
http://ceee.rice.edu/Books/CS/chapter2/linear44.html
http://en.wikipedia.org
http://mathrefresher.blogspot.com
http://www2.krellinst.org/AiS/textbook/unit2/example_projects/starter/math/matrix/gauss.html
14
LAMPIRAN
File index.php
<html>
<head>
<style type="text/css">
.indice { font-size: 9px; vertical-align: sub;}
</style>
<title>Gauss-Jordan</title>
<?php
$indexname = "index.php";
function formatInt($nn) {
if ($nn == 0) return abs($nn);
else return $nn;
}
$n = 0;
$m = 0;
$status = $_POST['status1'];
$status2 = $_POST['status2'];
if (($status == "tampil_tabel") || ($status2 == "hitung")) {
$n = $_POST['ordo'];
$m = $_POST['ordo2'];
}
else {
$fp = fopen("data.txt", "w");
fclose($fp);
}
if ($status2 == "hitung") {
$count_error = 0;
$char_exists = 0;
$isOK = false;
$min_min = false;
for ($i=0; $i<$m; $i++)
for ($j=0; $j<=$n; $j++) {
$min_exists = 0;
$n1 = $i+1;
$n2 = $j+1;
$idx = "x".$n1."-".$n2;
$k = $_POST[$idx];
if ($k != "") {
for ($c=0; $c<strlen($k); $c++) {
if ($k[$c] == '-') {
$min_exists++;
if ($c != 0) $min_exists++;
15
continue;
}
if ((ord($k[$c]) < ord('0')) || (ord($k[$c]) > ord('9')))
$char_exists++;
}
if ($min_exists > 1) {
echo "<script language='JavaScript'>”;
echo “alert('Anda salah memasukkan input!');</script>";
$min_min = true;
}
else if ($char_exists == 0) $arr[$i][$j] = formatInt((int) $k);
}
else $count_error++;
}
if ($count_error == $m*($n+1)) {
echo "<script language='JavaScript'>”;
echo “alert('Anda tidak memasukkan nilai apapun!');</script>";
}
else if ($count_error != 0) {
echo "<script language='JavaScript'>”;
echo “alert('Nilai-nilai yang anda masukkan tidak lengkap!');</script>";
}
else if ($char_exists > 0) {
echo "<script language='JavaScript'>”;
echo “alert('Anda memasukkan input yang bukan berupa bilangan!');</script>";
}
else if (!$min_min) $isOK = true;
}
?>
</head>
<body>
<center><h1><font color="blue">
Penyelesaian SPL dengan Eliminasi Gauss-Jordan
</font></h1></center>
<blockquote>
<hr><br>
Script ini digunakan untuk menghitung nilai-nilai variabel dalam
Sistem Persamaan Linear. Anda dapat memasukkan jumlah variabel pada sistem
persamaan linear yang ingin dicari penyelesaiannya dan juga banyaknya
persamaan, kemudian tekan tombol <b>proses</b>.
<br><br>
<form action=<?php echo $indexname; ?> method="post" name="form1">
<input type="hidden" name="status1" value="tampil_tabel">
<strong>Menghitung sistem persamaan linear dengan </strong>
<input type="text" name="ordo" size="3" value= <?php echo $n; ?> >
<strong> variabel dari </strong>
<input type="text" name="ordo2" size="3" value= <?php echo $m; ?> >
<strong> persamaan</strong>
16
<input type="submit" name="submit1" value="Proses">
</form>
<?php
if (($status == "tampil_tabel") || ($status2 == "hitung")) {
if ($n <= 0 || $m <= 0) {
echo "<script language='JavaScript'>”;
echo “alert('Masukkan bilangan positif!');</script>";
}
else if ($n > 1000 || $m > 1000) {
echo "<script language='JavaScript'>”;
echo “alert('Bilangan yang anda masukkan terlalu besar!');</script>";
}
else {
echo "Masukkan nilai-nilai konstanta pada sistem persamaan linear”;
echo “ yang ingin anda hitung. Lalu tekan tombol <b>hitung</b>.<br>";
echo "<form action=$indexname method='post' name='form2'>";
echo "<table bgcolor='lightblue'>";
for ($i=0; $i<$m; $i++) {
$colspan = $n + 1;
$k = $i + 1;
echo "<tr><td colspan='$colspan'>Persamaan $k</td></tr>";
echo "<tr>";
for ($j=0; $j<=$n; $j++) {
echo "<td>";
$n1 = $i+1;
$n2 = $j+1;
$name = "x".$n1."-".$n2;
echo "<input type='text' name=$name “;
echo “value='{$arr[$i][$j]}' size='3'>";
if ($j != $n) echo "x<span class=indice>$n2</span>";
echo "&nbsp;&nbsp;";
if ($j == $n - 1) echo " = ";
else if ($j == $n) echo "";
else echo " + ";
echo "</td>";
}
echo "</tr>";
echo "<tr><td>&nbsp;</td></tr>";
}
echo "</table>";
echo "<input type='hidden' name='ordo' value=$n>";
echo "<input type='hidden' name='ordo2' value=$m>";
echo "<input type='hidden' name='status2' value='hitung'>";
echo "<input type='submit' name='submit2' value='Hitung'>";
echo "</form>";
}
}
if ($status2 == "hitung" && $isOK) {
17
$noSol = false;
$fp = fopen("data.txt", "w");
fputs($fp, "$n\n$m\n");
fputs($fp, "1\n");
for ($ii=0; $ii<$m; $ii++)
for ($jj=0; $jj<=$n; $jj++)
fputs($fp, "{$arr[$ii][$jj]}\n");
for ($i=0; ($i<$m)&&(!$noSol); $i++) {
$nZero = 0;
for ($j=0; $j<=$n; $j++)
if ($arr[$i][$j] == 0.0) $nZero++;
if ($nZero == $n+1) {
$otherZero = true;
for ($j1=$i+1; (($j1<$m)&&$otherZero); $j1++)
for ($j2=0; $j2<=$n; $j2++)
if ($arr[$j1][$j2] != 0.0) {
$otherZero = false;
break;
}
if (!$otherZero) {
for ($j1=$i+1; $j1<$m; $j1++) {
for ($j2=0; $j2<=$n; $j2++) {
$arr[$j1-1][$j2] = $arr[$j1][$j2];
}
}
for ($j2=0; $j2<=$n; $j2++) $arr[$m-1][$j2] = 0.0;
fputs($fp, "5\n$i\n");
for ($ii=0; $ii<$m; $ii++)
for ($jj=0; $jj<=$n; $jj++)
fputs($fp, "{$arr[$ii][$jj]}\n");
}
}
$k1 = $i;
$k2 = $i;
if ($arr[$k1][$k2] == 0.0) {
while (($arr[$k1][$k2] == 0.0) && ($k2 < $n)) {
if ($k1 == $m) {
$k1 = $i;
$k2++;
}
else ++$k1;
}
18
if (($k1 != $i) && !($k2 == $n)) {
if ($arr[$k1][$k2] != 0.0) {
for ($j=0; $j<=$n; $j++) {
$buff = $arr[$k1][$j];
$arr[$k1][$j] = $arr[$i][$j];
$arr[$i][$j] = $buff;
}
fputs($fp, "2\n$i\n$k1\n");
for ($ii=0; $ii<$m; $ii++)
for ($jj=0; $jj<=$n; $jj++)
fputs($fp, "{$arr[$ii][$jj]}\n");
}
else $noSol = true;
}
}
$nZero = 0;
for ($j=0; $j<=$n; $j++)
if ($arr[$i][$j] == 0.0) $nZero++;
if (!$noSol && ($nZero != $n+1)) {
$divider = $arr[$i][$k2];
if (($divider != 1) && ($divider != 0)) {
for ($j=0; $j<=$n; $j++)
$arr[$i][$j] = formatInt($arr[$i][$j] * (1.0 / $divider));
fputs($fp, "3\n$i\n$divider\n");
for ($ii=0; $ii<$m; $ii++)
for ($jj=0; $jj<=$n; $jj++)
fputs($fp, "{$arr[$ii][$jj]}\n");
}
for ($j=0; $j<$m; $j++) {
if (($j != $i) && ($arr[$j][$k2] != 0)) {
$operand = -1.0 * $arr[$j][$k2];
for ($k=0; $k<=$n; $k++)
$arr[$j][$k] = formatInt($arr[$j][$k] + (1.0 *
$operand * $arr[$k1][$k]));
fputs($fp, "4\n$j\n$operand\n$i\n");
for ($ii=0; $ii<$m; $ii++)
for ($jj=0; $jj<=$n; $jj++)
fputs($fp, "{$arr[$ii][$jj]}\n");
}
}
}
}
fclose($fp);
}
19
?>
<br><br>
<?php
if ($status2 == "hitung" && $isOK) {
echo "<strong>Penyelesaian dari persamaan diatas :</strong>";
echo "<table bgcolor='lightgreen' border='4' width='30%'>";
$solExists = false;
$nZero = 0;
for ($i=0; $i<$m; $i++)
for ($j=0; $j<$n; $j++)
if ($arr[$i][$j] == 0) $nZero++;
if ($nZero != $m*$n) {
$solExists = true;
for ($i=0; $i<$m; $i++) {
$nZero = 0;
for ($j=0; $j<$n; $j++)
if ($arr[$i][$j] == 0) $nZero++;
if ($nZero == $n) continue;
$n1 = $i+1;
echo "<tr>";
echo "<td><center><strong>";
$isFirst = true;
for ($j=0; $j<$n; $j++) {
$value = abs($arr[$i][$j]);
$n1 = $j+1;
if ($value != 0) {
if (!$isFirst)
if ($arr[$i][$j] >= 0) echo " + ";
else echo " - ";
$isFirst = false;
if ($value != 1) echo $value;
echo "x<span class=indice>$n1</span>";
}
}
echo "</strong></center></td>";
echo "<td><center><strong>{$arr[$i][$n]}</strong></center></td>";
echo "</tr>";
}
}
echo "</table>";
if (!$solExists) {
echo "<font color='red'>”;
echo “<strong>Persamaan ini tidak dapat diselesaikan";
echo " (tidak memiliki solusi atau memiliki solusi yang “;
echo “tak terhingga).</strong></font>";
}
echo "<br><br>Untuk mengetahui langkah-langkah yang dilakukan “;
echo “<a href='lihat.php'>lihat hasil selengkapnya</a>";
20
}
?>
</blockquote>
</body>
</html>
File lihat.php
<html>
<head>
<title>Urutan Langkah Penyelesaian</title>
<style type="text/css">
.indice { font-size: 9px; vertical-align: sub;}
</style>
</head>
<body>
<blockquote>
<h1 align="center">.:: Urutan Langkah Penyelesaian ::.</h1>
<hr>
<?php
$fp = fopen("data.txt", "r") or die("<h2><font color='red'>Tidak ada penyelesaian
yang dapat ditampilkan.</font></h2>");
$n = trim(fgets($fp, 1024));
$m = trim(fgets($fp, 1024));
$color1 = 'yellow';
$color2 = 'lightgreen';
while (!feof($fp)) {
$p = trim(fgets($fp, 1024));
if ($p == 1) echo "<h2>State awal dari matrix yang akan diproses</h2>";
else {
$row = (int) trim(fgets($fp, 1024)) + 1;
if ($p == 5) {
echo "<h2>Menurunkan baris ke-$row ke baris paling bawah.</h2>";
}
else {
$pivot = trim(fgets($fp, 1024));
if ($p == 2) {
$pivot += 1;
echo "<h2>Baris ke-$row ditukar dengan baris ke-$pivot</h2>";
}
else if ($p == 3) {
echo "<h2>Baris ke-$row dikalikan dengan ";
if ($pivot < 0) echo "-";
$pivot = abs($pivot);
if ($pivot == 1) echo "1";
else echo "1/$pivot";
echo "</h2>";
}
21
else if ($p == 4) {
$row2 = (int) trim(fgets($fp, 1024)) + 1;
echo "<h2>Menambah baris ke-$row dengan $pivot kali baris ke-$row2</h2>";
}
else break;
}
}
echo "<center>";
echo "<table bgcolor='lightblue' border='1' cellpadding='10'>";
echo "<tr>";
for ($j=0; $j<$n; $j++) {
$k = $j + 1;
echo "<th><center><b>x<span class=indice>$k</span></b></center></th>";
}
echo "<th><center><b>=</b></center></th>";
echo "</tr>";
for ($i=0; $i<$m; $i++) {
if ($p == 2) {
if ($i+1 == $row) echo "<tr bgcolor=$color1>";
else if ($i+1 == $pivot) echo "<tr bgcolor=$color2>";
}
else if ($p == 3) {
if ($i+1 == $row) echo "<tr bgcolor=$color1>";
}
else if ($p == 4) {
if ($i+1 == $row) echo "<tr bgcolor=$color1>";
else if ($i+1 == $row2) echo "<tr bgcolor=$color2>";
}
else if ($p == 5) {
if ($i == $m-1) echo "<tr bgcolor=$color1>";
}
else echo "<tr>";
for ($j=0; $j<=$n; $j++) {
$st = trim(fgets($fp, 1024));
echo "<td><center>$st</center></td>";
}
echo "</tr>";
}
echo "</table>";
echo "<img src='img/down-arrow.gif'>";
echo "</center>";
}
echo "<br><center><img src='img/end-sign.jpg'></center>";
fclose($fp);
?>
<hr>
<center>
22
<input type=button value="Back" onClick="history.go(-1)">
</center>
</blockquote>
</body>
</html>
23

Penggenerasian Ciri I : Transformasi Linier

Penggenerasian Ciri I : Transformasi Linier

Octa Heriana, 05906-TE
Sumarna, 06248-TE
Jurusan Teknik Elektro FT UGM,
Yogyakarta
6.1 PENDAHULUAN
Tujuan dari bab ini adalah penggenerasian ciri-ciri melalui transformasi linier pada cuplikan-cuplikan
masukan (pengukuran). Konsep dasarnya adalah mentransformasikan (mengalih-ragamkan) sekumpulan
hasil pengkuran menjadi kumpulan ciri baru. Jika transformasi tersebut dipilih yang sesuai, maka ciri-ciri
domain transformasi dapat menunjukkan sifat-sifat ‘kemasan informasi’ yang tinggi dibandingkn dengan
cuplikan masukan aslinya. Ini berarti bahwa sebagian besar informasi kaitan klasifikasi terperas menjadi
ciri-ciri dalamjumlah yang relative kecil, sehingga mengurangi dimensi ruang ciri yang diperlukan.
Alasan yang mendasari ciri-ciri berbasis transformasi tersebut adalah bahwa kesesuaian transformasi
yang dipilih dapat menggali dan menghilangkan kelebihan informasi yang biasanya ada dalam sejumlah
cuplikan yang diperoleh dengan piranti pengukuran. Sebagai contoh suatu citra yang dihasilkan dari suatu
piranti pengukuran, misalnya piranti sinar-X atau kamera. Piksel-piksel (cuplikan masukan) pada berbagai
posisi di dalam citra mempunyai korelasi berderajad besar, terkait dengan konsistensi morpologik internal
citra nyata yang membedakannya dari derau (noise). Kemudian jika digunakan piksel-piksel tersebut
sebagai ciri-ciri, maka akan terdapat informasi berlebihan yang berderajad besar. Secara alternatif, misalnya
jika diperoleh transformasi Fourier dari suatu citra nyata, maka hal tersebut menjelaskan bahwa sebagian
besar energy yang terletak pada komponen frekuensi rendah berhubungan dengan adanya korelasi tinggi
antar aras keabuan (gray level) piksel-piksel tersebut. Sehingga penggunaan koefisien Fourier sebagai ciri
menunjukkan suatu pilhan yang rasional, sebab energy rendah memungkinkan kehilangan informasi kecil,
koefisien-koefisien frekuensi tinggi dapat diabaikan.
6.2 VEKTOR-VEKTOR BASIS DAN CITRA
Misalkan x(0), x(1), x(2), …, x(N-1) merupakan sejumlah cuplikan masukan dan x adalah suatu vector
Nx1 yang sesuai,
xT = [x(0), x(1), x(2), …, x(N-1)].
Diberikan suatu matrik unitary NxN yaitu A1, mendefinisikan suatu vector tertransformasi y dari x sebagai :
y = AH x ≡
⎥ ⎥ ⎥ ⎥ ⎥ ⎥


⎢ ⎢ ⎢ ⎢ ⎢ ⎢



H
N
H
H
a
a
a
1
1
0
.
. x (6.1)
di mana “H” menyatakan suatu opersi Hermitian, yaitu konjugasi komplek dan transposisi. Dari (6.1) dan
definisi matrik unitary diperoleh :
x = Ay = Σ−
=
1
0
( )
N
i
y i ai (6.2)
Kolom-kolom pada A, ai, i = 0, 1, 2, …, (N-1), disebut vector-vektor basis dari suatu transformasi. Elemenelemen
y(i) dari y bukan sesuatu tetapi yang penting adalah proyeksi-proyeksi x pada vector-vektor basis
tersebut. Pengambilan inner-product dari x dengan aj diperoleh :
〈 aj , x 〉 ≡ aj
H x = Σ−
=
1
0
( )
N
i
i y 〈 aj , ai 〉 = Σ−
=
1
0
( )
N
i
y i ij δ = y(j) (6.3)
Hal ini terkait dengan sifat unitary dari A, yaitu AH A = I atau 〈 aj , ai 〉 = ai
H aj = ij δ .
Dalam banyak persoalan, seperti pada analisis citra, sekumpulan cuplikan masukan merupakan runtun
(sequence) dua dimensi X (i,j); i, j = 0, 1, 2, ..., (N-1), pendefinisian NxN matrik X alih-alih sebuah vektor.
Pada kasus tersebut dapat ditentukan suatu ekivalensi N2 vektor x, sebagai contoh dengan urutan baris
matrik satu sesudah yang lain (urutan lexicographic)
xT = [X(0,0), ..., X(0, N-1), ..., X(N-1, 0), ..., X(N-1, N-1)]
dan kemudian mentransformasikan vektor ekivalen ini. Tetapi hal ini bukan cara kerja yang paling efisien.
Jumlah operasi yang diperlukan untuk N2x N2 kwadrat matrik (A) dengan N2 x1 vector x adalah dalam orde
O(N4) yang menjadi penghalang pada banyak aplikasi. Kemungkinan alternatif adalah mentransformasikan
matrik X melalui sekelompok matrik basis atau citra basis. Misalkan U dan V adalah matrik unitary NxN.
Menentukan matrik tertransformasi Y dari X sebagai
Y = UH X V (6.4)
atau X = U Y VH (6.5)
Jumlah operasinya sekarang berkurang menjadi O(N3). Persamaan (6.5) secara alternatif dapat dituliskan
sebagai :
X = Σ−
=
1
0
N
i
Σ−
=
1
0
( , )
N
j
Y i j ui vj
H (6.6)
di mana ui merupaka vector kolom dari U dan vj adalah vektor kolom dari V. Setiap outer product ui vj
H
merupakan sebuah matrik NxN
ui vj
H =
⎥ ⎥ ⎥ ⎥ ⎥


⎢ ⎢ ⎢ ⎢ ⎢


− − −

*
1 1
*
1 0
*
0 1
*
0 0
. .
. . . .
. . . .
. .
iN j iN jN
i j i jN
u v u v
u v u v
≡ Аij
dan (6.6) merupakan ekspansi dari matrik X dalam suku-suku N2 citra basis (matrik basisi). Tanda *
menyatakan konjugasi komplek. Jika Y menghasilkan diagonal, maka (6.6) menjadi :
X = Σ−
=
1
0
( , )
N
i
Y i i ui vi
H
dan jumlah citra basis direduksi menjadi N. Interpretasi yang sama terhadap (6.3) juga mungkin. Terhadap
yang terakhir tersebut, selanjutnya mendefinisikan inner product antara dua matrik sebagai :
〈 A, B 〉 ≡ Σ−
=
1
0
N
m
Σ−
=
1
0
N
n
A*(m,n) B(m,n) . (6.7)
Dapat ditunjukkan bahwa
Y(i,j) = 〈 Аij, X 〉. (6.8)
Sebenarnya elemen (i,j) dari matrik tertransformasi dihasilkan dari perkalian setiap elemen X dengan
konjugasi dari elemen Aij yang bersesuaian dan menjumlahkannya untuk semua produk.
Transformasi-transformasi jenis (6.4) juga dikenal sebagai separable. Alasannya adalah bahwa itu dapat
dicari dari mereka sebagai rangkaian transformasi satu dimensi, pertama dioperasikan pada vektor kolom
dan kemudian pada vektor-vektor baris. Sebagai contoh hasil perantara pada (6.4), Z = UH X, adalah
ekivalen dengan N transformasi yang dikenakan pada vektor-vektor kolom dari X, dan (UH X)V = (VHZH)H
adalah ekivalen dengan urutan ke dua dari N transformasi yang bekerja pada baris-baris Z.
Contoh 6.1. Diberikan citra X dan matrik tansformasi ortogonal U sebagai
X = ⎥⎦

⎢⎣

2 3
1 2
, U =
2
1
⎥⎦

⎢⎣ ⎡
1 −1
1 1
citra tertransformasi Y = UTXU adalah
Y =
2
1
⎥⎦

⎢⎣

1 −1
1 1
⎥⎦

⎢⎣

2 3
1 2
⎥⎦

⎢⎣

1 −1
1 1
= ⎥⎦

⎢⎣



1 0
4 1
.
Citra basis yang bersesuaian adalah :
A00 =
2
1
⎥⎦

⎢⎣

1
1 [1 1] =
2
1
⎥⎦

⎢⎣

1 1
1 1
.
A11 =
2
1
⎥⎦

⎢⎣

−1
1 [1 −1] =
2
1
⎥⎦

⎢⎣



1 1
1 1
.
Dengan cara yang sama dapat diperoleh :
A01 = AT 10 =
2
1
⎥⎦

⎢⎣



1 1
1 1
.
6.3 TRANSFORMASI KARHUNEN-LOEVE
Misalkan x adalah vektor dari cuplikan masukan. Pada kasus larik (array) citra, x dapat dibentuk dengan
urutan lexicographic terhadap elemen-elemen larik. Sifat-sifat yang diinginkan dari ciri-ciri yang digenerasi
adalah tak terkorelasi timbal-balik dengan maksud untuk menghindari berlebihnya informasi. Tujuan dari
bagian ini adalah menggenerasi ciri-ciri yang secara optimal tak terkorelasi, yaitu E[y(i)y(j)] = 0, i ≠ j.
Misalkan data nyata :
y = AT x. (6.9)
Dari definisi matrik korelasi diperoleh :
Ry ≡ E[yyT] = E[AT xxT A] = AT RxA. (6.10)
Tetapi Rx adalah matrik simetris, dan karenanya vektor-vektor eigen yang saling ortogonal. Kemudian, jika
matrik A dipilih sedemikian hingga kolom-kolomnya merupakan vektor eigen ortogonal ai, i = 0, 1, 2, ...,
N-1, dari Rx, maka Ry adalah diagonal
Ry = AT Rx A = Λ (6.11)
di mana Λ adalah matrik diagonal dengan elemen-elemen pada diagonalnya masing-masing nilai eigen λi,
dengan i = 0, 1, 2, ..., N-1, dari Rx. Selanjutnya, pengambilan Rx positif memastikan nilai eigen-nya positif.
Transformasi yang dihasilkan tersebut dikenal sebagai transformasi Karhunen-Loeve (KL). Transformasi KL
sangat fundamental di dalam pengenalan pola serta dalam aplikasi pemrosesan sinyal dan citra. Sifat-sifat
pentingnya meliputi :
Mean square error approximation. Dari persamaan (6.2) dan (6.3) diperoleh :
x = Σ−
=
1
0
( )
N
i
y i ai dan y(i) = ai
T x (6.12)
Sekarang mendefinisikan vektor baru dalam subspace berdimensi m sebagai :
xˆ = Σ−
=
1
0
( )
m
i
y i ai (6.13)
di mana hanya m vektor-vektor basis yang dicakup. Dengan jelas, ini bukanlah sesuatu tetapi proyeksi x
pada subspace dijangkau oleh m vector-vektor eigen (ortonormal) yang tercakup dalam somasi. Jika
diusahakan untuk mendekati x dengan proyeksinya xˆ , hasil mean square error (MSE) diberikan oleh :
E [ 2 ] x − xˆ = E
⎥ ⎥⎦

⎢ ⎢⎣

Σ−
=
1 2
( )
N
i m
i y i a (6.14)
Selanjutnya memilih vektor-vektor eigen yang menghasilkan MSE minimum. Dari (6.14) dan mengingat
akan sifat ortonormalitas dari vektor-vektor eigen tersebut diperoleh :
E
⎥ ⎥⎦

⎢ ⎢⎣

Σ−
=
1 2
( )
N
i m
i a i y = E ⎥⎦

⎢⎣
⎡ Σ Σ ( ( ) )( ( ) ) j
T
i
i j
y i a y j a (6.15)
= Σ−
=
1
[ 2 ( )]
N
i m
i y E = Σ−
=
1
[ ]
N
i m
i
T T
i a E xx a (6.16)
Kombinasi ini dengan persamaan (6.14) dan pendefinisian vektor eigen, akhirnya diperoleh :
E [ 2 ] ˆx x − = Σ−
=
N 1
i m
i i
T
i a a λ = Σ−
=
N 1
i m
i λ
(6.17)
Jika dipilih dalam (6.13) vektor-vektor eigen yang bersesuaian dengan nilai eigen m terbesar dari matrik
korelasi, maka error pada (6.17) diminimisasi, merupakan jumlah dari N-m nilai-nilai eigen terkecil.
Selanjutnya dapat ditunjukkan bahwa ini juga merupakan MSE minimum, dibandingkan dengan pendekatan
lain untuk x oleh vektor berdimensi m. Hal ini menjadi alasan bahwa transformasi KL juga dikenal sebagai
Analisis Komponen Utama (PCA : Principal Component Analysis).
Bentuk lain dari transformasi KL diperoleh jika penghitungan A dalam suku-suku vektor-vektor eigen
pada matrik kovarian. Transformasi ini mendiagonaisasi matrik kovarian Σy,
Σy = AT Σx A = Λ. (6.18)
Pada umumnya keduanya berbeda dan serupa untuk vektor-vektor acak rerata nol. Dalam praktek ini
biasanya kasus, sebab jika ia salah dapat mengganti setiap vektor dengan x – E[x]. Hal itu dapat
ditunjukkan bahwa dalam kasus ini basis ortonormal yang dihasilkan (Σx vektor-vektor eigen i aˆ ) menjamin
bahwa MSE antara x dan pendekatannya diberikan oleh :
xˆ = Σ− =
1
0
( )
m
i
y i i aˆ + Σ−
=
1
[ ( )]ˆ
N
i m
i E y i a , y(i) ≡ T
i aˆ x adalah minimum. (6.19)
Komponen terakhir N-m tidak acak tetapi dibekukan masing-masing nilai reratanya.
Optimalitas transformasi KL, terhadap pendekatan MSE, membawa ke sifat-sifat utama dari kemasan
informasi dan memberikan alat untuk memilih ciri-ciri dominan m keluar dari N cuplikan pengukuran.
Tetapi meskipun ini mungkin merupakan kriteria yang baik, dalam banyak kasus ia tidak perlu dibawa ke
separabilitas kelas maksimum dalam subspace berdimensi lebih rendah. Hal ini beralasan karena reduksi
dimensionalitas bukan dioptimisasi terhadap separabilitas kelas. Pada Gambar 6.1, vektor-vektor ciri pada
kedua kelas mengikuti distribusi Gauss dengan matrik kovarian sama. Ellip-ellip tersebut menunjukkan
kurva dengan nilai pdf konstan. Vektor eigen a1 adalah yang bersesuaian dengan nilai eigen terbesar.
Proyeksi pada a1 membuat kedua kelas hampir serupa. Tetapi proyeksi pada a2 menjadikan kedua kelas
terpisah.
Varian Total. Misalkan E[x] adalah nol. Jika ini bukan kasus, reratanya selalu dapat dikurangi. Misalkan y
adalah KL tertransformasi vektor x. Dari masing-masing definisi diperoleh bahwa 2
y (i) σ ≡ E[y2(i)] = i
λ .
Yaitu bahwa nilai-nilai eigen dari matrik korelasi masukan sama dengan variansi ciri-ciri tertransformasi.
Kemudian pemilihan ciri-ciri itu, y(i) ≡ ai
T x, bersesuaian dengan nilai-nilai eigen terbesar m yang membuat
jumlah variansinya Σi i
λ maksimum. Dengan kata lain, ciri-ciri m yang terpilih menahan sebagian besar
varian total yang terkait dengan variable acak aslinya x(i). Tentu saja, yang terakhir itu sama dengan trace
dari Rx, yang diketahui dari aljabar linier sama dengan jumlah dari nilai-nilai eigen, yakni :
Σ−
=
1
0
N
i
i λ
.
Dapat ditunjukkan bahwa hal tersebut merupakan sifat yang lebih umum, yaitu bahwa dari semua
kemungkinan kumpulan ciri-ciri m, diperoleh melalui transformasi linier ortogonal pada x, salah satunya
dihasilkan dari transformasi KL yang memiliki jumlah varian terbesar.
a1
x1
x2
a2
Gambar 6.1. Transformasi KL tidak selalu terbaik untuk pengenalan pola.
Dalam contoh ini, proyeksi pada vektor eigen dengan nilai eigen yang lebih
besar membuat kedua kelas serupa. Dengan kata lain, proyeksi pada vektor
eigen yang lain menjadikan kelas-kelas tersebut terpisah.
Entropy. Diketahui bahwa entropy suatu proses didefinisikan sebagai Hy = -E[ln py(y)] dan merupakan
ukuran keacakan suatu proses. Untuk Gaussian dengan rerata nol dari proses berdimensi m multivariabel,
entropy tersebut menjadi :
Hy =
2
1 E[yT −1
y R y] +
2
1 ln y R +
2
1 m ln (2π). (6.20)
Tetapi E[yT −1
y R y] = E[trace {yT −1
y R y}] = E[trace { −1
y R y yT }] = trace (I) = m dengan menggunakan sifat
yang telah diketahui dari aljabar linier, maka determinannya adalah
ln y R = ln (λ0 λ1 λ2 ... λm-1).
Pemilihan terhadap ciri-ciri m yang bersesuaian nilai eigen terbesar m akan memaksimumkan entropy
proses. Hal ini diharapkan karena varian dan keacakan berhubungan langsung.
Catatan. Konsep subspace vektor eigen utama juga diekspliotasi sebagai pengklasifikasi. Pertama, rerata
cuplikan dari seluruh pelatihan dikurangkan dari vektor-vektor ciri. Untuk setiap kelas, ω
i, matrik korelasi
Ri diestimasi dan menghitung vektor-vektor eigen utama m (bersesuaian dengan nilai-nilai eigen terbesar
m). Suatu matrik Ai dibentuk menggunakan masing-masing vektor eigen sebagai kolom. Vektor ciri x yang
tidak diketahui kemudian diklasifikasi ke dalam kelas ω
j dengan :
x ATj
> AT x
i , ∀i ≠ j (6.21)
yaitu bahwa kelas tersebut sesuai dengan norm maksimum proyeksi subspace dari x. Dari teorema
Pythagoras, ini ekivalen dengan pengklasifikasian sebuah vektor dalam subspace kelas terdekat. Decision
surface-nya merupakan hyperplanes jika semua subspace memiliki dimensi yang sama atau surface kuadrik
dalam kasus yang lebih umum. Pengklasifikasian subspace mengintegrasi tahapan-tahapan penggenerasian
atau pemilihan ciri dan rancangan klasifikasi.
Contoh 6.2. Matrik korelasi dari sebuah vektor x diberikan sebagai :
Rx =
⎥ ⎥ ⎥


⎢ ⎢ ⎢




0,1 0,1 0,3
0,1 0,3 0,1
0,3 0,1 0,1
Menghitung transformasi KL dari vektor masukan tersebut.
Nilai-nilai eigen dari Rx adalah λ0 = 0,1; λ1 = λ2 = 0,4. Karena matrik Rx simetrik, maka selalu dapat disusun
vektor-vektor eigen ortonormal. Untuk kasus ini dapat diperoleh :
a0 =
3
1
⎥ ⎥ ⎥


⎢ ⎢ ⎢




1
1
1
, a1 =
6
1
⎥ ⎥ ⎥


⎢ ⎢ ⎢


1
1
2
, a2 =
2
1
⎥ ⎥ ⎥


⎢ ⎢ ⎢


−1
1
0
.
Transformasi KL kemudian ditentukan dengan :
⎥ ⎥ ⎥


⎢ ⎢ ⎢


(2)
(1)
(0)
y
y
y
=
⎥ ⎥ ⎥


⎢ ⎢ ⎢


− −

1/ 3 1/ 3 1/ 3
0 1/ 2 1/ 2
2 / 6 1/ 6 1/ 6
⎥ ⎥ ⎥


⎢ ⎢ ⎢


(2)
(1)
(0)
x
x
x
di mana y(0), y(1) besesuaian dengan dua nilai eigen terbesar.
6.4 DEKOMPOSISI NILAI SINGULAR
Diberikan sebuah matrik X dengan rank r, akan ditunjukkan bahwa ada NxN matrik-matrik unitary U
dan V sedemikian hingga :
X = U ⎥⎦

⎢⎣
⎡Λ
0
1/ 2
O
O VH atau Y ≡ ⎥⎦

⎢⎣
⎡Λ
0
1/ 2
O
O = UHXV (6.22)
di mana Λ1/ 2matrik diagonal r x r dengan elemen-elemen i
λ dan i
λ adalah nilai-nilai eigen bukan nol r
dari matrik XHX yang terkait. O menyatakan matrik elemen nol. Dengan kata lain, ada matrik unitary U dan
V sedemikian hingga matrik tertransformasi Y adalah diagonal. Dari (6.22) dapat ditunjukkan bahwa :
X = Σ−
=
1
0
r
i
i λ
ui vi
H (6.23)
di mana ui, vi berturut-turut merupakan kolom pertama r dari U dan V. Lebih tepatnya, ui, vi berturutturut
adalah vektor-vektor eigen dari XXH dan XHX. Nilai-nilai eigen i
λ dikenal sebagai nilai-nilai singular
dari X dan pengekspansian menurut (6.23) sebagai dekomposisi nilai singular (SVD : singular value
decomposition) dari X atau representasi spektral dari X.
Contoh 6.3. Diberikan suatu matrik X sebagai berikut. Tujuannya adalah menghitung dekomposisi nilai
singularnya.
X =
⎥ ⎥ ⎥ ⎥


⎢ ⎢ ⎢ ⎢


0 6
4 0
0 1
6 6
Langkah 1 : Mencari nilai-nilai eigen dan vektor-vektor eigen dari XTX = ⎥⎦

⎢⎣

36 73
52 36
Ini adalah λ0 = 100, λ1 = 25 dan vektor eigen yang bersesuaian adalah v0 = [0,6 ; 0,8]T; v1 = [0,8 ; -0,6]T.
Langkah 2 : Menghitung vektor-vektor eigen dari XXT. Yakni matrik 4x4 dengan rank-2. Vektor-vektor
eigen yang bersesuaian dengan nilai-nilai eigen bukan nol λ0, λ1 dihitung melalui (6.26), yaitu u0 = 0,1X v0,
u1 = 0,2X v1 atau masing-masing [0,84; 0,08; 0,24; 0,48]T dan [0,24; -0,12; 0,64; -0,72]T.
Langkah 3 : Menghitung SVD dari X, yaitu :
X = 10 [0,84; 0,08; 0,24; 0,48]T [0,6 ; 0,8] + 5 [0,24; -0,12; 0,64; -0,72]T [0,8 ; -0,6].
Jika dipertahankan suku-suku ke dua yang pertama, maka hasil pendekatannya adalah yang terbaik, dalam
rasa (sense) Frobenius, pendekatan rank-1 dari X.
6.5 ANALISIS KOMPONEN INDEPENDEN
Analisis komponen utama (PCA) dilakukan dengan transformasi KL yang menghasilkan ciri-ciri y(i), i
= 0, 1, 2, ..., N-1, yang tak terkorelasi timbal-balik. Solusi yang diperoleh dengan transformasi KL akan
optimal ketika pereduksian dimensionalitasnya menjadi tujuan dan menginginkan minimisasi pendekatan
MSE. Tetapi untuk aplikasi khusus seperti ilustrasi pada Gambar 6.1 solusi yang diperoleh jauh dari yang
diharapkan. Analisis komponen independen (ICA : Independent Component Analysis) berusaha untuk
mencapai lebih banyak dari pada dekorelasi sederhana terhadap data.
Diberikan sejumlah cuplikan masukan x, ditentukan matrik invertibel W berukuran NxN sedemikian
masukan-masukan y(i), i = 0, 1, 2, ..., N-1, dari vektor yang tertransformasi :
y = W x (6.34)
adalah independen timbal-balik. Tujuan dari independensi secara statistik adalah kondisi yang lebih kuat
dari pada ke-tidak korelasi-an yang diperlukan oleh PCA. Kedua keadaan hanya ekivalen untuk variabel
acak Gaussian.
Pencarian ciri-ciri independent dari pada tak terkorelasi memberikan arti penggalian informasi yang
sedikit lebih, tersembunyi di dalam statistik orde tinggi pada data. Seperti contoh Gambar 6.1 menyarankan
bahwa pemaksaan pencarian dengan menggali informasi dalam statistic orde ke dua hanya menghasilkan
sedikit yang menarik, untuk persoalan tersebut, arah proyeksi seperti pada a1. Tetapi a2 sudah pasti arah
yang lebih menarik dari pandangan titik pemisahan kelas. Penggunaan ICA dapat membuka selubung dari
statistik data orde tinggi suatu kelumit informasi yang menunjuk a2 sebagai sesuatu yang paling menarik.
Selanjutnya, pencarian ciri-ciri independent secara statistik yang sejalan dengan sifat pembangun peta
kognitif dunia luar di dalam otak, dengan pemrosesan data masukan dari indera. Hipotesis Barlow
mengatakan bahwa hasil pemrosesan awal yang terbentuk dari detector ciri-ciri visual dapat menghasilkan
proses reduksi kelebihan. Dengan kata lain, keluaran syaraf dimungkinkan secara statistik independen
timbal-balik, terkondisi, tentu saja pada penerimaan pesan sensor.
Dipastikan dahulu bahwa persoalan yang demikian terdefinisi dengan baik, memiliki solusi, dan dalam
kondisi apa. Diasumsikan bahwa vektor data acak masukan x adalah sungguh-sungguh tergenerasi oleh
kombinasi linier komponen-komponen (sumber) yang secara statistik independen dan stasioner dalam rasa
(sense) yang seksama, yaitu :
x = A y (6.35)
Tugas berikutnya adalah di bawah kondisi yang bagaimana matrik W dapat dihitung sehingga mencakup
komponen-komponen y dari persamaan (6.34) dengan penggalian informasi yang tersembunyi di dalam x.
Biasanya A diketahui sebagai matrik pencampur (mixing) dan W sebagai matrik pengurai (de-mixing).
ICA Berdasarkan Cumulant Orde-Empat dan -Dua.
Pendekatan ini dalam menjalankan ICA merupakan generalisasi langsung dari teknik PCA. Tansformasi
KL berfokus pada statistik orde dua dan bergantung pada korelasi silang E[y(i)y(j)] menjadi nol. Ketika pada
ICA bergantung pada komponen y menjadi independen secara statistik, hal ini setara dengan
kebergantungan semua cross-cumulant orde tinggi menjadi nol. Disarankan untuk membatasi hingga
cumulant orde empat sudah cukup untuk banyak aplikasi. Tiga yang pertama dari cumulant adalah sama
dengan tiga yang pertama dari moment, yaitu
κ1
(y(i)) = E[y(i)] = 0
κ2
(y(i)y(j)) = E[y(i)y(j)]
κ3
(y(i)y(j) y(k)) = E[y(i)y(j) y(k)]
dan cumulant orde empat diberikan oleh :
κ4
(y(i)y(j) y(k) y(r)) = E[y(i)y(j) y(k) y(r)] - E[y(i)y(j)] E[y(k)y(r)]
- E[y(i)y(k)] E[y(j)y(r)] - E[y(i)y(r)] E[y(j)y(k)]
di mana telah diasumsikan pemrosesan rerata nol. Asumsi lain yang biasanya digunakan dalam praktek
adalah terkait dengan kesimetrian pdf-pdf. Hal ini membuat semua cumulant orde ganjil nol. Persoalannya
sekarang direduksi untuk mendapatkan matrik W sehingga orde dua korelasi silang dan orde empat cross
cumulant dari variabel transformasi adalah nol. Hal ini dicapai dengan langkah-langkah berikut :
Langkah 1. Mengenakan PCA pada data masukan, yakni :
yˆ = AT x (6.36)
A adalah matrik transformasi unitary pada transformasi KL. Komponen dari vektor acak tertransformasi yˆ
adalah tak terkorelasi.
Langkah 2. Menghitung matrik unitary lain Aˆ sehingga cross cumulant orde empat dari komponen vektor
acak tertransformasi memenuhi
y = T Aˆ yˆ = 0. (6.37)
Ini adalah sama dengan pencarian sebuah matrik Aˆ yang membuat jumlah kwadrat auto-cumulant orde
empat maksimum, yaitu :
I A A T = ˆ ˆ max Ψ(Aˆ ) ≡ Σ−
=
1
0
N
i
κ4
(y(i))2 (6.38)
Jumlah kwadrat cumulant orde empat adalah invarian terhadap transformasi linier oleh matrik unitary.
Sehingga jumlah kwadrat cumulant orde empat tersebut tetap untuk yˆ , pemaksimuman jumlah kwadrat
auto-cumulant y akan memaksa cross-cumulant yang bersesuaian nol. Ruas kanan (6.38) merupakan fungsi
dari (a) elemen-elemen matrik Aˆ yang tidak diketahui, (b) elemen-elemen matrik A yang diketahui, dan (c)
cumulant komponen acak dari vektor data masukan x, yang mana diestimasi mendahului penerapan metode
tersebut. Dalam praktek, peng-nol-an cross-cumulant adalah dicapai dengan pendekatan. Hal ini disebabkan
(a) data masukan tidak patuh pada model linier (6.35), (b) data masukan dikorupsi oleh derau, yang tidak
akan diingat, dan (c) cumulant masukan hanya diketahui dengan pendekatan, sehingga mereka diestimasi
dengan sejumlah data masukan yang tersedia.
Ketika kedua langkah tersebut lengkap, vektor ciri final merupakan komponen independen (secara
pendekatan) yang diberikan dengan kombinasi transformasi :
y = (AAˆ )T x ≡ W x (6.39)
Ketika Aˆ merupakan unitary ketakterkorelasian yang telah dicapai pada langkah pertama diwarisi oleh
elemen-elemen y, yang sekarang memiliki cross-cumulant orde-empat dan –dua adalah nol.
ICA Berdasarkan Informasi Timbal-Balik (Mutual).
Pendekatan berdasarkan pada peng-nol-an cross-cumulant orde-empat dan –dua, walaupun sangat luas
digunakan dalam praktek, bagaimanapun juga kekurangan dalam generalitas dan juga secara eksternal
memaksakan struktur dalam matrik transformasi. Alternatifnya, pendekatan yang lebih nyaman secara teori
adalah estimasi W dengan minimisasi informasi timbal-balik antar variabel-variabel acak yang
ditransformasi. Informasi timbal-balik I(y) antar komponen y didefinisikan sebagai :
I(y) = -H(y) + Σ−
=
1
0
N
i
H(y(i)) (6.40)
di mana H(y(i)) merupakan entropy dari y(i) yang bersesuaian, didefinisikan sebagai :
H(y(i)) == - ∫ pi(y(i)) ln pi(y(i)) dy(i) (6.41)
di mana pi(y(i)) adalah pdf kecil dari y(i). Ternyata I(y) sama dengan jarak probabilitas Kullbach-Leibler
antar joint-pdf p(y) dan hasil kali dari masing-masing densitas probabilitas kecil Π−
=
1
0
( ( ))
N
i
i p y i .
Jarak ini (informasi timbal-balik terkait I(y)) alah nol jika komponen-komponen y(i) secara statistik
independen. Kombinasi (6.34), (6.40), (6.41) dan memperhatikan rumus hubungan kedua pdf yang terkait
dengan x dan y (y fungsi dari x), maka :
I(y) = -H(x) – ln det(W) - Σ∫

=
1
0
N
i
pi(y(i)) ln pi(y(i)) dy(i) (6.42)
di mana det(W) menyatakan determinan dari W. Elemen-elemen matrik tak diketahui W tersembunyi
dalam pdf-pdf kecil dari variabel-variabel yang ditransformasi y(i). Tetapi tidak mudah untuk menyatakan
dependensi ini secara eksplisit. Pendekatan yang dipakai adalah mengekspansi setiap probabilitas kecil di
sekitar pdf Gaussian g(y), mengikuti ekaspansi Edgeworth, dan memotong deret pada pendekatan yang
masuk akal. Misalnya mengambil hingga suku ke dua yang pertama dari ekspansi Edgeworth, diperoleh :
p(y) = g(y) (1 +
3!
1 κ
3(y)H3(y) +
4!
1 κ
4(y)H4(y) (6.43)
di mana Hk(y) adalah polynomial Hermit pada orde k. Untuk mendapatkan pernyataan pendekatan I(y)
dalam suku-suku cumulant dari y(i) dan W, kita dapat (a) menyisipkan ke dalam (6.42) pendekatan pdf di
dalam (6.43), (b) mengadopsi pendekatan ln(1+ y) ≈ y – y2, dan (c) menjalankan integrasi. Untuk kasus
persamaan (6.43) dan batasan W harus unitary, maka :
I(y) ≈ C – Σ−
=
1
0
N
i
( ( ( ))
12
1 2
3 κ y i + ( ( ))
48
1 2
4 κ y i + ( ( ))
48
7 4
4 κ y i - ( ( )) ( ( ))
8
1
4
2
3 κ y i κ y i ) (6.44)
di mana C dalam sesbuah independen variabel dari W. Di bawah asumsi bahwa pdf-pdf simetris (cumulant
orde tiga nol) dapat ditunjukkan maka minimisasi pernyataan pendekatan informasi timbal-balik (6.44)
adalah ekivalen dengan minimisasi jumlah kwadrat cumulant orde empat. Minimisasi I(y) pada (6.44)
dapat ditempuh dengan teknik menurunkan gradien, di mana ekspektasi yang tercakup (terkait dengan
cumulant) digantikan dengan masing-masing nilai sesaatnya.
Kembali ke persamaan (6.42) sebelum menerapkan pendekatan. Karena H(x) tidak tergantung pada W,
minimisasi I(y) adalah ekivalen dengan memaksimumkan :
J(W) = ln ) det(W + E ⎥⎦

⎢⎣
⎡Σ−
=
1
0
ln ( ( ))
N
i
i p y i (6.45)
Pengambilan gradien fungsi cost terhadap W menghasilkan :
W
J W

∂ ( ) = W-T – E[φ(y) xT] (6.46)
di mana
φ(y) ≡
T
N
N
p y N
p y N
p y
p y
⎥⎦

⎢⎣



− −


( ( 1))
( ( 1))
,...,
( (0))
( (0))
1
"
1
0
'0
(6.47)
dan
p' (y(i)) i ≡
( )
( ( ))
dy i
dp y i i . (6.48)
Jelas bahwa turunan dari densitas probabilitas kecil tergantung pada jenis pendekatan yang diadopsi dalam
setiap kasus. Skema kenaikan gradien umum pada langkah iterasi ke t dapat dituliskan :
W(t) = W(t – 1) + μ(t) (W -T(t – 1) - E[φ(y) xT])
W(t) = W(t – 1) + μ(t) (I – E[φ(y) yT] ) W -T(t – 1). (6.49)
Catatan
Dari gradient pada (6.46) terlihat bahwa pada titik stasioner berlaku :
W
J W

∂ ( )WT = E[I – φ(y) yT] = 0. (6.50)
Dengan kata lain, apa yang telah dicapai dengan ICA merupakan generalisasi non linier dari PCA. Kondisi
ke-tak terkorelasi-an dapat dituliskan :
E[I - y yT] = 0. (6.51)
Pembaruan persamaan (6.49) yang mencakup inversi dari transpose estimasi W yang sedang berjalan. Di
samping isu kerumitan komputasi, juga tidak ada jaminan invertibilitas proses adaptasi. Penggunaan
gradient alami (natural) sebagai penggan gradient pada (6.46) dihasilkan :
W(t) = W(t – 1) + μ(t) (I – E[φ(y) yT] ) WT(t – 1). (6.52)
yang tidak memuat inversi matrik dan pada saat yang sama meningkatkan konvergensi.
6.6 TRANSFORMASI FOURIER DISKRET (DFT)
Vektor basis / citra basis untuk ekspansi KL dan SVD adalah tidak tetap tetapi merupakan persoalan
kebebasan dan merupakan hasil dari proses optimisasi. Hal ini menjadi alasan untuk optimalitasnya terhadap
sifat-sifat dekorelasi dan kemasan informasi, tetapi dalam waktu yang bersamaan tercatat kelemahan
utamanya memiliki kerumitan komputasional yang tinggi. Selanjutnya akan dibahas transformasi yang
menggunakan vector/citra basis yang tetap. Suboptimalitasnya terhadap sifat dekorelasi dan kemasan
informasi terkompensasi dengan tuntutan komputasionalnya yang rendah.
DFT Satu-Dimensi
Diberikan cuplikan masukan N yakni x(0), x(1), x(2), ..., x(N-1), maka DFT-nya didefinisikan sebagai :
y(k) =
N
1 ( )exp( 2 )
1
0
kn
N
x n j
N
n
π
− Σ−
=
, k = 0, 1, 2, …, N-1 (6.53)
dan DFT balik (inverse) sebagai :
x(n) =
N
1 ( ) exp( 2 )
1
0
kn
N
y k j
N
k
π Σ−
=
, k = 0, 1, 2, …, N-1 (6.54)
di mana j ≡ −1 . Pengumpulan semua x(n) dan y(k) bersama-sama ke dalam dua vektor Nx1 dan
mendefinisikan :
WN = exp(-j
N
2π) (6.55)
maka (6.53), (6.54) dapat ditulisakan dalam bentuk matrik sebagai :
y = WH x, x = W y (6.56)
di mana :
WH =
N
1
⎥ ⎥ ⎥ ⎥


⎢ ⎢ ⎢ ⎢


− − − −

1 2( 1) ( 1)( 1)
2 1
1 .
. . . . .
1 .
1 1 1 . 1
N N
N
N
N
N
N
N
N N N
W W W
W W W
(6.57)
Hal itu tidak sulit untuk melihat bahwa W adalah matrik unitary dan simetrik W-1 = WH = W*.
Vektor-vektor basis adalah kolom-kolom dari W. Sebagai contoh untuk N = 4
W =
2
1
⎥ ⎥ ⎥ ⎥


⎢ ⎢ ⎢ ⎢


− −
− −
− −
j j
j j
1 1
1 1 1 1
1 1
1 1 1 1
dan vektor-vektor basis tersebut adalah
w0 =
2
1 [1, 1, 1, 1]T
w1 =
2
1 [1, j, -1, -j]T
w2 =
2
1 [1, -1, 1, -1]T
w3 =
2
1 [1, -j, -1, j]T
dan
x = Σ=
3
0
( )
i
y i wi.
Komputasi langsung dari (6.56) memerlukan O(N2) penghitungan. Tetapi dengan mengambil keuntungan
dari struktur spesifik matrik W, penghematan mendasar dalam penghitungan dimungkinkan melalui
algoritma FFT yang cerdas, di mana penghitungan setiap persamaan (6.56) dalam O(Nlog2 N) operasi.
DFT telah diperkenalkan sebagai jenis khusus dari transformasi unitary linier dari satu vektor ke yang lain.
DFT sebagai alat ekspansi runtun x(n) ke dalam sejumlah N basis runtun hk(n) sebagi :
x(n) = Σ−
=
1
0
( )
N
k
y k hk(n)
di mana
hk(n) =
N
1 exp(j
N
2π kn), untuk n = 0, 1, 2, ..., N-1
hk(n) = 0, untuk yang lainnya,
dan y(k) merupakan koefisien-koefisien ekspansi. Runtun basis DFT termasuk kelompok yang lebih umum
dari runtun yang diketahui ortonormal, yaitu :
〈hl(n), hk(n)〉 ≡ Σn
k l h (n)h* (n) = kl δ (6.58)
di mana 〈., .〉 dikenal sebagai inner product dari runtun hk(n), hl(n). Untuk ekspansi DFT tersebut diperoleh
〈hk(n), hl(n)〉 =
N
1 Σ−
=
1
0
exp
N
n
(j
N
2π kn) exp(-j
N
2π kn)
=
N
1 Σ−
=
1
0
exp
N
n
(j
N
2π (k - l) n), k, l = 0, 1, 2, ..., N-1.
Tetapi hal itu dapat ditunjukkan dengan mudah bahwa :
N
1 Σ−
=
1
0
exp
N
n
(j
N
2π (k - l) n) = 1, untuk l = k + rN, r = 0, ±1, ±2, ...
= 0, untuk yang lainnya. (6.59)
Sehingga :
〈hk(n), hl(n)〉 = kl δ .
DFT Dua-Dimensi
Diberikan suatu matrik/citra NxN, maka DFT dua-dimensinya didefinisikan sebagai :
Y(k, l) =
N
1 Σ−
=
1
0
N
m
Σ−
=
1
0
N
m
X(m, n) km
N W ln
N W (6.60)
dan DFT balik (inverse) adalah
X(m,n) =
N
1 Σ−
=
1
0
N
k
Σ−
=
1
0
N
l
Y(k, l) km
N W − − ln
N W . (6.61)
Jelas terbaca bahwa hal itu dapat dituliskan dalam bentuk yang lebih kompak sebagai :
Y = WH X WH, X = W Y W. (6.62)
DFT 2-D merupakan transformasi yang dapat dipisahkan dengan citra basis wi wj
T; i, j = 0, 1, 2, ..., N-1.
Jelas kelihatan dari (6.62) bahwa jumlah operasi yang diperlukan untuk masing-masing komputasi adalah
O(N2 log2 N), yaitu banyaknya penjumlahan dan perkalian yang diperlukan untuk komputasi DFT satudimensi
2N melalui algiritma FFT.
6.7 TRANSFORMASI KOSINUS DAN SINUS DISKRET
Diberikan cuplikan masukan N yakni x(0), x(1), x(2), ..., x(N-1), maka transformasi kosinus diskret
(DCT : Discrete cosine transform) di definisikan sebagai :
y(k) = α(k) Σ−
=
1
0
( )
N
n
n x cos ⎟⎠

⎜⎝
⎛ +
N
n k
2
π (2 1)
, k = 0, 1, 2, …, N-1 (6.63)
dan invers dari DCT tersebut diberikan oleh :
x(n) = Σ−
=
1
0
( ) ( )
N
k
k y k α cos ⎟⎠

⎜⎝
⎛ +
N
n k
2
π (2 1)
, n = 0, 1, 2, …, N-1 (6.64)
di mana :
α(k) =
N
1
, untuk k = 0, dan
=
N
2
, untuk k ≠ 0.
Dalam bentuk vector transformasi tersebut diberikan oleh y = CT x
di mana elemen-elemen matrik C diberikan oleh :
C(n,k) =
N
1 , k = 0, 0 ≤ n ≤ N-1
=
N
2
cos ⎟⎠

⎜⎝
⎛ +
N
n k
2
π (2 1)
, 1 ≤ k ≤ N-1, 0 ≤ n ≤ N-1.
Matrik C memiliki elemen-elemen riil, dan mudah dilihat bahwa ia ortogonal, C-1 = CT.
DCT 2-D merupakan transformasi yang dapat dipisah dan didefinisikan sebagai :
Y = CT X C, X = C Y CT (6.65)
Transformasi sinus diskret (DST : Discrete Sine Transform) didefinisikan melalui matrik transformasi
S(k,n) =
1
2
N +
sin ⎟⎠

⎜⎝

+
+ +
1
( 1)( 1)
N
π k n
; k, n = 0, 1, 2, …, N-1
dan ia juga merupakan transformasi orthogonal.
6.8 TRANSFORMASI HADAMARD
Transformasi Hadamard dan transformasi Haar memberikan keuntungan komputasi yang serius dari
transformasi DFT, DCT, dan DST. Matrik unitary-nya terdiri dari ±1 dan transformasi tersebut dihitung
melalui penjumlahan dan pengurangan saja, tanpa memuat perkalian. Sehingga diperoleh penghematan yang
mendasar terhadap operasi yang menghabiskan waktu ketika prosesor melakukan perkalian.
Matrik unitary Hadamard orde n adalah matrik NxN, N = 2n, dihasilkan dari aturan iterasi berikut :
Hn = H1 ⊗ Hn-1 (6.66)
di mana:
H1 =
2
1
⎥⎦

⎢⎣

1 −1
1 1
(6.67)
dan ⊗ menyatakan hasil kali Kronecker dari dua matrik :
A ⊗ B =
⎥ ⎥ ⎥


⎢ ⎢ ⎢


A N B A N B A N N B
A B A B A N B
( ,1) ( ,2) . ( , )
. . . .
(1,1) (1,2) . (1, )
di mana A(i,j) adalah elemen-elemen (i,j) dari A; i,j = 0, 1, 2, …, N. Kemudian sesuai dengan (6.66) dan
(6.67) diperoleh :
H2 = H1 ⊗ H1 =
2
1
⎥ ⎥ ⎥ ⎥


⎢ ⎢ ⎢ ⎢


− −
− −
− −
1 1 1 1
1 1 1 1
1 1 1 1
1 1 1 1
dan untuk n = 3
H3 = H1 ⊗ H2 =
2
1
⎥⎦

⎢⎣

− 2 2
2 2
H H
H H
.
Tidak sulit untuk menunjukkan ortogonalitas dari Hn, n = 1, 2, 3, ... yaitu bahwa −1
n H = T
n H = Hn.
Untuk sebuah vektor x dari N cuplikan dan N = 2n pasangan transformasinya adalah
y = Hn x, x = Hn y (6.68)
Transformasi Hadamard 2-D ditentukan dengan :
Y = Hn X Hn, X = Hn Y Hn. (6.69)
Transformasi Hadamard memiliki keuntungan terhadap sifat pengemasan energinya sangat baik.
6.9 TRANSFORMASI HAAR
Titik awal pendefinisian untuk transformasi Haar adalah hk(z), yang ditentukan dalam interval tertutup
[0,1]. Orde k dari fungsi diuraikan secara unik ke dalam dua bilangan integer p, q
k = 2p + q – 1, k = 0, 1, 2, ..., L-1, dan L = 2n.
di mana :
0 ≤ p ≤ n-1, 0 ≤ q ≤ 2p untuk p ≠ 0 dan q = 0 atau 1 untuk p = 0.
Tabel 6.1 merangkum masing-masing nilai pada L = 8. Fungsi Haar tersebut adalah
h0(z) ≡ h00(z) =
L
1 , z ∈ [0,1] (6.70)
hk(z) ≡ hpq(z) =
L
1 2p/2, p
q
2
−1
≤ z < p
q
2
−1/ 2
=
L
1 -2p/2, p
q
2
−1/ 2
≤ z < p
q
2
(6.71)
= 0 untuk yang lain di dalam [0,1].
Tabel 6.1. Parameter-parameter untuk Fungsi Haar
k 0 1 2 3 4 5 6 7
p 0 0 1 1 2 2 2 2
q 0 1 1 2 1 2 3 4
Matrik transformasi Haar orde L terdiri dari baris-baris yang dihasilkan fungsi sebelumnya yang terhitung
pada titik-titik z = m/L, m = 0, 1, 2, ..., L-1. Sebagai contoh matrik transformasi 8 x 8 adalah
H =
8
1
⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥


⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢






− −
− −
− − − −
0 0 0 0 0 0 2 2
0 0 0 0 2 2 0 0
0 0 2 2 0 0 0 0
2 2 0 0 0 0 0 0
0 0 0 0 2 2 2 2
2 2 2 2 0 0 0 0
1 1 1 1 1 1 1 1
1 1 1 1 1 1 1 1
(6.72)
Tidak sulit untuk melihat bahwa H-1 = HT, yakni H adalah ortogonal. Sifat kemasan energi dari transformasi
Haar tidak sangat baik. Transformasi Haar tersebut digunakan sebagai kendaraan untuk mendapatkan dari
dunia transformasi unitary hingga analisis multi-resolusi.
6.10 REVISIT PENGEMBANGAN HAAR
Split (bagi) set asal dari sampel-sampel input N (N genap) x(0), x(1),...,x(N-1) menjadi dua bagian
suksesif yaitu, (x(2k), x(2k+1)), k= 0, 1,..., -1, dan gunakan transformasi Haar pada L=2. Pasangan sampelsampel
yang ditransformasi adalah sebagai berikut.
, k=0, 1,..., (6.73)
Yaitu,
(6.74)
, k=0, 1,..., (6.75)
Dapat diinterpretasikan dengan N sampel input pada dua filter nonkausal dengan respon impuls
(h1(0)= ,h1(-1)= ) dan h0(0)= ,h0(-1)=- secara respektif. Fungsi transfernya adalah sebagai berikut.
(6.76)
(6.77)
Dengan kata lain, pada L=2, transformasi Haar menghitung sampel-sampel output pada kedua filter
ketika diumpankan dengan input sequence x(n), n=0,1,2,...,N-1.
(a)
(b)
Gambar 6.4. (a) Operasi subsampling dan (b) Interpretasi pemfilteran transformasi Haar.
(6.78)
Dengan operasi subsampling pada cabang yang lebih rendah setelah filter H0 dan H1, identitas Nobel
diarahkan menjadi:
(6.79)
Gambar 6.5. Pemfilteran dua tingkat yang diikuti dengan operasi subsampling
(6.80)
Dari fungsi transfer diatas dan mengambil operasi subsampling 4 (2x2), dua sampel pertama dari y1(k)
diberikan dengan.
(6.81)
Kemudian di-split satu langkah berikutnya sebagai:
(a)
(b)
Gambar 6.6. (a) Identitas Nobel I dan (b) equivalent bank filter dari Gambar 6.5.
Gambar 6.7. Bank filter tiga-struktur
Berdasarkan Gambar 6.7, menunjukkan bahwa
(6.82)
Dan
(6.83)
Persamaan ini merupakan hasil pada baris kedua dan pertama dari transformasi Haar pada vektor input.
Gambar 6.7 menunjukkan (tiga-tingkat) struktur pohon bank filter yang dibangkitkan dari H0(z) dan H1(z).
Gambar 6.8 menunjukkan respon-respon frekuensi dari kedua filter tersebut.
Gambar 6.8. Magnitude dari respon frekuensi untuk dua filter Haar. H1 adalah lowpass dan H0 adalah
highpass.
6.11 DISKRETE TIME WAVELET TRANSFORM (DTWT)
(a)
(b)
Gambar 6.9. Respon frekuensi ideal untuk (a) low-pass dan (b) high-pass filter.
Kasus Dua Band
Melihat dari kasus sederhana dua-band pada Gambar 6.4b, dimana sekarang dapat diasumsikan bahwa
filter-filter bukan hanya Haar saja. Jika h0(k), h1(k) adalah respon impulse respektif, maka kemudian dapat
ditulis:
Dimana y1(k) adalah output dari cabang yang lebih rendah pada Gambar 6.4b. Dengan mengumpulkan
y0(k), y1(k), k=0, 1, 2,..., dalam bentuk vektor didapat:
(a)
Gambar 6.10. Tiga-struktur bank filter sintesis
Y=Tix (6.84)
Dapat diasumsikan bahwa filter-filter itu dapat berupa nonkausal, dan merupakan juga Finite Impulse
Response (FIR). Ti pada dasarnya terdiri dari dua baris, satu dengan respon impuls dari H0 dan yang lainnya
dengan H1. Gambar 6.10b menunjukkan struktur kombinasi dari y0(k), y1(k), melalui filter G0, G1 untuk
membentuk sequence . Simbol input dari filter-flter menunjukkan upsampling dengan M operasi, yang
didefinisikan pada Gambar 6.10a. pada kasus ini M=2. Dengan kata lain ekuivalen dengan M-1 bernilai nol
diantara dua sampel. Input sequence dari filter G0, G1 akan menjadi:
...0 y0(0) 0 y0(1) 0 y0(2) 0...
...0 y1(0) 0 y1(1) 0 y1(2) 0...
Dan
Filter Gi diketahui sebagai filter sintesis dan koresponding Hi, dari Gambar 6.4b, sebagai filter analisis.
Dengan mengumpulkan (n) bersama-sama, dapat dilihat bahwa:
Atau
=T0y (6.85)
Dengan =x dapat diberikan [Vett 92]
T0 Ti = I = Ti T0 (6.86)
Dengan mengalikan Ti dengan kolom T0, persamaan ekuivalen dengan:
, i,j = 0, 1 (6.87)
Atau berdasarkan pada definisi dari inner product dalam (6.58),
(hi(2k-n),gj(n-2l))=δklδij
Bisa dikatakan bahwa bank filter dua-band adalah rekunstruksi sempurna dan (n)=x(n), maka
(6.88)
Persamaan diatas dapat dilihat dari perspektif yang berbeda. Sebuah perluasan dari x(n) ke sekuen basis
{g0(n-2k),g1(n-2k)}, k Є Z
Dimana Z adalah himpunan dari bilangan bulat. Dari berbagai sudut pandang y0(k), y1(k) adalah masingmasing
koefisien perluasan. Hal ini dikenal sebagai waktu diskrit transformasi wavelet (DTWT) dan
koefisien y0(k), y1(k) sebagai waktu diskrit koefisien wavelet. Jadi, diberi rekonstruksi yang sempurna duaband
Filter bank (sebagai contoh pada kondisi (6,87)) pasangan transformasi berikut didefinisikan
(6.89)
Keterangan
Dua set fungsi dasar yang terlibat, yaitu
hi (2k - n) ≡ Øik (n), gj(n – 2l) ≡ ψjl (n) i, j = 0, 1 dan k, l Є Z
Persamaan (6.87) adalah kondisi ortogonal antara Øik (n) dan ψjl (n), yaitu,
(Øik (n), ψjl (n) = δklδij
dan dikenal sebagai kondisi biorthogonality. Wavelet waktu diskrit mengubah pasangan pada (6.89) adalah
ekspansi biorthogonal.
Urutan dasar Øik (n) dan ψjl (n) dari ekspansi tersebut adalah menyusun jumlah sampel genap
sebanyak empat urutan dasar sekuen g0(n), g1 (n), h0 (-n), hl (- n), yang merupakan respon impuls sintesis
dan filter analisis time-reversed. Untuk pemulihan x (n) dari koefisien wavelet waktu diskritnya, setiap
koefisien yi(k) membobot dan menambahkan salinan sekuen gi(n) digeser oleh 2k.
Ketika urutan Øik (n) = hi(2k - n) itu sendiri ortogonal, yaitu.
, i, j = 0, 1 dan k, l Є Z
Kemudian
gi(n) = hi(n)
hl (0) 0.4829629 0.33267 0.2303778 0.1601024
hl (1) 0.8365163 0.806891 0.7148466 0.6038293
hl (2) 0.2241439 0.459877 0.6308808 0.7243085
hl (3) -0.1294095 -0.135011 -0.0279838 0.1384281
hl (4) -0.08544 -0.1870348 -0.2422949
hl (5) 0.03522 0.0308414 -0.0322449
hl (6) 0.0328830 0.0775715
hl (7) -0.0105974 -0.006241 5
hl (8) -0.0125807
hl (9) 0.0033357
Artinya, filter sintesis adalah membalikkan waktu dari filter analisis yang lainnya. Seperti halnya bank
filter dikenal sebagai ortogonal atau paraunitary, dan memiliki set yang sama untuk sekuen (hi saja) yang
terlibat dalam kedua persamaan transformasi wavelet waktu diskrit (6.89).
Sejumlah orthogonal dan rekonstruksi yang sempurna biorthogonal pasang filter telah diusulkan dalam
literatur, [Daub 90, Vett 95]. Tabel 6.2 memberikan koefisien untuk empat pertama filter Daubechies
ortogonal maksimal datar. Versi low-pass h1 (n) ditampilkan.
Versi tinggi-pass diperoleh sebagai h0 (n) = (-l)n hl (-n +2L - l), dimana L adalah panjang dari filter.
Selain kasus urutan dasar wavelet dengan nilai-nilai yang telah ditetapkan, besar upaya penelitian telah
dikhususkan untuk membangun urutan seperti yang dioptimalkan untuk masalah tertentu yang menarik. Ini
juga telah digunakan dalam aplikasi pengenalan pola. Misalnya, dalam [Mall 97] diusulkan untuk
merancang filter bank untuk mengoptimalkan kelas kriteria diskriminan. Pendekatan yang lain diikuti pada
[Szu 92] mana kombinasi linear optimal basis standar dicari untuk klasifikasi sinyal suara.
Ketika menerapkan filter bank dalam praktek, filter noncausal harus menunda tepat untuk membuatnya
terealisasi (Lampiran D). Hal inimenjadikan penting diperlukan untuk melibatkan unsur-unsur penundaan
tertentu pada titik-titik yang berbeda, dalam rangka menjaga properti rekonstruksi sempurna dari bank
analisis-sintesis (Soal 6.19).
Dalam prakteknya, jumlah sampel input x (n) terbatas, yaitu, n = 0, 1,. . . ,N - 1. Jadi, untuk perhitungan
(6.89), beberapa kondisi awal adalah diperlukan. Zero, periodik, atau ekstensi simetris dari data yang
populer alternatif. Seperti masalah pelaksanaan serta algoritma untuk efisiensi perhitungan koefisien DTWT
yang dibahas dalam [Vett 95, Bab 6].
Gambar 6.11. Tiga-struktur bank filter sintesis
Kasus Banyak Band
Gambar 6.11 menunjukkan bagian sintesis sesuai dengan analisis bank pada Gambar 6.7, dan merupakan
generalisasi dari konsep sintesis dua-band. Menggunakan identitas Noble yang ditunjukkan pada Gambar
6.12 (Soal 6.17), akhirnya dengan struktur yang setara dengan bagian sintesis, ditunjukkan pada Gambar
6.13. Biarkan fi(n) menjadi tanggapan impuls dari filter Fi. Sangat mudah untuk melihat kontribusi masingmasing
urutan yi (k) ke output (n) adalah
i=0, 1,...,J-2
Gambar 6.12. Bank filter sintesis struktur-pohon
Gambar 6.11 menunjukkan sintesis sesuai analisis bank. Gambar 6,7, dan merupakan generalisasi dari
konsep sintesis dua-band. Menggunakan Identitas Noble yang ditunjukkan pada Gambar 6.12 (Soal 6.17),
Diakhiri dengan struktur ekuivalen dari bagian sintesis yang ditunjukkan pada Gambar 6.13. Biarkan fi (n)
menjadi tanggapan impuls dari filter Fi. Sangat Mudah untuk Melihat bahwa masing-masing kontribusi yi
(k) ke output (n) adalah.
Identitas Nobel II
Gambar 6.13. Ekuivalen dari tiga-struktur bank filter dari Gambar 6.11
Rekonstruksi sempurna dari bank filter, yaitu,
(6.90)
Dimana
(6.91)
(6.92)
Kemudian dari (6.90), (6.91), dan (6.92) kita mendapatkan Tabel 6.3.
Keterangan
Karakteristik terkemuka DTWT adalah bahwa dasar urutan untuk masing-masingi tingkat adalah daya
dari 2 shift sekuen yang sesuai urutan
Dari transformasi wavelet kontinyu, semua analisa (sintesis) fungsi dasar yang dihasilkan dari analisis
tunggal (sintesis) fungsi sekuen dengan dilasi (skala waktu) dan pergeseran [Meye 93, Daub 90, Vett 95].
Jumlah ajaib 2, yang menentukan pergeseran kekuasaan di dasar urutan sekuen, hasil dari split berturut-turut
oleh dua pada struktur pohon bank filter, yang telah didopsi untuk memperkenalkan DTWT tersebut. Bank
filter tipe ini dikenal sebagai band oktaf-filter. Karakteristiknya adalah bahwa bandwidth dari masingmasing
filter di bank adalah sama dalam skala logaritmik. Kadang-kadang mereka juga disebut konstan-Q
bank filter untuk menekankan fakta bahwa rasio bandwidth filter dengan frekuensi masing-masing pusat
konstan. Generalisasi dari DTWT dengan M integer yang lain di tempat 2 juga dapat didefinisikan dan
digunakan [Stef 93].
Contoh 6.4. Transformasi Haar-Epilog
Kita telah melihat bahwa transformasi Haar setara dengan analisis struktur pohon filter bank. Mari kita
melihat masalah sintesis. Untuk 8 x 8 Haar mentransformasi dan setelah reshuffle baris dari matriks yang
sesuai Haar, didapatkan
Atau
Y= x
Dengan demikian transformasi Haar 8 x 8 memberikan empat koefisien pada resolusi terbaik tingkat 0,
dua dan tingkat 1, dan satu untuk masing-masing resolusi tingkat 2 dan 3. Kemudian akan desain bank
sintesis yang sesuai untuk mendapatkan x (n) dari koefisien ini. Respon impuls dari analisis filter Haar
adalah
Dapat dilihat bahwa
Maka filter sintesis dapat didefinisikan sebagai
Maka
Dari ekuivalen struktur bank sintesis dari Gambar 6.13 didapat
Dan respektif respon impuls adalah
Dengan argumen yang sama
Didapat
Atau
6.12 INTERPRETASI MULTIRESOLUSI
Tujuan dari bagian ini adalah untuk menyorot, tanpa menggunakan rincian matematika, aspek penting
dari transformasi wavelet yang bertanggung jawab atas keberhasilannya sebagai alat dalam pengenalan pola
serta berbagai aplikasi lain. Mari kita asumsikan untuk kesederhanaan bahwa dua filter di bank analisissintesis
dari filter bank paraunitary yang ideal. Gambar 6.14 menunjukkan besarnya respon dari filter
masing-masing dalam ekuivalen dari band oktaf filter bank struktur-pohon dari Gambar 6.13. Lebar respon
frekuensi (bandwidth) yang dibelah dua untuk setiap tingkat pohon (Gambar 6.14d). Artinya, "detail"
resolusi (high-pass) filter memiliki bandwidth yang lebar dan "kasar" resolusi (low-pass) filter adalah dari
bandwidth sempit. Filter F3 dan F2, dua resolusi kasar, dari bandwidth yang sama. Pengamatan ini adalah
benar untuk setiap band oktaf bank filter sejumlah tingkat J. Artinya, lebar Fi (z) adalah setengah dari lebar
Fi - 1 (z) dan lebar dari FJ-2 dan F J - 1 adalah sama.
Gambar 6.14. Bandwidth filter dalam filter band oktaf
Transformasi wavelet menyediakan sarana menganalisa sinyal input menjadi beberapa tingkat resolusi
yang berbeda secara hirarkis. Ini juga dikenal sebagai analisis multiresolusi. Dengan demikian, komponen
sinyal yang berbeda sesuai dengan kegiatan fisik dapat diwakili menjadi yang terbaik pada tingkat resolusi
yang berbeda: kegiatan frekuensi tinggi pendek pada resolusi yang lebih baik dan panjang frekuensi rendah
yang berada di tingkat resolusi tersebut.
Pada bagian sintesis, sinyal dapat direkonstruksi dari komponen multiresolusinya. Lihat, sebagai contoh,
Gambar 6.13. Urutan x (n) disintesis pertama oleh komponen kasar nya x3 (n) dan kemudian frekuensi lebih
tinggi (rinci) komponen ditambahkan, sehingga pendekatan yang berturut-turut lebih halus. Ketika
komponen dari detail terbaik, x0 (n), ditambahkan, sinyal asli diperoleh. Filosofi ini adalah inti dari sejumlah
skema kompresi sinyal.
Keterangan
Analisis sinyal di sejumlah komponen melalui bank filter adalah tidak baru dan kembali ke pekerjaan Gabor
di tahun 1940-an. Hal tersebut terkait langsung ke Transformasi Fourier waktu pendek didefinisikan sebagai
[Gabo 46 Vett 95]
(6.93)
dimana θ (n) adalah urutan jendela, yang pusatnya adalah berturut-turut pindah ke m poin yang berbeda.
Jadi, setiap kali, bagian dari urutan x (n) sekitar m (tergantung lebar efektif jendela) dipilih dan
ditransformasi Fourier. Hal ini dapat menunjukkan bahwa ini setara dengan menyaring sinyal x (n) dengan
bank filter, masing-masing berpusat pada frekuensi yang berbeda tetapi semua dari mereka memiliki
bandwidth yang sama (Soal 6.20). Ini adalah kelemahan, karena komponen sinyal frekuensi rendah dan
tinggi adalah "tampak" melalui jendela dalam waktu yang sama. Apa yang sebenarnya dibutuhkan adalah
jendela panjang untuk menganalisis perlahan waktu bervariasi komponen frekuensi rendah dan jendela
sempit untuk mendeteksi frekuensi tinggi kegiatan waktu-pendek. Seperti kita lihat, dari sebuah band oktaf
bank filter struktur-pohon, terkait dengan DTWT tersebut.
Dapat dikatakan tentang transformasi wavelet dan analisis multiresolusi adalah hanya sekilas cerita dari
keseluruhan, cerita yang benar-benar layak dilihat lebih lanjut, pada [Daub 90].
6.13 PAKET-PAKET WAVELET
DTWT ini telah diperkenalkan melalui band filter bank-oktaf, dan koefisien wavelet hasil pada output
bank, ketika masukannya diumpankan dengan sinyal yang menarik. Band oktaf filter bank dibangun
berturut-turut oleh dua pita frekuensi terendah dari bank struktur-pohon (Gambar 6.7). Namun, ada banyak
kasus di mana sebagian besar kegiatan tersebut tidak ada di band frekuensi rendah tapi di bagian tengah
frekuensi tinggi atau spektrum. Dalam kasus, mungkin berguna untuk dapat menempatkan frekuensi
bandwidth yang lebih halus dalam band dimana kegiatan tersebut terjadi. Sebagaimana akan kita lihat nanti
dalam bab ini, hal ini dapat meningkatkan kekuatan diskriminatif sistem dari sudut pandang klasifikasi.
Gambar 6.15a menunjukkan contoh bank filter struktur-pohon dengan membelah frekuensi halus yang
terjadi pada band frekuensi tengah. Gambar 6.15b menunjukkan bandwidth yang dihasilkan untuk masingmasing
filter (ideal) di bank (f-axis) dan panjang jendela masing-masing tanggapan impuls dalam domain
waktu (n-sumbu). Dengan kata lain, filter 2 dan 3 memiliki setengah bandwidth dan dua kali respon impuls
4. Selain itu, mereka memiliki satu keempat bandwidth dan impuls respon empat kali lebih lama daripada 1.
Sebagai perbandingan, Gambar 6.16 menunjukkan frekuensi-waktu resolusi plot untuk band-oktaf filter
bank (a) dan untuk sebuah bank dengan bandwidth yang sama (b), terkait dengan DTWT dan transformasi
Fourier waktu singkat, masing-masing. Setelah membebaskan diri dari band-oktafstruktur-pohon, bank filter
dapat dibangun oleh berbagai strategi pertumbuhan pohon, dengan Gambar 6.15 yang hanya satu
kemungkinan. Seperti halnya dengan filosofi-band oktaf, struktur-struktur pohon juga mengakibatkan satu
set urutan dasar untuk perluasan sinyal diskrit [Coif 92] disebut paket wavelet.
6.14 PANDANGAN GENERALISASI DUA-DIMENSI
Semua konsep yang dibahas sejauh ini dapat dipindahkan ke dalam kasus dua dimensi. Bagaimana
seseorang bisa mendefinisikan subsampling di sini? Cara langsung adalah melalui filosofi "terpisah".
Artinya, pertama-tama kita mengubah (filter) kolom di urutan dua dimensi dan kemudian dihasilkan baris.
Ini mengarah pada subsampling yang ditunjukkan pada Gambar 6.17. Dengan kata lain, kita meninggalkan
setiap baris yang lain dan setiap kolom lainnya (untuk subsampling oleh 2). Gambar 6.18 menunjukkan
struktur Filter bank yang sesuai. Urutan gambar (m, n) muncul dalam filter kolom tahap 1 setelah kolom dan
output masing-masing di subsampel oleh 2. gambar yang dihasilkan subsampel pada gilirannya disaring
pada tahap dua, yang sebelumnya dimasukkan ke dalam filter baris demi baris.
Gambar 6.15. Struktur-pohon paket wavelet
Dengan asumsi H0 menjadi filter high-pass dan H1 low-pass, empat frekuensi band yang dibentuk oleh
prosedur sebelumnya diilustrasikan dalam Gambar 6.19a. Kawasan H1 H1 sesuai dengan kolom low-pass
dan baris, H1 Ho untuk kolom low-pass dan baris high-pass, dan sebagainya. Gambar 6.19b menunjukkan
hasil segmentasi dari domain frekuensi ketika daerah low-pass H1 H1 adalah berturut split dengan
mengulangi prosedur.
Gambar 6.16. Frekuensi versus resolusi waktu untuk (a) band-oktaf dan (b) bandwidth bank filter yang sama
Gambar 6.17. Jarak subsampling 2 untuk gambar
Contoh 6.5. Gambar 6.20 menunjukkan gambar 64 x 64 dari segitiga. Tiga "baris" gambar adalah 32 x
32 gambar yang dihasilkan ketika melewati gambar segitiga melalui struktur Gambar 6.18. Dalam
penyaringan kolom tahap pertama garis vertikal berjalan melalui low-pass filter H1 (tidak ada variasi di
atasnya) dan garis horizontal dan diagonal melalui high-pass H0. Hal ini karena dalam penyaringan kolom
ini muncul sebagai impuls di masing-masing kolom, sehingga kaya pada frekuensi tinggi. Dalam baris
scanning tahap kedua garis horizontal yang akan melalui low-pass filter. penalaran serupa menjelaskan
posisi berbagai bagian segitiga dalam band yang berbeda. Meskipun ini jelas merupakan contoh yang sangat
sederhana, sangat instruktif. Ini menunjukkan bagaimana gambar asli dapat diperoleh dari komponen
multiresolusi dan juga bagaimana karakteristik yang berbeda (arah dalam kasus ini) dari keseluruhan dapat
diisolasi di
band berbeda.
Gambar 6.18. Elemen dasar untuk bank filter dua dimensi
Gambar 6.19. (a) divisi domain frekuensi (b) hasil divisi suksesif low-pass
Gambar 6.20. Gambar segitiga dan versi yang terfilter
6.15 APLIKASI
Pengenalan Karakter tulisan tangan
Gambar 6.21 menunjukkan karakter "3" serta kontur batasnya setelah penerapan algoritma kontur
melacak [Pita 92], sekarang menjadi tugas salah satu bentuk pengalan. Seperti dijelaskan secara lebih rinci
dalam Bab 7, batas dapat direpresentasikan sebagai kurva parametrik tertutup dalam bidang kompleks
(6.94)
dengan N adalah jumlah sampel (piksel) menelusuri kontur dan x (n), y (n) yang sesuai koordinat. Titik
pertama (x (0), y (0)) dari urutan dianggap sebagai asal.
Gambar 6.21. Koefisien wavelet untuk kurva batas karakter 3
Klasifikasi Tekstur
Gambar 6.22. (a) contoh gambar tekstur (b) transformasi paket wavelet
REFERENCES
[Akan 93] Akansu A.N., Hadda R.A. Multiresolution Signal Decomposition, Academic Press, 1992.
[Arbt 90] Arbter K., Snyder W. E., Burkhardt H., Hirzinger G “Application of affineinvariant Fourier
descriptors to recognition of 3-D objects,” IEEE Transactions on Pattern Analysis and Machine
Intelligence, Vol. 12(7), pp. 640-647, 1990.
[Atti 92] Attick J.J. “Entropy minimization: A design principle for sensory perception,” International
Journal of Neural Systems, Vol. 3, pp. 81-90, 1992.
[Barl 89] Barlow H.B. “Unsupervised learning,” Neural Computation, Vol. 1, pp. 295-3 11, 1989.
[Bell 00] Bell A.J. “Information theory, independent component analysis, and applications,” in
Unsupervised Adaptive Filtering, Part I: Blind Source Separation (Haykin S., ed.), pp. 237-264, John
Wiley & Sons, 2000.
[Bovi 90] Bovic A.C., Clark M., Geisler W.S. “Multichannel texture analysis using localized spatial filters,”
IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 12fl), pp. 55-73, 1990.
[Bovi 91] Bovic A.C. “Analysis of multichannel narrow-band filters for image texture segmentation,” IEEE
Transactions on Signal Processing, Vol. 39(9), pp. 2025-2044, 199 I.
[Brod 66] Brodatz P. Textures: A Photographic Album for Artists and Designers, Dover, New York, 1966.
[Burt 83] Burt P.J., Adelson E.H. “The Laplacian pyramid as a compact image code,” IEEE Transactions on
Communications, Vol. 31(4), pp. 532-540, 1983.
[Camp 66] Campell E, Kulikowski J. “Orientation selectivity of the human visual system,” Journal of
Physiology, Vol. 197, pp. 4 3 7 4 1 , 1966.
[Camp 68] Campell E, Robson J. “Application of Fourier analysis to the visibility of gratings,” Journal of
PhysiuZugy, Vol. 197, pp. 55 1-566, 1968.
[Chan 93] Chang T., Kuo C.C.J. “Texture analysis and classification with tree structured wavelet
transform,” IEEE Transactions on Image Processing, Vol. 2(4), pp. 429-442, 1993.
[Chua 96] Chuang GC.H., Kuo C.C.J. “Wavelet descriptor of planar curves: Theory and applications,” IEEE
Transactions on Image Processing, Vol. 5( l), pp. 56-71, 1996.
[Coif 92] Coifman R.R., Meyer Y., Wickerhauser M.V. “Wavelet analysis and signal processing,” in
Wavelets and Their Applications (Ruskai M.B. et al. eds.), pp. 153-178, Jones and Barlett, 1992.
[Como 94] Comon P. “Independent component analysis-A new concept?’ Signal Processing, Vol. 36, pp.
287-314, 1994.
[Crim 82] Crimmins T.R. “A complete set of Fourier descriptors for two dimensional shapes,” IEEE
Transactions on Systems, Man Cybernetics, Vol. 12(6), pp. 848-855, 1982.
[Daub 90] Daubechies I. Ten Lectures on Wavelets, SIAM, Philadelphia, 1991.
[Daug 85] Daugman J.G “Uncertainty relation for resolution in space, spatial frequency. and orientation
optimized by two dimensional visual cortical filters,” Journal of Optical Society ofAmerica, Vol. 2, pp.
1160-1.169, 1985.
[Deco 95] Deco G, Obradovic D. “Linear redundancy reduction learning,” Neural Networks, Vol. 8(5), pp.
751-755, 1995.
[Diam 96] Didmantaras K.I.. Kung S.Y. Principal Componenr Neural Nefworks, John Wiley, 1996.
[Doug 00] Douglas S.C., Amari S. “Natural gradient adaptation,” in Unsupervised Adaptive Filtering, Part
I: Blind Source Separation (Haykin S. ed.), pp. 13-61, John Wiley & Sons, 2000.
[Este 77] Esteban D., Galand C. “Application of quadrature mirror filters to split band voice coding
schemes,” Proceedings of the IEEE Conference on Acoustics Speech and Signal Pmcesing, pp. 191-
195, May 1977.
[Fie194] Field D.J. “What is the goal of sensory coding?’ Neural Computation, Vol. 6, pp. 559-601,1994.
[Flan 72] Flanagan J.L. Speech Analysis, Synthesis and Perception, Springer Verlag, New York, 1972.
[Gabo 46] Gabor D. “Theory of communications,” Journal of the Institute of Elec. Eng., Vol. 93, pp.
429457,1946.
[Geze 00] Gezerlis V., Theodoridis, S. “An optical music recognition system for the notation of Orthodox
Hellenic Byzantine music,” Proceedings of the International Conference on Pattern Recognition
(ICPR), Barcelona, 2000.
[Geze 02] Gezerlis V., Theodoridis S. “Optical character recognition of the Orthodox Hellenic Byzantine
music,” Pattern Recognition, Vol. 35(4), pp. 895-914,2002.
[Hale 95] Haley G., Manjunath B.S. “Rotation-invariant texture classification using modified Gabor filters,”
IEEE International Conference on Image Processing, pp. 262-265, 1995.
[Hale 99] Haley G., Manjunath B.S. “Rotation-invariant texture classification using complete space
frequency model,” IEEE Transactions on Imuge Prucessing, Vol. 8(2), pp. 255-269, 1999.
[Hayk 99] Haykin S. Neural Networks-A Comprehensive Foundation, 2nd edition, Prentice Hall, 1999.
[Hayk 00] Haykin S. (ed.) Unsupervised Adaptive Filtering, Part I: Blind Source Separtion, John Wiley &
Sons, 2000.
[Hube 85] Huber P.J. “Projection pursuit,” The Annals of Statistics, Vol. 13(2), pp. 435- 47S, 1985.
[Hui 96] Hui Y., Kok C.W., Nguyen T.Q. “Theory and design of shift invariant filter banks,” Proceeding of
IEEE TFTS’96, June 1996.
[Hyva 01] Hyvarien A., Karhunen J., Oja E. Independent Component Analysis, Wiley Interscience, 2001.
[Jain 89] Jain A.K. Fundamentals of Digital Image Processing, Prentice Hall, 1989.
[Jain 91] Jain A.K., Farrokhnia E “Unsupervised texture segmentation using Gabor filters,” Pattern
Recognition, Vol. 24(12), pp. 1167-1 186, 1991.
[Jone 87] Jones M.C., Sibson R. “What is projection pursuit?’ Journal of the Royal Statistical Society, Ser.
A, Vol. 150, pp. 1-36, 1987.
[Jutt 91] Jutten C., Herault J. “Blind separation of sources, Part I: An adaptive algorithm based on
neuromimetic architecture,” Signal Processing, Vol. 24, pp. 1-10, 1991.
[Kapo 96] Kapogiannopoulos G, Papadakis M. “Character recognition using biorthogonal discrete wavelet
transform,” Proceedings of the 41st annual SPIE meeting, Vol. 2825, August 1996.
[Koho 89] Kohonen T. Self-organization and Associative Memory, 3rd ed., Springer Verlag, 1989.
[Lain 93] Laine A,, Fan J. “Texture classification by wavelet packet signatures,” IEEE Transactions on
Pattern Analysis and Machine Intelligence, Vol. 15( 1 I), pp. 11 86-1191, 1993.
[Lain 96] Laine A,, Fan J. “Frame representations for texture segmentation,” IEEE Transcaction on Image
Processing, Vol. 5(5), pp. 771-780, 1996.
[Lee 98] Lee T.-W. Independent ComponentAnalysis, Kluwer Academic Publishers, 1998.
[Levi 85] Levine M.D. Vision in Man and Machine, McGraw-Hill, New York, 1985.
[Lim 90] Lim J.S. Two-Dimensional Signal Processing, Prentice Hall, 1990.
[Mall 89] Mallat S. “Multifrequency channel decompositions of images and wavelet models,” IEEE
Transactions on Acoustics, Speech, and Signal Processing, Vol.
[Mall 97] Mallet Y., Coomans D., Kautsky J., De Vel 0. “Classification using adaptive wavelets for feature
extraction,” IEEE Transactionsfor Pattern Analysis and Machine Intelligence, Vol. 19(10), pp. 1058-
1067, 1997.
[Marco 95] Marco S.D., Heller P.N., Weiss J. “An M-band two dimensional translationinvariant wavelet
transform and its applivations,” Proceedings of the IEEE Conference on Acoustics Speech and Signal
Processing, pp. 1077-1080, 1995. 37(12), pp. 2091-2110,1989.
[Meye 93] Meyer Y. Wavelets, Algorithms and Applications, SIAM, Philadelphia, 1993.
[Mojs 00] Mojsilovic A,, Popovic M.V., Rackov D.M. “On the selection of an optimal wavelet basis for
texture characterization,” IEEE Transactions Image Processing, Vol. 9( 12), 2000.
[Nach 75] Nachmais J., Weber A. “Discrimination of simple and complex gratings,’’ Vision Research, Vol.
15, pp. 217-223, 1975.
[Oja 83] Oja E. Subspace Methods for Pattern Recognition, Letchworth, U.K.: Res. Studies Press, 1983.
[Papo 91] Papoulis A. Probability, Rundom Variables, and Stochastic Processes, 3rd ed., McGraw-Hill,
1991.
[Pich 96] Pichler O., Teuner A., Hosticka, B. “A comparison of texture feature extraction using adaptive
Gabor filtering, pyramidal and tree structured wavelet transforms.’‘ Partern Recognition, Vol. 29(5),
pp. 733-742, 1996.
[Pita 92] Pitas I. Digital Image Processing Algorithms, Prentice Hall, 1992.
[Prak 97] Prakash M., Murty M.N. “Growing subspace pattern recognition methods and their neural network
models,” IEEE Transactions on Neural Networks, Vol. 8( 1). pp. 161-168, 1997.
[Proa 92] Proakis J., Manolakis D. Digital Signal Processing, 2nd ed., Macmillan, 1992.
[Stef 93] Steffen P., Heller P.N., Gopinath R.A., Burms C.S. “Theory of regular M-band wavelet bases,”
IEEE Tansactions on Signal Processing, Vol. 41 (1 2), pp. 3497-35 1 1, 1993.
[Stra 80] Strang G Linear Algebra and its Applications, 2nd ed., Harcourt Brace Jovanovich, 1980.
[Szu 92] Szu H.H., Telfer B.A., Katambe S. “Neural network adaptive wavelets for signal representation
and classification,” Optical Eng., Vol. 31, pp. 1907-1916, 1992.
[Turn 86] Turner M.R. “Texture discrimination by Gabor functions,” Biol. Cybern., Vol. 55, pp. 71-82,
1986.
[Unse 86] Unser M. “Local linear transforms for texture measurements,” Signal Processing, Vol. 11( I), pp.
61-79, 1986.
[Unse 89] Unser M., Eden M. “Multiresolution feature extraction and selection for texture segmentation,”
IEEE Transations on Pattern Analysis and Machine intelligence, Vol. 11(7), pp. 717-728, 1989.
[Unse 95] Unser M. ‘Texture classification and segmentation using wavelet frames,” IEEE Transactions on
Image Processing, Vol. 4(11), pp. 1549-1560, 1995.
[Vaid 93] Vaidyanathan P.P. Multirate Systems and Filter Banks, Prentice Hall, 1993.
[Vett92] Vetterli M., Herley C. “Wavelets and filter banks: Theory and design,” IEEE Transactions on
Signal Processing, Vol. 0(9), pp. 2207-2232, 1992.
[Vett 95] Vetterli M., Kovacevic J. Wavelets and Subband Coding, Prentice Hall, 1995. Pata731 Watanabe
S., Pakvasa N. “Subspace method in pattern recognition,” Proceedings of the International Joint
Conference on Pattern Recognition, pp. 25-32, 1973.
[Weld96] Weldon T., Higgins W., Dunn D. “Efficient Gabor filter design for texture segmentation,” Pattern
Recognition, Vol. 29(2), pp. 2005-2025, 1996.http://feripribadi.blogspot.com/

SISTEM PERSAMAAN LINIER

SISTEM PERSAMAAN LINIER

4.1 PERSAMAAN LINIER
Matematika analitik membicarakan ilmu ukur secara aljabar.
Misalnya
x2 Garis lurus pada bidang x1 dan x2 dapat dinyatakan
sebagai persamaan a1x1+a2x2+http://feripribadi.blogspot.com/b=0
x1
Persamaan diatas disebut persamaan linier karena pangkat-pangkat
dari x1 dan x2 paling besar adalah 1, sedangkan persamaan x1
2+x2-3=0
bukan persamaan linier.
Dalam ruang dimensi 3, persamaan linier dalam x1, x2, dan x3
berbentuk a1x1+a2x2+a3x3+b=0. Oleh karena itu persamaan linier dalam
ruang dimensi n dapat dinyatakan dalam bentuk a1x1+
a2x2………….+anxn+b=bn.
Pandang contoh sederhana :
1. Persamaan x1+x2=1
Titik x1=1 dan x2=0 adalah penyelesaian persamaan garis di atas
karena nilai x1 dan x2 jika kita subtitusikan ke dalam persamaan
x1+x2=1 akan diperoleh 1+0=1. Demikian juga jika nilai x1 dan x2 kita
ubah menjadi x1=0 dan x2=1 juga merupakan penyelesaian dari
persamaan diatas.
2. Diketahui garis
Maka penyelesaian persamaan dari persamaan garis diatas menjadi
x1+x2=1 Subtitusi x2=1 ke salah satu persamaan, misal x1+x2=1
-x1+x2=1 + Menjadi x1+1=1, maka x1=0
0+2x2=2
x2=1
Perhatikan bahwa x1=0 dan x2=1 adalah satu-satunya penyelesaian.
x2
(1,0) x2
(0,1) x1+x2=1
(-1,0) (1,0)
-x1+x2=1
x1+x2=1
(0,1)
3. Misalnya diketahui persamaan 2x+3y+z=5 maka solusi persamaannya
bisa x=0, y=1, dan z=2 karena nilai-nilai tersebut jika disubtitusikan
ke persamaan 2x+3y+z=5 menjadi 2.0+3.1+2=5. Tetapi nilai-nilai
tersebut bukan satu-satunya solusi. Misalnya saja kita ambil x=0, y=0,
dan z=5 sehingga 2.0+3.0+5=5 juga merupakan solusi dari
persamaan 2x+3y+z=5 dan masih ada solusi yang lain. Ini berarti
sistem persamaan tersebut mempunyai tidak terhingga banyak
penyelesaian.
4. Jika terdapat 2 persamaan yaitu x1+x2=1 dan x1+x2=2, maka untuk
mencari nilai x1 dan x2
x1+x2=1
x1+x2=2 –
0+0 = -1 tidak mungkin
berarti tidak ada x1 dan x2 yang memenuhi penyelesaian sistem
persamaan linier tersebut.
Dari contoh-contoh diatas dapat kita lihat bahwa sistem persamaan linier
dalam dimensi 2 mempunyai beberapa alternatif penyelesaian, yaitu:
1. Mempunyai penyelesaian tunggal.
2. Mempunyai banyak penyelesaian.
3. Tidak mempunyai penyelesaian.
4.2 PENYELESAIAN SISTEM PERSAMAAN LINIER
Bentuk umum persamaan linier
a11x1+ a12x2………….+a1nxn=b1
a21x1+ a22x2………….+a2nxn=b2
a21x1+ a32x2………….+a3nxn=b3
………………………………………………
am1x1+ am2x2………….+amnxn=bm
aij dan bi masing-masing merupakan koefisien-koefisien dan konstanta
persamaan linier tersebut. Persamaan-persamaan linier di atas dapat
diungkapkan dalam bentuk matriks AUGMENTED yaitu matriks yang terdiri
dari koefisien-koefisien x.
=
[A] [x] [b]
[A] adalah matriks berorde (m,n), [x] adalah matriks berorde (n,1), dan
[b] adalah matriks berorde (m,1). Bentuk matriks lengkapnya :
a11 a12 ……….a1n
a21 a22 ……….a2n
…………………..
am1 am2 ….…..amn
x1
x2

xn
b1
b2

bm
a11 a12 ……….a1n b1
a21 a22 ……….a2n b2
………………….. …..
am1 am2 ….…..amn bm
Ada 2 yang dapat dijumpai pada persamaan di atas
1. m≠n (banyaknya variabel dan banyaknya persamaan tidak sama).
2. m=n (banyaknya variabel dan banyaknya persamaan sama).
Pada pembahasan kali ini akan dibicarakan hal yang kedua saja yaitu jika
m=n yaitu persamaan yang berbentuk matriks bujursangkar.
Penyelesaian persamaan linier tidak lain adalah mencari harga variabelvariabelnya.
Beberapa metode yang dapat digunakan untuk
menyelesaikan SPL antara lain :
1. Aturan Cramer
2. Metode Invers Matriks
3. Eliminasi Gauss
4. Metode Eliminasi Gauss Jordan
5. Metode Faktorisasi LU
4.2.1 ATURAN CRAMER
Apabila [A][X]=[B] maka nilai x dapat dicari dengan
Dimana
|Ak| adalah harga determinan unsur-unsur matriks bujursangkar [A]
dengan kolom ke k diganti unsur-unsurnya oleh unsur-unsur [B] .
|A| adalah harga determinan matriks-matriks bujursangkar [A].
Misal diketahui persamaan
a11x1+ a12x2+a13x3=b1
a21x1+ a22x2+a23x3=b2
a21x1+ a32x2+a33x3=b3
Untuk mencari nilai x1, x2, x3 maka terlebih dahulu dicari |A| dan |Ak|.
|A|= = a11a22 a33 +a12a23 a31+a13a21a32-a13a22a31
-a11a23 a32 -a12a21 a33
|Ak| yaitu mencari determinan kolom ke k=(1,2,3)
|A1|= |A2|= |A3|=
Sehingga
Contoh :
1. Diketahui persamaan 3x+2y=5 dan x+y=2. Carilah nilai x dan y.
|Ak|
xk =
|A|
a11 a12 a13
a21 a22 a23
a31 a32 a33
a11 a12
a21 a22
a31 a32
b1 a12 a13
b2 a22 a23
b3 a32 a33
a11 b1 a13
a21 b2 a23
a31 b3 a33
a11 a12 b1
a21 a22 b2
a31 a32 b3
|A1|
x1=
|A|
|A2|
x2=
|A|
|A3|
x3=
|A|
Penyelesaian
Persamaan diatas jika diubah dalam bentuk matriks menjadi
=
Mencari determinan matriks A
|A|= = 3.1-2.1=1
Mencari determinan matriks Ak
|A1|= = 5.1-2.2=1
|A2|= = 3.2-5.1=1
Mencari nilai x dan y
2. Tentukan nilai x, y, dan z jika diketahui persamaan sebagai berikut.
2x+y+z=4
x-2y-z=-4
x+y+2z=4
Sebelum dilanjutkan pembahasan penyelesaian persamaan linier terlebih
dahulu akan dibicarakan sekilas tentang OPERASI BARIS ELEMENTER.
Meskipun dalam pembahasan lalu telah disinggung sedikit penggunaannya
untuk menghitung invers matriks dengan transformasi elementer.
OPERASI BARIS ELEMENTER
Terdapat tiga buah operasi yang dapat dilakukan terhadap suatu sistem
persamaan linier tanpa mengubah penyelesaian yang sebenarnya yaitu :
1. Menukar urutan persamaan.
2. Perkalian suatu persamaan dengan bilangan tidak nol
3. Mengganti suatu persamaan dengan menjumlahkan persamaan
tersebut dengan kelipatan persamaan lainnya.
Ketiga operasi tersebut dapat dikenakan pada matriks-matriks lengkap
dan disebut dengan OPERASI BARIS ELEMENTER (OBE).
Operasi Baris Elementer pada suatu matriks
OPERASI NOTASI
1. Menukarkan baris ke-i dengan baris ke-j.
2. Mengalikan suatu baris dengan konstanta c (≠0)
3. Penggantian baris ke-I tersebut dengan
kelipatan baris yang lain.
Ri ⇔ Rj
cRj
Ri + cRj
3 2
1 1
x
y
5
2
3 2
1 1
5 2
2 1
3 5
1 2
|A1| 1
x1= = = 1
|A| 1
|A2| 1
x2= = = 1
|A| 1
Dengan menggunakan OBE, matriks lengkap diubah menjadi suatu
matriks dari suatu sistem persamaan linier yang mudah dicari
penyelesaiannya. Matriks yang memenuhi sifat demikian dinamakan
MATRIKS ESELON.
Suatu matriks disebut matriks eselon jika memenuhi 2 sifat berikut :
1. Jika terdapat baris yang seluruh elemennya nol, maka baris
tersebut harus diletakkan di bawah baris yang memuat elemen
tidak nol.
2. Pada baris yang memuat elemen tak nol, elemen tak nol pertama
harus terletak pada sebelah kanan elemen tak nol pertama baris
sebelumnya (Elemen tak nol pertama ini disebut dengan ELEMEN
UTAMA).
4.2.2 METODE ELIMINASI GAUSS
Apabila [A][X]=[B] maka dengan menyusun matriks baru yaitu matriks
[A.B] akan didapat matriks berorde (n, n+1) dimana matriks baru
tersebut dikenai transformasi elementer berdasarkan baris secara berkalikali
sehingga diperoleh matriks [A] menjadi matriks segitiga atas yang
diagonal utama elemennya bernilai 1.
Metode penyelesain SPL dengan menggunakan metode Eliminasi Gauss.
1. Membentuk matriks lengkap SPL.
2. Mengubah matriks lengkap menjadi matriks eselon denagn
sejumlah OBE.
3. Mendapat jawaban SPL.
Misalnya diketahui sebuah persamaan
a11x1+ a12x2+a13x3=b1
a21x1+ a22x2+a23x3=b2
a21x1+ a32x2+a33x3=b3
Matriks awal
=
Matriks lengkap SPL
Matriks lengkap tsb dikenai OBE sehingga membentuk matriks eselon.
Nilai 1 pada diagonal utama adalah variabel x-nya
sehingga diperoleh x3= b3’
x2+ a23x3 =b2’ x2=b2’- a23x3
x1+ a12x2+ a13x3 =b1’ x1= b1’-a12x2- a13x3
a11 a12 a13
a21 a22 a23
a31 a32 a33
x1
x2
x3
b1
b2
b3
a11 a12 a13 b1
a21 a22 a23 b2
a31 a32 a33 b3
1 a12 a13 b1’
0 1 a23 b2’
0 0 1 b3’
Contoh :
Diketahui sistem persamaan linier sebagai berikut :
x1+x2+x3=6
x1+2x2-x3=2
2x1+x2+2x3=10
Akan dicari solusi untuk x1, x2, dan x3
Penyelesaian
1. Matriks lengkap SPL nya
2. Mengubah matriks lengkap menjadi matriks eselon dengan OBE
Mengubah elemen a11=1 menjadi 1 (karena sudah 1 maka tiidak
perlu dikalikan lagi) dan megubah a21 dan a31 menjadi 0. baris 1
menjadi basis baris 1 dan 2 dikenai transformasi elementer.
basis
b( )+b2 b( )+b3
1(-1)+1=0 1(-2)+2=0
1(-1)+2=1 1(-2)+1=-1
1(-1)+(-1)=-2 1(-2)+2=0
6(-1)+2=-4 6(-2)+10=-2
Menjadi
Mengubah a22=1 menjadi 1 (karena sudah 1 maka tidak perlu
dikalikan lagi) dan mengubah a32=-1 menjadi 0. Baris 2 menjadi
basis, baris 3 dikenai transformasi elementer.
basis
b( )+b3
1(1)+(-1)=0
-2(1)+0=-2
-4(1)+(-2)=-6
Menjadi
Mengubah a33=2 menjadi 1 (dikalikan -1/2) maka a13=-6 juga
dikalikan -½
Menjadi
1 1 1 6
1 2 -1 2
2 0 2 10
1 1 1 6
1 2 -1 2
2 1 2 10
1 1 1 6
0 1 -2 -4
0 -1 0 -2
1 1 1 6
0 1 -2 -4
0 -1 0 -2
1 1 1 6
0 1 -2 -4
0 0 -2 -6
1 1 1 6
0 1 -2 -4
0 0 1 3
Mendapat jawaban SPL
Maka x3=3
x2=b2’- a23x3 x2 = -4 – 2.(3)=2
x1= b1’-a12x2- a13x3 x1= 6 - 1.2 -1.(3) = 1
4.2.3 METODE ELIMINASI GAUSS-JORDAN
Metode ini merupakan perluasan dari metode Gauss, hanya saja matriks
baru dikenai OBE berkali-kali sehingga matriks A menjadi matriks satuan
I. Bentuk umumnya :
x3= b3”
Menjadi x2= b2”
x1= b1”
Contoh :
Diketahui sistem persamaan linier sebagai berikut :
x1+x2+x3=6
x1+2x2-x3=2
2x1+x2+2x3=10
Akan dicari solusi untuk x1, x2, dan x3
Penyelesaian
1. Matriks lengkap SPL nya
2. Mengubah matriks lengkap menjadi matriks eselon dengan OBE
Mengubah elemen a11=1 menjadi 1 (karena sudah 1 maka tiidak
perlu dikalikan lagi) dan megubah a21 dan a31 menjadi 0. baris 1
menjadi basis baris 1 dan 2 dikenai transformasi elementer.
basis
b( )+b2 b( )+b3
1(-1)+1=0 1(-2)+2=0
1(-1)+2=1 1(-2)+1=-1
1(-1)+(-1)=-2 1(-2)+2=0
6(-1)+2=-4 6(-2)+10=-2
Menjadi
Mengubah a12=1 dan a32=-1 menjadi 0, baris 2 menjadi basis.
b( )+b1 b( )+b3
1(-1)+1=0 1(1)+(-1)=0
basis -2(-1)+1=3 -2(1)+0=-2
-4(-1)+6=10 -4(1)+(-2)=-6
a11 a12 a13 b1
a21 a22 a23 b2
a31 a32 a33 b3
1 0 0 b1”
0 1 0 b2”
0 0 1 b3”
1 1 1 6
1 2 -1 2
2 0 2 10
1 1 1 6
1 2 -1 2
2 1 2 10
1 1 1 6
0 1 -2 -4
0 -1 0 -2
1 1 1 6
0 1 -2 -4
0 -1 0 -2
Menjadi
Mengubah a33=-2 menjadi 1 (dikalikan -1/2) maka a13=-6 juga
dikalikan -½
Menjadi
Mengubah a13=3 dan a23=-2 menjadi 0, baris 3 menjadi basis.
b( )+b1 b( )+b2
1(-3)+3=0 1(2)+(-2)=0
3(-3)+10=1 3(2)+(-4)=2
basis
Menjadi
Mendapat jawaban SPL
Maka x3=3
x2= 2
x1= 1
4.2.4 METODE FAKTORISASI LU
Dengan metode eliminasi Gauss dan Gauss-Jordan, suatu SPL dapat
dipecahkan dengan mengoperasikan matriks yang diperbesar secara
sistematis. Pendekatan yang dipakai pada metode LU didasarkan atas
pemfaktoran matriks koefisien ke dalam hasil kali matriks segitiga bawah
dan matriks segitiga atas. Metode ini sangat bermanfaat untuk komputer
digital dan merupakan basis untuk banyak pemrograman komputer
praktis.
SPL dapat dipecahkan sebagai berikut :
1. Tulis kembali sistem [A][x]=[b] sebagai Lux=b dimana L adalah
matriks segitiga bawah dan U adalah matriks segitiga atas.
2. Definisikan matriks baru y yang berukuran nx1 dengan Ux=y.
3. Gunakan Ux=y untuk menulis kembali Lux=b dan pecahkan ini
untuk mencari y.
4. Subtitusikan y dan pecahkan untuk mencari nilai x.
[A][x]=[b] Ly=b, Ux=y
1 0 3 10
0 1 -2 -4
0 0 1 3
1 0 3 10
0 1 -2 -4
0 0 -2 -6
1 0 3 10
0 1 -2 -4
0 0 1 3
1 0 0 1
0 1 0 2
0 0 1 3
Langkah-langkah pemfaktoran A=LU
1. Reduksi A dengan transformasi elemnter ke dalam bentuk U
matriks segitiga atas dan mencari jejak pengali untuk nilai 1 pada
diagonal utama dan 0 di bawah diagonal utama 1.
2. Kedudukan sepanjang diagonal utm matriks L, tempatkan bilangan
pengali yang saling berkebalikan dari hasil pembentukan matriks U.
3. Kedudukan di bawah diagonal utama matriks L, tempatkan bilangn
negatif pengali yang digunakan untuk menge-nol-kan matriks U.
4. Bentuk dekomposisi A=LU
Contoh :
Diketahui sistem persamaan linier sebagai berikut :
2x1+6x2+2x3=2
-3x1-8x2 =2
4x1+9x2+2x3=3
Carilah solusi untuk x1, x2, dan x3 dengan menggunakan faktorisasi LU
Penyelesaian
1. Matriks SPL nya
2. Menyusun matriks U yaitu matriks segitiga atas
Mengubah a11=2 menjadi 1 (dikali ½). Semua baris 1 dikali ½
(dikali ½) menjadi
Mengubah a21=-3 dan a41=4 menjadi 0. Baris 1 menjadi basis. Baris
2 dan 3 dikenai OBE.
Basis
b( )+b2 b( )+b2
1(3)+(-3)=0 1(-4)+4=0
3(3)+(-8)=1 3(-4)+9=-3
1(3)+0=3 1(-4)+2=-2
Menjadi
Mengubah a22=1 menjadi 1 (karena sudah 1 maka tidak perlu
dikalikan lagi) dan mengubah a32=-3 menjadi 0. Baris 2 jadi basis
dan baris 3 dikenai OBE
Basis b( )+b3 Menjadi
1(3)+(-3)=0
3(3)+(-2)=7
2 6 2
-3 -8 0
4 9 2
2 6 2
-3 -8 0
4 9 2
1 3 1
-3 -8 0
4 9 2
1 3 1
-3 -8 0
4 9 2
1 3 1
0 1 3
0 -3 -2
1 3 1
0 1 3
0 -3 -2
1 3 1
0 1 3
0 0 7
Mengubah a33=7 menjadi 1 (dikali 1/7). Menjadi
3. Menyusun matriks L yaitu matriks segitiga bawah
Mencari jejak pengali untuk nilai 1 pada diagonal utama yaitu
Pengali untuk a11 adalah ½
Pengali untuk a22 adalah 1
Pengali untuk a33 adalah 1/7
Mencari jejak pengali untuk nilai 0 di bawah diagonal utama 1.
Pengali untuk a21 adalah 3
Pengali untuk a31 adalah -4
Pengali untuk a32 adalah 3
Tempatkan jejak pengali untuk nilai 1 pada diagonal utama yaitu
½, 1, dan 1/7 sepanjang diagonal utama matriks segitiga bawah L
tetapi nilainya berkebalikan.
Tempatkan jejak pengali untuk nilai 0 yaitu 3, -4, dan 3 dibawah
diagonal utama matriks segitiga bawah L dan kalikan dengan (-1).
4. Mencari nilai x dan y, terlebih dahulu mencari nilai y karena [U][x]=[y]
sedangkan [L][y]=[b]
Mencari nilai y [L][y]=[b]
2y1=2 y1=1
= -3y1+1y2=2 -3.1+y2=2
y2=5
4y1+(-3)y2+7y3=3
4.1+(-3).5+7.y3=3 7y3=14
y3=2
Mencari nilai x [U][x]=[y]
x3=2
= x2+3x3=5 x2+3.2=5
x2=-1
1x1+3x2+1x3=1
x1+3.(-1)+2=1 x1=2
4.3 PENYELESAIAN PERSAMAAN LINIER SIMULTAN
Untuk menyelesaikan sistem persamaan linier [A][x]=[b] dengan
koefisien matriks A yang sama tetapi matriks kolom b berbeda.
Misalnya suatu SPL mempunyai persamaan sebagai berikut :
1 3 1
0 1 3
0 0 1
2 0 0
0 1 0
0 0 7
2 0 0
-3 1 0
4 -3 7
2 0 0
-3 1 0
4 -3 7
y1
y2
y3
2
2
3
1 3 1
0 1 3
0 0 1
x1
x2
x3
1
5
2
[A][x]=[p], [A][x]=[q] dan [A][x]=[r] maka untuk lebih efisien
penyelesaiannya dengan satu matriks A augmented dan 3 vektor kolom b
atau diselesaikan secara simultan dengan menggunakan eliminasi Gauss-
Jordan.
[A p q r] menjadi [I p’ q’ r’] maka [x]=[p’], [y]=[q’], dan [z]=[r’]
Contoh :Diketahui persamaan
2x1-4x2 =10 2y1-4y2 =10
x1-3x2 + x4=-4 Dan y1-3y2 + y4=-4
x1 -x3+2x4= 4 y1 -y3+2y4= 4
3x1-4x2+3x3- x4=-11 3y1-4y2+3y3- y4=-11
4.4 PERSAMAAN LINIER HOMOGEN
Suatu persamaan linier dikatakan homogen jika koefisien matriks b
adalah 0 yaitu jika mempunyai bentuk umum :
a11x1+ a12x2………….+a1nxn=0
a21x1+ a22x2………….+a2nxn=0
a21x1+ a32x2………….+a3nxn=0
………………………………………………
am1x1+ am2x2………….+amnxn=0
mempelajari sistem yang homogen mempunyai banyak keuntungan
dalam mempelajari sistem yang aslinya. Istem non homogen
dimungkinkan tidak konsisten, namun sistem yang homogen selalu
konsisten karena selalu mempunyai penyelesaian minimal satu yaitu
vektor nol, yang bisa disebut dengan penyelesaian TRIVIAL (TRIVIAL
SOLUTION), yaitu penyelesaian berbentuk x1=0, x2=0,…….., xn=0.
sedangkan jika ada penyelesaian lain dinamakan dengan penyelesaian
NON TRIVIAL. Jadi sistem persamaan linier homogen mempunyai dua
kemungkinan yaitu :
1. Mempunyai penyelesaian TRIVIAL
2. Mempunyai penyelesaian BANYAK