judul bab 2thesis.binus.ac.id/doc/Bab2/2011-1-00273-if 2.pdf · cepat daripada metode optimasi lain...
Transcript of judul bab 2thesis.binus.ac.id/doc/Bab2/2011-1-00273-if 2.pdf · cepat daripada metode optimasi lain...
8
BAB 2
KAJIAN PUSTAKA
2.1 Visi Komputer (Computer Vision)
Computer vision merupakan sub disiplin ilmu dari kecerdasan buatan yang
mempelajari bagaimana mesin dapat mengenali objek yang diamati atau diobservasi
(sumber : wikipedia). Dapat juga disebut sebagai machine vision, ilmu ini
mengembangkan teori-teori dan algoritma dimana informasi yang berguna diekstraksi
dan dianalisis dari sebuah citra penelitian, sekumpulan citra, atau citra yang berurutan
dari sebuah komputasi yang dibuat oleh computer (http://www.personal.umd.munich.edu).
Visi komputer oleh beberapa ahli didefinisikan sebagai berikut :
• Ballard dan Brown (Ballard & Brown, 1982), computer vision adalah otomatis
dan integrasi sebuah range yang luas yang terdiri dari proses-proses dan
representasi-representasi terhadap persepsi visual.
• Adrian Low (Low, 1991), visi komputer berhubungan dengan perolehan gambar,
pemrosesan, klasifikasi, pengenalan, dan menjadi penggabungan, pengurutan
pembuatan keputusan menuju pengenalan.
• Michael G. Fairhurst (Fairhurst, 1988), visi komputer sesuai dengan sifatnya,
merupakan suatu subyek yang merangkul berbagai disiplin tradisional secara luas
guna mendasari prinsip-prinsip formalnya, dan dalam mengembangkan suatu
metodologi yang berlainan dari apa yang dimilikinya, pertama-tama harus
mengembangkan dan secara berurutan membangun materi yang mendasari ini.
9
• Shapiro dan Stockman (Shapiro & Stockman, 2001), visi komputer adalah suatu
bidang yang bertujuan untuk membuat suatu keputusan yang berguna mengenai
objek fisik nyata dan keadaan berdasarkan atas sebuah citra. Visi komputer
merupakan kombinasi antara pengolahan citra dan pengenalan pola. Hasil
keluaran dari proses visi komputer adalah pengertian tentang citra.
Gambar 2.1 Skema hubungan visi komputer dengan bidang lain
Boyle dan Thomas (C & Boyle, 1988), mengatakan bahwa computer vision lebih
daripada pengenalan, computer vision melakukan operasi “low level processing” sebagai
algoritma image processing yang murni. Mereka juga yang menggolongkan image
processing ke dalam computer vision.
10
2.1.1 Pengolahan Citra
Pengolahan citra merupakan bidang studi yang mempelajari proses pengolahan
gambar dimana baik masukan maupun keluarannya berbentuk berkas citra digital
(Arymurthy & Setiawan, 1992). Juga dijelaskan bahwa pengolahan citra merupakan
pengolahan dan analisis citra yang banyak melibatkan persepsi visual.
Seperti yang dikemukakan oleh Chen (2003), bahwa kebutuhan untuk
memproses sebuah gambar dengan cepat dalam satu aplikasi merupakan salah satu
masalah utama dalam melakukan pengolahan citra. Sedangkan untuk aplikasi yang
berjalan secara real time lebih bergantung pada pemrosesan piksel atau signal yang
cepat daripada metode optimasi lain yang rumit dan memakan waktu.
Niblack (Niblack, 1986) menjelaskan image processing sebagai pemrosesan dari
citra-citra, kemudian menambahkan bahwa output dari image processing akan juga
menjadi sebuah image.
2.1.1.1 Citra Digital
Ada beberapa definisi citra digital, yaitu :
• Suatu representasi, kemiripan, atau imitasi dari suatu objek atau benda (menurut
kamus webster).
• Gambar dua dimensi yang dihasilkan dari gambar analog dua dimensi yang
kontinu menjadi gambar diskrit melalui proses sampling. Gambar analog adalah
representasi visual dari suatu objek menggunakan kamera analog yang secara
matematika dapat direpresentasikan sebagai rentang nilai yang menunjukkan
letak (posisi) dan intensitas. Gambar analog dibagi menjadi N baris dan M kolom
11
sehingga menjadi gambar diskrit. Persilangan antara baris dan kolom tertentu
disebut dengan piksel. Sampling pada penjelasan di atas ada proses untuk
menentukan warna pada piksel tertentu pada citra dari sebuah gambar yang
kontinu. Pada proses sampling biasanya dicari warna rata-rata dari gambar
analog yang kemudian dibulatkan. Proses sampling sering disebut juga dengan
proses digitisasi.
• Representasi dari suatu objek nyata baik dalam bentuk dua dimensi maupun tiga
dimensi menjadi bentuk gambar digital yang dikenali oleh komputer (Jain,
1989).
• Fungsi intensitas warna dua dimensi f(x,y) dimana x dan y mewakili koordinat
lokasi suatu titik dan nilai dari fungsi yang merupakan tingkat intensitas warna
atau tingkat keabu-abuan dari titik tersebut (Schalkoff, 1989).
Gambar 2.2 Citra Digital
12
2.1.2 Pengenalan Wajah (Face Recognition)
Sistem pengenalan wajah merupakan subjek yang menarik untuk diteliti sejak
lama. Hal ini dikarenakan pengenalan wajah merupakan cara yang utama bagi manusia
untuk mengenali dan mengidentifikasi seseorang. Setiap orang memiliki ciri wajah yang
unik dan berbeda. Dengan melihat dari wajah, seseorang dapat dibedakan dengan orang
yang lainnya.
Tehnik pengenalan wajah telah berkembang jauh sebelum komputer ada. Francis
Galton, pada tahun 1888, mengemukakan metode dengan menggunakan pendekatan
geometris. Dalam proposalnya, Galton menitikberatkan perhatian pada fitur-fitur penting
dari wajah, yang disebut keys points. Keys points ini meliputi alis, mata, hidung, bibir
dan sebagainya. Dengan menghitung jarak antara keys points dapat diperoleh ciri wajah
seseorang. Akan tetapi tehnik yang dikemukakan oleh Galton sangat sensitif terhadap
perubahan wajah, sehingga akan mengalami kegagalan ketika ada penambahan atribut
pada wajah.
Dalam usaha ingin meniru kemampuan manusia dalam mengenali dan
mengidentifikasikan seseorang, para peneliti dalam bidang Computer Vision pun
melakukan penelitian. Hasilnya metode-metode dalam sistem pengenalan wajah ini
dikelompokkan menjadi dua kategori pendekatan (Chelappa et al 1955) yaitu : feature-
based dan holistic. Sedangkan menurut Quintiliano dan Rosa (Quintiliano & Rosa,
2006) dibagi menjadi tiga, yaitu : template-based, feature-based dan appearance-based.
Pendekatan template-based sendiri mempunyai dua versi, yang pertama (yang
paling sederhana) menggambarkan citra wajah sebagai matriks bidimensional yang
nilainya mewakili edges dari tingkat kelonjongan wajah dan factor dari wajah. Yang
13
kedua, lebih lengkap, menggambarkan citra wajah sebagai multiple templates yang
dimabil dari berbagai sudut dan arah pandang. Kelebihan dari teknik ini adalah
kesederhanaannya meskipun menggunakan memori yang cukup besar dan algoritma
yang tidak efisien. (Quintiliano & Rosa, 2006)
Pendekatan dengan feature-based pada dasarnya tergantung pendeteksian dan
pengkarakterisasian dari feature wajah seseorang serta hubungan geometriknya. Pada
umumnya feature yang dimaksud adalah mata, mulut dan hidung. Sedangkan
pendekatan holistic lebih melibatkan keseluruhan citra wajah dengan melakukan proses
encoding dan memberlakukan “kode” wajah dari hasil encoding tersebut sebagai sebuah
titik dalam ruang berdimensi tinggi.
Pada pendekatan feature-based, proses awal pada automatisasi proses
pengenalan wajah lebih penting. Proses awal ini melibatkan penggunaan tehnik
pengolahan citra yang sederhana, seperti pendeteksian sisi dan lain-lain dengan tujuan
mendeteksi wajah dan feature-featurenya. Sebagai contoh: tehnik dari Sakai pada tahun
1969 dimana pertama-tama peta sisi diekstrak dari sebuah citra masukan dan kemudian
dicocokkan pada template oval yang besar, dengan variasi-variasi posisi dan ukuran
yang mungkin. Adanya wajah atau tidak dikonfirmasi dengan mencari sisi-sisi pada
lokasi yang diperkirakan dari feature-feature seperti mata dan mulut.
Pada tahun 1970, Kelly menggunakan sebuah pendeteksi sisi untuk mengekstrak
outline wajah manusia dari berbagai macam latar belakang. Govindaraju, Srihari dan
Sher pada tahun 1990 memperkenalkan sebuah teknik dimana meletakkan wajah pada
citra kacau yang menggunakan template yang dapat diuraikan. Teknik ini juga mirip
dengan penelitian yang dilakukan oleh Yuille, Cohen dan Hallinan pada tahun 1989.
14
Pendekatan ini menunjukkan kinerja yang baik ketika diuji pada sebuah set data
yang kecil, tetapi terkadang terdapat peningkatan pada pengenalan yang salah.
Sedangkan teknik yang diperkenalkan oleh Kanade pada tahun 1973 serta Harmon dan
Hunt pada tahun 1977 merupakan teknik dimana ketika citra wajah dimasukkan akan
langsung melakukan perhitungan. Teknik feature-based menggunakan lebih sedikit
penghitungan daripada template-based.
Sedangkan pendekatan holistic yang paling sukses adalah menggunakan
Karhunen Loeve Transform (KLT). Teknik ini pertama kali diperkenalkan oleh Kirby
dan Sirovich pada tahun 1990 yang dinamakan sebagai Principal Component Analysis
(PCA). Transformasi ini menghasilkan perluasan dari sebuah citra masukan yang
berhubungan dengan suatu set dari citra dasar atau dinamakan eigen images. Kemudian
pada tahun 1991, Turk dan Pentland memperkenalkan teknik dimana hanya
menggunakan beberapa koefisien KLT yang digunakan untuk mempresentasikan wajah
yang dinamakan sebagai face space. Sistem bekerja sangat baik bagi citra yang diambil
frontal. Tetapi sistem ini tidak dapat mengatasi variasi pada orientasi wajah, posisi dan
iluminasi. Sehingga terdapat beberapa penelitian untuk mengatasi masalah ini, seperti
pada tahun 1991 yang dilakukan Akamatsu, Sasaki, Fukamachi dan Suenega dimana
beberapa proses ditambahkan untuk menstandarisasi citra wajah dalam posisi dan
ukuran.
Pendekatan holistic lainnya adalah menggunakan Discrete Cosine Transform
(DCT) sebagai proses feature extraction untuk klasifikasi selanjutnya DCT dihitung
pada citra wajah kemudian hanya dipilih beberapa koefisien yang menjadi feature
15
vector. Feature vector ini dapat dianggap sebagai representasi sebuah titik dalam ruang
“wajah” berdimensi tinggi.
Secara umum proses pengenalan wajah dibagi menjadi 3, yaitu :
a. Pemisahan gambar dari gambar-gambar yang tidak teratur.
Pemisahan biasanya dengan menggunakan algoritma berikut ini. Sebuah sisi di
construct, lalu sisi-sisi ini dihubungkan dengan beberapa heuristic, dan sisi-sisi
disesuaikan ke dalam bentuk elips dengan menggunakan transformasi Hough.
Hal tersebut dilakukan bila input diubah dari video images. Pemisahan dilakukan
menggunakan gerakan (motion) sebagai isyarat.
b. Mengekstrak objek dari area wajah
Ada 2 tipe objek yang penting: objek holistic (dimana masing-masing objek
adalah sebuah karakteristik dari seluruh wajah) dan objek partial membuat
beberapa ukuran ke dalam beberapa point penting dari wajah, sedangkan tehnik
object holistic selalu menggunakan wajah secara keseluruhan. PCA adalah
sebuah tehnik objek holistic.
c. Keputusan
Sebuah keputusan diambil dari data yang terkumpul pada tahap sebelumnya.
Tiga tipe keputusan yang dapat diambil adalah:
1. Identifikasi, nama atau label individu yang didapat.
2. Pengenalan seseorang, keputusan dimana individu siap dilihat.
3. Pengkategorian, yang mana wajah harus diberikan dalam kategori.
16
Tehnik pengenalan wajah yang umum berdasarkan Jain et.al. (Jain, Halici,
Hayashi, Lee, & Tsutsui, 1999) :
a. Hidden Markov Models ( HMMs )
Samario & Harter pada tahun 1994 menggunakan konvensional Hidden Markov
Models sebagai sebuah pendekatan grafis untuk mengubah informasi fitur dalam
bentuk kode. Namun karena kompleksitas perhitungan yang amat tinggi, maka
tehnik ini tidak cocok untuk digunakan dalam teknik real time walalupun tingkat
akurasi yang tinggi dapat dicapai.
b. Eigenface
Turk & Pentland pada tahun 1991 menerapkan tehnik ini sebagai pengembangan
dari PCA yang telah ada dengan menghitung eigenfaces untuk tiap citra dari data
yang didapat baik dalam pelatihan dan pengujian.
c. Conventional Networks
Laurance, Giles, Tsai dan Back pada tahun 1997 menggunakan sebuah Self
Organising Map (SOM) untuk mengurangi dimensi dari representasi input dan
lima layer conventional networks untuk mengatasi masalah translasi dan
perubahan citra wajah. Tehnik ini lebih cepat dari pendekatan Hidden Markov
Models sebelumnya, namun masih memerlukan waktu pelatihan yang cukup
lama.
d. Probabilistic Decision-Based Neural Networks
Tehnik ini diteliti oleh Lim Kung dan Lim pada tahun 1997, dimana teknik ini
bertujuan untuk mengatasi masalah waktu pelatihan dan klasifikasi yang terdapat
pada teknik conventional network.
17
e. Radial Basis Function Networks (RBF)
Hawell pada tahun 1997 menggunakan pendekatan dengan jaringan Radial Basis
Function yang sangat cepat dalam pelatihan dan merupakan yang tercepat untuk
klasifikasi dari semua teknik yang ada.
f. Continous µ-tuple Classifier
Tehnik ini dikembangkan oleh Lucas pada tahun 1997 yang mana merupakan
pengembangan dari µ-tuple Classifier sebelumnya. Pengembangan ini dilakukan
hanya untuk mengatasi masalah kecepatan dan efisiensi penyimpanan, namun
belum mengatasi masalah yang terdapat dalam pengujian di dunia nyata pada
pose dan pencahayaan citra.
g. Nearest Neighbor Classifier
Lucas pada tahun 1997 juga berhasil mencapai performa yang tinggi dengan I-
Nearest Neighbor Classifier sederhana menggunakan pengukuran jarak City-
Block.
2.2 Principal Component Analysis
Metode transformasi yang umum digunakan adalah Principal Component
Analysis (PCA). Untuk mengenal suatu citra (image) diperlukan suatu vektor
karakteristik yang disebut vektor eigen. Untuk memperoleh vektor eigen harus melalui
proses-proses sehingga keakuratan pengenalan citra wajah dapat optimal. Proses-proses
ini kemudian dikembangkan menjadi metode Principal Component Analysis.
A Principal Component Analysis (PCA) is a powerful technique for extracting a
structure from potentially high-dimentional data sets, which corresponds to extracting
18
the eigenvectors that are associated with the largest eigenvalues from the input
distribution. (Kwang, et.al, 2002)
PCA merupakan metode matematik linear untuk merepresentasikan sebuah
objek, mengekstrak ciri-ciri sebuah objek dan mereduksi dimensi dari objek tersebut
dengan cara mentransformasikan sejumlah variable korelasi ke jumlah yang lebih
sedikit. (Lakshminarayana & Neurman, 1999)
Merepresentasikan sebuah objek adalah mengubah intensitas piksel pada sebuah
citra menjadi bentuk yang lebih sederhana, yaitu berupa kumpulan vektor yang
dinamakan Principal Component.
PCA mengekstrak ciri-ciri sebuah objek, metode ini tidak membutuhkan input
berupa definisi ciri-ciri sebuah objek, tetapi PCA justru mampu mengidentifikasi sendiri
ciri-ciri dari sebuah objek.
Tujuan penerapan metode PCA yang pertama adalah mereduksi dimensi dari
suatu objek, sehingga ukuran dari objek akan lebih ringkas. Kedua, PCA mampu
mengambil karakteristik yang paling penting dari objek yang diolah yang biasanya
disebut feature extraction. Jika dimens i lebih kecil dan informasi yang terkandung lebih
penting (berupa vektor karakteristik), maka objek tersebut akan lebih spesifik
dibandingkan objek yang belum diolah sebelumnya. Hal ini tentunya akan
mempermudah pemrosesan objek lebih lanjut.
PCA menggunakan intensitas piksel citra dalam merepresentasikan citra. Tehnik
matematik yang digunakan adalah eigen analysis yang menggunakan nilai eigen dan
vektor eigen dalam perhitungan. PCA merupakan tehnik yang bersifat shape-free yang
19
tidak terlalu memperhatikan bentuk dari sebuah citra melainkan mencari intensitas nilai
pixel dari penghitungan.
Hasil dari Principal Component Analysis (PCA) adalah sebuah objek baru dalam
bentuk PCA. Perhitungan pada PCA kurang lebih sebagai berikut : asumsikan data
dengan dimensi banyak telah disimpan pada objek TabelData yang merupakan matriks
persegi panjang. Jika terdapat banyak perbedaan pada tiap-tiap kolom pada TabelData
atau unit-unit pengukuran pada kolom berbeda maka data harus dinormalisasi terlebih
dahulu. Menggunakan sebuah PCA pada matriks data ternormalisasi mempunyai
pengaruh yang sama seperti menggunakan analisis pada matriks korelasi (matriks
kovarian dari data ternormalisasi sama dengan matriks korelasi dari data ini). Kemudian
dilakukan pemetaan gambar dari nilai eigen, menggambar nilai eigen untuk
mendapatkan ciri dari nilai eigen yang penting.
Principal components didapatkan dengan memproyeksikan vektor-vektor data
pada tempat kosong terentang oleh vektor eigen. Ini dapat dilakukan dengan dua cara:
1. Langsung dari TabelData tanpa melakukan pembentukan objek PCA terlebih
dahulu. Kemudian dapat menggambar konfigurasi atau menampilkan angka-
angkanya.
2. Memilih sebuah PCA dan sebuah objek TabelData bersama-sama dan
memilih konfigurasi. Dengan cara ini dapat diproyeksikan TabelData pada
PCA’s eigenspace.
Tehnik matematika yang digunakan dalam PCA disebut analisa eigen,
menyelesaikan nilai eigen dan vektor eigen dari sebuah matriks persegi simetri dengan
jumlah dari perkalian. Vektor eigen berhubungan dengan nilai eigen terbesar yang
20
mempunyai arah yang sama seperti principal component yang pertama. Vektor eigen
berhubungan dengan nilai eigen terbesar kedua menentukan arah dari principal
component kedua. Jumlah dari nilai eigen sama dengan pembacaan dari matriks persegi
dan jumlah maksimal dari vektor eigen sama dengan jumlah baris (atau kolom) dari
matriks ini.
Secara matematik, tehnik PCA dapat didefinisikan sebagai berikut : misalnya
terdapat himpunan citra, T1,T2,T3, … , Tn maka nilai rata-rata dari himpunan citra
tersebut adalah :
TnN
N
nΣ=
=Ψ1
.1
gambarjumlah :noise :
NΨ
Setelah itu bentuk himpunan citra baru yang bebas dari noise, yaitu Î1, Î2 , Î3,…,
În yang didapat dari :
În = Tn – Ψ
În : himpunan citra bebas noise
Kemudian dibangun matriks A yang merupakan kumpulan dari himpunan citra
yang bebas dari noise, A = [ Î1, Î2 , Î3,…, În ]
Proses selanjutnya adalah mencari nilai covariance dari himpunan citra yang
telah bebas dari noise :
Covariance = 1/N . At .A
Sehingga pada akhirnya akan didapatkan matriks covariance dengan dimensi N x
N. Karena dimensi matriks covariance masih cukup tinggi, sehingga untuk mencari N
21
vektor eigen dari matriks covariance masih terlalu sukar, misalkan Vi adalah vektor
eigen dari matriks covariance maka:
( A . At ) . Vi = Vi . Vi
Tiap ruas dikalikan dengan A :
A ( A . At ) . Vi = A ( Vi . Vi )
( A . At ) . ( A . Vi ) = Vi ( A . Vi )
Dimana A . Vi adalah vektor eigen dari matriks covariance, maka vektor eigen
dari matriks covariance dapat dihitung dengan :
[ ] i
iN
ii
Ni VAnV
VV
iiiiVA . ....
21
. ,...,3,2,1 =
⎟⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜⎜
⎝
⎛
=
2.3 Wavelet dan Transformasi Wavelet
2.3.1 Definisi Wavelet
Teori wavelet adalah suatu konsep yang relatif baru dikembangkan. Kata
“Wavelet” sendiri diberikan oleh Jean Morlet dan Alex Grossman diawal tahun 1980-an,
dan berasal dari bahasa Perancis, “ondelette” yang berarti gelombang kecil. Kata “onde”
yang berarti gelombang kemudian diterjemahkan ke bahasa Inggris menjadi “wave”, lalu
digabung dengan kata aslinya sehingga terbentuk kata baru “wavelet”. Yang dimaksud
dengan wavelet adalah sekumpulan fungsi dalam ruang L2(R) yang memiliki sifat-sifat :
a. Berenergi terbatas.
b. Merupakan fungsi band-pass.
c. Merupakan hasil translasi dan dilasi dari sebuah fungsi tunggal.
22
Wavelet digunakan untuk membagi sebuah fungsi atau sinyal kontinu menjadi
komponen-komponen frekuensi yang berbeda dan mempelajari tiap komponen dengan
resolusi yang sesuai dengan skalanya.
2.3.2 Transformasi Fourier dan Transformasi Fourier Waktu Singkat
Transformasi Fourier, dinamakan atas Joseph Fourier, adalah sebuah
transformasi integral yang menyatakan kembali sebuah fungsi dalam fungsi basis
sinusioidal, yaitu sebuah fungsi sinusioidal penjumlahan atau integral dikalikan oleh
beberapa koefisien ("amplitudo"). Ada banyak variasi yang berhubungan dekat dari
transformasi ini tergantung jenis fungsi yang ditransformasikan. Transformasi Fourier
mendekomposisi sebuah sinyal pada fungsi-fungsi eksponensial kompleks dari
frekuensi-frekuensi yang ada.
Kelemahan utama transformasi Fourier adalah bahwa ia hanya memiliki resolusi
frekuensi tanpa ada resolusi waktu. Ini berarti walaupun kita bisa menentukan semua
frekuensi yang ada dalam sinyal, kita tidak tahu kapan frekuensi tersebut muncul. Maka
dari itu transformasi Fourier tidak baik untuk merepresentasikan sinyal non-stasioner.
Untuk memecahkan masalah ini, dalam beberapa dekade terakhir, beberapa solusi telah
dikembangkan yang secara kurang lebih mampu merepresentasikan sinyal dalam domain
waktu dan frekuensi pada saat yang bersamaan.
Solusi awal dari masalah ini adalah Transformasi Fourier Waktu Singkat (Short
Time Fourier Transform / STFT). Dalam Transformasi Fourier Waktu Singkat, sinyal
dibagi menjadi bagian-bagian berukuran cukup kecil, dimana bagian-bagian sinyal
23
tersebut dapat diasumsikan stasioner. Untuk tujuan ini sebuah fungsi jendela “ω” dipilih.
Lebar dari jendela ini harus sama dengan bagian sinyal yang stasionaritasnya valid.
Masalah dengan Transformasi Fourier Waktu Singkat berakar pada apa yang
dikenal dengan prinsip Ketidakpastian Heisenberg. Prinsip ini menyatakan bahwa
seseorang tidak dapat mengetahui komponen spektral apa saja yang ada pada satu waktu.
Yang dapat diketahui seseorang adalah selang waktu dimana rentang frekuensi tertentu
muncul, yang merupakan masalah resolusi.
Masalah dengan Transformasi Fourier Waktu Singkat berkaitan dengan
penentuan lebar fungsi jendela yang digunakan. Pada transformasi Fourier kita tahu pasti
frekuensi apa yang eksis, yang artinya transformasi Fourier memiliki resolusi yang
sempurna. Yang memberikan resolusi sempurna pada transformasi ini adalah fakta
bahwa fungsi jendela yang digunakan adalah fungsi transformasinya sendiri, yang
lebarnya memanjang dari minus tidak berhingga hingga tidak berhingga. Pada
Transformasi Fourier Waktu Singkat, lebar fungsi jendela yang digunakan terbatas,
sehingga hanya mencakup sebagian sinyal, yang menyebabkan resolusi frekuensinya
kurang baik. Yang dimaksud kurang baik di sini adalah kita tidak lagi tahu secara pasti
komponen frekuensi apa yang ada pada sinyal, tetapi kita hanya tahu rentang frekuensi
yang ada.
Singkatnya, masalah yang dihadapi Transformasi Fourier Waktu Singkat adalah
dilema dalam penentuan lebar fungsi jendela. Lebar fungsi jendela yang sempit
menghasilkan resolusi waktu yang baik tetapi resolusi frekuensinya buruk. Sedangkan
fungsi jendela yang lebar menghasilkan resolusi frekuensi yang baik tetapi resolusi
waktu yang buruk.
24
2.3.3 Transformasi Wavelet
Transformasi wavelet adalah proses transformasi (dekomposisi) suatu sinyal ke
dalam bentuk superposisi dari fungsi wavelet, yang merupakan hasil dilasi dan translasi
fungsi tunggal wavelet induk. Transformasi wavelet dapat dipandang sebagai bentuk
representasi waktu-frekuensi untuk sinyal yang kontinu terhadap waktu (sinyal analog).
Transformasi wavelet memiliki keunggulan dibanding dengan transformasi
Fourier untuk merepresentasikan fungsi yang memiliki diskontinuitas dan kenaikan atau
penurunan yang tajam, dan untuk secara akurat mendekomposisi dan merekonstruksi
sinyal non-periodik dan/atau sinyal non-stasioner.
Secara singkat, dalam transformasi wavelet, sebuah sinyal dilewatkan pada filter
lolos tinggi dan filter lolos rendah, yang menyaring bagian berfrekuensi tinggi dan
rendah dari sinyal. Prosedur ini diulang-ulang, dan setiap kalinya beberapa bagian dari
sinyal yang berkorespondensi dengan frekuensi tertentu dihilangkan dari sinyal. Operasi
demikian disebut juga dekomposisi.
Transformasi wavelet dikembangkan sebagai pendekatan alternatif atas
Transformasi Fourier Waktu Singkat untuk mengatasi masalah resolusi. Analisa wavelet
dilakukan dengan cara yang mirip seperti analisa Transformasi Fourier Waktu Singkat,
dalam artian sinyal dikalikan dengan sebuah fungsi (wavelet), yang mirip dengan fungsi
jendela pada Transformasi Fourier Waktu Singkat, dan transformasinya dihitung secara
terpisah untuk tiap-tiap segmen yang berbeda dari sinyal domain waktu (ruang). Tetapi
ada dua perbedaan mendasar antara transformasi wavelet dengan Transformasi Fourier
Waktu Singkat, yaitu :
25
a. Transformasi Fourier dari sinyal yang telah dilewatkan oleh fungsi jendela tidak
dihitung.
b. Lebar dari fungsi jendela berubah untuk setiap perhitungan transformasi atas setiap
komponen spektral, yang merupakan karakteristik utama transformasi wavelet.
Tidak seperti Transformasi Fourier Waktu Singkat yang resolusinya konstan
pada setiap waktu dan frekuensi karena konstannya fungsi jendela, transformasi wavelet
memiliki resolusi yang berbeda-beda karena fungsi jendela yang digunakan adalah
fungsi-fungsi wavelet anak yang berbeda-beda, yang merupakan hasil turunan dari satu
wavelet induk. Transformasi wavelet memiliki resolusi waktu yang baik dan resolusi
frekuensi yang buruk pada frekuensi tinggi, dan resolusi frekuensi yang baik dan
resolusi waktu yang buruk pada frekuensi rendah.
Transformasi wavelet dibagi menjadi 2 bagian besar, yaitu :
a. Transformasi wavelet kontinu
b. Transformasi wavelet diskrit
2.3.3.1 Transformasi Wavelet Kontinu
Dalam transformasi wavelet kontinu, fungsi-fungsi basis wavelet memiliki
parameter geser dan parameter skala yang kontinu. Cara kerja transformasi wavelet
kontinu (TWK) adalah dengan menghitung konvolusi sebuah sinyal dengan sebuah
jendela modulasi pada setiap waktu dengan setiap skala yang diinginkan. Jendela
modulasi yang mempunyai skala fleksibel inilah yang biasa disebut induk wavelet atau
fungsi dasar wavelet.
26
Dalam transformasi wavelet digunakan istilah translasi dan skala, karena istilah
waktu dan frekuensi sudah digunakan oleh transformasi Fourier. Translasi adalah lokasi
jendela modulasi saat digeser sepanjang sinyal, berhubungan dengan informasi waktu.
Skala behubungan dengan frekuensi, skala tinggi (frekuensi rendah) berhubungan
dengan informasi global dari sebuah sinyal, sedangkan skala rendah (frekuensi tinggi)
berhubungan dengan informasi detil.
TWK secara matematika dapat didefinisikan sebagai berikut:
dtttfs s )()(),( *,∫= τϕτγ
Keterangan: γ(s,τ) adalah fungsi sinyal setelah transformasi, dengan variabel s
(skala) dan τ (translasi) sebagai dimensi baru. f(t) adalah sinyal asli sebelum
transformasi. Fungsi dasar disebut sebagai wavelet, dengan * menunjukkan
konjugasi kompleks.
Dan inversi dari TWK secara matematika dapat didefinisikan sebagai berikut:
dsdtstf s τϕτγ τ )(),()( ,∫∫=
Seperti telah dibicarakan sebelumnya, fungsi dasar wavelet ψs,τ(t) dapat didesain
sesuai kebutuhan untuk mendapatkan hasil transformasi yang terbaik, ini perbedaan
mendasar dengan transformasi Fourier yang hanya menggunakan fungsi sinus sebagai
jendela modulasi.
Fungsi dasar wavelet secara matematika dapat didefinisikan sebagi berikut:
⎟⎠⎞
⎜⎝⎛ −
=s
ts
tsτ
ϕϕ τ1)(,
27
Faktor s
1 digunakan untuk normalisasi energi pada skala yang berubah-ubah.
Mexican Hat, yang merupakan normalisasi dari derivatif kedua fungsi Gaussian
adalah salah satu contoh fungsi dasar TWK:
2
2
22
2
3 12
1)( σ
σσπϕ
t
ett−
⎟⎟⎠
⎞⎜⎜⎝
⎛−=
Contoh lain adalah fungsi dasar Morlet, yang merupakan fungsi bilangan kompleks:
( )σσ
σσ κπϕ −=−− tietect 22
141
)(
dengan
2
21 σ
σκ−
= e dan 21
43 2
2
21−
−−
⎟⎟⎠
⎞⎜⎜⎝
⎛−+=
σσσ eec
2.3.3.2 Transformasi Wavelet Diskrit
Transformasi wavelet diskrit (TWD) merupakan salah satu cara yang banyak
digunakan dalam upaya meningkatkan efisiensi dan kecepatan dalam menggunakan
PCA dalam domain frekuensi. Dasar dari TWD dimulai pada tahun 1976, dimana tehnik
untuk mendekomposisi sinyal waktu ditemukan. Dalam TWD, penggambaran sebuah
skala waktu sinyal digital didapatkan dengan menggunakan tehnik filterisasi digital.
Secara garis besar proses dalam tehnik ini adalah dengan melewatkan sinyal yang
akan dianalisis pada filter dengan frekuensi dan skala yang berbeda. Filterisasi
merupakan sebuah fungsi yang digunakan dalam pemrosesan sinyal. Wavelet dapat
direalisasikan menggunakan iterasi filter dengan pengskalaan. Resolusi dari sinyal, yang
28
merupakan rata-rata dari jumlah detil informasi dari sinyal, ditentukan melalui filterisasi
ini dan skalanya didapatkan dengan unsampling dan down sampling (subsampling).
Sebuah sinyal harus dilewatkan dalam dua filterisasi TWD yaitu highpass filter
dan lowpass filter agar frekuensi dari sinyal tersebut dapat dianalisis. Pasangan filter
high-pass dan low-pass yang digunakan harus merupakan Quadrature Mirror Filter
(QMF), yaitu pasangan filter yang memenuhi persamaan berikut:
[ ] ( ) [ ]ngnLh n .11 −=−−
dengan h[n] adalah filtar high-pass, g[n] adalah filter low-pass dan L adalah panjang
masing-masing filter. Analisis terhadap frekuensi dilakukan dengan cara menggunakan
resolusi yang dihasilkan setelah sinyal melewati filterisasi.
Pembagian sinyal menjadi frekuensi tinggi dan frekuensi rendah dalam proses
filterisasi highpass filter dan lowpass filter disebut sebagai dekomposisi. Proses
dekomposisi dimulai dengan melewatkan sinyal asal melewati highpass filter dan
lowpass filter. Misalkan sinyal asal ini memiliki rentang frekuensi dari 0 sampai dengan
π rad/s. Dalam melewati highpass filter dan lowpass filter ini, rentang frekuensi di sub
sample menjadi dua, sehingga rentang frekuensi tertinggi pada masing-masing sub
sample menjadi π/2 rad/s. Setelah filterisasi, setengah dari sample atau salah satu sub
sample dapat dieliminasi berdasarkan aturan Nyquist (Terzija, 2006). Sehingga sinyal
dapat selalu di-subsample oleh 2 (↓2) dengan cara mengabaikan setiap sample yang
kedua. Proses dekomposisi ini dapat melalui salah satu atau lebih tingkatan.
Dekomposisi satu tingkat ditulis dengan ekspresi matematika pada persamaan berikut :
29
[ ] [ ] [ ]
[ ] [ ] [ ]nkgnxky
nkgnxky
nrendah
ntinggi
−=
−=
∑
∑2
2
y[k] tinggi dan y[k] rendah adalah hasil dari highpass filter dan lowpass filter, x[n]
merupakan signal asal, h[n] adalah highpass filter dan g[n] adalah lowpass filter. Untuk
dekomposisi lebih dari satu tingkat, prosedur di atas dapat digunakan pada masing-
masing tingkatan. Contoh penggambaran dekomposisi dipaparkan pada Gambar 2.4
dengan menggunakan dekomposisi tiga tingkat.
Gambar 2.3 Dekomposisi Wavelet Tiga Tingkat
Sumber : (Sripathi, 2003)
y[k] tinggi dan y[k] rendah adalah hasil dari highpass filter dan lowpass filter, y[k]
tinggi disebut sebagai koefisien TWD. y[k] tinggi merupakan detil dari informasi sinyal,
sedangkan y[k] rendah merupakan taksiran kasar dari fungsi penskalaan. Dengan
menggunakan koefisien TWD ini maka dapat dilakukan proses invers TWD untuk
merekonstruksi menjadi signal asal. Persamaan rekonstruksi pada masing-masing
tingkatan dapat ditulis sebagai berikut :
[ ] [ ] [ ] [ ] [ ]( )∑ +−++−=k
rendahtinggi kngkyknhkynx 22
30
Dekomposisi pada citra menghasilkan informasi rentang frekuensi yang berbeda
yaitu LL, frekuensi rendah-rendah (low-low frequency), LH, frekuensi rendah-tinggi
(low-high frequency), HL, frekuensi tinggi-rendah (high-low frequency), dah HH,
frekuensi tinggi-tinggi (high-high frequency). Rentang frekuensi LL merupakan rentang
taksiran penskalaan, sedangkan rentang frekuensi LH, HL dan HH merupakan rentang
frekuensi detil informasi.
Gambar 2.4 Skala 2-Dimensi Transformasi Wavelet Diskrit
Sumber : Chan Pik-Wah (Digital Video Watermarking Techniques for Secure
Multimedia Creation and Delivery, The Chinese University of Hongkong, 2004)
Transformasi Wavelet Diskrit ini sering dipilih karena beberapa alasan, yaitu :
• TWD merupakan yang paling dekat dengan HVS (Human Visual System).
• Distorsi yang disebabkan oleh domain wavelet dalam perbandingan kompresi
tinggi tidak terlalu mengganggu dibandingkan domain lain dalam bit rate yang
sama.
• Bit-error rate yang rendah. Bit-error rate merupakan perbandingan antara bit
yang salah diekstraksi dengan total bit yang disisipkan.
31
Pada transformasi wavelet diskrit, parameter geser dan skalanya bersifat diskrit.
Dibandingkan dengan TWK, transformasi wavelet diskrit (TWD) dianggap relatif lebih
mudah pengimplementasiannya.
Berkat operasi sub-sampling yang menghilangkan informasi sinyal yang
berlebihan, transformasi wavelet telah menjadi salah satu metode kompresi data yang
paling handal. Biro Investigasi Federal (FBI) Amerika Serikat menggunakan metode ini
dalam proses kompresi data sidik jari mereka.
2.3.3.3 Dual Tree Complex Wavelet Transfrom (DTCWT)
Transformasi complex wavelet (CWT) adalah sebuah perluasan nilai variabel
kompleks dari transformasi wavelet diskrit (TWD) standar. Transformasi wavelet
complex dalam sebuah signal menggunakan dua pohon yang terpisah dari filter riil TWD
di mana operasinya secara pararel untuk menghasilkan bagian riil dan imajiner dari filter
kompleks. Hal itu berarti bahwa jumlah dari koefisien pada output pada CWT adalah
dua kali lipat dibandingkan dengan jumlah dari koefisien TWD. Penggandaan dari CWT
adalah 2:1 untuk signal satu dimensi dan 4:1 untuk sinyal dua dimensi.
TWD memiliki beberapa kekurangan yaitu pada shift invariance, yang berarti
bahwa pergeseran kecil dalam signal inputan dapat menyebabkan variasi yang besar
dalam distribusi energy antara koefisien transformasi wavelet pada skala yang berbeda.
Masalah ini disebabkan oleh aliasing yang dilakukan karena subsampling pada setiap
level wavelet. Kekurangan yang lainnya adalah buruk dalam directional selectivity untuk
feature diagonal. TWD dua dimensi mendekomposisi gambar dengan arah horizontal
32
(00), HL, vertikal (900) atau LH dan diagonal (±450) atau HH. TWD tidak dapat
membedakan antara dua arah diagonal yang berlawanan (±750).
Tahun 1998, Kingsbury (Kingsbury, 1998) telah menemukan transformasi yang
berbasis Complex-Wavelet (CWT) yaitu dual tree complex wavelet transform (DTCWT)
yang memiliki beberapa kelebihan yaitu :
• Bagus dalam shift invariance.
• Bagus dalam directional selectivity.
• Memiliki redundansi yang sangat sedikit (2:1 m untuk m-dimensi signal).
• Memiliki algoritma perhitungan yang sedikit.
Transformasi adalah sebuah variasi dari implementasi TWD, tetapi perbedaan
utamanya yaitu bahwa DTCWT menggunakan dua filter tree seperti yang ditunjukkan
oleh gambar 2.6 (Corio et al, 2007)
Gambar 2.5 Struktur 2 Filter Tree DT CWT
Sumber : Corio et al (2007)
33
2.4 Evaluasi Kualitas Retrival
Suatu metode retrival dikatakan berhasil jika mengandung kesalahan sesedikit
mungkin. Tingkat kesalahan dilihat dari akurasi retrival yang diihitung dengan cara :
%100 output citrajumlah
retriva di berhasi yang citra akurasi x=
Selain akurasi, retrival juga harus bersifat reliable, artinya nilai akurasi yang
diberikan sama untuk setiap kasus.
Dalam percobaan ini, citra dibagi dalam beberapa kelompok yang berisi n-citra.
Setiap kelompok dilakukan retrival dan dihitung akurasi per-kelompoknya.
Foto 1 2 3 4 5 Akurasi 1 R T R R R 20 % 2 R R T R R 80 % 3 R R R R R 100 % 4 R T R T T 40 % 5 R R T T R 60 %
Tabel 2.1 Contoh urutan hasil retrival
Misalkan setiap kelompok terdiri dari 5 citra, maka nilai reliabilitas dihitung
sebagai berikut :
Kelompok Akurasi 1 60 % 2 80 % 3 60 % 4 40 % 5 60 % Rata-rata akurasi : 60 %
Tabel 2.2 Contoh perhitungan akurasi
Tingkat reliabilitas dikatakan tinggi jika tiap kelompok menunjukkan tingkat
akurasi yang kurang lebih sama. Semakin dekat atau semakin kecil jarak akurasi satu
kelompok dengan kelompok lainnya, semakin tinggi nilai reliabilitasnya.
R : citra yang relevan
T : citra yang tidak relevan
34
Reliabilitas menunjukkan tingkat konsistensi metode retrival, tetapi tidak
menjamin keakuratannya. Misalnya, akurasi pada lima kelompok menunjukkan angka
40 %, nilai reliabilitasnya dikatakan tinggi, tetapi nilai akurasinya rendah, sehingga
dibutuhkan keakuratan yang baik sekaligus reliabilitas tinggi untuk mendapatkan nilai
yang valid.