LANDASAN TEORI

11 downloads 168 Views 493KB Size Report
Syllogic yang berikutnya adalah mengatur relasi antara tabel-tabel database ..... Rekurensi ini membuat metode Runge-Kutta efisien untuk dihitung dengan ...
11

BAB 2

LANDASAN TEORI

2.1 Database Database adalah kumpulan data-data. Dewasa ini istilah tersebut cenderung digunakan pada seputar sistem-sistem yang terkomputerisasi. Kartu-kartu lama yang dulu digunakan dalam menggolongkan dan mencari buku di perpustakaan merupakan satu contoh untuk database yang tidak terkomputerisasi. Perbedaan yang dibuat oleh komputer pada database ’tampaknya’ sederhana saja. Komputer membuat proses akses kedata lebih cepat. Hal itu berarti bahwa daripada harus menelusuri 50.000 lembar kartu di dalam ruangan perpustakaan selama tiga hari, sebuah komputer akan melakukan pekerjaan yang sama dalam waktu kurang dari satu detik. Dalam pengertian umum, database diartikan sebagai gabungan dari elemenelemen data yang berhubungan dan terorganisir. Database terbagi dalam beberapa kategori umum, sebagai berikut: •

Paper-based, merupakan database yang paling sederhana yang disimpan dalam bentuk kumpulan kertas dokumen yang terorganisasi.



Legacy mainframe, biasa dikenal dengan Database VSAM (Virtual Storage Access Method). Legacy Mainframe menggunakan kemampuan Mainframe untuk melakukan proses penyimpanan dan pengakesan data.



RDBMS (Relational Database Management System), merupakan sistem database untuk jumlah user yang besar dengan integritas data yang lebih baik. RDBMS memiliki kemampuan untuk menjaga integritas data. Oleh sebab itu

12 skripsi ini memakai sistem database ini. Struktur perintahnya disebut dengan SQL (Structured Query Language). •

Object-oriented Database, menggunakan sistem objek dalam penyimpanan data. Data disimpan bukan dalam bentuk tabel melainkan dalam bentuk objekobjek yang terpisah.



DBase, mengandung ISAM (Index Sequential Access Method) yang merupakan metode pengaksesan data secara berurutan yang memiliki index. Pada umumnya menggunakan file yang terpisah untuk setiap tabelnya. Contoh database yang menggunakan sistem ini adalah Dbase, Foxpro, Microsoft Access, Paradox.



SQL (Structured Query Language) merupakan suatu bahasa akses data atau sub-bahasa data dan dalam pengertian itu SQL merupakan bahasa yang sangat terbatas yang hanya mampu mengatur bagaimana tabel data dapat dimanipulasi. SQL terbagi menjadi dua komponen, yaitu DDL (Data Definition Language) yang mencakup perintah create, alter, dan drop. Yang kedua DML (Data Manipulation Language) yang mencakup perintah select, insert, delete, dan update.

OLTP (On-line Transaction Processing) OLTP (Online Transaction Processing) adalah suatu proses yang menyediakan mekanisme transaksi pada suatu database. Pada proses ini, design pada database harus bersifat cepat untuk transaction (insert, update, delete). Hal ini bisa didapat dengan cara menormalisasi tabel-tabel pada database.

13

Gambar 2.1 Proses OLTP Sumber: Thearling(1997, p25) Keuntungan dari normalisasi adalah mengurangi redundansi data yang terdapat pada tabel–tabel. Hal ini memungkinkan proses transaksi yang cepat, karena data yang perlu di-update pada tabel menjadi lebih sedikit. Proses pengupdate-an data-data nya pun bersifat real time situation. Dengan kata lain setiap kali ada data baru, yang bukan merupakan redudansi dari data yang pernah ada, akan di-update seketika. OLTP memungkinkan banyak pengguna mengakses sumber data yang sama pada saat yang bersamaan dan melaksanakan proses yang diperlukan. Sistem ini memungkinkan transaksi-transaksi dilaksanakan dalam database, pada saat proses bisnis berlangsung. Dalam proses OLTP menuju OLAP dibutuhkan sedikitnya dua proses normalisasi yakni DTS (Data Transformation System) dan proses data validation yang akan dijelaskan berikut ini.

14

Gambar 2.2 Tampilan Muka DTS Sumber: Vieira (2000, p86)

2.2.1 Data Transformation Services Perusahaan perlu untuk memusatkan data mereka guna mendukung dalam proses pengambilan keputusan. Data tersebut dapat disimpan dalam jumlah yang besar dalam bentuk angka-angka dari sumber yang berbeda. Barisan data yang ada di dalam sumber ini harus dapat di-reconciled dan diubah ke dalam beberapa kasus sebelum disimpan ke dalam data warehouse. Data transformation systems memindahkan data dari database OLTP ke data warehouse sesuai dengan tujuannya. Hal ini dilakukan ketika validasi, cleaning-up, konsolidasi, dan merubah data yang diperlukan (Vieira, Robert, 2000, p91).

15 2.2.2 Data Validation Sangatlah penting untuk melakukan validasi data sebelum data tersebut diambil dari database OLTP dan dikirimkan ke data warehouse. Jika data tersebut tidak valid, maka keutuhan dari analisis bisnis perlu dipertanyakan. Hal penting lainnya yang harus diperhatikan adalah ketika validasi data yang dilakukan berhubungan dengan area geografis (Vieira, et all, 2000, p92).

2.3 Data Warehouse Secara tradisional, gudang (warehouse) digunakan untuk menyimpan barangbarang dengan cara tertentu supaya dapat ditemukan, dikenali dan diambil kembali dengan cepat. Fungsi data warehouse hampir sama dengan gudang secara tradisional (www.techrepublic.com). Dalam sebuah organisasi, umumnya data disimpan dalam banyak database. Masing-masing database terpisah menurut sistemnya masing-masing dan tidak terintegrasi menjadi satu. Contohnya data untuk pemasaran, sales, payroll, dan sebagainya. Masing-masing database bersifat unik, dengan logical relationship antar satu dengan yang lainnya, akan tetapi tanpa physical relationship. Data warehouse digunakan untuk menggabungkan data ke pusat data dan menyusun untuk membuat analisis yang lebih mudah, sebab lebih sedikit dinormalisasi daripada database aplikasi tradisional. Data dari data warehouse harus dapat digunakan untuk menjawab permasalahan bisnis dari manajemen dan pengguna lainnya. Hal ini dapat diselesaikan dengan tools yang dinamakan OLAP (On-line Analytical Processing).

16 Data warehouse adalah sebagai subject-oriented, terintegrasi, tidak mudah berubah (konsisten), dan merupakan kumpulan data yang mendukung keputusan manajemen (Connolly dan Begg, 2002, p147). Data warehouse berbentuk data-data yang telah dikelompokkan menurut jenis dan karakteristik data yang sama. Pada data warehouse, database yang berisi (dalam mayoritas kasus) data-data historis perusahaan yang disimpan sedemikian rupa sehingga dapat membantu analisis. Data pada data warehouse dapat berasal dari relational database, text file, mau pun data source lain. Data-data pembentuk data warehouse ini diperoleh dari proses OLTP, dimana setiap peng-update-an atau manipulasi data akan disesuaikan kembali dengan data pada data warehouse. Pengambilan data dari OLTP dan penyimpanan di data warehouse biasa dideskripsikan sebagai proses ETL, yang merupakan kepanjangan dari Extract, Transform, and Loading. •

Extract adalah proses pengambilan data dari source ke staging area. Pada proses ini dilakukan bulk copy, yaitu penyalinan data secara langsung dari raw data (data asli atau mentah), tanpa melakukan proses manipulasi data. Tujuannya adalah agar proses ini berlangsung cepat dan tidak mengganggu proses transaction pada OLTP



Proses Transform data adalah proses manipulasi data pada staging area, sehingga data tersebut compatible dengan struktur data pada data warehouse



Proses Load adalah proses pemasukan data dari staging area ke data warehouse

17 Data pada data warehouse dirancang agar dapat diquery secara cepat. Pada OLTP, tabel-tabel biasanya terdapat dalam bentuk normal 3 (N-3). Sedangkan dalam data warehouse, tabel-tabel yang dipakai membentuk suatu star schema, yaitu gabungan antara sebuah fact table dan beberapa dimension table. Model ini akan menghasilkan query yang cepat. Tujuan utama data warehouse adalah memprovide data dari seluruh perusahaan ke suatu state dimana data tersebut dapat digunakan oleh user yang akan mengambil keputusan bisnis. Tidak akan ada redudansi data, dikarenakan sumber data berpusat pada satu data warehouse.

2.3.1 Karakteristik Data Warehouse Data warehouse biasanya dibangun untuk mendukung dan OLAP sehingga dirancang dengan beberapa karakteristik sebagai berikut (Vieira, 2000, p99). o

Consolidated dan Consistent data Di dalam data warehouse, data dikumpulkan dari berbagai sumber dan digabungkan serta dibuat secara konsisten dalam berbagai cara, termasuk dalam kaidah pemberian nama, ukuran, atribut-atribut fisik, dan semantik. Hal ini penting untuk business analysis, karena akses data warehouse menggunakan penggabungan data yang standar untuk proses pengambilan keputusan.

18 o

Subject-oriented data Data warehouse mengorganisir informasi bisnis yang penting dari sumber OLTP, sehingga dapat berguna untuk business analysis. Di dalam proses ini dibuang data yang tidak berguna dari tempat penyimpanan data.

o

Historical Data Tidak seperti sistem OLTP, data warehouse menyajikan data yang sudah lama. Dengan kata lain, ketika anda query data warehouse, anda menggunakan data lama yang telah lama dikumpulkan untuk sistem OLTP pada masa lalu. Data lama tersebut masih sangat berguna bagi perusahaan.

o

Read-only Data Setelah data dipindah ke data warehouse, maka data tersebut tidak dapat diganti, kecuali terjadi kesalahan dalam pemasukan data pertama kali. Data di dalam data warehouse tidak dapat di update karena menyajikan data lama yang tidak lagi dapat diganti. Menghapus, memasukkan, meng-update tidak diperbolehkan dalam data warehouse.

2.3.2 Keuntungan Data Warehouse Keberhasilan implementasi data warehouse dapat membawa keuntungan dalam perusahaan, antara lain: (Connolly dan Begg, 2002, p148)

o

Keuntungan potensial yang tinggi dalam investasi Suatu organisasi harus memilik sumber daya dalam jumlah besar untuk kesuksesan pengimplementasian data warehouse. Jumlah biaya yang

19 dikeluarkan besarnya bervariasi tergantung dari solusi teknis yang tersedia. Tetapi investasi dalam data warehouse ini memberikan keuntungan yang besar setelah pengimplementasiannya. Keuntungan yang kompetitif

o

Keuntungan

kompetitif

diperoleh

dengan

memungkinkan

para

pengambil keputusan untuk mengakses data yang diungkap dari data yang sebelumnya tidak tersedia, tidak diketahui, atau informasi yang tidak pernah dipakai, misalnya: pelanggan, trend, dan permintaan Peningkatan produktivitas pengambil keputusan suatu perusahaan

o

Data warehouse mengintegrasikan data dari berbagai sistem yang incompatible,

menjadi

informasi

yang

berarti.

Data

warehouse

memungkinkan para manajer untuk melakukan analisis yang lebih subtansial, akurat, dan konsisten.

2.3.3 Arsitektur Data Warehouse Arsitektur data warehouse berdasar pada sebuah server relational database management system yang berfungsi sebagai pusat penyimpanan data yang bersifat informatif. a.

Operational Data Sumber data untuk data warehouse disediakan dari: •

Mainframe data operasional disimpan dalam generasi pertama hirarki database dan database jaringan.

20 •

Data–data antar bagian departemen yang tersimpan dalam beraneka ragam sistem proprietary file sistem.

b.



Data internal yang tersimpan di workstation dan private server.



Data yang berasal dari sistem-sistem eksternal. Operational Datastore Operational Datastore (ODS) adalah tempat penyimpanan data operasional terkini dan terintegrasi yang digunakan untuk analisa. ODS sering terstruktur dan datanya disediakan dengan cara yang sama seperti pada data warehouse.

c.

Load Manager Load manager melaksanakan semua operasi yang berhubungan dengan ekstraksi dan pemuatan data ke dalam data warehouse. Data diperoleh langsung dari sumber data atau dari operational datastore. Load manager juga melakukan transformasi data sederhana untuk mempersiapkan data sebelum masuk ke dalam data warehouse.

d.

Warehouse Manager Warehouse manager melaksanakan semua operasi yang berhubungan dengan manajemen data dalam data warehouse. Operasi-operasi yang dilaksanakan oleh warehouse manager meliputi hal-hal sebagai berikut. •

Analisis data untuk memastikan konsistensinya



Transformasi dan penggabungan sumber data dari tempat penyimpanan sementara ke dalam tabel-tabel data warehouse



Pembuatan index dan view pada tabel-tabel dasar

21

e.



Generate denormalisasi (jika diperlukan)



Generate Aggregation (jika diperlukan)



Back-up dan archieve data

Query Manager Query Manager (juga disebut komponen back-end) melaksanakan semua operasi yang berhubungan dengan manajemen dari query user. Komponen ini dibuat dengan tool data akses end-user, tool pengawasan data warehouse, fasilitas database, dan program yang dibuat sendiri.

f.

Detailied Data Pada bagian ini merupakan tempat data warehouse menyimpan semua rincian data dalam skema database, yang bertujuan untuk melengkapkan kumpulan data untuk data warehouse.

g.

Lighty dan Highly summarized Data Bagian data warehouse ini menyimpan semua rangkuman data yang dihasilkan oleh warehouse manager. Tujuan dari rekapitulasi informasi baik Lightly dan Highly Summarized Data ini adalah untuk mempercepat kinerja query.

h.

Archive/Backup Data Bagian data warehouse ini menyimpan detailed data dan rekapitulasi data untuk tujuan archive dan backup.

22 i.

Meta-Data Bagian data warehouse ini digunakan untuk menyimpan seluruh definisi meta-data (data tentang data) yang digunakan oleh seluruh proses di dalam proses data warehouse.

j.

End-user Access Tools Tujuan utama dari data warehouse adalah menyediakan informasi kepada user untuk mendukung pengambilan keputusan. User akan berinteraksi dengan data warehouse menggunakan tools akses end-user.

2.3.4 Data Marts Beberapa impelementasi data warehouse, yakni data marts merupakan minitatur dari data warehouse. Data marts merupakan suatu sub-himpunan dari data warehouse yang dapat mendukung persyaratan sebuah departemen atau organisasi/perusahaan. Beberapa karakterisitik yang membedakan data marts dengan data warehouse, antara lain sebagai berikut. •

Data marts hanya difokuskan pada keperluan pengguna yang berhubungan dengan satu departemen atau satu fungsi bisnis.



Data marts biasanya tidak berisi rincian operational data, berbeda dengan data warehouse.

23 •

Data marts hanya berisi data yang lebih sedikit dibandingkan dengan data warehouse, sehingga data marts lebih mudah untuk dimengerti dan dijalankan (Connolly dan Begg, 2002, p167).

2.3.5 Meta-data dan Repository Meta-data dapat diartikan sebagai data tentang data. Dengan kata lain, informasi tentang cara penyimpanan data yang telah distruktur dalam data warehouse, OLAP, dan DTS, yang semua ini disimpan sebagai meta-data, di mana meta-data ini disimpan di dalam Microsoft Repository. Repository dibangun untuk mengatur informasi teknis tentang sumber data warehouse, OLAP, dan DTS. Informasi repository disimpan secara default di dalam SQL server database (Vieira, Roberts, 2000, p93).

Penjelasan Penggunaan Meta-data Data warehouse Æ Data mart Æ Meta-data Æ OLAP Cube Æ Model data mining. Meta data didapat setelah data mart telah dipilih dan diambil dalam data warehouse, dan data mart tersebut dipecah-pecah. Maksudnya adalah untuk data mart tersebut dibuat tabel-tabel sesuai dengan kebutuhan yang akan digunakan dalam pembuatan data mining. Jadi meta-data adalah pecahan dari data mart dimana tabel-tabel tersebut (dimension table) digunakan dalam pembuatan kubus (cube), yang akhirnya digunakan untuk pembuatan model data mining. Dalam meta-data terdapat penjelasan mengenai record mana yang ditunjuk sebagai primary key dan record mana yang ditunjuk sebagai foreign key. Dalam proses pembuatan star schema dan snowflake schema, bila terjadi proses

24 penghubungan antar dimension table, maka proses penghubungan tabel tersebut harus memperhatikan record-record mana yang dapat saling dihubungkan, terutama pada record yang berperan sebagai primary key ataupun foreign key. Jadi meta-data tersebut digunakan untuk pembuatan cube, karena fungsinya sebagai tabel dimensi yang menjelaskan tabel fakta. Meta-data baru dapat dilihat hasilnya dalam bentuk OLAP cube di mana tabel-tabel tersebut disajikan dalam bentuk kesimpulan dan penjumlahan data dari kubus yang dibentuk dari tabel-tabel dimensi lain dan tabel fakta yang saling terhubung.

2.3.6 Perancangan Database Data Warehouse Dalam merancang sebuah database sangatlah kompleks. Untuk memulai proyek data warehouse, pertama-tama diidentifikasian dan dikumpulkan kebutuhan pengguna. Pengidentifikasian tersebut dilakukan dengan mewawancarai para pengguna, mempelajari kebutuhan mereka dan menemukan informasi apa yang diperlukan untuk mendukung kesuksesan bisnis mereka. Setelah itu ditentukan sumber data mana yang akan dipakai dalam data warehouse. Kemudian dilakukan perancangan terhadap data-data tersebut untuk menghasilkan informasi yang dapat mendukung dalam pengambilan keputusan bisnis. Dengan identifikasi kebutuhan pengguna dan sumber data yang akan digunakan, barulah proses perancangan database data warehouse dimulai. Komponen database dalam sebuah data warehouse digambarkan dengan menggunakan sebuah teknik yang disebut model dimensional (Connolly dan Begg, 2002, p178).

25 2.3.7 Dimensional Database Solusi masalah query yang kompleks dari sistem OLTP adalah dengan membuat database terpisah yang menampilkan fakta-fakta bisnis yang lebih akurat. Struktur dari database ini tidak relasional, sebaliknya bersifat dimensional (Vieira, 2000, p396).

A.

Fact Table Tabel utama dari dimensional database disebut fact table. Barisnya

merupakan fakta dan merupakan ukuran aktivitas. Sebagai contoh, adalah pembuatan fact table penjualan yang mencatat transaksi penjualan produk setiap harinya. Tabel penjualan meliputi fakta-fakta kegiatan bisnis. Kuantitas dan total harga merupakan ukuran fakta dalam fact table, seperti halnya dalam relational database (Vieira, 2000, p396).

B.

Dimensional Tables Dimension tables membantu menempatkan fakta-fakta dalam

konteks dan menampilkannya, misalnya waktu, produk, pelanggan dan lokasi. Dimension menjelaskan data dalam fact table. Tabel-tabel yang berhubungan dalam fact table disebut dimension table dan masing-masing mewakili dimension. Dimension table digunakan untuk membuat aggregation dari fact table (Vieira, 2000, p396).

26 C.

Star and Snowflake Schemas Star schema merupakan fact table tunggal dengan sejumlah

dimension table yang terhubung langsung pada fact table tersebut. Star schema merupakan struktur logical yang menyaji satu tabel fakta yang berisikan data faktual di pusat, yang dikelilingi oleh tabel dimensi yang berisikan data referensi (data yang dapat didenormalisasikan) (Connolly dan Begg, 2002, p479 - 480).

Gambar 2.3 Star Schemas Sumber: Berson(1999,p253) Sedangkan snowflake schema merupakan variasi dari star schema di mana tabel-tabel dimensi tidak berisikan data denormalisasi (Connolly dan Begg, 2002, p180 - 181). Suatu skema disebut snowflake schema jika satu atau lebih tabel dimensi tidak berhubungan langsung dengan fact table, melainkan pada dimension table. Berbagai tabel menjelaskan satu atau beberapa dimension (Vieira, 2000, p297).

27 D.

Data Cube OLAP database digunakan sebagai dasar untuk membuat OLAP

cubes. OLAP cubes adalah struktur yang menyimpan data aggregation dari OLAP database dengan menggabungkan semua nilai dimensi yang memungkinkan dengan fakta-fakta dalam fact table. Dengan demikian, pembuatan laporan akhir menjadi lebih efisien karena tidak ada query kompleks yang dievaluasi pada saat run time. Dimension dari cube menggambarkan dimensi dari fact table. Setiap cell pada cube menggambarkan sebuah fakta yang berhubungan dengan tingkat kerincian tiap dimensi pada cube. Walaupun representasi grafis sebuah cube hanya dapat menampilkan tiga dimensi, namun sebuah data cube dapat menampilkan hingga 64 dimensi ketika menggunakan analysis services. Analysis services memungkinkan dibuat sebuah cube dari sumber data yang memiliki OLE DB provider. Sumber ini dapat berupa sebuah database relasional dari DBMS yang memiliki ODBC driver, seperti Oracle atau Sybase SQL server, atau Microsoft Access. Sumber data untuk cube dapat juga berasal dari dimensional database, file teks, atau LDAP data source (Vieira, 2000, p397-p398).

28

Gambar 2.4 Data Cube Sumber: Kimball(1998, p569)

2.3.8 OLAP (On-line Analytical Processing) OLAP (On-line Analytical Processing) merupakan suatu istilah yang menggambarkan suatu teknologi yang menggunakan gambaran multidimensi dari sejumlah data untuk menyediakan atau memberikan akses yang lebih cepat dan analisis lebih cepat untuk strategi informasi (Connolly dan Begg, 2002, p111). OLAP juga merupakan suatu proses mekanisme untuk menganalisis data dengan menyediakan definisi, proses, dan pengiriman suatu objek analisis. Jika data warehouse adalah media penyimpanan data dari suatu perusahaan, maka OLAP adalah cara user untuk mengakses data tersebut.

29 OLAP bersifat natural dan intuitif, sehingga memberikan navigasi dan pengertian yang lebih baik akan data. Solusi OLAP yang baik harus memenuhi FASMI, yakni •

Fast



Analysis



Shared



Multi-dimensional



Information

Berdasarkan arsitektur database, kategori OLAP tools dibagi tiga sebagai berikut. 1.

Multi-Dimensional OLAP ( MOLAP) MOLAP tools menggunakan struktur data khusus dan multi-dimensional

database management systems (MDDBMS) untuk mengatur, navigasi, dan analisis data. Struktur data MOLAP menggunakan teknologi array dan teknik penyimpanan yang efisien sehingga meminimalkan tempat penyimpanan melalui manajemen data renggang. MOLAP tools menyediakan kinerja yang baik jika data digunakan sesuai dengan yang dirancang dan berfokus pada data untuk aplikasi pengambilan keputusan yang spesifik (Connolly dan Begg, 2002, p111). Kelebihan

MOLAP

antara

lain

adalah

sebagai

berikut

(www.ITtoolbox.com). •

MOLAP cubes dibuat untuk retrieval data yang cepat dan optimal

untuk memecah operasi-operasi

30 •

Dapat melaksanakan perhitungan yang kompleks, karena semua

perhitungan telah digenerasi sebelumnya ketika cube dibuat •

Managed Query Environment (MQE)

MQE menyediakan kemampuan analisis yang terbatas, baik terhadap produk RDBMS langsung maupun menggunakan server MOLAP intermediate. MQE tools mengantarkan data yang terpilih langung dari DBMS atau melalui server MOLAP ke local server dalam bentuk data cube. Data tersebut disimpan, dianalisis, dan dipelihara secara lokal (Connolly dan Begg, 2002, p111).

Kekurangan MOLAP antara lain adalah sebagai berikut. •

Jumlah data

yang dapat ditangani terbatas. Karena semua

perhitungan dilaksanakan ketika cube dibuat, maka tidak mungkin untuk memasukan sejumlah besar data ke dalam cube tersebut. Namun bukan berarti data yang ada dalam cube tidak dapat berasal dari data yang besar, akan tetapi untuk kasus ini hanya informasi pada summary-level yang akan dimasukkan kedalam cube tersebut. •

Memerlukan

biaya

investasi

tambahan.

Untuk

mengadopsi

teknologi MOLAP, memerlukan tambahan tenaga kerja dan tambahan modal, karena diperlukan transfer data dan implementasi terhadap karakteristik bisnis yang ada.

31 2. Relational OLAP (ROLAP) ROLAP merupakan teknologi OLAP yang pertumbuhannya paling cepat. ROLAP mendukung produk RDBMS melalui penggunaan layer meta-data, dengan menghindarkan kebutuhan pembuatan struktur data multi-dimensional statis (Connolly dan Begg, 2002, p161).

Kelebihan

ROLAP

antara

lain

adalah

sebagai

berikut

(www.ITtoolbox.com). •

Dapat menangani jumlah data yang besar. Batas ukuran data pada

teknologi ROLAP adalah batasan pada ukuran data database relasionalnya. Dengan kata lain, ROLAP sendiri tidak membatasi jumlah datanya. •

Dapat mempengaruhi kemampuan fungsional yang melekat pada

database relasional. Biasanya database relasional telah memiliki fungsi awal. Karena teknologi ROLAP berada di atas database relasional, maka fungsi-fungsi tersebut dapat terpengaruhi.

Kekurangan ROLAP antara lain adalah sebagai berikut. •

Kinerja dapat menjadi lambat. Karena setiap ROLAP report

menggunakan SQL query pada database relasionalnya, maka waktu query dapat menjadi lebih lama bila ukuran datanya besar. •

Dibatasi oleh fungsionalitas SQL. Teknologi ROLAP bergantung

pada pembuatan sintaks SQL untuk query database relasional. Tidak

32 semua kebutuhan cocok menggunakan sintaks SQL, sehingga teknologi ROLAP hanya terbatas pada apa yang dapat dilakukan SQL.

3. Hybird OLAP (HOLAP) Teknologi HOLAP mencoba menggabungkan kelebihan yang ada pada MOLAP dan ROLAP. Untuk informasi summary-type. HOLAP menyesuaikan teknologi cube untuk kinerja yang lebih cepat. Ketika informasi yang mendetail diperlukan, HOLAP dapat melakukan “drill through” dari cube ke dalam data relasionalnya (www.ITtoolbox.com). .syngress.com

2.4 Data Mining 2.4.1 Definisi Data Mining Menurut arti kata secara harafiahnya data mining berarti menambang data atau informasi. Informasi tersebut haruslah bersifat value-able atau mempunyai arti bagi perusahaan dan memberikan keuntungan. Secara makro, algoritma data mining adalah bagian dari KDD (Knowledge Discovery in Database). Data mining tidak spesifik untuk tiap industri. Data mining menyediakan teknologi yang pintar dan kemampuan untuk menjelajahi kemungkinan informasi atau pengetahuan yang tersimpan di sebuah data (Berson, Alex, 1999, p33). Data mining merupakan perkembangan proses setelah proses data warehouse. Perbedaan mendasar antara data mining dengan data warehouse atau pun data analysis adalah data mining mengambil sumber-sumber data yang hendak diolah dari data warehouse. Data tersebut kemudian akan di analisis lebih lanjut untuk mendapatkan informasi valueable (Comaford, 1997). Salah satu kegunaan

33 data mining adalah prosesnya dapat digunakan untuk menemukan pola yang bernilai dan relationship yang tersembunyi dalam database yang sangat besar. Oleh karena pencarian menggunakan tabel dan record sangat jarang menemukan pola yang berguna, maka data biasanya dianalisa secara otomatisasi (Adriaans dan Zantinge 1996, p5). Data mining adalah pengembangan manual ilmu statistik dengan sedikit artificial intelligence; seperti sebuah mesin yang mempelajari data untuk mengatasi masalah dengan menghasilkan informasi yang tidak kelihatan atau tidak disadari oleh pengguna informasi tersebut (Thearling,Kurt, 1997). Pada dasarnya data mining menyangkut analisis data dan penggunaan teknik-teknik dalam menemukan pola dan keteraturan kumpulan data. Pada proses data mining, komputerlah yang bertanggung jawab untuk menemukan pola dengan identifikasi rules dan features dalam data. Idenya adalah menemukan “emas” di tempat yang tidak terduga. Data mining menggali pola-pola yang tidak terlihat sebelumnya atau yang tidak disadari sebelumnya (www.pcc.qub.ac.uk).

34

Gambar 2.5 Konseptual Data Mining Sumber: www.languistics.com Data mining adalah proses penemuan korelasi baru, pola dan trend yang bermanfaat dengan menggali sejumlah besar kumpulan data yang tersimpan dalam data warehouse (Berson, 1999, p33).

35 Data mining berarti pencarian secara otomatis bentuk-bentuk yang relevan dari sebuah database. Berikut ini adalah beberapa contoh aplikasi dari teknik algoritma data mining pada dunia bisnis dan industri. •

MineSet adalah sebuah software data mining pada dua perusahaan asuransi yakni Risk Monitors Inc, dan Silicon Graphics, Inc. Software ini bertugas untuk mendapatkan nilai atau bobot dari seorang customer yang hendak bertransaksi, seperti meminjam uang, mengadakan

proses

kontrak

bisnis

dan

lain-lain.

MineSet

menggunakan model matematika berdasarkan Naive-Bayes model. •

Syllogic adalah sebuah software data mining yang diterapkan pada database sebuah bank di Inggris. Tiga tugas pokoknya adalah memetakan semua profile masing-masing customer bank, dan menghitung bobot agar dapat dipetakan menjadi tiga jenis customer yakni loyal customer, mid customer dan pasive customer. Tugas Syllogic yang berikutnya adalah mengatur relasi antara tabel-tabel database sehingga migrasi data untuk keperluan proses sehari-hari tidak begitu rumit. Akibatnya proses mendapatkan informasi dapat dilakukan secara cepat dan tepat. Dari ketiga tugas utama tersebut, kemudian software ini dikembangkan oleh A&Z Company untuk meningkatkan jumlah penjualan produk-produk banking kepada customer mereka. Caranya adalah melalui teknik cross selling. Setelah dihitung secara perbandingan, maka diperoleh peningkatan penjualan setelah diterapkannya data mining adalah 78 %.

36 2.4.2 Tahapan Data Mining Istilah data mining sering kali digunakan secara bergantian untuk menjelaskan proses penggalian informasi tersembunyi dalam suatu database yang besar. Data mining adalah suatu rangkaian proses. Data mining dapat dibagi menjadi beberapa tahap sebagai berikut. •

Data selection Pemilihan (seleksi) data baru sekumpulan data operasional perlu dilakukan sebelum tahap penggalian informasi dalam data mining dimulai. Data hasil seleksi yang akan digunakan untuk proses data mining, disimpan dalam suatu berkas; terpisah dari database operasional.



Pre-processing Cleaning Sebelum proses data mining dapat dilaksanakan, perlu dilakukan proses cleaning pada data yang menjadi fokus data mining. Proses cleaning mencakup antara lain membuang duplikasi data, memeriksa data yang tidak konsisten, dan memperbaiki kesalahan pada data, seperti juga kesalahan cetak (tipografi). Juga dilakukan proses enrichment, yaitu proses “memperkaya” data yang sudah ada dengan data atau informasi lain yang relevan dan diperlukan untuk data mining, seperti data atau informasi eksternal.



Tranformation Coding adalah proses transformasi pada data yang telah dipilih, sehingga data tersebut sesuai untuk proses data mining. Proses coding dalam data mining merupakan proses kreatif dan sangat tergantung pada jenis atau pola informasi yang akan dicari dalam database.

37 •

Data mining Data mining adalah proses mencari pola atau informasi menarik dalam data terpilih dengan menggunakan teknik atau metode tertentu. Teknik, metode, atau algoritma dalam data mining sangat bervariasi. Pemilihan metode atau algoritma yang tepat sangat bergantung pada tujuan dan proses data mining secara keseluruhan.



Interpretation Evaluation Pola informasi yang dihasilkan dari proses data mining perlu ditampilkan dalam bentuk yang mudah dimengerti oleh pihak yang berkepentingan. Tahap ini merupakan bagian proses data mining yang disebut dengan interpretation. Tahap ini mencakup pemeriksaan apakah pola atau informasi yang ditemukan bertentangan dengan fakta atau hipotesis yang ada sebelumnya. Dalam proses data mining yang sesungguhnya, dapat saja terjadi iterasi atau pengulangan pada tahap-tahap tertentu. Seorang analis dapat saja kembali ke tahap sebelumnya pada proses data mining. Pada saat coding atau data mining misalnya, analis menyadari proses cleaning belum dilakukan dengan sempurna, atau mungkin saja analis menemukan data atau informasi baru untuk “memperkaya” data yang sudah ada Data mining mencakup keseluruhan proses pencarian pola atau informasi dalam database, dimulai dari pemilihan dan persiapan data sampai representasi pola yang ditemukan dalam bentuk yang mudah dimengerti oleh pihak yang berkepentingan (budi.insan.co.id).

38 2.4.3 Metode Data Mining Walaupun data mining adalah bagian kecil dari KDD, tetapi pada saat penerapannya, sangat dirasakan bahwa sembilan proses perencanaan dari KDD semuanya terkait jelas dan masuk ke dalam bagian proses data mining. Sebagai salah satu bagian dari sistem informasi, data mining meyediakan perencanaan, mulai dari ide hingga implementasi akhir. Komponen-komponen perencanan data mining adalah sebagai berikut (Goebel,Gruenwalds,1999). •

Analisis masalah berdasarkan tingkatan fakta yang ada dilapangan



Memilih atau membuat tabel-tabel data yang hendak dipelajari



Mengekstrak dan membersihkan data untuk kemudian diintegrasikan



Memvalidasi data, mengurangi redundansi dan kerusakan data



Membuat dan melatih model, namun tidak lupa membuat hipotesisnya



Query data



Memilih dan menerapkan teknik data mining yang tepat, sesuai dengan kondisi fakta yang berlaku di lapangan



Memprediksi hasil data mining tersebut, supaya gambarannya bisa diperoleh secara visual



Hasil data mining tersebut diuji kembali dalam berbagai kondisi, kemudian baru dilakukan proses pemeliharaan data mining atau maintance data mining’s software

Menurut Seidman, sebagai salah satu bagian dari sistem informasi, data mining menyediakan perancanaan, mulai dari ide dasar hingga implementasi akhir.

39 Komponen-komponen dari rencana data mining adalah sebagai berikut (Seidman, 2000, pp 9-11). 1.

Analisis masalah

2.

Mengekstrak dan membersihkan data

3.

Validasi data

4.

Membuat dan melatih model

5.

Membuat query model data untuk model data mining

6.

Pemeliharaan model data mining

1.

Analisis masalah Data sumber harus dianalisis, apakah layak untuk dijadikan data mining atau

tidak. Kualitas dan kelimpahan data adalah faktor utama untuk memutuskan apakah data tersebut cocok. Sebagai tambahan, proses data mining harus dilakukan dengan hati-hati dan dipastikan bahwa data tersebut mengandung jenis informasi yang tepat dan dapat diekstrak. 2.

Mengekstrak dan membersihkan data Data pertama kali diekstrak dari data aslinya seperti OLTP Database, text

file, Microsoft Access database, dan bahkan spreadsheet. Kemudian data tersebut diletakkan dalam data warehouse yang mempunyai struktur model data yang kompatibel. Umumnya Data Transformation Services (DTS) dipakai untuk mengekstrak data dan membersihkan data yang tidak konsisten dan yang tidak kompatibel dengan format tertentu.

40 3.

Validasi Data Setelah data diekstrak dan dibersihkan, data tersebut ditelusuri kembali agar

data tersebut ada dan lengkap. 4.

Membuat dan melatih model Ketika algoritma diterapkan pada model, maka sebuah struktur dibangun.

Pada tahap ini sangat penting untuk memastikan bahwa data yang dibangun sesuai dengan fakta yang ada pada sumber. Hal ini tidak dapat dilakukan secara rinci, akan tetapi keanehan data yang serius dapat ditemukan dengan mudah pada model yang dibangun. 5.

Membuat query model data dari Data mining Ketika model yang tepat telah diciptakan dan dibangun, data tersebut siap

digunakan sebagai pendukung keputusan. Hal ini biasanya melibatkan penulisan aplikasi front end query dengan suatu program aplikasi atau suatu program database seperti SQL Server melalui OLE DB atau melalui data mining. 6.

Pemeliharaan model data mining Karakteristik data mining yang telah terisi harus terjaga validasinya, seperti

persediaan jumlah ikan pada toko ikan. Apabila terjadi suatu perubahan pada persediaan stok ikan tersebut maka perubahan tersebut haruslah dicatat (updated), sehingga data mining yang terbentuk akan menjadi lebih efektif.

2.4.4 Teknik Data Mining Dilihat dari sejarahnya data mining berasal dari gabungan berbagai cabang ilmu. Berbagai cabang ilmu tersebut meliputi matematika, statistika, dan teknik

41 informasi. Untuk klasifikasi, teknik data mining dikelompokkan menjadi vector machines, tingkat korelasi sederhana, regresi linier, regresi non linier, algoritma genetika, jaringan syaraf tiruan, dan sistem pengambilan keputusan berdasarkan model pohon pengambilan keputusan, serta pemodelan-pemodelan ilmu matematika dan statistika. Sampai saat ini para ilmuwan belum dapat mengelompokannya secara makro. Pohon pengambilan keputusan atau decision tree akan dijelaskan lebih lanjut pada bagian berikutnya. Contoh gambar pengambilan keputusan berdasarkan model pohon pengambilan keputusan adalah sebagai berikut.

Gambar 2.6 Pohon Pengambil Keputusan Perkembangan cabang-cabang ilmu tersebut mendorong perkembangan teknik-teknik data mining. Salah satu teknik, adalah Evolutionary Operations (EVOP,George B Dantzig,1947) yang terbagi antara algoritma metode simplex dan metode simplex M. Penerapan EVOP sudah dilakukan pada perusahaan farmasi di

42 beberapa negara eropa sejak tahun 1991. Perkembangan EVOP memunculkan metode baru yakni fungsi variable simplex berdasarkan skala proses produksi yang besar. Contohnya terlihat pada gambar berikut ini.

Gambar 2.7 Fungsi Variabel Simplex Skala Besar Seiring perkembangannya, teknik data mining disusun dan dirapikan secara keilmuan, lalu dihasilkanlah dua pembagian teknik mendasar (makro), yaitu teknik klasik (Classical Techniques) dan teknik generasi berikut (Next Generation). Teknik klasik terdiri dari teknik statistik, neighborhoods, dan clustering, sedangkan teknik generasi berikut terdiri dari decision trees, networks, dan rules.

A.

Teknik Klasik a) Statistik Statistik adalah salah satu cabang ilmu matematika mengenai

lokasi dan deskripsi data. Teknik statistik pada data mining adalah teknik

43 yang dikendalikan oleh data dan digunakan untuk menemukan pola-pola informasi dan membangun model-model prediktif. Salah satu hal terpenting tentang statistik adalah dalam hal representasi high-level view dari database yang ada, yang menyediakan informasi-informasi berguna tanpa mengharuskan setiap record dimengerti secara detail (Berson, 2000, p126). Salah satu cara terbaik dalam meringkas data adalah dengan menyediakan histogram data tersebut. Beberapa kategori yang paling sering digunakan untk meringkas data antara lain adalah sebagai berikut. •

Max, yaitu nilai maksimum dari predictor



Min, yaitu nilai minimum dari predictor.



Mean, yaitu nilai rata-rata dari predictor.



Median, yaitu nilai tengah dari predictor.



Modulus, yaitu nilai yang paling sering muncul dari predictor.



Variance, yaitu ukuran sebaran nilai rata-rata. b) Neighborhoods Nearest neighbor adalah suatu teknik prediksi yang hampir sama

seperti clustering. Teknik ini digunakan untuk memprediksi nilai prediksi dalam suatu record, mencari record lain yang mempunyai nilai prediksi yang mirip dalam database historik, dan menggunakan nilai prediksi dari record yang terdekat dengan record yang belum diklarifikasi (Berson, 2000, pp 134-139).

44 Teknik nearest neighbor adalah teknik data mining yang paling mudah digunakan dan dimengerti karena teknik ini bekerja seperti cara manusia berpikir, yaitu dengan mengenali contoh-contoh yang hampir sama. Teknik algoritma prediksi nearest neighbor dapat dinyatakan sebagai berikut. “Objek-objek yang saling berdekatan akan memiliki nilai prediksi yang hampir sama. Karena itu, jika diketahui nilai prediksi dari salah satu objek-objek tersebut, maka dapat memprediksi nilai objek yang paling dekat (nearest neighbor).” Aspek lain, yang juga penting pada sistem yang digunakan untuk prediksi, adalah pengguna tidak hanya diberikan prediksi, tetapi juga tingkat kepercayaan pada prediksi itu. Algoritma nearest neighbor menyediakan informasi dengan tingkat kepercayaan melalui berbagai cara. Jika “tetangganya” memiliki nilai yang sangat mirip atau sama persis, maka tingkat kepercayaannya akan lebih tinggi daripada jika “tetangga” terdekatnya memiliki nilai yang jauh. c) Clustering Clustering adalah suatu metode di mana record dikelompokkan bersama. Hal ini dilakukan untuk memberikan high-level view terhadap apa yang ada dalam database. Clustering kadang-kadang digunakan untuk membuat segmentasi pasar, yang sangat berguna bagi orang-orang pemasaran.

45 Cluster membangun seluruh record yang terdapat di dalamnya yang

memiliki

nilai

yang

sama

dari

predictor

tertentu

yang

dikelompokkan. Membentuk cluster yang homogen dengan nilai predictor yang sama sulit untuk dilakukan, jika terdapat banyak predictor dan atau predictor lain memiliki nilai yang berbeda (high cardinality). Cluster yang homogen dibentuk dan memecah cluster yang tidak homogen dipecah menjadi cluster yang lebih kecil dan homogen. Batasan penting dalam clustering adalah jumlah cluster secara logis dibentuk. Logis atau tidak logis ditetapkan oleh pengguna. Namun sulit untuk mengukur cluster yang tidak dapat diterima (terlalu generalisasi) dan banyak cluster dan record asli yang juga tidak diterima. Banyak algoritma clustering memperbolehkan pengguna untuk memilih jumlah kelompok yang ingin dibentuk dari database. Atau algoritma memperbolehkan pengguna membentuk sejumlah kelompok secara interaktif setelah clustering terbentuk (Berson, 2000, pp 139-146). B. Teknik Generasi Berikut a. Decision Tree Decision Tree adalah sebuah predictive model yang dapat dilihat sebagai tree. Masing masing cabang dari tree mengklasifikasikan pertanyaan dan daun dari tree merupakan bagian dari dataset dengan klasifikasinya.

Decision

Tree

mewakili

serangkaian

pertanyaan-

pertanyaan. Jika pertanyaan-pertanyaan tersebut dipilih sangat baik,

46 serangkaian pertanyaan pendek cukup untuk menggolongkan secara akurat sebuah record yang masuk. Decision tree merupakan tools yang paling bagus dan paling terkenal untuk klasifikasi dan prediksi. Pada metode berbasis tree, decision tree mewakili rules yang bertolak belakang dengan neural network. Algoritma untuk merancang decision tree bervariasi dan masingmasing memiliki ciri-ciri explicability. Dua algoritma yang paling sering digunakan adalah CART (Classification and Regression Trees) adalah suatu algoritma prediksi dan explorasi data, dikembangkan oleh Leo Breiman, Jerome Friedman, Richard Olshen, dan Charles Stone dan CHAID

(Chi-Square

Automatic

Interaction

Detector).

CHAID

menggunakan chi square test untuk menentukan predictor categorical mana yang lebih jauh dari independence dengan nilai yang diprediksi. Teknik-teknik tersebut menggunakan klasifikasi dan regresion trees serta deteksi interasi secara otomatis chi-squared. Algoritma yang lebih baru adalah C4.5 yang semakin terkenal (Berson, 2000,pp156-165). b. Neural Network Neural network merupakan teknik data mining yang paling umum. Neural network mempelajari dari training set dan membentuk suatu pola di dalamnya untuk klasifikasi dan prediksi. Keuntungan utama dari neural network adalah dapat diterapkan secara luas. Teknik ini sangat menarik

47 karena dapat mendeteksi pola data secara analog, sejalan dengan pikiran manusia; merupakan bagian penting untuk data mining tool. Neural network memiliki dua kekurangan utama. Pertama, sulit untuk mengerti model yang dihasilkan. Kedua, kadang-kadang sensitif terhadap format data yang masuk. Representasi data yang berbeda dapat menghasilkan hasil yang berbeda pula. Karena itu pengaturan data merupakan bagian yang sangat penting sebelum digunakannya (Berson, 2000,p167). c.

Rule Induction

Rule induction merupakan salah satu bentuk utama dari data mining dan mungkin bentuk paling umum dari knowledge discovery dalam unsupervise learning system. Teknik ini juga merupakan bentuk dari data mining yang paling mendekati proses berpikir sebagian besar orang berpikir mengenai data mining. Data mining adalah menggali emas melalui database besar. Emasnya dalam hal ini merupakan sebuah rule yang memberikan sesuatu mengenai database yang tidak diketahui dan mungkin tidak secara jelas dikemukakan. Rule induction di dalam database dapat menjadi usaha besar, di mana semua pola diambil dari data secara sistematis. Kemudian keakuratan dan kepentingan ditambahkan agar pengguna mengetahui seberapa kuat pola tersebut dan seberapa sering pola tersebut muncul kembali.

48 Rules yang diambil dari database digali dan dipesan untuk disajikan kepada pengguna, berdasarkan presentase kebenarannya dan seberapa sering dipergunakan. Kelemahan

rule

induction

ternyata

sekaligus

merupakan

kekuatannya juga. Teknik ini menghasilkan segala kemungkinan pola yang menarik dari database. Hal ini merupakan kekuatan karena tidak ada input yang lolos. Kelemahannya adalah pengguna dihadapkan pada rules dalam jumlah besar yang sulit untuk ditelusuri satu per satu (Berson, 2000,p183).

2.4.5 Penggunaan Data Mining Banyak perusahaan menggunakan data mining untuk keperluan sebagai berikut (Berson, 2000,p34). 1.

Discover Knowledge Tujuan dari penemuan adalah untuk menemukan korelasi, hubungan atau pola tersembunyi pada data yang tersimpan dalam database suatu perusahaan.

2.

Visualize Data Seorang analis harus dapat memvisualisasikan informasi yang besar yang tersimpan di dalam database. Tujuannya adalah mengurangi besar data yang harus ditangani dan menemukan cara yang jitu untuk menampilkannya.

49 3.

Correct Data Jika beberapa database digabungkan, sering terjadi ketidaklengkapan data yang terdiri dari informasi yang salah dan saling bertentangan. Teknik data mining dapat membantu mengidentifikasian dan memperbaiki kesalahan secara konsisten.

2.4.6 Kategori Data Mining Teknik data mining berhubungan dengan penemuan dan pembelajaran. Pembelajaran tersebut dapat dibagi menjadi tiga metode utama, yaitu supervised, unsupervised, dan reinforcement (Berson,2000, pp36-37). 1.

Supervised Teknik ini melibatkan tahap pelatihan di mana data lama yang telah dilatih tersebut memiliki characteristic map yang telah diketahui terlebih dahulu untuk diberikan pada algoritma data mining. Proses ini melatih algoritma untuk mengenali variabel dan nilai-nilai kunci yang kemudian menjadi dasar untuk membuat prediksi ketika membaca data baru.

2.

Unsupervised Tidak melibatkan tahap pelatihan, tetapi bergantung pada penggunaan algoritma yang mendeteksi semua bentuk seperti asosiasi dan rangkaian yang terjadi berdasarkan kriteria yang spesifik dalam memasukkan data. Pendekatan ini menghasilkan bentuk yang mempunyai banyak peraturan, yang menggolongkan penemuan asisiasi, cluster, dan segment. Peraturan ini kemudian akan menentukan pola secara universal.

50 3.

Reinforcement Walau pun jarang digunakan dibandingan metode lain, tetapi reinforcement memiliki aplikasi guna mengoptimalkan waktu dan penyesuaian kontrol. Metode ini sangat mirip dengan realita karena tidak menyediakan tindakan untuk melakukan koreksi dengan segera tetapi dapat digunakan untuk memecahkan sebagian masalah ketergantungan waktu yang sulit.

2.4.7

Karakteristik Data Mining tools Data mining tools di pasaran terus berkembang jumlahnya. Karakteristik

penting untuk data mining tools adalah ( Connolly dan Begg, 2002, pp112-113). •

Fasilitas persiapan data



Pilihan operasi data mining (algoritma)



Efektifitas dan efisiensi produk



Fasilitas untuk memvisualisasikan hasil

2.5 Pemasaran Pemasaran adalah proses sosial dan manajerial di mana individu dan kelompok memperoleh apa yang mereka butuhkan dan inginkan melalui penciptaan dan pertukaran produk serta nilai dengan pihak lain (Kotler dan Amstrong, 2003, p7). Untuk menerangkan definisi itu, akan dibahas istilah-istilah penting berikut ini. kebutuhan (needs), keinginan (wants), permintaan (demands), produk (products), jasa (services), nilai (value), kepuasan (satisfaction), kualitas (quality), pertukaran (exchange), transaksi (transaction), relasional (relationship) dan pasar (markets)

51 Konsep paling dasar yang mendasari pemasaran adalah kebutuhan manusia. Kebutuhan (needs) manusia adalah keadaan di mana manusia merasa kekurangan. Keinginan (wants) adalah bentuk kebutuhan manusia yang dibentuk oleh budaya dan kepribadian seseorang selaku individu. Permintaan (demand) adalah keinginan yang didukung oleh daya beli. Produk (product) adalah segala jenis barang yang dapat ditawarkan ke pasar untuk diperhatikan, dimiliki, digunakan, atau dikonsumsi agar dapat memuaskan kebutuhan atau keinginan itu. Produk mencakup objek fisik, jasa, orang, tempat, organisasi, dan ide (Kotler dan Amstrong, 2003, pp7-9). Jasa (services) adalah segala bagian aktivitas atau manfaat yang ditawarkan untuk dijual oleh suatu pihak, yang secara esensial tidak berwujud dan tidak menghasilkan kepemilikan apa pun. Nilai bagi pelanggan (customer value) adalah perbedaan antara nilai yang dinikmati pelanggan karena memiliki serta menggunakan suatu produk dengan biaya untuk memiliki produk tersebut (Kotler dan Amstrong, 2003, pp 8-9). Kepuasan pelanggan (customer satisfication) adalah tingkatan di mana anggapan kinerja (perceived performance) produk akan sesuai dengan harapan seorang pembeli. Bila kinerja produk jauh lebih rendah dibandingkan dengan harapan seorang pembeli, maka pembeli tidak merasa puas. Bila kinerja sesuai dengan harapan atau melebihi harapan, maka pembeli akan puas dan cenderung merasa gembira. Total Quality Management adalah program-program yang dirancang untuk melakukan perbaikan kualitas produk, jasa dan proses pemasaran secara terusmenerus. Transaksi (transaction) adalah perdagangan antara dua pihak yang

52 setidaknya mencakup barang yang bernilai, persyaratan yang disetujui, waktu persetujuan dan tempat persetujuan. Pemasaran relasional (relational marketing) adalah proses penciptaan, pemeliharaan, dan penguatan hubungan yang erat dan penuh nilai dengan pelanggan dan pemercaya lainnya. Pasar (market) adalah kumpulan pembeli yang aktual dan poitensial dari sebuah produk (Kotler dan Amstrong, 2003, p13). Manajemen pemasaran adalah analisis, perancanaan, implementasi dan pengendalian program yang dirancang untuk menciptakan, membangun, dan mempertahankan pertukaran yang menguntungkan dengan pembeli demi mencapai tujuan organisasi. Proses ini melibatkan lebih dari sekedar mendapat cukup pelanggan bagi output perusahaan. Pemasaran dalam waktu tertentu juga berurusan dengan perubahan atau bahkan pengurangan permintaan. Mengelola permintaan berarti mengelola pelanggan, lebih dari sekedar merancang strategi guna menarik konsumen baru dan menciptakan transaksi dengan mereka. Perusahaan sekarang ini berfokus pada mempertahankan pelanggan saat ini dan membangun hubungan jangka panjang melalui penawaran nilai dan kepuasan bagi pelanggan (Kotler dan Amstrong, 2003,p16). Dalam tiap-tiap unit bisnis, pemasaran memainkan peran dalam mencapai tujuan perusahaan secara keseluruhan. Konsumen menjadi sasaran utama, karena sisi penjualan adalah tulang punggung utama dan nafas dari perusahaan dan organisasi. Bauran pemasaran adalah perangkat alat pemasaran taktis yang dapat dikendalikan, yang dipadukan oleh perusahaan untuk menghasilkan tanggapan yang diinginkan dalam pasar sasaran. Bauran pemasaran terdiri dari segala sesuatu yang

53 dapat

dilakukan

perusahan

untuk

mempengaruhi

permintaan

produknya.

Kemungkinan yang banyak itu dapat digolongkan menjadi empat kelompok variabel yang dikenal sebagai “empat P” : product, price, place, dan promotion (Kotler dan Amstrong, 2003, pp74-78). •

Produk (Product) berarti kombinasi barang dan jasa yang ditawarkan

oleh perusahaan pada pasar sasaran. •

Harga (Price) adalah sejumlah uang yang harus dibayarkan oleh

pelanggan untuk memperoleh produk. Sering juga disebut nilai terukur suatu barang atau jasa. •

Distribusi (Distribution) adalah seluruh aktivitas perusahaan untuk

menyediakan produk bagi konsumen sasaran. •

Promosi (Media promotion) adalah aktivitas yang mengkomunikasikan

keunggulan produk dan membujuk pelanggan sasarannya untuk membeli produk yang ditawarkan.

2.6 Teknik Association Rule Association Rule atau induction rule yang ditemukan pada tahun 1993 adalah suatu teknik untuk melakukan proses pencarian seluruh kemungkinan pattern (pola informasi) yang ada. Pola ini diperoleh dari data-data yang diolah secara sistematik, kemudian nilai accuracy dan coverage ditambahkan sehingga tampak manfaat pola itu dan berapa sering pola tersebut berulang. Nilai accuracy dan coverage didapat dari proses yang disebut “road-map”. Proses ini terdiri atas beberapa proses rinci seperti dijabarkan di bawah ini.

54 •

Correlation dan Causality Analysis: proses mencari hubungan secara mendasar dan menjabarkan pola penyebab terjadinya suatu hubungan antara dua subjek yang secara mendasar dapat dipisahkan menurut fisik dan jenisnya.



Mapping Pattern dan Frequent Closed Item Set: secara mendasar data-data tersebut dipetakan menurut ilmu matematika dan statistika. Elemen-elemen keanggotaannya melingkupi max (titik tertinggi) dari suatu data, min (titik terendah), rentang dan jangkauan data, rata-rata nilai suatu data.



Constraint Sequential Pattern: menentukan batas-batasan nilai suatu data untuk kemudian ditambang (mining) supaya informasi yang didapat sesuai dengan apa yang dikehendaki sebelumnya.



Predict Periodic Patterns: pada tahap ini pencarian pola awal untuk meningkatkan keakuratan (accuracy) terhadap suatu informasi dilakukan. Polapola yang terlihat akan didata dan dianalisis.

Bentuk umum rule :

Di mana :

A⇒ B

A = antecedent B = consequent

Contoh penggunaan rule: •

Jika hari ini hujan, maka saya akan membawa payung



Jika saya membeli buku, maka saya akan membeli alat tulis

55 Statement menurut ilmu matematikanya adalah sebagai berikut. {X1,X2,........,Xn} => Y

yang artinya jika objek-objek X1,X2,...., Xn dapat dicari

atau ditentukan maka secara matematika Y juga dapat diketahui. Accuracy (confidence) adalah seberapa sering rule tersebut terjadi dibandingkan frekuensi terjadinya transaksi pembelian antecedent. Coverage (support) adalah seberapa sering rule tersebut terjadi dibandingkan dengan frekuensi transaksi total.

Accuracy / Confidence( A ⇒ B) =

Coverage / Support ( A ⇒ B) =

# _ tuples _ containing _ both _ A _ and _ B # _ tuples _ containing _ A

# _ tuples _ containing _ both _ A _ and _ B total _# _ of _ tuples

Accuracy rendah Coverage tinggi

Accuracy tinggi

Rule tidak sering akurat Rule namun

dapat

sering

akurat

dan

sering dapat sering digunakan

digunakan Coverage rendah

Rule tidak sering akurat dan Rule sering akurat tetapi tidak

dapat

sering tidak

digunakan Tabel 2.1 Evaluasi Rule

digunakan

dapat

sering

56 Salah satu keunikan teknik ini adalah kita dapat proses Customer retention, yaitu suatu proses menjaga keloyalitasan seorang customer. Dengan data mining, kita bisa menentukan apakah seorang customer cukup berharga untuk dipertahan sebagai customer, misalnya dengan memberi servis tambahan, agar dia tidak beralih ke kompetitor. Bahkan kita bisa mengklasifikasikan customer-customer tersebut menjadi bagian-bagian kecil, seperti loyal customer, mid customer, dan sebagainya. Sehingga perusahaan bisa melakukan “action” setelah mendapatkan report berupa informasi lengkap yang selama ini tidak diketahui.

2.7 Logika Apriori Logika apriori itu, akan diuraikan berikut ini. •

Jika (A, B, C) adalah sebuah set item yang besar, maka (A, B) adalah sebuah set item yang besar o P{A.B,C } < P{ A,B } o Jika (A, B) adalah set item yang kecil , maka (A, B, C) tidak dapat menjadi set item yang besar



Pertimbangkan (A, B, C) hanya jika semua subsetnya adalah set item yang besar. Jika ada transaksi pembelanjaan di mana seseorang berbelanja (susu bayi,

popok bayi, selai kacang) maka sudah pasti dapat disimpulkan bahwa daftar belanjanya mengandung (susu bayi, popok bayi). Dengan logika apriori didapat data dari toko atau supermarkets bahwa ternyata elemen (susu bayi, popok bayi) mempunyai frekuensi cukup tinggi dibeli bersamaan.

57 Jadi secara mendasar logika apriori dan teknik association rule adalah suatu pasangan teknik untuk mencapai tingkat akurasi data yang tinggi dan teknik pengolahan data yang tersusun secara sistematis dan dapat dipetakan secara algoritma komputasi (Agrawal,Srikant,1994). Algoritma apriori pada program aplikasi : 1. L1 = { large 1-itemsets }, k = 1 2. Pembentukan set kandidat Set kandidat Ck : set item besar ke-k yang potensial . {A, B, C} adalah set kandidat jika semua subsetnya {A, B}, {B, C} dan {A, C} adalah set item yang besar. Bentuk set kandidat Ck+1 menggunakan Lk 3. Scanning Memeriksa apakah set kandidat adalah benar-benar besar. 4. Tambahkan k dengan 1, dan ulangi langkah ke-2

2.8 Metode Runge-Kutta Kalau perhitungan dengan fungsi yang sesungguhnya menghasilkan solusi sejati, maka perhitungan dengan fungsi perkiraan menghasilkan solusi perkiraan. Solusi perkiraan merupakan pendekatan dari solusi sejati, perbedaan nilai antara solusi sejati dengan solusi perkiraan disebut error (galat). Error (galat) pada solusi perkiraan harus dihubungkan dengan seberapa teliti polinom menghampiri nilai fungsi yang sebenarnya. Karena polinom merupakan bentuk fungsi yang paling

58 umum dipahami. Deret yang digunakan untuk membuat polinom perkiraan adalah deret Taylor. Andaikan f dan semua turunannya f ' , f '' , f ''' ,....., menerus didalam selang [a,b],

X 0 ∈ [a, b],

misalkan

maka

untuk

nilai-nilai

X

disekitar

X 0 dan X ∈ [a, b], f ( x) dapat diekspansikan ke dalam deret Taylor : (X − X 0 ) ' ( X − X 0 ) 2 '' (X − X 0 )m m f (X0) + f ( X 0 ) + ...... + f ( X 0 ) + ..... 1! 2! m! Bentuk umum metode Euler untuk menyelesaikan persamaan diferensial f (X ) = f (X 0 ) +

biasa adalah.

φ = f (Xi, Yi)

; φ = increment function

Yi + 1 = Yi + f ( Xi, Yi) h

Metode Euler mempunyai kelemahan yakni nilai error yang besar apabila pada persamaan diferensial biasa menggunakan nilai h besar (sebanding dengan nilai h), maka dari itu dilakukan perbaikan guna mendapatkan nilai error yang lebih kecil. Perbaikan tersebut dilakukan pada metode Heun. Pada metode Heun, nilai solusi dari metode Euler dijadikan sebagai solusi perkiraan awal (predictor). Selanjutnya, solusi perkiraan awal ini diperbaiki dengan metode Heun (corrector). Bentuk umum metode Heun untuk menyelesaikan persamaan diferensial biasa adalah. Predictor: Yi + 1 = Yi + f ( Xi, Yi) h

Corrector :

Yi +1

f ( Xi , Yi ) + f ( Xi + 1, Yi 0 + 1) = Yi + h 2

Karena penyelesaian persamaan diferensial biasa dengan metode deret Taylor (metode Euler dan Heun) tidak praktis karena metode tersebut

59 membutuhkan perhitungan f(X,Y). Pada faktanya tidak semua fungsi mudah dihitung turunanya, terutama pada fungsi yang bentuknya rumit. Semakin tinggi orde metode deret Taylor, semakin tingi pula turunan fungsi yang harus dihitung. Karena permasalahan inilah metode Runge-Kutta digunakan untuk penyelesaian persamaan diferensial biasa. Metode ini tidak membutuhkan perhitungan turunan pada titik terpilih untuk mengevaluasi fungsi f(X,Y), sekaligus terbukti lebih akurat (nilai error kecil). Metode Runge-Kutta dapat secara teliti memberikan pendekatan deret Taylor (Taylor Series) tanpa memerlukan kalkulasi turunan yang lebih tinggi. Banyak perubahan terjadi, tetapi semuanya dapat ditampung dalam bentuk umum dari persamaan (2.8). Yi +1 = Yi + φ ( X i , Yi , h)h dimana

φ ( X i , Yi , h)h

disebut suatu fungsi increment yang dapat

diinterpretasikan sebagai slope rata-rata sepanjang interval. Fungsi increment dapat ditulis dalam bentuk umum sebagai berikut.

φ = a1 k1 + a 2 k 2 + ......... + a n k n dimana setiap a adalah konstanta dan setiap k besarnya adalah sebagai berikut. k1 = f ( X i , Yi ) k 2 = f ( X i + p1 h1Y 1+ q1 k1 h) dan seterusnya sehingga menjadi dapat disimpulkan: k n = f ( X i + p n −1 h1Y i+ q n −1 , k1 h + q n −1 , k 2 h + ......... + q n −1 , n −1 , k n −1 h)

60 Perhatikan bahwa semua harga k berhubungan secara rekursif. Artinya, k1 muncul dalam persamaan untuk k 2 , yang muncul lagi dalam persamaan berikutnya dan seterusnya. Rekurensi ini membuat metode Runge-Kutta efisien untuk dihitung dengan komputer. Berbagai jenis metode Runge-Kutta dapat direncanakan dengan melaksanakan jumlah suku-suku yang berbeda pada fungsi increment seperti dinyatakan oleh n . Metode Runge-Kutta Orde Satu

Metode Runge-Kutta orde satu berbentuk k1 = hf ( X i , Yi ) Yi +1 = Yi + (a1 k1 ) Galat langkah metode Runge-Kutta orde satu adalah O(h 2 ) dan Galat longgokan metode Runge-Kutta orde satu adalah O(h) . Yang termasuk ke dalam metode Runge-Kutta orde satu ialah metode Euler: k1 = hf ( X i , Yi ) Yi +1 = Yi + (k1 )

(dalam hal ini a1 = 1)

Metode Runge-Kutta Orde Dua

Metode Runge-Kutta orde dua berbentuk: k1 = hf ( X i , Yi ) k 2 = hf ( X i + p1 h,Y i+ q11 k1 ) Yi +1 = Yi + (a1 k1 + a 2 k 2 ) Galat langkah metode Runge-Kutta orde dua adalah O(h 3 ) dan

61 Galat longgokan metode Runge-Kutta orde satu adalah O(h 2 ) . Metode Runge-Kutta Orde Tiga

Metode Runge-Kutta orde tiga berbentuk: k1 = hf ( X i , Yi ) k 2 = hf ( X i +

1 1 h, Yi + k1 ) 2 2

k 3 = hf ( X i + h, Yi − k1 + 2k 2 )

1 Yi +1 = Yi + (k1 + 4k 2 + k 3 ) 6 Galat langkah metode Runge-Kutta orde dua adalah O(h 4 ) dan Galat longgokan metode Runge-Kutta orde satu adalah O(h 3 )

Gambar 2.8 Kurva Perbandingan Nilai Hasil Estimasi Metode Runge-Kutta