Sabtu, 10 September 2016

CUSTOMER RELATIONSHIP MANAGEMENT: DATABASE ANALYSIS

Kembali ke Basic CRM, bahwa database merupakan tulang punggung kegiatan CRM, database digunakan untuk membantu perusahaan mengenali pelanggan dengan lebih baik, mengelompokan mereka, dan pada akhirnya bisa memberikan perlakuan sesuai dengan profil masing-masing pelanggan baik sebagai kelompok maupun individu. Lalu bagaimana mengelola database dalam kegiatan CRM, berikut ada beberapa faktor kunci berkaitan dengan database:


Database analysis
Selain melihat sumber-sumber eksternal informasi, Market Intelligence juga dapat dikumpulkan dengan menghubungkan dan lintas - menganalisis informasi database yang ada . Banyak perusahaan kini memiliki toko besar informasi dalam database mereka yang mencakup perilaku pelanggan dari waktu ke waktu, tetapi sering hal ini dikunci dan sulit untuk digunakan

Analisis database adalah proses penggalian data ini, membersihkannya, berpotensi penggabungan dengan data lain dan melakukan analisis statistik untuk lebih memahami pelanggan dan perilaku pelanggan . Dalam bisnis yang sangat besar seperti pengecer, sering ada tim analis pengeboran ke dalam database dan menghasilkan data hidup untuk segmentasi pasar, penargetan menawarkan dan berbagai intelijen bisnis lain menggunakan

Analisis database meluas di berbagai keterampilan dari analisis dasar untuk memahami siapa pelanggan Anda dan apa yang mereka beli, untuk analisis statistik yang lebih kompleks, data-mining atau menggunakan alat seperti Sistem Informasi Geografis ( GIS ) . Umumnya kita mencoba untuk memahami informasi pelanggan dalam hal kebaruan, frekuensi dan nilai, mencari untuk mengidentifikasi kelompok-kelompok kunci dari pelanggan dan mekanisme untuk meningkatkan penjualan, mencari untuk mengidentifika ...

Banyak perusahaan memiliki pelanggan dan kontak database, tetapi tidak jarang untuk itu menjadi banyak database yang terpisah dalam organisasi masing-masing memegang informasi yang berbeda. Dalam beberapa kasus sistem database terpadu digunakan yang membuat analisis lebih mudah, tapi ini diimbangi oleh kebutuhan sesekali untuk menarik dan menggunakan subset data yang mungkin lebih cepat dan lebih cepat dilakukan secara terpisah dari file pelanggan utama, terutama untuk departemen pemasaran atau mana tanggapan sedang diukur.

Overhead TI memelihara database kadang-kadang memperlambat penggunaan aktual dari database untuk tugas-tugas praktis

Karena pada analisis database akan, mengotomatisasi sebanyak tugas-tugas ini mungkin adalah penting, baik untuk memastikan bahwa data adalah kualitas yang sama untuk setiap menjalankan analisis dan untuk menghemat waktu dan usaha mengulangi pekerjaan yang sama dengan masing-masing data snapshot
Setelah Anda telah menganalisis data, maka pertanyaan tentang apa respons Anda harus membuat, tetapi ini masalah lebih lanjut tentang strategi pasar berkembang

Extracting information
Banyak database tumbuh dan berkembang melalui penggunaan dan kontinjensi dan akibatnya tahap pertama untuk penggalian data dapat menjadi rumit, bukan hanya dari skala tugas, tetapi karena database itu sendiri adalah kurang didokumentasikan, data hilang atau telah dipindahkan
Cukup mengejutkan, memperoleh informasi database dapat menjadi salah satu memakan waktu tugas yang paling terlibat dalam analisis database . Hal ini tidak diperlukan karena sulit, tetapi informasi yang paling berada pada database transaksi yang terus-menerus digunakan, diperbarui dan diubah sebagai pesanan masuk dan keluar

Sering memperoleh data perlu waktu untuk dijadwalkan dan spec yang akan ditulis untuk menarik informasi yang diperlukan tanpa mengganggu hari -hari menjalankan database
Setelah data telah diekstraksi itu biasanya diselenggarakan di database lain untuk analisis . Dalam sistem canggih ini database kedua juga dikenal sebagai data warehouse, atau untuk jumlah data yang lebih kecil datamart suatu . Namun, tidak perlu memiliki data warehouse dalam rangka untuk melakukan analisis database dan banyak yang dapat dilakukan pada PC menggunakan alat sederhana
Banyak analisis database secara ad hoc, sehingga ekstrak tunggal dari satu titik waktu dianalisis dan digunakan untuk pemodelan . Namun, adalah penting bahwa model dan analisis ditinjau secara teratur. Menggunakan out-of -date model mungkin lebih buruk daripada tidak menggunakan model sama sekali.

Cleaning
Setelah data telah diperoleh, biasanya harus dibersihkan untuk analisis statistik . Banyak database cenderung untuk membangun ketidakakuratan dan duplikasi dari waktu ke waktu . Misalnya seperti perubahan alamat, kode pos yang dimasukkan salah, atau mungkin ada duplikasi catatan kadang-kadang disebabkan oleh entri data salah, tetapi lebih sering daripada tidak, karena pelanggan telah berubah dan duplikat catatan telah diciptakan ( dalam database bisnis-ke- bisnis yang khas 20-25 % dari data akan keluar dari tanggal setelah satu tahun hanya karena orang berganti pekerjaan )

Pembodohan merupakan tugas penting, tapi kadang-kadang menantang . Biasanya data diperiksa dengan nama, alamat ( misalnya kode pos ) dan nomor telepon untuk melihat apakah ada duplikasi atau pertandingan antara catatan . Tugas ini dapat diotomatisasi, tapi bahkan sistem otomatis tidak 100 % sempurna dan beberapa tingkat pengambilan diperlukan untuk memutuskan yang merekam harus disimpan dan yang dibuang . . Dalam database yang lebih kecil hingga 20.000 catatan beberapa tingkat ' bola mata ' dapat dilakukan untuk memeriksa kualitas dedupe tersebut . Dalam dataset besar ini jauh lebih sulit .

Ketika melihat aspek-aspek seperti sejarah pembelian, itu sering terjadi bahwa data telah dikelompokkan dan direklasifikasi . Misalnya setiap produk pada database akan memiliki kode produk yang terpisah, tetapi untuk analisis produk beberapa individu mungkin perlu dikelompokkan bersama-sama
Proses pembersihan dapat otomatis untuk tingkat tertentu termasuk de - duplikasi dan membersihkan data yang hilang atau buruk, tetapi sering ada unsur yang harus dilakukan dengan tangan . Biasanya perubahan yang dilakukan untuk analisis tidak harus diulang pada database transaksional utama untuk menghindari kehilangan integritas data

Dimana data ekstraksi dan analisis tugas rutin seperti yang sering terjadi untuk proyek-proyek datawarehousing besar, pembersihan akan perlu sepenuhnya otomatis untuk memastikan pengulangan akurat dari proses pembersihan dan untuk tujuan kecepatan

Merging
Setelah data dibersihkan itu dapat digabungkan dengan sumber data lain . Sebagai contoh, banyak organisasi sebenarnya memiliki sejumlah database yang berbeda yang perlu dikombinasikan sebelum analisis dapat berlangsung . Atau, sumber eksternal dapat digunakan untuk memungkinkan untuk analisis menurut klasifikasi industri misalnya.

Penggabungan lagi adalah tidak sepenuhnya langsung seperti tunjangan beberapa mungkin diperlukan untuk pelanggan yang sama memiliki nama yang berbeda pada database yang berbeda . Sebagai Kontraktor Bangunan Misalnya Acme mungkin juga dikenal sebagai ABC . Akibatnya, ada juga mungkin periode kedua pembersihan diperlukan sekali data telah digabungkan .
Hal ini umum pada set konsumen untuk menambahkan data klasifikasi dari lembaga eksternal seperti ACORN atau sistem MOSAIC klasifikasi geografis atau link dalam data eksternal dari perusahaan data konsumen seperti Experian . Ini memberikan lapisan tambahan data klasifikasi atau segmentasi di atas data yang ada

Analysis
Ada banyak berbagai jenis analisis yang Anda dapat melaksanakan pada data dari database . Analisis yang paling umum adalah biasanya untuk pelanggan peringkat berdasarkan nilai untuk melihat siapa pelanggan yang paling berharga dan apa karakteristik pembelian mereka ( juga dikenal sebagai analisis pareto atau decile )

Tujuan dari analisis ini adalah untuk mencoba dan mengidentifikasi orang-orang yang membutuhkan menghubungi, atau orang-orang yang akan paling mungkin untuk menanggapi komunikasi tertentu. Misalnya, mengejar sampai pelanggan murtad atau membuat penawaran lebih untuk pembeli sering. Secara khusus Anda ingin mengidentifikasi kelompok inti yang membeli dan yang adalah mereka yang paling mungkin untuk merespon iklan atau komunikasi

Analisis yang lebih canggih mulai melihat lintas -penjualan suku ( yang % dari pembeli sekrup yang juga membeli kuku ), ukuran keranjang dan bundel produk umum . Tujuannya adalah untuk meningkatkan jumlah setiap pelanggan membeli . Di mana ada banyak produk ( misalnya supermarket ), jangkauan dan jumlah kombinasi dapat membuat analisis seperti sangat rumit

Pada tingkat yang lebih canggih, data dapat digunakan untuk upaya pemodelan prediktif . Misalnya mencari untuk melihat mana pelanggan akan paling mungkin untuk menanggapi sepotong surat langsung atau peluncuran produk baru . Tujuannya biasanya untuk mengurangi ukuran milis Anda sementara memaksimalkan jumlah orang yang akan merespon dan sehingga mengurangi biaya per respon dan meningkatkan nilai per respon .

Selain itu, data database dapat digunakan untuk segmentasi . Perbedaan utama antara segmentasi melalui database sebagai lawan penelitian segmentasi pasar adalah bahwa hasil dapat ditandai kembali ke database, sehingga setiap pelanggan diberi label dengan segmen mereka. Ini berarti bahwa jika Anda perlu untuk mail segmen tertentu dari database ini adalah sepenuhnya mungkin, sedangkan untuk riset pasar Anda biasanya mengambil menebak tingkat kedua . Kesulitannya adalah Anda biasanya terbatas dalam jumlah variabel yang telah tersedia untuk segmentas

CRM IN ACTION
Joko Ristono

Tidak ada komentar:

Posting Komentar