ANALISIS WEB

| Senin, 16 Juni 2014
Parameter Pengukuran Web

Salah satu teknik mengukur dan menguji suatu kinerja web adalah dengan mengukur pengalaman seseorangatau user experience pengunjung situs yang berinteraksi dengan halaman-halaman web yang berada di internet (keynote system, inc 2010).

Kinerja suatu web atau web performance sangat dipengaruhi oleh beberapa komponen-komponen dasar yang dibagi menjadi dua bagian penting, yaitu :
  1. Dilihat dari gambaran transaksi web atau perspective transaction
  2. Gambaran komponen aplikasi atau application component perspective. (keynote system, inc 2010)
Tansaksi web lebih menitikberatkan kepada pengalaman pengguna, sedangkan komponen aplikasi lebih menitikberatkan kepada komponen jaringan komputer.

Pengalaman pengguna, diantaranya adalah:
  1. Time to opening page, maksudnya adalah mengukur dari sisi pengguna, waktu yang dibutuhkan pada saat dibutuhkan pada saat pertama kali membuka halaman web. Waktu dimulai dari aksi pertama setelaah internet agent memutuskan untuk berpindah ke halaman berikutnya, waktu berakhir ketika pesan opening page ditampilkan di web browser status bar.
  2. Page download, maksudnya adalah waktu yang dibutuhkan antara ketika web browser membuat sinyal opening page dan ketika web browser akan menampilkan pesan done di statusbar.


Crawler

Web crawler adalah sebuah perangkat lunak yang digunakan untuk menjelajah serta mengumpulkan halaman-halaman web yang selanjutnya diindeks oleh mesin pencari (Gatial E, 2005). Desain sebuah web crawler harus dapat memenuhi berbagai tujuan yang kadang saling berbenturan, seperti kualitas halaman yang diambil, penyebaran dan pengurangan beban jaringan, kecepatan pengambilan, serta pada saat yang bersamaan tidak membebani server situs yang dikunjungi. Web crawler juga sering dikenal dengan nama web spider atau web robot, yaitu salah satu komponen penting dalam arsitektur sebuah mesin pencari modern. Fungsi utama web crawler adalah untuk melakukan penjelajahan dan pengambilan halaman-halaman web yang ada di internet. Hasil pengumpulan situs web selanjutnya akan diindeks oleh mesin pencari sehingga mempermudah pencarian informasi di internet.
Beberapa contoh web crawler:
  1. Teleport Pro, salah satu software web crawler untuk keperluan offline browsing. Software ini sudah cukup lama popular, terutama pada saat koneksi internet tidak semudah dan secepat sekarang. Software ini berbayar dan beralamatkan di http://www.tenmax.com.
  2. HTTrack, ditulis dengan menggunakan C, seperti juga Teleport Pro, HTTrack merupakan software yang dapat mendownload konten website menjadi sebuah mirror pada harddisk anda, agar dapat dilihat secara offline. Yang menarik software ini free dan dapat di download pada website resminya di http://www.httrack.com
  3. Googlebot, merupakan web crawler untuk membangun index pencarian yang digunakan oleh search engine Google. Kalau website anda ditemukan orang melalui Google, bisa jadi itu merupakan jasa dari Googlebot. Walau konsekuensinya, sebagian bandwidth anda akan tersita karena proses crawling ini.
  4. Yahoo!Slurp, kalau Googlebot adalah web crawler andalan Google, maka search engine Yahoo mengandalkan Yahoo!Slurp. Teknologinya dikembangkan oleh Inktomi Corporation yang diakuisisi oleh Yahoo!
  5. YaCy,sedikit berbeda dengan web crawler  lainnya di atas, YaCy dibangun atas prinsip jaringan P2P (peer-to-peer), di develop dengan menggunakan java, dan didistribusikan pada beberapa ratus mesin computer (disebut YaCy peers). Tiap-tiap peer di share dengan prinsip P2P untuk berbagi index, sehingga tidak memerlukan server central. Contoh search engine yang menggunakan YaCy adalah Sciencenet (http://sciencenet.fzk.de), untuk pencarian dokumen di bidang sains. 


SEARCH ENGINE

Search engine adalah program komputer yang dirancang untuk mencari informasi yang tersedia didalam dunia maya. web search engine mengumpulkan informasi yang tersedia secara otomatis. untuk sekarag ini sebuah search engine sudah mulai di kembangkan untuk lebih memudahkan bagi kita dalam menggunakan search engine tersebut. hasil dari pecarian data biasanya di urutkan berdasarkan tingkat akurasi dan popularitas di search engine tersebut. beberapa search engine biasanya mengumpulkan informasi atau data yang di cari di dalam sebuah basisdata. atau direktori web. dengan search engine tersebut kita dapat mencari berbagai informasi yang kita inginkan dari seluruh dunia, jadi dengan adanya search engine ini sangat memudahkan bagi kita untuk mencari data.

Fungsi dan manfaat search engine search engine mempunyai bebrapa fungsi dan manfaat yang berguna bagi kita yang suka browsing anta lain adalah:
mesin pencari merupakan tempat kebanyakan orang mencari sesuatu via internet. Menurut survei hampir 90% pengguna internet memakai mesin pencari untuk mencari lokasi tertentu di internet. dan di antara mesin pencari yang ada, google merupakan mesin pencari yang paling banyak digunakan.
Sebagian besar pengguna mesin pencari tidak pernah melewatkan dua halaman pertama dari mesin pencari.
Sebuah informasi yang mudah di akses oleh semua orang baik dalam maupun luar negeri.

Memudahkan Masyarakat dalam mencari informasi di internet
Contoh search engine yang sangat populer untuk saat ini, untuk saat ini sudah sangat banyak perusahaan - perusahaan yang mengembangkan teknologi search engine ini, dan diantaranya adalah:
  1. Google
  2. Yahoo
  3. Bing
  4. Ask


WEB ARCHIVING

Pengarsipan web (Web Archiving) adalah proses mengumpulkan bagian dari WWW dan memastikan koleksi tersebut diawetkan dalam suatu arsip, misalnya situs arsip, untuk diakses peneliti, sejarawan, dan masyarakat umum pada masa datang.

Cara Kerja Web Archiving, yang paling umum web pengarsipan teknik menggunakan web crawler untuk mengotomatisasi proses pengumpulan halaman web. Web crawler biasanya mengakses halaman web dengan cara yang sama dengan yang dilakukan user yang menggunakan web browser untuk menemukan website yang ingin dicari.

Berikut Ini adalah Beberapa Contoh Layanan yg melayani jasa Web Archiving:
  1. Archive-it : Sebuah Layanan Pengarsipan Web Berlangganan yang memperbolehkan sebuah institusi Untuk Membangun, Me-Manage, dan Mecari Arsip web Institusi itu sendiri
  2. Archive.is : Sebuah Layanan Pengarsipan Web Gratis Untuk menyimpan Halaman dan berikut juga Gambar dari sebuah website tertentu. Dan bias menyimpan halaman dari Web 2.0.
  3. Iterasi : Sebuah Layanan Pengarsipan Web yang khusus untuk agensi pemerintahan, organisasi Finansial, brand heritage Dll.




REFERENSI
Next Prev
▲Top▲