Salah
satu teknik mengukur dan menguji suatu kinerja web adalah dengan mengukur
pengalaman seseorangatau user experience pengunjung situs yang berinteraksi
dengan halaman-halaman web yang berada di internet (keynote system, inc 2010).
Kinerja suatu web atau web performance sangat dipengaruhi oleh beberapa komponen-komponen dasar yang dibagi menjadi dua bagian penting, yaitu :
- Dilihat dari gambaran transaksi web atau perspective transaction
- Gambaran komponen aplikasi atau application component perspective. (keynote system, inc 2010)
Tansaksi web lebih menitikberatkan
kepada pengalaman pengguna, sedangkan komponen aplikasi lebih menitikberatkan
kepada komponen jaringan komputer.
Pengalaman pengguna, diantaranya
adalah:
- Time to opening page, maksudnya adalah mengukur dari sisi pengguna, waktu yang dibutuhkan pada saat dibutuhkan pada saat pertama kali membuka halaman web. Waktu dimulai dari aksi pertama setelaah internet agent memutuskan untuk berpindah ke halaman berikutnya, waktu berakhir ketika pesan opening page ditampilkan di web browser status bar.
- Page download, maksudnya adalah waktu yang dibutuhkan antara ketika web browser membuat sinyal opening page dan ketika web browser akan menampilkan pesan done di statusbar.
Crawler
Web crawler adalah sebuah perangkat lunak yang digunakan untuk menjelajah serta mengumpulkan halaman-halaman web yang selanjutnya diindeks oleh mesin pencari (Gatial E, 2005). Desain sebuah web crawler harus dapat memenuhi berbagai tujuan yang kadang saling berbenturan, seperti kualitas halaman yang diambil, penyebaran dan pengurangan beban jaringan, kecepatan pengambilan, serta pada saat yang bersamaan tidak membebani server situs yang dikunjungi. Web crawler juga sering dikenal dengan nama web spider atau web robot, yaitu salah satu komponen penting dalam arsitektur sebuah mesin pencari modern. Fungsi utama web crawler adalah untuk melakukan penjelajahan dan pengambilan halaman-halaman web yang ada di internet. Hasil pengumpulan situs web selanjutnya akan diindeks oleh mesin pencari sehingga mempermudah pencarian informasi di internet.
Web crawler adalah sebuah perangkat lunak yang digunakan untuk menjelajah serta mengumpulkan halaman-halaman web yang selanjutnya diindeks oleh mesin pencari (Gatial E, 2005). Desain sebuah web crawler harus dapat memenuhi berbagai tujuan yang kadang saling berbenturan, seperti kualitas halaman yang diambil, penyebaran dan pengurangan beban jaringan, kecepatan pengambilan, serta pada saat yang bersamaan tidak membebani server situs yang dikunjungi. Web crawler juga sering dikenal dengan nama web spider atau web robot, yaitu salah satu komponen penting dalam arsitektur sebuah mesin pencari modern. Fungsi utama web crawler adalah untuk melakukan penjelajahan dan pengambilan halaman-halaman web yang ada di internet. Hasil pengumpulan situs web selanjutnya akan diindeks oleh mesin pencari sehingga mempermudah pencarian informasi di internet.
Beberapa contoh web crawler:
- Teleport Pro, salah satu software web crawler untuk keperluan offline browsing. Software ini sudah cukup lama popular, terutama pada saat koneksi internet tidak semudah dan secepat sekarang. Software ini berbayar dan beralamatkan di http://www.tenmax.com.
- HTTrack, ditulis dengan menggunakan C, seperti juga Teleport Pro, HTTrack merupakan software yang dapat mendownload konten website menjadi sebuah mirror pada harddisk anda, agar dapat dilihat secara offline. Yang menarik software ini free dan dapat di download pada website resminya di http://www.httrack.com
- Googlebot, merupakan web crawler untuk membangun index pencarian yang digunakan oleh search engine Google. Kalau website anda ditemukan orang melalui Google, bisa jadi itu merupakan jasa dari Googlebot. Walau konsekuensinya, sebagian bandwidth anda akan tersita karena proses crawling ini.
- Yahoo!Slurp, kalau Googlebot adalah web crawler andalan Google, maka search engine Yahoo mengandalkan Yahoo!Slurp. Teknologinya dikembangkan oleh Inktomi Corporation yang diakuisisi oleh Yahoo!
- YaCy,sedikit berbeda dengan web crawler lainnya di atas, YaCy dibangun atas prinsip jaringan P2P (peer-to-peer), di develop dengan menggunakan java, dan didistribusikan pada beberapa ratus mesin computer (disebut YaCy peers). Tiap-tiap peer di share dengan prinsip P2P untuk berbagi index, sehingga tidak memerlukan server central. Contoh search engine yang menggunakan YaCy adalah Sciencenet (http://sciencenet.fzk.de), untuk pencarian dokumen di bidang sains.
SEARCH
ENGINE
Search
engine adalah program komputer yang dirancang untuk mencari informasi yang
tersedia didalam dunia maya. web search engine mengumpulkan informasi yang
tersedia secara otomatis. untuk sekarag ini sebuah search engine sudah mulai di
kembangkan untuk lebih memudahkan bagi kita dalam menggunakan search engine
tersebut. hasil dari pecarian data biasanya di urutkan berdasarkan tingkat
akurasi dan popularitas di search engine tersebut. beberapa search engine
biasanya mengumpulkan informasi atau data yang di cari di dalam sebuah
basisdata. atau direktori web. dengan search engine tersebut kita dapat mencari
berbagai informasi yang kita inginkan dari seluruh dunia, jadi dengan adanya
search engine ini sangat memudahkan bagi kita untuk mencari data.
Fungsi
dan manfaat search engine search engine mempunyai bebrapa fungsi dan manfaat
yang berguna bagi kita yang suka browsing anta lain adalah:
mesin pencari merupakan tempat kebanyakan orang mencari sesuatu via internet. Menurut survei hampir 90% pengguna internet memakai mesin pencari untuk mencari lokasi tertentu di internet. dan di antara mesin pencari yang ada, google merupakan mesin pencari yang paling banyak digunakan.
Sebagian besar pengguna mesin pencari tidak pernah melewatkan dua halaman pertama dari mesin pencari.
Sebuah informasi yang mudah di akses oleh semua orang baik dalam maupun luar negeri.
Memudahkan Masyarakat dalam mencari
informasi di internet.
Contoh
search engine yang sangat populer untuk saat ini, untuk saat ini sudah sangat
banyak perusahaan - perusahaan yang mengembangkan teknologi search engine ini,
dan diantaranya adalah:
- Yahoo
- Bing
- Ask
WEB
ARCHIVING
Pengarsipan
web (Web Archiving) adalah proses mengumpulkan bagian dari WWW dan memastikan
koleksi tersebut diawetkan dalam suatu arsip, misalnya situs arsip, untuk
diakses peneliti, sejarawan, dan masyarakat umum pada masa datang.
Cara Kerja Web Archiving, yang paling umum web pengarsipan teknik menggunakan web crawler untuk mengotomatisasi proses pengumpulan halaman web. Web crawler biasanya mengakses halaman web dengan cara yang sama dengan yang dilakukan user yang menggunakan web browser untuk menemukan website yang ingin dicari.
Berikut Ini adalah Beberapa Contoh Layanan yg melayani jasa Web Archiving:
- Archive-it : Sebuah Layanan Pengarsipan Web Berlangganan yang memperbolehkan sebuah institusi Untuk Membangun, Me-Manage, dan Mecari Arsip web Institusi itu sendiri
- Archive.is : Sebuah Layanan Pengarsipan Web Gratis Untuk menyimpan Halaman dan berikut juga Gambar dari sebuah website tertentu. Dan bias menyimpan halaman dari Web 2.0.
- Iterasi : Sebuah Layanan Pengarsipan Web yang khusus untuk agensi pemerintahan, organisasi Finansial, brand heritage Dll.
REFERENSI