Ini adalah mesin pencari yang akhirnya membawa situs web Anda ke perhatian calon pelanggan. Oleh karena itu, lebih baik untuk mengetahui bagaimana sebenarnya mesin pencari ini bekerja dan bagaimana mereka menyajikan informasi kepada pelanggan yang memulai pencarian.
menurut kitaswara
Pada dasarnya ada dua jenis mesin pencari. Yang pertama adalah robot yang disebut crawler atau laba-laba.
Mesin Pencari menggunakan spider untuk mengindeks situs web. Saat Anda mengirimkan halaman situs web Anda ke mesin pencari dengan melengkapi halaman pengiriman yang diperlukan, laba-laba mesin pencari akan mengindeks seluruh situs Anda. 'Laba-laba' adalah program otomatis yang dijalankan oleh sistem mesin pencari. Spider mengunjungi situs web, membaca konten di situs sebenarnya, tag Meta situs, dan juga mengikuti tautan yang terhubung ke situs. Laba-laba kemudian mengembalikan semua informasi itu kembali ke penyimpanan pusat, tempat data diindeks. Ini akan mengunjungi setiap tautan yang Anda miliki di situs web Anda dan mengindeks situs-situs itu juga. Beberapa spider hanya akan mengindeks sejumlah halaman di situs Anda, jadi jangan membuat situs dengan 500 halaman!
Laba-laba secara berkala akan kembali ke situs tersebut untuk memeriksa informasi apa pun yang telah berubah. Frekuensi terjadinya hal ini ditentukan oleh moderator mesin pencari.
Laba-laba hampir seperti buku yang berisi daftar isi, konten aktual, tautan, dan referensi untuk semua situs web yang ditemukannya selama pencarian, dan dapat mengindeks hingga satu juta halaman setiap hari.
Contoh: Excite, Lycos, AltaVista dan Google.
Ketika Anda meminta mesin pencari untuk mencari informasi, sebenarnya mesin pencari mencari melalui indeks yang telah dibuatnya dan tidak benar-benar mencari di Web. Mesin pencari yang berbeda menghasilkan peringkat yang berbeda karena tidak setiap mesin pencari menggunakan algoritma yang sama untuk mencari melalui indeks.
Salah satu hal yang dipindai oleh algoritme mesin telusur adalah frekuensi dan lokasi kata kunci pada halaman web, tetapi juga dapat mendeteksi penjejalan kata kunci buatan atau spamdexing. Kemudian algoritme menganalisis cara halaman terhubung ke halaman lain di Web. Dengan memeriksa bagaimana halaman terhubung satu sama lain, sebuah mesin dapat menentukan tentang apa sebuah halaman, jika kata kunci dari halaman tertaut serupa dengan kata kunci pada halaman asli.
Comments
Post a Comment