Berbicara mengenai Search Engine Optimization rasanya kurang pas jika kita tidak mengetahui cara kerja dari mesin pencari. Karena pada dasarnya tujuan kita untuk melakukan optimisasi adalah agar situs kita ataupun blog kita bisa mendapatkan rangking bagus di mesin pencari.
Mesin pencari mempunyai dua fungsi yang sangat utama :
1. Yang pertama adalah merayapi situs-situs yang ada di internet (crawling) kemudian membangun sebuah database (indexing). Beberapa hal yang di cari adalah file-file gambar, dokumen, teks, video, dan lain sebagainya.
2. Kedua adalah memberikan jawaban atas perintah yang diberikan oleh penggunanya dengan menghitung kadar relevansi dan menyediakan hasilnya.
Struktur link dari sebuah situs seharusnya mampu untuk mengikat situs tersebut agar menjadi satu (supaya mudah dijelajahi). Maka dari itu struktur link yang bagus adalah yang mampu menghubungkan setiap halaman dengan baik, minimal setiap halaman mempunyai satu link yang dapat dijangkau.
Dengan menggunakan link robot otomatis dari mesin pencari yang sering disebut sebagai "crawler" atau "spider" dapat menjangkau berjuta-juta link yang saling terhubung dengan baik.
Setelah menemukan sebuah halaman website, kemudian mesin pencari tersebut menguraikannya menjadi data-data dan setelah itu menyimpannya ke dalam tempat penyimpanan yang sangat besar, yang nantinya akan dicari kembali ketika ada yang memerlukannya.
Untuk menyelesaikan kerjanya yang sangatlah berat yaitu menyimpan miliaran halaman dan menyediakannyaa kembali dengan hitungan hitungan detik, maka mesin pencari mempunyai penyimpan data yang terstruktur di seluruh dunia.
Fasilitas yang menyimpan data yang sangat besar ini tersusun dari mesin-mesin yang memproses informasi yang sangat banyak sekali. Kemudian ketika orang mengunjungi mesin pencari, jelas bahwa mereka ingin mendapatkan informasi secara instan (bahkan dalam waktu 1-2 detik), maka dari itu mesin pencari sangatlah bekerja keras untuk memberikan jawaban yang di inginkan.
Untuk mengukur tingkat dari relevansi, mesin pencari tidak menggunakan cara manual. Mereka menggunakan sebuah robot yang disusun dengan algoritma matematika yang rumit dan mengukur nilai sebuah situs untuk selanjutnya mempersingkat dan mempercepat hasil yang diberikannya.
Mesin pencari mempunyai dua fungsi yang sangat utama :
1. Yang pertama adalah merayapi situs-situs yang ada di internet (crawling) kemudian membangun sebuah database (indexing). Beberapa hal yang di cari adalah file-file gambar, dokumen, teks, video, dan lain sebagainya.
2. Kedua adalah memberikan jawaban atas perintah yang diberikan oleh penggunanya dengan menghitung kadar relevansi dan menyediakan hasilnya.
Crawling Dan Indexing
Untuk memahami sistem ini, bayangkanlah ketika berada di sebuah perlintasan jalan yang padat akan lalu lintas. Setiap pemberhentian mempunyai dokumen-dokumen ataupun teks yang berbeda-beda tentunya (bisa dalam format JPG, DOC dan lain-lain). Robot perayap (crawler) membutuhkan jalan untuk menelusuri seluruh kota dan menemukan semua pemberhentian, jadi mereka menggunakan bagian terbaik yang tersedia, yaitu link.Struktur link dari sebuah situs seharusnya mampu untuk mengikat situs tersebut agar menjadi satu (supaya mudah dijelajahi). Maka dari itu struktur link yang bagus adalah yang mampu menghubungkan setiap halaman dengan baik, minimal setiap halaman mempunyai satu link yang dapat dijangkau.
Dengan menggunakan link robot otomatis dari mesin pencari yang sering disebut sebagai "crawler" atau "spider" dapat menjangkau berjuta-juta link yang saling terhubung dengan baik.
Setelah menemukan sebuah halaman website, kemudian mesin pencari tersebut menguraikannya menjadi data-data dan setelah itu menyimpannya ke dalam tempat penyimpanan yang sangat besar, yang nantinya akan dicari kembali ketika ada yang memerlukannya.
Untuk menyelesaikan kerjanya yang sangatlah berat yaitu menyimpan miliaran halaman dan menyediakannyaa kembali dengan hitungan hitungan detik, maka mesin pencari mempunyai penyimpan data yang terstruktur di seluruh dunia.
Fasilitas yang menyimpan data yang sangat besar ini tersusun dari mesin-mesin yang memproses informasi yang sangat banyak sekali. Kemudian ketika orang mengunjungi mesin pencari, jelas bahwa mereka ingin mendapatkan informasi secara instan (bahkan dalam waktu 1-2 detik), maka dari itu mesin pencari sangatlah bekerja keras untuk memberikan jawaban yang di inginkan.
Memberikan Jawaban
Mesin pencari adalah mesin yang memang dirancang untuk memberikan jawaban pada setiap pertanyaan, anda harus tahu itu. Ketika seseorang ingin mencari sesuatu dalam dunia maya, mereka mengunjungi mesin pencari. Mereka memasukkan sebuah kata kunci yang ingin didapatkannya. Mereka akan mencari hasil yang relevan dengan yang mereka inginkan. Maka dari itu hal yang perlu di garis bawahi dalam proses SEO adalah relevansi dan nilai penting atau tidaknya sebuah dokumen.Untuk mengukur tingkat dari relevansi, mesin pencari tidak menggunakan cara manual. Mereka menggunakan sebuah robot yang disusun dengan algoritma matematika yang rumit dan mengukur nilai sebuah situs untuk selanjutnya mempersingkat dan mempercepat hasil yang diberikannya.
Lorem ipsum dolor sit amet, consectetur adipisicing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation.
0 komentar:
Posting Komentar