HIMAPALA UNESA

Himapala Unesa adalah organisasi bergerak di bidang outdoorsport dan sosial.

ORGANISASI

Proin luctus placerat arcu, eget vehicula metus rhoncus ut. Fusce pharetra pharetra venenatis. Sed condimentum ornare ipsum.

Maecenas nisl est

Vestibulum suscipit ullamcorper bibendum. Nam quis commodo ligula. Etiam et mi et magna molestie iaculis.

Lorem ipsum dolor sit amet

Duis fermentum sem nec ipsum lacinia fermentum. Lorem ipsum dolor sit amet, consectetur adipiscing elit.

Popular Posts

Blog Archive

Sample Text

Sejarah SEO (Search Engine Optimization)

Webmaster dan penyedia konten mulai mengoptimalkan situs untuk mesin pencari di pertengahan 1990-an, sebagai mesin pencari pertama katalogisasi Web awal. Pada awalnya, semua webmaster hanya perlu menyerahkan alamat halaman, atau URL, ke berbagai mesin yang akan mengirim "spider" untuk "crawl" halaman tersebut, ekstrak link ke halaman lain dari itu, dan kembali informasi yang ada pada halaman untuk diindeks. Proses ini melibatkan spider mesin pencari men-download halaman dan menyimpannya di server sendiri mesin pencari, dimana program kedua, yang dikenal sebagai pengindeks sebuah, ekstrak berbagai informasi tentang halaman, seperti kata-kata itu berisi dan mana berada, serta setiap berat kata-kata tertentu, dan semua link halaman tersebut berisi, yang kemudian ditempatkan ke scheduler untuk merangkak di kemudian hari. 

pemilik situs mulai mengakui nilai dari memiliki situs mereka yang berperingkat tinggi dan terlihat dalam hasil mesin pencari, menciptakan peluang bagi kedua praktisi white hat  dan black hat SEO. Menurut analis industri Danny Sullivan, istilah "search engine optimasi" mungkin mulai dipakai pada tahun 1997. dokumentasi yang digunakan pertama dari Search Engine Optimization istilah John Audette dan perusahaannya Multimedia Marketing Group sebagai didokumentasikan oleh halaman web dari situs MMG dari Agustus, 1997 tentang Jalan Kembali Internet mesin (Dokumen Nomor 19970801004204). mencatat Hak Cipta Amerika Serikat pertama dari sebuah website yang mengandung frase yang oleh Bruce Clay efektif Maret, 1997 (Dokumen Nomor Registrasi TX0005001745, AS PerpustakaanKongres Kantor Hak Cipta).
 
Versi awal algoritma pencarian didasarkan pada webmaster-informasi yang diberikan seperti meta tag kata kunci, atau file indeks dalam mesin seperti Aliweb. Meta tag menyediakan panduan untuk konten setiap halaman. Menggunakan data meta untuk mengindeks halaman ditemukan kurang dari diandalkan, bagaimanapun, karena pilihan webmaster kata kunci pada meta tag berpotensi menjadi representasi akurat dari isi sebenarnya situs. Akurat, tidak lengkap, dan data yang tidak konsisten dalam tag meta bisa dan tidak halaman menyebabkan peringkat untuk pencarian yang tidak relevan. penyedia konten Web juga dimanipulasi sejumlah atribut dalam sumber HTML halaman dalam upaya untuk peringkat yang baik di search engine. 
 
Dengan mengandalkan begitu banyak pada faktor-faktor seperti kepadatan kata kunci yang eksklusif dalam kontrol webmaster, mesin pencari awal menderita dari penyalahgunaan dan manipulasi peringkat. Untuk memberikan hasil yang lebih baik kepada pengguna mereka, mesin pencari harus beradaptasi untuk memastikan hasil mereka menunjukkan halaman hasil pencarian yang paling relevan, daripada halaman yang tidak berhubungan diisi dengan berbagai kata kunci oleh webmaster yang tidak bermoral. Karena kesuksesan dan popularitas mesin pencarian ditentukan oleh kemampuannya untuk menghasilkan hasil yang paling relevan untuk setiap pencarian tertentu, yang memungkinkan hasil tersebut menjadi false akan berubah pengguna untuk menemukan sumber pencari lainnya. Search engine merespon dengan mengembangkan algoritma peringkat lebih kompleks, dengan mempertimbangkan faktor-faktor tambahan yang lebih sulit untuk webmaster untuk memanipulasi. 

Mahasiswa pascasarjana di Universitas Stanford, Larry Page dan Sergey Brin, mengembangkan "BackRub," sebuah mesin pencari yang mengandalkan algoritma matematis untuk menilai keunggulan dari halaman web. Nomor dihitung dengan algoritma, PageRank, merupakan fungsi dari jumlah dan kekuatan inbound link  PageRank perkiraan. Kemungkinan bahwa suatu halaman tertentu akan dicapai oleh pengguna web yang secara acak surfing web, dan mengikuti link dari satu halaman ke lain.Akibatnya, ini berarti bahwa beberapa link yang kuat dari yang lain, sebagai halaman PageRank yang lebih tinggi lebih mungkin dicapai oleh surfer acak.
 
Page dan Brin mendirikan Google tahun 1998. Google menarik mempopulerkannya meningkatnya jumlah pengguna Internet, yang menyukai desain sederhana faktor Off-halaman (seperti PageRank dan analisis hyperlink) adalah. Dianggap sebagai juga faktor on-page (seperti frekuensi kata kunci, meta tag, judul, link dan struktur situs) untuk mengaktifkan Google untuk menghindari jenis manipulasi dilihat di search engine yang hanya mempertimbangkan faktor on-page untuk peringkat mereka.Meskipun PageRank lebih sulit untuk permainan, webmaster telah mengembangkan alat bangunan link dan skema untuk mempengaruhi mesin pencari Inktomi, dan metode ini terbukti sama berlaku untuk game PageRank. Banyak situs difokuskan pada pertukaran, membeli, dan menjual link, sering pada skala besar. Beberapa skema ini, atau koleksi link, melibatkan penciptaan ribuan situs untuk tujuan tunggal spamming link.

Pada tahun 2004, mesin pencari telah dimasukkan berbagai faktor yang dirahasiakan dalam algoritma peringkat mereka untuk mengurangi dampak dari manipulasi link. Google mengatakan itu peringkat situs yang menggunakan lebih dari 200 sinyal yang berbeda. Mesin pencari terkemuka, Google dan Yahoo, tidak mengungkapkan algoritma mereka gunakan untuk peringkat halaman. terkemuka penyedia layanan SEO, seperti Rand Fishkin, Barry Schwartz, Aaron Wall dan Jill Whalen, telah mempelajari pendekatan yang berbeda ke mesin pencari optimasi, dan telah menerbitkan pendapat mereka dalam forum online dan blog. SEO praktisi juga dapat belajar paten dimiliki oleh berbagai mesin pencari untuk mendapatkan wawasan tentang algoritma.
 
Pada tahun 2005 Google mulai melakukan personalisasi hasil pencarian untuk setiap pengguna. Tergantung pada sejarah pencarian sebelumnya, Google dibuat hasil untuk pengguna masuk log. Pada tahun 2008, Bruce Clay mengatakan bahwa "peringkat sudah mati" karena pencarian yang dipersonalisasi. Ini akan menjadi tidak berarti untuk mendiskusikan bagaimana sebuah website peringkat, karena peringkat yang secara potensial akan berbeda untuk setiap pengguna dan setiap pencarian.

Pada tahun 2007 Google mengumumkan kampanye melawan link berbayar yang mengalihkan PageRank. Pada tanggal 15 Juni 2009, Google mengungkapkan bahwa mereka telah mengambil langkah-langkah untuk mengurangi dampak PageRank mematung dengan menggunakan atribut nofollow pada link. Matt Cutts, insinyur perangkat lunak terkenal di Google, mengumumkan bahwa Google Bot tidak akan lagi memperlakukan link nofollow dengan cara yang sama, untuk mencegah penyedia layanan SEO dari menggunakan nofollow untuk patung PageRank. Sebagai hasil dari perubahan ini penggunaan mengarah nofollow penguapan pagerank. Untuk menghindari hal tersebut di atas, insinyur SEO mengembangkan teknik alternatif yang mengganti nofollow tag dengan patung PageRank dikaburkan Javascript dan dengan demikian izin. Selain itu beberapa solusi telah diusulkan yang mencakup penggunaan iframe, Flash dan Javascript.

Pada bulan Desember 2009 Google mengumumkan akan menggunakan riwayat pencarian Web dari semua pengguna dalam rangka untuk mengisi hasil pencarian. Real-time-search diperkenalkan pada akhir tahun 2009 dalam upaya untuk membuat hasil pencarian yang lebih tepat waktu dan relevan. Secara historis pengelola situs telah menghabiskan waktu berbulan-bulan atau bahkan bertahun-tahun mengoptimalkan sebuah website untuk meningkatkan peringkat pencarian. Dengan pertumbuhan popularitas situs media sosial dan blog mesin terkemuka melakukan perubahan terhadap algoritma mereka untuk mengizinkan konten segar untuk peringkat cepat dalam hasil pencarian.

Sumber : Wikipedia

Posting Komentar