Perubahan Update Algoritma Google Terbaru 2016

Perubahan Update Algoritma Google Terbaru 2016

Perubahan Update
Algoritma Google Terbaru 2016

Search Button SEON PORTAL BISNIS One Stop Solution Bisnis Online Indonesia Transparent

Google saat ini dikenal sebagai situs mesin pencari (search engine) terkemuka di dunia. Ratusan juta orang setiap hari mengakses google untuk mencari dokumen atau sekedar update informasi. Perusahaan yang bermarkas di Mountain View, USA, ini terus memperbarui algoritma demi memenuhi kebutuhan pengguna memperoleh hasil penelusuran akurat. Sejauh ini, ada tiga nama sudah mengudara dalam beberapa tahun terakhir yakni Google PandaGoogle Penguin dan Google Hummingbird.

Pemilik website atau webmaster harus menganggap situs mesin pencari sebagai sahabat baik, sayangnya hubungan kedua pihak seringkali diwarnai kejutan penuh suka duka. Google paling hobi memperbarui algoritma, mulai dari penyegaran data bersifat minor hingga penerapan jenis algoritma bersifat cabang yang berfungsi terpisah (independen) dari algoritma inti.

Perubahan Algoritma Google Panda 2016 !

Menurut seorang perwakilan Google, yakni Gary Illyes, algoritma Panda yang selama ini dikenal sebagai algoritma cabang, kini sudah terintegrasi ke algoritma inti andalan Google. Dengannya sekaligus mengkonfirmasi bahwa algoritma Panda selama beberapa tahun terakhir dipersiapkan oleh Google sebagai update jangka panjang. Hal ini menimbulkan banyak tanda tanya plus minim jawaban di kalangan webmaster dan penggila SEO.

Banyak pihak bertanya, kapan integrasi tersebut mulai terlaksana? Sejak kapan google Panda resmi berhenti memperbarui algoritma? Dan paling penting, apakah integrasi tersebut penyebab utama perubahan hasil penelusuran pada awal tahun 2016. Semua pertanyaan itu belum dijawab secara diplomatis oleh perwakilan Google, sehingga muncul sejumlah spekulasi tak pasti.

Walaupun algoritma Panda terintegrasi ke algoritma inti milik Google pada saat memperoleh update di waktu sama, justru terjadinya perubahan hasil penelusuran awal 2016 tidak ada sangkut paut kehadiran google Panda. John Mueller justru meyakinkan webmaster tak perlu hirau berlebihan terhadap algoritma Panda, kini efeknya tidak begitu ganas dibandingkan pertama kali rilis. Sementara itu Gary Illyes menyebut integrasi google Panda baru tidak memberi dampak perbedaan mencolok.

Dengan demikian bisa diketahui bahwa integrasi google Panda ke algoritma inti Google bukan faktor penyebab perubahan dari hasil penelusuran. Begitu pula dengan algoritma Penguin yang dipastikan tidak turut terlibat. Sebenarnya apa yang terjadi pada inti mesin pencari milik Google? Perubahan hasil data memang sedikit membingungkan, tetapi itu jelas algoritma baru.

Hingga saat ini masih belum ada satupun petunjuk untuk mengklarifikasi makna dan jangkauan dari update terbaru. Perubahan telah terjadi untuk hasil penelusuran melalui perangkat desktop dan mobile. Masih belum ada indikator kuat yang menjadi penanggung jawab utama dari perubahan tersebut.

Perubahan Algoritma Google Penguin 2016 !

Google langsung menyambut tahun 2016 dengan mempersembahkan algoritma baru. Dari situlah terjadi perubahan cukup besar pada peringkat hasil penelusuran sehingga mencuri perhatian komunitas penggila SEO. Mereka pun bertanya-tanya, apakah Google merilis update algoritma Penguin? Panda? Atau cabang baru? Ternyata tak ada satupun kemungkinan muncul, sebaliknya Google mengusung perubahan signifikan ke dalam algoritma intinya.

Sebelum memasuki tahun baru, Google lebih banyak mengandalkan algoritma Panda dan Penguin. Kedua cabang algoritma tersebut mulai meramaikan layanan mesin pencari mulai tahun 2011 dan 2012. Mereka menjadi andalan utama, sering memperoleh penyegaran dan pembaruan dalam beberapa tahun belakangan. Setiap kali terjadi perubahan pada hasil penelusuran, para webmaster dan pecinta SEO langsung melirik algoritma Panda serta Penguin sebagai pelaku utama.

Penguin sudah lama tidak memperoleh update mayor sejak 2014 silam. Perubahan algoritma google terbaru pada 2016 ini membuat banyak pihak menuding bahwa Google telah memperbarui program hewan penghuni kutub utara tersebut. Seolah membantah pernyataan sejumlah pihak, John Mueller selaku perwakilan Google telah mengkonfirmasi bahwa itu bukan update google Penguin, namun membenarkan terjadi perubahan algoritma pencarian.

Perubahan Algoritma Google Hummingbird 2016 !

Bagaimana dengan google Hummingbird? Sejak perilisan September 2013 silam, algoritma terprogram untuk menyusun daftar pencarian lebih tepat dan cepat. Meski memperoleh pembaruan secara berkala, banyak pihak tidak melirik sedikitpun algoritma Hummingbird sebagai si biang kerok. Mengapa demikian?

Seperti diketahui, susunan algoritma Hummingbird lebih banyak menyoroti setiap kata dalam sebuah pertanyaan, yakni memastikan keseluruhan pertanyaan seperti kalimat, percakapan atau makna ikut masuk hitungan ketimbang kata-kata tertentu saja. Adapun tujuan utama yaitu mencocokkan halaman dengan makna jauh lebih baik ketimbang mencocokkan sedikit kata.

Pada intinya, Hummingbird sengaja dirancang untuk menerapkan sebuah teknologi yang bisa menjawab pertanyaan dan makna berdasarkan ratusan miliar halaman website tersimpan di database. Dengan demikian bisa dipastikan bahwa tak ada keterlibatan dari algoritma Hummingbird.

Update Algoritma Google Tanpa Nama !

Dua orang perwakilan Google telah resmi mengkonfirmasi adanya perubahan algoritma google terbaru, tetapi sampai detik ini masih belum ada penetapan nama atau penjelasan secara signifikan dari perubahan inti algoritma tersebut. Lalu, apa kesimpulan yang bisa diperoleh dari semua ini? Bisa dikatakan bahwa perubahan tidak terkait google Panda atau google Penguin, malahan berita mengejutkan justru google Panda sudah menjadi bagian dari inti perubahan algoritma Google terbaru.

Apabila diperhatikan secara seksama perubahan hasil penelusuran dari update algoritma tanpa nama ini, tampaknya kualitas konten jadi sorotan utama termasuk penyertaan video dan gambar, tingkat detil dan tanggal rilis. Update terbaru mungkin saja berkaitan pencarian semantik dan maksud utama yang tengah dicari oleh si pengguna. Update kemungkinan turut menyertakan komponen manual.

Menarik sekali menyimak perubahan algoritma google terbaru pada tahun 2016 ini, tentu banyak hal mengejutkan akan dilakukan Google sebagaimana diprediksi oleh sejumlah pengamat SEO. Apakah itu?

1. Pemeriksaan konten web sekejap mata. Bertahun-tahun Google bertapa mencari racikan formula tepat yang memungkinkan bot atau spider memeriksa konten web secara otomatis dan sekejap mata. Tampaknya racikan sudah siap diaplikasi, paling cepat hadir tahun ini atau tertunda hingga 2017/2018.

2. Penyempurnaan pengecekan backlink. Google semakin pintar mengecek backlink, khususnya menyasar tautan tak alami menuju website tertarget. Dengan kata lain, website kaya kandungan backlink spam harus waspada terhadap inspeksi mendadak Google yang mungkin saja menjatuhi hukuman fatal.

3. Peningkatan standar konten. Pada 2010 silam, sebuah artikel web dianggap baik untuk SEO jika memiliki 500 kata. Angka tersebut naik menjadi 750 kata pada 2012, kemudian meningkat drastis hingga 1000 kata pada 2015. Hal tersebut kemungkinan terus berjalan pada tahun ini, tetapi tak menutup kemungkinan artikel web dengan minim kata tetap meraih peringkat bagus. Akan tetapi Google justru lebih menyukai artikel yang menyiratkan informasi detil.

4. Makin sulit menaklukkan SEO. Dari tahun ke tahun Google terus memperbarui algoritma sehingga lebih rumit ditembus para webmaster yang ingin meraih peringkat teratas dalam waktu sekejap. Makin lama membangun sebuah website dan memperoleh kepercayaan penuh, sebaliknya potensi sandbox semakin mengancam. Agar mudah lepas dari hadangan Google, webmaster perlu meriset, susun rencana dan kesabaran mengeksekusi.

5. Pada akhirnya, sulit menebak rencana spesifik Google meskipun kabar angin menyebut bakal terjadi perubahan algoritma google sebanyak 400 kali pada 2016. Semua bakal terlaksana secara diam-diam, tak jauh berbeda seperti tahun sebelumnya. Intinya, tetap fokus membangun website dan terus berada di jalan kesukaan Google. Mulai sekarang belajarlah untuk menjauhi godaan black hat SEO.

Get our FREE e Book

Start turning your website into a full-time business.

Baca Juga !

Tips Cara Ampuh dan Cepat Mengatasi Google Sandbox 2017

Tips Cara Ampuh dan Cepat Mengatasi Google Sandbox 2017

Tips Cara Ampuh dan Cepat
Mengatasi Google Sandbox 2017

Search Button SEON PORTAL BISNIS One Stop Solution Bisnis Online Indonesia Transparent
Tips Cara Ampuh dan Cepat Mengatasi Google Sandbox 2017

Pemilik website bersedia melakukan apa saja demi peringkat apik pada hasil penelusuran Google, termasuk menjajal metode Search Engine Optimization (SEO) berbau black hat. Walaupun layanan mesin pencari mengijinkan optimasi kata kunci, tetapi ada sejumlah aturan tak boleh dilanggar. Google punya sejumlah hukuman bagi pemilik website nakal, salah satunya “Google Sandbox”.

Apa itu Google Sandbox !

Google Sandbox merupakan sebuah filter atau penyaring yang semula hanya diduga terpasang pada website baru. Dampak hebatnya yaitu sebuah website tidak memperoleh peringkat bagus untuk sejumlah kata kunci dan susunan kata kunci walaupun berisi konten bagus, link masuk (incoming link) berlimpah dan PageRank tinggi. Banyak pakar SEO mengatakan bahwa sandbox merupakan masa percobaan bagi website sekaligus upaya Google memberantas situs spam.

Bisa ditarik kesimpulan bahwa Google Sandbox merupakan proses dimana sebuah website mengalami masa percobaan layaknya website baru. Peringkat pada hasil penelusuran kata kunci andalan tidak diketahui posisi utamanya walaupun punya banyak link masuk dan konten berkualitas. Inilah hukuman paling ditakuti oleh pemilik website yang mengandalkan mesin pencari sebagai satu-satunya sumber trafik.

Pemilik website dan pakar SEO baru mulai menyadari kehadiran efek negatif Google Sandbox pada Maret 2004. Situs yang diluncurkan sesudah bulan tersebut diketahui tak bisa memperoleh peringkat bagus pada beberapa bulan pertama beredar di dunia maya. peringkat hasil penelusuran berada di posisi buruk meskipun menyandang PageRanks bagus, banyak link masuk dan optimasi SEO berkualitas.

Semua website punya peluang setara terkena dampak sandbox. Masalah ini lebih banyak menyapa website baru yang tengah mencari peringkat bagus dalam kompetisi ketat susunan kata kunci. Semua website bakal menghuni sandbox dalam durasi waktu tertentu, namun website yang mencari peringkat pada kompetisi ketat justru menghabiskan waktu lebih lama.

Ada sejumlah alasan mengapa suatu website bebas ancaman sandbox, salah satunya yaitu tanggal peluncuran di dunia maya sebelum Maret 2004. Website yang membidik kata kunci kompetisi rendah cenderung aman dari bahaya sandbox, tetapi tak menutup kemungkinan terkena meski masa percobaan tergolong singkat. Selain itu website dengan nama domain lawas sebelum Maret 2004 juga bebas ancaman masa percobaan.

Cara Mengetahui Website Terkena Google Sandbox !

Mudah sekali untuk mengetahui apakah sebuah website terkena dampak sandbox, cukup jawab tiga pertanyaan sederhana berikut ini!

1. Apakah website anda punya PageRank bagus dan banyak link masuk?

2. Apakah susunan kata kunci sekunder memiliki peringkat bagus pada hasil penelusuran Google?

3. Apakah kata kunci utama tidak muncul pada hasil penelusuran Google?

Jika tiga pertanyaan tersebut dijawab lantang dengan kata “Ya” tetapi kata kunci utama justru tidak ditemukan pada hasil penelusuran, maka website tersebut kemungkinan besar masuk kandang sandbox. Seperti diketahui, Google enggan menampilkan sebuah website yang tengah menjalani hukuman pada hasil penelusuran atau search engine results pages (SERPs). Bahkan tertera tulisan No PageRank jika dipantau via Google Toolbar.

Durasi hukuman sandbox bermacam-macam, mulai satu hingga enam bulan, sedangkan normalnya sekitar satu hingga empat bulan. Website pengusung kata kunci kompetisi rendah justru menjalani durasi hukuman lebih singkat dibandingkan kata kunci kompetisi ketat yang bisa menghabiskan waktu hingga enam bulan. Berdasarkan sejumlah kasus diketahui bahwa durasi hukuman sekitar tiga bulan.

Filter atau penyaring pada sebuah website yang mengalami sandbox akan terus berkurang dari hari ke hari. Nantinya efek bakal hilang sendiri dalam kurun waktu sekitar tiga bulan, sedangkan enam bulan untuk website yang mengusung kata kunci kompetisi ketat. Jadi tidak perlu khawatir dan risau menghadapi situasi ini. Lalu, bagaimana melewati masa hukuman lebih cepat dan singkat?

Cara Mengatasi Google Sandbox !

Memang benar filter sandbox akan hilang sendiri dengan masa durasi sekitar enam bulan, tetapi ini memakan waktu lama dan efek buruk ke website sudah terlanjur besar. Jika enggan berdiam diri menanti “masa pembebasan” dari intaian kotak pasir google sandbox, setidaknya coba jalani sepuluh tips berikut ini berdasarkan pengalaman pakar SEO dan webmaster terpercaya.

1. Terus isi website dengan konten unik nan berkualitas. Buang konten sampah yang sekedar copy-paste dari website lain karena ini sangat tidak disukai oleh Google.

2. Fokus memperbaiki konten website ketimbang membangun backlink atau link masuk. Puasa backlink setidaknya satu atau dua bulan, kemudian bangun perlahan-lahan secara natural dan berkualitas. Beberapa backlink berkualitas tinggi sanggup membawa keluar website dari Google Sandbox.

3. Lakukan riset kata kunci sebaik mungkin sebelum membangun website. Hindari pemilihan kata kunci kompetisi ketat, usahakan bermain di kompetisi menengah atau rendah untuk peluang peringkat lebih baik. Ingat baik-baik, semakin ketat kata kunci yang diusung turut berpengaruh pada durasi masa percobaan di sandbox.

4. Update website atau blog secara berkala untuk memperoleh manfaat SEO. Isi dengan konten baru nan unik secara rutin. Jika konten disukai oleh pengunjung lalu banyak disebar secara sukarela ke sosial media, maka masa hukuman turut berkurang.

5. Bagikan atau sebar konten web ke sosial media mainstream seperti Twitter, Facebook and Google plus. Jika berhasil menjadi viral, maka masa hukuman berkurang dan turut memperoleh trafik dari sosial media.

6. Kirim laman web atau postingan artikel ke beragam situs social bookmarking seperti Digg, Delicious, stumble upon dan lintas.me untuk versi lokal. Selain itu coba promosikan ke situs forum sesuai kategori.

7. Bangun dasar SEO berkualitas tinggi, baik on-page dan off-page. Coba hubungkan artikel posting yang saling berkaitan dan bertautan (interlink). Langkah ini sudah terbukti ampuh melepaskan diri dari bahaya sandbox.

8. Jangan malu mengevaluasi kembali strategi konten marketing yang sudah disusun sebelumnya. Mungkin saja ada yang terlewatkan atau menjadi batu sandungan.

9. Singkirkan semua tautan (link) tidak berkualitas yang mengarah ke nama domain. Coba gunakan layanan pengecek backlink untuk memeriksa profil backlink dan menyingkirkan semua tautan tak berkualitas secara manual.

10. Jika tak mampu menghilang semua tautan tak berkualitas secara manual, coba gunakan Google Disalow Tool.

Sudah mengikuti seluruh tips di atas namun tak ada perubahan sama sekali? Jika masih punya simpanan dana, coba sewa konsultan SEO profesional untuk membebaskan website dari jeratan Google Sandbox. Atau bila dana terbatas, mungkin boleh pertimbangkan saran ini meski agak terpaksa. Apakah itu? Beberapa orang menyarankan ganti nama domain agar cepat terlepas. Meskipun benar, jangan buru-buru mengambil keputusan tanpa menjajal serta mengevaluasi semua tips di atas.

Google sandbox sebenarnya bisa di atasi dengan membeli sebuah website dan langsung mengaktifkan sebelum benar-benar siap untuk peresmian perdana. Walaupun website masih berada di peringkat buncit, tetapi durasi sandbox sudah berjalan. Langkah selanjutnya yaitu menambah jumlah link masuk dan konten unik berkualitas. Jika ingin menghindarinya sewaktu membuat website baru, pertimbangkan penggunaan domain lawas. Itulah semua langkah ampuh dan cepat terbebaskan dari cengkraman Google Sandbox.

Get our FREE e Book

Start turning your website into a full-time business.

Baca Juga !

Pengertian Web Crawler, Indexer, Web Spider dan Robot Spider

Pengertian Web Crawler, Indexer, Web Spider dan Robot Spider

Pengertian Web Crawler, Indexer, Web Spider dan Robot Spider

Search Button SEON PORTAL BISNIS One Stop Solution Bisnis Online Indonesia Transparent

Web Crawler, salah satu syarat utama menguasai Search Engine Optimization (SEO) yaitu mengenal baik seluk-beluk mesin pencari alias search engine. Oleh karena itu pemilik sebuah situs/blog sepatutnya dibekali pemahaman dasar soal apa itu indexer, web spider, web crawler, robot atau bot yang selama ini jadi andalan search engine. Semua elemen tersebut memegang peranan penting dalam menampilkan halaman utama atau laman artikel sebuah situs agar terakses pengunjung.

Pengertian Web Crawler !

Membahas web crawler tak ada bedanya seperti menyinggung spider. Mengapa demikian? Sejujurnya keduanya itu bagai cermin, definisi serupa hanya terbungkus dalam istilah kata berbeda. Ya, crawler itu nama lain dari spider dan begitu pula sebaliknya. Sebagaimana dilansir dari laman TechTarget, crawler adalah sebuah program buatan yang bertujuan mengunjungi situs dan membaca semua halaman serta informasi untuk menghasilkan catatan penting bagi index search engine.

Peran web  crawler sudah tidak tergantikan dan semua layanan search engine butuh itu. Masing-masing mengusung nama berbeda meski berlatar belakang sama, tak heran ada pihak yang menyebutnya spider atau bot. Crawler sengaja diprogram untuk mengunjungi semua situs yang diajukan atau submit ke layanan mesin pencari. Tak hanya keseluruhan situs, melainkan semua halaman satu per satu, entah itu artikel baru rilis dan diperbarui.

Crawler sengaja dirancang khusus agar selektif mengunjungi dan mengindeks situs secara utuh atau halaman spesifik saja. Lalu, mengapa diberi nama demikian? Ternyata semua merujuk pada cara kerja, dimana program merayap atau bergerak pelan sekali menyusuri sebuah situs dan halaman pada waktu bersamaan. Bahkan turut mengikuti link dari satu halaman ke halaman lain hingga semua halaman selesai terbaca.

 

Apa itu Indexer !

Indexer – beberapa orang menyebutnya indexing – adalah sebuah proses pengumpulan, penguraian dan penyimpanan data untuk digunakan kembali oleh search engine. Bisa disimpulkan bahwa indexer bagian atau “tempat” dari semua kumpulan data hasil koleksi search engine. Tugasnya berkaitan erat menampilkan data hasil pertanyaan dan hasil penelusuran dengan kata kunci atau keyword.

Tanpa adanya index, maka kerja search engine semakin berat dan lamban dalam menghasilkan jawaban atas pertanyaan para pengguna. Tanpa sentuhan index bisa dipastikan kinerja semakin rumit karena terus menjalani penelusuran halaman situs dan data yang berkaitan langsung dengan kata kunci, bahkan turut memastikan tak ada satupun yang terlewati.

Indexer tidak sendirian dalam melaksanakan tugas, bahkan turut dipermudah kehadiran web spider atau web crawler. Dengan begitu pengumpulan informasi jadi semakin ringan dan cepat, malahan turut membantu proses pembaruan data serta terbebas dari ancaman spam. Ada banyak bagian berbeda melekat erat pada search engine index seperti faktor desain dan struktur data. Faktor desain bertujuan merancang arsitektur index dan menentukan cara kerja index.

 

Apa itu Web Spider !

Seperti dijabarkan pada paragraf sebelumnya, index tidak bekerja sendirian melainkan turut dibantu web spider. Lalu, apa itu sebenarnya? Web Spider merupakan sebuah program dirancang khusus untuk mengunjungi sebuah situs, membaca halaman dan beragam informasi penting lainnya dalam upaya membuat catatan penting bagi search engine index. Dengan demikian kinerja semakin ringan dan cepat.

Sebagian besar layanan search engine mengusung program ini, terkadang diberi nama berbeda meski fungsinya serupa. Web Crawler atau bot merupakan nama lain dari web spider, adapun tujuan utama yaitu mengunjungi situs secara utuh ataupun artikel/postingan yang baru saja dirilis. Keseluruhan situs atau halaman tertentu dapat dikunjungi dan terindeks secara selektif.

Kenapa program unik ini diberi nama spider? Pemberian nama seperti hewan serangga “laba-laba” karena cara kerjanya yang serupa. Web Spider mengunjungi banyak situs sejajar dalam waktu bersamaan, persis kaki dari seekor laba-laba yang dapat menjangkau area luas pada jaring sangkarnya. Web Spider dapat “merayap” ke berbagai laman sebuah website dalam beberapa cara. Salah satunya adalah mengikuti semua link hypertext di setiap halaman hingga semua halaman selesai terbaca.

 

Apa itu Robot atau Bot !

Selain indexer, spider dan crawler, maka ada satu lagi istilah yang wajib diketahui yakni robot atau biasa dipanggil bot. Robot menurut pengertian dasar adalah sebuah program yang berjalan otomatis di internet, tetapi pada kenyataan tak semua berjalan tanpa lepas kendali begitu saja.

Beberapa bot justru akan melaksanakan perintah usai menerima masukan atau input spesifik. Bot terbagi menjadi beberapa tipe, tetapi sebagian besar yang beredar di internet justru berkaitan erat dengan crawler, chat room bot dan malicious bot. Crawler seringkali digunakan oleh layanan search engine untuk memindai situs secara teratur.

Jenis bot ini akan bergerak perlahan menyusuri situs dengan mengikuti link di setiap halaman. Crawler nantinya menyimpan konten setiap halaman pada index pencarian. Dengan memakai algoritma kompleks, search engine dapat menampilkan halaman paling relevan yang berhasil ditemui oleh crawler untuk menjawab pertanyaan spesifik.

Robot search engine selain dikenal sebutan “bot” ternyata juga memiliki nama lain tak kalah beken seperti bot, wanderer, spider, and crawler. Terlepas dari perbedaan nama, program tersebut merupakan andalan bagi layanan mesin pencari beken dunia seperti Google, Bing, and Yahoo! Robot sengaja dirancang untuk membangun database. Sebenarnya sebagian besar robot bekerja seperti web browser, hanya saja tidak butuh interaksi pengguna.

Mudah sekali bagi robot mengakses sebuah situs. Sebagaimana tertulis pada paragraf sebelumnya, bot seringkali memakai link untuk mencari dan terhubung dengan situs lain. Dengan begitu bisa mengindeks judul, ringkasan atau seluruh konten dokumen jauh lebih cepat ketimbang kemampuan manusia. Oleh karena itu layanan search engine terus berusaha memperbaiki kualitas bot demi hasil penelusuran lebih baik lagi.

Kehadiran robot memang menguntungkan search engine, apalagi terkenal efisiensi dan cepat. Akan tetapi bisa menjadi malapetaka bagi pemilik situs jika robot dirancang dengan konstruksi buruk. Mengapa demikian? Ketika “robot berkualitas rendah” menyusuri situs, maka kinerja server pun semakin berat. Oleh karena itu pemilik situs dapat mengecualikan atau membatasi akses robot dengan menaruh file robots.txt pada server. Nantinya file tersebut akan menjabarkan perintah mengenai apa saja bagian dari situs yang boleh diakses.

Kesimpulan

Jika melihat penjelasan tentang indexer, web spider, web crawler dan bot, maka bisa ditarik kesimpulan bahwa ketiga istilah tersebut memiliki makna serupa. Spider merupakan nama lain dari crawler dan bot, begitu pula sebaliknya. Hampir semua layanan search engine terutama pemain raksasa seperti Google, Bing dan Yahoo sangat mengandalkannya untuk penyusunan indeks.

Indexer atau proses indexing sangat tergantung pada kesiapan spider, crawler atau bot. Dengan konstruksi rapi berkualitas, justru membantu pengumpulan data semakin lebih cepat dan akurat. Umumnya setiap layanan search engine memiliki robot andalan berbeda-beda, sehingga mempengaruhi hasil pencarian. Sampai saat ini bot buatan Google masih keluar sebagai juara karena selalu menghasilkan informasi relevan sesuai pertanyaan atau kata kunci (keyword).

Penting sekali bagi pemilik situs mengenal apa itu indexer, spider, crawler, robot atau bot pada search engine agar tidak terjadi kesalahpahaman dan semakin mengerti seluk-beluk dunia SEO.esifik menurut sumber web. Pengguna pun bisa memperoleh hasil efektif tanpa buang-buang banyak waktu.

3. Teratur

Layanan mesin pencari dapat memberikan keteraturan dalam dunia internet dan website. Artinya bahwa beragam informasi yang tersebar luas di server seluruh pelosok dunia dikumpulkan pada satu wadah sehingga akses lebih mudah, kapanpun dan dimana saja. Ini berdampak positif bagi pemilik situs yang bisa memperoleh kunjungan secara gratis serta stabil.

Jenis Jenis Search Engine

Mesin pencari saat ini dianggap metode terkuat mempromosikan website via online. Para pemilik situs menganggapnya bagian dari Public Relation yang bekerja secara diam-diam dibalik layar. Hal ini semakin diperkuat hasil studi menyebutkan bahwa antara 40-80 persen pengguna internet menemukan informasi atau dokumen melalui fitur pencarian mesin pencari.

Kehadiran mesin pencari menguntungkan pemilik situs, apalagi jumlah pengguna layanan ini mencapai 625 juta setiap hari seperti dilansir dari laman Searchenginewatch. Tak heran pemilik situs sangat tergantung pada layanan SE(search engine) terutama demi menghasilkan trafik tertarget menuju website supaya berpeluang lebih besar untuk terjadinya pembelian. Mesin pencari juga selalu membawa pengunjung baru menuju website tertarget dengan penyusunan strategi optimasi yang tepat.

Dalam mencari dokumen serta mempromosikan situs, maka pengguna internet dan pemilik website perlu mengenal beragam tipe seach engine, yakni:

1. Crawler-Based Search Engine

Layanan mesin pencari ini menggunakan program software otomatis untuk mensurvei dan mengkategorikan banyak laman web. Program yang digunakan oleh mesin pencari untuk mengakses laman web disebut spider, namun pada kondisi tertentu dikenal dengan nama lain seperti ‘crawler’, ‘robot’ atau ‘bot’.

Spider akan mencari laman web, mengunduh dan menganalisa informasi terkandung pada laman web. Nantinya laman web segera ditambahkan ke database mesin pencari. Ketika pengguna internet melakukan pencarian, mesin pencari segera memeriksa database dari laman website yang mengandung kata kunci spesifk lalu menampilkan dalam bentuk daftar tautan (link).

Daftar berupa tautan menuju website ditampilkan menurut pencarian kata kunci terdekat yang ingin ditemukan oleh pengguna internet. Crawler-based search engine tanpa henti menelusuri internet untuk menemukan laman web baru lalu memperbarui informasi database sehingga pengguna selalu memperoleh informasi terbaru. Adapun contoh dari crawler-based search engine yakni: Google dan Ask Jeeves.

2. Direktori

Layanan ini menggunakan editor manual alias keterlibatan langsung manusia untuk menentukan kategori suatu situs. Dengan kata lain, situs ditempatkan sesuai kategori spesifik pada database direktori. Editor manual secara spesifik akan memeriksa dan menilai sebuah situs berdasarkan informasi yang diperoleh dan memakai aturan berlaku. Ada dua layanan direktori terkenal sampai saat ini, yakni: Yahoo Directory dan Open Directory (dmoz.org).

Beberapa direktori menawarkan layanan pembayaran. Jika suatu situs atau website ingin lebih cepat terindeks, maka wajib membayar sejumlah uang. Tapi, jangan terburu-buru dalam mengambil keputusan, mengingat beberapa direktori juga menawarkan layanan gratis meski proses indeks memakan waktu cukup lama.

3. Hybrid Search Engine

Layanan Hybrid mengandalkan kombinasi sempurna antara hasil crawler-based dan direktori. Saat ini semakin banyak mesin pencari berpindah haluan ke model hybrid-based, namun dua layanan paling terkenal sebagai pencetus konsep tersebut adalah Google dan Yahoo.

4. Meta Search Engine

Layanan Meta SE mengambil data dari semua hasil yang ditampilkan oleh mesin pencari lainnya. Nantinya hasil pencarian tersebut dikombinasikan menjadi daftar pencarian berukuran besar. Adapun dua layanan meta mesin pencari paling terkenal yakni Metacrawler dan Dogpile.

5. Search engine khusus

Merupakan jenis SE yang dikembangkan secara khusus demi memenuhi kebutuhan pencarian lebih spesifik. Adapun layanan mesin pencari khusus seperti pencarian belanja (Yahoo Shopping), pencarian lokal (nzs), pencarian nama domain (freeparking), pencarian freeware & shareware (downloads.com) dan masih banyak lagi sesuai dengan kebutuhan pengguna internet.

6. Pay per click (PPC)

Salah satu layanan berbayar dari search engine untuk keperluan marketing dan promosi web. Banyak situs memanfaatkan PPC untuk memperkenalkan atau mengiklan produk atau jasa kepada khalayak ramai agar lebih mudah diterima. Nantinya situs muncul di rangking paling teratas demi memperoleh klik lebih banyak. Google AdWords dan Bing merupakan dua layanan paling terkenal. dimana biaya yang dikenakan kepada pemilik situs berdasarkan klik atau Click-Through Rate (CTR).

Demikianlah pengertian search engine, manfaat search engine dan jenis jenis search engine yang berdampak positif bagi pengguna internet di seluruh dunia. Kehadiran layanan ini turut mempermudah pemilik situs untuk mengoptimalkan konten dan penjualan produk ataupun jasa. Google merupakan situs mesin pencari terbesar dengan ratusan juta pengakses setiap hari, maka tak heran jika kebanyakan pemilik situs berusaha mengoptimalkan rangking web di google via SEO.

Apa itu Algoritma Google Jenis dan Tips Algoritma Google

Apa itu Algoritma Google Jenis dan Tips Algoritma Google

Apa itu Algoritma Google Jenis dan Tips Algoritma Google

Search Button SEON PORTAL BISNIS One Stop Solution Bisnis Online Indonesia Transparent

Apa itu Algoritma Google dan Optimasi SEO !

Optimasi SEO memang berdampak besar bagi peringkat sebuah website pada hasil penelusuran mesin pencari (search engine) untuk kata kunci tertentu. Akan tetapi dibalik itu ada sebuah “senjata unik” sudah dipersiapkan sehingga patut dihindari pemilik website sejak dini. Sebagai mesin pencari terpopuler se-dunia, Google selalu ingin memberi layanan terbaik berupa hasil penelusuran kata kunci terakurat.

Oleh karena itu, Google terus mengembangkan dan memperbarui program berupa algoritma pencarian. Langkah demi langkah prosedur dan kalkulasi diterapkan oleh perusahaan raksasa internet tersebut untuk hasil penelusuran lebih akurat, relevan, berkualitas tinggi dan baru.

Hingga saat ini ada empat algoritma pencarian sudah dirilis resmi oleh Google, yaitu CaffeinePandaPenguin, dan paling baru ditambahkan ke sistem adalah Hummingbird. Lalu, apa itu sebenarnya algoritma Google? Bagaimana cara kerjanya? Bagaimana mengoptimalkan semua perubahan agar berdampak positif ke website?

Apa itu Algoritma Google !

Apa rahasia yang membuat Google tampil sebagai situs mesin pencari terpopuler? Ketepatan dan keakuratan hasil penelusuran merupakan kunci utama yang membuat pengguna internet jatuh hati. Demi mewujudkan hal tersebut, maka algoritma pencarian selalu diperbarui sehingga membatasi kehadiran website berkualitas rendah yang mengandung spam. Algoritma sengaja diterapkan untuk memilih dan mengidentifikasi pencarian teratas menurut sejumlah faktor spesifik.

Algoritma terprogram, berjalan dan dimodifikasi oleh programmer. Segala sesuatunya setelah berhasil lolos tahap uji coba akan dipakai untuk mencari spider atau bot. Semua link yang berhasil ditemukan kemudian bakal ditelusuri oleh bot dan diikuti arah tujuannya. Ini termasuk pekerjaan utama bot untuk mengindeks apa yang ditemui kemudian menyimpan semua informasi dalam database virtual.

Pemilik website dan pakar SEO seringkali dibuat pusing oleh Google setiap kali mengumumkan perubahan algoritma. Mereka pun memilih bersiap-siap menghadang kemungkinan terburuk. Banyak “cerita horor” setiap kali terjadi perubahan algoritma pencarian. Google tak segan menghukum website yang ketahuan menjajal teknik SEO black hat dan posting artikel rendah kualitas.

Algoritma pencarian terbaru milik Google terkenal jahat membuang website cacat, meskipun pernah memperoleh peringkat terbaik sekalipun. Demi hasil penelusuran lebih akurat, Google lebih menyukai website berisi konten berkualitas dan selalu mengikuti pedoman yang telah ditetapkan. Sejujurnya tidak mudah memprediksi perubahan algoritma dan bagaimana dampak ke website. Oleh karena itu, lakukan persiapan awal sebelum serangan datang.

Jenis Algoritma Google !

Seperti tertulis pada paragraf sebelumnya, sejauh ini hanya ada empat perubahan algoritma Google yang dimulai dari Google Caffeine, Panda, Penguin, dan Hummingbird. Masing-masing algoritma mempunyai karakteristik berbeda demi memperlihatkan hasil penelusuran akurat bebas spam.

1. Algoritma Google Caffeine

Apa itu algoritma google caffeine? Algoritma Google Caffeine resmi dirilis oleh Google pada 2009 silam yang bertujuan mengamati struktur arsitektur website pada indeks mereka dan begitu juga website yang belum dijamah. Faktor infrastruktur website disertakan ke dalam penentuan peringkat dan ini mempermudah Google untuk memperbarui indeks pencarian agar lebih dinamis dan organisir saat menentukan katalog jutaan tautan (link) pada database mereka.

2. Algoritma Google Panda

Apa itu algoritma google panda ? Selang dua tahun kemudian setelah google caffeine, tepatnya 2011, Google kembali merilis perubahan algoritma bernama Panda. Adapun tujuan utamanya yaitu menghukum website sebanyak mungkin yang doyan merilis konten berkualitas rendah. Pada masa ini konten berkualitas dianggap sebagai raja, bahkan berperan sentral dalam analisis dan evaluasi website.

Pada perilisan perdana, Panda mengevaluasi indeks milik Google dan mencari website yang mengandung duplikat konten, pemasangan iklan memberatkan serta beragam teknik berbahaya kaya spam ala black-hat SEO. Untungnya semua website yang dihukum punya kesempatan kedua untuk memperbaiki kesalahan, tetapi menulis ulang artikel yang dianggap konten kualitas rendah justru tak menyelesaikan masalah.

3. Algoritma Google Penguin

Apa itu algoritma google penguin? Usai mengidentifikasi dan menghukum website berkonten kualitas rendah, inilah waktu tepat bagi Google lebih fokus dan memperbaiki kesalahan penerapan SEO. Algoritma baru akhirnya diperkenalkan kembali setahun usai perilisan Panda, tepatnya 2012 silam, kali ini mengusung nama hewan Penguin. Adapun tujuan utama yaitu meregulasi website spam atau optimasi berlebih.

Penguin turut mengincar situs yang melakukan keyword stuffing dan segala perbuatan berhubungan langsung dengan black-hat SEO. Di sisi berbeda algoritma ini justru menghadiahi website yang mengusung white-hat SEO dan diperkaya konten berkualitas tinggi yang disukai pembaca.

Penguin versi perdana membidik website yang memanipulasi tautan agar memperoleh lebih banyak trafik. Algoritma juga menghukum website yang mengandung tautan tidak relevan sesuai niche atau industri. Versi terbaru penguin yaitu mencari lebih banyak website spam dan taktik membangun tautan mencurigakan seperti beli tautan untuk menarik lebih banyak trafik natural.

4. Algoritma Google Hummingbird

Apa itu algoritma google hummingbird? Google pertama kali merilis Hummingbird pada ulang tahun ke-15, tepatnya September 2013 silam, bertujuan mencari website yang mengedepankan kecepatan dan ketepatan. Awalnya perilisan Hummingbird dijadwalkan pada Agustus, namun dibatalkan Google sehingga baru resmi berjalan sehari sebelum ulang tahun Google ke-15 yang jatuh pada tanggal 27 September.

Apa yang membuat Hummingbird berbeda dari versi terdahulu? Algoritma ini memungkinkan Google menyegarkan kembali indeks dan mesin pencari buatan mereka. Tak hanya itu, mereka turut menyimpan beragam elemen penting milik algoritma pencarian versi terdahulu. Bisa dikatakan bahwa Hummingbird jauh lebih lengkap.

Penerapan algoritma Hummingbird untuk pertama kali ternyata berdampak besar bagi 90 persen pencarian yang sudah disusun sebelumnya. Akan tetapi Hummingbird dirancang untuk sistem pencarian lebih mutakhir, sebagai contoh memakai layanan Google Voice dalam pencarian kata kunci tertentu tanpa perlu mengetik di layar atau keyboard. Ini salah satu perkembangan terbaru dari algoritma versi anyar, Google pun terus berusaha menguji sistem pencarian anyar.

Patuhi Aturan Tanpa Melawan Algoritma Google !

Perubahan algoritma pencarian milik Google seringkali dianggap ancaman terbesar bagi pemilik website. Sejumlah pakar SEO mengatakan tak perlu khawatir selama menaati aturan berlaku dari Google. Demi hasil penelusuran lebih akurat, relevan dan segar, maka algoritma terus diperbarui dan dikembangkan. Adapun target utama yaitu menampilkan jawaban paling relevan dan cepat usai mengajukan pertanyaan.

Google bakal selalu merilis algoritma terbaru sehingga pemilik website tidak cepat berpuas diri meskipun sudah berada di peringkat teratas dan banjir trafik pengunjung. Pemilik harus terus bekerja mengoptimalkan website dengan teknik sah dan selalu memposting konten relevan agar terhindar hukuman dari perubahan algoritma.

Setiap kali terjadi perubahan atau update, maka berdampak luas pada semua server Google di berbagai negara. Oleh karena itu metode SEO cenderung sama, begitu pula dalam merasakan dampak hebatnya, meskipun itu baik atau buruk. Perubahan algoritma turut dianggap tantangan bagi penggila SEO untuk menaklukkan penetapan aturan baru mengenai peringkat hasil penelusuran.

Sampai saat ini Google masih belum merilis nama untuk jenis algoritma terbaru melainkan sejumlah update minor untuk Hummingbird. Kini cara penelusuran kata kunci jauh lebih kaya dan atraktif, apalagi semakin menyesuaikan perkembangan teknologi mutakhir perangkat smartphone. Hasil penelusuran semakin berbobot dan minim website spam tak berguna.

Apa itu SSL Security Protokol Http dan Protokol Https

Apa itu SSL Security Protokol Http dan Protokol Https

Apa itu SSL Security Protokol Http dan Protokol Https

Search Button SEON PORTAL BISNIS One Stop Solution Bisnis Online Indonesia Transparent

Apa itu SSL Security ?

Banyak ilmu menarik dapat dipelajari dari jaringan komputer dan internet, setidaknya seorang pemilik situs atau blog mengenal apa itu  SSL Security Secure Socket Layer (SSL), protokol HTTP dan protokol HTTPS. Pembahasan ketiga pokok tersebut mungkin bikin pusing kepala, tetapi tidak ada salahnya mengetahui pengetahuan dasar yang memang sangat penting dan mungkin saja bisa berguna suatu saat nanti. Yuk pelajari!

Pengertian dasar Secure Sockets Layer (SSL) adalah sebuah protokol jaringan komputer yang mengelola otentikasi server, otentikasi klien dan komunikasi terenkripsi antara server dan klien. Untuk menjalankan tugas, SSL memakai sebuah kombinasi enkripsi public-key dan symmetric-key untuk melindungi sebuah koneksi antara dua mesin -biasanya server web atau mail dan mesin klien- yang berkomunikasi via internet dan jaringan internal.

Dengan memakai model acuan OSI sebagai konteks, SSL berjalan di atas protokol TCP/IP -yang bertanggung jawab untuk membawa dan mengarahkan data melalui sebuah jaringan- dan di bawah protokol tingkat lebih tinggi seperti HTTP dan IMAP, mengenkripsi data dari koneksi jaringan dalam lapisan aplikasi dari serangkaian protokol internet. “Sockets” bagian istilah mengacu pada metode sockets yang mengoper data bolak-balik antara klien dan proram server dalam sebuah jaringan, atau antara lapisan program di komputer yang sama.

Sementara itu protokol Transport Layer Security (TLS) berevolusi dari SSL dan sebagian besar telah digantikannya, meskipun demikian istilah SSL atau SSL/TLS umumnya masih digunakan. Sampai saat ini SSL sering digunakan untuk mengacu pada TLS. Kombinasi SSL/TLS saat ini merupakan protokol keamanan paling banyak dikerahkan dan dijumpai dalam beragam aplikasi seperti web browser, email dan situasi apapun dimana data aman dipertukarkan melalui jaringan, entah itu file transfer, koneksi VPN, pesan singkat dan suara via IP.

Setelah mengetahui apa itu SSL Security menarik sekali membahas sejarah protokol SSL yang ternyata dikembangkan oleh Netscape Communications pada tahun 90-an. Waktu itu perusahaan ingin mengenkripsi data yang transit antara browser Netscape Navigator dan web server di internet untuk memastikan data rahasia -seperti nomer kartu kredit- aman terlindungi. Versi 1.0 tidak pernah dirilis ke publik, sedangkan versi 2.0 resmi rilis pada Febuari 1995 meski punya sejumlah kekurangan dari segi keamanan

Sedangkan SSL versi 3.0 rilis pada 1996 dan mengalami desain ulang seutuhnya. Walaupun tak pernah dijadikan standar formal, rancangan SSL 3.0 pada tahun 1996 justru dipublikasikan oleh IETF sebagai sebuah dokumen bersejarah dalam RFC 6101. Dengan demikian versi tersebut jadi standar de facto untuk menyediakan keamanan komunikasi melalui internet.

Usai IETF secara resmi mengambil alih protokol SSL untuk membakukannya melalui proses terbuka, SSL versi 3.1 kemudian dirilis sebagai Transport Layer Security 1.0 dan memperkenalkan beragam pembaruan keamanan untuk mengurangi kelemahan yang pernah ditemukan pada versi terdahulu. Perubahan nama sengaja dilakukan untuk menghindari sedikitpun masalah hukum dengan Netscape.

Banyak sekali serangan terhadap SSL terfokus pada masalah implementasi, tetapi kerentanan POODLE justru dikenal cacat pada protokol SSL 3.0. Kecacatan tersebut tidak bisa dibiarkan begitu saja, malahan berdampak negatif. Hal itu seakan beri kesempatan bagi seseorang tak bertanggung jawab untuk mendekripsi informasi bersifat rahasia seperti otentikasi cookie.

TLS 1.0 buatan IETF justru tidak rentan terhadap serangan tersebut karena telah menentukan bahwa semua lapisan byte atau padding byte harus punya nilai sama dan terverifikasi. Hal penting lain yang membedakan antara SSL dan TLS yang membuat TLS dikenal sebagai protokol lebih aman dan efisien adalah otentikasi pesan, key material generation dan sokongan rangkaian sandi dengan TLS yang mendukung algoritma lebih baru dan aman. Hingga saat ini IETF telah merilis versi terbaru yaitu TLS 1.2.

Mempelajari cara kerja protokol SSL itu gampang-gampang susah. Pastinya protokol ini terdiri atas dua sub-protokol yaitu record dan handshake. Keduanya memungkinkan klien untuk mengkonfirmasi server dan membangun koneksi SSL terenkripsi. Ketika server sudah terkonfirmasi, maka klien dan server membangun pengaturan sandi dan kunci bersama untuk mengenkripsi informasi yang ditukar selama sesi berjalan. Hal ini memastikan kerahasiaan dan integritas data. Pada tahapan ini pengguna tidak bisa melihat langsung secara kasat mata. Demikian sekilas mengenai apa itu SSL Security.

 

Apa itu protokol HTTP?

Setelah memahami apa itu SSL Security selanjutnya kita akan membahas tentang protokol http. Istilah HTTP seringkali terlihat pada kolom halaman web browser dan masih banyak orang tak mengetahui pengertian dasarnya. Sebagaimana dilansir dari laman wikipedia, HTTP singkatan Hypertext Transfer Protocol yakni sekumpulan peraturan untuk transfer file seperti teks, gambar grafik, suara, video dan multimedia di dunia maya alias World Wide Web.

Ketika pengguna internet membuka web browser, maka secara tidak langsung memanfaatkan HTTP. Sebagai informasi tambahan, HTTP merupakan sebuah protokol aplikasi berjalan di atas rangkaian protokol TCP/IP yang dianggap protokol fondasi untuk internet.

Konsep HTTP meliputi ide bahwa file dapat mengandung acuan atau petunjuk ke file lain yang kemudian diseleksi ketat. Hasil seleksi nantinya mengeluarkan permintaan transfer tambahan. Setiap mesin web server mengandung HTTP daemon, yakni sebuah program yang dirancang untuk menunggu beragam permintaan HTTP dan menangani semuanya ketika datang.

Web browser adalah klien HTTP yang mengirimkan beragam permintaan ke mesin server. Ketika pengguna browser memasukkan permintaan file seperti membuka URL atau meng-klik tautan hypertext, maka browser membangun permintaan HTTP dan mengirimnya ke Internet Protocol address (IP address). HTTP daemon pada mesin server akan menerima permintaan dan mengirimnya kembali ke browser. Kini perkembangan HTTP telah mencapai versi 1.1.

Apa itu protokol HTTPS?

HTTPS -singkatan dari Hypertext Transfer Protocol Secure- yakni penggunaan Secure Socket Layer (SSL) atau Transport Layer Security (TLS) sebagai sub-layer di bawah lapisan aplikasi HTTP reguler. HTTPS mengenkripsi dan mendekripsi permintaan halaman, begitu juga halaman yang dikembalikan oleh web server. Penggunaan HTTPS bertujuan melindungi pencurian data bersifat rahasia. Sebagaimana dilansir dari laman wikipedia, HTTPS dikembangkan oleh Netscape.

Baik antara HTTPS dan SSL dukung penggunaan sertifikat digital X.509 dari server. Sementara itu HTTPS menggunakan port 443 ketimbang HTTP port 80 dalam berinteraksi dengan lapisan lebih rendah, yakni TCP/IP. Contoh kasus, pengguna mengunjungi sebuah situs untuk melihat katalog online. Ketika siap melakukan order, maka bakal menuju halaman situs dengan Uniform Resource Locator (URL) yang dimulai https://. Ketika meng-klik tombol “Send” untuk mengirim halaman kembali menuju katalog, maka lapisan HTTPS pada browser akan mengenkripsinya.

Pernyataan resmi yang diterima dari server akan melintas dalam bentuk terenkripsi, datang dengan https:// URL, dan bisa didekripsi oleh HTTPS sublayer milik web browser. Efektivitas HTTPS dapat terbatasi oleh implementasi buruk dari browser atau perangkat server atau kurang dukungan untuk sejumlah algoritma. Meskipun HTTPS melindungi data ketika melintas antara server dan klien, ketika data terdekripsi di tujuannya, maka selanjutnya tingkat keamanan hanya selevel komputer host.

Demikian pembahasan mengenai apa itu SSL Security, protokol http dan protokol https. Berdasar pengertian diatas, memang agak sulit bagi pemula untuk mengenal dan mempelajari lebih dekat terkait Secure Socket Layer (SSL), protokol HTTP dan protokol HTTPS. Pastinya ketiga unsur tersebut memiliki peran nyata dalam menghadirkan keamanan data selama terhubung jaringan internet.

Your Details

Let us know how to get back to you.


How can we help?

Feel free to ask a question or simply leave a comment.