Loki Loki
80
BLOG

Jak zostałem spamerem

Loki Loki Kultura Obserwuj notkę 4
Od kilku lat zajmuję się marketingiem internetowym i pozycjonowaniem stron. Dla niewtajemniczonych wyjaśniam, iż pozycjonowanie strony polega na podjęciu działań w wyniku których strona zajmuje wyższe pozycje w wynikach wyszukiwania organicznego (nie płatnego) dla określonych wcześniej słów i fraz. Pozycjonowanie (SEO – Search engine optimization) dodane do reklam typu Pay per click, kampanii banerowych, promocji na portalach web 2.0, itp. staje się marketingiem internetowym (SEM - Search engine marketing).

Tyle tytułem wstępu. Mógłbym jeszcze długo i nawet z przyjemnością rozwodzić się nad teorią pozycjonowania, przejdźmy jednak internauto drogi do historii mojego upadku ;)

 

Content is King

Szczęśliwie się złożyło, że zaraz na progu mojej przygody z SEO znalazłem chętnego pracodawcę, który zafundował mi udział w konferencji / szkoleniu, z którą przedstawiciele gigantów internetu objeżdżają cały świat. Po czterech dniach spędzonych na Search Engine Strategies w Nowym Jorku wiedziałem już wszystko co najważniejsze: Content is King, Treść jest Królem (lub króluje, jak kto woli). Oczywiści była też mowa o sprawach czysto technicznych, jak: poprawny i krótki kod strony, właściwa nawigacja i użycie w odpowiednich miejscach właściwych tagów, używanie js i flasha tylko w uzasadnionych wypadkach, przekierowania 301 itp, itd. Najważniejszą jednak i najczęściej podkreślaną przez prelegentów radą dla uczestników było stwierdzenie: jeśli będziesz miał na stronie unikalne, przydatne i właściwe twojej stronie treści wtedy twój serwis na pewno osiągnie sukces.

Nie pozostało nic innego jak zabrać się do pracy.

 

Black seo, white seo, czyli szara rzeczywistość.

Praca wre, mijają tygodnie. Serwis się rozrasta, nowe artykuły, fora, komentarze, galerie, sondaże, a wszystko zgoddne ze standardami W3C. Pojawiają się kolejni klienci. Efekty są, ale niezadawalające. Coraz częściej szukam więc pomocy na polsko i angielsko języcznych serwisach, forach, blogach (btw. pozdrowienia dla ekipy z forum.optymalizacja.com chociaż i tak nie poznają bo używam innego nicka). Kolejny blog, kolejne forum i powoli spadają z oczu klapki. Król jest nagi.

Algorytm Google, którego innowacyjność polegała głównie na tym, że kolejność w wynikach wyszukiwania była ustalana przede wszystkim na podstawie popularności serwisu w internecie jest powszechnie oszukiwany. Ilość linków prowadzących do serwisu jest często znacznie ważniejsza od unikalnych treści jakie się na nim znajdują. Ile treści można wprowadzić na stronę firmy, która zajmuje się na przykład sprzedażą mebli ogrodowych? 10, 20 artykułów lub newsów? Okazuje się, że zamiast kolejnego artykułu o tym samym fotelu ogrodowym skuteczniejsza jest np. operacja polegająca na wykupieniu innej domeny, wrzuceniu tam tegoż artukułu, dorzuceniu kilkudziesięciu (lub wiecej) linków prowadzących do nowej domeny i w końcu na naszej nowej zaindeksowanej już domenie wklejenie linku „fotel ogrodowy” prowadzącego do właściwej strony firmowej. Tak właśnie powstają strony tzw. zaplecza. Zamiast stawiać nowe strony możemy kupować linki na istniejących, jednak to metoda dobra na krótką metę, pozycjoner powinien posiadać własne zaplecze.

 

Co na to Google?

Google i inne wyszukiwarki wiedzą oczywiście o mankamentach własnych algorytmów. W marcu na oficjalnym blogu Google pojawiła się notka, w której podjęto ten problem. Ciekawostką może być fakt, że wpis kierowany przede wszystkim do Polaków (ach, ta nasza narodowa „zaradność” ;) ), początkowo pojawił się w języku polskim, dopiero później przetłumaczono go na angielski (nie jest to wersja bloga na Polskę, lecz ogólnoświatowa wersja dla webmasterów). Niestety zamiast propozycji sensownej alternatywy dla tego rodzaju działań Google serwuje propagandę o tym, że są one nieefektywne. Część wpisu poświęca też kopiowaniu znanych z dobrej treści serwisów, jak Wikipedia lub Open Directory Project, co świadczy raczej o tym, że pozycjonerzy nadal są o krok do przodu, gdyż coś takiego było może dobre rok temu, dziś nikt do pozycjonowanego serwisu nie wrzuci kopii wiki. Oczywiście są też zapewnienia, że cały czas nad tym pracują. Ciekawie przy tych zapewnieniach wyglada to: Spammer Make Fools of Google – czyli zrobenie głupka z Google na skalę wręcz gigantyczną. Gdzie jest więc ten poprawiany algorytm, skoro jakiś spamer robi 6 000 identycznych stron i algorytm ich nie wykrywa mimo zaindeksowania wszystkich. Jak ma z nim walczyć jego konkurencja? Treścią, do której nikt nie dotrze?

 

Jestem spamerem

Argumentem przeciwko „spamowaniu” jest głównie to, że treść strony powinna być tworzona dla użytkowników, a nie dla wyszukiwarek. Całkowicie się z tym zgadzam. Klient wchodząc na stronę powinien w łatwy sposób znaleźć interesujące go informacje, produkty i usługi. Jeżeli nie zaprojektuję strony tak, by była dla niego przyjazna to tracę na tym potencjalny dochód. W pozycjonowaniu nie chodzi o tworzenie śmieci, lecz o pozycje w wyszukiwarkach. To, że takie a nie inne działania zapewniają lepsze wyniki nie jest moją winą, lecz programistów, których algorytm wyszukiwarki działa tak, a nie inaczej. Wolałbym zastanawiać się nad coraz ciekawszymi narzędziami dla użytkowników (z zawodu jestem programistą), ale jeśli nie zapewnię dobrego miejsca na liście wyników to i tak nikt do nich nie dotrze.

Właściciele wyszukiwarek z programami pay-per-click nie mają problemu z tym, by najgorszego internetowego śmiecia umieścic na samym szczycie płatnych, o ile tylko jego właściciel jest skłonny za to płacić. Biorą pieniądze za klikanie użytkowników nieświadomych tego, że taka strona wcale nie musi być wartościowa (gdzie ta troska o użytkownika?). Wszystko jest dobrze dlatego, że kasa płynie do ich kieszeni. Jeżeli jednak ja zaproponuje komuś, kto od lat prowadzi prowadzi np. bloga w tematyce podobnej do pozycjonowanego przeze mnie serwisu, wkłada w niego swoją pracę i czas, by za określoną kwotę umieścił u siebie link do mnie to nazywają mnie spamerem. Zapłaciłem innemu szaremu użytkownikowi internetu. Pieniądze z mojego konta popłynały na jego konto, bez żadnej prowizji dla Google, czy Yahoo. Gdybym był na ich miejscu pewno też by mi się to nie podobało. Gdy zmienią się algorytmy to zmienią się też metody, a póki co... jestem spamerem.

ps.1. promowanie w internecie serwisów takich jak Salon24 to inna historia, SERPs nie są tu tak ważne jak w typowych stronach firmowych, ale to już temat na kolejny wpis ;)

ps.2. z góry przepraszam za literówki i styl

Loki
O mnie Loki

Nowości od blogera

Komentarze

Inne tematy w dziale Kultura