All posts in Blog o Seo Kraków

Agenda SEM KRK w 2016 r.

Przedstawiciel Studio Grafpa miał okazję zawitać na trzecim spotkaniu pasjonatów marketingu internetowego organizowanym przez DEVA GROUP w Krakowie. Spotkanie obyło się 7 października 2016 r. w kawiarni Pauza In Garden. W spotkaniu wzięło udział 6 prelegentów, a następnie odpowiadali oni na pytania zgłoszone wcześniej przez uczestników. Oto nasze subiektywne wrażenia i podsumowanie wystąpień, oraz to co można z tego było wyciągnąć konstruktywnego dla pozycjonowania stron, czy też pozycjonowania sklepów internetowych.

Daniel Janiszewski – obsługa marketingowa dużej firmy

Prelegent przedstawił case w którym opisał jak niedbale od zagadnień marketingu podchodzą czasem nawet bardzo duże firmy. W tym przykładzie opisał firmę obsługującą sprzedażowo Sejm, lotniska w Balicach i Pyrzowicach, która posiadała spore obroty, ale:

  • nie posiadała sklepu internetowego, ani nawet zoptymalizowanej strony www, a jedynie starego typu stronę w html
  • nie posiadała wykwalifikowanego działu obsługi klienta – wszystkie zapytania kierowane były do jednej osoby

Pracę rozpoczęto od stworzenia odpowiedniej strony internetowej i przygotowania landing pages pod odpowiednie frazy i co ciekawe pod odpowiedniego klienta. Rozdzielono landing pages wg kryterium rodzaju klienta: b2b (do klienta biznesowego) i b2c (osób prywatnych). Różnica w landingach poza treścią leżała w buttonach CTA (wezwanie do działania) – dla firm było to – Zapytaj o ofertę (ponieważ więksi klienci zawsze szukają większych dostaw, a co za tym idzie tańszych ofert), a dla osób prywatnych po prostu – Kup teraz.

Daniel uznał za ważną kwestię odpowiednie podejście do klienta – odpowiednie przedstawienie mu kosztów działań i co najważniejsze raportowania efektów i kosztów.

Maciej Chmurkowski – automatyzacja zaplecz

Maciej przedstawił jego case dotyczący automatyzacji tworzenia setek stron zapleczowych które wspomagają proces link buildingu dla klientów. Opiera się na autorskim oprogramowaniu, które umożliwia automatyczne:

  • tworzenie różnych szablonów stron www
  • publikację różnych tytułów, zdjęć i treści na strony (treść jest osobno przygotowywana przez copywriterów)
  • publikację linków wraz z anchorami, które lądują na tematycznie przygotowanych stronach, mając jednocześnie kontrolę nad liczbą linków do danego projektu
  • uploadowanie poprzez ftp gotowych stron
  • używanie reverse ip i jednego serwera dla całego zaplecza

Ważną kwestią jest zabezpieczenie zaplecza – blokowanie robotów majestic i ahrefs, posiadanie odpowiednich domen do zaplecza, sprawdzanie ich zaindeksowania, dywersyfikację dnsów i ip stron.

Tomasz Wieliczko – mity SEO

Tomasz omówił jego zdaniem najważniejsze mity SEO, przedstawiam to w postaci jego wniosków.

  • jego zdaniem zduplikowana treść na stronie nie ma wpływu na pozycję (należy uważać jedynie by nie było duplikatu całej strony)
  • meta description – nie ma wpływu na pozycjonowanie
  • meta title – ma i to spore
  • farma linków na stronie – nie ma wpływu na pozycje – tu mam odmienne zdanie, jeśli strona jest bardzo mocna, farma może nie być dużym obciążeniem, jednak z moich tekstów wynika że nawet 6 linków w stopce może spowodować wypadanie fraz z top 100 – czyli filtr algorytmiczny
  • wielkość strony – im więcej podstron w indeksie tym większa siła strony
  • nie ma znaczenia miejsce linku na stronie
  • linki wychodzące do wiarygodnych stron – nie pomagają
  • im lepsza jakość tekstu tym lepsza pozycja – to mit zdaniem Tomka
  • świeże strony nie mają takiej siły przebicia – jeśli mamy możliwość zakupu strony z historią to korzystajmy – będą lepsze pozycje
  • duże znaczenie ma słowo kluczowe w url
  • duże znaczenia mają domeny ze słowem kluczowym EXACT MATCH w nazwie
  • aby wypozycjonować zdjęcie należy wykorzystać jego nazwę, alt i je podlinkować
  • LINKOWANIE – to podstawa pozycjonowania
  • linkowanie wewnętrzne – jest istotne
  • częstość występowania słowa kluczowego na stronie – nie ma znaczenia – tu mam również odmienne doświadczenia i porady od innych trenerów – warto używać w tekście różnych odmian słowa kluczowego oraz synonimów

Mateusz Dela – case goeuro

Mateusz przedstawił podsumowanie działań GOEURO (firma sprzedająca bilety na połączenia komunikacyjne w Europie), które spowodowały wzrost liczby odwiedzin strony o 2000% (o ile dobrze zapamiętałem):

  • odpowiednia struktura url strony
  • budowa wartościowej i przydatnej treści na stronie
  • cotygodniowe czyszczenie profilu linków
  • współpraca z blogerami
  • przygotowanie ciekawych tekstów, które odbiły się echem w mediach: przewodnik dla kibiców po EURO, przewodnik po sceneriach planów filmowych dla fanów Gwiezdnych Wojen i Gry o tron i porównywarka ceny biletów dla kibiców. W związku z tym ostatnim tekstem kibice w Anglii rozpoczęli strajk by zmusić władze klubów do obniżenia cen biletów, co się udało
  • odpowiednia budowa linkowania wewnętrznego

Dawid Medwediuk – jak robić pozycjonowanie zagraniczne na wiele krajów dla jednej strony

Dawid opowiedział proces zmiany strony dla firmy zajmującej się kodami rabatowymi. Z wielu różnych domen w różnych krajach dokonano migracji na jedną domenę: www.picodi.com, którą oparto na katalogach językowych – www.picodi.com/pl/, www.picodi.com/uk/ i którą kierowano do odbiorców w danym kraju. Ważne jest by:

  • pamiętać o odpowiedniej implementacji hreflangów – na każdej wersji językowej podajemy wszystkie występujące wersje językowe
  • targetujemy się na każdy kraj, a nie na każdy język (osobne strony dla Irlandii i Anglii)
  • przekierować odpowiednio stare domeny na nową

Zmiany spowodowały ogromny wzrost odwiedzin strony we wszystkich krajach poza Rosją, gdzie nastąpił spadek.

Panel dyskusyjny

Panel dyskusyjny SEM KRKPrelegenci odpowiedzieli na pytania związane z Pingwinem 4.0 – zawirowania w SERPach są ewidentne, ale ciężko póki co o jednoznaczne wnioski, na pewno warto dbać o profil linków, Tomasz Wieliczko odpowiedział o działaniu SWL i jego zdaniem linki ciągle działają. Wszyscy zgodnie uznali Festiwal SEO w Katowicach, jako najlepsze miejsce w Polsce do pozyskiwania wiedzy o pozycjonowaniu. Najważniejszymi narzędziami do pozycjonowania jest google (możemy sprawdzić wiele istotnych czynników), ważne są również Majestic i Ahrefs.

pozycjonowanie ikona

Czynnikiem, który ma coraz większe znaczenie w pozycjonowaniu jest szybkość ładowania strony. Szybsza strona oznacza wyższe pozycje – google uznaje za istotną rolę użyteczności stron dostarczanych użytkownikom, zwłaszcza przy coraz częstszych wyszukiwaniach mobilnych. Szybkość swojej strony można sprawdzić narzędziami:

Przyspieszanie strony

Kompresja i wymiarowanie zdjęć

Co najbardziej zwalnia stronę? Oczywiście zdjęcia. Miałem przypadek że strona miała 22/100 w skali Pagespeed Insights, po optymalizacji jedynie zdjęć strona przyspieszyła do 77/100. Często właściciele stron wrzucają bezładnie obrazki na swoje strony nie zdając sobie sprawy jakie to ma konsekwencje. A według badań wolniejsze ładowanie strony nawet o sekundę znacznie zmniejsza liczbę wejść na stronę

Skalowanie zdjęć

Jedną z pierwszych rzeczy, które należy zrobić to wyłapanie zdjęć na stronie, które mają większe źródła niż rozmiar na stronie – pomoże tu gtmetrix, który przekazuje informację: Serve scaled images. W tej zakładce otrzymamy listę zdjęć, które możemy pomniejszyć i tym samym otrzymać bezstratnie tą samą jakość zdjęcia przy mniejszym rozmiarze.

Kompresja zdjęć za pomocą WP Smush

Popularną wtyczką do WordPressa, która pomoże w bezstratnej kompresji zdjęć jest WP Smush. Możemy dzięki niemu skompresować zdjęcia które mają poniżej 1 mb w wersji bezpłatnej, do większych potrzebna wersja WP Smush Pro. To co jest dobre w tej wtyczce, to możliwość przeglądu wszystkich już załadowanych zdjęć jednym kliknięciem – program zmniejsza wszystkie już istniejące zdjęcia. Jednocześnie wszystkie wysyłane za pomocą wordpressa autmatycznie są optymalizowane.

Kompresja za pomocą Photoshopa

Jednym ze sposobów na pomniejszenie zdjęć jest użycie popularnego Photoshopa. Opiszę tu dość szybką ręczną metodę pomniejszania zdjęć, niestety oznaczającą spadek jakości, nie koniecznie będzie on jednak widoczny – wszystko zależy od nas.

  1.  Uruchamiamy Pagespeed Insights, znajdujemy  i rozwijamy zakładkę: Zoptymalizuj obrazy. Jest w niej lista zdjęć, które można poprawić
  2. Przesuwamy kursor nad adres pliku, np. Kompresja bezstratna https://www.grafpa.pl/…lad-ksiazki-i-ebooka-okladka-204×124.jpg pozwoliła zredukować rozmiar o 8,9 KB (57%).
  3.  Pojawia się ścieżka do pliku a beżowym tle w którą klikamy dwukrotnie lewym przyciskiem by zaznaczyć ścieżkęZaznaczanie zdjęcia do przyspieszenia
  4. Klikamy prawym przyciskiem i zapisujemy obiekt docelowy jako na dysku w odpowiednim folderze – używanym jako kopia oryginałów. Ważne jest by zachować na wszelki wypadek kopie oryginałów (można również ściągnąć ze serwera całość mediów i zachować je osobnym miejscu)
  5. Otwieramy zdjęcie i zapisujemy do weba (ctrl+shift+alt+s) ustawiając: typ: JPG, Quality (Jakość – najważniejsza opcja w skali od 0-100) – tutaj możemy ustawić skalę od 10 do 50 – konieczne sprawdzając ile stracimy na jakości – od tego zależy jak daleko się możemy posunąć zmniejszając rozmiar pliku. Przy czym 10 oznacza sporą degradację zdjęcia. Zaklikujemy dodatkowo opcję Optimized – Zoptymalizowane. Wszystko to można jeszcze przyspieszyć ustawiając odpowiednią akcję w Photoshopie i skrót do niej.
  6. Zapisujemy zdjęcie w osobnym folderze przeznaczonym do załadowania na serwer strony zdjęcie pamiętając by zachować tą samą nazwę. Uwaga – zdjęcia o rozszerzeniu .jpeg zostaną zapisane jako .jpg. Należy wtedy ręcznie zmienić nazwę pliku na .jpeg
  7. Otwieramy klienta ftp i podmieniamy obrazek na serwerze.

Działając w ten sposób można w dość krótkim czasie ściągnąć i zmniejszyć wiele zdjęć, co zaskakująco podniesie szybkość ładowania strony.

Sprawdź ofertę na pozycjonowanie stron www.

Zapisz

Zapisz

Zapisz

pozycjonowanie ikona

Od 2,5 roku pozycjonowanie przeszło małe trzęsienie ziemi – masy linków i byle jaka treść i wygląd strony przestały się liczyć. Jednak Google na tym nie poprzestało, ewolucja trwa ciągle. Oto przegląd czynników, które w 2015 r. odgrywają coraz mniejszą rolę, a przy przesadzie mogą zaszkodzić pozycjom strony w SERP (Search Engine Results Page).

Zdeprecjonowane i mało istotne faktory wpływu na pozycję

Linki

1) Słowa kluczowe w anchorach linków do strony. Niegdyś automaty spamowały tysiącami linków z powtarzającymi się anchorami exact match (dopasowanie ścisłe np. dla strony o fryzjerze w Krakowie fraza exact match to Fryzjer Kraków), następnie za takie coś można było otrzymać filtr, ale zawsze jakiś procent linków z anchorem ze słowem kluczowym w nazwie miał znaczenie. Obecnie wpływ tego czynnika jest zerowy.

2) Stosunek linków no-follow do ogólnej liczby linków. Różnicowanie linków z atrybutem no i do follow nie ma większego znaczenia.

3) Wiek linków. Dawno zdobyte odnośniki nie wpływają dodatnio na pozycję strony – ważniejsza jest duża liczba i jakość linków

Faktory techniczne

1) Flash na stronie. Tutaj akurat sytuacja mało się zmieniła – animacje flash przeszkadzają w osiągnięciu wysokich pozycji.

2) Słowo kluczowe w domenie. Wg searchmetrics utraciło pozytywny wpływ na pozycję.

3) Domena .com. Nie ma wpływu na pozycję.

Faktory UX – użytkownicy

1) Reklamy Adsense i Adlinks na stronie. Nie mają znaczenia

2) Materiał wideo na stronie. Nie pomaga uzyskać wyższej pozycji

Strona

1) Słowo kluczowe w linkach wychodzących. Generalnie unikajmy większej ilości linków wychodzących ze strony.

2) Słowo kluczowe w opisie. Ja bym mimo wszystko umieścił 🙂

Informacje podane za searchmetrics.com.

pozycjonowanie ikona

Disavow tool – kiedy korzystać?

Jeśli strona spadnie gwałtownie w wynikach wyszukiwania, mimo tego że posiada wartościową i niezduplikowaną treść, pierwszą z przyczyn, które należy szukać to filtr za linki przychodzące do witryny. Nawet jeśli nie dostaniemy powiadomienia o wykryciu nienaturalnych linków, mogą one być przyczyną słabych pozycji naszych fraz w Google. Łatwo to sprawdzić gdy na słowo kluczowe + nazwę naszej strony wyprzedzą nas w Google strony zapleczowe, albo nawet fora czy katalogi z tekstami dotyczącymi naszych podstron, oznacza to, że nasza strona nie jest dobrze oceniana. Gdy upewnimy się że przyczyną słabych pozycji nie jest treść, a linki przychodzące pora na reakcję.

Skąd pobrać linki przychodzące do strony

Sposobów jest kilka, ja opiszę zastosowany przeze mnie.

  • Po zalogowaniu się do Narzędzi dla Webmastera, w sekcji Ruch związany z wyszukiwaniem, klikamy Linki do Twojej witryny.
  • Następnie w Źródłach największej liczby linków, klikamy więcej a potem Pobierz więcej przykładowych linków
  • Ściągamy plik CSV
  • Rejestrujemy się bądź logujemy na https://majestic.com
  • W zakładce Webmaster tools autoryzujemy nasze konto i łączymy z Majestic
  • W zakładce My Reports tworzymy nowy zaawansowany raport z nazwą domeny i klikamy w niego
  • W podstronie Overview w tekście znajduje się link w słowie download który klikamy by pobrać linki, potwierdzamy dwukrotnie chęć pobrania i znajdujemy się na podstronie gdzie mamy: Backlinks for ‘domena.pl’ gdzie możemy wreszcie pobrać nasze linki
  • Są one spakowane i po rozpakowaniu ukazuje się nam plik csv, który trzeba importować do excela
  • Otwieramy excela, klikamy zakładkę dane i import pliku z tekstu. Następnie ustawiamy typ pliku – rozdzielany, kodowanie UTF-8, separator – przecinki i konwertujemy plik do excela wraz z podziałem na kolumny

Excel z linkami

Pierwsza kolumna do target url czyli nasze podstrony, source url to jest to co nas najbardziej interesuje – adres linku przychodzącego, następnie anachor odnośnika i wiele kolejnych danych.

Selekcja linków

Do selekcji linków można użyć narzędzia do analizy linków, takie jak np. seo odkurzacz, które błyskawicznie pomoże wyłapać śmieciowe linki. Jeśli selekcji dokonujemy ręcznie to odrzucamy:

  • wszystkie zbanowane strony z których link kieruje do naszej witryny (komenda site:domain.pl wpisana w google zwraca nam 0 zaindeksowanych podstron)
  • wszystkie śmieciowe katalogi i precle – pełne wielu różnych linków, bezładnych tekstów
  • wszystkie strony typu porno, viagra, hazard itp.
  • strony z linkami ze śmieciowych komentarzy
  • obcojęzyczne nietematyczne strony
  • wszystkie strony które zawierają zbyt wiele linków do naszej strony zwłaszcza z powtarzającym się exact match anchorem
  • strony z farmami linków i ze spamową treścią

Stopień zaostrzenia selekcji jest określony przez ilość problemów, które ma naszą strona. Jeśli nie ma filtra nie musimy usuwać np. linków z nietematycznych, ale solidnych stron zwłaszcza bez anchora, z gołym url prowadzącym do naszej domeny.

Gdzie zgłaszamy?

Pod tym adresem znajduje się narzędzie do zgłaszania niechcianych linków. Google ostrzega przed uważnym i rozważnym stosowaniem tego narzędzia – to może być swoiste trzęsienie ziemi dla domeny. Jeśli usuniemy zbyt dużo średniej i dobrej jakości linków, nasze pozycje bez wątpienia mogą spaść. Na pewno nie wolno dodawać do narzędzia wszystkich linków które znajdziemy, bez przeglądania i sortowania.

Plik disavow musi być dostarczony w formacie .txt, jego nazwa nie ma znaczenia.

Przykładowa treść pliku disavow

#disavow domains 2015-05-05

domain: spamdomain1.com
domain: spamdomain2.com

#disavow links 2015-05-05

http://spamlink1.pl/spamlink/
http://www.spamlink1.pl//?c=24&s=5&p=16&t=0

Jeśli uznamy, że cała linkująca domena jest niewartościowa, nie ma co się bawić we wstawianie linków, zwłaszcza że często jest ich mnóstwo. Wystarczy podać polecenie domain i wskazać domenę. Jeśli domena, która wskazuje na naszą stronę jest wartościowa, ale poszczególne jej podstrony zawierają zbyt dużo odnośników, zbyt dużo anchor tekstów, np. pozycjonowanie, albo spamową lub obcojęzyczną treść, możemy usunąć poszczególne linki wklejając je do pliku.

Co dalej?

Google rozpoczyna proces usuwania linków, który w zależności od ilości może potrwać od tygodnia do kilku tygodni, choć czasami to może potrwać dłużej. Po przetworzeniu robot określając  ranking strony pobiera te linki z disavow i nie uwzględnia ich przy obliczaniu pozycji w Google.

pozycjonowanie ikona

Przy optymalizacji strony pod określone słowa kluczowe musimy zwrócić uwagę na to, czy dane podstrony częściowo nie dublują zawartości: meta title, description, h1 czy co najgorsze treści – contentu strony.

Zanim wyjaśnię o co chodzi, poruszę najpierw zagadnienie kanibalizacji. Zjawisko kanibalizacji (w marketingu: zmniejszanie sprzedaży produktu jakiejś firmy w efekcie wprowadzenia przez nią nowego produktu lub modelu o zbliżonych cechach użytkowych) ma miejsce, gdy co najmniej dwie podstrony tej samej domeny konkurują między sobą  o wyższe miejsce w wyszukiwarce. Nie mamy wtedy pewności, którą stronę wybierze Google (zwykle tą lepiej zoptymalizowaną i podlinkowaną) i użytkownik. Dlatego lepiej unikać pozycjonowania dwóch podstron na te same słowa kluczowe – tracimy energię na pozyskiwanie linków i optymalizację dwóch podstron, a dodatkowo Google obniża ich pozycję ze względu na powielone znaczniki mety czy zduplikowane częściowo treści.

Kanibalizacja słów kluczowych nie jest nowym pojęciem, w przeszłości była wykorzystywana do zwiększenia kliknięć na danej stronie. Pozycjoner optymalizował 2-3 podstrony na bardzo zbliżone słowa kluczowe i dzięki temu uzyskiwał efekt grupowania wyników – 2-3 podstrony pokazywały się w wynikach wyszukiwania jako podklejone wyniki co wyróżniało je od konkurencji. Jednak Google w swojej walce ze spamem internetowym generowanym przez różne automaty, półautomaty i pozycjonerów wprowadziło wiele zmian do algorytmu deprecjonując linki i treści z nieunikalnych stron i zrezygnowało także z takiego wyświetlania tych samych podstron. Stąd też, jak sądzę, dbanie o unikalność treści podstron, jak i użytych słów kluczowych powinno pomóc stronie być wyżej.

Zauważyłem na własnej pracy, że przy powieleniu części słów kluczowych w meta title strony głównej (Geodeta Poznań – usługi geodezyjne Wielkopolska) – podstrona optymalizowana na słowa usługi geodezyjne Poznań – nie mogła się przebić przed stronę główną i fraza tkwiła w miejscu, choć na wysokiej pozycji w top 20. Dopiero po kilkumiesięcznym linkowaniu, podstrona wyprzedziła stronę główną i obecnie weszła do top 10.

Jak wyłapać powtarzanie met, słów kluczowych?

Przy małych stronach nie ma takiego problemu, ale przy większych serwisach, z różnymi wersjami językowymi może istnieć wiele podstron dublujących słowa kluczowe. Z pomocą przyjdzie nam darmowy program Screaming Frog, który wyświetla i grupuje odpowiednie dane.

 

 

 

Wczoraj pisałem o rosnącej roli wyszukań mobilnych w google, ale jak się okazuje algorytm oceniania szybkości stron mobilnych ciągle bazuje na danych z komputerów stacjonarnych. Wg Johna Muellera (Webmaster Trends Analyst), czynniki do rankingu, takie jak sygnały prędkości strony opierają się na wersji dla komputerów stacjonarnych, a nie wersji mobilnej. I nawet po 21 kwietnia szybkość wyświetlania stron na komputerach będzie brana pod uwagę. Jak długo? Tego nie wiemy.

Google daje nam czas do 21 kwietnia br. na dostosowanie swojej strony do obsługi na urządzeniach mobilnych. O responsywności strony pisałem w poprzednim wpisie. Na szczęście dla właścicieli witryn niereponsywnych ten czynnik rankingowy będzie dotyczył tylko wyszukań mobilnych. To dobra wiadomość dla niechętnych do zmian, ale czy na pewno? Otóż rośnie procent wyszukań mobilnych (tablety, komórki) w stosunku do wyszukań desktopowych (PC, laptop). Gdy tendencja się utrzyma to wg prognoz już wkrótce wyszukania mobilne mogą nawet wyprzedzić i zdominować rynek wyszukiwarek. W tej sytuacji mobilna, responsywna strona to będzie konieczność. Jej brak będzie oznaczał spory spadek ruchu na stronie.

Jak sprawdzić czy Twoja strona przechodzi pomyślnie testy mobilności? Wystarczy wpisać adres do specjalnej strony google.

Liczy się również szybkość

Samo uruchomienie wersji mobilnej nie wystarczy. Strona powinna działać szybko pod kątem mobilnym. Wolne strony zostaną oznaczane w wynikach wyszukiwania czerwonym napisem SLOW. Szybkość działania strony na komputery i komórki można sprawdzić pod tym adresem.

Nowe wytyczne to nowa możliwość na zarobek dla wielu firm – zwłaszcza zajmujących się tworzeniem stron www, także można się spodziewać wysypu nowych ofert. Zmienia to też pracę pod kątem pozycjonowania stron – dochodzą kolejne czynniki do wprowadzenia.

Google zdążyło przyzwyczaić pozycjonerów do zmian swojego algorytmu, na początku roku jednak znów zaskoczyło. W Google Webmaster Tools wiele stron otrzymało powiadomienie:

Napraw problemy z obsługą witryny .... na urządzeniach mobilnych

Oznacza to nie mniej nic więcej, że jeśli Twoja stronie nie jest responsywna (dostosowująca swoją rozdzielczość do urządzeń ją wyświetlających – np. komórek, tabletów) google będzie ją karało! Kara polegać ma na tym, że nie responsywna strona będzie niżej w wynikach wyszukiwania (jeśli oczywiście strony konkurencji o podobnej sile będą responsywne). Co to oznacza dla firm utrzymujących się z ruchu z google łatwo powiedzieć – niższe dochody – mniej potencjalnych klientów.

Na co trzeba zwrócić uwagę przy responsywności?

  • Mała czcionka utrudnia czytanie tekstu
  • Okno robocze urządzenia przenośnego nie jest ustawione
  • Linki zbyt blisko siebie
  • Treść szersza niż ekran

Od zeszłego roku w branży pozycjonerskiej zaszły takie zmiany, że aż… niektórzy zapowiadali jej koniec. Na szczęście do tego nie doszło – nadal można wypozycjonować daną stronę, kwesta nadążenia za zmianami, które wprowadziło wszechmocne na polskim rynku Google. Upadate Panda, Pingwin oraz inne wywróciły sposoby budowania treści oraz linkowania strony. Kiedyś linki zdobywało się tysiącami, stronę uzupełniało się byle jaką treścią i efekty były. Kto nie nadążył za tymi zmianami i nadal w tej sposób pozycjonuje otrzymuje karę w postaci – filtra lub bana – i jego strona lub wyniki, lub to i to znika z Google. Jakie to przynosi efekty wiemy – w dobie powszechnego wyszukiwania ofert przez internet.

Poniżej wklejam dowód że da się niemal błyskawicznie osiągnąć dobre rezultaty jeśli posiada się Know-How jak to zrobić. Strona klienta nad którą zaczęliśmy pracę przy pozycjonowaniu w sierpniu 2014 r.

Pozycjonowanie stron Kraków