Będąc właścicielem strony internetowej, należy mieć wzgląd na wiele czynników, które mogą mieć potencjalny wpływ na zadowolenie korzystających z niej użytkowników. Jednym z najbardziej istotnych, a jednocześnie najczęściej przeoczanych z nich jest prędkość strony. Ma to szczególne znaczenie w przypadku portali, w których internauta często musi ładować nowe strony – nawet pół sekundy opóźnienia może znacznie pogorszyć jego doświadczenia.

To, dlaczego wrażenia użytkowników są istotne, raczej nie wymaga szczególnych wyjaśnień. Warto więc dołożyć wszelkich starań, aby strona sprawowała się bez zarzutów – z pewnością przyciągnie się w ten sposób więcej internautów. Najkrótszą drogą do zrealizowania tego celu jest skorzystanie z pomocy fachowców, którzy przyspieszą Twoją stronę. Rzecz jasna – my stanowimy najlepszy wybór, wykorzystując doświadczenie i szerokie kompetencje, aby zadowolić nawet najbardziej wymagających klientów. Zachęcamy zatem do bliższego zapoznania się z tematem przyspieszania strony za pośrednictwem WordPress, a także zakresem fachowych usług, jakie oferujemy w tej dziedzinie.

Na czym opiera się przyśpieszenie strony WordPress?

Przed zdecydowaniem się na optymalizację szybkości swojej strony internetowej, warto zacząć od zrozumienia, na czym ten proces dokładnie polega. Strona może ładować się powoli z bardzo różnych powodów, dlatego kluczowe jest kompleksowe podejście do problemu, analizując i likwidując jego przyczyny krok po kroku.

Sprawdź jaką masz szybkość strony na: PageSpeed Insight lub na: Webiste Speed test i GTmetrix. Wszystkie te strony oceniają witrynę pod kątem optymalizacji techniczej i ograniczeń, które sprawiają że strona zwalnia. Eliminując te przyczyny przyspieszasz stronę.

  1. Zdjęcia – wszystkie wersje zdjęć występujących na stronie muszą być zoptymalizowane – oczywiście rozdzielczość nie większa niż 72 dpi i rozmiar dostosowany do tego jaki jest wyświetlany na stronie. W dodatku warto by były zapisane w nowszych formatach i skompresowane. Nowymi formatami zdjęć są m.in.: JPEG 2000, JPEG XR i WebP. Zdjęcia w tych formatach bardzo często zapewniają na stronie lepszą kompresję niż PNG czy JPEG. Jest to jeden z czynników, który bezpośrednio przekłada się na szybsze pobieranie i mniejsze wykorzystanie danych. Jedną z najlepszych wtyczek do wyświetlania obrazów w formatach nowej generacji jest “WebP Converter for Media”. Wtyczka jest bardzo prosta w użyciu i jednym kliknięciem zamienia format wszystkich obrazów na WebP.
  2. Szybkość działania hostingu – im lepszy procesor, Ram i dyski (najlepiej SSD) wraz z lokalizacją serwera – tym lepsza prędkość strony. Z hostingów jeśli chodzi o szybkość wyróżnia się Nazwa.pl
  3. Wtyczki Cache na WordPressie – polecamy WP Rocket, WP Super Cache i W3 Total Cache. Co te wtyczki dają? Dzięki zapisowi strony na serwerze WordPress, przy wejściu na stronę dane nie są wczytywane od nowa, a ładują się szybko z pamięci serwera.

 

 

Jakie mogą być powody wolno działającej strony?

Podstawą przy takim przyspieszaniu jest odszukanie i zlikwidowanie tak zwanych „wąskich gardeł” (ang. bottlenecks). W WordPress zjawisko to opiera się na zasobach, które spowalniają prędkość przepływu informacji na stronie internetowej, przez co czas potrzebny na ich załadowanie znacznie się wydłuża. Warto zaznaczyć, że optymalizacja bottlenecków powinna odbywać się przy samym projektowaniu strony – pozwala to podejść do nich w odpowiedniej kolejności, przynosząc najlepsze rezultaty.

Do najbardziej oczywistych problemów można zaliczyć kiepski hosting. Jeśli korzysta się z wolno działającego serwera, to nawet najlepiej zoptymalizowana strona będzie miała zauważalne opóźnienia podczas ładowania. Przed zainwestowaniem w konkretnego dostawcę hostingu, zawsze warto dokładnie zapoznać się z jego reputacją oraz dokładnymi parametrami udostępnionego serwera. W razie konieczności ostatecznym rozwiązaniem będzie przeniesienie witryny do innego dostawcy.

Możliwości zapewniane przez WordPress w dużej mierze opierają się na szerokim zakresie wtyczek, jakie można przy nim wykorzystać. Chociaż jest to świetny sposób na rozszerzenie funkcji danej strony internetowej, to wielu ludzi ma tendencję do instalowania zbyt dużej ilości wtyczek. Jak można się spodziewać, ma to bardzo negatywny wpływ na wydajność witryny – nadmierna ilość rozszerzeń to dla niej po prostu zbyt duże obciążenie. Najlepiej ograniczyć stosowane wtyczki jedynie do tych, które są niezbędne.

Znaczącym winowajcom w wolnym funkcjonowaniu strony jest przekombinowana strona główna. To oczywiste, że jest to wizytówka całej strony i powinna zawierać wszystkie niezbędne informacje, jednak nie zaprezentuje ona witryny zbyt dobrze, jeśli przetestuje cierpliwość użytkowników długimi czasami ładowania. Strona główna musi być zoptymalizowana jeszcze lepiej niż jakakolwiek inna zakładka portalu, dlatego warto skorzystać tu z pomocy profesjonalnego projektanta stron internetowych.

 

Jak skutecznie przyspieszyć WordPress – pomoc fachowców!

Jeśli mierzysz się z problemem wolnej i niefunkcjonalnej strony internetowej, warto zdecydować się na usługę kogoś, kto w tej dziedzinie się specjalizuje. Nasza firma posiada w tym zakresie duże doświadczenie oraz wysokie kwalifikacje – jesteśmy w stanie szybko i sprawnie pozbyć się trudności z niezoptymalizowaną witryną i sprawić, że będzie ona funkcjonowała bez najmniejszego zarzutu. O jakości naszych usług najlepiej przekonać się osobiście! Sprawdź ofertę na tworzenie stron WordPress.

 

Dlaczego warto zdecydować się na nasze usługi?

Do naszego zadania podchodzimy w sposób kompleksowy i funkcjonalny, krok po kroku analizując potencjalne źródła problemów i poszukując najlepszych dostępnych rozwiązać, jakie możemy Ci zaoferować. Dobranie odpowiedniego motywu strony, aktualizacja systemu, pozbycie się zbędnych wtyczek i wąskich gardeł – dla nas nie stanowi to żadnego wyzwania. Sprawimy, że Twoja strona będzie sprawowała się świetnie, likwidując jej obciążenia oraz mankamenty projektowe. Wiemy, jakich narzędzi użyć i na jakie rozwiązania się zdecydować, aby WordPress działał w pełni swojej wydajności.

Warto skorzystać z naszych usług – bardzo zależy nam na zadowoleniu klientów, dlatego zapewniamy jedną z najbardziej atrakcyjnych ofert na rynku. Pełen profesjonalizm i specjalistyczna pomoc w zaskakująco przystępnej cenie – jest to okazja, której nie można przegapić. Z pomocą naszych fachowców możesz szybko doprowadzić swoją stronę do pełni funkcjonalności, podnosząc jakość obsługi użytkowników i łatwiej rozwijając swoją działalność w sieci.

 

Agenda SEM KRK w 2016 r.

Przedstawiciel Studio Grafpa miał okazję zawitać na trzecim spotkaniu pasjonatów marketingu internetowego organizowanym przez DEVA GROUP w Krakowie. Spotkanie obyło się 7 października 2016 r. w kawiarni Pauza In Garden. W spotkaniu wzięło udział 6 prelegentów, a następnie odpowiadali oni na pytania zgłoszone wcześniej przez uczestników. Oto nasze subiektywne wrażenia i podsumowanie wystąpień, oraz to co można z tego było wyciągnąć konstruktywnego dla pozycjonowania stron, czy też pozycjonowania sklepów internetowych.

Czytaj dalej

pozycjonowanie ikona

Czynnikiem, który ma coraz większe znaczenie w pozycjonowaniu jest szybkość ładowania strony. Szybsza strona oznacza wyższe pozycje – google uznaje za istotną rolę użyteczności stron dostarczanych użytkownikom, zwłaszcza przy coraz częstszych wyszukiwaniach mobilnych. Szybkość swojej strony można sprawdzić narzędziami:

Czytaj dalej

pozycjonowanie ikona

Od 2,5 roku pozycjonowanie przeszło małe trzęsienie ziemi – masy linków i byle jaka treść i wygląd strony przestały się liczyć. Jednak Google na tym nie poprzestało, ewolucja trwa ciągle. Oto przegląd czynników, które w 2015 r. odgrywają coraz mniejszą rolę, a przy przesadzie mogą zaszkodzić pozycjom strony w SERP (Search Engine Results Page).

Zdeprecjonowane i mało istotne faktory wpływu na pozycję

Linki

1) Słowa kluczowe w anchorach linków do strony. Niegdyś automaty spamowały tysiącami linków z powtarzającymi się anchorami exact match (dopasowanie ścisłe np. dla strony o fryzjerze w Krakowie fraza exact match to Fryzjer Kraków), następnie za takie coś można było otrzymać filtr, ale zawsze jakiś procent linków z anchorem ze słowem kluczowym w nazwie miał znaczenie. Obecnie wpływ tego czynnika jest zerowy.

2) Stosunek linków no-follow do ogólnej liczby linków. Różnicowanie linków z atrybutem no i do follow nie ma większego znaczenia.

3) Wiek linków. Dawno zdobyte odnośniki nie wpływają dodatnio na pozycję strony – ważniejsza jest duża liczba i jakość linków

Faktory techniczne

1) Flash na stronie. Tutaj akurat sytuacja mało się zmieniła – animacje flash przeszkadzają w osiągnięciu wysokich pozycji.

2) Słowo kluczowe w domenie. Wg searchmetrics utraciło pozytywny wpływ na pozycję.

3) Domena .com. Nie ma wpływu na pozycję.

Faktory UX – użytkownicy

1) Reklamy Adsense i Adlinks na stronie. Nie mają znaczenia

2) Materiał wideo na stronie. Nie pomaga uzyskać wyższej pozycji

Strona

1) Słowo kluczowe w linkach wychodzących. Generalnie unikajmy większej ilości linków wychodzących ze strony.

2) Słowo kluczowe w opisie. Ja bym mimo wszystko umieścił :)

Informacje podane za searchmetrics.com.

pozycjonowanie ikona

Disavow tool – kiedy korzystać?

Jeśli strona spadnie gwałtownie w wynikach wyszukiwania, mimo tego że posiada wartościową i niezduplikowaną treść, pierwszą z przyczyn, które należy szukać to filtr za linki przychodzące do witryny. Nawet jeśli nie dostaniemy powiadomienia o wykryciu nienaturalnych linków, mogą one być przyczyną słabych pozycji naszych fraz w Google. Łatwo to sprawdzić gdy na słowo kluczowe + nazwę naszej strony wyprzedzą nas w Google strony zapleczowe, albo nawet fora czy katalogi z tekstami dotyczącymi naszych podstron, oznacza to, że nasza strona nie jest dobrze oceniana. Gdy upewnimy się że przyczyną słabych pozycji nie jest treść, a linki przychodzące pora na reakcję.

Skąd pobrać linki przychodzące do strony

Sposobów jest kilka, ja opiszę zastosowany przeze mnie.

  • Po zalogowaniu się do Narzędzi dla Webmastera, w sekcji Ruch związany z wyszukiwaniem, klikamy Linki do Twojej witryny.
  • Następnie w Źródłach największej liczby linków, klikamy więcej a potem Pobierz więcej przykładowych linków
  • Ściągamy plik CSV
  • Rejestrujemy się bądź logujemy na https://majestic.com
  • W zakładce Webmaster tools autoryzujemy nasze konto i łączymy z Majestic
  • W zakładce My Reports tworzymy nowy zaawansowany raport z nazwą domeny i klikamy w niego
  • W podstronie Overview w tekście znajduje się link w słowie download który klikamy by pobrać linki, potwierdzamy dwukrotnie chęć pobrania i znajdujemy się na podstronie gdzie mamy: Backlinks for ‘domena.pl’ gdzie możemy wreszcie pobrać nasze linki
  • Są one spakowane i po rozpakowaniu ukazuje się nam plik csv, który trzeba importować do excela
  • Otwieramy excela, klikamy zakładkę dane i import pliku z tekstu. Następnie ustawiamy typ pliku – rozdzielany, kodowanie UTF-8, separator – przecinki i konwertujemy plik do excela wraz z podziałem na kolumny

Excel z linkami

Pierwsza kolumna do target url czyli nasze podstrony, source url to jest to co nas najbardziej interesuje – adres linku przychodzącego, następnie anachor odnośnika i wiele kolejnych danych.

Selekcja linków

Do selekcji linków można użyć narzędzia do analizy linków, takie jak np. seo odkurzacz, które błyskawicznie pomoże wyłapać śmieciowe linki. Jeśli selekcji dokonujemy ręcznie to odrzucamy:

  • wszystkie zbanowane strony z których link kieruje do naszej witryny (komenda site:domain.pl wpisana w google zwraca nam 0 zaindeksowanych podstron)
  • wszystkie śmieciowe katalogi i precle – pełne wielu różnych linków, bezładnych tekstów
  • wszystkie strony typu porno, viagra, hazard itp.
  • strony z linkami ze śmieciowych komentarzy
  • obcojęzyczne nietematyczne strony
  • wszystkie strony które zawierają zbyt wiele linków do naszej strony zwłaszcza z powtarzającym się exact match anchorem
  • strony z farmami linków i ze spamową treścią

Stopień zaostrzenia selekcji jest określony przez ilość problemów, które ma naszą strona. Jeśli nie ma filtra nie musimy usuwać np. linków z nietematycznych, ale solidnych stron zwłaszcza bez anchora, z gołym url prowadzącym do naszej domeny.

Gdzie zgłaszamy?

Pod tym adresem znajduje się narzędzie do zgłaszania niechcianych linków. Google ostrzega przed uważnym i rozważnym stosowaniem tego narzędzia – to może być swoiste trzęsienie ziemi dla domeny. Jeśli usuniemy zbyt dużo średniej i dobrej jakości linków, nasze pozycje bez wątpienia mogą spaść. Na pewno nie wolno dodawać do narzędzia wszystkich linków które znajdziemy, bez przeglądania i sortowania.

Plik disavow musi być dostarczony w formacie .txt, jego nazwa nie ma znaczenia.

Przykładowa treść pliku disavow

#disavow domains 2015-05-05

domain: spamdomain1.com
domain: spamdomain2.com

#disavow links 2015-05-05

http://spamlink1.pl/spamlink/
http://www.spamlink1.pl//?c=24&s=5&p=16&t=0

Jeśli uznamy, że cała linkująca domena jest niewartościowa, nie ma co się bawić we wstawianie linków, zwłaszcza że często jest ich mnóstwo. Wystarczy podać polecenie domain i wskazać domenę. Jeśli domena, która wskazuje na naszą stronę jest wartościowa, ale poszczególne jej podstrony zawierają zbyt dużo odnośników, zbyt dużo anchor tekstów, np. pozycjonowanie, albo spamową lub obcojęzyczną treść, możemy usunąć poszczególne linki wklejając je do pliku.

Co dalej?

Google rozpoczyna proces usuwania linków, który w zależności od ilości może potrwać od tygodnia do kilku tygodni, choć czasami to może potrwać dłużej. Po przetworzeniu robot określając  ranking strony pobiera te linki z disavow i nie uwzględnia ich przy obliczaniu pozycji w Google.

pozycjonowanie ikona

Przy optymalizacji strony pod określone słowa kluczowe musimy zwrócić uwagę na to, czy dane podstrony częściowo nie dublują zawartości: meta title, description, h1 czy co najgorsze treści – contentu strony.

Zanim wyjaśnię o co chodzi, poruszę najpierw zagadnienie kanibalizacji. Zjawisko kanibalizacji (w marketingu: zmniejszanie sprzedaży produktu jakiejś firmy w efekcie wprowadzenia przez nią nowego produktu lub modelu o zbliżonych cechach użytkowych) ma miejsce, gdy co najmniej dwie podstrony tej samej domeny konkurują między sobą  o wyższe miejsce w wyszukiwarce. Nie mamy wtedy pewności, którą stronę wybierze Google (zwykle tą lepiej zoptymalizowaną i podlinkowaną) i użytkownik. Dlatego lepiej unikać pozycjonowania dwóch podstron na te same słowa kluczowe – tracimy energię na pozyskiwanie linków i optymalizację dwóch podstron, a dodatkowo Google obniża ich pozycję ze względu na powielone znaczniki mety czy zduplikowane częściowo treści.

Kanibalizacja słów kluczowych nie jest nowym pojęciem, w przeszłości była wykorzystywana do zwiększenia kliknięć na danej stronie. Pozycjoner optymalizował 2-3 podstrony na bardzo zbliżone słowa kluczowe i dzięki temu uzyskiwał efekt grupowania wyników – 2-3 podstrony pokazywały się w wynikach wyszukiwania jako podklejone wyniki co wyróżniało je od konkurencji. Jednak Google w swojej walce ze spamem internetowym generowanym przez różne automaty, półautomaty i pozycjonerów wprowadziło wiele zmian do algorytmu deprecjonując linki i treści z nieunikalnych stron i zrezygnowało także z takiego wyświetlania tych samych podstron. Stąd też, jak sądzę, dbanie o unikalność treści podstron, jak i użytych słów kluczowych powinno pomóc stronie być wyżej.

Zauważyłem na własnej pracy, że przy powieleniu części słów kluczowych w meta title strony głównej (Geodeta Poznań – usługi geodezyjne Wielkopolska) – podstrona optymalizowana na słowa usługi geodezyjne Poznań – nie mogła się przebić przed stronę główną i fraza tkwiła w miejscu, choć na wysokiej pozycji w top 20. Dopiero po kilkumiesięcznym linkowaniu, podstrona wyprzedziła stronę główną i obecnie weszła do top 10.

Jak wyłapać powtarzanie met, słów kluczowych?

Przy małych stronach nie ma takiego problemu, ale przy większych serwisach, z różnymi wersjami językowymi może istnieć wiele podstron dublujących słowa kluczowe. Z pomocą przyjdzie nam darmowy program Screaming Frog, który wyświetla i grupuje odpowiednie dane.

 

 

 

Wczoraj pisałem o rosnącej roli wyszukań mobilnych w google, ale jak się okazuje algorytm oceniania szybkości stron mobilnych ciągle bazuje na danych z komputerów stacjonarnych. Wg Johna Muellera (Webmaster Trends Analyst), czynniki do rankingu, takie jak sygnały prędkości strony opierają się na wersji dla komputerów stacjonarnych, a nie wersji mobilnej. I nawet po 21 kwietnia szybkość wyświetlania stron na komputerach będzie brana pod uwagę. Jak długo? Tego nie wiemy.

Google daje nam czas do 21 kwietnia br. na dostosowanie swojej strony do obsługi na urządzeniach mobilnych. O responsywności strony pisałem w poprzednim wpisie. Na szczęście dla właścicieli witryn niereponsywnych ten czynnik rankingowy będzie dotyczył tylko wyszukań mobilnych. To dobra wiadomość dla niechętnych do zmian, ale czy na pewno? Otóż rośnie procent wyszukań mobilnych (tablety, komórki) w stosunku do wyszukań desktopowych (PC, laptop). Gdy tendencja się utrzyma to wg prognoz już wkrótce wyszukania mobilne mogą nawet wyprzedzić i zdominować rynek wyszukiwarek. W tej sytuacji mobilna, responsywna strona to będzie konieczność. Jej brak będzie oznaczał spory spadek ruchu na stronie.

Jak sprawdzić czy Twoja strona przechodzi pomyślnie testy mobilności? Wystarczy wpisać adres do specjalnej strony google.

Liczy się również szybkość

Samo uruchomienie wersji mobilnej nie wystarczy. Strona powinna działać szybko pod kątem mobilnym. Wolne strony zostaną oznaczane w wynikach wyszukiwania czerwonym napisem SLOW. Szybkość działania strony na komputery i komórki można sprawdzić pod tym adresem.

Nowe wytyczne to nowa możliwość na zarobek dla wielu firm – zwłaszcza zajmujących się tworzeniem stron www, także można się spodziewać wysypu nowych ofert. Zmienia to też pracę pod kątem pozycjonowania stron – dochodzą kolejne czynniki do wprowadzenia.

Google zdążyło przyzwyczaić pozycjonerów do zmian swojego algorytmu, na początku roku jednak znów zaskoczyło. W Google Webmaster Tools wiele stron otrzymało powiadomienie:

Napraw problemy z obsługą witryny .... na urządzeniach mobilnych

Oznacza to nie mniej nic więcej, że jeśli Twoja stronie nie jest responsywna (dostosowująca swoją rozdzielczość do urządzeń ją wyświetlających – np. komórek, tabletów) google będzie ją karało! Kara polegać ma na tym, że nie responsywna strona będzie niżej w wynikach wyszukiwania (jeśli oczywiście strony konkurencji o podobnej sile będą responsywne). Co to oznacza dla firm utrzymujących się z ruchu z google łatwo powiedzieć – niższe dochody – mniej potencjalnych klientów.

Na co trzeba zwrócić uwagę przy responsywności?

  • Mała czcionka utrudnia czytanie tekstu
  • Okno robocze urządzenia przenośnego nie jest ustawione
  • Linki zbyt blisko siebie
  • Treść szersza niż ekran

Od zeszłego roku w branży pozycjonerskiej zaszły takie zmiany, że aż… niektórzy zapowiadali jej koniec. Na szczęście do tego nie doszło – nadal można wypozycjonować daną stronę, kwesta nadążenia za zmianami, które wprowadziło wszechmocne na polskim rynku Google. Upadate Panda, Pingwin oraz inne wywróciły sposoby budowania treści oraz linkowania strony. Kiedyś linki zdobywało się tysiącami, stronę uzupełniało się byle jaką treścią i efekty były. Kto nie nadążył za tymi zmianami i nadal w tej sposób pozycjonuje otrzymuje karę w postaci – filtra lub bana – i jego strona lub wyniki, lub to i to znika z Google. Jakie to przynosi efekty wiemy – w dobie powszechnego wyszukiwania ofert przez internet.

Poniżej wklejam dowód że da się niemal błyskawicznie osiągnąć dobre rezultaty jeśli posiada się Know-How jak to zrobić. Strona klienta nad którą zaczęliśmy pracę przy pozycjonowaniu w sierpniu 2014 r.

Pozycjonowanie stron Kraków