Jakie są zatem wyzwania technicznego SEO? Wszystkich nie wymienimy, ale warto wspomnieć o popularniejszych problemach.
Pierwsze i najważniejsze pytanie na które musi odpowiedzieć sprawdzenie strony pod kątem technicznego SEO dotyczy tego jak indeksują się podstrony serwisu.
To jest kluczowe, jeśli serwis ma ściągać ruch i mieć wysokie pozycje. Jest tu wiele pułapek, w które można wpaść na etapie budowy i rozwoju serwisu.
Pozornie sprawa jest prosta – powinny indeksować się wszystkie lub zdecydowana większość podstron serwisu.
Chcemy jednak uniknąć sytuacji, gdy nagle zaczynają się indeksować podstrony-śmieci. To bardzo częsty przypadek przy sklepach internetowych. Winnym zazwyczaj są różne filtry po cenie lub jakimś parametrze (rozmiar, kolor itd.). W rezultacie sklep, który powinien mieć w indeksie np. 1000 podstron ma ich w rzeczywistości 30000. To z kolei powoduje, że sklep dostaje karę od Pandy za dużą liczbę niskiej jakości podstron i ruch przestaje rosnąć lub nawet spada.
Źle zaprojektowana filtracja która mnoży podstrony pokazuje, jak zbyt wiele podstron-śmieci wprowadza stronę w kłopoty. Jest też drugi biegun problemu z liczbą podstron, kiedy nie indeksuje się ich tyle ile powinno. Trzymając się wcześniejszego przykładu, strona która powinna mieć 1000 podstron w indeksie ma ich np. 347. Niekoniecznie celem jest pełne 100% indeksowanych podstron, ale powinna to być wartość bliska 100. Jaki zatem może być powód, że podstrony się nie indeksują? Na to pytanie odpowie już dokładnie analiza poszczególnych podstron.
Czasem winna jest niska jakość treści lub po prostu ich brak – zdarza się to np. w przypadku sklepów internetowych, które mają tysiące produktów i nie było nigdy czasu i zasobów by je opisać. Zostały zatem zaciągnięte z bazy i producenta ze zdjęciem, podstawowymi parametrami, dodana została cena i… tyle. Crawler sprawdził że większość podstron nie ma treści i nie zostały włączone do indeksu.
Są też przypadki, że winna jest sama technologia. Na podstronach są treści, ale po prostu robot nie radzi sobie z renderowaniem danej podstrony lub po prostu nie może się do niej dostać. Często ma to związek z zastosowaniem frameworku opartego na Javascript. Google zapewnia, że ich crawlery radzą sobie z JSem i jest to prawda, ale po części. Dużo zależy jak JS został wykorzystany przy budowanie serwisu. Jeśli znaczna większość serwisu jest ładowana dynamicznie to są szanse, że cralwer przejdzie kilka poziomów ale nie zagłębi się wystarczająco by dostać się do wszystkich podstron.
Kolejne ważne pytanie dotyczy samej struktury strony. W jakim modelu jest zbudowana, czy robot może bez problemu się po niej poruszać? Mowa tu o strukturze kategorii, tagów, produktów, filtrów czyli jak poszczególne elementy strony niczym klocki zostały ułożone w całość. Czasem zdarza się, że zła struktura powoduje, że robot nie może dostać się do niektórych podstron. Zdarza się też, że pozornie wszystko jest w porządku czyli robot porusza się po całej stronie, ale w wyniku niedociągnięć w projekcie struktury kuleje przepływ mocy pomiędzy podstronami. To tylko przykłady tego jak struktura może wpływać na zachowanie crawlera i końcowy efekt w postaci ruchu i pozycji.
Techniczne SEO to sporo innych, ważnych elementów, których nie będziemy tu przybliżać szczegółowo. To rzeczy jak dokładna analiza logów na serwerze, sprawdzenie tego jak ładuje się strona, z rozbiciem na poszczególne elementy i kolejność ich ładowania. To także rzeczy związane z hostingiem, plusy i minusy technologii w której została napisana strona. I wiele innych.
Jakie efekty może dać techniczne SEO? Zależy od tego, jak duży problem ma dany serwis. Czasem sama naprawa technicznych aspektów działania strony prowadzi do dużych wzrostów ruchu i pozycji.
W tym miejscu, gdy mowa o efektach, warto zwrócić uwagę na jeszcze jedną rzecz. Gdy są poważne problemy w technicznych aspektach działania strony (jak przykłady opisane wyżej) to zazwyczaj skutecznie będą blokowały one pozytywne efekty innych działań SEO jak choćby linkowanie, wzmacnianie domeny czy inwestycje w treści. Można sporo inwestować w pozycjonowanie, ale jeśli są problemy w strukturze, w poruszaniu się crawlera po stronie czy inne technicznie niedociągnięcia to zazwyczaj skutecznie będą one sabotowały inne działania SEO.