VD » Blog » Pozycjonowanie / SEO » JavaScript – jak pozycjonować strony internetowe?

JavaScript – jak pozycjonować strony internetowe?

31 maja 2021 (aktualizacja: 18 czerwca 2021) 6-8 min. czytania
W jaki sposób pozycjonować strony JavaScript ?
Zobacz jak zwiększyliśmy sprzedaż o 739%

JavaScript to sposób na ciekawą prezentację treści, dlatego wiele firm decyduje się na tworzenie tego typu stron. Wiele osób twierdzi jednak, że nie da się skutecznie pozycjonować stron opartych na JavaScript, bo roboty Google nie potrafią skutecznie zczytywać zawartości tego typu witryn. Zastanówmy się więc, czy jesteśmy w stanie temu przeciwdziałać, jak przygotować stronę, żeby pozycjonowanie jej było możliwe?

Co to jest JavaScript?

Witryna oparta na języku programowania w postaci kodu JavaScript pozwala na lepsze interakcje z odbiorcą aniżeli typowy HTML. JavaScript umożliwia szybkie zmiany w witrynie np. modyfikację treści, pokazywanie się okienek i wygląd. JavaScript jest chętnie wykorzystywany do tworzenia aplikacji, ale również do przygotowywania na stronie animacji, galerii, formularzy i innych interaktywnych funkcji. JavaScript ma również inne ciekawe zastosowanie, a mianowicie możemy np. analizować zachowanie osób wchodzących na stronę. Wszystkie dzisiaj wykorzystywane przeglądarki internetowe mają tzw. silnik, który umożliwia sprawdzanie i poprawne stosowanie kodu JavaScript.

Pozycjonowanie JavaScript

Jeszcze parę lat temu pozycjonowanie JavaScript było bardzo trudne. Roboty Google miały ogromny problem poprawnym odczytaniem zawartości strony i jej analizą, co wiązało się z niskimi pozycjami w wynikach organicznych wyszukiwarki. W ostatnim czasie jednak Google ogłosiło, że Googleboty coraz lepiej radzą sobie z rozczytaniem kodu JavaScript. Nie jest jeszcze idealnie, ale jeśli poznamy sposób analizowania witryny przez algorytmu, to szansa na skuteczne pozycjonowanie strony wzrasta.

Jak roboty Google sprawdzają witrynę?

Standardowo Googleboty weryfikują, czy mogą dostać się na wskazany adres, to ważne bowiem czasem boty nie mogą wejść na stronę, bo mają zablokowany dostęp poprzez plik robots.txt lub tag w <head>. W sytuacji, gdy robotom uda się znaleźć w witrynie pobierają informacje o portalu, strukturę HTML j jednocześnie weryfikują, co jest w każdym odnośniku będącym w kodzie. Później sprawdzane są pliki z CSS-em i witryna może zostać zaindeksowana.

Jeżeli nasza strona jest oparta o JavaScript sprawa jest bardziej skomplikowana.

1. Roboty Google weryfikują, jakie są zasoby w pliku robots.txt.

2. Następnie przesyłają żądanie HTTP.

3. Dopiero potem Googlebot ściąga plik HTM.

4. W następnej kolejności roboty wyszukiwarek ściągają pliki CSS oraz JavaScript.

5. Kolejnym krokiem jest wykonanie kodu JavaScript i pobranie informacji z API oraz bazy danych

6. Wyświetlona witryna jest przygotowana do zaindeksowania.

7. Boty wyszukiwarki sprawdzają kod strony ze szczególnym uwzględnieniem linków i dają je do kolejki.

Optymalizując JavaScript konieczne jest udzielenie dostępu robotom wyszukiwarek bez tego nie da się skutecznie wypozycjonować strony. Renderowanie witryny narzuca niejako otrzymanie całkowitego dostępu do adresów URL plików CSS i JavaScript. Nie wolno zapominać również o Sitemap, która umożliwia łatwiejsze zaindeksowanie strony. Google zwraca też uwagę na szybkość ładowania witryny. Możemy wykorzystać tzw. lazy loading, czyli wolniejsze wczytywanie się wybranych części strony. Trzeba pamiętać o zoptymalizowaniu opisów i tytułów.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *