Najlepsze Forum Reklamowe - Darmowa Reklama Twojej Strony. Strona Gwna
FAQFAQ  SzukajSzukaj  UytkownicyUytkownicy  GrupyGrupy RejestracjaRejestracja  ZalogujZaloguj

Mocny katalog PageRank 8
Dodaj swoją stronę i zwiększ pozycję w Google.


Poprzedni temat «» Nastpny temat
Słowniczek SEO
Autor Wiadomo
Uytkownik Seo 
User




Informacje
Wiek: 31
Doczy: 24 Pa 2011
Posty: 26
Skd: internet
Wysany: 2012-01-08, 16:10   Słowniczek SEO

Wstęp: Słowniczek SEO

Zebraliśmy najważniejsze terminy SEO w jednym miejscu. Słowniczek SEO to mały niezbędnik dla początkujących pozycjonerów, osób zainteresowanych tematyką oraz tych, którzy nie znają się na pozycjonowaniu i chcą je zlecić na zewnątrz.

Słowniczek SEO

Słowniczek SEO to mini kompedium wiedzy dla początkujących. Powstał z myślą o osobach, które do tej pory niewiele miały do czynienia z tematyką SEO. Terminy SEO, które prezentujemy w slowniczku, to nie tylko encyklopedyczna wiedza, ale również przykłady, jak dany element wprowadzić w praktykę. W słowniczku wyjaśniamy, czym jest wyszukiwarka internetowa, jak działa pajączek, na czym polega pozycjonowanie i optymalizacja strony.

Słowniczek SEO to zbiór niezbędnych terminów, które powinny znać osoby początkujące w tematyce pozycjonowania. Przedstawiliśmy podstawowe terminy SEO. Słowniczek będzie przydatną ściągawką zarówno dla tych, którzy chcą pozycjonować własne strony, a nie wiedzą, jak się do tego zabrać oraz dla tych, którzy chcą zlecić pozycjonowanie własnego serwisu. Gdzie tylko było to możliwe, oprócz podstawowych informacji przedstawialiśmy praktyczne zastosowanie SEO.

AlexaRank

Ranking popularności stron w internecie. O miejscu w rankingu decyduje liczba wejść na stronę. Zliczanie tych wejść jest możliwe dzięki Alexa Toolbar, który jest wtyczką do przeglądarek internetowych. Ranking bierze pod uwagę tylko domeny. Oznacza to, że w przypadku posiadania domeny domena.pl oraz subdomen subdomena1.domena.pl i subdomena2.domena.pl, raking będzie obliczany dla domena.pl, a wejścia z obydwu subdomen będą dodawane do wejść głównej domeny.

Wysokie miejsce w rankingu świadczy nie o jakości, lecz o popularności danego serwisu. Stąd też Alexa Rank może być przydatny np. do porównania portali internetowych.

TOP5 wygląda następująco: Google, Yahoo, YouTube, Microsoft Live i FaceBook.

sprawdź AlexaRank swojej strony

Algorytm wyszukiwarki

Algorytm wyszukiwarki to zbiór zasad, w oparciu o które działa wyszukiwarka. Algorytm wyszukiwarki pozwala na wyszukanie i uporządkowanie wyników wyszukiwania.

W algorytmie wyszukiwarki wykorzystywane jest kilka mierników, które mają wpływ na kolejność (ranking) wyników wyszukiwania. Są to między innymi:

zgodność zapytania z meta danymi oraz z treścią strony
liczba i jakość linków zewnętrznych odsyłających do strony
budowa strony (wykorzystywanie znaczników logicznych typu

oraz stosunek treści do kodu)
popularność domeny głównej

Algorytmy wyszukiwarki są modyfikowane w celu eliminacji luk. Luki są wykorzystywane przez osoby zajmujące się pozycjonowaniem. Prowadzi to często do wyświetlania stron niezgodnych tematycznie z zapytaniem. Zazwyczaj wykorzystywanie luk jest skuteczne w krótkim okresie. Załatanie luki może spowodować, że strona pozycjonowana wcześniej z wykorzystaniem luki utraci wysoką pozycję w wynikach wyszukiwania.

Cloaking

Cloaking - z ang. ukrywanie, maskowanie. Technika pozycjonowania polegająca na serwowaniu odmiennej treści użytkownikom i robotom wyszukiwarek. Rozróżnianie zapytań o stronę na zapytania użytkowników oraz robotów wyszukiwarek jest możliwe dzięki sprawdzeniu adresu IP lub też sprawdzenia nagłówka programu klienta (user agent).

Są dwa rodzaje cloakingu. Pierwszy z nich jest stosowany w przypadku stron napisanych w technologii Flash. Takich stron nie potrafi odczytać robot, stąd też dla celów katalogowania w zasobach wyszukiwarki robotom oferuje się treść alternatywną. Cloaking jest uzasadniony również w przypadku stosowania przez odwiedzających stronę nietypowych, mało popularnych przeglądarek internetowych, które nie posiadają obsługi elementów Flash, np. Opera mini lub Lynx. Wprowadzenie alternatywnej treści przy pomocy cloakingu pozwala na wyświetlenie strony również dla takich użytkowników

Dużo bardziej popularnym rodzajem cloakingu jest ten, który ma oszukać wyszukiwarkę w celu poprawienia pozycji w rankingu. Robotowi wyszukiwarki prezentowana jest wtedy inna treść, niż końcowemu użytkownikowi.

Wykrycie złego cloakingu może poskutkować usunięciem strony z indeksu wyszukiwarki. Wykrycie takiej praktyki jest możliwe, gdy np. robot wyszukiwarki wchodzi z nowego, nieznanego dotąd adresu IP i nie podaje swojego user agent.

DMOZ, Open Directory Project

Directory MOZilla, ODP, katalog stron, którego podstawowym założeniem jest redagowanie katalogu nie przez roboty, lecz przez ludzi. Nad dodawaniem nowych wpisów czuwają wolontariusze. Automatyczne skrypty jedynie wspierają działanie katalogu (np. usuwanie wpisów o stronach, których już nie ma w sieci).

Dodanie strony do katalogu DMOZ wiąże się często nawet z kilkumiesięcznym okresem oczekiwania na akceptację wpisu. Katalog jest wykorzystywany do pozycjonowania stron ze względu na to, że posiada wiele kopii. Stąd jeden link po dodaniu do katalogu wyświetla się na wielu stronach, z których jest dostęp do katalogu.

Do katalogu nie są przyjmowane strony, w których budowie wykorzystano Doorway pages, Cloaking, ukryty tekst.

Filtr wyszukiwarki

Nakładany na daną stronę w wypadku, gdy jej wysoka pozycja wydaje się być nienaturalna w stosunku do rozmiarów/jakości serwisu. Istnieje podejrzenie, że wysoka pozycja została zdobyta dzięki niedozwolonym praktykom. Filtr może spowodować obniżenie pozycji strony w wynikach o kilka/kilkanaście miejsc lub też całkowicie wyłączyć ją z wyświetlanych wyników dla danego zapytania. Filtr działa kilka miesięcy.

FSB (Fresh Site Bonus)

Fresh Site Bonus to bonus dla nowych stron internetowych. Prezentowane są wyżej w wynikach wyszukiwania, niż wynikałoby to z ich popularności czy też trafności. Długość okresu, w którym są wyżej w wynikach wyszukiwania, zależy od unikalności frazy.

Jeżeli strona nie jest rozwijana lub też nie podejmowane są odpowiednie działania pozycjonowania, zazwyczaj po pewnym czasie jej pozycja w wynikach wyszukiwania obniża się.

Geolokalizacja

Rozpoznawanie miejsca, z którego pochodzi dany użytkownik. Geolokalizacja jest możliwa dzięki powiązaniu danego adresu IP z regionem. Dostawcy dostępu do Internetu kupują adresy IP od organizacji RIPE. Rejestr ten jest publiczny.

Z geolokalizacji korzystają wyszukiwarki internetowe w celu zaprezentowania bardziej trafnych wyników wyszukiwania. Najnowsze systemy statystyk oferują statystyki pochodzenia użytkowników przy wykorzystaniu geolokalizacji.

Google Bomb

Technika spamowania wyszukiwarek linkami. Celem jest umieszczenie witryny jak najwyżej w wynikach wyszukiwania pod kątem określonej frazy zupełnie nie związanej z tematyką strony.

Spamowania wyszukiwarki poprzez Google Bomb ma zazwyczaj charakter żartu ze strony internatów. Przykładem Google Bomb jest wypozycjonowanie strony domowej pewnego polityka na słowo kluczowe „kretyn”.

Indeks wyszukiwarki internetowej

Zbiór stron internetowych dostępnych w zasobach danej wyszukiwarki. Strony internetowe są indeksowane w zasobach przez pajączki (roboty) wyszukiwarek. Liczba stron internetowych zaindeksowanych przez największe wyszukiwarki sięga miliardów.

Stan zaindeksowania serwisu w wyszukiwarce internetowej możemy sprawdzić za pomocą polecenia SITE:adres.strony.glownej. Polecenie to wpisujemy w wyszukiwarce. W rezultacie otrzymamy listę wszystkich podstron serwisu, które zostały zaindeksowane.

Jeżeli z kolei wpiszemy w wyszukiwarce CACHE:adres.strony.glownej, to zobaczymy obraz serwisu zapisany w zasobach wyszukiwarki oraz dowiemy się, kiedy ostatni raz utworzony był obraz strony.

Link, linki

Link - inaczej hiperłącze. W internecie linki to elementy nawigacyjne umożliwiające przemieszczanie się pomiędzy dokumentami lub w ramach dokumentu. Linki w przypadku wyszukiwarek internetowych wykorzystywane są jako podstawowe kryterium oceny, jak wysoko strona powinna znajdować się w wynikach wyszukiwania.

Duże znaczenie pozycjonujące w przypadku linków tekstowych nadaje się parametrowi „anchor tekst” linka. W przypadku linków obrazkowych podobne znaczenie ma atrybut alt="tekst".

Linki dynamiczne

Linki dynamiczne nie są stale prezentowane na stronie. Zazwyczaj znajdują się w systemie rotacyjnym i są wyświetlane raz na jakiś czas. Linki dynamiczne występują najczęściej w systemach wymiany linków.

Najnowsze algorytmy wyszukiwarek potrafią odróżnić linki dynamiczne od linków statycznych. Linki dynamiczne nie są brane pod uwagę w ustalaniu rankingu stron.

Link wychodzący

Link wychodzący - link kierujący użytkownika poza dany serwis internetowy. Linki wychodzące zamawiane w innych serwisach, a kierujące do jednego serwisu, wpływają pozytywnie na pozycję tego serwisu w rakingu wyszukiwania.

Zbyt duża liczba linków wychodzących z danego serwisu może spowodować obniżenie oceny tej strony przez wyszukiwarkę. Aby obniżyć niekorzystne skutki wykorzystywania linków wychodzących, można skorzystać z atrybutu rel= „nofollow”. Atrybut ten informuję wyszukiwarkę, aby nie podążała za danym linkiem do innego serwisu.

Optymalizacja stron WWW

Optymalizacja stron WWW - jest to ogół procesów związanych z poprawianiem jakości serwisu internetowego. Zasadniczo optymalizację można podzielić na optymalizację treści i optymalizację kodu.

Optymalizacja może nieść za sobą różne cele. Można optymalizować kod strony, aby był zgodny ze standardem lub aby podwyższyć prędkość działania serwisu. W przypadku optymalizacji treści może to prowadzić do zwiększenia użyteczności dla użytkownika lub dostosowania serwisu do potrzeb osób niepełnosprawnych.

Optymalizacja stron www pod kątem wyszukiwarek internetowych łączy w sobie optymalizację kodu i treści strony. W ramach optymalizacji kodu wprowadza się hierarchię nagłówków, skraca kod strony do niezbędnego minimum. W przypadku optymalizacji treści można między innymi poprawić nasycenie tekstu słowami kluczowymi.

PageRank

Najbardziej znany w sieci algorytm obliczania wartości strony dla wyszukiwarki. Wymyślony przez twórców Google. Jego nazwa wzięła się od nazwiska Larry'ego Page'a. PageRank jest syntetnyczną oceną jakości strony. Uwzględnia liczbę i jakość linków wychodzących do strony internetowej. Pojęcie PageRank to uogólnienie kilku miar.

sprawdź Google PageRank swojej strony

Real PageRank (RPR)

Prawdziwy PageRank strony. RPR wykorzystywany jest przez algorytm wyszukiwarki Google. Nie jest też nigdzie publikowana jego wartość.
Toolbar PageRank (TPR)

Wyświetlany na pasku Google Toolbar. PageRank nie ma znaczenia dla wyników wyszukiwania, stanowi raczej siłę strony w internecie oraz realną wartość linków wychodzących z tej strony. TPR stanowi uproszczenie RPR. Podawany jest w skali od 0 do 10. Są również strony bez przypisanego PageRank.
Google Directory PageRank (GDPR)

Wyświetlany w katalogu stron Google. Z kolei katalog stron Google pobiera zasoby z DMOZ (Directory Mozzila).

Pozycjonowanie stron i serwisów WWW

ang. Search Engine Optimization - SEO, Web Positioning. Ogół technik wykorzystywanych do poprawy pozycji strony w wynikach wyszukiwania dla wyszukiwarki internetowej. Pozycjonowanie stało się popularne w momencie, gdy wyszukiwarki internetowe zdobyły przewagę nad katalogami stron. Obecnie ruch na stronach internetowych generowany jest przez wyszukiwarki. Z tego powodu duży nacisk kładzie się na pozycjonowanie strony.

W algorytmach większości wyszukiwarek ustalenie rankingu stron w wynikach wyszukiwania odbywa się poprzez ocenę popularności danej strony (liczba linków odsyłających do niej). Jest to dodatkowy elemenet poza oceną trafności strony. Trafność strony oceniana jest natomiast poprzez badanie słów kluczowych i ich zgodności z treścią oraz opisem i tytułem strony.

Pozycjonowanie polega na wykorzystywaniu elementów, które są uwzględniane przez algorytm wyszukiwarki. Zasadniczo pozycjonowanie polegać będzie na optymalizacji treści (nasycenie słowami kluczowymi, prawidłowa składnia) oraz tworzenie linków do strony z odpowiednim Anchor-tekstem.

W pozycjonowaniu należy wziąć pod uwagę kilka najbardziej popularnych wyszukiwarek internetowych. Można przyjąć odpowiednie kryterium – np. wyszukiwarki, które obsługują 95% zapytań. Pozycjonowanie zacząć należy od wyszukiwarek, które mają najwięszy udział w obsłudze internautów. Przy pozycjonowaniu należy uwzględnić fakt, że zazwyczaj algorytmy wyszukiwarek różnią się.

Robot wyszukiwarki internetowej

Bot, pajączek, pająk wyszukiwarki. Program szperający w internetowych zasobach. Czyta, analizuje kod stron internetowych, kataloguje je i indeksuje w zasobach, z których korzysta potem wyszukiwarka internetowa. Czytanie stron przez roboty jest ważne zwłaszcza w przypadku stron często aktualizowanych.

Słowo kluczowe, fraza kluczowa

ang. keyword, pojedyńcze słowo, lub kilka słów (fraza) opisujących stronę internetową. Słowa kluczowe są badane przez wyszukiwarkę internetową w celu serwowania użytkownikom najbardziej trafnych stron. Im słowo kluczowe jest bardziej trafne w stosunku do zapytania, tym wyszukiwarka wyżej zaprezentuje w wynikach wyszukiwania daną stronę. Przy czym, jeżeli kilka stron posiada te same słowa kluczowe w treści, to w ustalaniu rankingu udział biorą dodatkowe elementy. Uwzględnia się PageRank strony, nasycenie strony słowami kluczowymi oraz informacje zawarte w meta danych strony.

Skuteczne pozycjonowanie wymaga zawarcia słów kluczowych w treści strony oraz w sekcji head (atrybuty meta). Z technicznego punktu widzenia meta dane to informacje przeznaczone do odczytu dla pajączków (robotów) wyszukiwarek. Meta dane rozróżniamy na: słowa kluczowe (meta keywords), opis strony (meta description) oraz tytuł strony (title). Aby pozycjonowanie było prawidłowe, należy doprowadzić do stanu, w którym najważniejsze słowa kluczowe znajdą się nie tylko w keywords, ale również w description i w title.

Prawidłowe techniki pozycjonowania wymagają, aby na stronie wystąpiło odpowiednie nasycenie słowami kluczowymi – nie za dużo i nie za mało. Zbyt małe nasycenie spowoduje, że nasza strona zostanie uznana za mniej trafną w stosunku do zapytania w wyszukiwarce. Przesycenie danym słowem kluczowym sprawi, że strona zostanie potraktowana jako spam i usunięta z wyników wyszukiwania. Określenie prawidłowego nasycenia strony słowami kluczowymi może odbyć się na zasadzie porównania z konkurencją (np. średnio u konkurencji 10% słów w treści stanowi dane słowo kluczowe/fraza kluczowa). W takim przypadku powinniśmy poziom nasycenia słowami kluczowymi w naszym serwisie ustalić na poziomie takim samym lub nieco wyższym.

Wyniki wyszukiwania, SERP

ang. Search Engine Results Position. Lista stron internetowych, do których linki wyświetlają się po wpisaniu do wyszukiwarki internetowej danego zapytania. Analiza zachowań użytkowników wyszukiwarki wskazuje, że najczęściej sprawdzają oni linki znajdujące się na pierwszej/pierwszych stronach rezultatów wyszukiwania. Stąd ważne jest, aby wyszukiwarka serwowała najbardziej trafne wyniki na początku.

W pozycjonowaniu strony należy wziąć pod uwagę słowa kluczowe/frazy kluczowe, pod kątem których serwis będzie optymalizowany. Rezultaty pozycjonowania należy na bieżąco monitorować tzn. w określonym czasie, np. co 2 tygodnie, sprawdzać na jakim miejscu w wynikach znajduje się serwis. W monitorowaniu należy wziąć pod uwagę, że pozycja danej strony zależy również od geolokalizacji, języka oraz datacenter. W zliczaniu wyników nie należy brać pod uwagę linków sponsorowanych, tzn. takich, które wyświetlane są jako pierwsze w danej wyszukiwarce, bo właściciele tych stron zapłacili za to.

Zdobycie wysokiej pozycji w wynikach wyszukiwania (zazwyczaj pierwsze 10) dla dobrych zapytań skutkuje zazwyczaj znacznym wzrostem ruchu na stronie.

Wyszukiwarka internetowa

Wyszukiwarka internetowa (search engine). Strona internetowa z oprogramowaniem, które umożliwia szukanie informacji w zasobach internetowych. Wyszukiwarki internetowe zdominowały internet jako główna metoda szukania informacji. W związku z takim stanem ogromną rolę w promocji stron internetowych odgrywa pozycjonowanie stron pod kątem wyszukiwarek. Najpopularniejsze wyszukiwarki internetowe to Google, MSN, Yahoo, NetSprint.

robots.txt

Plik, w którym znajdują się wytyczne dla robotów. Można zdefiniować różne wytyczne dla różnych botów, np. nie zezwolić na dostęp do strony dla Googlebot (pająk wyszukiwarki Google), a umożliwić innym robotom. Zabronienie robotowi indeksacji strony ma uzasadnienie wtedy, gdy dana strona jest w budowie lub nie ma na niej treści (np. formularz logowania).

 
     
Wywietl posty z ostatnich:   
Odpowiedz do tematu
Nie moesz pisa nowych tematw
Nie moesz odpowiada w tematach
Nie moesz zmienia swoich postw
Nie moesz usuwa swoich postw
Nie moesz gosowa w ankietach
Nie moesz zacza plikw na tym forum
Moesz ciga zaczniki na tym forum
Dodaj temat do Ulubionych
Wersja do druku

Skocz do:  

Powered by phpBB modified by Przemo © 2003 phpBB Group
|| Angry Birds Online || Forum Side Dark Warez || Forum Reklamowe