Wątek przeniesiony 2023-12-14 11:50 z Webmastering przez Riddle.

Narzędzie do mierzenia score w Google

0

Z tego, co wiem, SEO to są działania w dwóch aspektach:

  1. Dopracowanie pozycjonowanej strony pod kątem jakości kodu, właściwego doboru tytułów i treści, tworzenie treści czytelnej dla wyszukiwarek, unikanie treści ukrytej lub mającej zmylić wyszukiwarkę (wyszukiwarka Google od dawna potrafi wyczuć istnienie takich treści), pliki robots.txt i sitemap.xml, o ile jest to potrzebne. W tym aspekcie autor strony ma pełny wpływ na pozycję, a modyfikacje i testowanie mogą być wykonywane offline.

  2. Dobór odpowiedniego adresu domenowego, spowodowanie istnienia linków przekierowujących na pozycjonowaną stronę z odpowiednich źródeł, w odpowiedniej ilości, umieszczenie pozycjonowanej strony w reklamach i katalogach. W tym aspekcie autor nie ma pełnego wpływu, nie jest możliwe wykonanie pożądanych działań w krótkim czasie, istotną rolę odgrywa URL strony, a Google bada nie samą stronę, tylko jej, jakby to powiedzieć, otoczenie internetowe.

Jak łatwo się domyślić, pierwszy aspekt jest związany z samą aplikacją, można go realizować jeszcze niezależnie od istnienia jej w internecie, natomiast drugi aspekt dotyczy już nie aplikacji, tylko właśnie jej "otoczenia internetowego", które też ma wpływ na pozycje w wyszukiwarce.

Ponieważ Google dobiera kolejność pozycji na SERP badając dana stronę między innymi w pierwszym aspekcie, a więc w tym, na który ma się największy wpływ i można go realizować niezależnie od internetu, można przyjąć, że google bada stronę wg jakiegoś algorytmu i ją punktuje, np. dobrze dopracowanej treści z umiarkowaną gęstością słów kluczowych podnosi wynik, dobrze zrobiona nawigacja podnosi wynika, biały tekst na białym tle znacznie obniża punktację, a słowa kluczowe w meta tagu "keywords" nie mają żadnego wpływu na punktację (Google nie bierze tego pod uwagę ze względu na nadużycia i manipulacje w przeszłości). Można powiedzieć, że istnieje algorytm, w którym na wejściu jest adres aplikacji (badaniu podlega to, co wychodzi z serwera HTTP, a nie kod samej aplikacji) i słowa wyszukiwania (bo SEO zawsze jest pod określone słowa i frazy), a na wyjściu jest wynik oceny treści, że im wyższy wynik, tym łatwiej osiągnąć wyższa pozycję w SERP (oczywiście na pozycję wpływa też drugi aspekt, ale nie o tym jest ten temat).

Pytanie jest proste i następujące: Nawet, jeżeli sam algorytm oceniający stronę stosowany przez Google jest tajny i często zmieniany, to jak nazywa się i jak skorzystać z narzędzia Google, które na wskazanej przeze mnie stronie odpala ten sam algorytm (aspekt nr 1) i podaje wynik oceny plus ewentualnie informacje, co na nią wpływa i co wypadałoby poprawić, aby uzyskać lepszą ocenę?

Chodzi o prostą rzecz: Wpisuję adres (może być adres IP, może być darmowa domena, bo w aspekcie nr 1 nie ocenia się adresu, tylko sam kod strony), wpisuję słowa, pod które chcę wypozycjonować, a otrzymuję informację, typu "Strona otrzymuje 354 punktów, treść jest skopiowana ze strony XYZ, istnieje biały tekst na białym tle". Usuwam biały tekst na białym tle i już jest 1456 punktów. Przeredaguję treść, żeby nie było plagiatu i już jest 1800 punktów. W ten właśnie sposób mógłbym dowolnie zmieniać treść tak, jak mi pasuje i uruchamiać ocenę SEO po każdej zmianie, dążąc do możliwie najwyższego wyniku punktowego. Za pomocą takiego narzędzia można by dopracować stronę w stosunkowo krótkim czasie, a dopracowanie jest bardzo pożądane przez Google i "nagradzane" wyższa pozycją w SERP.

Nie pisze tu o aspekcie nr 2, ponieważ ja nie mam pełnego wpływu na niego, jest on trudny w realizacji, czasochłonny w realizacji, to nie jest kwestia jednej czy dwóch modyfikacji w krótkim czasie, czym odróżnia się od aspektu nr 1.

1

Masz mnóstwo narzędzi, które według własnego widzimisię mówią ci jaki masz score. Google nigdy nie wyda takiego narzędzia, bo nie mają w tym żadnego celu. Algorytm musi być tajny, bo mając taką oficialną wyrocznię strona -> score mógłbyś łatwo zbadać jak ten algorytm działa co prowadziłoby do jeszcze większych nadużyć.

To co jest podane publicznie https://developers.google.com/search/docs/fundamentals/seo-starter-guide?hl=pl to manipulacje, które są poparte przez googla.

1
slsy napisał(a):

Google nigdy nie wyda takiego narzędzia, bo nie mają w tym żadnego celu.

Równie dobrze można powiedzieć, że Google nie ma żadnego celu w opisywaniu i publikowaniu tego przewodnika SEO, którego link wstawiłeś, a jednak opublikował. Moim zdaniem cel umożliwienia kontroli spełnialności zasad tworzenia stron byłby dokładnie ten sam, w którym opublikował te zasady.

Chyba, że Googlowi tak naprawdę zwisa, jak są zrobione aplikacje, nie zależy mu na tym, żeby były dobrze zrobione, to wtedy rzeczywiście nie ma po co tworzyć ani udostępniać kontroli, jak również nie ma po co spisywać zasad tworzenia.

slsy napisał(a):

Algorytm musi być tajny, bo mając taką oficialną wyrocznię strona -> score mógłbyś łatwo zbadać jak ten algorytm działa co prowadziłoby do jeszcze większych nadużyć.

Jeżeli wyrocznia miałoby formę aplikacji webowej działającej online, to algorytm zawsze pozostanie tajny ze względu na brak możliwości uzyskania kodu źródłowego ani binarnego tego, co jest uruchamiane na serwerze. Moim zdaniem, algorytm jest tak skomplikowany, że jego odtworzenie na podstawie samej analizy zależności wyniku na wyjściu od zmian na wejściu nie jest w ogóle możliwe. Jedynie potwierdziłoby się to, co jest w linkowanym dokumencie i zastosowane w tym mnóstwie narzędzi, o których wspominasz w pierwszym zdaniu. Istnienie i możliwość korzystania z takiej wyroczni na pewno nie grozi ujawnieniem algorytmu.

Nie rozumiem logiki postępowania, że oczekuje się wykonania aplikacji wg określonych zasad, spisuje się i publikuje się zasady tworzenia aplikacji (przy czym szczegóły pozostają tajne), ale nie umożliwia się kontroli spełnialności zasad (udostępnienie wyroczni nie jest równoznaczne z ujawnieniem całego algorytmu). Jaki jest interes w tym, żeby oczekiwać wykonania aplikacji wg pewnych zasad, ale nie ułatwić maksymalnie stosowania tych zasad?

A jak zostanie odkryta jakaś podatność na wypozycjonowanie niezgodne z zasadami, to i tak Google zmodyfikuje algorytm w celu usunięcia tej podatności, co z resztą robi cały czas i fałszywe wypozycjonowanie w praktyce jest bardzo trudne i tak naprawdę przynosi więcej strat niż korzyści. Co więcej, usunięcie podatności, to nie tylko uniemożliwienie pozycjonowania nietypową metodą, ale też ukaranie prób takiego "pozycjonowania" poprzez obniżenie punktacji. Google ma interes w tym, żeby ujawniać takie podatności, bo nie toleruje prób oszustwa algorytmu oceniającego treści stron i z ogromną chęcią uniemożliwia takie oszustwa.

2

Takie narzędzie oficjalnie nie może powstać bo było by jedynie początkiem kolejnej wojny automatów a Google od lat wprost mówi, że nie o zautomatyzowane treści im chodzi.
Na szczęście to samo Google daje wystarczająco dużo narzędzi i informacji żeby serwis przygotować poprawnie.
Zaczynając od poradnika, który zapodał kolega powyżej (https://developers.google.com/search/docs/fundamentals/seo-starter-guide?hl=pl) idąc dalej przez:

Poza narzędziami od Google masz różnego rodzaju firmy, które tworzą doskonałe narzędzia wspomagające pracę Sełofcóff t.j.:

A zasada nadrzędna gwarantująca sukces to tworzyć treści unikalne, takie żeby ludzie chcieli je czytać i prezentować je w ładnej dostępnej formie.
Niestety w tym kontekście, pozycjonowanie sklepu z butami czy telefonami to gigantyczna praca daleko wykraczająca poza samą stronę WWW, jej strukturę i zawartość.

Cytat z poradnika Google: "Witryna powinna być przydatna dla użytkowników, a każda optymalizacja powinna mieć na celu zapewnienie im lepszych wrażeń".

1
andrzejlisek napisał(a):

Jeżeli wyrocznia miałoby formę aplikacji webowej działającej online, to algorytm zawsze pozostanie tajny ze względu na brak możliwości uzyskania kodu źródłowego ani binarnego tego, co jest uruchamiane na serwerze.

Wystarczyłoby napisać bota, który mutuje daną stronę w różny sposób i sprawdza score. Taki bot po krótkim czasie byłby w stanie odtworzyć algorytm na zasadzie inżynierii wstecznej. Następnie mógłbyś zaplikować taką zakumulowaną wiedzę do automatycznego poprawiania SEO dowolnej strony. Nie brzmi to dobrze

andrzejlisek napisał(a):

Nie rozumiem logiki postępowania, że oczekuje się wykonania aplikacji wg określonych zasad, spisuje się i publikuje się zasady tworzenia aplikacji (przy czym szczegóły pozostają tajne), ale nie umożliwia się kontroli spełnialności zasad (udostępnienie wyroczni nie jest równoznaczne z ujawnieniem całego algorytmu). Jaki jest interes w tym, żeby oczekiwać wykonania aplikacji wg pewnych zasad, ale nie ułatwić maksymalnie stosowania tych zasad?

To inny przykład. Na maturze z matematyki wiadomo, że można mieć kalkulator (poradnik SEO od googla). Dlaczego nie wiadomo jakie będą pytania (wyrocznia)? Przecież to każdemu by pomogło.

W interesie osób układających egzamin nie jest to, żeby każdy zdał z jak najlepszym wynikiem, tylko przypisanie odpowiedniej wartości liczbowej (score) do stopnia wiedzy danej osoby (strony internetowej).

1

@andrzejlisek A zagladales moze do metryk Lighthouse? Moze one okaza sie uzyteczne dla Ciebie? Masz 4 scope'y Performance, Accessibility, Best Practices, Seo oraz Progressive App. Lighthouse mozesz odpalac dla kazdej strony z poziomu przegladarki, (headless rowniez) i przy odrobinie wysilku zrobic sobie automacik, ktory bedzie Ci generowal piekne raporciki w json'ie z wybranych metryk, bez odpalania google chrome, ktore mozesz sobie dowolnie analizowac i oceniac.

https://developer.chrome.com/docs/lighthouse/performance/performance-scoring

0
slsy napisał(a):
andrzejlisek napisał(a):

Jeżeli wyrocznia miałoby formę aplikacji webowej działającej online, to algorytm zawsze pozostanie tajny ze względu na brak możliwości uzyskania kodu źródłowego ani binarnego tego, co jest uruchamiane na serwerze.

Wystarczyłoby napisać bota, który mutuje daną stronę w różny sposób i sprawdza score. Taki bot po krótkim czasie byłby w stanie odtworzyć algorytm na zasadzie inżynierii wstecznej. Następnie mógłbyś zaplikować taką zakumulowaną wiedzę do automatycznego poprawiania SEO dowolnej strony. Nie brzmi to dobrze

Teoretycznie to się da zrobić, nie wiadomo, czy w praktyce takie przedsięwziecie jest opłacalne i ile wymaga zasobów. Do tego Google mógłby celowo utrudnić dużą liczbę sprawdzeń w krótkim czasien, np. jedno sprawdzenie w danej chwili na jednym adresie IP, na jednym logowaniu, a samo sprawdzenie sztucznie wydłużone do 15 minut. A i tak Google w tym czasie trzy razy zmodyfikuje swój algorytm.

Tak samo, jak złamanie szyfru AES lub RSA z wybranym tekstem jawnym. Teoretycznie jest to możliwe do zrobienia, ale w praktyce bardzo trudne do wykonania.

slsy napisał(a):
andrzejlisek napisał(a):

Nie rozumiem logiki postępowania, że oczekuje się wykonania aplikacji wg określonych zasad, spisuje się i publikuje się zasady tworzenia aplikacji (przy czym szczegóły pozostają tajne), ale nie umożliwia się kontroli spełnialności zasad (udostępnienie wyroczni nie jest równoznaczne z ujawnieniem całego algorytmu). Jaki jest interes w tym, żeby oczekiwać wykonania aplikacji wg pewnych zasad, ale nie ułatwić maksymalnie stosowania tych zasad?

To inny przykład. Na maturze z matematyki wiadomo, że można mieć kalkulator (poradnik SEO od googla). Dlaczego nie wiadomo jakie będą pytania (wyrocznia)? Przecież to każdemu by pomogło.

W interesie osób układających egzamin nie jest to, żeby każdy zdał z jak najlepszym wynikiem, tylko przypisanie odpowiedniej wartości liczbowej (score) do stopnia wiedzy danej osoby (strony internetowej).

Na maturze chodzi o sprawdzenie wiedzy i umiejętności uczniów, więc taki sposób postępowania, jaki jest, jest słuszny. W przeciwnym razie organizowanie egzaminu nie miałoby najmniejszego sensu. Natomiast SEO to nie jest ani sprawdzian umiejętności webmastera, ani konkurs na najlepiej zrobioną stronę. Bardziej, przypomina wystawianie aplikacji do Apple AppStore. Albo aplikacja jest zatwierdzona, bo spełnia applowskie wytyczne, albo dostaje się informację zwrotną, co najeży poprawić. Co prawda, nie ma automatycznego narzedzia oceniającego, ale Apple sprawdza apkę rekami pracowników i daje info, że albo jest w porzadku i może zostać, albo trzeba poprawić to i tamto.

slsy napisał(a):

A zasada nadrzędna gwarantująca sukces to tworzyć treści unikalne, takie żeby ludzie chcieli je czytać i prezentować je w ładnej dostępnej formie.

To jest aspekt nr 1 wypisany na początku mojego pierwszego postu, w kontekście którego dyskutuję o automatycznej sprawdzarce. Ten tajny algorytm googla jest tak zrobiony, żeby punktacja była skorelowana z wizualną jakością i użytecznością treści, przy czym algorytm jest odporny na oszustwa w treści.

slsy napisał(a):

Niestety w tym kontekście, pozycjonowanie sklepu z butami czy telefonami to gigantyczna praca daleko wykraczająca poza samą stronę WWW, jej strukturę i zawartość.

A to jest aspekt ne 2, w kontekście którego o nic nie pytam, a istnienie narzędzia sprawdzajacego nie jest możliwe, a szybkie poprawki (na zasadzie, ze sprawdzam, wychodzi zły wynik, poprawiam, sprawdzam jeszcze raz, znowu poprawiam i tak trzy razy aż otrzymam satysfakcjonujący wynik sprawdzenia i to wszystko w ciągu jednego dnia) też nie zawsze są możliwe.

0
proximus-prime napisał(a):

@andrzejlisek A zagladales moze do metryk Lighthouse? Moze one okaza sie uzyteczne dla Ciebie? Masz 4 scope'y Performance, Accessibility, Best Practices, Seo oraz Progressive App. Lighthouse mozesz odpalac dla kazdej strony z poziomu przegladarki, (headless rowniez) i przy odrobinie wysilku zrobic sobie automacik, ktory bedzie Ci generowal piekne raporciki w json'ie z wybranych metryk, bez odpalania google chrome, ktore mozesz sobie dowolnie analizowac i oceniac.

https://developer.chrome.com/docs/lighthouse/performance/performance-scoring

Nie zaglądałem. Fajnie, że jest takie narzędzie. Zapoznam się z tym.

0
andrzejlisek napisał(a):

(...) Natomiast SEO to nie jest ani sprawdzian umiejętności webmastera, ani konkurs na najlepiej zrobioną stronę. Bardziej, przypomina wystawianie aplikacji do Apple AppStore. Albo aplikacja jest zatwierdzona, bo spełnia applowskie wytyczne, albo dostaje się informację zwrotną, co najeży poprawić. Co prawda, nie ma automatycznego narzedzia oceniającego, ale Apple sprawdza apkę rekami pracowników i daje info, że albo jest w porzadku i może zostać, albo trzeba poprawić to i tamto.

No i tak jest w Google. Jeśli strona spełnia minimalne wymagania, które możesz w każdej chwili zweryfikować za pomocą np. https://pagespeed.web.dev/ a jeszcze dodatkowo dodasz ją do SearchConsole to niemal pewne masz, że znajdzie się w wynikach wyszukiwania Google.

Zatem czego oczekujesz? Narzędzia, które Ci napisze na ekranie co zrobić żeby być na 1 pozycji? Google poza automatycznymi narzędziami też ręcznie pewne strony banuje - np na podstawie zgłoszeń.

Do tego masz narzędzia, które podałem kilka postów wyżej, za pomocą których możesz porównać swoją stronę z konkurencją. Niektóre nawet wyplują raport na podstawie, którego możesz wywnioskować, że aby przebić konkurencję to potrzeba 10 podstron w danej tematyce wspierających stronę produktową.

Czego więcej oczekujesz?

1

Teoretycznie to się da zrobić, nie wiadomo, czy w praktyce takie przedsięwziecie jest opłacalne i ile wymaga zasobów. Do tego Google mógłby celowo utrudnić dużą liczbę sprawdzeń w krótkim czasien, np. jedno sprawdzenie w danej chwili na jednym adresie IP, na jednym logowaniu, a samo sprawdzenie sztucznie wydłużone do 15 minut. A i tak Google w tym czasie trzy razy zmodyfikuje swój algorytm.

To uruchomisz sobie tego bota z wielu hostów. To nie jest żaden problem

W przeciwnym razie organizowanie egzaminu nie miałoby najmniejszego sensu. Natomiast SEO to nie jest ani sprawdzian umiejętności webmastera, ani konkurs na najlepiej zrobioną stronę. Bardziej, przypomina wystawianie aplikacji do Apple AppStore. Albo aplikacja jest zatwierdzona, bo spełnia applowskie wytyczne, albo dostaje się informację zwrotną, co najeży poprawić. Co prawda, nie ma automatycznego narzedzia oceniającego, ale Apple sprawdza apkę rekami pracowników i daje info, że albo jest w porzadku i może zostać, albo trzeba poprawić to i tamto.

Nie, google chce, żeby klient znalazł odpowiednią stronę. "Złe" manipulacje SEO sprawiają, że użytkownicy trafiają na strony, które są dla nich bezwartościowe co obniża prestiż wyszukiwarki

0

W całej dyskusji zapominano o tym, że to klient ocenia czy strona jest dobra a nie Google.
Ta ocena wciąż wynika głównie z ilości linków przychodzących, ilości poleceń w serwisach społecznościowych itp...
Linki i profile społecznościowe mają oczywiście swoje oceny wiarygodności, popularności itp... To wszystko ma wpływ na to jak wysoko będzie oceniona nasza strona.

Sama treść owszem jest potrzebna jeśli konkurujemy z innymi tą treścią ale już w przypadku takich stron np. z telefonami, na których każda strona opisująca dany model telefonu ma te same informacje, te same zdjęcia, podobną ilość opinii i treści opisowych - samo porównanie treści niewiele tu zmieni. Dlatego w tej sytuacji Google będzie chciało polecić stronę technicznie lepiej wykonaną, szybszą, lżejszą i taką, które jest zwyczajnie częściej polecana/linkowana przez użytkowników.

Wniosek jest taki, że możesz pisać jak idiota swoje zaplecze SEO przez 10 lat i dobierać najgenialniejsze słowa kluczowe a i tak może Cię przebić w wynikach wyszukiwania strona bez słowa treści tylko z jednym zdjęciem jeśli ludzie będą ją odwiedzać (zakładam, że niemal każda strona ma gtag, który pozwala na prowadzenie takiej analizy przez Google).

0

@4w0rX4t4X a biezesz pod uwage fakt, ze kllient ocenia w 99 przypadkach na 100 wylacznie to co mu google "zapoda" na pierwszej stronie wyszukiwarki?

0
proximus-prime napisał(a):

@4w0rX4t4X a biezesz pod uwage fakt, ze kllient ocenia w 99 przypadkach na 100 wylacznie to co mu google "zapoda" na pierwszej stronie wyszukiwarki?

Oczywiście, że istnieje tu "sprzężenie zwrotne" i co z tego? Najpopularniejsi są ludzie popularni a inni muszą tą popularność najpierw zdobyć.
Czym innym jest zdobywanie popularności a czym innym utrzymywanie się na szczycie. Życie!

0

wyszukiwarka Google od dawna potrafi wyczuć

Z całym szacunkiem do tematu ale wyszukiwarki, nawet Google, nie czują. To nie są żywe istoty.

0
4w0rX4t4X napisał(a):

No i tak jest w Google. Jeśli strona spełnia minimalne wymagania, które możesz w każdej chwili zweryfikować za pomocą np. https://pagespeed.web.dev/ a jeszcze dodatkowo dodasz ją do SearchConsole to niemal pewne masz, że znajdzie się w wynikach wyszukiwania Google.

Zatem czego oczekujesz? Narzędzia, które Ci napisze na ekranie co zrobić żeby być na 1 pozycji? Google poza automatycznymi narzędziami też ręcznie pewne strony banuje - np na podstawie zgłoszeń.

Jak już zostało wspomniane, jest dużo czynników mających wpływ na pozycję w SERP, a sama treść strony to tylko jeden z nich. Zakładam, że Google bada treść strony jakimś tajnym algorytmem, sprawdza, czy kod jest wolny od błędów, czy nie ma prób oszustwa robota, czy nawigacja jest dobrze zrobiona. Czego oczekuję? Narzędzia, które bada treść strony w identyczny sposób, w jaki robi to google i przedstawia informację, jak bardzo jest dopracowana (czy to w formie liczby, czy w formie komentarzy odnośnie popraw, nie tylko informacji zerojedynkowej, jaką jest spełnienie lub niespełnienie minimalnych wytycznych), nic więcej nie oczekuję. Nie oczekuję badania czynników innych niż sama treść, a też mających wpływ na miejsce w rankingu.

Ewentualnie oczekuję potwierdzenia, że takie narzędzie nie istnieje, czyli pracownicy Google myślą w taki sposób: Napiszemy Ci zasady, którymi powinieneś się kierować tworząc dobrą stronę, a dalej to radź sobie sam, nie będziemy dla Ciebie sprawdzać, jak bardzo Twoja strona jest dobra. My regularnie sprawdzamy Twoją stronę między innymi pod kątem poprawności treści, ale Tobie nie damy możliwości, żebyś sam sobie sprawdzał, mimo, że robimy to automatycznie.

Jestem świadomy, że sama poprawa treści to tylko początek SEO, ale od tego trzeba zacząć. Może i da się wypozycjonować źle zrobioną stronę, ale na pewno będzie to dużo trudniejsze.

Może i już jest 1000 narzędzi, które to robią, ale z oczywistych względów algorytm badający tych programów będzie różnić się od tego w Google, choć w dużej mierze będzie podobny, wynik oceny będzie zbieżny, a narzędzia pomagają w dopracowywaniu treści.

Od początku dyskusji podkreślam, że odróżniam dopracowywanie treści strony od pozostałych czynników, które również są ważne i mają wpływ na pozycję w SERP, między innymi czynnik ludzki. Dyskutuję tylko i wyłącznie dopracowywaniem treści, które można badać automatem i Google to robi. A na to, co ludzie wpisują, co ludzie klikają, gdzie będzie umieszczony link do mojej strony to ja nie mam wpływu, może to ma wpływ na pozycję w SERP, ale ja i tak nie o tym dyskutuję.

Roman Mokrzan napisał(a):

wyszukiwarka Google od dawna potrafi wyczuć

Z całym szacunkiem do tematu ale wyszukiwarki, nawet Google, nie czują. To nie są żywe istoty.

Jakkolwiek byśmy tego nie nazwali, Google to jest tylko maszyna, ale tak skomplikowana, że ona nie daje się oszukać, a do tego próba oszustwa podobno może być srogo karana poprzez eliminację strony z indeksu.

0
slsy napisał(a):

To uruchomisz sobie tego bota z wielu hostów. To nie jest żaden problem

Każde zabezpieczenie da się ominąć, tylko kwestia kosztu, czasu i opłacalności.

0
andrzejlisek napisał(a):

Czego oczekuję? Narzędzia, które bada treść strony w identyczny sposób, w jaki robi to google i przedstawia informację, jak bardzo jest dopracowana (czy to w formie liczby, czy w formie komentarzy odnośnie popraw, nie tylko informacji zerojedynkowej, jaką jest spełnienie lub niespełnienie minimalnych wytycznych), nic więcej nie oczekuję. Nie oczekuję badania czynników innych niż sama treść, a też mających wpływ na miejsce w rankingu.

Ewentualnie oczekuję potwierdzenia, że takie narzędzie nie istnieje

Istnieje cała masa narzędzi, które próbują wystawiać takie oceny w różnych obszarach serwisu ale dokładne nigdy nie powstanie bo takie jest założenie w tej zabawie.

Napiszemy Ci zasady, którymi powinieneś się kierować tworząc dobrą stronę, a dalej to radź sobie sam, nie będziemy dla Ciebie sprawdzać, jak bardzo Twoja strona jest dobra.

No i ciesz się, że w ogóle podają te ogólne wytyczne - bo wcale nie musieli. To, że źle się z tym czujesz to niestety Twój problem. Musisz się dostosować do realiów albo zatrudnić w Google dostać do działu gdzie programują te algorytmy i wtedy poznasz całą prawdę.

My regularnie sprawdzamy Twoją stronę między innymi pod kątem poprawności treści, ale Tobie nie damy możliwości, żebyś sam sobie sprawdzał, mimo, że robimy to automatycznie.

I dobrze. Bo już kilka osób w tym wątku napisało, że gdyby dali taką możliwość to zaczęła by się wojna robotów a to jest ślepa uliczka.

Jestem świadomy, że sama poprawa treści to tylko początek SEO, ale od tego trzeba zacząć. Może i da się wypozycjonować źle zrobioną stronę, ale na pewno będzie to dużo trudniejsze.

Dlatego dają Ci dziesiątki testów, które pokazują która strona jest lepsza a która gorsza. Tobie pozostawiając jedynie przygotowanie wartościowej treści.

Może i już jest 1000 narzędzi, które to robią, ale z oczywistych względów algorytm badający tych programów będzie różnić się od tego w Google, choć w dużej mierze będzie podobny, wynik oceny będzie zbieżny, a narzędzia pomagają w dopracowywaniu treści.
Od początku dyskusji podkreślam, że odróżniam dopracowywanie treści strony od pozostałych czynników, które również są ważne i mają wpływ na pozycję w SERP, między innymi czynnik ludzki Dyskutuję tylko i wyłącznie dopracowywaniem treści, które można badać automatem i Google to robi.

Robi i nie powie Ci jak i bardzo dobrze / j.w.

A na to, co ludzie wpisują, co ludzie klikają, gdzie będzie umieszczony link do mojej strony to ja nie mam wpływu, może to ma wpływ na pozycję w SERP, ale ja i tak nie o tym dyskutuję.

A to właśnie jest najważniejsze a Ty o tym nie dyskutujesz. Nieprawdą jest też to, że nie masz na to wpływu - bo masz. Tylko tego nie da się tego wyklikać. Tu trzeba wykazać się sprytem, intuicją, wyczuciem rynku itp... Ty natomiast byś chciał program co oceni czy dobrze prowadzisz swój biznes - każdy by chciał taki program co nam powie co zrobić żeby zawsze zrobić dobrze lub przynajmniej ocenił czy to co robimy jest dobre. Zdecydowanie zbłądziłeś w swoim toku rozumowania.

Jakkolwiek byśmy tego nie nazwali, Google to jest tylko maszyna, ale tak skomplikowana, że ona nie daje się oszukać, a do tego próba oszustwa podobno może być srogo karana poprzez eliminację strony z indeksu.

Maszyna analizująca dane rzeczywiste tworzone przez masy ludzi. Stwórz sam statystyki z upodobań ludzkich w podziale na kraje, płcie, tematy itp. a następnie daj narzędzie, które będzie analizować teksty pod kątem ludzkich upodobań. Jak Ci się uda to albo stworzysz własne Google albo Google Cię zatrudni.
Ta wiedza jaki tekst podoba się ludziom jest największą tajemnicą tej firmy dlaczego uważasz, że powinni się nią dzielić?

Zachęcenie człowieka do odwiedzenia Twojej strony WWW podlega tym samym zasadom co zachęcenie do odwiedzenia Twojej restauracji.
Restauracje to temat stary jak świat. Znasz jakiś program co oceni twoją kartę MENU? Czy sama zawartość karty MENU ma wpływ na to czy będziesz miał więcej czy mniej gości?

0

A to właśnie jest najważniejsze a Ty o tym nie dyskutujesz. Nieprawdą jest też to, że nie masz na to wpływu - bo masz. Tylko tego nie da się tego wyklikać. Tu trzeba wykazać się sprytem, intuicją, wyczuciem rynku itp... Ty natomiast byś chciał program co oceni czy dobrze prowadzisz swój biznes - każdy by chciał taki program co nam powie co zrobić żeby zawsze zrobić dobrze lub przynajmniej ocenił czy to co robimy jest dobre. Zdecydowanie zbłądziłeś w swoim toku rozumowania.

To jeszcze raz, bo chyba właśnie się nie rozumiemy do końca. Pierwsza rzeczą jest treść strony, poprawność kodu, odpowiednie wykorzystanie metatagów. Drugą rzeczą jest ta cała otoczka, której nie można zrealizować klikaniem i pisaniem, tylko potrzebne jest to, co wypisałeś, do tego prawdopodobnie trzeb wydać na to trochę pieniędzy. Pewnie zgodzisz się ze mną, że te działania, w których trzeba wykazac się sprytem, intuicją, wyczucuem rynku to już nie jest edycja ani modyfikacja samej witryny, choć są bardzo ważne i potrzebne. Program, który wykona lub oceni wykonanie tych działań wokół witryny chyba nie istnieje, a programów analizujących samą treść, jak się okazuje, jest dużo.

Oczywiście, że na pozycję mają wpływ obie rzeczy i nie należy o tym zapominać, ale ja myślę osobno o samej modyfikacji i zarządzaniu witryną, i osobno czynnosci niejako wokół tej witryny w celu wypozycjonowania, a niezwiązane z jej samą, tylko ta cała otoczna.

Zachęcenie człowieka do odwiedzenia Twojej strony WWW podlega tym samym zasadom co zachęcenie do odwiedzenia Twojej restauracji.

Tutaj tak samo, są dwa aspekty. Pierwszy to wybór pomieszczenia, dobór wystroju wnętrza, menu, sprzętu, pracowników. A drugi to szeroko pojęty marketing. Oczywiście, ze obie rzeczy mają wpływ na liczbę klientów i pozostawione przez nich kwoty pieniędzy, obie rzeczy są bardzo ważne i zaniedbanie grozi zmniejszeniem klienteli, ale chodzi o to, że nie mieszam ich ze sobą.

Na przykład zlecę powieszenie reklamy na billboardach. Zapłacę odpowiednią kwotę, bilboardy będą powieszone w całym mieście, poskutkuje to zwiększeniem klienteli, ale ta czynność nie ma nic wspólnego z budową, przebudową ani robieniem czegokolwiek wewnątrz samej restauracji.

Na przykład słynna Magda Gesler oceniała przede wszystkim w pierwszym aspekcie, czyli jakość dań, wystrój wnętrza i tego, jak się jest obsługiwany w samej restauracji. Ale oczywiście o tym drugim nie należy zapominać.

0
andrzejlisek napisał(a):

(...) Pierwsza rzeczą jest treść strony, poprawność kodu, odpowiednie wykorzystanie metatagów.
Drugą rzeczą jest ta cała otoczka, której nie można zrealizować klikaniem i pisaniem

Właśnie, że można i to robią Ci, którzy te rozgrywki wygrywają tylko wychodzisz z założenia, że to SEO trzeba robić przy komputerze i na serwerze na którym jest strona, którą pozycjonujesz. W rzeczywistości dla stron z dużą konkurencją jest właśnie odwrotnie.

tylko potrzebne jest to, co wypisałeś, do tego prawdopodobnie trzeb wydać na to trochę pieniędzy.

I innej drogi nie ma.

Pewnie zgodzisz się ze mną, że te działania, w których trzeba wykazac się sprytem, intuicją, wyczucuem rynku to już nie jest edycja ani modyfikacja samej witryny, choć są bardzo ważne i potrzebne. Program, który wykona lub oceni wykonanie tych działań wokół witryny chyba nie istnieje, a programów analizujących samą treść, jak się okazuje, jest dużo.

Gdyby było inaczej to nie było by możliwości odróżnienia spamu od serwisów firm zaangażowanych w rzeczywiste promowanie swojego produktu - także finansowo. Ta konieczność poniesienia kosztów jest także naturalnym filtrem. Dzięki temu chłop w stodole nie wypozycjonuje łatwo strony, na której będzie sprzedawał telefony wysyłkowo a w konsekwencji klient raczej trafi do sklepu, który ma już jakąś wyrobioną reputację. Oczywiście nie oznacza to, że chłop w stodole nie jest równie uczciwym sprzedawcą ale takie jest życie. Silniejszy wygrywa.

0

Dobrze że napisałeś że silniejszy wygrywa, a nie lepszy (co oczywiście że lepszy nie jest prawdą). Bo ten sklep (silniejszy) to jest pewnie koniec końców i tak stodoła obslugiwana przez chłopa, tylko że chłop zarabia tam grosze pracując w sklepie, a zyski ciągnie jakaś zagraniczna korporacja (silniejszy).

Ot taka aberracja zwana "(nie do końca) wolny rynek".

0
4w0rX4t4X napisał(a):

Ten Pagespeed Insights to ciągle zmieniają, żeby tam mieć wszystko 100 na 100 to ciężko, a nawet jak się coś poprawia, to zaraz coś innego wyskakuje. Sam się męczę z tym już od dłuższego czasu. Trzeba by nic nie robić, tylko alty uzupełniać obrazków i zmniejszać skrypty, pozbywać się zewnętrznych skryptów. W tym jest cała sprzeczność Google z jednej strony każą odchudzać i robić lekkie strony. Najczęściej zdjęcia można zmniejszyć, bardziej skompresować. to potem są za małej rozdzielczości i jakości. Tag Google, Google Analitics, Google Adsesne to wszsystko ich własne skrypty, które sugeruje by usunąć, bo spowalniają ładowanie.

0
Esyl napisał(a):
4w0rX4t4X napisał(a):

Ten Pagespeed Insights to ciągle zmieniają, żeby tam mieć wszystko 100 na 100 to ciężko, a nawet jak się coś poprawia, to zaraz coś innego wyskakuje. Sam się męczę z tym już od dłuższego czasu. Trzeba by nic nie robić, tylko alty uzupełniać obrazków i zmniejszać skrypty, pozbywać się zewnętrznych skryptów.

Widocznie coś źle robisz albo próbujesz wskrzeszać coś co już u podstaw zostało źle zaprojektowane.

Ten Pagespeed Insights to jedno z lepszych narzędzi do testowania wydajności stron WWW jakie stworzono w ostatnich latach.
Mam serwisy zrobione kilka lat temu i jak miały na początku tak do dziś mają w teście 100/100/100/100 na stronach są galerie, slidery i osadzone GoogleAnalitycs (gtag).
Tylko, żeby utrzymać wynik trzeba myśleć co się robi i robić to z głową a nie "na pałę".

Faktycznie czasem jak jest wolny serwer to utrzymanie 100% we wszystkich 4 kategoriach bywa karkołomne ale to sygnał, że należy coś zoptymalizować albo inaczej podejść do zagadnienia.

Jednak samo utrzymanie się w 4 "zielonych" ocenach nie jest ogromnym wyzwaniem.

screenshot-20231215173800.png
screenshot-20231215172745.png

0

No i ciesz się, że w ogóle podają te ogólne wytyczne - bo wcale nie musieli. To, że źle się z tym czujesz to niestety Twój problem.

To w takim razie Googlowi zależy na tym, żeby zaindeksowane strony były odpowiedniej jakości, czy Googlowi to wisi i powiewa? Jeżeli to pierwsze, to logiczne jest, że powinni dać odpowiednie narzędzia, a jeżeli drugie, to faktycznie, nic nie muszą publikować, nie ma uzasadnienia, żeby cokolwiek publikowali, a te wytyczne to jest ich dobra wola.

Chyba, że ta zabawa właśnie na tym polega, że Google pozycjonuje wg tajnego algorytmu, którego ogólniki można się domyślać, tak naprawdę nigdy nie wiadomo, jak dokładnie działa, do tego co rusz działa inaczej, a webmasterzy usiłują walczyć z tym algorytmem, żeby się wybić na wysoką pozycję. Walka z przeciwnikiem, o którym niewiele wiadomo, chyba raczej jest skazana na porażkę.

No i w tej zabawie na pomoc przychodzą różne niezależne programy i narzędzia, z którymi Google nie ma nic wspólnego.

Musisz się dostosować do realiów albo zatrudnić w Google dostać do działu gdzie programują te algorytmy i wtedy poznasz całą prawdę.

Teoretycznie mogę zatrudnić się w Google, poznać wszystko od podszewki, zwolnić się i opisać w internecie. Jeżeli to zrobię po zwolnieniu się, to mnie nie wyrzucą z pracy, nie odbiorą premii ani wynagrodzenia tytułem kary dyscyplinarnej za działania na szkodę pracodawcy, chyba nic nie mogą zrobić, jak współpraca się skończyła. Tylko w Google jakoś żaden były pracownik nie odważył się zdradzić szczegółów. nawet, jak jest dodatkowa umowa o poufności, to obowiązuje tylko w czasie współpracy i ew. przez kilka lat po jej zakończeniu, potem to już można sobie działać bezkarnie.

0
andrzejlisek napisał(a):

To w takim razie Googlowi zależy na tym, żeby zaindeksowane strony były odpowiedniej jakości, czy Googlowi to wisi i powiewa?

To w takim razie chcesz jeść dobry chleb czy wisi Ci to i powiewa?
Jeżeli to pierwsze, to logiczne jest, że powinieneś dać piekarniom odpowiednie narzędzia, a jeżeli drugie, to faktycznie, nic nie musisz nic z tym robić.
Rzeczywistość jest taka, że chodzisz po różnych piekarniach i wybierasz tą gdzie Ci smakuje.

Chyba, że ta zabawa właśnie na tym polega, że Google pozycjonuje wg tajnego algorytmu

Nie chyba a na 100% i nawet oficjalnie mówią, że ich algorytm jest tajny i tej tajemnicy strzegą.

webmasterzy usiłują walczyć z tym algorytmem, żeby się wybić na wysoką pozycję. Walka z przeciwnikiem, o którym niewiele wiadomo, chyba raczej jest skazana na porażkę.

Jeśli chcą wypromować byle gó....no albo zwykły spam to tak i dobrze, że tak jest.

No i w tej zabawie na pomoc przychodzą różne niezależne programy i narzędzia, z którymi Google nie ma nic wspólnego.

No gdybyś przeczytał cały wątek od początku to kilka razy już próbowano Ci tą informację przekazać.

Musisz się dostosować do realiów albo zatrudnić w Google dostać do działu gdzie programują te algorytmy i wtedy poznasz całą prawdę.

Teoretycznie mogę zatrudnić się w Google, poznać wszystko od podszewki, zwolnić się i opisać w internecie. Jeżeli to zrobię po zwolnieniu się, to mnie nie wyrzucą z pracy, nie odbiorą premii ani wynagrodzenia tytułem kary dyscyplinarnej za działania na szkodę pracodawcy, chyba nic nie mogą zrobić, jak współpraca się skończyła. Tylko w Google jakoś żaden były pracownik nie odważył się zdradzić szczegółów. nawet, jak jest dodatkowa umowa o poufności, to obowiązuje tylko w czasie współpracy i ew. przez kilka lat po jej zakończeniu, potem to już można sobie działać bezkarnie.

Bo pewnie zobowiązują się do strzeżenia tej tajemnicy a za jej złamanie grożą srogie kary.

0

To w takim razie chcesz jeść dobry chleb czy wisi Ci to i powiewa?
Jeżeli to pierwsze, to logiczne jest, że powinieneś dać piekarniom odpowiednie narzędzia, a jeżeli drugie, to faktycznie, nic nie musisz nic z tym robić.
Rzeczywistość jest taka, że chodzisz po różnych piekarniach i wybierasz tą gdzie Ci smakuje.

Chcę dobry chleb. Natomiast piekarzom powinno zależeć, żeby jego chleb był dobry i żebym to u niego go kupował, bo ja przynoszę pieniądze.

Natomiast załóżmy, że chcesz zacząć ze mną współpracować w jakimś projekcie, który ja wymyśliłem lub chcesz być partnerem. W takim razie mam dwie opcje (skrajne, bo sa możliwe pośrednie).

  1. Nic nie mówić o projekcie i jego szczegółach, nie będziesz za bardzo wiedział, co robić i jak robić, ale masz zrobić. Powiedzieć tylko tyle, żeby współpraca była możliwa, nieważne, czy będzie łatwa, czy trudna. Mam do tego prawo, nikt mi nie zabroni tak postępować.
  2. Powiedzieć wszystko, odpowiedzieć wyczerpująco na każde pytanie.

Nietrudno się domyślić, w którym przypadku współpraca będzie sprawniejsza, szybciej przyniesie efekty, a Ty będziesz zadowolony i chciał dalej współpracować. A jeżeli mi też zależy na tym, żeby współpraca trwała z korzyścią dla nas obu, to raczej skłoniłbym się do opcji nr 2, o ile nie stoją obiektywne przeszkody.

Bo pewnie zobowiązują się do strzeżenia tej tajemnicy a za jej złamanie grożą srogie kary.

OIDP, takie zobowiązanie z możliwymi karami jest w umowie o zachowaniu poufności, ale chyba żadna nie trwa wiecznie, tym bardziej po zakończeniu współpracy, na potrzeby której była ona sporządzona.

0
andrzejlisek napisał(a):

Chcę dobry chleb. Natomiast piekarzom powinno zależeć, żeby jego chleb był dobry i żebym to u niego go kupował, bo ja przynoszę pieniądze.

A Ci robią ten najlepszy chwalą się receptutą?

Natomiast załóżmy, że chcesz zacząć ze mną współpracować w jakimś projekcie, który ja wymyśliłem lub chcesz być partnerem. W takim razie mam dwie opcje (skrajne, bo sa możliwe pośrednie).

  1. Nic nie mówić o projekcie i jego szczegółach, nie będziesz za bardzo wiedział, co robić i jak robić, ale masz zrobić. Powiedzieć tylko tyle, żeby współpraca była możliwa, nieważne, czy będzie łatwa, czy trudna. Mam do tego prawo, nikt mi nie zabroni tak postępować.
  2. Powiedzieć wszystko, odpowiedzieć wyczerpująco na każde pytanie.

A kiedy Google Ci powiedziało, że chcą byś brał udział w ich projekcie?
Jesteś tylko elementem ich układanki, do której musisz się dostosować. Oni dyktują zasady a to, że Ty tracisz czas na odgadywanie ich algorytmów to Twój problem a nie ich. Oni na to czasu nie poświęcają. Ich celem jest wypluwać dobre wyniki i póki co robią to tak, że są praktycznie bezkonkurencyjni na jeszcze kilka następnych lat.

Ty jak chcesz możesz zgadywać jak zrobić stronę by lepiej u nich wypaść ale oni Twoje starania i tak mają w "tyłku" bo im nie chodzi o to żeby to Twoja strona się pokazywała wysoko tylko żeby wysoko były te co oni chcą.
Możesz w ogóle nie optymalizować strony, okleić reklamą samochód, wykupić reklamę w telewizji, zacząć kręcić filmy na Youtube albo TikTok lub robić milion innych rzeczy, które także mogą przyczynić się do tego, że twój serwis stanie się popularny. W konsekwencji jak stanie się popularny to ludzie zaczną go linkować i pewnie trafisz z nim na 1 miejsce także w Google.

Nie rozumiem tego uporu, że strona ma być pozycjonowana głównie przez treści i, że ktoś ma Ci jeszcze wskazać jak je pisać. Takie podejście jest zwyczajnie naiwne i nieżyciowe.

Ty uważasz, że powinni dać narzędzie ja uważam, że nie powinni i raczej tu do porozumienia nie dojdziemy.

1

A Ci robią ten najlepszy chwalą się receptutą?

Niekoniecznie, często to jest ich tajemnica.

A kiedy Google Ci powiedziało, że chcą byś brał udział w ich projekcie?

Nigdy nie powiedziało.

Nie rozumiem tego uporu, że strona ma być pozycjonowana głównie przez treści i, że ktoś ma Ci jeszcze wskazać jak je pisać. Takie podejście jest zwyczajnie naiwne i nieżyciowe.

Ty uważasz, że powinni dać narzędzie ja uważam, że nie powinni i raczej tu do porozumienia nie dojdziemy.

Temat uważam za wyczerpany, wszystko, co miało być powiedziane, a nawet więcej, zostało powiedziane, a dyskusję można na tym zakończyć.

0

Względny co do pytania jest Seo quake oraz MOZ bar.

Co do oceny google jako algorytmiczna punktacja, to jest one bez wątpienia sprzeczna sama ze sobą. Oznacza to, że te same elementy są czasami pulsujące a czasami ujmujące wartość oceny. Za to samo w różnej konfiguracji czynników będzie dostawał + lub -. Nie ważne co zrobić zawsze nadziejesz się na więcej lub mniej elementów.

Swoją drogą, jeśli ktoś z Was nie widzi że Fb pada od około 5 lat oraz Google szukajka i YT od około 2 lat przekoryczł etap wzrostu i już leci do dołu powoli a potem się rozpędzi. To mało pewnie obserwuje zjawiska sieciowe i je analizujecie. Google nie wstrzeliło się w rynek jak Kodak swego czasu - teraz właśnie maksymalizuje zyski na wszystkim co się da, na bazie utraty jakości, bo wiedzą że wyciągnięcie nie będzie już możliwe bez przełomu. Dlatego też wprowadzają te różne machinacje. To też nie jest firma taka wolnorynkowa, ale z grubym zapleczem służb wywiadowczych- tak jak na pewno Fb.

Rankingi google i ocena praktycznie teraz zmienia się na rzekomą w mojej ocenie - a faktyczną sterowaną co do treści i jej nie jakości - ale wypowiedzi (czy ma linię jaką chcą prezentować światu) czy też odwrotnie. Jest na to bardzo dużo dowodów.

Także jeśli twoja strona spełni wszystko super co jest tylko teoretyczne, możne nadal nie być niczym - bo będzie treścią niebezpieczną. Google promuje sklepy na dowolne zapytania i handel - bo to jest bezpieczne, nie przewrotna treść na inne tematy jak ma tworzyć światopogląd :-D

Jest coś takiego jak SIMILARWEB - to pokazuje jak tąpnęły serwisy po EEAT co nie piszą jak ma wyglądać świat według goole i ideologii lewoskrętnej. Zyskały ponownie sklepy i oferenci handlowi oraz serwisy z treściami bezpiecznymi bez tych na tematy burzliwe.

0

Jest pewna sprzeczność w polityce Google i jego usługach oraz tej jakże ważnej poprawności stron pod względem szybkości ładowania. Na przykład blogspot (blogger) platforma blogowa Google, na której bardzo ciężko zoptymalizować szablon i dojść do 100%. Nie wszystko da się zrobić, a powinny przecież świecić przykładem przynajmniej te domyślne szablony. Platforma Google powinna mieć przygotowane szablony maksymalnie zoptymalizowane. Oczywiście wykluczając błędy samego webmastera-blogera. Mam wrażenie, że Wordpress jest pod tym względem lepszy.

Dalej Adsene - wystarczy wrzucić na stronę i zobaczyć jak ciężko wypracowane zielone kolorki zamieniają się w czerwone w PageSpeed Insihgts.
Google Ads (dawny Adwords) - pomiar konwersji, tag Google, przecież to błąd do poprawy w PSI.
Podobnie Analitics, Google Fonts. To zewnętrzne skrypty spowalniające stronę.

Obrazki masz mieć lekkie i skompresowane, ale do Discovery wymagane są wysokiej jakości.

Czasem mi się te problemy tam wydają na siłę wynajdowane. Na przykład każdy obrazek ma mieć Alt, ale czasem to bez sensu pisać taki alt. Nawet jakby to mało spełniać funkcję dla niewidomych, którym komputer czyta stronę.

0

Bo Pan został wyprany umysłowo przez Google jak dawniej ja i nadal większość ludzi. Wszyscy tańczą do piosenki google jaką sobie on wymyśla i łamie swoje własne zasady. Google jest jak Kościół masa bzdur sprzeczna sama ze sobą i finalnie stosowana arbitralnie polityka różnie do różnych podmiotów. Bing nie robi takich fikołków i ma lepsze wyniki niż google co do jakości wyszukiwani. A gogole tylko wypuszcza setki stron standardów, wymagań i wszystko to jest finalnie jakie - że dostajesz wyniki sam spam sklepowy a nie to co szukasz.

Creme de la creme - nie ma depozycjonowania - oficjalne stanowisko google - i narzędzie do zrzekania się linków szkodzących witrynie :-D!!!! - które to jest tylko sygnałem i prośbą a nie wyznacznikiem działania!!! :-D Karanie za nadmiar reklam i automatyczne reklamy same walą wszędzie aż po oczach na co nie masz wpływu nawet wykluczają obszary.

Sprzeczności w google mogę wymieniać pewnie cały dzień na encyklopedię a ludzie jak owce nadal jak coś szukają to w google, mimo że one daję im wór odpadów lub kloaki z zyskiem tylko dla google oraz jego technik manipulowania wynikami.

Mało kto pamięta jak Ceneo dostało po dupie za kupowanie linków. Teraz kupuje linki na potęgę i jest to już legitne bo jednocześnie kupuje ads google.

1 użytkowników online, w tym zalogowanych: 0, gości: 1