Hej, próbuję sobie poradzić z SEO. Mam do zindeksowania ponad 300tyś. stron w swoim serwisie :)

Problemy z jakimi się spotykam:

  1. Posiadam layout dla wszystkich podstron i czasami Google indeksuje mi w opisie wyniku wyszukiwania treść z layoutu.
    Czy da się w jakiś sposób usunąć z indeksowania wybrane znaczniki, bez blokowania całego widoku strony?
  2. Posiadam komponenty widoków, które ładują się dopiero po chwili po zassaniu danych z DB, często nie są one w opisie widoku.
    Czy da się sprawić, aby robot poczekał na załadowanie komponentu?
  3. Podstrony i ich treść wraz z metadata się często różnią nieznacznie, detalami.
    Czy macie jakieś pomysły jak urozmaicić je?
  4. Maksymalna ilość zindeksowanych stron wyniosła 36tyś., później spadła mi do 6tyś. Podejrzewam, że mogło być kilka powodów tego.
    Czy kary nakładane przez Google są permanentne?
    Czy ewentualna zmiana routingu pomoże przeskoczyć problem, czy narobi mi nowych z duplikacją stron?
  5. Często roboty wchodzą mi przez linki do strony logowania, jeśli treść jest przeznaczona dla zalogowanego użytkownika.
    Czy powinny być oznaczone noindex, żeby uniknąć duplikacji?
    Czy Google karze za duplikację stron?
  6. Ostatnio się spotkałem ze stwierdzeniem crawling budget.
    Czy trzymanie w sitemap małej ilości linków i rotowanie ich regularnie jest skuteczniejsze niż wrzucenie wszystkiego na raz?
  7. Ostatnio zdecydowałem się na dodanie indeksu podstron (300tyś.) po 250 na każdej, z paginacją.
    Czy może być to skuteczniejsze niż sitemap?
    Czy mogą one współistnieć?

Może niektóre pytania będą się wydawać tendencyjne, ale wcześniej się nie interesowałem SEO, a niektóre zagadnienia wydają się być enigmatyczne. Też dość późno zacząłem myśleć o SEO, teraz pewnie bym niektóre problemy rozwiązał inaczej. Zdaję też sobie sprawę z tego, że zindeksowanie 300tyś. stron będzie dla mnie wyzwaniem, ale spróbuję się podjąć :)