Optymalizacja nie da się więcej niż 80%?

2

Chcę zrobić stronę www na podstawie szablonu ze sliderem ale tak żeby w testach google mieć ponad 90% mobilnie i w desktopie

developers.google.com/speed/pagespeed/insights

To jest ten szablon: /demo.htmlcodex.com/1095/interior-design-html-template

Kombinuje już któryś dzień i nie potrafię osiągnąć więcej niż 85% a im więcej zdjęć tym gorzej.
W sumie czy jest możliwe zrobienie strony z dużą ilością zdjęć i mieć dobre wyniki. Może bez sensu się męczę?

1

Jest możliwe ale nikt raczej Ci nie napisze co masz dokładnie zrobić ze wskazanym szablonem bo to za dużo roboty, żeby taką analizę zrobić.
Ilość zdjęć na stronie oraz ich rozmiar nie mają kluczowego znaczenia. Ważne w jaki sposób są one na tej stronie osadzone / doczytywane /zoptymalizowane itp. itd.
Warto korzystać z różnych mechanizmów optymalizacji wczytywania skryptów. Od przemyślanej kolejności wczytywania zaczynając po minimalizację plików kończąc (choć ta ostatnia wcale nie jest wymagana). Znaczenia ma szybkość dostępu do zasobów i wiele, wiele innych czynników. Zresztą przy każdym punkcie w tym narzędziu od Google masz rozwinięcie i można poczytać.
I może pokaż swoją stronę / link do niej bo skoro coś robiłeś to może warto zobaczyć co?

Przykład strony z więcej niż 95%: https://demo-premium.dlaoperatora.pl/

screenshot-20210306163851.png

3

Pozostaje kwestia czy warto przepalać czas na to żeby mieć te 5 czy 10% więcej. Myślę że lepiej poświęcić ten czas na lepszy ux i treści tak żeby użytkownicy dłużej przebywali na stronie niż próbować osiągnąć mityczne 100% czy tam 95%.

1
sieedukuje napisał(a):

Pozostaje kwestia czy warto przepalać czas na to żeby mieć te 5 czy 10% więcej.

Biorąc pod uwagę to, że klienci i tak na stronę wrzucą jakieś badziewne skrypty typu callpage, google stats itp., których obecność i tak spowoduje spadek do 30% to się z Tobą całkowicie zgadzam.
Oczywiście osiąganie 100% to sztuka dla sztuki ale robienie strony co ma 30% świadczy jednak o tym, że coś jest mocno nie tak jak należy.

0

@katakrowa: Nie no jasne... myślę, ze warto dążyć do poziomu 90% desktop, 80% mobile... chodzi mi tylko o to, że czasami trzeba poświęcićwiele godzin żeby zamiast 80 mieć 85 a można by ten czas spożytkować lepiej.

0
sieedukuje napisał(a):

@katakrowa: Nie no jasne... myślę, ze warto dążyć do poziomu 90% desktop, 80% mobile... chodzi mi tylko o to, że czasami trzeba poświęcićwiele godzin żeby zamiast 80 mieć 85 a można by ten czas spożytkować lepiej.

Zgadzam się. Szczególnie jeśli serwis nie został zaprojektowany z myślą o tego rodzaju optymalizacjach. Czasem zwyczajnie jest niemożliwe polepszyć wyniki bez "drastycznych" przeróbek framework, na którym zbudowana jest strona.

0

Jak dla mnie się szybko wczytuje.

katakrowa napisał(a):
sieedukuje napisał(a):

Pozostaje kwestia czy warto przepalać czas na to żeby mieć te 5 czy 10% więcej.

Biorąc pod uwagę to, że klienci i tak na stronę wrzucą jakieś badziewne skrypty typu callpage, google stats itp., których obecność i tak spowoduje spadek do 30% to się z Tobą całkowicie zgadzam.

Albo wrzucą skrypty, które będą symulować wolne połączenie - jest taki trend, żeby robić strony, na których treść się "pojawia" wraz z przewijaniem, czyli symulują za pomocą CSS3 efekt pobierania danych z AJAXa*, co czasami fajnie wychodzi, jak faktycznie są to jakieś zmysłowe animacje (i jeśli strona faktycznie powinna przykuwać uwagę, bo to jakiś landing page), ale na większości stron to tak kiczowato wygląda, gdzie nie można przeczytać artykułu, bo co chwilę coś miga, jakby się wczytywało cały czas. A często te skrypty są zbugowane).

Więc jakkolwiek będziesz to optymalizować, to ludzie znajdą sposób, żeby to albo zamulić albo zasymulować zamulenie.

*bo na niektórych stronach, np. na FB, faktycznie nie ma tej treści, tylko scrollujesz i się wczytuje. Ale czy to znaczy, że każda strona ma to symulować? Cargo cult.

1 użytkowników online, w tym zalogowanych: 0, gości: 1