Witam wszystkich zainteresowanych !
Otóż mam pewien problem , chodzi o zadanie rekrutacyjne i nie chodzi mi tutaj o gotowe rozwiązanie , ale nakierowanie co autor miał na myśli :).
Zadanie polega na utworzeniu metody grupowania danych.
Write a function group_by(stream, field, success=None) which will parse stream object, aggregate count by field, filter if launch succeeded (or
not) and return dict of aggregations.
stream - stream object like from open
field - "year" or "month"
success - None (don't filter) , True (success), False (failed) - please use column Suc
Przykład:
In [3]: group_by(open("launchlog.txt"), 'year')
Out[3]: {
'1957': 4,
'1958': 28,
'1959': 31,
'1960': 66,
…
}
In [4]: group_by(open("launchlog.txt"), 'month', success=False)
Out[4]: {
'Apr': 940,
'Aug': 847,
…
}
Autor zadania podał adres do tego launchloga.txt na stronie.
I teraz moje pytania:
1.Czy powinienem to zrobić z technologią cURL ? I od razu odpowiadam nwm jak to zrobić w zrodle nie ma zadnych #id czy klas niczego dosłownie notatnik napisany w </pre>.
2.Czy sciagnac notatnik i po prostu wyszukać w notatniku ifem jak jest data to ++ licznik dat i tak samo z miesiacami , gorzej z sucessem bo sa literki F i S.
Bardzo proszę o jakiekolwiek wsparcie z góry dziękuje !