Cześć.
Od niedawna uczę się Sparka. Słabo odnajduję się w Pythonie.
Wiem że df.where()
przyjmuje składnie z SQL'a i natywną.
Taki kod mi działa:
df = df.select('Index', 'First Name', 'Last Name').where("Index > 95 AND Index < 99")
Taki również:
df = df.select('Index', 'First Name', 'Last Name').where((df["Index"] > 95) & (df["Index"] < 99))
Dziwi mnie to że gdy używam &&
mam błąd i gdy pomijam nawiasy też mam błąd.
Z tej strony czytam że używanie &&
jest poprawne: https://sparkbyexamples.com/spark/spark-dataframe-where-to-filter-rows/
Czuję że mam fundamentalne braki.
Dla czego używanie &&
lub brak ()
powoduje błąd?