Witam
Mam takie zadanie, a mianowicie mam utworzyć program , który będzie obliczał kwotę uzbieraną na rachunku bankowym(taki prosty kalkulator)
wzór , który ma mi wyliczać działanie jest następujący A = P(1+r/n) z dopiskiem u gór nt przy wzorze .
Kod mojego programu wygląda następująco:
P = int(input("Wprowadz kwotę początkową"))
r = int(input("roczna stopę oprocentowania"))
n = int(input("ile razy następuje obliczanie odsetek w ciągu roku"))
t = int(input("czas trwania lokaty"))
A = P*(1+r/n)/100*n*t
print(A)
i mam taki problem , że wydaje mi się , że program licz błędnie
przykładowo , jeżeli kwotę początkową podam 100, stopę oprocentowania 1 , ilość naliczania odsetek :12(co miesiąc) , a czas trwania lokaty 1 rok to programik daje mi następujący wynik : 1.0833333333333333. Czy mógłby ktoś wytłumaczyć co sprawia, że ten dziecinnie prosty programik wykonuje nieoprawne moim zdaniem obliczenia