Możesz patrzeć na cały problem tak: od klienta do bazy danych przekazywany jest ciąg bajtów. Te bajty są interpretowane przez różne komponenty jako znaki (abstrakcja). Jak to jest interpretowane to zależy od strony kodowej używanej przez dany komponent.
Przypuścmy, że wysyłasz bajt 0xA1, który może być interpretowany tak:
- w stronie kodowej ISO8859P2 - znak Ą
- w stronie kodowej ISO8859P3 - znak Ħ
- w stronie kodowej CP1250 - znak ˇ
Na kliencie możesz mieć znak Ą w kodowaniu CP1250 (czyli 0xA5, tak inny przykład niż 0xA1), wysyłasz to 0xA5 do serwera bez wskazania jakiego kodowania znaków należy użyć, a serwer ma jakieś domyślne kodowanie (np. ISO8859P2) i zinterpretuje 0xA5 jako Ľ, przekaże to do sterownika JDBC, któremu nakłamiesz, że masz inne kodowanie (parametr characterEncoding), sterownik powie bazie, masz tu 0xA5 w kodowaniu ISO8859P3, baza zobaczy, że ma inne kodowanie (UTF-8) i zrobi konwersję tego co dostała do UTF-8 i zapisze. Tego 0xA5 nie ma zdefiniowanego w ISO8859P3, więc pewnie przyjmie jakieś domyślne coś ('?') i zamiast bajtu zapisze sobie to coś domyślne.
Do czego dążę, powinieneś zrozumieć gdzie zachodzi konwersja znaków i do jakiej strony kodowej. Obstawiam, że przy odbiorze formularza nie robisz poprawnej konwersji.
To samo, w drugą stronę, jak odczytujesz coś z bazy to powinieneś wskazać jakiego kodowania oczekujesz i wysyłając to gdzieś dalej powinieneś określić w jakim kodowaniu należy dany ciąg bajtów interpretować.
Może też być tak, że nie działa coś innego i moje uwagi nic nie wnoszą do tematu ;-)