Cześć! Mam do rozwiązania takie zadanie:
Hipoteza Goldbacha to jedno z najstarszych nierozstrzygniętych twierdzeń teorii liczb. Sformułowana została w
XVIII wieku i sprowadza się do twierdzenia, że każdą parzystą liczbę naturalną większą od 4 można przedstawić
jako sumę dwóch nieparzystych liczb pierwszych (niekoniecznie różnych). Na przykład 10 = 7 + 3, 12 = 7 + 5,
20 = 13 + 7 = 17 + 3 itd. Jak widać, czasem istnieje więcej sposobów rozłożenia danej liczby. Jednak do tej pory
nikomu nie udało się udowodnić tego twierdzenia, ani go obalić.
Napisz program, który czyta liczby naturalne i rozkłada je na sumę dwóch liczb pierwszych.
Wejście:
Pierwszy wiersz danych zawiera liczbę całkowitą n (1 ≤ n ≤ 1000) oznaczającą ilość liczb do wczytania. Każdy
z następnych n wierszy zawiera parzystą liczbę naturalną z zakresu od 6 do miliarda.
Wyjście:
Program powinien dla każdej wprowadzonej liczby wypisać wiersz tekstu zawierający dwie liczby pierwsze,
których suma jest równa danej liczbie. Liczby należy wypisać w kolejności niemalejącej i oddzielić od siebie
pojedynczym odstępem. Jeśli istnieje więcej niż jedno rozwiązanie, wtedy należy wypisać parę liczb o
najmniejszej różnicy.
Przykład:
Dla danych wejściowych:
3
20
200
2000
program powinien wypisać:
7 13
97 103
991 1009
Mógłbym mi ktoś pomóc z rozwiązaniem? Nie mam żadnego pomysłu, ponieważ wszelkie sita itd. odpadają ze względu na ogromny zakres danych (od 6 do miliarda).