Generalnie sprawa nie jest taka prosta jakby się mogło wydawać. Wszystko zależy od wydajności utworzonego modelu fizycznego bazy danych. Docelowy DBMS nie załatwi Ci sprawy jeżeli będziesz miał nieoptymalny model fiziczny. Jeżeli miałbyś wybierać spośród tych dwóch, to uwzględnij liczbę jednocześnie korzystających użytkowników wykonujących tę samą transakcję. Prowadziłem testy porównawcze wykonywania transakcji (około 11 - modyfikowania, wstawiania, usuwania i wyszukiwania m.in. na tych dbms'ach) na różnych poziomach izolacji bazy danych, każda operacja symulowana była przez 10 jednocześnie korzystających userów, więc w danej chwili było podłączonych 110 userów. Wyniki były bardzo ciekawe. Jeżeli chodzi o sam czas wykonywania zapytania to MS SQL Server (2005) był o ponad rząd szybszy od PostgreSQL (8.0), ale (i tutaj ważne) nie obsłużył takiej liczby jednocześnie wykonujących daną transakcję użytkowników - pewnie jego poziom izolacji blokował DELETY, INSERTY i UPDATY. Weź pod uwagę ile będziesz miał operacji modyfikujących a ile odczytujących - ustaw odpowiedni poziom izolacji, weź pod uwagę typy atrybutów na jakich dodkonywane są złączenie (doda/usuń indeksy ) i pamiętaj, jeżeli będziesz miał więcej operacji modyfikujących niż odczytujących indeksy tylko spowalniają wykonywanie tych operacji.