Jak kojarze, to za moich czasów był tylko Pascal - co już wtedy było obciachem (chyba... już, nie pamiętam, ale to był chyba jedyny powód, że się Pascala uczyłem).
Co do szybkości działania... jeśli zadania są wykonywalne w max kilka sekund -> to wszystko na maszynach wirtualnych ma trochę przegrane. Ale to wg mnie kiepskie zadania. Jeśli już mierzyć czasy to powinny być kilkunastosekundowe, minutowe - inaczej raczej promuje się mikrooptymalizacje nad lepszymi algorytmami (za małe n). Jak dla mnie nie powinno o to chodzić (bo to wiedza raczej szybko się zmieniająca i specyficzna). Jak napisał @vpiotr - powinno się raczej promować poprawnośc i skalowalnosć - ale to nie ja (ani on ) ustalamy reguły.
Rzeźbienia w pamieci nie ogarniam - tzn. nadal sie to robi w praktycznych aplikacjach i trzeba umić , ale jest to tak trywialne/automatyczne zadanie, że nie kumam czemu miałoby stanowić jakiś element w olimpiadach informatycznych. Ale cóż jak niektórzy się tego nauczyli w latach 80tych to pewnie nadal uważają za majsterszyk oprogramowania upychanie rekordów do pól bitowych.
To co robią dobrze: to odpalanie na w miarę dobrze zdefiniowanym "wirtualnym" sprzęcie (których ma wirtualnie dużo cache) - więc przynajmniej jakieś rozsądne porównywaniee jest.... z drugiej strony żaden kompilator chyba nie optymalizuje kodu pod kątem takiego procka (ale też chyba akurat w C/C++/Pascal to nie ma znaczenia).
Jak już ograniczać jezyki to bym tam zostawił tylko Haskella - tej koncepcji z C/C++/Pascal nie ogarniam - ale też bardzo mnie to nie boli - ot taki dowcip. Dobrze, że nie brainfuck albo malbolge.
Tak, że nie robiłbym z tego CC++/Pascal wielkiej tragedii tylko przyjął na klatę jako element zabawy.
Btw. z C++ da się całkiem porządnie pisać - tylko dużo się trzeba naumieć, jeśli to ma nadal być zmikrooptymalizowane.