Widzę że wywołałem tu niezłą zadymę więc się wypowiem :-D Google nie jest dla mnie żadnym wyznacznikiem. To że wybrali pythona (ciekawe czemu nie rubiego, choć może i tego używają ale ja nie słyszałem) to zapewne z czegoś wynika. Ale z tego co czytałem to i javy też używają. Nie twierdzę że nie da się napisać w pythonie poważnej aplikacji bo można, tylko że jak dla mnie to w korporacjach chyba używa się głównie JAVA EE albo .NET. Tak czy nie? Na czym bazowało Google to nie wiem.
Podałem tu przykład z ciągiem Fibonacciego, gdzie przynajmniej na aplikacji konsolowej na podstawie testów wyszło mi jasno, że obliczanie elementów przy użyciu pythona czy rubiego, gdzie chodzi o szybkość to jakieś kompletne nieporozumienie. Podobnie można by się zabawić chociażby z użyciem kilkuwarstwowej sieci neuronowej MLP (perceptron wielowarstwowy) i spróbować nauczyć taką sieć przy użyciu backpropagation bazując na java, C#, pythonie albo rubym. Ciekawe jakie będą wyniki?
Jeśli ktoś zamierza wychwalać pod niebiosa języki z dynamicznym typowaniem danych, niech spróbuje napisać aplikację desktopową, działającą szybko i wydajnie w pythonie (pomińmy tu może IronPython albo Jython bo to trochę inna bajka), nawet na tych sieciach neuronowych do celów realizacji jakichś prognoz, bo do tego między innymi się je wykorzystuje. Ciekawe w czym będzie lepiej: w JAVA albo C# czy w pythonie albo rubym?
Powiedzmy sobie szczerze. Języki skryptowe będą lepiej nadawać się do web, choćby z tego względu że po każdej zmianie nie trzeba ponownie kompilować aplikacji, jak to jest w javie albo C#, więc bankowo taką aplikację napisze się szybciej a i update jest prostsze.