Przyszłość programowania

Odpowiedz Nowy wątek
2019-01-10 15:27
xKOM
0

Przeczytałem dzisiaj jeden artykuł w którym ktoś prognozował przyszłość IT , i generalnie wydźwięk z tego był taki że w niedalekiej przyszłości potrzeba będzie więcej analityków , PM , ludzi znających biznes aniżeli programistow ze względu na to jak samo programowanie będzie wyglądać . Co o tym myślicie ? Przy rozwoju AI , data science , chmury - czy to nie będą gorące tematy a programowanie i klepanie CRUDOW " legnie w gruzach " ? ;) A może jednak programowanie nigdy nie dojdzie do poziomu kiedy zostanie wyparte ? Zapraszam do luźnej pogawędki ;)

Plus za stosowanie przecinków, do doskonałości jeszcze brakuje Ci usuwanie spacji przed nimi :-) - nohtyp 2019-01-10 15:34

Pozostało 580 znaków

2019-01-10 17:52
4

Jak w 1900 roku we Francji wyobrażano sobie rok 2000?
https://publicdomainreview.or[...]e-in-the-year-2000-1899-1910/
800px-France_in_XXI_Century._School.jpg
Jakoś te bootcampy inaczej dzisiaj wyglądają...


"Programs must be written for people to read, and only incidentally for machines to execute." - Abelson & Sussman, SICP, preface to the first edition
"Ci, co najbardziej pragną planować życie społeczne, gdyby im na to pozwolić, staliby się w najwyższym stopniu niebezpieczni i nietolerancyjni wobec planów życiowych innych ludzi. Często, tchnącego dobrocią i oddanego jakiejś sprawie idealistę, dzieli od fanatyka tylko mały krok."
Demokracja jest fajna, dopóki wygrywa twoja ulubiona partia.
hmm, w open spacach wiekszosc ludzi siedzi w sluchawkach wiec cos sie zgadza :) - WhiteLightning 2019-01-10 19:14

Pozostało 580 znaków

2019-01-10 18:27
Szalony Samiec
0

Przyszłość programowania to Swift i Crystal, ponieważ są najnowszymi językami programowania z 2014 roku, do tego Mikroserwisy.

Pozostało 580 znaków

2019-01-10 19:03
0

To już było. Przykładem technologii, która miała pozbawić programistów pracy były języki 4 generacji, czyli specjalizowane języki wysokiego poziomu, próbujące się zbliżyć składnią do języka naturalnego (albo chociaż mieć tę składnię przystępną dla "ludzi"). Przykłady takich języków to SQL, R, Delphi. Pomysł jest z początku lat 80 ubiegłego stulecia, programistów mamy o rzędy wielkości więcej niż wtedy.

edytowany 1x, ostatnio: piotrpo, 2019-01-10 19:03
Delphi? Przecież to Turbo Pascal na Windowsa. - Wibowit 2019-01-10 19:31
@Wibowit: + RAD, VCL Upierać się nie będę: https://pl.wikipedia.org/wiki/4GL - piotrpo 2019-01-10 19:33
Na tej stronce jest też wypisany Visual Basic i Windows Forms. W takim razie powinni też dodać C++, bo jest Qt z graficznym edytorem GUI, czy Javę bo są graficzne edytory do Swinga czy JavyFX. Nawet w asemblerze są napisane narzędzia, w których można wyklikać GUI: https://fresh.flatassembler.net/ Jakoś nie sądzę by łatwość stawiania formatek miała decydować o generacji samego języka. - Wibowit 2019-01-10 19:43
Jak pisałem - kłócić się nie będę. To nie jest jakiś bardzo ostry termin (IMHO - bardziej takie mocno sztuczne pierdu - pierdu, żeby było o czym artykuł napisać). Myślę, że bardziej od wyklikiwania wyglądu formatek liczy się wyklikiwanie ich zachowania (np. spinanie z BD) - piotrpo 2019-01-10 19:49
W poście napisałeś o składni języka, a nie klikaniu formatek. - Wibowit 2019-01-10 19:58
Faktycznie - mój błąd - wg anglojęzycznej wiki 4GL to wszystko co jest lepsze od 3GL :D - piotrpo 2019-01-10 20:20

Pozostało 580 znaków

2019-01-10 20:41
2
gk1982 napisał(a):

Wynikiem prac dzisiejszych programistów są słabo zoptymalizowane programy ledwo wykorzystujące możliwości urządzenia.

Święte słowa. Co prawda już w czasach Amigi, ktoś kiedyś napisał, że gdyby z A500 wycisnąć tyle teoretycznie niemożliwych i niezakładanych nawet przez samych twórców cudów, ile się udawało z ZX Spectrum czy C64, to Amisia chyba wyleciałaby w kosmos, ale ten trend się pogłębia.
30 lat temu wystarczyła maszyna z 1MB RAM i kilkumegahercowym procesorem, żeby udźwignąć graficzne UI, teraz ładuje się Androida na potężnej (chociaż malutkiej) maszynie smarwatcha, po to, żeby wyświetlić kilka ikonek. A później się człowiek dziwi, czemu te urządzenia tak krótko działają na baterii.


Pozostało 580 znaków

2019-01-10 20:56
0
Wynikiem prac dzisiejszych programistów są słabo zoptymalizowane programy ledwo wykorzystujące możliwości urządzenia.

Programiści gier wyciskają z kart graficznych siódme poty i stosują setki trików. Tutaj się to nie sprawdza

Pozostało 580 znaków

2019-01-10 21:01
1
Berylo napisał(a):
Wynikiem prac dzisiejszych programistów są słabo zoptymalizowane programy ledwo wykorzystujące możliwości urządzenia.

Programiści gier wyciskają z kart graficznych siódme poty i stosują setki trików. Tutaj się to nie sprawdza

Bo oni jeszcze działają "na linii frontu" i po prostu muszą. (Inna sprawa, że co do optymalizacji współczesnych gier wydawanych na PC też można by dyskutować). Ale mnóstwo innych typowych zastosowań komputerów, z którymi radzono sobie jeszcze pod DOS-em jest realizowanych na zasadzie: potrzebny jest młotek, więc zamontujmy tu kombajn.


Pozostało 580 znaków

2019-01-10 21:03
0

Coś w tym jest np. progs Cruciala do pokazywania SMART waży ponad 200MB i ładuje się pół minuty :)


Pozostało 580 znaków

2019-01-10 21:33
0

Małe programiki można pieścić w nieskończoność w domowym zaciszu. Duże programy natomiast wymagają konkretnego inwestora i zespołu, który będzie rozwijał projekt przez wiele lat. Wydanie super-zopytmalizowanego prostego programu na maszynę czy system operacyjny sprzed 10 lat to bezsens z komercyjnego punktu widzenia. Ponadto szczerze wątpię, by dekady temu programy działały szybciej. Miałem kiedyś Pentium 133 MHz, 40 MiB RAM i Windowsa 98 niedługo po przełomie tysiącleci. Przeglądanie Internetu na tym to był dramat mimo iż JavaScriptu na stronach były wtedy skromne ilości. Jak brakowało RAMu to widziałem na własne oczy jak kontrolki w oknach się po kolei odrysowują - tak to wolno działało. Emacs powstał w 1976 roku i był swego czasu bardzo popularny. Przez swoją ociężałość był określony mianem "eight megabytes and constantly swapping" - skraca się to do "emacs", a 8 megabajtów oznaczało ilość dostępnego RAMu.

Jeśli chodzi o same demka (obojętne na Amigi czy nie) kontra gry AAA to czy demoscenowcy nie pracują przypadkiem jako programiści gier? A może ich talent się marnuje?


"Programs must be written for people to read, and only incidentally for machines to execute." - Abelson & Sussman, SICP, preface to the first edition
"Ci, co najbardziej pragną planować życie społeczne, gdyby im na to pozwolić, staliby się w najwyższym stopniu niebezpieczni i nietolerancyjni wobec planów życiowych innych ludzi. Często, tchnącego dobrocią i oddanego jakiejś sprawie idealistę, dzieli od fanatyka tylko mały krok."
Demokracja jest fajna, dopóki wygrywa twoja ulubiona partia.
A idź, żeś przypomniał te wolnorysujące się okna, do tego w akompaniamencie chrobotu dysku i jego migającej diody, po nie wiadomo czy zaliczonym dwukliku na dodatek... :< - TurkucPodjadek 2019-01-10 22:32
Dobrze mówisz. Jak to było? Done is better than perfect... - Aventus 2019-01-10 22:56

Pozostało 580 znaków

2019-01-11 00:17
0
Wibowit napisał(a):

Miałem kiedyś Pentium 133 MHz, 40 MiB RAM i Windowsa 98

Nie wiem, jakieś ty strony wtedy oglądał. Przygodę z Internetem zaczynałam od P100 z 8 (albo) 16 MB RAM i Win95. Zasadniczym problemem była wydolność modemu, bo większe fotki potrafiło wczytywać nawet kilkadziesiąt sekund, ale strony jako takie renderowało mi dosyć sprawnie.

A z tą ekonomią jest trochę tak, jak z paleniem węglem. Oczywiście, że producentowi bardziej opłaca się zbudować Frankensteina rozmiarów słonia, któremu się po wierzchu dopisze obsługę otwierania słoików i wypuścić to jako super-otwieracz, ale gdyby ktoś kiedyś policzył, ile watów leci w kosmos z uwagi na takie podejście, to może by się okazało, że UE zamiast zabraniać żarówek żarnikowych powinna wspierać jakoś specjalizowane programy i platformy.


Ile okien z przeglądarką naraz otwierałaś? - Wibowit 2019-01-11 00:27
Zwykle nie więcej niż 2-3, sporadycznie więcej, ale przed epoką przeglądania w kartach nie było to i tak zbyt wygodne. - Freja Draco 2019-01-11 00:34
U mnie wydolność modemu sprawiała, że otwierałem kilka okien naraz. Jedno przeglądałem, a reszta się ładowała. - Wibowit 2019-01-11 01:00
Do tego czasem uruchomi się Flash, QuickTime, Java, etc - Wibowit 2019-01-11 01:01
Owszem, tak się wtedy czytało teksty z podstronami: tę właśnie czytam, a następna się właśnie ładuje :) - Freja Draco 2019-01-11 01:46

Pozostało 580 znaków

2019-01-11 07:07
0
Freja Draco napisał(a):

Święte słowa. Co prawda już w czasach Amigi, ktoś kiedyś napisał, że gdyby z A500 wycisnąć tyle teoretycznie niemożliwych i niezakładanych nawet przez samych twórców cudów, ile się udawało z ZX Spectrum czy C64, to Amisia chyba wyleciałaby w kosmos, ale ten trend się pogłębia.

Co komu przyjdzie z napisanego w asmie, zoptymalizowanego pod konkretny sprzęt i szybko działającego CRUDa? To kwestia zwykłej matematyki - lepiej zapłacić 10 000 USD więcej za chmurę, niż ileś tam dziesiąt razy 120 000 USD za dodatkowych programistów.

30 lat temu wystarczyła maszyna z 1MB RAM i kilkumegahercowym procesorem, żeby udźwignąć graficzne UI, teraz ładuje się Androida na potężnej (chociaż malutkiej) maszynie smarwatcha, po to, żeby wyświetlić kilka ikonek. A później się człowiek dziwi, czemu te urządzenia tak krótko działają na baterii.

I jaką rozdzielczość była w stanie wyświetlić ta wspaniała maszyna, w porywach 240 x 320 x 4b ? Abstrahując od użyteczności smartwatch'y - takie Android Wear ładuje się tam jednak po coś trochę innego niż wyświetlenie kilku ikonek. To zresztą dość często spotykane przeświadczenie, że uruchamianie GUI z animacjami, kolorowymi obrazkami z działającą w tle komunikacją i masą innych procesów, albo renderowanie HTML to nic nieznaczące obciążenie w porównaniu do jakiegoś działającego na serwerze CMS'a serwującego gify z pierdzącymi kotami, czy tego słynnego CRUD'a. Chociaż potwierdza to tezę, że coraz mniej rozumiemy jak działa sprzęt.

Pozostało 580 znaków

Odpowiedz
Liczba odpowiedzi na stronę

1 użytkowników online, w tym zalogowanych: 0, gości: 1, botów: 0