Zwolnienia - wątek zbiorczy

0

@Rajmon

Ty sam to wymyślasz, czy ktoś Ci to pisze? Przeuczymy duży model na istniejącym kodzie i co dalej? Już pomijam fakt jak bardzo karkołomne jest to zadanie, jak bardzo wymaga poetykietowania danych nie tylko o strukturze samego kodu, ale też problemów biznesowych, które rozwiązuje etc... Dodatkowo ilość danych potrzebna, żeby fine tuningować model do rozumienia pełnego kontektu biznesowego i technicznego aplikacji jest ogromna... A Ty chcesz sobie beztrosko przetrenowywać model po każdej zmianie :D

Po pierwsze model nie trzeba taranować za każdym razem, po drugie nie muszą to być modele wielkości gpt, po trzeci istnieją model których nie trzeba szkolić w całości, po czwarte zauważ jak rośnie tokenizacja obecnych modeli

Zauważ, że wielkodusznie nie przyczepiłem się do nieostrożnego użycia słowa "przeuczyć" ...

No właśnie to zrobiłeś, tylko nie wiem co chciałeś tym udowodnić że słowa mają różny znaczenia w zależności od kontekstu czy chciałeś się pochwalić że rozumiesz kontekst

"jakiś informatyk" jest w stanie o wiele szybciej i bardziej wydajnie przeskakiwać poszczególnymi fragmentami kodu a także uczyć się ich wzajemnych zależności niż LLM...

Należy pamiętać przede wszytkim że człowiek nie zniknie zniknąć ma programista na rzecz kogoś w rodzaju prompt enginnera

To dalej nie wnosi nic do meritum dyskusji, poza chęcią użycia "fachowego" słownictwa... Wierz mi... Siedzę w tym 10 lat. Nie zaimponowałeś :P

Wybacz ale miejscami zachowujesz się prostacko używając argumentów ad perosnam, na pewno nie jesteś osobą której chciałbym zaimponować, możesz siedzieć nawet i 100 lat to nic nie znaczy, w szczególności takie nieweryfikowalne informacje w postach najczęściej wskazują że jest inaczej

Rozumiem, że twierdzisz, że współczesne modele nie opierają się na koncepcji perceptronów? :D Sądzę, że mógłbyś się zdziwić :)

Zle rozumiesz, perceptron jest protoplastom sieci, niemniej to ich połączenie czy wykorzystanie wstecznej propagacji wpłynęło na ponowne ożywanie tematu AI, kolejnego lata, i tak perceptron jest składową sieci

Kilka z brzegu: problem z poprawnym rozumieniem dłuższych sekwencji tekstu zawierających wiele równoległych kontekstów, ograniczona zdolność do wnioskowania, ograniczenie ilości tokenów...

To nie jest granica to są wada, czy ograniczenia, granica było by np 100k tokenów której nie można przekroczyć, tymczasem nic takiego nie istniej znamy co najwyżej najwyższą znaną dziś wartość co nie znaczy że jest granicą jaką model może osiągnąć

Proszę bardzo. W naszym uproszczonym przykładzie weź sobie dowolny model, którego architektura nie jest w stanie idealnie zamodelować Twojego problemu i sprawdź czy osiągniesz 100% skuteczności poprzez samo zwiększanie danych treningowych.

A kto powiedział że masz osiągnąć 100% porostu poziom modelu nie rośnie liniowa wraz z nowymi danymi, jego jakość nie poprawia się liniowo

Chłopie nawet jak tworzysz sieć neuronową rozwiązującą dany problem, to iteracyjnie dobierasz jej optymalne hiperparametry, gęstość i rodzaje warstw głębokich, funkcje aktywacji, funkcje błędu etc... Że też nikt do tej pory nie wpadł, że wystarczyłoby po prostu zwiększyć liczbę danych... xD

Ależ wpadli nawet to zrobili, inną kwestią jest jakość danych i posiadania tak wielkich oczyszczonych zbiorów co nie jest takie łatwe

Nie manipuluj... Ja wyraźnie podkreśliłem, że kwestia mocy obliczeniowej również jest kluczowa a moja krytyka dotyczyła Twojego stwierdzenia, że jest ważniejsza niż same ograniczenia wynikające z architektury modeli.

Bo bez mocy obliczeniowej która napędziła pierwsze sieci prawdopodobnie nigdy by nie powstały kolejne model, bo po co, gdy pierwsze były by tylko w fazie przypuszczeń

Nie misiu tęczowy - nie jesteśmy tacy sami. Ty wygłaszasz tezy pewne i zarzucasz syndrom wyparcia tym, którzy się z Tobą nie zgadzają.. Ja wskazuję, że w tym momencie nie ma podstaw, żeby twierdzić, że w najbliższym czasie z pewnością osiągniemy przełom, że istnieją poważne argumenty (nawet zwykłe rozumowanie indukcyjne i wielokrotnie wspominane przez Ciebie "zimy" w AI) za tym, że nie osiągniemy oraz, że dyskusja na ten temat jest otwarta, w żadnym zaś razie tego nie wykluczając.

No faktycznie nie ma, wielu CEO, wielu ekspertów od AI, skokowy rozwój modeli, rynek inwestujący krocie, pojawienie się nowych jednostek obliczeniowych to wszytko są trolle by obniżyć zarobki informatyków

0
0xmarcin napisał(a):

Ludzie którzy mówią że "reszta" dogoni IT trochę nie rozumieją istoty software. Software się skaluje, raz napisany program do rozliczania PIT przez jakiegoś geeka z żoną księgową może obsłużyć. 1, 1000, 1000000 a nawet wszystkich polaków. Na tym polega magia software. Jeżeli gość sprzedaje program po 5 PLN i kupi go 1kk Polakow to ma 5kk zysku brutto. Koszt wytworzenia tego typu softu jest znikomy (można to zrobić w garażu po godzinach, wymagany jest tylko dostęp do osoby znającej przepisy podatkowe).

Prawnik, lekarz czy budowlaniec nigdy nie będzie się tak mógł wyskalować.

Dlatego software to branża typu winner takes all podobnie jak branża muzyczno-rozrywkowa, dziennikarska itp. Firma która się wyskaluje może sprzedawać produkt na cały świat, zatrudniają jednocześnie 200 osób. To dlatego niektóre firmy są w stanie płacić $1kk zwykłym normikom-devikom zaraz po studiach.

To co może spotkać programistów to raczej brak pracy, niż spadek zarobków. Po prostu firmy IT które osiągną sukces mają taki windfall że $$$ spada na wszystkich od góry w dół.
Ba jest jeszcze gorzej: pragnienie standaryzacji sprawia że w IT monopole rosną szybciej niż w innych branżach (Windows, Excel, Linux na serwerach, Android, formaty mp3, pdf i jpeg....).

Także panowie i panie, chcecie roboty i $$$ to ruszajcie głowami i bądźcie innowacyjni. A nie jak niektórzy marudzą na GPT i blockchain. Tego typu innowacje przyciągają kasę do naszej branży.

Jasne wszystko się zgadza do momentu, jak mi pokażesz kto tutaj na 4p nie robi na udawanym etacie bawiąc się JDG przedsiębiorce, a rzeczywiście buduje swój soft z kilkoma ludźmi i zamiast typowych 25k na miecha czy tam 50k przy OE to skaluje rzeczywiście na 100-500k wątpie, że jest to promil tego forum :)

A nawet jeśli to kwit będzie ta osoba odcinać i jego najbliżsi ziomale, reszta zwykłych devów będzie robić za te 15k i to już firmy pokazywały od dawna jakie są przychody i kosmiczne zyski Nvidii/Google/SAPa a zwalniają na potęgę i zatrudniają obznżając tobie właśnie developerku kwit ;)

@0xmarcin mylisz przedsiębiorce ze zwykłym devem, a ja pisałem o zwykłym etatowcu/pseudo-etatowcu

3

@Michał karwec no to jeszcze krócej bo męczy mnie odpowiadanie na bzdury... W dodatku gdy przekręcasz sens moich wypowiedzi.

Po pierwsze model nie trzeba taranować za każdym razem, po drugie nie muszą to być modele wielkości gpt, po trzeci istnieją model których nie trzeba szkolić w całości, po czwarte zauważ jak rośnie tokenizacja obecnych modeli

No nie trzeba... To Ty wskazałeś absurdalne rozwiązanie problemu rozumienia szerokiego kontekstu, poprzez przetrenowanie modelu na istniejącym codebase i Bóg wie na czym jeszcze. Wskazałem tylko oczywiste słabe strony tego rozwiązania.
Zadałeś sobie pytanie dlaczego rośnie tokenizacja obecnych modeli? Bynajmniej nie przez spadek złożoności obliczeniowej, tylko przez dokładanie mocy obliczeniowej... Złośoność obliczeniowa tradycyjnego mechanizmu uwagi w transformatorach to n^2. Nie możemy tak w nieskończoność :) Są jakieś próby jej ograniczania, ale na razie skutkują spadkiem skuteczności modelu.

Wybacz ale miejscami zachowujesz się prostacko używając argumentów ad perosnam

Tylko wobec osób, które przekonane o własnej nieomylności zarzucają "syndrom wyparcia" innym a z których, gdy ich poprosić o argumenty wychodzi ignorancja.

To nie jest granica to są wada, czy ograniczenia, granica było by np 100k tokenów której nie można przekroczyć, tymczasem nic takiego nie istniej znamy co najwyżej najwyższą znaną dziś wartość co nie znaczy że jest granicą jaką model może osiągnąć

Konkretne liczby wynikające z architektury modeli są w stanie oszacować tylko osoby znające architekturę modeli... My wiemy, że takie granice istnieją bazując na wiedzy teoretycznej... a przynajmniej z naszej dwójki ja na nie bazuję

Zle rozumiesz, perceptron jest protoplastom sieci,

To musisz się precyzyjniej wyrażać :) Bo wyraźnie stwierdziłeś, że "perceptrony miały być rewolucją ale nie poradziły sobie z problemami nieliniowymi".

A kto powiedział że masz osiągnąć 100% porostu poziom modelu nie rośnie liniowa wraz z nowymi danymi, jego jakość nie poprawia się liniowo

A może byś tak zacytował moją odpowiedź do końca nie wycinając z niej fragmentu, który odpowiada na Twój pseudo-argument? Mam wrażenie, że Ty też masz problem z rozumieniem kontekstu, lub celowo manipulujesz...

Ależ wpadli nawet to zrobili, inną kwestią jest jakość danych i posiadania tak wielkich oczyszczonych zbiorów co nie jest takie łatwe

Ja o X Ty o Y... Ja Ci piszę, że nie da się w nieskończoność poprawiać skuteczności modelu zwiększając liczbę danych treningowych (bo sam mnie o to poprosiłeś) a Ty odpowiadasz "no dane treingowe są ważne" xD

Bo bez mocy obliczeniowej która napędziła pierwsze sieci prawdopodobnie nigdy by nie powstały kolejne model, bo po co, gdy pierwsze były by tylko w fazie przypuszczeń

To dalej nie broni Twojej karkołomnej tezy że coraz większa moc obliczeniowa jest ważniejsza dla rozwoju AI niż rozwój architektury modeli :D Bez rozwoju AI AI też by się nie rozwineło xD

No faktycznie nie ma, wielu CEO, wielu ekspertów od AI, skokowy rozwój modeli, rynek inwestujący krocie, pojawienie się nowych jednostek obliczeniowych to wszytko są trolle by obniżyć zarobki informatyków

Oczywiście, że nie ma podstaw, żeby twierdzić Z PEWNOŚCIĄ. Np. ze względu na te argumenty na które nie potrafisz odpowiedzieć...

to wszytko są trolle by obniżyć zarobki informatyków

Ja rozumiem, że jak argumenty się kończą - co widać po tym, że pomijasz odnoszenie się do tych fragmentów w których wskazałem największe głupoty, które palnąłeś - to trzeba stworzyć sobie chochoła... Ale czy mógłbyś mi wskazać fragment, gdzie ja twierdzę, że to troll?

0

@Rajmon

Zadałeś sobie pytanie dlaczego rośnie tokenizacja obecnych modeli? Bynajmniej nie przez spadek złożoności obliczeniowej, tylko przez dokładanie mocy obliczeniowej.

Do tego dokładamy rozwój TPU które są 15-30 krotnie szybsze od GPU i o wiele bardziej energooszczędne (szybko zgoolowane) i masz odpowiedz dlaczego zawód programisty może być zagrożony, oczywiście zostaje wielki problem o którym pisał czyli "halucynacje" + prompt<> od oczekiwanego wyniku,
zresztą jeżeli faktycznie TPU są tak wydajne to co za problem będzie zaktualizować mniejszy model w szczególności w architekturze Moe

Oczywiście że są jakieś granice pytanie brzmi czy w tych granicach mieszczą się zdolności programisty, chociażby częściowo

No ja też już kończę bo widzę że twoje wypowiedzi to te z rodziny ad personam, a dobierane słownictwo nie wskazuje na osobę której warto poświęcać czas,

1

niedlugo w wiekszosci nie bedziemy juz potrzebni ;)
https://vulcanpost.com/853029/dont-learn-to-code-jensen-huang-on-career/

1

IMO za dużo opinii, za mało liczb i faktów w tym wątku

4
kimikini napisał(a):

niedlugo w wiekszosci nie bedziemy juz potrzebni ;)
https://vulcanpost.com/853029/dont-learn-to-code-jensen-huang-on-career/

Przypomina mi się sterta artykułów na portalach branżowych z czasów wprowadzania VB i .NET że teraz programiści już nie będą potrzebni, bo każdy zbuduje sobie aplikację z gotowych komponentów ActiveX. To było bardzo dawno temu, a jak się przepowiednia sprawdziła - sami zobaczcie.

Z drugiej strony - sugerowałbym wszystkim poszperać jak się testuje wszelkie rozwiązania AI - i na ile dokładnie lub "z grubsza" działają tak jak powinny i w jakich branżach jako klienci przyjęlibyście takie mało dokładne "zgrubne" rozwiązanie.

1

Ja mam pytanie. Jak AI wyprze większość stanowisk "umysłowych" to za co i kto będzie kupował produkty tych dużych firm, które zwolnią w imię AI?

2
Szadek95 napisał(a):

Ja mam pytanie. Jak AI wyprze większość stanowisk "umysłowych" to za co i kto będzie kupował produkty tych dużych firm, które zwolnią w imię AI?

To jest dobre pytanie.
Henry Ford już chyba kiedś o tym mówił...

Kapitalizm może się obejść bez wielu rzeczy oprócz... klientów.

5

10 lat jestem na rynku Javy i kodowanie NIE STAŁO SIĘ PROSTSZE przez ten czas. Jest dużo trudniej niż było. Dużo.. Więc jeśli ktoś znajdzie magiczny sposób, żebym nie musiał zajmować się konfiguracją tysiący frameworków i tooli to moje życie będzie tylko łatwiejsze. Czekam na ten czas.. (mam nadzieję, że dożyję)

5

Jak tylko coś stawało się prostsze to zaraz wpadał nowy tool który prostotę uwalił

4
szydlak napisał(a):

Było już?
https://www.bankier.pl/wiadomosc/Kolejne-duza-firma-zwalnia-online-Prace-straci-kilkaset-osob-8700460.html

Parę lat temu co bardziej kumaci ludzie pracujący w outsourcingu mówili, że ten model jest nie do utrzymania. Minęło trochę czasu, a tu proszę życie wystawiło kartę sprawdzam. Mnie na śmiech bierze jak spółka dyrektory największych kontrantorni murem stawali za utrzymaniem dotychczasowego modelu biznesowego.

3
mrxormul napisał(a):
szydlak napisał(a):

Było już?
https://www.bankier.pl/wiadomosc/Kolejne-duza-firma-zwalnia-online-Prace-straci-kilkaset-osob-8700460.html

Parę lat temu co bardziej kumaci ludzie pracujący w outsourcingu mówili, że ten model jest nie do utrzymania. Minęło trochę czasu, a tu proszę życie wystawiło kartę sprawdzam.

True.

Mnie na śmiech bierze jak spółka dyrektory największych kontrantorni murem stawali za utrzymaniem dotychczasowego modelu biznesowego.

No na tym zarabiali spore pieniądze przy znikomym nakładzie własnym. Sam bym bronił takiego modelu gdybym miał udziały w kontraktorni 😉

7

"Rządowy program Poland.Business Harbour uruchomiono w 2020 roku. Miał służyć wydawaniu w trybie przyspieszonym wiz na pracę w Polsce dla informatyków i ich rodzin. Według "Rzeczpospolitej", na jego podstawie do naszego kraju przyjechało 13,5 tys. osób, choć wydano ponad 93,5 tys. wiz.
Program był początkowo przygotowany przede wszystkim dla Białorusinów, którzy chcieli wyjechać z kraju po wyborach prezydenckich. Później stopniowo go rozszerzano, a finalnie o wizę w specjalnym trybie mogli się ubiegać obywatele 44 państw, w tym Egiptu, Iranu, Meksyku czy Pakistanu."

1
tefu napisał(a)

Mnie na śmiech bierze jak spółka dyrektory największych kontrantorni murem stawali za utrzymaniem dotychczasowego modelu biznesowego.

No na tym zarabiali spore pieniądze przy znikomym nakładzie własnym. Sam bym bronił takiego modelu gdybym miał udziały w kontraktorni 😉

Tyle, że w tamtych czasach kasa na inwestycje była i to w nadmiarze. Można było budować byty abstrakcyjne, kształcić kadry, potykać się, wyciągać wnioski. Dziś jest po zawodach.

still.still napisał(a):

Rządowy program Poland.Business Harbour uruchomiono w 2020 roku. Miał służyć wydawaniu w trybie przyspieszonym wiz na pracę w Polsce dla informatyków i ich rodzin.

Czyli tradycyjnie nasi politycy zamiast dbać o to aby nam się lepiej żyło, aby było nas stać na więcej, aby chciało nam się chcieć to tradycyjnie nas wydymali.

1
mrxormul napisał(a):
still.still napisał(a):

Rządowy program Poland.Business Harbour uruchomiono w 2020 roku. Miał służyć wydawaniu w trybie przyspieszonym wiz na pracę w Polsce dla informatyków i ich rodzin.

Czyli tradycyjnie nasi politycy zamiast dbać o to aby nam się lepiej żyło, aby było nas stać na więcej, aby chciało nam się chcieć to tradycyjnie nas wydymali.

Czyli tradycyjnie nasi politycy nas wydymali pewnie za to politycy przyznali sobie podwyzki, a plebs niech na nich pracuje za miske ryzu, bo pelno emigrantow (z "44 państw, w tym Egiptu, Iranu, Meksyku czy Pakistanu.") jest na miejsce plebsu.

7

Ostatnio oglądałem wystąpienie na BlackHat odnośnie tego jak Yandex zbiera dane użyszkodników

Choć to offtop to polecam zobaczyć materiał po to aby być bardziej świadomym userem.

Wbiłem się na VPN-a w Azji Środkowej (nie będę nikomu robić reklamy). Połaziłem sobie po sowieckich stronach bez AdBlocka/uBlocka. Jedną z częstszych reklam jaką widziałem była karta stałego pobytu w Polsce, w Czechach, na Słowacji, w Rumunii. Średni koszt to parę tysięcy euro.

W Polsce jest cała sieć kancelarii prawnych wyspecjalizowanych w obsłudze spraw wiz oraz pobytu dla obcokrajowców. Większość takich instytucji to spółki cywilne czy partnerskie które sprawodzań nie muszą składać. Skoro z powietrza nie żyją, ciocia unia ich nie sponsoruje, państwo nie dokłada i rezygnują z innych tematów skupiając się na tym zagadnieniu to raczej muszą mieć liczną rzeszę klientów.

Na instagramie widziałem reklamę BeRelocated (https://berelocated.pl/). Zobaczcie ilu ludzi oni ogarnęli, a to w sumie mała firma. Wbijcie sobie w google "Be reolacted to Poland". W serpach jest nawet jedna firma z naszej branży która wspiera takie procesy (https://careers.epam-poland.pl/career-without-borders). Po głębszych oględzinach nawet dwie (https://sii.pl/en/relocate-to-poland/).

Jeden z newsów "Poland has become home to around 10% of Belarusian information and communications technology".

Nie wiem jak wygląda mikrostrukutra naszego rynku ale to nie są małe ilości ludzi którzy tu przybyli. Postawię śmiałą tezę, że ten program to również dzieło spółka dyrektorów firm it którzy sypneli kasą dla przesiąkniętych do cna korupcją urzędów centralnych.

3

Myślę, że czas wprowadzić Kartę - Polak Programista. Nie będzie nam tutaj nikt programował nad Wisłą bez odpowiedniego rodowodu. Kartę powinien dostać każdy z polskim pochodzeniem udokumentowanym na cztery pokolenia w tył, który zrobił przynajmniej jeden bootkamp, studia się nie liczą. Wszystkim innym odebrać prawo do wykonywania zawodu.

0

https://crn.pl/aktualnosci/nawet-180-proc-wiecej-zlecen-dla-freelancerow-it/

Czy w ramach oszczędności firmy przenoszą zlecenia na" wolnych strzelców" taniej zapłacić takiemu niż trzymać fachowca

2

Ja jestem zdania, że jest potrzebny wielki reset poprzez lekki/większy kryzys gospodarczy do unormowania się rynków. Dlaczego? Ponieważ w okresie "pandemii" rozpoczął się chory proces dodruku pieniądza z równoczesnym pompowaniem go w gospodarkę do różnych sektorów w tym bardzo mocno w IT. Ta inflacja którą obserwowaliśmy na całym świecie nie została wyciągnięta z kapelusza... Firmy dostawały dziesiątki grantów, dotacji przy tym był przez dłużysz okres nieograniczony dostęp do taniego pieniądza. W takich okolicznościach gospodarka się bardzo mocno nagrzewa, firmy na potęgę zatrudniają ludzi startując z nowymi projektami bo jest bardzo dużo zamówień. Dochodzi do patologicznych sytuacji robienia czegoś bez żadnego pokrycia w tworzeniu realnych wartości, to wszystko nakręca bańkę spekulacyjną. Wzrost płac w IT można troszkę porównać np. do wzrostu cen na rynku nieruchomości. To co się działo u nas tj. 2021r. jest dobrym przykładem gdy mieliśmy korektę na rynku nagle rząd dosypuje kasę w postaci bk2% przy słabej podaży i rynek ożywa (analogicznie było z IT w pandemii, tyle że to rynek globalny więc doszła kumulacja różnych instytucji światowych oraz izolacja wspierała rozwój technologii cyfrowych) + np. obecny chiński rynek nieruchomości oraz Lehman Brothers. Ludziom z doświadczeniem nagle płace rosną o kilkadziesiąt/kilkaset procent do branży napływają nienaturalnie duże ilości pracowników którzy również dostają bardzo dobre wynagrodzenia na start bez żadnego doświadczenia bo jest nieprawdopodobne ssanie... To jest niczym innym jak anomalią albo jak ktoś woli hossą. Kończą się pieniądze, firmą spada liczba zamówień więc zaczyna się cięcie kosztów aby uzyskać w miarę dobrą rentowność. Rynek wraca do normalności w branży zostają pracownicy którzy mają odpowiednie umiejętności i predyspozycje. Upadają nierentowne firmy dochodzi do tych mitycznych zwolnień grupowych, gdyż się trzeba zabezpieczyć na gorsze czasy. Niestety tak jak cześć pracowników traktuje firmy jako bankomat tak firmy traktują cześć ludzi jak najemników:) Jak jest źle to korpo nie ma sentymentów i liczą się cyferki.

Sam siedzę w innej branży na swoim (elektrotechnika/budowlanka) a tutaj wpadłem poczytać co się dzieje aby zobaczyć nastroje.

2
Tymoteusz Bilski napisał(a):

Ja jestem zdania, że jest potrzebny wielki reset poprzez lekki/większy kryzys gospodarczy do unormowania się rynków.

Wielki Reset już był. Teraz mamy Turbo Mode.

1
Tymoteusz Bilski napisał(a):

Ja jestem zdania, że jest potrzebny wielki reset poprzez lekki/większy kryzys gospodarczy do unormowania się rynków.

W Polsce dodruk na taką skalę to było przegięcie pały w drugą stronę. Wszystkie zjawiska które temu procesowi towarzyszyły cofneły możliwości ekonomiczne przeciętnego człowieka o przynajmniej pięć jak nie siedem lat wstecz.

Co do nieruchomości to uważam, że powinny być wprowadzone jebcze podatki które ukrucą patologie a tym rynku. Co się dzieje obecnie na tym rynku szkodzi społeczeństwu.

3
Zig napisał(a):

https://twitter.com/ID_AA_Carmack/status/1762110222321975442

No następne głupie gadanie, że programowanie nie jest najważniejsze a potem przychodzisz na rekrutacje i odpytka z znajomości dokumentacji języka zamiast faktycznie z rozwiązywania problemów xD.

5

Jakby problem solving był najważniejszy to by nie było menadżerków i cum masterów, którzy skutecznie uwalali problem solving i dokładali problemów

2

Też udzielacie złych porad kolegom (i koleżankom) młodszym stażem żeby pozbyć się konkurencji uratować swoją dupe?
Czy tech industry to będą nowe sweatshopy gdzie żadne normy i prawa pracownicze nie istnieją? image

10

Oni robią dobrą robotę. Za 10 lat juniorów nie będzie, bootcampu nie będzie a AI okaże się pękniętą bańka.

0 użytkowników online, w tym zalogowanych: 0, gości: 0