Zwolnienia - wątek zbiorczy

7
MarioBros33 napisał(a):
PaulGilbert napisał(a):

Takie wymagania żeby programiasta był człowiekiem orkiestrą ma w mojej ocenie negatywny wpływ na wydajność pracy, bo czym szerszy zakres technologii na jednej osobie, tym częsiej siedzisz z nosem w dokumentacji to tego, to owego, zamiast lecieć z tematem na automacie. Dla programisty może i lepiej jeśli lubi nieustanny rozwój, ale z perspektywy ekonomicznej firmy to lepiej mieć rozdzielone kompetencje i specjalizacje.

To akurat mogę potwierdzić. W moim zespole bardzo często zdarzało się nie dowozić czegoś na czas przez to były spiny lub bezpłatne nadgodziny w Sprincie by coś dowieźć na czas.

Jako przykład pamietam jak miałem postawić VMke na której była usługa w Javie (aplikacja już była) i ona miała się łączyć po VPN do klienta i pobierać plik po FTP. Wszystko w Terraformie. Niby wszystko spoko, ale tak jak kolega wyżej napisał najwiecej czasu zajmowało rozkminianie IPkow, sieciowych rzeczy i port forwardingu.

Z zespołem wylicytowaliśmy w Scrum Pokerze 8SP (więcej nie mogliśmy licytować) no i wzięliśmy my to na ten legendarny Sprint. Ja od początku pierwszego dnia, z racji że to było dla mnie nowe robiłem dzień w dzień darmowe nadgodziny, bo wiedziałem że jak zacznę robić równo 8h to mogę się nie wyrobić wiec wolałem cisnąć temat od samego początku. Najwyżej skończę wcześniej i później się poobijam czy coś. Pamietam to do dziś dnia bo udało mi się skończyć to zadanie ale w ostatnim tydzień to był maraton w moim wykonaniu. Oczywiście za darmo bo zadeklarowałem się to wziąć na Sprint i mieli mnie w tak zwanej „pułapce” czyt. Sprint Commitment. O tym się nie mówi ale koledzy też tak robili jak temat był nowy. Po roku czasu zadania Devopsowe właśnie brane na Sprint były obarczone ryzykiem, dopiero gdzieś tak po roku mniej mnie to stresowało i estymowałem lepiej.

W Javie jestem w stanie dowozić normalnie bez nadgodzin bo to moja działka.

To po co deklarujecie, że dowieziecie? Na planningu mówisz, że zadanie wygląda na skomplikowane i nie jesteś w stanie się określić ile w zadaniu jest SP. Wtedy nie ma commitmentu. A oni muszą rozbić zadanie na mniejsze albo zrobić 2-dniowy spike, w którym będziesz miał szansę zebrać więcej danych na temat zadania. Wolisz robić za darmo dla kogoś niż się odezwać? A jakby powiedzieli "Firma ma ciężką sytuację i w tym miesiącu będzie tylko połowa wypłaty. Za to dodaliśmy schabowe poniedziałki." to też byś siedział cicho?

1
markone_dev napisał(a):

Przecież umiejętność skonteneryzowania swojej aplikacji i napisanie manifestu k8s żeby ją wrzucić na klaster plus podstawowa konfiguracja/zarządzanie klastrem k8sa (logi, debugowanie, prosty troubleshooting) to nie jest jakieś rocket science.

No właśnie o tym tu mowa xD.
Odpisując na listę wymaganych technologii wymieniasz kilka kolejnych. Raz, to jest nic takiego dla kogoś, kto już ma doświadczenie. Jeśli ktoś przychodzi do branży goły i wesoły to nawet nie wie w co ręce włożyć. Prędkość uczenia się nowych technologii jest też zupełnie inna. Poza tym, dalej my tu mówimy o szerokości stacka jaki jest wymagany teraz, a jaki był kiedyś. No teraz z każdym rokiem jest tego zwyczajnie więcej.

7

Przebranżowienie na kafelkowanie chyba wyfaje się coraz lepsza opcją jak panikarze w obawie o utratę pracy zaraz będą robić robotę za 5 różnych stanowisk a potem wypisywac na forach, że to normalne, że każdy dev z iq powyżej 90 powinien to robić i znać.

3

Jeśli ktoś przychodzi do branży goły i wesoły to nawet nie wie w co ręce włożyć. Prędkość uczenia się nowych technologii jest też zupełnie inna.

Nie spotkałem się z sytuacja żeby od juniora wymagać biegłej znajomości k8sa. W postach widzę narzekania od już wydaje się bardziej doświadczonych devow.

Poza tym, dalej my tu mówimy o szerokości stacka jaki jest wymagany teraz, a jaki był kiedyś.

Bardzo dobrze pamiętam to kiedyś i wcale nie było lepiej. Tak samo wymagano zaawansowanych rzeczy związanych z konfiguracja serwerów, tworzeniem GUI, kolejkami wiadomości,
SOA, ESB, dobrej znajomości SQL-a bo dużo logiki pisało się w RDBMSach, itd

1
markone_dev napisał(a):

Nie spotkałem się z sytuacja żeby od juniora wymagać biegłej znajomości k8sa.

A ja nie spotkałem się z sytuacją, w której ktoś tu twierdził, że od juniora wymaga się biegłej znajomości k8sa. Zresztą nie wiem co to ma do fragmentu, który zacytowałeś. Taka rozmowa jest bez sensu.

11

Posądźcie nietechniczną osobę z chatGPT i każcie jej rozwiązać techniczny problem. Nie wiem jaki chatGPT będzie miał wpływ na inne zawody, natomiast wiem, że popyt na programistów jeszcze się zwiększy.

My zakładamy, że wszyscy rozumieją co to jest baza danych, że są różne typy baz danych, gdzie aplikacja działa, jakie aplikacja ma gwarancje jeżeli chodzi o dostarczenie danych itd.

To jest np. kod który dał mi chatGPT-4. MUSISZ być techniczny, żeby rozumieć co jest źle. Nawet, jeżeli chcesz używać chatGPT żeby pisał resztę kodu to MUSISZ rozumieć co w takiej aplikacji trzeba zrobić, jak obsługiwać błędy, jak działa kafkaTemplate.send itd.

I need an application to consume message through REST API and push to Kafka. 
@RestController
@RequestMapping(value = "/kafka")
public class KafkaProducerController {

    private static final String TOPIC = "my_topic";

    @Autowired
    private KafkaTemplate<String, String> kafkaTemplate;

    @PostMapping(value = "/publish")
    public void sendMessageToKafkaTopic(@RequestBody String message){
        this.kafkaTemplate.send(TOPIC, message);
    }
}

Jeżeli taki kod obsługiwany byłby przez osobę nietechniczną, to jest to gotowy problem i możliwa utrada danych, a zadanie jest trywialne.

14

Wątek ostro skręcił, ale w tych ostatnich postach wypływa taka patologia, że aż płakać się chce.

  1. ChatGPT nie zabierze pracy żadnemu programiście. Ogarnięty programista może wykorzystać to narzędzie do szybszego zdobywania umiejętności.
  2. "React Developer", "SpringBoot 2.x developer" to nie jest programista. Tylko na rynku, nadal jest w pip takich. W mojej ocenie to będzie się zmieniać, bo najzwyczajniej "nie działa".
  3. Narzędzia, wraz z upływem czasu stają się prostsze. Zainstalowanie i skonfigurowanie PostgreSQL z ręki jest dużo trudniejsze niż wpisanie docker run postgresql (czy jak tam się ten obraz nazywa).
  4. Ponieważ narzędzia robią się prostsze, to systemy robią się bardziej skomplikowane. To co dzisiaj robi się w 1 dzień klikając w chmurowej konsolce, kiedyś zajmowało tygodnie ręcznego zestawiania sieci (zarządzalne switche też nie są od zawsze), instalując systemy operacyjne, oprogramowanie itd.
  5. T-shape nie oznacza, że np. Java Developer ma mieć wiedzę ekspercką z k8s, czy poziom DBA. Ma sobie dodać kontener do klastra, zmienić liczbę replik jakiegoś pod'a, wiedzieć jak zawołać inną usługę, która w tym klastrze istnieje. Kurcze, w życiu nie robiłem za zakładowego informatyka, ale myszkę, czy klawiaturę sobie podłączę, bo tak jest szybciej.
  6. Sprint commitment to patologia. Zmuszanie kogoś, żeby zgadywał ile mu zajmie coś, czego nigdy nie robił, a później rozliczanie go czy dobrze zgadł to mobbing.
4

Jestem ciekaw gdzie wy ludzie pracujecie gdzie są te wszystkie zwolnienia xD U mnie co miesiąc widze ze pare nowych osób dołączyło i nie zapowiada się na jakies zwalniania ludzi.

A co do chat gpt to jest tylko tool który moze dać jakas idee jak cos rozwiazac, od razu widac jak ktos skopiuje cos takiego żywcem. Na pewno code review by nie przeszło.Komu przyszlo do głowy że to moze programistom odebrać prace? To że wypluje ci jakis kod to nic nie znaczy, trzeba umiec go zaimplementowac odpowiednio i przetestowac.

3

Typowy psychologiczny efekt wyparcia: ChatGPT to tool, nic to nie zmieni.

Może to i tool ale gada jak człowiek, a jesteśmy dopiero na iteracji 4. Teraz jak zaczął się wyścig wielkich (MS, Google, Baidu, Alibaba, Amazon) mamy początek imprezy. Na razie +5 dla MS za ChatGPT, -1 dla Google za Bard'a i -10 dla Baidu (o ile pamiętam) za Erniego który okazał się totalnym goownem. Niemniej gracze są już na pozycjach startowych, wiemy o co gramy, żadnemu z nich kasy nie brakuje. Także pieniążki do AI będą płynąć szerokim strumieniem po obu stronach pacyfiku (ach a my w EU jak zawsze zostaniemy w tyle...).

Generalnie jest takie prawo ekonomii które mówi że na bardziej dostępny (czytaj tańszy) produkt wzrasta popyt. Na przykład jakbyś mógł mieć sprzątaczkę za 5pln na dzień to pewnie każdy by takową miał (tak jest na przykład w krajach ameryki łacińskiej, każda kobieta z klasy średniej wynajmuje niańkę do dziecka, taka niańka to symbol statusu społecznego). Jeżeli to kosztuje 250pln za dzień to większość posprząta i ugotuje sobie obiad sama...

Załóżmy że ChatGPT zwiększa produktywność typowego programisty powiedzmy x4. Czyli teraz koszt usług programistycznych jest 4 razy tańszy (to co wymagało 4 osób teraz wymaga jednej). Oczywiście że zapotrzebowanie na IT nadal jest niezaspokojone więc popyt może wzrosnąć i o 100%, ale jak widać nadal może się okazać że programistów będzie zbyt wiele na rynku.

Oczywiście to są takie wyliczenie z du... bo ile tego xN będzie na razie ciężko powiedzieć. Dopóki ChatGPT nie jest w stanie wczytać całego kodu projektu, wszystkich issue z JIRA, wszystkich notatek i Google Doców, historii repozytorium dopóty jesteśmy bezpiecznii bo GPT jest jakoby w piaskownicy.

Na razie jesteśmy na teapie 1: Chat GPT robi dokładnie to co każe mu programista. Wymagania są już jasno zdefiniowane, GPT nie ma dostępu do JIRA, historii Git'a, dokumentów projektowych itp. Dostaje jedynie techniczny problem do rozwiązania lub pytanie techniczne i musi na nie odpowiedzieć (TU JESTESMY).

Etap 2: ChatGPT wczytuje JIRA, Notatki projektowe, historię Git i cały kod projektu. Zadania jakie dostaję wykonuje operując na prawdziwym repozytorium, włączając w to tworzenie PR'a. Inny bot oparty o GPT dokonuje review codu (GitHub CoPilot zmierza w tym kierunku).

Etap 3: To samo co Etap 2, tyle że komunikacja z GPT opiera się na podaniu mu taska w JIRA. W trakcie rozmowy doprecyzowuje się wymagania lub chat mówi że nie mogą być spełnione bo to i to. (Na razie SciFi)

Etap 4: Mówisz GPT czego potrzebujesz (potrzebuję aplikację która będzie mnie wspomagała w odchudzaniu) dostajesz na wyjściu gotową aplikacje (StarTrek GodMode, być może nie dojdziemy do tego etapu za naszego życia).

Etap 5: Człowiek nie musi już myśleć bo robią to za niego maszyny. Ostateczny cal wielu pokoleń techników i naukowców został osiągnienty - nie myślenie dla wszystkich, nie tylko dla debili :P

Może z 4 i 5 przesadziłem, ale generalnie jak ktoś teraz ma 10 lat to bym mu sie kazał 2 razy zastanowić czy chce się uczyć programowania...

12

@0xmarcin: jest jedno ale. openai zapowiedziało że większe modele nie będa już tworzone bo są zbyt duże i drogie w utrzymaniu. Teraz będą kombinować wiele modeli jednoczeńsie. Czyli zataczamy koło.

Na razie jesteśmy na teapie 1: Chat GPT robi dokładnie to co każe mu programista. Wymagania są już jasno zdefiniowane, GPT nie ma dostępu do JIRA, historii Git'a, dokumentów projektowych itp. Dostaje jedynie techniczny problem do rozwiązania lub pytanie techniczne i musi na nie odpowiedzieć (TU JESTESMY).

nie tu nie jesteśmy, Chatgpt jest modelem językowym nie inżynierskim o czym chyba nawet sam altman mówił. On nie rozwiązuje problemu ale z apomocą zaawansowanej statystyki próbuje zgadnąć odpowiedź przez co nie raz już poległ.
Z resztą model będzie tak dobry jak jego dane. Czyli twoje pkt. poniżej same się niszczą bo w PR są często po prostu bzdury. A wiele informacji znajduje się głowach ludzi.
edit:
przed chwilą chatgpt na podstawie wrzuconego przez zemnie kodu i pytania wygenerował kompletne bzdury bo jest modelem jezykowym.

3

Teraz jak zaczął się wyścig wielkich (MS, Google, Baidu, Alibaba, Amazon) mamy początek imprezy. Na razie +5 dla MS za ChatGPT, -1 dla Google za Bard'a i -10 dla Baidu (o ile pamiętam) za Erniego który okazał się totalnym goownem. Niemniej gracze są już na pozycjach startowych, wiemy o co gramy, żadnemu z nich kasy nie brakuje. Także pieniążki do AI będą płynąć szerokim strumieniem po obu stronach pacyfiku (ach a my w EU jak zawsze zostaniemy w tyle...).

Wyścig AI zaczął się w grudniu 2022?

Sam paper jest z 2017, ponad 6 lat.

Attention Is All You Need
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin
Submitted on 12 Jun 2017

Google Brain was a deep learning artificial intelligence research team under the umbrella of Google AI, a research division at Google dedicated to artificial intelligence. Formed in 2011, Google Brain combines open-ended machine learning

Google DeepMind, formerly DeepMind Technologies, is an artificial intelligence research laboratory which serves as a subsidiary of Google. It was originally founded in 2010 in the United Kingdom before being acquired by Google in 2014

Może to i tool ale gada jak człowiek, a jesteśmy dopiero na iteracji 4

No tak, na tej samej zasadzie co akcje firm też rosną w nieskończoność :D

W 2014? 2016? też już mieliśmy być krok od level 5 autonomiczności samochodów, świat miał ulec zmianie.

AI samo w sobie jest gorącym tematem od lat, a jak wpłynęło to na twoje życie poza profilowaniem/searchem/adsami/rekomendacjami itd?

Skąd u ciebie ten optymizm co do "wzrostu" ChataGPT?

Załóżmy że ChatGPT zwiększa produktywność typowego programisty powiedzmy x4.

Tak jak piszesz - wartość z d**y

0
revcorey napisał(a):

@0xmarcin: jest jedno ale. openai zapowiedziało że większe modele nie będa już tworzone bo są zbyt duże i drogie w utrzymaniu. Teraz będą kombinować wiele modeli jednoczeńsie. Czyli zataczamy koło.

Na razie jesteśmy na teapie 1: Chat GPT robi dokładnie to co każe mu programista. Wymagania są już jasno zdefiniowane, GPT nie ma dostępu do JIRA, historii Git'a, dokumentów projektowych itp. Dostaje jedynie techniczny problem do rozwiązania lub pytanie techniczne i musi na nie odpowiedzieć (TU JESTESMY).

nie tu nie jesteśmy, Chatgpt jest modelem językowym nie inżynierskim o czym chyba nawet sam altman mówił. On nie rozwiązuje problemu ale z apomocą zaawansowanej statystyki próbuje zgadnąć odpowiedź przez co nie raz już poległ.
Z resztą model będzie tak dobry jak jego dane. Czyli twoje pkt. poniżej same się niszczą bo w PR są często po prostu bzdury. A wiele informacji znajduje się głowach ludzi.
edit:
przed chwilą chatgpt na podstawie wrzuconego przez zemnie kodu i pytania wygenerował kompletne bzdury bo jest modelem jezykowym.

A jakby OpenAI wypuścił wersję Chatgpt, która działa OnPremise albo tylko w kontekście danej firmy? No i ten Chatgpt uczyłby się na podstawie firmowej wiki, czytałby firmowe chaty i dostawał nagrania wszystkich firmowych spotkań (tych, gdzie wiedza jest przekazywana z i do głów ludzi). Nawet jeśliby nie programował to byłby bardzo pożytecznym narzędziem, które mogłoby oszczędzić programistom sporo czasu na zdobywaniu wiedzy, która już jest w firmie. Im większa firma tym większa byłaby korzyść. No i teraz tacy programiści z korpo mogliby być efektywniejsi np o 50%. No to na chłopski rozum korpo mogłoby 50% załogi wywalić

4

Dodam że w pewnym centrum R&D w Polsce już w latach 2016-2018 próbowano opracować automatyczne analizatory logów oparte o model AI(wykrywanie błędów i ich wstępna kategoryzacja). Polegli sromotnie na etapie już budowy samych modeli danych.

4

@miiiilosz:

A jakby OpenAI wypuścił wersję Chatgpt, która działa OnPremise albo tylko w kontekście danej firmy? No i ten Chatgpt uczyłby się na podstawie firmowej wiki, czytałby firmowe chaty i dostawał nagrania wszystkich firmowych spotkań (tych, gdzie wiedza jest przekazywana z i do głów ludzi). Nawet jeśliby nie programował to byłby bardzo pożytecznym narzędziem, które mogłoby oszczędzić programistom sporo czasu na zdobywaniu wiedzy, która już jest w firmie. Im większa firma tym większa byłaby korzyść. No i teraz tacy programiści z korpo mogliby być efektywniejsi np o 50%. No to na chłopski rozum korpo mogłoby 50% załogi wywalić

ale uczył się czego? Ile firm ma aktualną dokumentację na wiki/confluance to że ja np. swoją aktualizuję to tylko moja dobra wola ba moja dotyczy tylko dużych feauterach(to i tak dobrze). Chaty? Czyli co miał by lecieć przez kupę śmiecia, łącznie z memami i żartami o murzynach?

Im większa firma tym większa byłaby korzyść.

To już bzdura, po pierwsze filtracja danych to najważniejszy i najtrudniejszy problem stąd powyżej moja uwaga o śmieciu z czatów itp. Do tego znam duze korpo w których juz dokumentacja nie istnieje albo to jakieś pojedyncze diagramy uml.

oczywiście to wejdzie do korp jako wstępne code review(po przeglądnięciu starych(o ile są hehe) i tych z github), czy jak masz np. dużo produktów i broszur, relase note itd. tęż bedzie przydatne. Ale nie nalezy tego narzędzia przeceniać ale i też nie nie doceniać.

w skrócie dokumentacja w firmach to padaka, chaty to śmieci, ludzie na callach sobie wyjaśniają, w kuchni itd. wejdzie to do firm ale nie tak jak panie z HR to malują żeby stawki zbić.
edit:
Ja opracowywałem tylko małe programy na potrzeby prototypu do machine vision i uwierz mi dane i ich filtracja to mordęga.

4

Za 2+ lat rynek się uspokoi, Chatgpt pozostanie ciekawostką jak wiele innych technologicznych rewolucji które dalej są tylko ciekawostką(Autonomiczne pojazdy, VR etc) i będzie można odsyłać młodzików którzy myślą że trzeba posiadać wielkie zdolności analityczne aby zostać programistom do wątków "Chatgpt zastąpi programistów" jako motywacja do dalszej nauki.

2

Który z tych punktów odnosi się do zastąpienia programisty?

Jeżeli w 4 iteracji nie jest w stanie napisać działającego kodu który rozwiązuje trywialny problem, w izolowanym środowisku, bez pomocy programisty, to kiedy będzie w stanie rozwiązać problem w szerokim kontekście bez pomocy programisty?

Łatwo jest zauważyć, że jeżeli kod robi coś innego od tego jak wygląda np. async to gpt-4 się gubi i nie ma tutaj progresu od gpt 3.5. Jak niektórzy tutaj wspomnieli wynika to z faktu, że jest to model językowy a nie inżynieryjny.

8
0xmarcin napisał(a):

Generalnie jest takie prawo ekonomii które mówi że na bardziej dostępny (czytaj tańszy) produkt wzrasta popyt. Na przykład jakbyś mógł mieć sprzątaczkę za 5pln na dzień to pewnie każdy by takową miał (tak jest na przykład w krajach ameryki łacińskiej, każda kobieta z klasy średniej wynajmuje niańkę do dziecka, taka niańka to symbol statusu społecznego). Jeżeli to kosztuje 250pln za dzień to większość posprząta i ugotuje sobie obiad sama...

Im niższa cena, tym większy popyt. Tylko za tym stwierdzeniem ekonomia stawia gwiazdkę z bardzo wieloma zastrzeżeniami. Co istotne, na tych wykresach z podręczników do makroekonomii nie ma skali... Dla niektórych dóbr popyt pozostaje ~stały, niezależnie od ceny (np. leki), dla innych spada wraz ze spadającą ceną (towary luksusowe).

Załóżmy że ChatGPT zwiększa produktywność typowego programisty powiedzmy x4. Czyli teraz koszt usług programistycznych jest 4 razy tańszy (to co wymagało 4 osób teraz wymaga jednej). Oczywiście że zapotrzebowanie na IT nadal jest niezaspokojone więc popyt może wzrosnąć i o 100%, ale jak widać nadal może się okazać że programistów będzie zbyt wiele na rynku.

Skąd założenie, że nakład (albo koszt) pracy spadnie 4 razy? Jak na razie ten wzrost produktywności wygląda na bliższy 3% a nie 300%... Skąd założenie, że spadek kosztu oprogramowania o 75% spowoduje wzrost popytu o 100%, a nie o 10%, albo o 1000%?

Oczywiście to są takie wyliczenie z du... bo ile tego xN będzie na razie ciężko powiedzieć. Dopóki ChatGPT nie jest w stanie wczytać całego kodu projektu, wszystkich issue z JIRA, wszystkich notatek i Google Doców, historii repozytorium dopóty jesteśmy bezpiecznii bo GPT jest jakoby w piaskownicy.

To jest najmniejszym problemem. Poproś o coś prostego np. kod programu do obróbki arkuszy kalkulacyjnych działającego jak Excel. Dostaniesz coś działającego, czy raczej nie bardzo?

Na razie jesteśmy na teapie 1: Chat GPT robi dokładnie to co każe mu programista. Wymagania są już jasno zdefiniowane, GPT nie ma dostępu do JIRA, historii Git'a, dokumentów projektowych itp. Dostaje jedynie techniczny problem do rozwiązania lub pytanie techniczne i musi na nie odpowiedzieć (TU JESTESMY).

Nie. ChatGPT, na podstawie w uj kosztownego procesu uczenia przewiduje jaki powinien być ciąg słów uzupełniający słowa wprowadzone jako zapytanie. Efekty są imponujące, ale nie ma się tu co doszukiwać jakiejś magii. Dostęp do JIRA możesz zapewnić, parę dolców miesięcznie, skrypt wysyłający do ichniego API Zaimplementuj funkcjonalność według następującego opisu ${treśćTicketuZJira}

Etap 2: ChatGPT wczytuje JIRA, Notatki projektowe, historię Git i cały kod projektu. Zadania jakie dostaję wykonuje operując na prawdziwym repozytorium, włączając w to tworzenie PR'a. Inny bot oparty o GPT dokonuje review codu (GitHub CoPilot zmierza w tym kierunku).

Ktoś te tickety musi napisać. Code review jest mało istotne w przypadku kiedy to AI ma ten kod dalej zmieniać. Skąd AI będzie wiedziało, że to co "napisało" robi to, co miało robić?

Etap 3: To samo co Etap 2, tyle że komunikacja z GPT opiera się na podaniu mu taska w JIRA. W trakcie rozmowy doprecyzowuje się wymagania lub chat mówi że nie mogą być spełnione bo to i to. (Na razie SciFi)

To żadna magia, wystarczy napisać skrypt. Masz API, sklejasz prompta i jedziesz. Zadanie na parę godzin w startupie, lub parę miesięcy w korpo i masz taki system. Jedyny problem - nie działa.

Etap 4: Mówisz GPT czego potrzebujesz (potrzebuję aplikację która będzie mnie wspomagała w odchudzaniu) dostajesz na wyjściu gotową aplikacje (StarTrek GodMode, być może nie dojdziemy do tego etapu za naszego życia).

Trochę jeszcze brakuje. Załóżmy, że dzisiaj mamy takie rozwiązanie i każdy może sobie wprowadzić taką prośbę i dostać taką aplikację. Programiści lądują na bezrobociu, wraz z całą otoczką, bo skoro mogę sobie za parę centów wygenerować software skrojony dokładnie pod moje potrzeby to po co komu firma typu Microsoft?

Natomiast rzeczywistość jest taka:

  1. Na obecnym etapie, GPT ma pomijalny wpływ na koszt tworzenia oprogramowania. No może Scrum Masterów da się zwolnić, bo w pieprzeniu głupot AI jest naprawdę niezła.
  2. Sami autorzy piszą, że LLM już dużo więcej nie ogarnie - wzięli wszystkie dane jakie istnieją, wrzucili w największą DNN jakie mogli zrobić. Zakres danych w training set nie zwiększy się znacząco, dostępna moc obliczeniowa również. Jeżeli ktoś kiedyś się bawił ML zdaje sobie sprawę, że np. 2 krotne zwiększenie zbioru uczącego, 2 krotne zwiększenie liczby połączeń w sieci, albo uczenie 2 razy dłużej/szybciej nie spowoduje znaczącej różnicy w efektach. Ot, wcześniej błąd wynosił 0.7%, teraz spadł do 0.65%. Czyli zwykłe dosypywanie kasy nie zapewni sukcesu, potrzeba jeszcze zmiany jakościowej. Nakarmienia modelu innymi danymi, w inny sposób, zbudowania sieci o innej topologii - nie wiem, nie znam się.
  3. 12 lat temu mieliśmy hype na Siri i inne asystenty głosowe - prosty model języka i rozpoznawanie mowy. Cały świat zachwycał się jakie to mądre. Jakieś 2 lata temu miała się zakończyć seryjna produkcja samochodów sterowanych przez człowieka, bo tesla już umiała zmieniać pas bez udziału człowieka (i włączyć kierunkowskaz, w przeciwieństwie do kierowców BMW) - jak na razie nie udało się, a kasa jaka jest do wygrania jest ogromna. Netflix dalej nie potrafi podpowiedzieć mi filmu, który będę chciał obejrzeć, a Google dalej męczy mnie reklamami produktów, których nie będę chciał kupić. Wydaje nam się, że rozwój AI jest błyskawiczny, bo wczoraj nie było GPT, dzisiaj jest GPT, a kompletnie pomijamy, że to rozwiązanie nie powstało w tydzień. Jasne, DALL-e, GPT, roboty z Boston Dynamics są super i zaczynają być przydatne, ale spodziewać się, że za chwilę powstanie tu jakaś osobliwość - nadmiar entuzjazmu/paniki.
  4. To co w tej chwili zajmuje pewnie 90+% machine learning, to deep learning. Pomijając topologię sieci, to przejście na obróbkę "surowych danych" z pominięciem inżynierii ficzerów (czyli podajemy np. surowe piksele, zamiast samej luminancji, żeby komputer miał łatwiej). To oznacza, że aktualnie AI nie jest w stanie nauczyć się więcej niż wiemy, ale również, że nie funkcjonuje jak ludzki umysł starając się zrozumieć rzeczywistość. Po ludzku, jest jak student, który "zakuwa" materiał przed egzaminem, ale ta nauka jest powierzchowna, bo sieć wytresowana np. do przeliczania temperatury w C na F wykształci w sobie intuicję podpowiadającą, że xC, to yF, ale nie przyswoi sobie, że to ma być C*9/5+32.

Czyli podsumowując - naprawdę bardzo dużo musi się jeszcze zmienić w ML, żeby powstały narzędzia o znacząco większej jakości, niż te dostępne dzisiaj.

0

To zagram adwokata diabła

Czy ci, którzy uważają że ChatGPT i podobne są overhyped będą shortować Nvidie?

Nvidia napompowana AI w ostatnich dniach po skoku ok. 25% stała się prawie trillion dollar company z takimi wynikami

NVIDIA Price to Earnings Ratio: 202.84 for May 26, 2023

Quarterly revenue of $7.19 billion, up 19% from previous quarter
Record Data Center revenue of $4.28 billion
itd...

https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-first-quarter-fiscal-2024

gdzie np.

Microsoft PE ratio as of May 26, 2023 is 35.60
Alphabet PE ratio as of May 26, 2023 is 27.75
Meta Platforms PE ratio as of May 26, 2023 is 26.90.
Netflix PE ratio as of May 26, 2023 is 40.74.
Taiwan Semiconductor Manufacturing PE ratio as of May 26, 2023 is 15.95
AMD PE ratio as of May 26, 2023 is 52.49.

I teraz, jeżeli hype wokół AI to tylko hype i za jakiś czas się skończy, no to jest hajs do zarobienia

screenshot-20230528232202.png

1
WeiXiao napisał(a):

To zagram adwokata diabła

Czy ci, którzy uważają że ChatGPT i podobne są overhyped będą shortować Nvidie?

Nvidia napompowana AI w ostatnich dniach po skoku ok. 25% stała się prawie trillion dollar company z takimi wynikami

NVIDIA Price to Earnings Ratio: 202.84 for May 26, 2023

Quarterly revenue of $7.19 billion, up 19% from previous quarter
Record Data Center revenue of $4.28 billion
itd...

https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-first-quarter-fiscal-2024

gdzie np.

Microsoft PE ratio as of May 26, 2023 is 35.60
Alphabet PE ratio as of May 26, 2023 is 27.75
Meta Platforms PE ratio as of May 26, 2023 is 26.90.
Netflix PE ratio as of May 26, 2023 is 40.74.
Taiwan Semiconductor Manufacturing PE ratio as of May 26, 2023 is 15.95
AMD PE ratio as of May 26, 2023 is 52.49.

I teraz, jeżeli hype wokół AI to tylko hype i za jakiś czas się skończy, no to jest hajs do zarobienia

screenshot-20230528232202.png

Nvidia jest potrzebna tym wszystkim modelom, żeby mogły na czyms działać. Giełda nie działa w przyszłość tylko teraźniejszość. Poza tym, wychodząc z programowania te modele mogą być wykorzystane w każdym zawodzie umysłowym wiec ta moc jest potrzebna.
Nvidia to ma niezłego farta. Kiedyś fala krypto, potem COVID i wszyscy grali w domach, teraz ML…

0

co do nvidi spadek pewnie będzie jak balonik zejdzie ale AI nie updanie, jest wiele różnych modeli nie tylko openai. I to raczej do zadań naukowych więc hajs będzie płynął. Chociaż ms ostatnio postawił na amd w tej kwestii a konkretnie współprace w rozwoju AI i sprzętu.
w skrócie nvidia będzie miała się dobrze chociaż pewnie będą ją podgryzały tu firmy z autorskimi układami do ml.

0
WeiXiao napisał(a):

To zagram adwokata diabła

Czy ci, którzy uważają że ChatGPT i podobne są overhyped będą shortować Nvidie?

Nvidia napompowana AI w ostatnich dniach po skoku ok. 25% stała się prawie trillion dollar company z takimi wynikami
MD PE ratio as of May 26, 2023 is 52.49.

I teraz, jeżeli hype wokół AI to tylko hype i za jakiś czas się skończy, no to jest hajs do zarobienia

Nie rozumiesz czemu akcje Nvidii skoczyły do góry. Jeżeli to dzięki AI skoczyła o 25% w jeden dzień to czemu dopiero teraz? A nie przy publikacji Chat GPT? Ponieważ skok w wycenie nie jest związany z rozwojem AI tylko z wynikami kwartalnymi które nawet sam zalinkowałeś, inwestorzy się spodziewali spadku przychodów: https://www.investopedia.com/nvidia-q1-fy2024-earnings-preview-7501201 a oni zaprezentowali bardzo dobre wyniki przez co skoczyli o 25% w ciągu jednego dnia. Czemu im dobrze idzie? Wypuścili nową serie kart RTX 4000 a w sferze GPU dla Data Center AMD praktycznie nie istnieje więc jak chcesz serwer z akceleracją GPU to Nvidia jest jedynym wyborem więc rosną i w tym obszarze bo coraz więcej softu potrafi zaprząc GPU do roboty, a to jest wielokrotnie szybsze niż CPU.

0

@pre55

Jeżeli to dzięki AI skoczyła o 25% w jeden dzień to czemu dopiero teraz? A nie przy publikacji Chat GPT?

Ale przecież od wypuszczenia Chata praktycznie cały czas rośnie, gdzie np. stock AMD lata góra dół.

Oczywiście nie jest to żaden dowód, jest to ogromne uproszczenie, ale można domniemywać że hype na AI/ChatGPT wpływa na postrzeganie potencjału Nvidii.

Ponieważ skok w wycenie nie jest związany z rozwojem AI tylko z wynikami kwartalnymi które nawet sam zalinkowałeś

To wszystko jest powiązane, nie sądzisz?

Nawet w tych earningsach masz:

“The computer industry is going through two simultaneous transitions — accelerated computing and generative AI,” said Jensen Huang, founder and CEO of NVIDIA.

“A trillion dollars of installed global data center infrastructure will transition from general purpose to accelerated computing as companies race to apply generative AI into every product, service and business process.

a w sferze GPU dla Data Center

A skąd teraz takie zapotrzebowanie na GPU w DC? No ja bym stawiał na m.in lub nawet w głównej mierze AI, ale to tylko strzelanie, bo nie wiem.

0

@WeiXiao:

Oczywiście nie jest to żaden dowód, jest to ogromne uproszczenie, ale można domniemywać że hype na AI/ChatGPT wpływa na postrzeganie potencjału Nvidii.

Ogólnie - ten skok o 25% to raczej zasługa wspomnianych wyników kwartalnych, natomiast wzrost o 172% (z 112 dolarów za akcję do 305 dolarów za akcję) w okresie październik 2022 - końcówka maja (przed publikacją wyników) to już hype ze strony AI.

0

Inwestorzy się jarają bo to takie medialne tematy..

0

Użyłem ostatnio chatgpt w pracy. Jestem ze 2h do przodu.

2


Moim zdaniem ogólnie się za dużo produkuje ludzi umysłowych teraz, chat gpt itd. może sporo przyspieszyć umysłową robotę, a fizyczną nie za bardzo, także ja przewiduję kryzys.

1

https://businessinsider.com.pl/gielda/wiadomosci/szalenstwo-na-gieldzie-w-zwiazku-ze-sztuczna-inteligencja-wyglada-dziwnie/ydmb67z

A swoją drogą, jeśli nawet w AI nastąpi przełom i zacznie mieć realny wpływ na gospodarkę, to zaraz rządzący wpadną na pomysł, żeby to opodatkować. I obstawiam, że przy obecnym zamiłowaniu świata zachodniego do rozdawnictwa socjalu to pewnie szybko znowu będzie na topie temat dochodu podstawowego, jak już będzie źródełko zasilania dla tego typu pomysłów.

0

Z tymi legacy projektami i brakiem nowych to ciekawe bo w ciągu ostatnich 2 tyg dostaję masę ofert na PHP za całkiem dobry pieniądz a 0 z Typescript...

2
pre55 napisał(a):
WeiXiao napisał(a):

To zagram adwokata diabła

Czy ci, którzy uważają że ChatGPT i podobne są overhyped będą shortować Nvidie?

Nvidia napompowana AI w ostatnich dniach po skoku ok. 25% stała się prawie trillion dollar company z takimi wynikami
MD PE ratio as of May 26, 2023 is 52.49.

I teraz, jeżeli hype wokół AI to tylko hype i za jakiś czas się skończy, no to jest hajs do zarobienia

Nie rozumiesz czemu akcje Nvidii skoczyły do góry. Jeżeli to dzięki AI skoczyła o 25% w jeden dzień to czemu dopiero teraz? A nie przy publikacji Chat GPT? Ponieważ skok w wycenie nie jest związany z rozwojem AI tylko z wynikami kwartalnymi które nawet sam zalinkowałeś, inwestorzy się spodziewali spadku przychodów: https://www.investopedia.com/nvidia-q1-fy2024-earnings-preview-7501201 a oni zaprezentowali bardzo dobre wyniki przez co skoczyli o 25% w ciągu jednego dnia.

Nie rozumiecie czemu akcje Nvidii skoczył do góry, bynajmniej nie przez wyniki kwartalne bo wprawdzie powyżej konsensu to były takie sobie, i rok do roku niższe. To co zaskoczyło wszystkich to prognoza wyników na kolejny kwartał, bo konsensus był w okolicach 7,2 mld, natomiast Nvidia wyskoczyła z 11mld. Giełda bardziej wycenia przyszłość a nie przeszłość, prognozowane roczne przychody zielonych skoczył z 30 mld do 40 mld, co zostało odzwierciedlone w kursie akcji .

0

@neves

W jaki sposób nie jest to powiązane z tym co pisałem?

Jeżeli załóżmy że hype na AI by kompletnie umarł, to prognozy na Q3/Q4 (a zatem roczne) by zostały przez to dotknięte w jakiś sposób. Jak duży? Nie wiem.

#Thread

https://asia.nikkei.com/Business/Automobiles/Honda-to-double-number-of-programmers-to-10-000-by-2030

TOKYO -- Honda Motor will double the number of software programmers to 10,000 by 2030 in a shift away from traditional manufacturing toward a software-driven business like Tesla's, Nikkei has learned.

Chyba jednak jest praca ;)

2 użytkowników online, w tym zalogowanych: 1, gości: 1