Zwolnienia - wątek zbiorczy

3

NVIDIA ma rekordowe zyski, nikt nie wyleciał, CEO kiedyś nawet powiedział, że nikogo nie zwolnią i ludzie dostaną podwyżki - ale i tak ta firma trafiła do wątku o zwolnieniach xD

@Uśpiony wiosenny but : przecież takie narzędzia już istnieją i to od dawna. Póki co w naszej działce niespecjalnie się je stosuje bo w sumie nie wiadomo po co, ale już w miejscach pokrewnych - czyli wszelkiego rodzaju opsy, service deski itp. często są monitorowani w ten sposób.

@WeiXiao - w kwestii tego narzędzia - ile czasu by ci zabrało, żeby się zorientować, że ktoś się opieprza - gdybyś miał tylko dostęp do ekranu?

2

Narzędzia do monitorowania są od dawna i jeśli ktoś bardzo chce to może skrupulatnie i dokładnie przejrzeć jak developer mirek pracuje ( ͡° ͜ʖ ͡°)

A tak na poważnie to i bez narzędzia bardzo szybko można wyłapać kto wali w kulasy. Szczególnie w małych kilku osobowych teamach. Pierwszy, drugi sprint i wszystko jak na dłoni.

0

Wzięte dziś z pewnego portalu:

"
#opentowork
Dziś chciałbym wesprzeć mojego znajomego, który poszukuje nowego projektu. Szukasz Java Developera? Zerknij niżej!

Warszawa lub zdalnie
6 lat doświadczenia developerskiego
Stos technologiczny: Java, Spring, Spring Boot, Groovy, DDD, Microservices, Hexagonal Architecture, Maven, Spock, MsSQL, RabbitMQ, PostgreSQL, Docker, ArgoCd, Kafka, Jira, Confluence, Git.
Dostępność: „od jutra”
"

0
0xmarcin napisał(a):

Wymyślili zero!

Bedziesz mial do CV

1
0xmarcin napisał(a):

🍿

W godzinę: informacja o spotkaniu, wyłączenie dostępów i polecenie opuszczenia budynku dla ponad 200 inżynierów z Aptiv w Krakowie. Rant na korpo
Pytania i Dyskusje
Zwolnienia grupowe w stylu amerykańskim, czyli rano dowiadują się liderzy, o 11:50 informacja o spotkaniu, a koło 12 już mail z wypowiedzeniem i szybkie wyłączenie dostępów, kont, badgy, itd. Do 13 macie opuścić budynek.

Jakiś ogólny komunikat o tym, że jest ciężko (chociaż miesiąc wcześniej chwalono się rekordowymi zyskami). Odpadły osoby z najwyższymi wynikami i przeciętniacy, nowi, ale też często z wieloletnim stażem, podobno z wszystkich działów. Łącznie 250 osób (inżynierów i nie tylko). Trochę rant na to, że w ogóle do takich sytuacji dopuszczamy, naturalnie będą wypłaty za okres wypowiedzenia i jakieś odprawy, ale ludzie jednak wiążą się z firmą przez lata, starają się, a taki boks staje się z czasem istotną częścią ich życia. I stąd mój rant, bo oczywiście zwolnień czasem nie da się uniknąć, ale czy nie można dać ludziom po ludzku się pożegnać? Przekazać wiedzę i kompetencje z projektów nad jakimi pracują, pozwolić dokończyć zadania, zamknąć to jakoś i odejść do innych firm? W godzinę znikasz jak po skasowaniu 250 komórek w Excelu.

za https://www.reddit.com/r/Polska/comments/1av1hi4/w_godzin%C4%99_informacja_o_spotkaniu_wy%C5%82%C4%85czenie/

screenshot-20240222124056.png

Wysyp świeżych ofert od aptiv:

screenshot-20240222124249.png

1
KamilAdam napisał(a):
0xmarcin napisał(a):

Wymyślili zero!

Bedziesz mial do CV

Śmiejesz się z niego a tymczasem sytuacja na rynku idzie w taką stronę, że niedługo bardziej będzie mi się opłacało zatrudniać zamiast sprzątaczki jakiegoś korpojavowca.

Jak ogarnie hacjendę w środku i zostanie mu trochę czasu to nawet będzie mógł się zająć frontem (jakieś API, okiennice na zewnątrz, itp.).

0

U mojego kontrahenta 10% załogi (w tym ja) poleciało.
Zatrudnilali ile się dało, sprzedaż nie nadążyła, i elo. Nie ma pracy, nie ma płacy, nie ma projektów.

1

Wysłałem CV w weekend, umówili mnie na rozmowę na dzisiaj jako jedną z trzech osób z grona 101 CV które poszły do kosza . Giniemy.

3

Ja powiem tylko tak... w obecnej sytuacji na rynku... there is one thing in common.

Wiadomo po co się starać za psie pieniądze jakieś śmieszne 140netto/h

screenshot-20240222234215.png

0

@Uśpiony wiosenny but: to prawda, tyle tylko, że ci ambitni w końcu są doceniani jak tylko się potrafią zakręcić. Czy to dostaną lepszy projekt, który skończy się ładnym wpisem do CV, czy to wyrobi sobie renomę i ktoś go gdzieś pociągnie - opcji jest wiele.

2

Wpisy do CV w polskich januszeksach xD
Możesz zmyślić projekt nad jakim pracowałeś w CV, nikt tego nie sprawdzi.

1

https://www.trueup.io/job-trend

USA dalej rośnie... Już +30% od dołka...

A co do Layoffów - to jestem dziwnie przekonany, że tak jak wszyscy z lubością pisali, że w samym styczniu 2024 było ich więcej niż w Q42023 to na koniec Q1 nikt nie napisze, że było ich mniej niż w samym styczniu 2023...

Wykresy też przestały być dobre jak zaczeło odbijać :D

5
Rajmon napisał(a):

https://www.trueup.io/job-trend

USA dalej rośnie... Już +30% od dołka...

A co do Layoffów - to jestem dziwnie przekonany, że tak jak wszyscy z lubością pisali, że w samym styczniu 2024 było ich więcej niż w Q42023 to na koniec Q1 nikt nie napisze, że było ich mniej niż w samym styczniu 2023...

Wykresy też przestały być dobre jak zaczeło odbijać :D

Cicho, bo butkampy sie zleco. Kryzys jest, ni mo roboty

1

Emocje po Aptiv jeszcze nie opadły, a tu już kolejne dobre wieści ❤️

screenshot-20240223170501.png

0

Brzmi jak poznański Comarch

1
Uśpiony wiosenny but napisał(a):

Emocje po Aptiv jeszcze nie opadły, a tu już kolejne dobre wieści ❤️

screenshot-20240223170501.png

  1. Nie 300 a 192 osoby
  2. To był shared service finansów i księgowości... Nie IT.
0

screenshot-20240224094204.png

5

Dzięki za to to nowe info, odmienilo sie moje zycie po nim

0

https://vulcanpost.com/853029/dont-learn-to-code-jensen-huang-on-career/

Coraz więcej głosów mówiących o tym że w niedalekiej przyszłości zawód programisty jest zagrożony

2
Michał karwec napisał(a):

https://vulcanpost.com/853029/dont-learn-to-code-jensen-huang-on-career/

Coraz więcej głosów mówiących o tym że w niedalekiej przyszłości zawód programisty jest zagrożony

Zanim będzie zagrożony to zawód programisty po prostu przestanie być opłacalnym.
Stawki staną/spadną/reszta zawodów dogoni płacami / ceny jedzenia/mediów/usług itp wzrosną, że mało komu będzie się chciało programować wiecznie doszkalać i być one man army za np. powiedzmy dzisiejsza średnia to 7.6k to powiedzmy za 2k więcej niż średnia.

Reszta płac i branż już dogania, a nawet powoli przegania IT :)

Ja sam widzę jeszcze ostatnie tchnienie IT żeby napompować kasy albo żeby sens był siedzieć w IT i zarabiać dobrze to albo walenie OE co jakiś czas i dobijanie kabzy albo musiałbym w jakiegoś MLOPSa/Cloud architekta albo Engineering Managera cisnąć żeby mieć te 40-60k na fakturze i było 30-40k netto do kieszeni miesięcznie. Takie 15k-25k do kieszeni to jeszcze jest ok ale za chwilę dogoni reszta i 15k to będzie lekko powyżej średniej płacy :)

1
Michał karwec napisał(a):

https://vulcanpost.com/853029/dont-learn-to-code-jensen-huang-on-career/

Coraz więcej głosów mówiących o tym że w niedalekiej przyszłości zawód programisty jest zagrożony

screenshot-20240225105619.png

Jeżeli wierzy w to co mówi, to dlaczego zatrudnia programistów? Niech położy swoje pieniądze tuż obok tego co mówi. Dla samej frazy software engineer ma 1125 ofert.

4

Ludzie którzy mówią że "reszta" dogoni IT trochę nie rozumieją istoty software. Software się skaluje, raz napisany program do rozliczania PIT przez jakiegoś geeka z żoną księgową może obsłużyć. 1, 1000, 1000000 a nawet wszystkich polaków. Na tym polega magia software. Jeżeli gość sprzedaje program po 5 PLN i kupi go 1kk Polakow to ma 5kk zysku brutto. Koszt wytworzenia tego typu softu jest znikomy (można to zrobić w garażu po godzinach, wymagany jest tylko dostęp do osoby znającej przepisy podatkowe).

Prawnik, lekarz czy budowlaniec nigdy nie będzie się tak mógł wyskalować.

Dlatego software to branża typu winner takes all podobnie jak branża muzyczno-rozrywkowa, dziennikarska itp. Firma która się wyskaluje może sprzedawać produkt na cały świat, zatrudniają jednocześnie 200 osób. To dlatego niektóre firmy są w stanie płacić $1kk zwykłym normikom-devikom zaraz po studiach.

To co może spotkać programistów to raczej brak pracy, niż spadek zarobków. Po prostu firmy IT które osiągną sukces mają taki windfall że $$$ spada na wszystkich od góry w dół.
Ba jest jeszcze gorzej: pragnienie standaryzacji sprawia że w IT monopole rosną szybciej niż w innych branżach (Windows, Excel, Linux na serwerach, Android, formaty mp3, pdf i jpeg....).

Także panowie i panie, chcecie roboty i $$$ to ruszajcie głowami i bądźcie innowacyjni. A nie jak niektórzy marudzą na GPT i blockchain. Tego typu innowacje przyciągają kasę do naszej branży.

0
0xmarcin napisał(a):

Ludzie którzy mówią że "reszta" dogoni IT trochę nie rozumieją istoty software. Software się skaluje, raz napisany program do rozliczania PIT przez jakiegoś geeka z żoną księgową może obsłużyć. 1, 1000, 1000000 a nawet wszystkich polaków. Na tym polega magia software. Jeżeli gość sprzedaje program po 5 PLN i kupi go 1kk Polakow to ma 5kk zysku brutto. Koszt wytworzenia tego typu softu jest znikomy (można to zrobić w garażu po godzinach, wymagany jest tylko dostęp do osoby znającej przepisy podatkowe).

Prawnik, lekarz czy budowlaniec nigdy nie będzie się tak mógł wyskalować.

Dlatego software to branża typu winner takes all podobnie jak branża muzyczno-rozrywkowa, dziennikarska itp. Firma która się wyskaluje może sprzedawać produkt na cały świat, zatrudniają jednocześnie 200 osób. To dlatego niektóre firmy są w stanie płacić $1kk zwykłym normikom-devikom zaraz po studiach.

To co może spotkać programistów to raczej brak pracy, niż spadek zarobków. Po prostu firmy IT które osiągną sukces mają taki windfall że $$$ spada na wszystkich od góry w dół.
Ba jest jeszcze gorzej: pragnienie standaryzacji sprawia że w IT monopole rosną szybciej niż w innych branżach (Windows, Excel, Linux na serwerach, Android, formaty mp3, pdf i jpeg....).

Także panowie i panie, chcecie roboty i $$$ to ruszajcie głowami i bądźcie innowacyjni. A nie jak niektórzy marudzą na GPT i blockchain. Tego typu innowacje przyciągają kasę do naszej branży.

Lekarz np. od operacji oczu, dentysta/implantolog moze otworzyc wlasna praktyke i zatrudniac innych lekarzy, wiec da sie skalowac.

3

@Rajmon: No nie ma bo musiałeś coś zmyślić aby oszukać samego siebie, przełom nie musi wystąpić w sieciach, w szczególności że już nie raz okazywało się że sieci nie rozwiązują wszystkich problemów nieseparowanych liniowo, równie dobrze może to być połączenie kilku algorytmów na wzór boostingu, użycie kilku dużych modeli na wzór baggingu, a dlaczego miało by dojść do przełomu, bo jescze nigdy nie popłynęły takie fundusze, dodatkowo powstały procesory specjalnie skrojone pod AI samo użycie GPU miało większy wpływ niż LSTM który z tego co pamiętam głównie wykorzystywany w szeregach czasowych, ja tego używam głównie jako regresora, co więcej tak naprawdę nie wiem jakie są granice LLMów w teorii wynik klasyfikacji może poprawiać się wraz z większa ilością danych, w szczególności gdy będziemy poprawiać jakość danych
@Michał karwec

Po kolei:

przełom nie musi wystąpić w sieciach, w szczególności że już nie raz okazywało się że sieci nie rozwiązują wszystkich problemów nieseparowanych liniowo, równie dobrze może to być połączenie kilku algorytmów na wzór boostingu, użycie kilku dużych modeli na wzór baggingu

"NieseparowaLNych" - rozumiem, że to literówka :) Nie rozwiązują wszystkich, ale rozwiązywanie sporej części z nich to właśnie zadanie sieci neuronowych... Do rozwiązania problemu liniowego (a często też do rozwiązania tych mniej złożonych nieliniowych) wystarczą Ci prostsze modele, a czasem nawet po prostu wyprowadzenie równania... Nie rozumiem co chciałeś wnieść w ten sposób do tematu. Możliwe, że informację iż przerobiłeś kurs ML na poziomie podstawowym :)

W jaki sposób łączenie modeli miałoby wpłynąć na ich zdolność do zapamiętywania i rozumienia wielu równoległych kontekstów? Możesz rozjaśnić. Ani boosting ani bagging nie są narzędziami rozwiązującymi te problemy...

To co robisz to czysta spekulacja w żaden sposób nie dająca podkładki do głoszenia, że "na pewno dokonamy przełomu" a tym bardziej do zarzucania syndromu wyparcia osobom, mającym bardziej sceptyczny pogląd na ten temat...

a dlaczego miało by dojść do przełomu, bo jescze nigdy nie popłynęły takie fundusze

Gdybyśmy tylko w naszej historii znali przypadki problemów, których pomimo szczodrego finansowania nie udało się rozwiązać... Zwłaszcza w krótki czasie :)

Ponownie - tylko spekulujesz.

dodatkowo powstały procesory specjalnie skrojone pod AI samo użycie GPU miało większy wpływ niż LSTM który z tego co pamiętam głównie wykorzystywany w szeregach czasowych, ja tego używam głównie jako regresora

Zacznijmy od tego, że poza tym iż LSTM są faktycznie wykorzystywane do prognozy szeregów czasowych (i w kursach ML na poziomie podstawowym do tego je wykorzystasz :)), to były one wiodącym typem architektury wykorzystywanym do tworzenia modeli językowych przed 2017 rokiem. Stwierdzenie więc, że użycie GPU miało większy wpływ na rozwój zdolności przetwarzania kontekstów niż LSTM to czysta ignorancja... NAJPIERW musisz mieć model zdolny do rozumienia kontekstu... Dopiero potem potrzebujesz mocy obliczeniowej do jego treningu na dużych zbiorach danych... Samo dokładanie mocy obliczeniowej jest skuteczne do pewnego momentu i nie rozwiązuje problemów wynikających z architektury...

Jest oczywiście istotne, bo pozwala na eksperymentalne trenowanie dużych modeli... Ale twierdzenie, że moc obliczeniowa jest dla rozwoju AI ważniejsza niż architektura modeli jest po prostu głupie.

co więcej tak naprawdę nie wiem jakie są granice LLMów w teorii wynik klasyfikacji może poprawiać się wraz z większa ilością danych, w szczególności gdy będziemy poprawiać jakość danych

Znamy niektóre granice LLMów... Między innymi te dotyczące zdolności do rozumienia kontekstu :)

W teorii dokładanie coraz większej ilości danych może też ograniczać zdolność modelu do generalizacji... Ponownie - to nie jest problem liniowy typu: więcej danych = lepszy model.

Plus tak na marginesie: LLMy to nie są modele klasyfikacji...

Podsumowując:

Czy ja krytykuję twierdzenie "Możemy dokonać przełomu w rozwoju architektury modeli pozwalający na zastępowanie programistów"? Oczywiście, że nie.

To co ja krytykuję to projekcie umysłu typu: "Dokonamy przełomu w rozwoju architektury modeli pozwalającego na zastępowanie programistów w niedługim czasie. A wszyscy bardziej sceptyczni mają syndrom wyparcia."

Na koniec apel:

Na przyszłość postaraj się mieć przynajmniej jedną z tych dwóch rzeczy:

  1. Pojęcie o tematach na które się wypowiadasz
  2. Instynkt samozachowawczy dzięki któremu nie będziesz wypowiadał się na tematy o których nie masz pojęcia.
0

@Rajmon Zdolność zapamiętywania to jeden z problemów, czy najgorszy, Jeżeli chodzi o zapamiętywanie to jest na to prosty sposób, przeuczyć model na istniejącym kodzie, tu masz pierwszą prognozę przełomu czyli TPUs przy większych projektach może być to opłacalne, i nie oznacza że trzeba przeuczać cały model nie wszytki architektury to model-monolit, po drugie okno tokenizacji rośnie szybko gpt3 to było chyba 16 albo 32ktokenów, gemini ultra ma już 130k, dodatkowo dlaczego chcesz pracować na całym kodzie czy jakiś informatyk zna cały kod projektu czy bazuje na jego fragmentach

Dlaczego wspomniałem o problemach nieseparowanych bo to nie pierwsze lato w AI, większym problem jest i było jego błędy w przypadku llmow słynne "halucynacje" wynikające z samego modelu czy promptu napisanego odmiennie od oczekiwań, tutaj najczęściej przychodziła "zima" AI jak chociażby perceptrony które też miały być wielką rewolucją ale nie radził sobie z problemami nielinowymi
dziś większym problemem llmow są jego blednę odpowiedzi, jak z tym walczyć, były pomysły aby zapętlić kilka dużych modeli, można rozważyć dodanie innych algorytmów korygujących informacje na wyjściu czy wejściu,czy działania podobne do boostingu czy baggingu

Większa ilość danych, danych dobrze oczyszczonych będzie poprawiać model,

"Znamy niektóre granice LLMów... Między innymi te dotyczące zdolności do rozumienia kontekstu :)"

to ciekawe jakie to są granice, jest to bardzo ciekawe

Z miła chęcią zobaczę też dowód że większa ilość oczyszczonych danych nie poprawia jakości modelu

Co do LSTM co ci po nim bez mocy obliczeniowej, co chcesz zrobić z sieciami jak nie masz mocy obliczeniowej, gpt itp też by nie odniosły sukcesu gdyby nie gigantyczne moce obliczeniowe, chociaż to rozmowa co jest ważniejsze silnik czy koła w samochodzie

Ponownie - tylko spekulujesz.

Nie to nie jest spekulacja, a przypuszczanie/przewidywanie i ty robisz to samo

5
Michał karwec napisał(a):

https://vulcanpost.com/853029/dont-learn-to-code-jensen-huang-on-career/

Coraz więcej głosów mówiących o tym że w niedalekiej przyszłości zawód programisty jest zagrożony

Ile to jest "niedaleka przyszłość"?
Bo ja słyszę to już od 15 lat.

11
  • Programiści php mieli wyginąć przez js'a
  • Web developerzy mieli wyginąć przez wordpressa
  • Korpo programiści mieli wyginąć przez toole typu RPA, które miały pozwolić tworzyć pełnoprawne aplikacje przez biznes

Do tej listy już nawet nie chce mi się dopisywać coboli, delphi i innych egzotyków, które również miały wyginąć a jakimś trafem nadal istnieją takie projekty (nie mało) i regularnie rekrutują ludzi.

Wszystkie te "końce świata" są obwieszczane co najmniej od dekady i nadal nic takiego się nie stało. Niektórzy to serio powinni czasami zdjąć tą aluminiową czapkę i przewietrzyć trochę głowę.

7

jakbym sprzedawał łopaty, to też bym mówił że przyszłość jest w kopaniu :D

3

@Michał karwec - Czyli zdecydowałeś się odpowiedzieć tylko na część posta w dodatku nie dotyczącą sedna moich zarzutów wobec Ciebie i jeszcze zrobić to błędnie- ok :)

Tym razem krótko:

Jeżeli chodzi o zapamiętywanie to jest na to prosty sposób, przeuczyć model na istniejącym kodzie

Ty sam to wymyślasz, czy ktoś Ci to pisze? Przeuczymy duży model na istniejącym kodzie i co dalej? Już pomijam fakt jak bardzo karkołomne jest to zadanie, jak bardzo wymaga poetykietowania danych nie tylko o strukturze samego kodu, ale też problemów biznesowych, które rozwiązuje etc... Dodatkowo ilość danych potrzebna, żeby fine tuningować model do rozumienia pełnego kontektu biznesowego i technicznego aplikacji jest ogromna... A Ty chcesz sobie beztrosko przetrenowywać model po każdej zmianie :D

Zauważ, że wielkodusznie nie przyczepiłem się do nieostrożnego użycia słowa "przeuczyć" ...

Nie mogę Cię rozgryźć... niby słownictwo, którego starasz się używać wskazuje, że coś tam liznąłeś a czasem wypowiadasz się jak totalny laik i ignorant.

czy jakiś informatyk zna cały kod projektu czy bazuje na jego fragmentach

"jakiś informatyk" jest w stanie o wiele szybciej i bardziej wydajnie przeskakiwać poszczególnymi fragmentami kodu a także uczyć się ich wzajemnych zależności niż LLM...

Dlaczego wspomniałem o problemach nieseparowanych bo to nie pierwsze lato w AI

To dalej nie wnosi nic do meritum dyskusji, poza chęcią użycia "fachowego" słownictwa... Wierz mi... Siedzę w tym 10 lat. Nie zaimponowałeś :P Poza tym przyznaj się - wymyśliłeś to teraz :D W przeciwnym razie wcześniej chociaż byś o tym wspomniał.

utaj najczęściej przychodziła "zima" AI jak chociażby perceptrony które też miały być wielką rewolucją ale nie radził sobie z problemami nielinowymi

Rozumiem, że twierdzisz, że współczesne modele nie opierają się na koncepcji perceptronów? :D Sądzę, że mógłbyś się zdziwić :) Dodaj, że chodziło Ci o perceptron Rosenblatta.. będzie bardziej fachowo :D

to ciekawe jakie to są granice, jest to bardzo ciekawe

Kilka z brzegu: problem z poprawnym rozumieniem dłuższych sekwencji tekstu zawierających wiele równoległych kontekstów, ograniczona zdolność do wnioskowania, ograniczenie ilości tokenów...

Z miła chęcią zobaczę też dowód że większa ilość oczyszczonych danych nie poprawia jakości modelu

Proszę bardzo. W naszym uproszczonym przykładzie weź sobie dowolny model, którego architektura nie jest w stanie idealnie zamodelować Twojego problemu i sprawdź czy osiągniesz 100% skuteczności poprzez samo zwiększanie danych treningowych.

Chłopie nawet jak tworzysz sieć neuronową rozwiązującą dany problem, to iteracyjnie dobierasz jej optymalne hiperparametry, gęstość i rodzaje warstw głębokich, funkcje aktywacji, funkcje błędu etc... Że też nikt do tej pory nie wpadł, że wystarczyłoby po prostu zwiększyć liczbę danych... xD

Próg do którego zwiększanie liczby dobrej jakości danych treningowych poprawia skuteczność modelu, jest ściśle związany z jego architekturą i jej dopasowaniem do problemu.

Co do LSTM co ci po nim bez mocy obliczeniowej, co chcesz zrobić z sieciami jak nie masz mocy obliczeniowej, gpt itp też by nie odniosły sukcesu gdyby nie gigantyczne moce obliczeniowe, chociaż to rozmowa co jest ważniejsze silnik czy koła w samochodzie

Nie manipuluj... Ja wyraźnie podkreśliłem, że kwestia mocy obliczeniowej również jest kluczowa a moja krytyka dotyczyła Twojego stwierdzenia, że jest ważniejsza niż same ograniczenia wynikające z architektury modeli.

Nie to nie jest spekulacja, a przypuszczanie/przewidywanie i ty robisz to samo

Nie misiu tęczowy - nie jesteśmy tacy sami. Ty wygłaszasz tezy pewne i zarzucasz syndrom wyparcia tym, którzy się z Tobą nie zgadzają.. Ja wskazuję, że w tym momencie nie ma podstaw, żeby twierdzić, że w najbliższym czasie z pewnością osiągniemy przełom, że istnieją poważne argumenty (nawet zwykłe rozumowanie indukcyjne i wielokrotnie wspominane przez Ciebie "zimy" w AI) za tym, że nie osiągniemy oraz, że dyskusja na ten temat jest otwarta, w żadnym zaś razie tego nie wykluczając.

1 użytkowników online, w tym zalogowanych: 0, gości: 1