Nieakceptowanie odpowiedzi od ChatGPT

9

tl;dr;

Myślę, że jeśli pytający zadaje trywialne pytanie, na które odpowiedź można uzyskać pytając chatGPT to co powinniśmy zrobić:

  • ✓ Napisać "możesz o to spytać chatGPT" (i nawet podlinkować https://chat.openai.com/)
  • X Nie powinniśmy sami wklejać pytania w ChatGPT a potem przeklejać odpowiedzi

Overview

Nie jestem do końca przekonany czy powinniśmy akceptować na forum odpowiedzi od ChatGPT. Myślę że nie potrzebujemy takich wklejek - jak ktoś będzie chciał odczytać co ChatGPT ma do powiedzenia na jakiś temat to niech jemu zada pytanie, a nie na forum.

PS: Na StackOverflow widzę że już od dawna nie akceptują odpowiedzi od ChatGPT.

Jeśli mielibyśmy akceptować odpowiedzi od chat gpt; to równie dobrze moglibyśmy napisać plugin do forum który automatycznie wkleja treść pytania do chatGPt i pokazuje odpowiedź; wtedy 4programmers.net staje się proxy na chatgpt.

Są wyjątki - to znaczy jeśli ktoś jawnie zapyta "Czy ktoś kto ma abonament na ChatGPT mógłby mi sprawdzić to i owo", to w porządku - w dziale Off-Topic albo hardware/software może to mogłoby być okej. Ale jeśli ktoś zadaje normalne pytanie, dla przykładu w dziale Java ktoś zapyta "Jak poprawnie zinvalidować cache?", to pod takim pytaniem odpowiedzi z ChatGPT nie powinny być akceptowane.

1

Ja popieram nieakceptację odpowiedzi od ChatGPT. Natomiast moim zdaniem problem jest inny, a on wynika właśnie z tego, że każdy może sam zapytać bota.

Problemem jest złośliwość i brak empatii niektórych "starych wyjadaczy'. Ktoś wkleja odpowiedź z ChatGPT lub z Google (jakiś czas temu popularne były linki do https://letmegooglethat.com/ ) bądź komentarz "znalazłem w Google w ciągu 10 sekund" nie po to, żeby udzielić odpowiedz, tylko po to, żeby wyrazić złośliwość wobec użytkownika, który zadał proste pytanie, na które odpowiedź można znaleźć samodzielnie w ciągu kilku sekund.

Ja sam czasem udzielam odpowiedzi na bardzo podstawowe pytania, ale bez złośliwości, jedynie sugeruję, co wpisać w Google lub podaję jakiś link. W większości przypadków taka informacja wystarczy, Ktoś się o coś pyta, ale nie wie, jak się nazywa lub jak się używa.

3

Niektórzy mają abonament na ChatGPT i takie odpowiedzi mogą być przydatne osobom, które chcą porównać wyniki itp.

Poza tym nawet darmowy chat wymaga rejestracji.Więc wklejanie odpowiedzi to też ułatwienie dla pytającego.

Myślę, że można na forum wprowadzić specjalny tag dla wklejek z Chat GPT (np. ikoną czatu), żeby je oznaczyć i zachęcić użytkowników do wklejania tekstu zamiast zrzutów ekranu.

0
Spine napisał(a):

Niektórzy mają abonament na ChatGPT i takie odpowiedzi mogą być przydatne osobom, które chcą porównać wyniki itp.

Poza tym nawet darmowy chat wymaga rejestracji.Więc wklejanie odpowiedzi to też ułatwienie dla pytającego.

To na pewno byłaby wartościowa funkcjonalność, ale w serwisie który stara się być "proxy dla ChatGPT".

Na forum, gdzie powinny być prowadzone debaty i pomoc innym użytkownikom, uważam że to nie jest akceptowalne.

Myślę, że można na forum wprowadzić specjalny tag dla wklejek z Chat GPT, żeby je oznaczyć i zachęcić użytkowników do wklejania tekstu zamiast zrzutów ekranu.

Jeśli już, to kategoria "Off-topic", z explicitly zadanym pytaniem "Czy ktoś kto ma abonament GPT mógłby mi porównać wynik".

Ale jeśli ktoś w dziale Java zadaje pytanie jak zrobić relację wiele-do-wielu, to wklejanie odpowiedzi z ChatGPT powinno nie być akceptowane.

5

Na pewno przydałoby się, żeby odpowiadający sprawdził czy to co mu wyplul czat jest prawdą i z sensem.

2

Ogólnie nie mam za bardzo nic do odpowiedzi z AI dopóty, dopóki ktoś jasno i wyraźnie zaznaczy, że coś pochodzi od AI i że się pod tym podpisuje. W końcu czym to się różni od skopiowania kawałka tekstu z StackOverflow?

To, z czym mam konkretnie problem to ludzie, którzy używają AI do spamowania (nie mówię tylko o 4programmers) rozmaitych forów - tutaj powinny lecieć bany. Problem jest co prawda z wykrywaniem takich postów, ale piszę o zasadach, nie o implementacji.

0
kzkzg napisał(a):

Na pewno przydałoby się, żeby odpowiadający sprawdził czy to co mu wyplul czat jest prawdą i z sensem.

Tylko że jeśli ktoś już ma to robić, to równie dobrze mógłby sam napisać taką odpowiedź.

A jeśli nie ma kompetencji żeby odpowiedzieć na pytanie, to tym bardziej nie ma żeby sprawdzić czy to co ChatGPT wypluł ma sens.

6

To tak samo jakby zabronić odpowiadającym na forum dla matematyków używania kalkulatora, czy nawet wolfram alpha itp.

Jeśli odpowiedź maszyny jest wystarczająca to ja nie widzę potrzeby, żeby dla samej zasady człowiek się wysilał.

A najlepiej byłoby przy okazji uczyć pytających jak mają sobie radzić sami (używając wyżej wymienionych narzędzi). To rozwinie ich kompetencje i ułatwi życie.

Oczywiście forum traci na tym zyski, bo ruch może zmaleć, ale w końcu chodzi nam o to, żeby pomagać ludziom, czy portfelom właścicieli?

3
Spine napisał(a):

To tak samo jakby zabronić odpowiadającym na forum dla matematyków używania kalkulatora, czy nawet wolfram alpha itp.

Fałszywa analogia - to nie jest to samo, i właśnie z uwagi na to że to nie jest to samo dobrze byłoby pozwalać na jedno, a nie pozwalać na drugie.

Skopiowanie wyniku kalkulatora czy wyniku z wolfram alpha to jest coś innego niż skopiowanie odpowiedzi z ChatGPT; chociażby dlatego że:

  • z wynikiem z kalulatora czy WolframAlpha nie można się kłócić, nie ważne czy odpowiadający przeprowadził kalukacje na kartce, w kalkulatorze czy przez wolfram alfa, jego odpowiedź będzie taka sama. Odpowiedzi z ChatGPT czasem są bardzo wątpliwej jakości.
  • ich wyniki są bardzo powtarzalne - czyli zadasz 10x to samo pytanie, dostaniesz 10x tą samą odpowiedź; z chatGPT tak nie ma, bo możesz zadać to samo pytanie kilka razy i dostaniesz inne odpowiedzi
  • ich wyniki są przewidywalne - czyli nawet zanim coś wpiszesz w kalukator czy wolfram alpha, możesz te sam kalkulacje przeprowadzić na papierze, i kalkulator czy WA da Ci taką samą odpowiedź, można tego użyć do weryfikacji swoich obliczeń. Z ChatGPT sytuacja jest już inna, bo nie sposób jest przewidzieć co on Ci odpowie.

Nadal można by:

  • cytować dokumentację
  • korzystać z fiddle'ów (i wkleić ich wynik)
  • korzystać z runnerów kodu (jak repl, runit, runeverywhere) i wkleić ich wynik
  • wkleić link do StackOverflow
  • wkleić link do wikipedii
  • wkleić link do wolfram alpfa i wkleić jej wynik

Ale moim zdaniem wklejanie odpowiedzi z ChatGPT nie powinno być akceptowane.

2

Tez się nad tym zastanawiałem, bo kilka razy mi mignęła odpowiedż od AI, poznałem po tym, ze była oznaczona (ciekawe ile nie było oznaczonych).
Wewnętrznie mam przekonanie, że to nie jest dobre, ale to na poziomie emocjonalnym.
Praktycznie, można dać zakaz w regulaminie, ale wtedy zmieni się tylko to, że takie odpowiedzi nie będą podawały źródła.
Chyba nie ma dobrego rozwiązania, a takim "nieakceptowaniem" mozemy wzniecić polemikę, czy odpoiwadał autor posta, czy czatGPT.

3

ChatGPT dołącza się do dyskusji...

Cześć!

Rozumiem, że na forum 4programmers pojawia się dyskusja na temat zakazu używania ChatGPT przez użytkowników. Chciałbym podzielić się kilkoma argumentami, które mogą przekonać do niezabraniania korzystania z tego narzędzia. Oto kilka powodów, dlaczego ChatGPT może być wartościowym zasobem dla społeczności programistycznej:

  1. Pomoc w rozwiązywaniu problemów: ChatGPT, jako zaawansowany model językowy, może być użytecznym narzędziem do rozwiązywania problemów i udzielania porad programistycznych. Może dostarczać szybkich odpowiedzi i wskazówek, co przyspiesza proces nauki i rozwoju umiejętności programistycznych.

  2. Dostęp do różnorodnej wiedzy: ChatGPT ma dostęp do szerokiego zakresu informacji i może pomóc w dostarczaniu zróżnicowanych perspektyw na temat programowania. Użytkownicy mogą skorzystać z jego wsparcia, aby poznać nowe technologie, rozwiązania problemów czy nawet dowiedzieć się o najnowszych trendach w branży.

  3. Interakcje społecznościowe: ChatGPT może służyć jako narzędzie do interakcji społecznościowej na forum. Może to pomóc w pobudzeniu dyskusji, wymianie pomysłów i rozwinięciu społeczności programistycznej. Użytkownicy mogą zadawać pytania, a ChatGPT może odpowiadać na nie w sposób zarówno edukacyjny, jak i zabawny.

  4. Wsparcie dla nowych użytkowników: ChatGPT może być przydatny dla nowych użytkowników, którzy dopiero zaczynają przygodę z programowaniem. Może udzielać prostych odpowiedzi na podstawowe pytania i pomagać w zrozumieniu podstawowych koncepcji programistycznych. To może zachęcić nowych użytkowników do angażowania się w społeczność i rozwijania swoich umiejętności.

  5. Rozwijanie umiejętności komunikacyjnych: Korzystanie z ChatGPT może również pomóc programistom w rozwijaniu umiejętności komunikacyjnych. Mogą praktykować wyrażanie swoich myśli w sposób klarowny i zwięzły, co jest ważne w branży technologicznej. Ponadto, interakcje z ChatGPT mogą dostarczać przykładów, jak wyjaśniać skomplikowane koncepcje techniczne w sposób prosty i zrozumiały.

Oczywiście, istnieje zawsze ryzyko nadużywania narzędzi AI, takich jak ChatGPT. Jednak zamiast zakazywać jego używania, warto rozważyć ustalenie wytycznych i regulacji dotyczących jego używania na forum. Na przykład, można ograniczyć liczbę pytań, które użytkownicy mogą zadawać ChatGPT w określonym czasie, lub zachęcać do potwierdzania odpowiedzi przez innych użytkowników.

Wprowadzając regulacje i wytyczne, można kontrolować i zarządzać korzystaniem z ChatGPT, jednocześnie umożliwiając użytkownikom korzystanie z jego zalet. Daje to szansę na połączenie potencjału sztucznej inteligencji z wiedzą i doświadczeniem społeczności programistycznej.

Mam nadzieję, że te argumenty przekonają do niezabraniania korzystania z ChatGPT na forum 4programmers.

1

@Spine: Jeśli jakiś świeżak zada pytanie które jest banalne, i łatwo można znaleźć na nie odpowiedź używając ChatGPT; to co ja proponuję:

  • Można napisać "Skorzystaj z ChatGPT"
  • Nie można: wpisać pytania OP i przekopiować odpowiedź

@Spine: Możesz podać przykład pytania które zadał OP, i według Ciebie jest zasadne żeby przekleić odpowiedź z ChatGPT?

1
Spine napisał(a):

ChatGPT dołącza się do dyskusji...

Cześć!

Rozumiem, że na forum 4programmers pojawia się dyskusja na temat zakazu używania ChatGPT przez użytkowników. Chciałbym podzielić się kilkoma argumentami, które mogą przekonać do niezabraniania korzystania z tego narzędzia. Oto kilka powodów, dlaczego ChatGPT może być wartościowym zasobem dla społeczności programistycznej:

  1. Pomoc w rozwiązywaniu problemów: ChatGPT, jako zaawansowany model językowy, może być użytecznym narzędziem do rozwiązywania problemów i udzielania porad programistycznych. Może dostarczać szybkich odpowiedzi i wskazówek, co przyspiesza proces nauki i rozwoju umiejętności programistycznych.

  2. Dostęp do różnorodnej wiedzy: ChatGPT ma dostęp do szerokiego zakresu informacji i może pomóc w dostarczaniu zróżnicowanych perspektyw na temat programowania. Użytkownicy mogą skorzystać z jego wsparcia, aby poznać nowe technologie, rozwiązania problemów czy nawet dowiedzieć się o najnowszych trendach w branży.

  3. Interakcje społecznościowe: ChatGPT może służyć jako narzędzie do interakcji społecznościowej na forum. Może to pomóc w pobudzeniu dyskusji, wymianie pomysłów i rozwinięciu społeczności programistycznej. Użytkownicy mogą zadawać pytania, a ChatGPT może odpowiadać na nie w sposób zarówno edukacyjny, jak i zabawny.

  4. Wsparcie dla nowych użytkowników: ChatGPT może być przydatny dla nowych użytkowników, którzy dopiero zaczynają przygodę z programowaniem. Może udzielać prostych odpowiedzi na podstawowe pytania i pomagać w zrozumieniu podstawowych koncepcji programistycznych. To może zachęcić nowych użytkowników do angażowania się w społeczność i rozwijania swoich umiejętności.

  5. Rozwijanie umiejętności komunikacyjnych: Korzystanie z ChatGPT może również pomóc programistom w rozwijaniu umiejętności komunikacyjnych. Mogą praktykować wyrażanie swoich myśli w sposób klarowny i zwięzły, co jest ważne w branży technologicznej. Ponadto, interakcje z ChatGPT mogą dostarczać przykładów, jak wyjaśniać skomplikowane koncepcje techniczne w sposób prosty i zrozumiały.

Oczywiście, istnieje zawsze ryzyko nadużywania narzędzi AI, takich jak ChatGPT. Jednak zamiast zakazywać jego używania, warto rozważyć ustalenie wytycznych i regulacji dotyczących jego używania na forum. Na przykład, można ograniczyć liczbę pytań, które użytkownicy mogą zadawać ChatGPT w określonym czasie, lub zachęcać do potwierdzania odpowiedzi przez innych użytkowników.

Wprowadzając regulacje i wytyczne, można kontrolować i zarządzać korzystaniem z ChatGPT, jednocześnie umożliwiając użytkownikom korzystanie z jego zalet. Daje to szansę na połączenie potencjału sztucznej inteligencji z wiedzą i doświadczeniem społeczności programistycznej.

Mam nadzieję, że te argumenty przekonają do niezabraniania korzystania z ChatGPT na forum 4programmers.

Nie to, żeby coś ale żaden z tych - może z wyjątkiem czwartego -punktów nie dotyka sedna sprawy. Wszystkie sprowadzają się do zalet jako takiego korzystania z ChatGPT, ale oprócz wspomnianego punktu czwartego żaden nie dotyka przydatności na forum. A punkt trzeci to w ogóle odlot.

1

@Riddle, zrób ankietę.

0

Powinno być zabronione przeklejanie żywcem odpowiedzi z czata. Jak ktoś nie potrafi odpowiedzieć bez niego to też nie będzie potrafił zweryfikować odpowiedzi z czata.

2
Riddle napisał(a):

@Spine: Możesz podać przykład pytania które zadał OP, i według Ciebie jest zasadne żeby przekleić odpowiedź z ChatGPT?

Tutaj "ktoś" przekleił :]
Materiały, książki i portale po angielsku dla początkujących


A tutaj też można by wkleić odpowiedź z czatu: Czy liczba ofert pracy oraz zarobki programistów spadną przez ChatGPT4?

Jak wkleiłem sam temat, to dostałem taką odpowiedź:

Jako model językowy AI, nie posiadam informacji na temat przyszłych wydarzeń po moim cutoff date, który jest wrześniem 2021 roku. Nie mogę przewidzieć, jakie będą skutki wprowadzenia ChatGPT4 lub jego wpływ na rynek pracy dla programistów ani na ich zarobki.

Jednakże, ogólnie rzecz biorąc, wprowadzenie bardziej zaawansowanych technologii sztucznej inteligencji może mieć różnorodne skutki na rynek pracy. Zwiększenie efektywności i automatyzacja pewnych zadań może prowadzić do restrukturyzacji niektórych zawodów i zmniejszenia liczby ofert pracy w niektórych obszarach. Z drugiej strony, nowe technologie często tworzą również nowe możliwości i otwierają nowe dziedziny, które mogą generować nowe oferty pracy.

Dotycząc programistów, rozwój technologii sztucznej inteligencji może wpływać na sposób, w jaki pewne zadania programistyczne są wykonywane. Niektóre rutynowe zadania programistyczne mogą być zautomatyzowane, co może mieć wpływ na pewne specjalizacje. Jednak programiści mają unikalne umiejętności i wiedzę, które mogą być nadal potrzebne, szczególnie w dziedzinach takich jak projektowanie systemów, tworzenie zaawansowanych algorytmów czy zarządzanie projektami.

W końcu, wpływ technologii AI na rynek pracy jest wynikiem skomplikowanych czynników, takich jak tempo adopcji, dostępność innych zasobów, trendy gospodarcze i społeczne. Dlatego jest trudno przewidzieć dokładnie, jak ChatGPT4 lub jakakolwiek inna technologia wpłynie na liczby ofert pracy i zarobki programistów.


Albo ten wątek: Przezroczysta grafika w Unity
Jak wkleiłem pierwsze zdanie "Dlaczego moja grafika w Unity jest bardziej przezroczysta niż w Photoshopie?", to czat mi odpisał:

Istnieje kilka czynników, które mogą wpływać na różnice w wyglądzie przezroczystości grafiki między Unity a Photoshopem. Oto kilka możliwych przyczyn:

  1. Format pliku: Photoshop obsługuje różne formaty plików graficznych, takie jak PNG, TIFF czy PSD, które mogą przechowywać informacje o przezroczystości w różny sposób. Unity natomiast zwykle używa formatu PNG lub innych formatów, które obsługują przezroczystość. Jeśli plik został zapisany w formacie, który nie zachowuje informacji o przezroczystości, może to powodować utratę przezroczystości po zaimportowaniu go do Unity.

  2. Ustawienia renderowania w Unity: Unity posiada różne ustawienia dotyczące renderowania grafiki, które mogą wpływać na wygląd przezroczystości. Na przykład, ustawienia materiałów, na których jest wyświetlana grafika, mogą mieć wpływ na jej przezroczystość. Może to obejmować wartości przezroczystości, tryb mieszania kolorów czy ustawienia shaderów. Sprawdź ustawienia renderowania w Unity, aby upewnić się, że są odpowiednio skonfigurowane.

  3. Przezroczystość wizualizacji: W Photoshopie możesz mieć różne tryby wizualizacji, które mogą wpływać na to, jak przezroczystość jest wyświetlana na ekranie. Może to obejmować tryb mieszania kolorów, ustawienia warstw czy ustawienia podglądu. Upewnij się, że w Photoshopie korzystasz z odpowiednich ustawień wizualizacji, aby uzyskać dokładniejszy podgląd przezroczystości.

  4. Błędy przy imporcie: Jeśli podczas importowania grafiki do Unity wystąpił błąd lub konwersja pliku, może to wpływać na jakość przezroczystości. Sprawdź, czy nie ma żadnych błędów przy imporcie pliku graficznego do Unity i czy plik został poprawnie przetworzony.

W przypadku różnic w wyglądzie przezroczystości między Unity a Photoshopem, warto przejrzeć te czynniki i sprawdzić, które z nich mogą mieć wpływ na ostateczny rezultat. Eksperymentowanie z ustawieniami i formatami plików może pomóc w osiągnięciu pożądanego efektu przezroczystości w Unity.

Gdyby OP przeczytał taką odpowiedź to już by miał jakieś pojęcie o problemie.

0
Spine napisał(a):

Gdyby OP przeczytał taką odpowiedź to już by miał jakieś pojęcie o problemie.

Tak, i to samo można powiedzieć o wszystkich wpisach w dokumentacji, wszystkich tutorialach, wszystkich tematach na StackOverflow i pewnie każdym materiale na necie jaki tylko istnieje - każde pytanie zadane na tym forum można sprowadzić do odpowiedzi "Gdyby tylko OP przeczytał X, to by miał jakieś pojęcie".

Ale nikt tutaj nie wkleja odpowiedzi ze stacka, nie przekopiowuje artykułów z wiki i nie przepisuje dokumentacji, tylko się odsyła pytającego do odpowiedniego miejsca - linkiem albo powiedzeniem "sprawdź dokumentację X", i tak samo powinno być z odpowiedziami z ChatGPT.

3

Wg mnie przyzwoitość wymaga, żeby ktoś jak wkleja coś z ChatGPT, żeby to zaznaczył jakoś (chyba, że to screenshot i od razu widać). Bo widziałem już wypowiedzi, które wyglądały jak typowe odpowiedzi ChatGPT, ale którym brakowało rozsądku i były to tematy, gdzie ktoś powinien powiedzieć OPowi "hola, to nie tak", natomiast ChatGPT jest znany z tego, że jak nie wie, to zmyśla, więc ta odpowiedź zawierała jakieś zmyślone rzeczy (bo OP o coś zapytał, drugi użytkownik przekleił do ChatGPT, a ten już popłynął).

Natomiast wrzucanie czegoś nieoznaczonego z ChatGPT zmniejsza ogólny poziom wiarygodności forum jako całości i zaufania do tego, że drugi człowiek nam faktycznie odpisze, a nie coś wrzuci z ChatGPT i nawet nie zaznaczy (o to zaznaczanie mi chodzi / uczciwość w przyznaniu, że to AI wymyśliła odpowiedź).

1

@Riddle: Może właśnie w tym problem, że Chat nie zapisuje odpowiedzi/zapytania w takiej formie, żebym mógł komuś wysłać linka?

0
Spine napisał(a):

@Riddle: Może właśnie w tym problem, że Chat nie zapisuje odpowiedzi/zapytania w takiej formie, żebym mógł komuś wysłać linka?

Ale nie może być linka do niczego takiego, bo jak zapytasz chatGPT kilka razy o to samo to dostaniesz różne odpowiedzi, więc nie może być czegoś takiego jak "link do pytania". No przecież o tym jest cały wątek.

Odpowiedzi z ChatGPT to po prostu nie jest coś co powinno się móc przekopiować i wkleić w odpowiedź jako rzetelny materiał.

3

Gdyby czat miał przycisk "share", który robi paste bin ze swoich odpowiedzi, to by dużo usprawniło.
Stronka pod takim linkiem zawierałaby datę, wersję chatu itd...

8
andrzejlisek napisał(a):

Problemem jest złośliwość i brak empatii niektórych "starych wyjadaczy'. Ktoś wkleja odpowiedź z ChatGPT lub z Google (jakiś czas temu popularne były linki do https://letmegooglethat.com/ ) bądź komentarz "znalazłem w Google w ciągu 10 sekund" nie po to, żeby udzielić odpowiedz, tylko po to, żeby wyrazić złośliwość wobec użytkownika, który zadał proste pytanie, na które odpowiedź można znaleźć samodzielnie w ciągu kilku sekund.

Jest takie stare przysłowie: Daj głodnemu rybę będzie syty przez jedne dzień, naucz go łowić ryby a już nie zazna głodu

Interpretowanie, że "starzy wyjadacze" są złośliwi bo pokazują, że google i/lub ChatGgpt są doskonałą pomocą to totalne nieporozumienie.
Dla mnie jest to uczenie kogoś łowić, a nie złośliwość.

We współczesnym świecie brak umiejętności korzystania z wyszukiwarek internetowych jest formą upośledzenia, taką samą jak 100 lat temu był analfabetyzm.
Rozumiem, że odbiorca takiego linka, możę postrzegać je jako złośliwość, bo zdaje sobie sprawę, że nie wykazał się podstawowymi umiejętnościami współczesnego świata.

Zwracam jeszcze uwagę, że linki letmegooglethatforyou zwykle pojawiają się w sezonie sesji na koniec semestru lub sesji poprawkowej. Wtedy jest wykwit ludzi, którzy uważają się za dar boży i obowiązkeim całego świta jest ich wyręczać w zdobywaniu edukacji (a raczej papierka na mgr).

0

Może powinienem dodać, że nie ma problemu z tym żeby ktoś napisał "zapytaj o X chatGPT".

Ale bezrefleksyjne przeklejanie odpowiedzi 1:1 powinno nie być akceptowane.

3

@Riddle: Hmm. Spoko. Ale to chyba normalne, że nie akceptuje się odpowiedzi, która nie rozwiązuje problemu. Niezależnie, czy tą odpowiedź wypluł czat, czy człowiek.
Nie martw się na zapas...

4

Z tym googlaniem to jest chęć pomocy ludziom. Ludzie tracą godziny (sami często piszą "straciłem godziny na tym") dlatego, że nie wyrobili sobie nawyku szukania w Google, StackOverflow, dokumentacjach czy czytania uważnie kodu albo debugowania go. Ile takich wątków jest, że komuś coś nie działa, a nawet nie przyjdzie mu do głowy, żeby wrzucić komunikat błędu w internet, tylko prosi na forum, żeby mu rozwiązać problem. Bywało, że znając jakąś technologię pewnie gorzej niż sam pytający, coś komuś pomogłem przez wrzucenie tego w Google i poświęcenie kilku minut.

Myślę, że podawanie tylko ryby ("masz rozwiązanie") jest byłoby antyedukacyjne. Szczególnie, że niektórzy po rozwiązaniu problemu A, zaraz będą zakładać wątek z kolejnym problemem i tak w kółko. Wszystko im trzeba rozwiązać.

W kontekście ChatGPT natomiast jeśli komuś się totalnie nie chce nic robić, tylko wrzuca tekst zadania i pyta, jaka jest odpowiedź, to co mu można odpowiedzieć? Żeby sobie sprawdził w ChatGPT. Albo celowo złośliwie napisać, że nie każdy musi mieć studia. Jeśli pytający ma totalnie lekceważące i roszczeniowe podejście, to czemu traktować te pytania poważnie?

2

Nie unikniemy nowości, ba to my powinniśmy takie rozwiązania promować. Myślę, że najlepsza opcja to zwykła konieczność oznaczenia takich treści. Może jakiś specjalny tag graficzny?
Na forum raz kojarzę jakiegoś gościa masowo wklejającego chata jako swoje odpowiedzi, co zresztą zaraportowałem.
Lata temu była ta sama dyskusja o umieszczeniu linków, a nie np. kopiowaniu. Pamiętam jak na forach ludzie zalecali linkowanie do źródeł (SEŁO raczkowało, a pozycja zależała też od ilości linków na innych stronach). Dziś C/P znalezionego przykładu i podpisanie "zobacz to" jest akceptowalne.

BTW.
Ciekawe jak mechanizmy AI będą się uczyć na własnych odpowiedziach, bo już teraz treści generowanych z chatu jest mnóstwo.

2

ChatGPT potrafi dobrze jedno: generować przekonywający potok słów. W większości z sensem, często z jakimś przekłamaniem. A czasami dostajemy kompletny odlot oderwany od rzeczywistości.
Dlatego traktuję AI przyjnajmniej na razie bardziej jako rozrywkę, bo odpowiedzi są po prostu niegodne zaufania.

0

A może by zatrudnić ChatGPT w roli moderatora? Co i rusz jeden czy drugi moderator a to jest oskarżany o brak bezstronności, a to utyskuje jak to musi poświęcać swój czas.

ChatGPT nie jest leniwy, jest odporny na krytykę, nie narzeka i w dodatku ma gotowe api.

0

Chyba jeszcze nikt, nie zadał tego pytania, a jak w ogóle banować odpowiedzi od chata GPT?

3

Cały ten temat to jakieś szukanie problemów na siłę i pogoń za stackoverflow, bo oni zbanowali, to my też musimy. Nie widziałem żadnej afery, żeby ktoś miał tutaj problemy z projektem przez odpowiedź od chatgpt na 4programmers albo żeby ktoś był przez to jakoś w błąd wprowadzony, czy możecie podać jakieś linki? Czy jest jakaś plaga na forum odpowiedzi od chatgpt, które są błędne? I czy są rzeczywiście gorsze od niepoprawnych odpowiedzi innych userów?

1 użytkowników online, w tym zalogowanych: 0, gości: 1