Jak to agencje marketingowe "zatrudniają" boty AI do spamowania Internetu

0

To żadna nowość choć coś co pojawia się coraz częściej i gęściej. Agencje reklamowe - zaczęły zasypywać strony trzecie spamem generowanym przez :inteligentne" boty. Na przykład taka inotic . pl - już zdobywa adresy (linki) do swojej strony za sprawą chyba GPT
https://www.45minut.pl/forum/viewtopic.php?f=50&t=18910#p156936
Czyli boty zaczynają robić spamy na różnych stronach - już nie dzieciaki czy nachalni spamerzy, ale już automaty nasłane przez różne osoby. To duże zagrożenie, a temat ciekawy. Bo zobaczcie na to, jak boty wkręcają swoje wypowiedzi.

I teraz najciekawsze jest to, że niebawem powstanie ogromne zapotrzebowanie na ochronę przed tego typu działaniami. Filtry do ich agenta, czy coś czego AI nie przeskoczy jak człowiek. Bo zwykłe kody obrazkowe, czy logiczne łamigłówki stają już się za proste, do ochrony przed kierowanym spamem z botów AI.

Bez wątpienia też niebawem boty zaczną same wyszukiwać miejsca spamowe a nie będą one już miały tylko wskazywanego - na pewno na bazie listy skryptów i procedur rejestracyjnych. Niebawem kto wie czy nie będą powstawały strony, gdzie same boty zaczną gadać ze sobą aby generować i odsyłacze ale i ruch. To już jest pewne na najbliższy czas... jak to że coraz więcej stron www jest w 100% z opracowaniami przez same AI bez inwencji autorskiej człowieka (mowa o treściach stron).

Jak wam się widzi przyszłość Internetu już niebawem, skoro tak wszystko zaczyna powoli być przeplatane przez AI? A ludzie nie cofną się przed niczym nawet po stronie ZŁA.. jak widać, a także te czarne sztuczki będą coraz bardziej przebiegłe.

0

boty dodatkowo generują opinie dla produktów w sklepach, opinie do usług w apkach do rezerwacji, itp itd

obecne trendy wskazują na to, że tego automatycznie generowanego i trudnego w rozpoznaniu syfu będzie coraz więcej.

możliwe, że rozwiązaniem byłaby jakaś forma https://en.wikipedia.org/wiki/Web_of_trust ale nie wgłębiałem się w to jeszcze

0

Wydaje mi się że sieć zaufania tak samo będzie z marszu mogła być generowana przez boty. Ludzie na FB przecież mają w znajomych ludzi nieznajomych. To żadne rozwiązanie jak przejdzie się dalej. Możliwe jak na teraz jest tylko wykrywanie schematów człowieka - obecnie technologie oparte są na tym, że obserwują zachowanie na witrynie czy to człowiek czy nie. Ale i to powoli zaczyna być symulowane przez boty. Na przykład miał w tym pomagać Clarity projekt - mapy cieplnej aktywności czy robot czy maszyna - ale to już też nie działa - nie przy tej technologii.

A temat jest bardzo ciekawy - bo niebawem ludzie nie będą wiedzieć czy mają do czynienia przez sieć z człowiekiem czy maszyną. W każdym typie ich zachowań a nawet wyrażanie opinii czy interakcji. Osobiście uważam, że jest to plaga i powinno być coś takiego karane za botowanie - ale niewykonalne - bo jak wykryjesz czy to ty - czy ktoś Tobie chce podrzucić świnie.

To jest temat jaki nas dotknie przy obecnym kursie - już bardzo poważnie i to wszystkich za najdalej 5 lat - ale raczej do 2-3 lat.

Niedawno dawałem Wam temat o autorytecie twórcy. To jest przymiarka Google idexu właśnie bo wie, że niebawem nie odróżnisz bota od człowieka w Internecie. Tematyka niezwykle ciekawa a mało kto ma świadomość bo się interesuje takimi zagadnieniami.

0
Cimron napisał(a):

Wydaje mi się że sieć zaufania tak samo będzie z marszu mogła być generowana przez boty. Ludzie na FB przecież mają w znajomych ludzi nieznajomych. To żadne rozwiązanie jak przejdzie się dalej.

można by dodać do tego sieć odradzania :) np. zaufane mi osoby oznaczające boty mogłyby pomóc mi w odsiewaniu botów. nie skreślał bym takich sieci od razu. być może po pewnych ulepszeniach dałyby radę.

0

Wydaje mi się, że to tak jak z tokenami i grami logicznymi dla botów w celu ochrony przed botami na stronach - one uczą się w to grać lub trenują je do tego trenerzy.

Zobacz prosty schemat logiczny. Przykład sieć weryfikacji oparta na strukturze FB (dla niej bo to już sama w sobie sieć kontaktów).. Na FB każdy może założyć konto - następnie na bazie znajomych ludzi tworzących profile opiera się weryfikacja - Bot nie bot - tak? Tylko że bot nie potrzebuje do znajomych wciągać człowieka bo stworzą sobie 200 profili i będą je rozwijać same boty i wzajemnie się lajkować i lubić. A wiec zyska już authority w ocenie tego bota skanującego - czy tożsamości (konta) są faktyczne czy botowe.

Idziemy dalej - zakładamy że sieć powiązań musi mieć stare konta co najmniej % ich - schemat ten sam. Zaczną być sprzedawane konta stare i reaktywowane - jak obecnie sprzedawane stare domeny z historią danych stron - jakich nie ma a były na tych adresach.

Ze strony logicznej jest to bardzo bardzo trudne na dziś - kiedy boty to tylko "AI" a nie AI. Ale to goni już tak szybko, że za rok to będzie zupełnie nowa generacja a za 2 lata już nie 2 generacja ale prędzej 4. Tym samym za 3 lata prędzej 8 niż 3.

Technologicznie jest pewne - że człowiek nie odróżni maszyny już w najbliższym czasie przez Internet czy media. Systemy weryfikacji też postępują ale względem tego pierwszego zwalniają gdy AI przyspiesza. Linia przecięcia będzie pewnie do 2 lat przed nami. Ten z przykładu bot nie jest szkolony do tego co tam wykonał - ale zaczną być i nie będzie już słów rozpoznawalnych i samo przyznania się do tego że to bot i nie wyniknie to z tekstu.

Był taki projekt - boty nie popełniają błędów (zapomniałem jak to się nazywało) weryfikowało w tym, że bot nie robił błędu w pisowni czy odstępach itp. Ale one już też potrafią symulować błędy dowolnej maści. Tutaj właśnie patrzymy na zmieniający się świat... ale nie wiele to osób dostrzega.

1
Cimron napisał(a):

Wydaje mi się, że to tak jak z tokenami i grami logicznymi dla botów w celu ochrony przed botami na stronach - one uczą się w to grać lub trenują je do tego trenerzy.

Zobacz prosty schemat logiczny. Przykład sieć weryfikacji oparta na strukturze FB (dla niej bo to już sama w sobie sieć kontaktów).. Na FB każdy może założyć konto - następnie na bazie znajomych ludzi tworzących profile opiera się weryfikacja - Bot nie bot - tak? Tylko że bot nie potrzebuje do znajomych wciągać człowieka bo stworzą sobie 200 profili i będą je rozwijać same boty i wzajemnie się lajkować i lubić. A wiec zyska już authority w ocenie tego bota skanującego - czy tożsamości (konta) są faktyczne czy botowe.

jeśli założymy, że ufam tylko osobom, co do których mam zaufanie, że podobnie jak ja weryfikują inne osoby, którym ufają, to żeby uzyskać jak najlepsze https://en.wikipedia.org/wiki/Web_of_trust#Mean_shortest_distance nie wystarczyłoby botom tworzenie odległych (licząc długość łańcucha zaufania) sieci. boty musiałyby przekonać mnie albo moich uważnych znajomych, że zasługują na zaufanie. dodatkowo, jak napisałem, można by dodać możliwość oznaczania spamerów, ale nie wiem jak to zrobić dobrze, bo nie wgłębiałem się w temat. jeszcze raz powtórzę, że nie należy skreślać tego pomysłu (z siecią zaufania) od razu. no chyba, że jesteś pesymistą i chcesz siać defetyzm.

analogia do facebooka jest średnia, bo na fejsie dodaję nie zaufane osoby, a raczej ogólnie zbieram pokemony (a w zasadzie od paru dobrych lat to praktycznie nie wchodzę na fejsa, więc nic się u mnie nie dzieje). gdybym miał budować sieć zaufania to kierowałbym się zupełnie innymi kryteriami niż przy budowaniu wirtualnej sieci znajomości na pokaz (bo w sumie zdecydowana większość tej sieci nie była potrzebna).

Cimron napisał(a):

A temat jest bardzo ciekawy - bo niebawem ludzie nie będą wiedzieć czy mają do czynienia przez sieć z człowiekiem czy maszyną. W każdym typie ich zachowań a nawet wyrażanie opinii czy interakcji. Osobiście uważam, że jest to plaga i powinno być coś takiego karane za botowanie - ale niewykonalne - bo jak wykryjesz czy to ty - czy ktoś Tobie chce podrzucić świnie.

też uważam, że karanie, a przede wszystkim wykrywanie źródła spamowania, jest niewykonalne.

0

To co podajesz brzmi dobrze, ale nie mogę zrozumieć tego sposób weryfikacji jako ogólnego czy ogólnodostępnego. Ludzie i znajomi utworzycie ze sobą zbiór powiazań - będzie on się przenikał i pewnie rozszerzał na kolejne zbiory. Powiedzmy że Ty jesteś węzłem i Twój zbiór to grono osób przez ciebie zweryfikowanych. Ten zbiór bez wątpienia będzie faktyczny tak na 95% załóżmy. I tutaj jest to działające - potem te inne osoby, by musiały mieć twoją determinację bo każdy z nich by był własnym węzłem - jaki przeplata się z Twoim. Więc jak z tego zrobisz ogólną weryfikację Bot nie bot ogólnodostępną?

W sensie taka strona jak ta - byś dał radę to wykonać jak byś zarządzał stroną. Ale tutaj pojawia się (mi się wydaje) problem, bo mogli by na niej przebywać czy podejmować indeksacje osoby tylko z twojego węzła. Wtedy masz te 100 czy 95% pewności skuteczności metody weryfikacji. Strona czyli zamknięta niemal na ludzi. Następnie jak dopuścić zaufanie z innych węzłów (ludzi) to ich autorytet oraz weryfikacja może bazować na innej procedurze czy dbałości niż Twoja. Na przykład Twój znajomy Maciek - tworzy osobny węzeł i ty masz Maciak w znajomych i zaufanych ale Maciek ma też Zenona a Zenon to bot udający już człowieka.

Może nie do końca rozumiem w jaki sposób to można wdrożyć lub mylę się co do tej zasady? Bo oczywiście jeśli węzły będą oznaczane - czyli ludzie sami wykryją sztuczne AI i oznaczą to węzły z dużym % AI mogą być flarowane. Ale wymaga to weryfikacji wszystkich węzłów a nie tylko pracy jednego. Samemu wierzę, że ludzie wymyślą sposoby na sposoby we wszystkim. A nie wszyscy ludzie są dobrzy i mały % ludzi co nie ma moralnych zasad potrafi napsuć krwi wszystkim pozostałym. A nie można odmawiać ludziom takim inteligencji, tylko "kręgosłupa" moralnego.

Nie widzę skuteczności takich działań, ale może dlatego że nie do końca rozumiem jak to ma działać. Bo w mojej ocenie, musi być to oparte na żywym potwierdzeniu - że ktoś jest żywy. Inaczej wszystko może być symulowane coraz lepiej. W przesłanym przez Ciebie dokumencie też oparcie opiera się na konieczności żywej weryfikacji jako problem. Bo wszystko pozostałe może być generowane przez maszynę -w dowolnym zakresie.

0
Cimron napisał(a):

Następnie jak dopuścić zaufanie z innych węzłów (ludzi) to ich autorytet oraz weryfikacja może bazować na innej procedurze czy dbałości niż Twoja. Na przykład Twój znajomy Maciek - tworzy osobny węzeł i ty masz Maciak w znajomych i zaufanych ale Maciek ma też Zenona a Zenon to bot udający już człowieka.

nie wiem jak ta sieć zaufania działa, ale zgaduję, że jeśli coś mi się pokazuje jako zaufane to widzę też łańcuch zaufania i jeśli zauważę spam (oznaczony jako coś zaufanego) to sprawdzę jaki ma łańcuch zaufania i np. na jego podstawie wyrzucę kogoś nieuważnego ze swojej sieci zaufania. wiadomo, że pomyłki się zdarzają. zakładam, że mechanizm sieci zaufania umożliwia korygowanie pomyłek.

0

Taki Blockchain tylko do weryfikacji tożsamości. Pomysł niezwykle ciekawy, choć wydaje mi się bardzo trudny do wdrożenia publicznego. Ale kto wie czy nie będzie to koniecznością. To lub coś dającego jakieś oparcie. Kto wie czy z czasem nie będą jakieś weryfikatory sprzedawane jako dołączane do komputerów - indywidulany zmienny klucz. Nie dający namiaru na człowieka i urządzenie ale weryfikujący że to żywe. A potem inni je podrobią .. a potem kolejni wymyślą drugą warstwę, a potem następnie ją ominą. Tak jak świat stary, wszystko niemal tak wygląda od poczatku. Wyścig zbrojeń jednych i drugich. A szczęśliwi ci co żyją w ewentualnej niewiedzy... tych zbrojeń i przemian na każdym szczeblu.

0

Ogólnie przyszłość kreuję się średnia. Widziałem mnóstwo postów z poradnikami jak generować posty na Instagram i inne platformy. Dosłownie poradnik pokazuje jak w 5 min zrobić 10 postów z jakimiś dennymi rzeczami. Widziałem też że w Amazonie była afera o książki robione przez AI które były lekkimi remiksami oryginałów. Używam internetu od małego i może to być już starcze gadanie ale kiedyś łatwiej było mi znaleźć cokolwiek. Teraz jak szukam czegoś i nie dopisze do zapytania konkretnej platformy gdzie podejrzewam że takie informacje są (np. Rust learning resources REDDIT) to raczej ich nie znajdę albo się namęcze.

0
Cimron napisał(a):

I teraz najciekawsze jest to, że niebawem powstanie ogromne zapotrzebowanie na ochronę przed tego typu działaniami.

To trochę jakby wprowadzić minimalną odpłatność za wizytę u lekarza pierwszego kontaktu. Pomysł może i dobry i nawet działa ale co z tego skoro przegrasz następne wybory? :(

0

Generacja gównotreści jest problemem, ja już nawet na 4p jak widzę jakieś nowe konto to z automatu traktuję je nieufnie. IMO wszystkie socjal media powinny ładować kasę w stworzenie systemów banujących korzystanie z generowanych postów (zwłaszcza jeśli nie ma treści) - tak profilaktycznie i bez ostrzeżenia. Nie to, żeby dało się taki system łatwo ogarnąć, ale w tych przypadkach w których komuś da się udowodnić, że AI pisze teksty - to wyrzucamy i lecimy.

Docelowym rozwiązaniem byłoby stworzenie "e-dowodu", który byłby wykorzystywany w różnych miejscach - ale tutaj problem jest taki, że firma stojąca za takową stałaby za wielką pokusą wykorzystania tego do własnych celów.

0

A to problem podrobić e-dowód? Jak podrobić da się wszystko w tych czasach. Ponownie weryfikacja tego dowodu czy jest prawdziwy, czy kopią czy fałszywy może być wykonana tylko na żywo w przypadku kopi. Dziś świadectwa uczelni i wszystko jest podrabiane i nie tylko na bazarze w kijowie ale wszędzie.

To będzie tematyka, jaka niebawem będzie zaprzątała bardzo poważnych graczy finansowych i pojadą na nią przegignatyczne pieniądze. Bo w sieci coraz trudniej odróżnić osobę żywą od generowanej. To co widzicie w AI OPEN na przykład - to jest model dla Was - ale tam w tle nie dla Was jest już dawno dużo dużo lepszy. I to żadne domysły tylko znajomość odrobiny tej tematyki. Wychodzi Procesor X jutro? To już dziś jest procesor X+2 w tle niepubliczny na zamówienie - jak już jest na widoku X+3 to wypuszczą X+1. Bo to też nie jest tak że firma niezależna komercyjna wyda ciastko i każdy ma różna szanse. To są powiazania akcyjne także a nie tylko biznes.

Wracając jednak do tematu - w ciągu 3 lat już będzie bardzo trudno odróżnić człowieka od maszyny w intencje. Obecnie już wiele stron jak pisałem wyżej ma 100% treść generowaną przez AI na wiele tematów. To było do przewidzenia, kiedy to AI mogło opracowywać wypracowania szkolne, czy tematyczne opracowanie.

Nawet warto zrobić mały test - niech AI napisze wam artykuł o tym jakie drewno wybrać, następnie - dasz mi komendę, podaj więcej z 3 - 4 razy i już masz długą treść. O samym drewnie możesz zrobić setki artykułów i każdy będzie inny - bo różnica pytania te wygeneruje inną treść. Dlatego korzystają z tego już nie tylko strony treści wszelakiej ale i powoli prasowe w tym tematyczne.

A tutaj pierwszy post - pokazuje że nowa bariera jest mijana, na razie topornie i kwadratowo ale się uładzi z czasem do pewnie niewykrywalności i to będzie zagrożenie. I to rosnące każdego roku bardziej.

0
wartek01 napisał(a):

Docelowym rozwiązaniem byłoby stworzenie "e-dowodu", który byłby wykorzystywany w różnych miejscach

To już e-fingerprint nie daje rady? Co za czasy...

0

Borek ze Smokiem to koszmary mają przez te boty 😄

1

Nie ma co panikować Google dokręci Captcha tak żeby się nie opłaciło.

Ostatnie pomysły na captcha to wykorzystanie mocy obliczeniowej, captcha np. przez 1min kopie BTC na twoim kompie. Jak nie spamujesz masowo to nie jest to problemem, układać jakieś głupie puzzle a czekać 1 min niewielka różnica, ale farmę botów powstrzyma bo zamiast 100 req/s per maszynę będzie 1 per minute. Wada: moc obliczeniową w tym modelu trzeba cały czas podnosić więc stary smartfon będzie potrzebował nie 1 min a 20 min. Można to rozwiązać w taki sposob że proces w tle kopie tokeny captchy i mamy powiedzmy zawsze 20 tokenów do wykorzystania. Tyle że trzeba to zrobić tak żeby tokeny były przywiązane do konkretnego urządzenia (to jest żeby nie dało się ich sprzedawać).

1
0xmarcin napisał(a):

Ostatnie pomysły na captcha to wykorzystanie mocy obliczeniowej, captcha np. przez 1min kopie BTC na twoim kompie.

kurde, brzmi intrygująco. ciekawe jak się sprawdzi.

Wada: moc obliczeniową w tym modelu trzeba cały czas podnosić więc stary smartfon będzie potrzebował nie 1 min a 20 min.

no to niech ktoś kopie na kompie, a na smartfonie niech zużywa własne wykopane krypto tokeny.

Tyle że trzeba to zrobić tak żeby tokeny były przywiązane do konkretnego urządzenia (to jest żeby nie dało się ich sprzedawać).

ee tam, czemu? niech handlują. tak czy siak koszt spamowania jest zwiększony.

0

Panowie bardzo optymistycznie widzę :-D. Takie trochę życzeniowe, że wystarczy to i tamto. Wystarczy tylko że przybędzie UFO i da nam technologie to za rok i pozbędziemy się spamu. Postęp spamu opiera się na kroczeniu z jego walką.. to jest krok obrońcy i krok spamerów - jak dwie nogi jednego człeka - jedna spam a druga obrona. Jedna kroczy za drugą. I zawsze jest to ta, albo ta druga o krok dalej i tak na zmianę. Już od wielu wielu lat.

To stale jest leczenie objawów a nie choroby, a chorobą jest głównie Google i jego arbitralne ocenianie stron na bazie ilości linków w pozycjach. Spam generyczny dla samego odwiedzania strony jest dziś marginalny.. Głównie to ładowanie dla linków a i to robotami co włażą wszędzie gdzie się tylko da. Pewnie nie raz widzieliście strony co wygalają jak zachwaszczone przez takie boty. Teraz techniki się zmieniają, coraz częściej takie korzystanie jest z (linków za gotówkę na stronach w publikacjach). artykuł bez wartości z linkiem publikowany za kasę na stronie. To też się przekształca, ile to macie takich publikacji na portalach tych onetowych, wp itp. Całe masy i wszędzie dosłownie. A boty to już praca automatów przy ogólnie jakości stron pośredniej. Bo ilość to też niestety jakość... jak powiedział jeden typ... kiedyś.. z wąsami... po kacapsu.

0

Google i jego arbitralne ocenianie stron na bazie ilości linków w pozycjach

PageRank (https://en.wikipedia.org/wiki/PageRank) jeden z algorytmów który mógłby pretendować do miana najważniejszego algorytmu wszech czasów został właśnie określony jako "arbitralny" :(

0
0xmarcin napisał(a):

Google i jego arbitralne ocenianie stron na bazie ilości linków w pozycjach

PageRank (https://en.wikipedia.org/wiki/PageRank) jeden z algorytmów który mógłby pretendować do miana najważniejszego algorytmu wszech czasów został właśnie określony jako "arbitralny" :(

wcześniej mieliśmy spamowanie metatagami w htmlu i to była porażka. page rank ma znacznie więcej sensu. jednak jeśli @Cimron ma jakiś super pomysł lepszy niż wszystkie pozostałe to niech napisze.

https://developers.google.com/search/docs/crawling-indexing/special-tags#unsupported
Unsupported tags and attributes
<meta name="keywords" content="..."> The meta-keyword tag is not used by Google Search, and it has no effect on indexing and ranking at all.

0

Page Rank od lat nie jest już prowadzony Bo opierał się na linkach - z stron co mają dużo linków ocenianych jako wysokie PR - im więcej linków z wysokim PR stron tym strona była wyżej oceniana jako PR tej strony. — Cimron 8 minut temu
Znaczy PR strony wiecie że już nie jest prowadzone od z 8 lat ? Bo ich struktura opierała się w 90% na linkach ze stron o wysokim PR aby dawać wysokie PR stronie co otrzymywała linki. To jak przelewanie było płynów między naczyniami na podstawie PR a przelewnie było linkami. — Cimron 6 minut temu

page rank dalej jest używany.
https://developers.google.com/search/docs/appearance/ranking-systems-guide#link-analysis

Link analysis systems and PageRank
We have various systems that understand how pages link to each other as a way to determine what pages are about and which might be most helpful in response to a query. Among these is PageRank, one of our core ranking systems used when Google first launched. Those curious can learn more by reading the original PageRank research paper and patent. How PageRank works has evolved a lot since then, and it continues to be part of our core ranking systems.

tak czy siak, page rank to była rewolucja, bo wcześniejsze metody były dużo gorsze.

@Cimron: jeśli masz jakiś genialny pomysł na lepszego gugla to może załóż biznes :)

1 użytkowników online, w tym zalogowanych: 0, gości: 1