Algorytmiczna Moralność

2

Temat algorytmicznej moralności, jakie decyzje powinna waszym zdaniem podejmować maszyna? W pełni racjonalne bazujące jedynie na danych takich jak dane biometryczne czy z uwzględnieniem moralności ludzkiej i postrzegania świata.

Jako przykład z ankiety, wyobraźcie sobie rozterkę. Dochodzi do wypadku samochodu w którym ucierpiał 50 letni męźczyzna i jego kilkuletnia córka. Jako programista zakodowaliście algorytm który z dokładnością do 1% jest w stanie określić przeżywalność ludzi biorących udział w wypadku.

Szansa mężczyzny na przeżycie: 49%
Szansa dziewczynki na przeżycie: 48%

Jaką decyzje waszym zdaniem powinien podjąć algorytm maszyny ratującej, czy powinien skupić się na ratowaniu dziecka czy męźczyzny? Szansa jest że jeśli zajmie się wpierw męźczyzną to dziewczynka nie przeżyje, czy algorytm powinien waszym zdaniem szacować też spadki szans przeżycia w jednostce czasu, i jeśli tak to w jaki sposób to powinno mieć wpływ na decyzje maszyny?

3

new Random().Next(0, 2);

1

Prawdę mówiąc - temat ciekawy ;)

Jaką decyzje waszym zdaniem powinien podjąć algorytm maszyny ratującej, czy powinien skupić się na ratowaniu dziecka czy męźczyzny?

Można by pomyśleć "mężczyzna ma 49% szans na przeżycie, dlaczego więc brać dziewczynkę?"

Szansa jest że jeśli zajmie się wpierw męźczyzną to dziewczynka nie przeżyje, czy algorytm powinien waszym zdaniem szacować też spadki szans przeżycia w jednostce czasu, i jeśli tak to w jaki sposób to powinno mieć wpływ na decyzje maszyny?

Biorąc pod uwagę, że m.in. dorosły mężczyzna bez pomocy poradzi sobie dłużej niż dziewczynka (w zależności od obrażeń, ale przyjmijmy że tak by było akurat w tym wypadku) sądzę, że nasz algorytm klasyfikujący powinien przyjmować dwa argumenty:

  • szansa na przeżycie - 0-100%, liczona zgodnie z naszym pierwszym wymyślnym algorytmem, o którym wspomniałeś,
    oraz
  • priorytet - 0-100%, powiązany z szansą lecz nie będący w żadnym wypadku jej odwrotnością, myślenie w stylu ktoś ma 5% szans na przeżycie to weźmy go/ją pierwszego, bo ten z dwudziestoma procentami sobie jeszcze chwilę poradzi jest błędne. Priorytet powinien być wypadkową wieku, ogólnego zdrowia danej osoby (na podstawie kartoteki zdrowia danego człowieka analizując np. tendencję do złamań, szpitalną przeszłość) oraz płci (chociaż z tym to różnie bywa :P).

Następnie pozostaje niestety smutna rzeczywistość testowania na zasadzie algorytmu genetycznego - tworzymy kilka robotów z losowymi współczynnikami, wypuszczamy je w świat, patrzymy, który poradził sobie lepiej, a potem krzyżujemy, mutujemy i tak do osiągnięcia marginesu błędu.

Technicznie niezły popis dla sieci neuronowych typu feedforward, praktycznie - mało prawdopodobne.

0

Kolejność warunków ma znaczenie.

  1. Jeśli różnica szans przeżycia dwóch osób jest większa niż 10% - ratuj tą z większymi szansami.
  2. Jeśli szanse przeżycia są podobne - ratuj kobietę.
  3. Jeśli osoby są tej samej płci ratuj osobę młodszą.
3
MarcinPaladyn napisał(a):
  1. Jeśli szanse przeżycia są podobne - ratuj kobietę.

user image

1

Problem bardzo realny, bo autonomiczne auta są tuż za rogiem. Było kilka artykułów na ten temat, przykładowo: http://antyweb.pl/komputer-w-samochodzie-zdecyduje-kogo-zabic-dylematy-etyczne-ai/

0

Problem jest bardzo skomplikowany. Zresztą pamiętam, miałem kiedyś tego typu problematykę na etyce na pierwszym roku studiów. Zagadnienia dotyczyły np. tego czy pozostawić kogoś w stanie wegetatywnym przy życiu czy nie, w zamian jednak ratując kogoś innego, przeszczepiając mu narządy od tej osoby w stanie wegetatywnym. Sprawa jest o wiele bardziej skomplikowana niż się Wam tutaj wydaje.

Ale weźmy dla przykładu taki system ekspertowy w oparciu o sieć neuronową typu multilayer perceptron, czy tam feed forward jak kto woli. Skoro mamy tego starszego mężczyznę i tą dziewczynkę a szanse na przeżycie zależą od wielu czynników, weźmy to wszystko na wejścia tej sztucznej sieci neuronowej, zaś na wyjściu mamy tylko jedno wyjście które przyjmuje wartości logiczne: 0 = ratować mężczyznę, 1 = ratować dziewczynkę albo 2 wyjścia przyjmujące jedno wartość 1 a drugie 0, co by odpowiadało kogo ratować.

Dość trudny problem, jako że MLP jest tak naprawdę uniwersalnym aproksymatorem funkcji, więc należałoby tu założyć, że szanse są uzależnione od bliżej nieznanej funkcji wielu zmiennych. Sieć ma sobie z tym poradzić, algorytmy albo jaka jest to funkcja nas tu raczej nie interesuje. Jeśli nawet (na bazie już wiarygodnych danych) taka sieć bardzo trafnie podejmowałaby decyzje (to chyba może być problem optymalizacji szans), to tylko zastanawiam się co do tego czy program ma być tym ostatecznym ogniwem decyzyjnym o jak by się to przełożyło na rzeczywistość? Póki co jest czynnik ludzki, tego chyba nie da się tak prosto zaprogramować bo sieci neuronowe w praktycznej realizacji o tak są dość uproszczonym modelem.

0
drorat1 napisał(a)

zastanawiam się co do tego czy program ma być tym ostatecznym ogniwem decyzyjnym o jak by się to przełożyło na rzeczywistość?

Analizą rynku giełdowego zajmują się głównie różne programy, to także optymalizacja zysków oraz strat, i radzą sobie z całą pewnością lepiej oraz sprawniej od ludzi - dlaczego więc miałyby nie dać rady tutaj, kiedy chodzi o podobny problem, tyle że z nieco innej strony?

Bardziej dochodzimy do kwestii natury moralności ludzkiej niż 'algorytmicznej' - nie chcę aby to robot decydował o życiu moich bliskich, lecz tak właściwie czymże różni się algorytmiczna decyzja ratujmy mężczyznę od ludzkiej? Na pewnym poziomie abstrakcji ludzie także dokonują aproksymacji tego kogo bardziej opłaca się ratować w sposób, który można by zaimplementować sieci neuronowej, a który jednak ma jedną istotną wadę - jest poparty bagażem emocjonalnym.

Z dużą dozą prawdopodobieństwa mogę powiedzieć, że sporo osób wolałoby niezależnie od sytuacji ratować dziewczynkę, nawet gdyby miała praktycznie zero szans na przeżycie ponieważ to mała biedna istotka. I to nie jest "ok", "sprawiedliwe", "słuszne" - to jest decyzja podjęta emocjami, których podczas takiej akcji nie powinno być. Należy ratować tę osobę, która ma więcej szans na przeżycie - dorosły facet jest prawdopodobnie bardziej istotny od dziewczynki, jeśli chodzi o wkład w społeczeństwo (brzmi brutalnie, prawda?). Rzecz jasna na dłuższą metę to się nie sprawdzi - już widzę te nagłówki w gazetach i telewizji bezlitosny robot wolał ratować dorosłego mężczyznę zamiast młodej dziewczynki, ponieważ ludzie tacy po prostu są.

6

Patrząc obiektywnie, niemoralnym okiem natury, wieksze prawa do życia ma zawsze dziecko, jako wehikuł genów i znacznie bardziej prawdopodobna maszyna zdolna do przekazania swoich genów nastepnemu pokoleniu. Okiem natury mezczyzna juz spelnil swoja role i przekazal geny, splodzil corke, a wiec jego misja bycia w swiecie zostala juz wypelniona i moze umrzec ustepujac miejsca pokoleniu mlodych maszyn genowych. Niezaleznie od tego jak postrzega sie ten problem przez pryzmat kultury (np. etyka), w biologicznym swiecie nieustannej replikacji i przechodzenia w nowa maszyne przetrwalnikowa, prawa sa jasno okreslone. Komputer wiele sie nie pomyli jesli podejmie decyzje o ratowaniu dziecka, natomiast sprawa sie skomplikuje, jesli w osobie mezczyzny mamy wybitnego matematyka, ktorego prace moga pchnac ludzkosc do przodu i spowodowac rewolucje w naukach informacyjnych, a w osobie dziewczynki mamy kilkuletnie dziecko z zespolem Downa, ktorego geny raczej sa nieprzydatne w dalszej walce o przetrwanie i doskonalenie maszyn genowych w nastepnych pokoleniach. Znowu z punktu widzenia natury nie ma to wiekszego znaczenia, bo osiagniecia naukowe nie wplyna w sposob znaczacy na sama nature zjawisk w swiecie biologii, a nieprzydatne geny chorego dziecka zostana w sposob naturalny wyeliminowane. Czy tym razem komputer powinien podjac decyzje o ratowaniu jednostki wybitnej, czy zlitowac sie nad bezbronnym, chorym dzieckiem? Czy obiektywnym wyznaczniekiem dzialania algorytmu jest bezwzgledne ratowanie ludzkiego zycia, czy algorytm powinien tez uwzgledniac jakosc informacji niesiona przez to zycie?

0
Patryk27 napisał(a):

Należy ratować tę osobę, która ma więcej szans na przeżycie - dorosły facet jest prawdopodobnie bardziej istotny od dziewczynki, jeśli chodzi o wkład w społeczeństwo (brzmi brutalnie, prawda?). Rzecz jasna na dłuższą metę to się nie sprawdzi - już widzę te nagłówki w gazetach i telewizji bezlitosny robot wolał ratować dorosłego mężczyznę zamiast młodej dziewczynki, ponieważ ludzie tacy po prostu są.

I żeby to jeszcze było takie proste. Weźmiesz na klatę sytuację w której jesteś dla przykładu ratownikiem ale to nie Ty decydujesz ale dobrze wyszkolona sieć feed forward czy tam algorytm genetyczny a ta dziewczynka to dla przykładu ktoś z Twojej rodziny (np. Twoja córka) a ten mężczyzna to dla przykładu nie jej ojciec tylko zupełnie obca Tobie osoba?

To jest bardziej złożone niż by się wydawało, ten przykład tutaj jest jeszcze chyba względnie prosty. Bo gdyby kierować się tylko rachunkiem prawdopodobieństwa to:

(1) szanse są mniej więcej te same więc można by chyba można by tu ratować nawet losowo albo dziewczynkę, albo jej ojca i pod względem prawdopodobieństwa nie ma tu przecież właściwie żadnego znaczenia
(2) sieć neuronowa wypluje na wyjściu 0.5 (na wyjściu wartości float od 0.0 do 1.0 przy funkcji sigmoidalnej unipolarnej) i nie można niczego stwierdzić na tej podstawie, wracamy do punktu wyjścia

I dlatego można by się zastanawiać czy sztuczna inteligencja nie powinna jedynie wspomagać decyzji, natomiast obawiam się że świadomość społeczeństwa co do ich możliwości jest zbyt niska, żeby można było pójść aż tak daleko, co by wyręczać decydentów.

1

Tutaj nie musisz i nie powinieneś już niczego wymyślać tylko zaimplementować to co wypracowały latami wyspecjalizowane służby ratunkowe w przypadkach gdzie pokrzywdzonych jest wielu a ratowników mało.
https://pl.wikipedia.org/wiki/Triage

0

Takie dylematy to już niedaleka przyszłość:
http://www.dobreprogramy.pl/Algorytmiczna-moralnosc-kogo-ma-zabic-samoprowadzace-sieauto,News,67551.html

I coś mi się wydaje że ciężko to będzie rozstrzygnąć. Dobra zasada: minimalizować liczbę ofiar. Ale każdy tak mówi tylko do momentu, gdy to on sam na zginąć.

0

My tu dywagaujemy a adwokaci zacierają ręce. Już widzę tę falę pozwów przy pierwszym poważniejszym wypadku takiej autonomicznej fury...

0

@wielki Młot
Właśnie dla tego nikt nie może być sędzią we słasnej sprawie.
To jest dokładnie tak samo jak w przypadku porwań, gdzie rodziny porwanych nie powinny mieć nic go gadania.

0

@wielki Młot
Dopiero przeczytałem artykuł z linku i imo nie ma problemów.
Zakłada się, że samochód przede wszystkim chroni swoich użytkowników(tak jak to by robił normalny kierowca) przez co jak sam autor napisał więcej ludzi go kupi i wypadków będzie miej(podobnie jak korków, bo będzie możliwa optymalizacja trasy, czy równe ruszanie na zielonym).
Tzn tu znowu nie ma miejsca na filozofię, bo przenosi się wypracowanego gotowca(i zamiast mikrooptymalizacji ma się makrooptymalizację) w postaci działania kierowcy.

Z samochodami bez kierowcy problem jest tylko jeden: Nie ma żadnej pewności, że któregoś pięknego dnia pryszczty nastolatek nie spowoduje unieruchomienia wszystkich istniejących lub ich kolizji.

0

Uprawiacie czystą eugenikę tą obrzydliwie niemoralną dyskusją

0
drorat1 napisał(a):

I dlatego można by się zastanawiać czy sztuczna inteligencja nie powinna jedynie wspomagać decyzji, natomiast obawiam się że świadomość społeczeństwa co do ich możliwości jest zbyt niska, żeby można było pójść aż tak daleko, co by wyręczać decydentów.

Między innymi ze względu właśnie na to, że większość społeczeństwa nie zrozumiałaby decyzji algorytmu, stałbym na stanowisku, żeby w żadnym razie ostatecznej decyzji nie pozostawiać komputerowi.

0

Jeśli idziemy w algorytmiczną moralność to OK, podejdźmy do tematu precyzyjnie:

dane:

Jako przykład z ankiety, wyobraźcie sobie rozterkę. Dochodzi do wypadku samochodu w którym ucierpiał 50 letni męźczyzna i jego kilkuletnia córka. Jako programista zakodowaliście algorytm który z dokładnością do 1% jest w stanie określić przeżywalność ludzi biorących udział w wypadku.

Szansa mężczyzny na przeżycie: 49%
Szansa dziewczynki na przeżycie: 48%

Pierwsze co musimy dostarczyć to metryka służąca do wyznaczenia wartości życia człowieka. Jako że w danych nie ma podane takich informacji jak przechodzone choroby/geny/status społeczny/rasa/etc, zakladamy że nie bierzemy ich pod uwagę. Za to jest podany wiek, więc jakąś sensowną metryką "wartości życia" będzie "ile jeszcze lat przeżyje X" (uwaga - nie jest to jedyna sensowna metryka, potrafię podać sporo innych, ale jakąś trzeba założyć żeby algorytm miał sens). Obecne dane mówią o średniej długośći życia 72 lat dla kobiet i 67 dla mężczyzn - więc dziewczynka przeżyje jeszcze ~~65 lat, a mężczyzna 37. Podstawiając pod procenty, mamy dla mężczyzny 18.13 roku a dla dziewczynki 31.2 roku.

Przy takiej metryce odpowiedź jest oczywista - ratujemy dziewczynkę.

  1. Jeśli szanse przeżycia są podobne - ratuj kobietę.

Głupie, mówimy tu o racjonalnych algorytmach a nie ludzkich konwenansach.

BTW:
Nie do końca związane z tematem, ale z etyką w IT na pewno. Przypomniał mi sie jeden z pierwszych systemów eksperckich, który miał skutecznośc w rozpoznawaniu chorób (układu krążenia bodajże, ale pewny nie jestem) większą niż doświadczeni lekarze. Ale nigdy nie został wdrożony w praktyce, chociaż mógł ocalić setki/tysiące istnień ludzkich (przez wystawianie poprawnej diagnozy, podczas gdy ludzie są omylni). Dlaczego? Bo jeśli komputer się pomyli, i zginie przez to człowiek, w sumie kto ma za to zapłacić? ;]

1 użytkowników online, w tym zalogowanych: 0, gości: 1