Temat algorytmicznej moralności, jakie decyzje powinna waszym zdaniem podejmować maszyna? W pełni racjonalne bazujące jedynie na danych takich jak dane biometryczne czy z uwzględnieniem moralności ludzkiej i postrzegania świata.
Jako przykład z ankiety, wyobraźcie sobie rozterkę. Dochodzi do wypadku samochodu w którym ucierpiał 50 letni męźczyzna i jego kilkuletnia córka. Jako programista zakodowaliście algorytm który z dokładnością do 1% jest w stanie określić przeżywalność ludzi biorących udział w wypadku.
Szansa mężczyzny na przeżycie: 49%
Szansa dziewczynki na przeżycie: 48%
Jaką decyzje waszym zdaniem powinien podjąć algorytm maszyny ratującej, czy powinien skupić się na ratowaniu dziecka czy męźczyzny? Szansa jest że jeśli zajmie się wpierw męźczyzną to dziewczynka nie przeżyje, czy algorytm powinien waszym zdaniem szacować też spadki szans przeżycia w jednostce czasu, i jeśli tak to w jaki sposób to powinno mieć wpływ na decyzje maszyny?