Wyobrażam sobie że gdybym ja chciał zaprojektować super AI, to nie zacząłbym od tych nic nie wartych algorytmów genetycznych (czyli random until you make it), tylko własnie najpierw nauczyłbym go specjalnie failować takie testy wykrycia człowieczeństwa.
Pytanie wtedy, skoro będą AI które potrafią zdecydować umyślnie failować takie testy, to jaki jest sens tych testów?