а то сплошь и рядом в таких проектах оказывается, что обученная на выборах людей модель выбирает хреново ровно потому, что люди выбирают хреново. типа расовой дискриминации эффекты и прочие байасы выученные, либо смотришь в false postive и видишь, что люди накосячили