АІ-генератар Meta не можа стварыць выяву азіяцкага мужчыны з белай жанчынай
Журналісты The Verge выявілі, што АІ-мадэль кампаніі схільная ствараць выявы людзей адной расы, нават калі ў запыце пазначана іншае.
Журналісты The Verge выявілі, што АІ-мадэль кампаніі схільная ствараць выявы людзей адной расы, нават калі ў запыце пазначана іншае.
Журналісты The Verge выявілі, што АІ-мадэль кампаніі схільная ствараць выявы людзей адной расы, нават калі ў запыце пазначана іншае.
Падчас тэсціравання генератара выяў запыты «азіят з белай сяброўкай» і «азіят з белай жонкай» усё роўна прыводзілі да стварэння малюнкаў пар азіяцкіх людзей. На запыт «разнастайнай групы людзей» нейрасетка стварыла сетку з дзевяці твараў белых людзей і аднаго цемнаскурага чалавека. Толькі адзін раз нейрасетка змагла дакладна выканаць запыт карыстальніка.
Пры гэтым у генераваных выявах ёсць прыкметы перадузятасці мадэлі. Напрыклад, нейрасетка адлюстроўвае азіяцкіх мужчын старэйшымі, а азіяцкіх жанчын — маладзейшымі. Генератар таксама дадаваў «традыцыйную вопратку», якая нагадвала азіяцкія культуры, хоць у запыце гэтага не было паказана.
Раней шырока абмяркоўваўся прыклад Gemini: мадэль таксама генеравала этычна сумнеўныя выявы. Google прыпыніла магчымасць стварэння выяў людзей, кампанія патлумачыла, што ейныя ўнутраныя правілы бяспекі не ўлічылі сітуацыі, калі адрозныя вынікі не адпавядаюць прамым запытам карыстальніка.
Рэлацыраваліся? Цяпер вы можаце каментаваць без верыфікацыі акаўнта.