ИИ-генератор Meta не может создать изображение азиатского мужчины с белой женщиной

Журналисты The Verge обнаружили, что ИИ-модель компании склонна создавать изображения людей одной расы, даже если в запросе указано иное.

Оставить комментарий

Во время тестирования генератора изображений запросы «азиат с белой подругой» и «азиат с белой женой» все равно приводили к созданию картинок пар азиатских людей. На запрос «разнообразной группы людей» нейросеть создала сетку из девяти лиц белый людей и одного темнокожего человека. Только один раз нейросеть смогла точно выполнить запрос пользователя.

При этом в генерируемых изображениях есть признаки предвзятости модели. Например, нейросеть изображает азиатских мужчин старше, а азиатских женщин — моложе. Генератор также добавлял «традиционную одежду», которая напоминала азиатские культуры, хотя в запросе этого не было указано.

Ранее широко обсуждался пример Gemini: модель также генерировала этически сомнительные изображения. Google приостановила возможность создания изображений людей, компания объяснила, что ее внутренние правила безопасности не учли ситуации, когда различные результаты не соответствуют прямым запросам пользователя.

Ученые нашли новый способ заставить ИИ говорить на запрещенные темы
По теме
Ученые нашли новый способ заставить ИИ говорить на запрещенные темы
ИИ оказался на 82% убедительнее в споре, чем человек
По теме
ИИ оказался на 82% убедительнее в споре, чем человек
Microsoft работает над ИИ-ботом для Xbox
По теме
Microsoft работает над ИИ-ботом для Xbox

Читать на dev.by