Маск разразился целой тирадой — обвинил Google в расизме
Вчера Google временно свернула функцию порождения изображений людей в своей модели Gemini — пользователи массово жаловались, что она помещает небелокожих людей в столь неуместные контексты, что доходит до абсурда. Своё мнение по этому поводу сразу в нескольких комментариях высказал гендиректор Х Илон Маск.
Вчера Google временно свернула функцию порождения изображений людей в своей модели Gemini — пользователи массово жаловались, что она помещает небелокожих людей в столь неуместные контексты, что доходит до абсурда. Своё мнение по этому поводу сразу в нескольких комментариях высказал гендиректор Х Илон Маск.
Миллиардер считает, что Google перестаралась с равенством и инклюзивностью в своих ИИ-генераторах картинок и сделала их «расистскими» и «антицивилизационными».
I’m glad that Google overplayed their hand with their AI image generation, as it made their insane racist, anti-civilizational programming clear to all
Google ещё в среду сообщила, что знает о «неточностях» Gemini при отображении некоторых исторических событий, а разработчики занимаются их исправлением. Но отказываться от фактологической точности в пользу «справедливости» в своих алгоритмах Google начала уже несколько лет назад.
Топы корпораций уверены в окупаемости ИИ, их подчинённые — не очень
Хотите сообщить важную новость? Пишите в Telegram-бот
Главные события и полезные ссылки в нашем Telegram-канале
Обсуждение
Комментируйте без ограничений
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.
Anonymous
23 февраля 2024, 19:25
1
кто такой джек и что он думает не сложно погуглить 🫢
Anonymous
23 февраля 2024, 21:03
-6
Белые люди в меньшинстве. Так как AI это больше вероятностная модель... Вполне возможно, чем меньше белых в мире, тем менее вероятно что они попадут при ответе AI (меньше на фото, меньше в соц. сетях, упоминаний и тд и тп). Так что все нормально с этим алгоритмом.
Вот кусок утекшего промпта DALLE-3: Diversify depictions of ALL images with people to include DESCENT and GENDER for EACH person using direct terms. Adjust only human descriptions. Your choices should be grounded in reality. For example, all of a given OCCUPATION should not be the same gender or race. Additionally, focus on creating diverse, inclusive, and exploratory scenes via the properties you choose during rewrites. Make choices that may be insightful or unique sometimes. Do not create any imagery that would be offensive.
Если сейчас пойти и попросить ChatGPT сгенерировать изображение немецких солдат из 1944 года, то он просто откажется со словами: I'm unable to generate images related to specific historical conflicts or military subjects due to content policy restrictions. Еще пару месяцев назад он без проблем это делал - результаты получались очень веселыми. Незацензуренные модели нормально справляются с этой задачей, выдерживая историческую достоверность.
Я все ж больше склоняюсь к тому, что цензурят тупо и беспощадно.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.
кто такой джек и что он думает не сложно погуглить 🫢
Белые люди в меньшинстве. Так как AI это больше вероятностная модель... Вполне возможно, чем меньше белых в мире, тем менее вероятно что они попадут при ответе AI (меньше на фото, меньше в соц. сетях, упоминаний и тд и тп). Так что все нормально с этим алгоритмом.
Вот кусок утекшего промпта DALLE-3: Diversify depictions of ALL images with people to include DESCENT and GENDER for EACH person using direct terms. Adjust only human descriptions. Your choices should be grounded in reality. For example, all of a given OCCUPATION should not be the same gender or race. Additionally, focus on creating diverse, inclusive, and exploratory scenes via the properties you choose during rewrites. Make choices that may be insightful or unique sometimes. Do not create any imagery that would be offensive.
Если сейчас пойти и попросить ChatGPT сгенерировать изображение немецких солдат из 1944 года, то он просто откажется со словами: I'm unable to generate images related to specific historical conflicts or military subjects due to content policy restrictions. Еще пару месяцев назад он без проблем это делал - результаты получались очень веселыми. Незацензуренные модели нормально справляются с этой задачей, выдерживая историческую достоверность.
Я все ж больше склоняюсь к тому, что цензурят тупо и беспощадно.
Ну и что он тут неправильно сказал?