Пісьменнік пераканаў AI Google, што яго кот размаўляе па-кітайску
Пісьменнік Чак Вендзіг заўважыў, што Google ў ШІ-адказах выдае пра яго выдуманую інфармацыю. Спачатку ён убачыў, што па запыце «ці ёсць у Чака Вендзіга кот» пашукавік сцвярджае, што ў яго ёсць гадаванец па мянушцы Бумба, і нават спасылаецца на нейкую крыніцу. Пры гэтым у рэальнасці ніякага ката ў яго няма, і такіх згадак у яго блогу не было, распавядае PC Gamer.
Пісьменнік Чак Вендзіг заўважыў, што Google ў ШІ-адказах выдае пра яго выдуманую інфармацыю. Спачатку ён убачыў, што па запыце «ці ёсць у Чака Вендзіга кот» пашукавік сцвярджае, што ў яго ёсць гадаванец па мянушцы Бумба, і нават спасылаецца на нейкую крыніцу. Пры гэтым у рэальнасці ніякага ката ў яго няма, і такіх згадак у яго блогу не было, распавядае PC Gamer.
Далей стала цікавей: пры новых запытах Google пачаў «удакладняць», што гэты кот памёр, а затым Вендзіг быццам завёў іншага — Франкена. Ні адна з гэтых мянушак ніколі не з’яўлялася ў яго публікацыях. Больш за тое, ШІ працягваў прыдумляць новыя дэталі і нават выдаваў фальшывыя звесткі пра яго здароўе і рэлігійныя погляды.
У адказ Вендзіг напісаў іранічны пост, дзе згадаў выдуманага ката па мянушцы Сэр Мяўлінгтан фон Пісбрэт, які крыху гаворыць па-кантонску. Прыкладна праз шэсць тыдняў Google пачаў уключаць гэтую мянушку ў свае ШІ-адказы як рэальны факт.
Гісторыя паказвае, як ШІ ў аглядах пашукавік можа не проста памыляцца, але і хлусіць, падхопліваць жарты і падаваць як «дакладную» інфармацыю.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.