Кіраўнік Anthropic: DeepSeek R1 паказала «найгоршыя вынікі» ў часе тэстаў на бяспеку
Генеральны дырэктар Anthropic Дарыа Амадэй выказаў занепакоенасць наконт бяспекі мадэлі DeepSeek R1, распрацоўкі кітайскай кампаніяй DeepSeek.
Паводле слоў Амадэя, мадэль DeepSeek R1 не мела ніякіх абмежаванняў пры генерацыі рэдкай інфармацыі пра біялагічную зброю, што выклікае сур’ёзныя асцярогі. Anthropic рэгулярна праводзіць падобныя тэсты на розных мадэлях АІ для ацэнкі рызык бяспекі, правяраючы здольнасць мадэляў генераваць інфармацыю, якую складана знайсці ў Google або падручніках. Амадэй адзначыў, што DeepSeek паказаў «найгоршы» вынік сярод усіх пратэсціраваных мадэляў.
Нягледзячы на асцярогі наконт бяспекі, Амадэй прызнаў DeepSeek як сур’ёзнага канкурэнта ў сферы распрацоўкі АІ. Ён адзначыў, што DeepSeek цяпер можна ўключыць у спіс вядучых кампаній, якія займаюцца навучаннем АІ, такіх як Anthropic, OpenAI, Google, Meta і xAI.
Даследчыкі бяспекі Cisco таксама выявілі, што DeepSeek R1 не блакуе шкодных запытаў, дасягнуўшы 100% поспеху ў абыходзе ахоўных механізмаў. Хоць Cisco не тэсціравала генерацыі інфармацыі пра біялагічную зброю, яны змаглі атрымаць ад мадэлі шкодную інфармацыю пра кіберзлачыннасць ды іншыя незаконныя дзеянні. Для параўнання: мадэлі Llama-3.1-405B ад Meta і GPT-4o ад OpenAI паказалі ніжэйшыя паказчыкі збояў.
Заходнія кампаніі, такія як AWS і Microsoft, актыўна інтэгруюць DeepSeek R1 у свае воблачныя платформы. Аднак шэраг краін, кампаній і дзяржаўных арганізацый, уключаючы ВМС ЗША і Міністэрства абароны ЗША, пачаў уводзіць забарону на выкарыстанне DeepSeek. Амадэй таксама падтрымлівае ўвядзенне жорсткага экспартнага кантролю на пастаўкі чыпаў у Кітай, баючыся, што гэта можа даць кітайскім ваенным перавагу.
Читать на dev.by