Stability AI выпусціла абнаўленне АІ-генератара Stable Diffusion
Stability AI паказала падрыхтоўчую версію Stable Diffusion 3.0 — флагманскай генератыўнай АІ-мадэлі. Кампанія паабяцала неўзабаве паказаць нейрасеткі для стварэння 3D-выяў і відэа.
«Анансуем Stable Diffusion 3 у ранняй падрыхтоўчай версіі, нашую самую функцыянальную мадэль пераўтварэння тэксту ў выяву са значна палепшанай прадукцыйнасцю ў шматтэмных падказках, з якасцю малюнка і магчымасцямі правапісу», — гаворыцца на сайце праекта.
На працягу года распрацоўшчык паступова паляпшаў базавую мадэль Stable Diffusion, выпускаючы абнаўленні. Новая версія мае палепшаную якасць малюнка і лепшую прадукцыйнасць. Нейрасетка забяспечвае дакладнейшае напісанне тэксту ўнутры згенераваных выяў: у мінулым тыпаграфіка была слабым бокам мадэлі.
Папярэдняя версія Stable Cascade выкарыстоўвала архітэктуру Würstchen для павышэння прадукцыйнасці і дакладнасці. Версія 3.0 выкарыстоўвае іншы падыход, які абапіраецца на дыфузійныя мадэлі-трансформеры, што збліжае яе з нядаўна анансаванай мадэллю Sora кампаніі OpenAI.
Іншая важная інавацыя — гэта ўзгадненне патокаў. Новы метад навучання нейрасетак з дапамогай «бесперапынных нармалізацыйных патокаў» (Conditional Flow Matching — CNF) ужываецца для мадэлявання складаных размеркаванняў даных. Гэта прыводзіць да хутчэйшага навучання, эфектыўнейшага адбору ўзораў і павышэння прадукцыйнасці ў параўнанні з дыфузійнымі шляхамі.
Пакуль Stable Diffusion 3 даступная толькі на запыт праз ліст чакання — заяўкі прымаюць тут. Дакладная дата публічнага рэлізу пакуль не паведамляецца.
Читать на dev.by