Dall-E 3 е толкова добър, че подклажда бунт сред художници и дизайнери
Художниците и дизайнерите се притесняват, че изкуственият интелект ще им заеме работата – затова търсят начин да го измамят

Снимките са илюстративни и са създадени чрез Dall-E 2
Снимка: Dall-E
Dall-E 3, най-новият софтуер за генериране на изображения, създаден от OpenAI, може да създаде картина на почти всичко. Може да „нарисува“ акварелен портрет на русалка, персонализиран поздрав за рожден ден или фалшива снимка на Спайдърмен, който яде пица. Всичко това въз основа само на няколко подканващи думи, пише Bloomberg.
Новата версия на инструмента, пусната през септември, представлява „скок напред“ в изображенията, създадени с изкуствен интелект, казва OpenAI. Dall-E 3 предлага по-добри детайли и възможност за по-надеждно изобразяване на текст. Освен това допълнително подклажда страховете на илюстраторите, че ще бъдат заменени от компютърна програма, имитираща много добре работата им.
Бързите подобрения в генерирането на изображения подтикнаха артистите да се откажат от генеративни стартиращи фирми с изкуствен интелект, които поглъщат огромно количество интернет данни, за да генерират съдържание, като снимки или текст. Не помогна много, че новият процес на OpenAI за артисти, които искат да изключат данните си от системата, отнема време и е сложен. Някои дори съдят генеративни AI компании. Други се обърнаха към все по-голям брой дигитални инструменти, позволяващи на творците да наблюдават дали работата им е била използвана от AI. А трети дори са прибягнали до лек саботаж.
Целта е да се противопоставят тенденцията да губят работата и комисионите си заради машини, които ги копират – често срещано мнение в света на изкуството.
Върху изкуството ми е грубо посегнато“, каза Кели Маккернан, илюстратор и акварелист. „И познавам толкова много артисти, които се чувстват по същия начин.“
Битката на художниците
Някои хора с изненада откриват, че разполагат с твърде малко възможности да разберат как точно AI системите използват работата им. Маккернан е част от трио визуални художници, съдещи стартиращи компании за генериране на изображения – Stability AI, Midjourney и DeviantArt – всички от които, като Dall-E 3, генерират детайлни и често красиви картини. В делото се твърди, че работата им е била използвана за обучение на генераторите на изображения с изкуствен интелект без разрешение или заплащане.
Компаниите отрекоха да са извършили нарушение. И, традиционно, събирането на онлайн съдържание за обучение на AI софтуер се счита за защитено съгласно доктрината за честна употреба на авторското съдържание в САЩ. В края на октомври съдията по делото отхвърли няколко от обвиненията на подсъдимите, като същевременно позволи на иска за нарушаване на авторски права да продължи напред.
Предизвикателствата добавиха допълнителна несигурност към правните рискове, пред които са изправени компаниите с изкуствен интелект, но вероятно ще минат години, преди да има решение на проблема.
Междувременно артистите, загрижени, че техният материал се използва за обучение на Dall-E 3, могат да следват процеса, очертан от самия OpenAI. Това означава попълване на формуляр с искане за изключване на изображения от наборите от данни на компанията, така че да не се използва за обучение на бъдещи AI системи.
Този процес на отказ, който беше въведен наскоро, предизвика противоречия, тъй като може да отнеме много време и да е тромав за използване и може да не попречи на програмите да имитират стила на художниците. При тестване на Dall-E 3 чрез ChatGPT Plus, Bloomberg News установи, че софтуерът ще откаже да произвежда изображения от подкана, съдържаща символи, защитени с авторски права, но вместо това ще предложи да създаде по-общ вариант – който все още може да създаде изображение, което изглежда като символа, защитен с авторски права.
Например, ChatGPT ще откаже да използва Dall-E 3 за създаване на изображение на Спайдърмен. Но когато Bloomberg поиска, той предложи да създаде герой, който изглежда много подобен, „базиран на паяка супергерой, облечен в червено-син костюм“. По същия начин, докато инструментът няма да създава изображения в стила на живи художници, е възможно да генерирате изображения, които предизвикват определени стилове, като използвате подробни описания.
Чувствам, че това е само начин на повърхностно ниво да изглежда, че правят правилното нещо“, каза Рийд Саутен, концептуален художник и илюстратор, който е работил по филми, включително „Игрите на глада“ и „Възкресенията на Матрицата“.
Саутен каза, че няма да премине през процеса на отказ, защото е преценил, че ще му отнеме месеци, за да го завърши. Системата изисква от артистите да качват изображения, които искат да бъдат изключени от бъдещо обучение в OpenAI, заедно с описание на всяко произведение. За Саутен процесът е направен толкова тромав, за да откаже артистите да премахват данните си от процесите на обучение на компанията.
Искането от хората да им дадат копия от работата си, така че OpenAI да може да избегне обучение по нея в бъдеще, е „нелепо“, каза Кали Шрьодер, старши съветник на Electronic Privacy Information Center или EPIC.
Тя също така не смята, че артистите ще се доверят на компанията да спази думата си. „Тъй като те са тези, които се възползват от цялата тази информация, тежестта трябва да бъде върху тях, за да се уверят, че действително законно и етично могат да използват тези данни за своите набори за обучение“, каза Шрьодер.
Потърсен за коментар, OpenAI каза, че все още оценява процеса, за да даде на хората контрол върху това как се използва тяхната информация и не каза колко хора са завършили процеса на отказ досега.
Рано е, но се опитваме да съберем обратна връзка и искаме да подобрим изживяването“, каза говорител на компанията.
Отровно хапче
За артисти, които не са доволни от официалните канали, има други опции. Една компания, Spawning Inc., създаде инструмент, наречен „Бил ли съм обучител“, за да позволи на артистите да видят дали тяхната работа е била използвана за обучение на някои AI модели и има за цел да им помогне да се откажат от бъдещи набори от данни. Друга услуга, Glaze, променя пикселите в изображението толкова леко, което го кара да изглежда на компютъра, сякаш е различен стил на изкуство. Издаден през август, Glaze е изтеглен 1.5 милиона пъти (също има 2300 онлайн акаунта за уеб базирана услуга само с покана).
Създателят на Glaze е Бен Джао, професор в Чикагския университет, а следващият му проект ще отиде още по-далеч. През следващите седмици Джао планира да пусне нов инструмент, наречен Nightshade, който ще действа като нещо като отровно хапче за AI. Той се надява, че художниците ще го използват, за да защитят работата си, като същевременно потенциално ще попречи на AI модели, които се обучават върху такива данни.
Той ще работи, като леко модифицира картината, така че да изглежда на AI системата като нещо съвсем различно. Например, изображение на замък, чиито пиксели са били променени чрез Nightshade, все още ще изглежда като замък за човек, но AI система, обучаваща се върху изображението, ще го категоризира като нещо различно, например камион. Надеждата е да се обезсърчи необузданото цифрово изтриване, като се направят някои изображения вредни за модела, а не полезни.
Джао не смята, че Nightshade е решение на проблемите на художниците, но се надява да им даде усещане за контрол над работата им онлайн и да промени начините, по които компаниите за изкуствен интелект събират данни за обучение.
Не съм злонамерен, опитвайки се да навредя на която и да е компания“, каза Джао. „Мисля, че много инструменти правят добри неща. Но това е въпрос на съвместно съществуване и добро поведение.“