Говорят ли си наистина ботовете с изкуствен интелект на свой „таен“ език?

© ECONOMIC.BG / AI генерирана
Популярно видео, което твърди, че показва три различни чатбота, говорещи на собствен „таен“ език, натрупа милиони гледания в различни социални медийни платформи.
Клипът показва как ботовете първоначално водят телефонен разговор на английски, в който обсъждат „номера на значката на служител“. Когато обаче машините осъзнават, че всички в разговора са машини, се питат взаимно дали да преминат към комуникация чрез Gibberlink и започват да издават високи звуци, сякаш от научнофантастичен филм.
Шум или истинска технология?
Gibberlink е термин, който описва ситуацията, при която няколко различни агента с изкуствен интелект преминават от използване на разбираем за човека език към персонализиран, базиран на звук протокол. Този протокол, наречен ggwave, им позволява да комуникират по-ефективно, заобикаляйки тромавия и бавен човешки език. Терминът съчетава думите „глупости“ и „линк“.
EuroVerify, факт-чек платформата на Euronews, помоли Антон Пидкуйко, съосновател на проекта Gibberlink, да прегледа няколко онлайн клипа.
Много от видеоклиповете имитират съществуваща технология – те показват телефони, които всъщност не комуникират и няма сигнал между тях, вместо това звуците са редактирани, а визуализациите са взети от ChatGPT“, казва той, след като е анализирал видеата.
Фалшиви онлайн видеоклипове, които уж показват прилагането на технологията Gibberlink, започнаха да се появяват, след като тя беше създадена през февруари от Пидкуйко и колегата му инженер по изкуствен интелект Борис Старков по време на 24-часов технологичен хакатон, проведен в Лондон.
Двамата комбинираха ggwave – съществуваща технология с отворен код, която позволява обмен на данни чрез звук – с изкуствен интелект. Така че, реално изкуственият интелект не комуникира на собствен език, той не е „секретен“, тъй като се основава на данни с отворен код и е кодиран от хора.
За Пидкуйко технологията е сравнима с QR кодовете. „Всеки артикул в супермаркета има баркод, което прави пазаруването много по-ефективно.“
Gibberlink е по същество този баркод – или си го представяйте като QR код – но във вид на звук. Хората могат да гледат QR код и да виждат само черно-бели части. Но QR кодовете не плашат хората.“
За какво ще се използва Gibberlnk в бъдеще
Въпреки че използването на технологията Gibberlink е много ограничено в момента, нейните създатели вярват, че тя ще стане по-масова.
С времето ще видим увеличение на броя на обажданията от роботи – и по същество все повече и повече ще виждаме, че един изкуствен интелект дава информация.“
Въпреки че тази технология представлява риск от лишаване на хората от възможността да имат смислено взаимодействие с машината, за Пидкуйко Gibberlink би бил средство за максимизиране на ефективността.
„Друг начин, по който технологията може да се използва, е ако искате да резервирате място в ресторант, но не искате да звъните на 10 различни места, за да питате дали имат място, можете да накарате изкуствен интелект да осъществи обаждането, а ресторантът да накара изкуствен интелект да го приеме. Ако могат да комуникират по-бързо на собствения си език, има смисъл“, заключи Пидкуйко.
По-широки опасения
Опасенията относно това какво може да се случи, ако хората станат неспособни да интерпретират комуникациите между ботовете с изкуствен интелект са реални и през януари пускането на китайския модел DeepSeek R1 предизвика тревога.
Изследователи, които са работили по технологията, разкриха, че са стимулирали изкуственият интелект да намира правилните отговори, независимо дали разсъжденията му са разбираеми за хората.
Това обаче е накарало бота да започне спонтанно да превключва от английски на китайски, за да постигне резултат. Когато изследователите принудили технологията да се придържа към един език – за да гарантират, че потребителите могат да следват процесите ѝ – способността ѝ да намира отговори е била възпрепятствана.
Този инцидент накара експертите от индустрията да се притеснят, че стимулирането на изкуствения интелект да намира правилните отговори, без да се гарантира, че процесите му могат да бъдат разгадани от хората, може да доведе до разработване на езици, които не могат да бъдат разбрани.
През 2017 г. Facebook се отказа от експеримент, след като две програми с изкуствен интелект започнаха да разговарят на език, който само те разбираха.