Интервю | Битката с разпознаването на AI съдържание e напът да бъде загубена
Европа трябва да постигне цифров суверенитет, а в момента не предприема достатъчно действия в тази посока
Проф. Стивън Левандовски от Университета на Бристол:
© ECONOMIC.BG / @lewan.uk
Проф. Стивън Левандовски е изследовател по когнитивни науки в Университета в Бристол, чиито изследвания се фокусират върху пресечната точка между човешкото мислене и архитектурата на онлайн информационните технологии, както и върху последиците за демокрацията. Той проучва как социалните мрежи и техните алгоритми влияят върху разпространението на дезинформация, конспиративни теории и общественото приемане на научни доказателства, включително за ваксинации и климатични промени.
Той е носител на редица престижни отличия – сред тях награда за изключителен изследовател от Австралийския научен съвет, стипендия Wolfson от Кралското общество и награда „Хумболт“. Левандовски е избран за член на Академията на социалните науки във Великобритания, на Асоциацията по психологическа наука и на германската национална академия на науките „Леополдина“ (2022). Признат е като един от най-цитираните учени в света за 2022 г., 2023 г. и 2024 г. от Clarivate.
С проф. Левандовски си говорим за изкуствения интелект, политическите последици от генеративния AI, както и възможностите, които произтичат от него, ефекта му върху демокрацията и човешкото съзнание, за дезинформацията и за значението на проекта SOLARIS, в който „Бранд Медия България“ е партньор.
Проф. Левандовски ще бъде сред участниците във финалната среща на проекта SOLARIS в Утрехт през януари 2026 г., където експерти от цяла Европа ще обсъдят реалните рискове и политическите последици от генеративния AI.
Проф. Левандовски, днес онлайн потребителите са изправени пред нарастваща маса от AI съдържание, както и непроверени публикации от граждани в социалните мрежи. Какво в нашата когнитивна нагласа ни прави уязвими към дезинформация?
Хората еволюционно са склонни да вярват по подразбиране на другите. И обикновено това е напълно логично – съседът няма да ни излъже, когато го питаме в кой ден се събира боклукът. В реалния живот лъжите и измамата в директната комуникация между хората са много редки. Но тази склонност към доверие ни прави уязвими към манипулатори, които целят да ни убедят в нещо невярно.
Дори преди дълбоките фалшификати и AI съдържанието, някои хора бяха привлечени от конспиративни теории и недоказани твърдения. Колко голям риск представляват те за изборите и общественото доверие?
Има достатъчно доказателства, че дезинформацията и конспиративните теории подкопават общественото доверие, включително в изборния процес. Например, в навечерието на президентските избори в САЩ през 2020 г. мнозинството както от републиканците, така и от демократите вярваха, че Байдън е спечелил честно. Едва след масираната кампания на дезинформация от страна на Тръмп и неговите поддръжници републиканците загубиха доверие в резултатите – до степен, че една четвърт от тях вече не подкрепяха мирния преход на властта в края на 2020 г.
Възможно ли е някои потребители несъзнателно да подпомагат разпространението на фалшиво съдържание?
Да. Повечето хора не биха споделили нещо, което знаят, че е невярно – въпреки това значителен дял (около 25%) съзнателно допринасят за разпространението на дезинформация. Този процес се нарича „участническа пропаганда“.
Как според вас големите езикови модели като ChatGPT променят средата на онлайн дезинформацията – влошават ли проблема или могат да бъдат част от решението?
И двете. Те могат да бъдат част от решението, защото се справят много добре с промяната на убежденията на хората относно конспиративни теории и дезинформация, когато водят разговор с тях. Но ChatGPT и подобни системи могат също да бъдат използвани за генериране на дезинформация, включително персонализирани съобщения, които експлоатират индивидуалните слабости на хората.
Като се има предвид, че AI може да генерира убедителен текст, кои когнитивни уязвимости ви тревожат най-много, когато хората се затрудняват да различат човешка от машинно генерирана информация?
Смятам, че тази битка е загубена или е напът да бъде загубена. AI текстовете вече са почти неразличими от човешките, а в близко бъдеще няма да има никакъв начин да ги различаваме.
Прави ли Европа достатъчно, за да ограничи дезинформацията, или все още реагираме твърде бавно?
За разлика от САЩ, Европа поне предприема някакви действия. Но това не е достатъчно. Трябва да постигнем истински цифров суверенитет, така че „информационната диета“ на 450 млн. европейци да не бъде оформяна от шепа плутократи в Силициевата долина.
Какви прости мерки могат да предприемат платформите още сега, за да намалят видимостта на фалшивата информация?
Те отлично знаят какво трябва да направят – Facebook го демонстрира в периода преди изборите през 2020 г. Но в момента липсва политическа воля за това. Напротив – много платформи открито спряха практиките по фактологична проверка, което още веднъж показва колко важно е Европа да постигне цифров суверенитет.
Критичното мислене често се посочва като ключова защита срещу дезинформация, но то се развива бавно и неравномерно. Какви практически стъпки трябва да предприемат институциите – училища, медии, правителства – за да го подсилят в мащаб? И каква отговорност носят правителствата в противодействието на онлайн манипулацията?
Критичното мислене е полезна концепция и, разбира се, трябва да се преподава още от ранна възраст. Но това няма да реши проблема само по себе си. Проблемът е системен и е дълбоко вкоренен в бизнес модела на платформите (икономиката на вниманието) и алгоритмите, които държат хората ангажирани. Затова и решението трябва да бъде системно: трябва да поставим алгоритмите под обществен контрол и отчетност, което може да бъде постигнато единствено чрез цифров суверенитет.
Проектът SOLARIS, финансиран по „Хоризонт Европа“, цели да засили устойчивостта на обществото срещу онлайн манипулация. Какво го прави стратегически важен в този момент?
Най-важният аспект според мен е подходът на „съвместно създаване“ – включването на обществото в самия процес на изследване. Обществото играе ключова роля и трябва да гарантираме, че хората са включени и представлявани.
Коя е най-неотложната промяна в политиките, необходима, за да стане Европа по-малко уязвима към дигитална манипулация през следващото десетилетие?
Има много необходими стъпки – аз съм водещ автор на доклад на ЕС, който трябва да бъде публикуван в края на 2025 г. (или януари 2026 г.) и който предлага редица мерки.
За SOLARIS
Изследователският проект SOLARIS, финансиран по програма „Хоризонт Европа“, има за цел да адресира предизвикателствата, породени от генеративните AI технологии, като насърчава международното сътрудничество и разработва рамки за управление на AI, демократична устойчивост и сигурност.
За повече информация относно проекта SOLARIS и възможностите за участие, посетете уебсайта на проекта.
Този проект е финансиран от Европейския съюз. Въпреки това, изразените възгледи и мнения са само на автора(ите) и не отразяват непременно тези на Европейския съюз или Европейската изпълнителна агенция за научни изследвания (REA). Нито Европейският съюз, нито предоставящият орган могат да носят отговорност за тях.