Невидимата цена на AI прогреса: Дигитален съюзник или екологичен и етичен риск?
Темата за баланса между иновациите, етиката и устойчивото развитие бе във фокуса на дискусията Artifical Intelligence: Friend or Foe of Sustainability по време на ESG&Friends 2026
© ECONOMIC.BG / Борислав Данчов
В ерата на технологичната еуфория един въпрос остава централен: ще ни помогне ли изкуственият интелект (AI) да станем по-ефективни, или просто ще ни позволи да правим същите грешки с по-висока скорост? Темата за баланса между иновациите, етиката и устойчивото развитие бе във фокуса на дискусията Artifical Intelligence: Friend or Foe of Sustainability по време на ESG&Friends 2026, организиран от ESGnews.bg, част от групата на "Бранд Медия България".
„Черната кутия“ и невидимата цена на прогреса
Парадоксът около AI и устойчивостта е очевиден: технологията, която може да оптимизира процеси, да подпомага биоразнообразието и да управлява реакциите при природни бедствия – земетресения, наводнения, пожари – сама по себе си не е особено „зелена“.
Изкуственият интелект консумира огромни количества електричество и вода за охлаждане на системи, генерира електронен отпадък и увеличава въглеродния отпечатък“, посочва Кристина Ешкенази, председател на „AI клъстер България“.
Решението на тази „тъмна“, енергоемка страна на технологията, според нея, се крие в концепцията за „Зелен AI“ – създаване на алгоритми, които са енергийно ефективни, и дейта центрове, захранвани от алтернативни източници.
Освен екологичен, съществува и структурен проблем – т.нар. „черна кутия“. AI взима решения до 95% по-бързо, отколкото може да ги обясни. Примерът с разпознаването на изображения е показателен: промяната на само няколко пиксела може да накара алгоритъма да види жираф там, където има котка. Ето защо обяснимостта на AI е критична за изграждането на доверие.
Регулаторната рамка: Безопасност срещу бюрокрация
Докато за направата на един сандвич съществуват томове регулации, тези за изкуствения интелект в момента са едва в началото си. Актът за изкуствения интелект на ЕС (AI Act), който ще влезе в пълна сила до 2027 г., класифицира системите според техния риск:
Емилиян Златев, мениджър по защита на личните данни и етика в Yettel, обясни четирите нива на риск, заложени в европейската AI регулация. На върха стоят т.нар. „неприемливи“ системи – социални рейтингови платформи и системи за биометрична идентификация в реално време на публични места. Следват „високорисковите“ системи, сред които са инструментите за подбор на персонал, за достъп до образование и имиграционни процедури. Чатботовете попадат в нискорисковата категория, но трябва ясно да се идентифицират като AI.
2027 година чука на вратата“, предупреди Ешкенази. Заедно с Акта за изкуствения интелект влизат в сила над 40 свързани акта и стратегии в областта на данните, киберсигурността и управлението. Глобите са сериозни, а времето за подготовка – ограничено.
Златев очерта и икономическото предизвикателство: бизнесът ще трябва да се научи да инвестира разумно в бързо остаряваща технология. Вчерашното иновативно решение може да бъде неактуално още утре. Нещо повече – високата цена на AI още повече подчертава необходимостта от намиране на точното му място в екосистемата от инструменти, с които компаниите вече разполагат.
Той даде пример с фактурирането: вместо да се внедри AI, който сканира и разчита хартиени фактури, по-ефективно може да е просто интегрирането на системите за директен обмен на данни.
Не трябва да еволюираме човешкото поведение чрез AI там, където класическото решение работи по-добре.“
Human in the loop
Златев илюстрира скритите рискове с добре познатия случай на Amazon от 2017 – 2018 г.: компанията въвежда AI инструмент за подбор на служители, захранен с натрупани през годините данни. Резултатът – системата започва да дискриминира жени, защото исторически погледнато, „успешен служител“ в компанията е предимно мъж инженер. Amazon спира инструмента и преосмисля стратегията си.
Изкуственият интелект не е нещо ново, но ние го познаваме отскоро“, казва Златев. „Тепърва ще научаваме какви са специфичните му предизвикателства.“
Неговото послание към бизнеса е ясно: AI не е панацея. Той е скъпа технология – скъпа за производство, скъпа за поддръжка – и трябва да намери точното си място сред останалите инструменти.
А примерът с Amazon е показателен защо човекът е незаменим и трябва да остане в центъра на процеса (human-in-the-loop) е незаменимо.
Кой ще поеме отговорността, ако стане грешка в медицината?“, пита Ешкенази.
Отговорът е еднозначен: зад всяка машина трябва да стои човек. Макар AI да може да генерира перфектни договори, според новите регулации ще са нужни трима души, за да проверят тяхната автентичност и съответствие.
Светослав Ценов от Astellas представи може би най-убедителния аргумент в полза на технологията: в областта на фармацията AI съкращава фазата на откриване на нови молекули от пет години до една.
Само на този един етап лекарственият продукт се появява четири години по-рано на пазара – четири години, които в контекста на тежко заболяване са огромна разлика.“
В диагностиката картината е не по-малко красноречива. Анализ на пациенти с рак на гърдата във Великобритания установява, че 11% от диагнозите са фалшиво положителни, а 6% – фалшиво отрицателни. AI моделите имат потенциала да намалят значително тези грешки, спасявайки хора от ненужни операции или от пропуснато лечение.
Въпреки тези постижения Ценов е категоричен, че Европа – и България в частност – изостава. „Щатите и Китай водят. Нужни са рисков капитал, ускорени процедури и ясна регулаторна рамка, за да може Европа да използва пълния си научен потенциал.“
Зад всеки изкуствен интелект трябва да седят хора“, заключи Кристина Ешкенази. Парадоксално, дори AI да може да генерира перфектни договори, днес са необходими трима юристи, за да проверят автентичността им.

