AI и крипто в едно: Или (анти)утопиите, за които трябва да сме нащрек днес
Порой от етични въпроси за изкуствения интелект заливат обществото днес, а необходимостта от балансирани регулации сега е по-важна от всякога
Блестящи метални кълба, пръснати в градове по целия свят привличат хорските погледи от месеци насам. Създателите им ги обявяват за революционно решение за цифрова идентичност и обещават нова ера на финансова стабилност. Критиците ги определят като антиутопични и експлоататорски. Да, за WorldCoin става дума – проектът за криптографски изкуствен интелект на основателя на OpenAI Сам Алтман.
Замислен да елиминира веднъж завинаги съмненията дали от другата страна на екрана стои човек или бот, WorldCoin предлага решение за цифрова идентичност чрез сканиране на ириса. Но заедно с това отваря много етични въпроси, един от които е свързан с примамливото обещание за универсален базов доход чрез получаване на дял от едноименната криптовалута WorldCoin – право, което всеки човек ще има по подразбиране просто защото е човек.
Ще предоставя фиксирани пари на хора, които например ще бъдат афектирани от навлизането на изкуствения интелект в нашия живот. Аз мисля, че това е един от подходите, които евентуално би бил добър при загуба на много работни места. Проблемът е, че в замяна на този доход се сканира окото и той се обвързва с електронна идентичност“, коментира д-р Моника Манолова.
WorldCoin е само пресен пример за купищата въпроси, които напредничавите технологии с изкуствен интелект и комбинацията им с други такива, както в случая с блокчейн, излизат на повърхността на обществения дискурс.
Кога иновативните концепции могат да излязат от контрол? За какво трябва да внимаваме, за да не поставим основите на бъдещи антиутопични сценарии? Какви предизвикателства се раждат при комбинирането технологии като блокчейн и AI в едно?
Тези и още много други любопитни въпроси ще бъдат дискутирани в тематичния панел “Ethics and Regulations of AI: Building a Responsible AI Framework in times of fast-evolving innovations”, който Моника Манолова ще модерира по време на международната конференция AI N' Cyber 2023.
За поредна година събитието ще събере на една сцена в София световни топ експерти в сферата на изкуствения интелект и киберсигурността. Форумът се организира от Дигитална национална коалиция в партньорство с economic.bg и Фондация „Конрад Аденауер“. И ще се проведе на 26 октомври – по традиция в зала „Джон Атанасов“ в София Тех Парк. Актуална информация за събитието може да намерите на сайта, във Facebook и LinkedIn.
Коя е Моника Манолова?
Моника Манолова е доктор по географски информационни системи (ГИС) и професионално се занимава с телекомуникации. С времето осъзнава, че нейната наука е нишов вход за влизане в света на изкуствения интелект.
Географските изкуствени интелекти са свързани с обработка на сателитни изображения, които са много тежки, водят се big data и единственият начин да бъдат ефективно обработвани е чрез машинно обучение и различни форми на AI.“
Моника Манолова работи с Morality and knowledge in AI (MKAI), една от най-големите общности по етика в изкуствения интелект в света, с които развива различни проекти. Един от най-известните е свързан с виртуални реалности и се реализира с XRSI. В България е експерт по темата в Дигитална национална коалиция.
Според нея страната ни държи добри позиции в развиването на темата за етиката в изкуствения интелект.
Ако всички работим заедно, можем да бъдем една от най-силните страни в изкуствения интелект и етиката в AI.“
Технологии за добро: Мисията (не)възможна
„Ние, които се занимаваме с етика в AI, искаме изкуственият интелект да се ползва за добро, за подобряване на качеството на живот на хората, за разработката на нови лекарства и решения, свързани с околната среда. Ако се преследва само чистата монетизация, това не е добре и води до изкривяване на разбирането за изкуствен интелект – от това за какво той може да бъде ползван до чисто социални дефекти“, коментира Моника Манолова.
И дава пример с компанията майка на Facebook, Meta, която доскоро имаше отдел, занимаващ се с разработката на нови лекарства, но го затвори и съкрати експертите там – за да може да инвестира по-активно в разработката на чатботове. „Това е пазарна тактика, но е грешно разбиране за това какво може да ни донесе изкуственият интелект – разбиране, свързано с директна монетизация спрямо индиректните ползи“, отбелязва Моника Манолова.
„Този който използва инструмента, той дефинира бизнес модела на корпорациите – ако една корпорация вижда, че хората се интересуват от подобряване на окол среда, от създаването на благоприятни ефекти, тази корпорация ще се саморегулира и ще започне да произвежда подобни резултати.“
Пускането на ChatGPT извън кутията предизвика лавина от подобни решения в корпоративния свят. Институциите също се усетиха бързо и започнаха да произвеждат регулации – от ЮНЕСКО през Белия дом до Великобритания и ЕС.
Интересното е, че всяка страна има свой фокус и подхожда различно към темата.“
В Индия например законодателството е насочено към запазването на работните места, дава пример Моника Манолова. В Канада са с по-артистичен подход и там регулациите се насочват към запазването на авторското право, така че създателите да не бъдат засегнати от инструменти като ChatGPT. В Европа, където бе разработен AI Act, целта на регулатора е „да се предпазим от социална класификация“.
Според Моника Манолова това е много добър подход, но признава, че има риск отново да се прекали с регулациите и да се изпусне така нужният на Европа иновационен тласък. Старият континент е известен с научните си постижения, но със слабостта си в прилагането.
Имаме нужда много-много бързо да разработим модели, които да са конкурентни на моделите в САЩ и Азия и имаме нужда да го направим по начин, който да не наруши демократичните права на хората в Европа, които са основна ценност на ЕС.“
В регулирането на AI има три звена: етика на данните, етика на алгоритмите и етика на приложението. Във всяко от тези полета трябва да се прилагат няколко принципа – данните да са балансирани, да не изключват някой нарочно, алогоритъмът да бъде обясним как работи, а при прилагането на е много важно да се елиминира рискът от емоционално влияние.
Според Моника Манолова придаването на човешки качества на изкуствения ин, който е алгоритъм, не е правилно това е заблуждаващо. Затова трябва да има ясни и категорични демаркации, защото бъдещите поколения няма да бъдат способни да различат кога това, с което комуникират, е изкуствен интелект и кога не е.
Дори в момента някои хора, които комуникират с такива инструменти, не са способни да разберат разликите, какво остава за поколения, които ще израснат с тези инструменти в ръцете си – достъпни, както е телефонът.“