Кой ще контролира изкуствения интелект
Европейският съюз вече търси начини как машините да са по-равностойни партньори на хората

© ECONOMIC.BG / Pixabay
Изкуственият интелект (ИИ) е технология, която в последните години се развива с много бързи темпове. Даниъл Канеман, израелско-американски психолог и нобелов лауреат, предупреди, че човечеството не е готово за предизвикателствата на ИИ. Тази технология според него един ден ще доминира над хората. Заплахата все още изглежда далеч. Как обаче да се предпазим, без да спрем технологичната еволюция и без да сложим развитието ѝ под похлупак – гледната точка на Владимир Петков, изпълнителен директор на Identrics:
Мислещите машини са продуктивни, те четат бързо и далеч по-бързо от хората вземат решения. Но те трябва да бъдат научени от хората. Човечеството постигна голям технологичен прогрес и вече има все по-широк достъп до машините с изкуствен интелект. Все повече се говори за ефектите от неговото внедряване, но най-важният въпрос е дали всичко това е редно и доколко е етично. Голямата тема е етичният ИИ.
Технологията се развива, но внимателно ли се следи какъв би бил
ефектът
върху обществото? Събират се много данни за всичко и за всеки и въпросът е кой, как и за какви цели използва това знание. Google и Facebook трупат много персонални данни в глобалната мрежа. Те предоставят услуга, за която потребителите „плащат“ със знанието за самите тях. И тук се отваря темата доколко и това е етично. И се чака отговор на въпроса чия ще е задачата до го регулира.
ИИ събира данни и трябва да е ясно кога той може да бъде оставен да взема автономно решение, което би повлияло върху човешки съдби. Например все по-често машина филтрира кандидатите за работа по определени критерии. ЕС обаче счита това за рискова употреба, тъй като някои хора може да понесат вреди. Затова се готви регулация, която да предотврати възможността някой да пострада от решенията на ИИ. Към момента са дефинирани четири степени на риск при неговото използване. Препоръките, които ИИ дава, не бива да са базирани на предразсъдъци и дискриминация.
Евросъюзът иска да въведе система, която
да постави под контрол
високорисковата употреба на ИИ. За целта ще бъде създаден Европейски борд за изкуствен интелект, като ще се открият и регионални подразделения. Но още на този етап ЕС дефинира сфера на приложение, която е забранена – напримерq системите за масово наблюдение и системите, в които държавите слагат рейтинг на своите граждани въз основа на тяхното поведение онлайн или в живия живот. На база такива проучвания няма да е позволено в страните от ЕС да се отказва достъп до определени блага или услуги, каквато практика вече има в Китай. Регулацията ще наложи сертификация за дейностите, в които се използва ИИ. Директивата обаче не бива да повлияе негативно на предприемачеството и иновациите. Трябва да се има предвид, че нейната поява ще увеличи разходите на бизнеса и ще забави внедряването на такива разработки. Ако процедурата по сертификацията е сложна и тромава, ако се извършва от хора, които не са достатъчно компетентни правилно да преценят рисковете, това ще затрудни целия процес по използването на ИИ, тъй като директивата засяга не само производителите, но и онези, които внедряват технологията. Затова трябва
да се внимава с рамките, които регулацията ще наложи
Дали изкуственият интелект трябва да е етичен? Дали тези, които го произвеждат, трябва да гарантират, че е направен съобразно най-високите етични стандарти? Дали трябва да има регулации за изкуствения интелект? Отговорът на всички тези въпроси определено е “Да”. Иновацията достатъчно се разви и не бива да чакаме тя още повече да се развие, за да започнем едва след това да изследваме ефекта върху обществото. Ето защо онези, които развиват технологията, трябва да започнат да работят с психолози, социолози, философи. Иде време да се изследва как присъствието на ИИ ще се отразява на естествения интелект.
Изкуственият интелект е машина, която се обучава също както малко дете, и до голяма степен тя разчита на създателите си да ѝ покажат
кое е добро и кое е лошо
Това се прави чрез примери. Ако машината не се обучава по етичен начин, може да си проправят път някаква форма на предразсъдъци или език на омразата.
Най-големият риск при използването на ИИ несъмнено е употребата му за военни цели. Вече има регистрирани случаи на дронове с изкуствен интелект, оставен сам да взима решения дали да предприеме атака срещу хора. Това не е научна фантастика, а вече са налице реални разработки и ще е опасно машини, които са въоръжени, да имат автономност сами да предприемат бойни действия.
Опасно за обществото е използването на ИИ за
създаване на зловредно съдържание
с цел медийна манипулация, насаждане на омраза и разединение. Вече има машини, които пишат музикални и литературни произведения или помагат на хора да четат – това е просто част от разнообразието. Онова, което трябва да се забрани, е използването на ИИ за създаването на фалшива информация и видеосъдържание. Не бива да заклеймим технологията заради възможна двойна употреба, а да регулираме кой и как може да я прилага.
Машините може да ни помагат да работим по-малко, да ни заменят в еднообразната времеемка работа. Използването на ИИ означава по-голяма ефективност, по-висок БВП, но и нови професии. Икономиката на бъдещето, казват, ще е икономика на създателите на съдържание. На този етап хората държат ключа към креативността, машините – към бързината. Затова нека правилно да ги обучим. Онези, които ще са ангажирани с това, трябва да притежават високи морално-етични стандарти.
Владимир Петков е CEO на високотехнологичната Identrics от 2016 г. Компанията се занимава с разработване на решения, базирани на изкуствен интелект и машинно обучение. Петков е Chief Data Officer в Updata One - общност от компании, ангажирани с обработка и доставяне на информация, но и със създаването на нова платформа за комуникация с техните аудитории. Той има и дългогодишен опит като СТО в A Data Pro, както и кариерен път в сферата на дигиталните медии и бизнес развитието. Поддържа подкаст на тема медии и технологии. Води лекции по онлайн бизнес и дигитални медии в СУ „Св. Климент Охридски“ и в НБУ.