Появата на DeepSeek може да отприщи огромни рискове за човечеството
Американските фирми и други конкуренти на DeepSeek могат да се съсредоточат върху възвръщането на лидерството си вместо върху безопасността

© ECONOMIC.BG / Deposit Photos
Потенциалът за използване на системи с изкуствен интелект за злонамерени действия се увеличава, показва изследователска доклад по темата. Водещият автор на проучването предупреждава, че DeepSeek и други като него могат да увеличат риска за безопасността.
Йошуа Бенгио, смятан за един от кръстниците на съвременния AI, заяви, че напредъкът на китайския стартъп DeepSeek може да увеличи тревогите в една област, която през последните години е доминирана от САЩ.
Това ще означава по-близка надпревара, което обикновено не е добре от гледна точка на безопасността на AI“, каза той пред Guardian.
Бенгио обясни, че американските фирми и други конкуренти на DeepSeek могат да се съсредоточат върху възвръщането на лидерството си вместо върху безопасността. OpenAI, разработчикът на ChatGPT например обеща тази седмица да ускори пускането на продукти в отговор на нарасналата конкуренция.
„Ако си представите състезание между два субекта и единият мисли, че е много напред, тогава той може да си позволи да бъде по-предпазлив и все пак да знае, че ще остане напред“, каза Бенгио. „Докато ако имате конкуренция между две структури и те смятат, че другата е на същото ниво, тогава трябва да ускорят. Тогава може би не обръщат толкова внимание на безопасността.“
Бенгио говори в лично качество преди публикуването на обширен доклад за безопасността на AI.
Първият пълен международен доклад за безопасността на AI е съставен от група от 96 експерти, сред които е и носителят на Нобелова награда Джефри Хинтън. Бенгио, съносител през 2018 г. на наградата „Тюринг“, наричана Нобелова награда за информатика, бе натоварен от правителството на Обединеното кралство да ръководи доклада, който бе обявен на световната среща на върха по въпросите на безопасността на AI в Блетчли Парк през 2023 г. Членовете на експертната група бяха номинирани от 30 държави, както и от ЕС и ООН. Следващата световна среща на върха за AI ще се проведе в Париж на 10 и 11 февруари.
В доклада се посочва, че след публикуването на междинно проучване през май миналата година системите с изкуствен интелект с общо предназначение, като чатботовете, са станали по-способни в „области, които са от значение за злонамерена употреба“, като например използването на автоматизирани инструменти за открояване на уязвимости в софтуер и IT системи и даване на насоки за производството на биологични и химически оръжия.
В него се казва, че новите AI модели могат да генерират стъпка по стъпка технически инструкции за създаване на патогени и токсини, които надхвърлят възможностите на експерти с докторски степени, като OpenAI признава, че нейният усъвършенстван модел o1 може да помогне на специалистите да планират как да произвеждат биологични заплахи.
В доклада обаче се казва, че не е сигурно дали новаците ще могат да действат според указанията, както и че моделите могат да се използват и за полезни цели, например в медицината.
В разговор с Guardian Бенгио заяви, че вече са се появили модели, които с помощта на камерата на смартфон теоретично могат да насочват хората при изпълнението на опасни задачи, като например опит за създаване на биологично оръжие.
Тези инструменти стават все по-лесни за използване от хора, които не са експерти, защото могат да раздробят сложна задача на по-малки стъпки, които всеки може да разбере, и след това могат интерактивно да ви помогнат да ги изпълните правилно. А това е много различно от използването, да речем, на търсачката на Google“, казва той.
В доклада се казва, че от миналата година насам системите с изкуствен интелект са подобрили значително способността си да откриват недостатъци в софтуера автономно, без човешка намеса. Това може да помогне на хакерите да планират кибератаки.
Въпреки това в доклада се казва, че автономното извършване на реални атаки засега не е по силите на системите с изкуствен интелект, тъй като те изискват „изключително ниво на прецизност“.