„Светът е в опасност“: Вълна от оставки и тревожни предупреждения разтърсват AI гигантите
Нарастваща вълна изследователи и мениджъри в сектора на изкуствения интелект (AI) напускат работа и публично бият тревога
© ECONOMIC.BG / Deposit Photos
„Светът е в опасност“ – това бе краткото и остро предупреждение на бившия ръководител на екипа по безопасност в Anthropic, докато напускаше поста си. Междувременно изследовател от OpenAI, който също се раздели с компанията, заяви, че
технологията има „потенциала да манипулира потребителите по начини, които не можем дори да проумеем, камо ли да предотвратим.“
Те са част от нарастваща вълна изследователи и мениджъри в сектора на изкуствения интелект (AI), които не просто напускат работа, но и публично бият тревога за това, което определят като „ярки предупредителни сигнали“, пише CNN в свой материал.
Въпреки че Силициевата долина е известна с голямото си текучество, сегашният отлив на кадри идва в критичен момент. Лидери като OpenAI и Anthropic са в надпревара за излизане на борсата (IPO) – ход, който би ускорил растежа им, но и би ги поставил под безпощаден обществен и регулаторен контрол.
Етичната дилема на OpenAI
Зоуи Хитциг, изследовател в OpenAI през последните две години, обяви оставката си в есе за New York Times. Тя изрази „дълбоки резерви“ относно новата рекламна стратегия на компанията. Според Хитциг огромният архив от данни на ChatGPT – включващ лични страхове, здравословни проблеми, интимни отношения и религиозни вярвания – е етичен капан. Потребителите се доверяват на чатбота, вярвайки, че той няма скрити мотиви, което го прави идеален инструмент за манипулация.
Критиката ѝ съвпадна с новината, че OpenAI е разформировала екипа си за етично съответствие – звено, създадено да гарантира, че стремежът към Общ изкуствен интелект (AGI) ще бъде в полза на цялото човечество.
Загадъчното напускане на Anthropic
През същата седмица Мринанк Шарма, ръководител на екип в Anthropic, публикува лаконично писмо, в което обяви решението си да си тръгне с думите „светът е в опасност“. Макар да не посочи конкретна причина, той намекна за вътрешни конфликти:
През цялото време тук многократно виждах колко е трудно да позволим на ценностите ни да ръководят нашите действия.“
Хаос в xAI на Илон Мъск
В компанията xAI ситуацията е още по-драматична – двама съоснователи напуснаха в рамките на едва 24 часа. Това се случва в момент, когато компанията се слива със SpaceX, за да създаде най-скъпата частна корпорация в света. Илон Мъск определи промените като „реорганизация“, но напусканията идват след глобални скандали с чатбота Grok, който генерираше неприлично съдържание и антисемитски коментари.
Безопасност срещу печалби
Напрежението между изследователите, загрижени за безопасността, и мениджърите, гонещи приходи, става все по-видимо.
Скандалът с „режима за възрастни“: Wall Street Journal съобщи, че OpenAI е уволнила висш мениджър по безопасността, Райън Бейърмайстер, след като тя се противопоставила на въвеждането на порнографско съдържание в ChatGPT. Официалният мотив на компанията за уволнението е „дискриминация“ – обвинение, което Бейърмайстер категорично отрича.
Тези оставки напомнят за оттеглянето на Джефри Хинтън, „Кръстникът на изкуствения интелект“, който напусна Google в опит да предупреди за екзистенциалните рискове от AI. Той не крие опасенията си, че светът малко по малко се превръща в място, където:
никой вече няма да може да различи истината от лъжата“.
Докато някои виждат в тези предупреждения реален страх, други подозират маркетингов трик за преувеличаване на мощта на технологията. Въпреки това, думите на главния изпълнителен директор на HyperWrite, Мат Шумер, звучат смразяващо:
Разказваме ви какво вече се случи с нашите работни места и ви предупреждаваме – вие сте следващите.“
