AI ще изиграе роля, подобна на електричеството и парната машина
Тепърва започва нашето AI пътуване и от нас зависи къде ще ни отведе то
Марк Тор, ръководител „Изкуствен интелект и Интернет на нещата“ на Microsoft за региона на ЦИЕ:
Марк Тор ръководи звеното „Изкуствен интелект и Интернет на нещата“ на Microsoft за региона на ЦИЕ. С него се срещнахме на AI&I Conerence, където той беше един от основните лектори. Пред Economic.bg експертът разказа повече за технологията, бъдещето и предизвикателствата пред нея, както и какво прави в този контекст Microsoft.
Г-н Тор, защо всъщност имаме нужда от изкуствен интелект (AI)?
Хората винаги са се стремели към човечност, да доказват себе си и да подобряват обществото. Изкуственият интелект е още един шанс за това. Животът ни вече е дигитален, но разполагаме с все по-малко време. Затова днес AI ни помага изключително много в обработката на огромните количества данни, така че да успеем да им придадем смисъл. Технологията е шанс драматично да подобрим обществото си. AI вече не е само в лабораториите и е навсякъде около нас – от препоръките на Netflix и Amazon, през личните асистенти и автомобилните сензори до машинния превод. Вярвам, че изкуственият интелект ще бъде определящата технология на нашето време. Подобно на откриването на електричество или развитието на парната машина, тя ще има силата да промени коренно живота на хората, трансформирайки индустрията и преобразувайки обществото.
На какъв етап от развитието си е изкуственият интелект сега? И какви възможности очаквате от технология в бъдеще?
Изкуственият интелект не е нова технология и учените, включително в Microsoft, работят по нея от десетилетия. След период на стагнация AI премина във фаза на нови пробиви, благодарение на създадените алгоритми за „дълбоко учене“, изобилието от данни и евтините облачни изчисления. Изкуственият интелект на Microsoft например успя да постигне съответствие с човешките възможности за разпознаване на обект през 2016 г., за разпознаване на реч – през 2017 г. и за машинен превод – през 2018 г. Въпреки всичко все още не е 100% точен, макар и в много случаи да се справя по-добре от човек. Предстои дълъг път преди да постигнем визията за изкуствен интелект от 50-те години на миналия век.
Засега AI е много добър в изпълнението на определени тясно профилирани задачи, но не и за такива, за които не обучаван. Така например изкуствен интелект, създаден за управление на автомобили, не може да помогне за откриването на тумори, а такъв, който играе шах, няма да се е добър в други състезания. Това само показва, че сме далеч от идеята да общ изкуствен интелект. Тепърва започваме нашето AI пътуване и къде ще ни отведе технологията зависи изцяло от нас.
Трябва ли да стимулираме неговия растеж или да го оставим да се случва от само себе си?
AI се движи бързо в момента, но ако върнем лентата назад, той е наоколо от 1953 г., когато стартират първите проучвания. Дълги години той се е развивал малко по малко. В момента изглежда, че имаме голям инерция, но никой не знае какво предстои и дали няма да се сблъскаме с препятствие, което ще отнеме години за преодоляване. Сигурен съм, че ще има възходи и падения, както и периоди, в които ще се забавяме, но е трудно да се предвиди кога и къде. Това което трябва да направим, е да отворим съзнанието си, да се предизвикаме и да сме отговорни. Това е целта на компании като Microsoft, но същата трябва да имат и правителствата, и гражданите.
Мислите ли, че AI ще промени света единствено към добро?
Всяка нова технология има две страни и може да се използва както за добро, така и за лошо. Интернет например дава огромни възможности и малцина биха оспорили съществуването му, но той отключи вълна от измами, следене и злоупотреба с лични данни. Случаят с AI не е по-различен. Днес има чудесни негови приложения. В Румъния например имаме проект с изкуствен интелект, който помага на деца с говорни проблеми. Microsoft Transcription Service в PowerPoint пък позволява на глухи хора да бъдат въвлечени към презентации чрез субтитри в реално време и за първи път се отворя възможност за премахването на непреднамерената дискриминация. Казвайки всичко това обаче, трябва да осъзнаем също, че има и хора, които опитват да използват технологията за лоши неща.
Когато изкуственият интелект може да бъде опасен? И какво прави Microsoft, за да предотврати негативните последици?
Нямам кристална топка, за да предвидя накъде отива AI, но се вълнувам от потенциала му. Лично аз вярвам, че той ще се използва най-вече по предназначението си – да помага на хората и да решава проблеми, които по-рано смятахме, че са невъзможни. При все това, технологията постепенно става повсеместна, затова за компаниите е наложително да разработят и приемат ясни принципи, които да ръководят хората в създаването, използването и прилагането на AI.
Това е, върху което се фокусираме в Microsoft и е причината да дефинираме шест основни принципа на AI, за да гарантираме, че тези системи са справедливи, надеждни и безопасни, частни и сигурни, приобщаващи, прозрачни и отчетливи. Всичко това е подробно описано в книгата „Инструменти и оръжия“ от Брад Смит и Керол Ан Браун. В крайна сметка от нас зависи да променим въпроса от „Какво могат да правят компютрите?“ на „Какво трябва да правят?“. Това не е отговор, който само една компания може да даде – необходим е приносът на гражданите, правителствата, регулаторите, другите технологични компании и пр. Пътят напред ще бъде този, който определям ние.
Как можем да изградим безопасен AI в този непредсказуем свят?
В Microsoft разработихме вътрешен консултативен комитет, за да гарантираме, че нашите продукти спазват шестте принципа, които посочих по-рано. Ние сме съосновател на Partnership on AI, организация, посветена на изучаването и формулирането на най-добрите практики в областта на изкуствения интелект. Създадохме индустриални партньорства както с Amazon, така и с Facebook, за да направим AI по-достъпен за всички. Тъй като AI системите стават все по-масови, ние вярваме, че като общество носим споделена отговорност за създаването на надеждни AI системи и че трябва да работим заедно, за да постигнем консенсус за това какви принципи и ценности трябва да управляват развитието и използването му. Например, ние призовахме за обмислено правителствено регулиране на технологиите за разпознаване на лица, тъй като смятаме, че тя е много мощна и изисква както публичния, така и частния сектор да разработят норми за приемливи приложения. Това би било в допълнение към други регулации на AI, например чрез съществуващите предпазни мерки за поверителност като Общия регламент за защита на данните (GDPR) и Закона за преносимост и отчетност на здравното осигуряване, известен като HIPAA. Европейският съюз също така публикува някои Насоки за етика за надежден AI, което показва, че на регулирането започва да се гледа по-ясно. Мисля, че трябва да бъдем нащрек, докато технологията се развива и коригира това, което правим, за да останем верни на принципите на използването на AI.
Кой би бил отговорен за грешките на AI – например, пътен инцидент с автономен автомобил?
Сигурен съм, че има много мнения по този въпрос. Моето е, че отговорността за работата на алгоритъма е на създателя му. Не казвам, че те трябва да поемат вината за всички грешки, които ще се появят. Имаме добре установени начини за проверка и смекчаващите обстоятелства винаги се вземат предвид. Мисля, че ще е същото и с AI. Точно както никой човек не е съвършен, така AI никога няма да бъде съвършен. Докато откриваме неизправности, трябва да ги минимизираме, за да не се появят отново. Вероятно ще видим някакви законови промени и регулации в процеса на развитие на AI.
Много AI системи се обучават, използвайки данни, базирани на човешките предразсъдъци. Защо това е проблем и как изследователите могат да ги смекчат?
Това е област, която получава все по-голямо внимание. Мисля, че ще разполагаме с инструменти и технологии, които да ни помогнат да смекчим този проблем много. Вярвам, че с течение на времето ще виждаме все по-малко пристрастия. Вече много алгоритми например фиксират такива предубеждения, присъщи за хората. В много компании, като Microsoft, трескаво се работи по идентифицирането и премахването на такива исторически обусловени пристрастия, които биха могли да бъдат скрити в данните.
За да разберете защо това е проблем, трябва да погледнете какво правим, за да изградим AI модел. По същество обработваме огромни количества исторически данни, за да открием модели. Тези исторически данни обучават изкуствения интелект така, че да ни помогнат да разберем нещата. Проблемът е, че AI, подобно на хората, разчита да получи точни данни, за да забележи моделите, да се научи и да извлече своите заключения. Данните, които му предоставяме обаче често съдържат исторически пристрастия и в такива случаи алгоритъмът често ги разпространява. То е подобно на случай, когато човек прочете фалшива новина и след това я сподели, вярвайки, че е истина. Докато някой не покаже, че не е вярно, тя ще продължи да се разпространява. Нашата роля в момента е да помогнем за повишаване на осведомеността за пристрастията в нашите набори от данни за AI и как хората могат да ги забележат.