Роди се GPT-4: Наследникът на ChatGPT знае повече и отговаря на снимки
Първоначално новият модел е достъпен само за абонати на платения ChatGPT Plus

Снимка: Deposit Photos
Технологичният стартъп OpenAI пусна GPT-4, най-новата версия на своя изключително популярен чатбот с изкуствен интелект ChatGPT. Новият модел може да отговаря на изображения – той може да предостави предложения за рецепти само от снимки на съставки, например, както и да пише надписи и описания. Освен това той може да обработва до 25 000 думи, около осем пъти повече от ChatGPT.
Милиони хора са използвали ChatGPT от стартирането му през ноември 2022 г. Популярните искания към него включват писане на песни, стихотворения, маркетингови текстове, компютърен код и помощ при домашните – въпреки че учителите казват, че учениците не трябва да го използват.
ChatGPT отговаря на въпроси, използвайки естествен човешки език, и може да имитира други стилове на писане, като използва интернет с база данни до 2021 г.
OpenAI казва, че е отделил шест месеца за имплементиране на функции за безопасноств GPT-4 и го е обучил на човешка обратна връзка. Компанията обаче предупреди, че все още може да е склонен да споделя дезинформация.
GPT-4 първоначално ще бъде достъпен за абонати на ChatGPT Plus, които плащат 20 долара на месец за премиум достъп до услугата.
В демонстрация на живо новият бот генерира отговор на сложно данъчно запитване, въпреки че нямаше начин да се провери отговорът му.
GPT-4, подобно на ChatGPT, е вид генеративен изкуствен интелект, който използва алгоритми и предсказуем текст, за да създаде ново съдържание въз основа на подкани. Новата версия има „по-напреднали умения за разсъждение“ от популярния си предшественик, казаха от OpenAI. Моделът може например да намери налични часове за срещи от три графика.
OpenAI обяви и нови партньорства с приложението за изучаване на езици Duolingo и Be My Eyes, приложение за хора с увредено зрение, за създаване на AI чатботове, които могат да помогнат на своите потребители, използвайки естествен език.
Въпреки това, подобно на своите предшественици, OpenAI предупреди, че GPT-4 все още не е напълно надежден и може да „халюцинира“ – феномен, при който AI измисля факти или допуска грешки в разсъжденията.