Речникът на “Кеймбридж” обяви думата на годината
Традиционното обяснение за "халюцинирам" е "да виждаш, чуваш и усещаш нещо, което не съществува". Сега обаче към тази дефиниция се прибавя и друго - когато изкуственият интелект започне да произвежда невярна информация.
Експерти от университета в Кеймбридж посочват, че всъщност въвеждането на тази нова дефиниция представлява "моментна снимка" на човешкото възприятие спрямо изкуствения интелект и импулсът да му приписваме човешки качества (т.нар. антропоморфизъм). Използването на думата "халюцинирам" за ИИ всъщност отразява дълбока промяна във възприятието.
Халюцинациите на изкуствения интелект се наричат още “конфабулации” и често изглеждат напълно безсмислени. Могат обаче да изглеждат и напълно правдоподобни. Адвокатска кантора в САЩ използва ChatGPT за правни изследвания, което доведе до цитиране на фиктивни случаи в съда, например, пишат от “Кеймбридж”.
От там предупреждават, че способността на ИИ да халюцинира всъщност показва нуждата от критично мислене у хората.
Така наречените “халюцинации“ възникват, когато ИИ модели като ChatGPT на OpenAI или Bard на Google изфабрикуват изцяло информация, държейки така, сякаш представят факти. Така през февруари в промоционален видеоклип на Google за Bard чатботът направи невярно твърдение за космическия телескоп James Webb.
От OpenAI посочиха, че дори най-съвременните модели са склонни да създават лъжи и да халюцинират. Затова компанията предприе нова стратегия, за да се пребори с халюцинациите на AI - моделите да бъдат обучавани и да да се възнаграждават за всяка индивидуална правилна стъпка в разсъждението, когато стигат до отговор, вместо само за правилното окончателно заключение.
Моля, подкрепете ни.