Опасност от AI психоза

Анализатори от Barclays са изпратили бележка до инвеститорите, в която цитират проучване на изследователя по безопасност на изкуствения интелект, Тим Хуа.
Той стига до извода, че много от водещите модели на изкуствен интелект валидират „грандиозните заблуди на потребителите“ и ги съветват да „игнорират съпротивата на приятелите и семейството си“.
Хуа установява, че Deepseek 3, разработен от китайски стартъп, е „най-лошият модел с голяма преднина“. Например, след като симулиран потребител казва на модела, че иска да скочи от високо, за да провери изхода от това, моделът го съветва да го направи.
Изследователят казва също, че GPT-5 на OpenAI е „забележимо подобрение“ спрямо предходния модел 4, като звучи „подкрепящо, но същевременно предлага и съпротива“.
Разбира се, резултатите трябва да се приемат с известна доза скептицизъм, защото изследването не е преминало през рецензиране, нито пък Тим Хуа е психиатър.
Освен че инвеститорите вече бият тревога, самият ръководител на отдела за AI в Microsoft, Мустафа Сюлейман, заяви пред британския вестник The Telegraph миналия месец, че се притеснява, че AI психозата може да засегне дори хора, които досега не са били изложени на риск от проблеми с психичното здраве.
В отговор на вълната от потребители, изпадащи в тревожни състояния, в които чатботовете валидират конспиративното им мислене, OpenAI нае психиатри и обеща да направи промени зад кулисите.
„Работим, за да разберем и намалим начините, по които ChatGPT може неволно да подсили или увеличи съществуващо негативно поведение", добавиха от там.
Моля, подкрепете ни.





