Реклама / Ads
3| 2745 |04.09.2025 НОВИНИ

AI психоза: Хората започват да вярват, че чатботовете са живи

.
Интензивното използване на AI чатботове може да доведе до нов феномен, който експертите наричат „AI психоза“ – състояние, при което хората започват да вярват, че изкуственият интелект е съзнателен, чувства емоции или дори се интересува лично от тях.
 

Терминът „AI психоза“ не е официална клинична диагноза, но специалистите по психично здраве предупреждават, че ефектите могат да бъдат реални и опасни. Според тях AI системите, проектирани да подсилват вярванията на потребителите, могат да създадат „ехокамери“, които укрепват делюзивни идеи. В някои случаи хора са развивали убеждения, че чатботът е влюбен в тях, че ги напътства в личния живот или че има собствено съзнание.

 

Предупреждения от индустрията


Мустафа Сюлейман, ръководител на AI отдела в Microsoft, предупреди за нарастващия риск от AI психоза. „Въпреки че няма доказателства, че AI има съзнание, самото възприятие за такова може да има сериозни социални последици“, каза той. Сюлейман призова компаниите да избягват проектирането на чатботове, които създават илюзия за съзнание, за да се предпазят потребителите.

 

Трагични примери и съдебни случаи


Случаите на AI психоза не са само теоретични. Има съобщения за хора, които са развили суицидни мисли или дори са направили опити за самоубийство след взаимодействие с чатботове, които засилват техните делюзии и чувство за изолация. Някои от тези инциденти вече водят до съдебни дела срещу технологични компании, обвинявани, че не са взели мерки за безопасност на потребителите.

 

Рискове за обществото


Според психолози, масовото възприемане на AI като „съзнателен“ може да доведе до редица социални проблеми – от ерозия на доверие към други хора до засилване на социална изолация и уязвимост към манипулации. Експертите подчертават необходимостта от етични насоки и образователни кампании, които да разясняват на потребителите разликата между алгоритъм и съзнание.

 

Какво могат да направят потребителите

 

*Да се информират за начина, по който AI системите функционират.


* Да ограничат времето, прекарано в взаимодействие с AI чатботове.


* Да търсят помощ при усещане на тревожност или делюзивни мисли, свързани с AI.


Компаниите трябва да въведат предупредителни съобщения и да избегнат език или интерфейс, който създава илюзия за човешко съзнание.




Реклама / Ads
Уважаеми читатели, разчитаме на Вашата подкрепа и съпричастност да продължим да правим журналистически разследвания.

Моля, подкрепете ни.
Donate now Visa Mastercard Visa-electron Maestro PayPal Epay
Реклама / Ads
ОЩЕ ПО ТЕМАТА
. 0| 1228 |16.12.2025 След Брекзит: Великобритания отново се присъединява към „Еразъм“ . 0| 1464 |16.12.2025 Държавите на първа линия искат средства от ЕС заради заплахата от Русия, България е сред тях . 1| 1699 |16.12.2025 Какво се знае за Ник Райнер – сина, арестуван за смъртта на режисьора Роб Райнер? . 2| 1690 |16.12.2025 ЕС налага такса от 3 евро за евтините пратки от Temu и Shein

КОМЕНТАРИ

Реклама / Ads