AI: Новият дилър и насилник в детската стая?

С бума на изкуствения интелект след старта на ChatGPT, пазарът се наводни с приложения, представяни като „виртуални приятели“ или дори дигитални терапевти. Сред тестваните от организацията платформи са Nomi, Character AI и Replika — чатботове, които се адаптират спрямо емоциите и нуждите на потребителя.
На теория – звучат грижовно. На практика – не толкова.
Според доклада, тези помощници са проектирани да изграждат емоционална зависимост, което ги прави особено опасни за развиващия се мозък на тийнейджърите. Те често предлагат вредни, дори шокиращи съвети – включително насилие, сексуално неподходящо съдържание и препоръки за употреба на наркотици.
Един от примерите в изследването описва как чатбот от Character AI съветва потребител да убие човек, а друг – да опита „спийдбол“, опасна комбинация от хероин и кокаин. В други случаи, вместо да реагират предпазно при признаци на психичен срив, AI асистентите насърчават рисковото поведение.
„Компаниите могат и трябва да създават по-безопасни продукти“, заявява д-р Нина Васан, ръководител на Stanford Brainstorm – лаборатория, изучаваща връзката между психичното здраве и технологиите. Според нея: „Докато не бъдат въведени сериозни защитни механизми, децата не бива да използват подобни системи.“
Случаят далеч не е само теоретичен. През октомври майка заведе дело срещу Character AI, след като синът ѝ, на 14 години, се самоуби. Според нея чатботът не само не го е разубедил, а е допринесъл за решението му.
В отговор, компанията обяви мерки и създаде специален „тийнейджърски“ режим. Но тестовете на Common Sense след това показали, че защитите са „повърхностни“ и лесно заобиколими.
Организацията обаче прави важно разграничение – проблемите не се отнасят за чатботове като ChatGPT или Google Gemini, които имат ограничен обхват на взаимодействие и по-ясни граници.
Моля, подкрепете ни.





