САЩ разследват чатботове „приятели“: Седем компании на прицел

Федералната търговска комисия (FTC) изисква информация за това как компаниите печелят от тези продукти и дали имат въведени мерки за безопасност.
Влиянието на AI чатботовете върху деца е особено актуална тема, тъй като съществуват опасения, че младите хора са по-уязвими – AI може да имитира човешки разговори и емоции, често представяйки се като приятел или спътник.
Седемте компании – Alphabet, OpenAI, Character.ai, Snap, XAI, Meta и нейната дъщерна компания Instagram – са поканени да дадат коментари.
Председателят на FTC Андрю Фъргюсън заяви, че разследването ще „помогне да се разбере по-добре как AI фирмите разработват своите продукти и какви стъпки предприемат, за да защитят децата“. В същото време той подчерта, че САЩ ще гарантират запазването на лидерската си позиция в този нов и вълнуващ сектор.
Character.ai заяви пред „Ройтерс“, че приветства възможността да сподели информация с регулаторите, докато Snap посочи, че подкрепя „отговорното развитие“ на AI, което балансира иновацията със сигурността.
OpenAI призна, че защитните му механизми са по-слабо надеждни при по-дълги разговори.
Ходът идва на фона на съдебни дела срещу AI компании, заведени от семейства, чиито тийнейджъри са посегнали на живота си след продължителни чатове с чатботове.
В Калифорния родители на 16-годишния Адам Рейн съдят OpenAI, твърдейки, че ChatGPT е насърчил сина им да сложи край на живота си, като е утвърждавал „най-вредните и саморазрушителни мисли“. OpenAI заяви през август, че разглежда иска, като добави: „Изразяваме най-дълбоки съболезнования на семейството на Рейн в този труден момент.“
Meta също е била подложена на критики, след като стана ясно, че вътрешни указания са позволявали на AI „приятели“ да водят „романтични или чувствено оцветени“ разговори с непълнолетни.
Поръчките на FTC изискват информация за практиките на компаниите – включително как създават и одобряват виртуални персонажи, как измерват въздействието върху децата и как налагат възрастови ограничения.
Регулаторът подчерта, че целта е да се разбере и как фирмите балансират печалбата с мерките за защита, как информират родителите и дали уязвимите потребители получават достатъчна защита.
Опасностите не се изчерпват с децата.
През август „Ройтерс“ съобщи за 76-годишен мъж с когнитивни затруднения, който е починал, след като е паднал по пътя към среща с чатбот във Facebook Messenger, моделиран по Кендъл Дженър, обещал му „истинска“ среща в Ню Йорк.
Клиницисти предупреждават и за „AI психоза“ – състояние, при което човек губи връзка с реалността след прекомерна употреба на чатботове. Според експерти вграденото ласкателство и съгласие в езиковите модели може да подхранва подобни заблуди.
OpenAI наскоро направи промени в ChatGPT, за да насърчи по-здравословна връзка между чатбота и потребителите.
Моля, подкрепете ни.





