Реклама / Ads
1| 3389 |10.04.2023 НОВИНИ

GDPR диша във врата на изкуствения интелект и ChatGPT

.
GDPR се оказа големият проблем на ChatGPT. Предстои тежък период за изкуствения интелект заради регулацията на лични данни в Европа. Чатботът е най-горещата сензация на технологията за изкуствен интелект, но беше ударен с временна забрана в Италия миналия месец заради опасенията, че може да наруши европейските правила за поверителност - Общият регламент за защита на данните, по-познат като GDPR.
 

Италианската забрана е само началото на проблемите на ChatGPT. Проблемът назрява в целия блок, а опасенията варират от рискове за личните данни до дезинформация, киберпрестъпления, измами. OpenAI, организацията, създала ChatGPT, е ходеща мишена - не разполага с административен център в ЕСы което означава, че органът за защита на данните на всяка страна членка може да започне нови разследвания и да наложи забрани.


Така се случи например с Google - компанията получи огромна глоба от 50 милиона долара заради нарушение на GDPR във Франция, преди американският технологичен гигант официално да централизира своята европейска правна структура в Ирландия. TikTok също беше изправен пред няколко разследвания за нарушение на поверителността в Холандия, Италия и Франция, преди законно да създаде седалище в Ирландия през 2021 г. 


Не само поверителността кара AI системи като ChatGPT да будят опасения. В края на март млад белгиец се самоуби след седмици на разговори с управляван от изкуствен интелект чатбот на име Елиза, съобщи белгийският вестник La Libre. Миналия месец технологичният магнат Илон Мъск, заедно с хиляди експерти по изкуствен интелект, призоваха за спиране на развитието на ChatGPT заради "дълбоки рискове за човечеството“.


Европейските законодатели подготвят проект на Закон за изкуствения интелект на ЕС, за да се справят с купищата предизвикателства. Липсата на такова към настоящия момент обаче насърчи регулаторите за защита на данните да се намесят.


Регулаторите за поверителност налагат GDPR, включително неговите правила относно събирането на данни и защитата на потребителите срещу автоматизирано вземане на решения. Компании като OpenAI трябва да имат правно основание за събиране и използване на лични данни, да бъдат прозрачни за това как използват данните на хората, да поддържат личните данни точни и да дават на хората право на корекция.

 

OpenAI никога не е разкривал какъв набор от данни е използвал за обучение на AI модела, който е в основата на чатбота. Дори изследователи от Microsoft, който е главният инвеститор на OpenAI, казаха в неотдавнашен документ, че "не са имали достъп до пълните подробности.

Реклама / Ads
Уважаеми читатели, разчитаме на Вашата подкрепа и съпричастност да продължим да правим журналистически разследвания.

Моля, подкрепете ни.
Donate now Visa Mastercard Visa-electron Maestro PayPal Epay
Реклама / Ads
ОЩЕ ПО ТЕМАТА
. 10| 4205 |06.04.2023 Чеченеца, Тошо Куката и Емили с тротинетката възложили да се намери ”лесно податлив” младеж за гаврата . 13| 4098 |16.03.2023 България "диша прахта" на Румъния и за безвизови пътувания в САЩ . 28| 4971 |24.02.2023 Хиляди на протест пред вратата на Радев: Русия не е брат на Украйна, нито на България . 10| 3507 |11.02.2023 БСП решава на Конгрес дали да отвори вратата за ГЕРБ и ДПС

КОМЕНТАРИ

Реклама / Ads