„Може би сме обречени“ — кръстникът на AI с ново предупреждение

Наричан „кръстника на изкуствения интелект“, Хинтън е носител на Нобеловата награда за физика за 2024 г. и един от създателите на алгоритъма за обратно разпространение на грешка (backpropagation) и мрежата AlexNet – основи на дълбокото учене, което движи съвременни системи като GPT-4. В Берлин той излезе на сцената в открит разговор с Алок Джа от The Economist, за да постави трудните, но крайно необходими въпроси за бъдещето на AI.
„Създаваме същества по-умни от нас – и нямаме идея как да ги направим безопасни.“
Изречени спокойно, думите на Хинтън прозвучаха като обобщение и като предупреждение. Той не говори за далечно бъдеще – според него суперинтелигентен AI може да се появи в рамките на 10 до 20 години. И не използва термини като AGI, които според него са вече подвеждащи. Вместо това говори направо за superintelligence – интелект, надвишаващ човешкия във всяко отношение.
„Щом достигнат нашето ниво, ще го надминат. И тогава вече няма да можем да следим процеса.“
Това, което тревожи Хинтън, не е технологичният напредък сам по себе си, а липсата на стратегия за контрол. Според него AI се развива с темпо, което не може да бъде забавено, дори и да има воля за това. „Ако едната страна спре, другата ще продължи“, каза той. Затова не подписал петицията на Илон Мъск за шестмесечна пауза: „Нямаше шанс да се случи. Всички бързат.“
Компаниите няма да спрат сами
Хинтън беше категоричен – не можем да разчитаме, че технологичните компании ще поемат сами отговорност. Те са юридически задължени да търсят печалба и няма да забавят темпото, дори с добри намерения. Според него решението не е в саморегулацията, а в силен външен натиск – от обществото към правителствата, които да наложат ефективни регулации.
Open-source ≠ безопасност
Хинтън направи важно разграничение: отвореният код не означава отворен и безопасен AI. Според него публикуването на параметрите на мощен модел е като да се даде свободен достъп до уран – инструмент без контрол. За разлика от кода, параметрите не подлежат на преглед и могат да бъдат донастройвани (fine-tuned) дори за опасни цели – биологични оръжия, кибератаки, манипулации. Така отворените модели не носят сигурност, а потенциален риск.
„Всички харесват тигърчето – малко, сладко. Но то пораства.“
Сред множеството технически и философски аргументи, Хинтън използва една запомняща се метафора – AI днес е като тигърче: чаровно и безопасно. Но един ден пораства – и ако не сме сигурни, че няма да ни убие, трябва да се тревожим. В историята няма случаи по-глупав вид да контролира по-интелигентен.
Не тревога, а отговорност
Въпреки мащаба на опасенията, Хинтън не звучеше апокалиптично. Напротив – гласът му беше равен, спокоен, човешки. Не говори за край на света, а за провал, ако не действаме разумно сега. AI вече е тук, а темпото не намалява.
„Може би сме обречени. Но ще е срамота да е, защото не сме се опитали.“
Няма истерия в думите на Хинтън – само онзи хладен тон, с който обикновено говорят хората, видели какво предстои. И който ни напомня: изборът още е наш. Но не завинаги.
Моля, подкрепете ни.





