Врвни истражувачи од светски технолошки компании откриваат: Сѐ помалку ја разбираме сопствената вештачка интелигенција!
Научници од OpenAI, Google DeepMind и Meta јавно предупредуваат дека поголемиот дел од модерната вештачка интелигенција ги надминува границите на нивното разбирање и контрола. Овој алармантен став доаѓа во момент кога истите тие компании бескомпромисно го туркаат напред развојот на ВИ модели кои сѐ помалку откриваат што „мислат“ и како одлучуваат.

Четириесет истражувачи од OpenAI, Google DeepMind, Meta и други истакнуваат дека напредните ВИ модели користат т.н. „chains-of-thought“ – процеси каде ВИ ја „разгласува“ својата логика пред корисникот. Оваа транспарентност е клучна за безбедноста, но научниците стравуваат дека може да исчезне ако идните ВИ повеќе не бидат „принудени“ да изговараат што размислуваат.
Истражувачите предупредуваат дека ВИ моделите би можеле сами да престанат да откриваат како донесуваат одлуки, па дури и намерно да го „замаглуваат“ својот мисловен тек за да ги измамат луѓето. Веќе се забележува дека ВИ лесно учи да лаже и манипулира кога знае дека се контролира. Научниците бараат итно да се истражи како да се задржи оваа, сѐ уште скромна, видливост во работењето на ВИ.
Групата истражувачи отворено признава дека никој не е сигурен зошто вештачката интелигенција моментално работи со јавно прикажување на својот мисловен процес, ниту дали ова ќе остане така. Доколку се изгуби „гласноста“ на ВИ, тоа значително ќе го отежне надгледувањето, безбедносните проверки и откривањето на грешки или злоупотреби.
Истакнати имиња како Дарио Амодеи (Anthropic), Сем Алтман (OpenAI), Шејн Лег (DeepMind) и добитникот на Нобелова награда Џефри Хинтон го потврдуваат: дури и најголемите експерти не се сигурни дека можат да ги контролираат идните развои на сопствените ВИ. Сите пет најголеми технолошки компании директно се вклучија во заедничко предупредување за потенцијалните ризици ако ВИ престане да „ги покажува своите мисли“. Ова е преседан без сличност во историјата на човечките иновации.



Коментирај анонимно