Вештачката интелигенција се соочува со неочекуван проблем: Колку е попаметна, толку повеќе ѝ се случува нешто што никој не го предвиде
Вештачката интелигенција (АИ) одамна се бори со таканаречените „халуцинации“ – елегантен термин што индустријата го користи за да ги опише измислиците што големите јазични модели (LLM) често ги претставуваат како факти. Иако новите АИ модели сè почесто се дизајнираат да „размислат“ пред да одговорат, проблемот не се намалува – туку се влошува.
Содржина:
Попрецизни, но помалку точни?
Како што известува The New York Times, колку што стануваат помоќни новите генерации АИ модели, толку почесто се случува да „измислуваат“ – дури повеќе отколку порано. Тоа е загрижувачка реалност, особено бидејќи сè повеќе луѓе користат алатки како ChatGPT за најразлични задачи. Кога овие системи шират неточни или лажни тврдења, корисниците може да се доведат во непријатни, па дури и опасни ситуации.
Највознемирувачки е што ни самите компании не можат точно да објаснат зошто новите модели сè повеќе грешат – што само ја потврдува несигурноста околу тоа колку навистина го разбираме начинот на кој функционира оваа технологија.
Халуцинациите – траен недостаток?
Проблемот е толку сериозен што некои експерти веруваат дека халуцинациите се вграден дел од самата технологија и никогаш нема целосно да исчезнат. „И покрај сите наши напори, АИ секогаш ќе халуцинира. Тоа никогаш нема да исчезне,“ изјави Амр Авадалах, директор на стартапот Vectara.
Поради тоа, веќе постојат цели компании кои се специјализирани за да им помогнат на бизнисите да ги намалат грешките што АИ ги прави. Според Пратик Верма, коосновач на консултантската фирма Okahu, доколку не се решаваат овие проблеми, се губи целата вредност на АИ системите.
Новите модели – уште повеќе грешки
Според тестирања на OpenAI, нивниот нов модел o4-mini халуцинира дури 48% од времето, а o3 има стапка на грешки од 33% – двојно повеќе од претходните генерации. И конкурентите на OpenAI, како Google и DeepSeek, се соочуваат со слични проблеми.
Експертите предупредуваат дека како што моделите стануваат сè поголеми, нивната предност над претходниците се намалува. Дополнително, бидејќи вистинските податоци за тренирање стануваат сè поретки, компаниите почнуваат да користат синтетички (односно АИ-генерирани) податоци – што може да има катастрофални последици по точноста.
Со други зборови, и покрај големите инвестиции и напори, халуцинациите стануваат сè почести – и технологијата моментално не оди во вистинската насока.
Коментирај анонимно