Се наближува времето на сингуларноста: Како вештачката интелигенција ќе го промени нашиот свет?

Концептот на сингуларност, кога машините стануваат попаметни од луѓето, се дискутира со децении. Меѓутоа, со развојот на алгоритми за машинско учење и појавата на софтвер способен да го положи Тјуринг тестот, ова прашање станува сè поактуелно.

 

 

 

Модерната вештачка интелигенција, заснована на големи јазични модели (LLM), не функционира како што порано размислувавме. Овие системи не „размислуваат“ во човечка смисла на зборот. Тие едноставно користат статистика и веројатности за да предвидат кој збор или буква ќе ги следи претходните. Иако резултатите може да бидат разумни, тие исто така можат да бидат погрешни, па дури и опасни. Како што забележуваат експертите, машината нема интелигенција, таа само ја имитира.

Постојат шпекулации дека системите за вештачка интелигенција на иднината се на пат. Овие алгоритми, според некои експерти, ќе можат да извршуваат многу задачи на исто ниво со луѓето. Основачот на SingularityNET, Бен Герцел, на Самитот AGI 2024 рече дека до 2029-2030 година, моќта на поединечен компјутер ќе биде споредлива со компјутерската моќ на човечкиот мозок. Ако на ова додадеме уште 10-15 години, тогаш еден компјутер ќе може да ја има моќта на целото човечко општество.

Сепак, ваквите оптимистички прогнози отвораат прашања. Критичарите тврдат дека тврдењата за AGI наскоро се само обид да се возбуди актуелната технологија и да се создаде балон кој на крајот ќе пукне. Познатиот „основач на вештачката интелигенција“ Џефри Хинтон верува дека АГИ е помалку од 20 години, додека неговиот колега Јошуа Бенџо предупредува да не се донесуваат избрзани заклучоци.

Покрај тоа, мора да се земат предвид потенцијалните опасности. Хинтон поднесе оставка од „Google“, наведувајќи ја загриженоста за можните закани што може да ги претставува вештачката интелигенција. Истражувањето покажа дека една третина од истражувачите на вештачката интелигенција веруваат дека технологијата може да доведе до катастрофални последици. Сепак, сценариото Терминатор, каде машините ловат луѓе, можеби не е најверојатно. Опасностите може да бидат поприземни.

 

 

Злоупотребата на вештачката интелигенција за создавање лажни приказни и ширење дезинформации е исто така сериозна загриженост. Создавањето лажни слики за пропагандни цели стана полесно од кога било, а иако постојат методи за нивно препознавање, секоја година ќе станува потешко.

Во отсуство на јасни правила и прописи со кои се регулира вештачката интелигенција, важно е да се дејствува веднаш. Некои студии тврдат дека неквалитетната содржина генерирана од вештачка интелигенција може да доведе до содржина со уште послаб квалитет, што на крајот ја прави вештачката интелигенција помалку корисна. Можеби сè уште не сме блиску до создавање вистинска вештачка интелигенција, но постои ризик да бидеме на пат да создадеме вештачка глупост.

Коментирај анонимно

Вашата адреса за е-пошта нема да биде објавена. Задолжителните полиња се означени со *