Студија која отвора многу прашања: Вештачката интелигенција може да објасни зошто не се среќаваме со вонземјани

Вештачката интелигенција го прави своето присуство да се почувствува на илјадници различни начини. Тоа им помага на научниците да разберат огромни тонови на податоци; помага да се открие финансиска измама; ги вози нашите автомобили; ни дава предлози за музика; И тоа е само почеток.

Дали сме способни да разбереме колку брзо вештачката интелигенција ќе продолжи да се развива? И ако одговорот е не, дали тоа го сочинува „Големиот филтер“?

Ферми парадоксот е несовпаѓање помеѓу очигледната голема веројатност за постоење на напредни цивилизации и целосниот недостаток на докази дека тие навистина постојат. Предложени се многу решенија зошто постои несовпаѓање. Една од идеите е „Големиот филтер“.

Големиот филтер е хипотезиран настан или ситуација што го спречува интелигентниот живот да стане меѓупланетарен и меѓуѕвезден, па дури и да доведе до негово пропаѓање. Размислете за климатските промени, нуклеарна војна, удари на астероиди, експлозии на супернова, чуми или било кој број други работи од галеријата на катаклизмичните настани.

Или што е со брзиот развој на вештачката интелигенција?

Нов труд во Acta Astronautica ја истражува идејата дека вештачката интелигенција станува вештачка супер интелигенција (ASI) и дека ASI е „големиот филтер“. Насловот на трудот е „Дали вештачката интелигенција е големиот филтер што ги прави напредните технички цивилизации ретки во универзумот?“ Авторот е Мајкл Гарет од Катедрата за физика и астрономија на Универзитетот во Манчестер.

„Без практична регулатива, постојат сите причини да се верува дека вештачката интелигенција може да претставува голема закана за идниот тек не само на нашата техничка цивилизација, туку и на сите технички цивилизации“ – напиша Мајкл Гарет.

 

Некои мислат дека „Големиот филтер“ ги спречува технолошките видови како нашиот да станат мултипланетарни. Тоа е лошо бидејќи еден вид е изложен на поголем ризик од исчезнување или стагнација само со еден дом. Според Гарет, еден вид е во трка со времето без резервна планета.

„Се предлага таков филтер да се појави пред овие цивилизации да развијат стабилно, мултипланетарно постоење, што сугерира дека типичната долговечност на техничката цивилизација е помала од 200 години“, пишува Гарет.

Ако е точно, тоа може да објасни зошто не откриваме технопотписи или други докази за вонземски интелигенции. Што ни кажува тоа за нашата сопствена технолошка траекторија? Ако се соочиме со ограничување од 200 години, и ако тоа е поради ASI, каде не остава тоа?

Гарет ја нагласува „…критичната потреба за брзо воспоставување на регулаторни рамки за развој на вештачка интелигенција на Земјата и унапредување на мултипланетарно општество за да се ублажат таквите егзистенцијални закани“.

Многу научници и други мислители велат дека сме на работ на огромна трансформација. Вештачката интелигенција само што почнува да го трансформира начинот на кој ги правиме работите; голем дел од трансформацијата е зад сцената. Се чини дека вештачката интелигенција е подготвена да елиминира работни места за милиони, а кога е поврзана со роботиката, трансформацијата изгледа речиси неограничена. Тоа е прилично очигледна загриженост.

Но, постојат подлабоки, посистематски грижи. Кој ги пишува алгоритмите? Дали вештачката интелигенција некако ќе дискриминира? Речиси сигурно. Дали конкурентните алгоритми ќе ги поткопаат моќните демократски општества? Дали отворените општества ќе останат отворени? Дали вештачката суперинтелигенција (ASI) ќе почне да носи одлуки наместо нас и кој ќе одговара ако го направи тоа?

Ова е растечко дрво на разгранети прашања без јасен термин.

Стивен Хокинг (RIP) славно предупреди дека вештачката интелигенција може да му стави крај на човештвото ако почне да се развива независно.

„Се плашам дека вештачката интелигенција може целосно да ги замени луѓето. Ако луѓето дизајнираат компјутерски вируси некој ќе дизајнира вештачка интелигенција која се подобрува и се реплицира. Ова ќе биде нова форма на живот што ги надминува луѓето“, изјави тој за магазинот Wired во 2017 година.

Хокинг можеби е еден од најпрепознатливите гласови кои издаваат предупредувања за вештачката интелигенција, но тој е далеку од единствениот. Медиумите се полни со дискусии и предупредувања, заедно со написи за работата што вештачката интелигенција ја прави за нас. Најалармантните предупредувања велат дека ASI може да стане непријател. Некои луѓе го отфрлаат тоа како научна фантастика, но не и Гарет.

„Загриженоста за вештачката суперинтелигенција (ASI) која на крајот ќе стане нечесна се смета за главен проблем – борбата против оваа можност во следните неколку години е растечка истражувачка потрага за лидерите во областа“, пишува Гарет.

Ако вештачката интелигенција не обезбеди придобивки, проблемот ќе беше многу полесен. Но, обезбедува секакви придобивки, од подобрена медицинска слика и дијагноза до побезбедни транспортни системи. Трикот за владите е да дозволат придобивките да цветаат додека ја ограничуваат штетата.

Проблемот е што ние и нашите влади сме неподготвени. Никогаш не постоело нешто како вештачката интелигенција, и без разлика како се обидуваме да ја концептуализираме и да ја разбереме нејзината траекторија, остануваме да бараме.

И ако сме во оваа позиција, истото би било и секој друг биолошки вид што развива вештачка интелигенција. Појавата на вештачката интелигенција, а потоа и на вештачка суперинтелигенција може да биде универзална, што го прави кандидат за „Големиот филтер“.

Ова е ризикот што ASI го претставува конкретно: повеќе може да не ѝ треба биолошкиот живот што ја создал.

„По постигнувањето на технолошката сингуларност, системите ASI брзо ќе ја надминат биолошката интелигенција и ќе се развиваат со темпо што целосно ги надминува традиционалните механизми за надзор, што ќе доведе до непредвидени и несакани последици кои веројатно нема да бидат усогласени со биолошките интереси или етиката“, објаснува Гарет.

Како може ASI да се ослободи од досадниот биолошки живот? Може да создаде смртоносен вирус, да го спречи производството и дистрибуцијата на земјоделска храна, да принуди нуклеарна централа да се стопи и може да започне војни.

Ако сето ова звучи ужасно и неизбежно, Гарет вели дека не е.

Неговата досегашна анализа се заснова на ASI и луѓето кои го заземаат истиот простор. Но, ако можеме да постигнеме мултипланетарен статус, изгледите се менуваат.

„На пример, мултипланетарен биолошки вид би можел да ги искористи независните искуства на различни планети, диверзифицирајќи ги нивните стратегии за преживување и веројатно избегнувајќи го неуспехот во една точка со кој се соочува цивилизацијата поврзана со планетата“, пишува Гарет.

Ако можеме да го распределиме ризикот на повеќе планети околу повеќе ѕвезди, можеме да се заштитиме од најлошите можни исходи на ASI.

„Овој дистрибуиран модел на постоење ја зголемува отпорноста на биолошката цивилизација на катастрофи предизвикани од вештачката интелигенција со создавање вишок“, пишува тој.

Ако една од планетите или позициите што ги заземаат идните луѓе не успее да ја преживее технолошката сингуларност на ASI, други може да преживеат. И тие ќе научат од тоа.

Но, тука е загатката. Развојот на вештачката интелигенција се одвива со забрзано темпо, додека нашите обиди да станеме мултипланетарни не се.

„Разликата помеѓу брзиот напредок на вештачката интелигенција и побавниот напредок во вселенската технологија е голема“, пишува Гарет.

Разликата е во тоа што вештачката интелигенција е пресметковна и информативна, но патувањето во вселената содржи повеќе физички пречки кои сè уште не знаеме како да ги надминеме. Нашата сопствена биолошка природа го ограничува патувањето во вселената, но ниту една таква пречка не ја ограничува вештачката интелигенција.

„Иако вештачката интелигенција теоретски може да ги подобри сопствените способности речиси без физички ограничувања“, пишува Гарет, „вселенското патување мора да се бори со енергетските ограничувања, границите на материјалната наука и суровата реалност на вселенската средина“.

Засега, вештачката интелигенција работи во рамките на ограничувањата што ги поставивме. Но, тоа можеби не е секогаш случај. Не знаеме кога вештачката интелигенција може да стане ASI или дури и дали може. Но, не можеме да ја игнорираме можноста. Тоа води до два испреплетени заклучоци.

Ако Гарет е во право, човештвото мора да работи понапорно на патувањето во вселената. Може ова да изгледа премногу, но упатените луѓе знаат дека е вистина: Нема засекогаш да може да се живее на Земјата. Човештвото ќе загине овде од наша рака или од рака на природата ако не се прошириме во вселената. 200-годишната проценка на Гарет само става извичник на тоа. Обновениот акцент на достигнувањето на Месечината и Марс нуди одредена надеж.

Вториот заклучок се однесува на законодавството и управувањето со вештачката интелигенција, тешка задача во свет каде психопатите можат да добијат контрола врз цели нации и се наклонети да водат војна.

„Додека индустриските засегнати страни, креаторите на политики, индивидуалните експерти и нивните влади веќе предупредуваат дека регулацијата е неопходна, воспоставувањето регулаторна рамка што може да биде глобално прифатлива ќе биде предизвик“, пишува Гарет.

Внатрешните расправии на човештвото го прават сето тоа уште понеуправливо. Исто така, без разлика колку брзо развиваме упатства, ASI може да се промени уште побрзо.

„Без практична регулатива, постојат сите причини да се верува дека вештачката интелигенција може да претставува голема закана за идниот тек не само на нашата техничка цивилизација, туку и на сите технички цивилизации“, пишува Гарет.

Ако го сториме тоа, тоа може да се сведе на она што може да изгледа досадно и секојдневно: расправии околу законодавството.

„Истражувањето на интелигентен и свесен живот во универзумот може да зависи од навременото и ефективно спроведување на таквите меѓународни регулаторни мерки и технолошки напори“, пишува Гарет.

Коментирај анонимно

Вашата адреса за е-пошта нема да биде објавена. Задолжителните полиња се означени со *