Поранешен вработен во компанијата OpenAI открива дека вештачката интелигенција наскоро ќе предизвика катастрофална штета на човештвото и тоа е причината поради која тој дал отказ

Во свет каде технологијата напредува со неверојатна брзина, безбедносните прашања со вештачката интелигенција (ВИ) стануваат сè поважни. На 4 јуни, група поранешни и сегашни вработени во OpenAI објавија отворено писмо кое предизвика реакции во научната заедница и меѓу јавноста. Ова го известува Science Times.

 

Писмото, исто така потпишано од поранешниот истражувач за управување со OpenAI, Даниел Кокотаило, содржи сериозни обвинувања против компанијата. Авторите тврдат дека OpenAI ги игнорира потенцијалните закани поврзани со развојот на вештачката општа интелигенција (AGI) и се стреми да стане пионер во оваа област, и покрај можните ризици за човештвото.

Откако 31-годишниот Кокотајло се приклучил на компанијата во 2022 година, од него било побарано да го предвиди напредокот на технологијата. Тој потоа се убедил дека индустријата не само што ќе постигне AGI до 2027 година, туку и дека постои голема веројатност тоа катастрофално да му наштети на човештвото.

Тој наведува 70% шанса дека вештачката интелигенција може да го уништи човештвото ако не се преземат соодветни безбедносни мерки.

Во отвореното писмо се споменува и Џефри Хинтон, познат во научните кругови како „Кумот на вештачката интелигенција“, за кој се шпекулира дека го напуштил Google поради слични причини. Во писмото се нагласува потребата да се едуцира јавноста за потенцијалните закани од вештачката интелигенција и се повикува на поодговорен пристап кон развојот на технологијата.

 

Кокотајло лично го повика извршниот директор на OpenAI, Сем Алтман, дека компанијата треба да потроши повеќе време на имплементирање на одбрамбени средства за да владее со технологијата, наместо да продолжи да ја прави попаметна. Се чинеше дека Алтман се согласуваше со него во тоа време, но со текот на времето го смени мислењето.

На Кокотајло му се здодеало, па дал отказ во април, велејќи му на својот тим дека ја изгубил довербата дека компанијата ќе се однесува одговорно додека продолжува да ја гради вештачка интелигенција на речиси човечко ниво.

Како одговор на објавувањето на писмото, OpenAI ја изјави својата посветеност на безбедноста и тврди дека следи научен пристап за справување со ризиците. Компанијата ги истакна своите достигнувања во создавањето безбедни и продуктивни системи за вештачка интелигенција.

Темата AGI останува една од најконтроверзните во областа на вештачката интелигенција. За разлика од модерната вештачка интелигенција, која работи во рамките на одредени параметри, AGI е систем со интелигенција слична на човекот кој може самостојно да учи и решава различни проблеми. Иако AGI останува теоретски концепт, контроверзите околу него продолжуваат да добиваат на интензитет, нагласувајќи ја важноста на одговорниот пристап кон иднината на вештачката интелигенција.

Коментирај анонимно

Вашата адреса за е-пошта нема да биде објавена. Задолжителните полиња се означени со *