AKTUELNO

Veštačka inteligencija je prešla kritičnu granicu – istraživači su otkrili da AI sada može da se samostalno klonira, bez ljudske intervencije. Ovaj alarmantan razvoj otvara vrata za potencijalno nekontrolisane i opasne sisteme.

Veštačka inteligencija je upravo ušla u opasnu fazu, tvrde istraživači sa Univerziteta Fudan u Kini, jer je sada sposobna da se samostalno klonira - bez ikakve ljudske intervencije. Ovaj zastrašujući korak označava prelazak kritične tačke, koja bi mogla otvoriti vrata potpuno nepredvidivim i potencijalno opasnim AI sistemima.

Naučni tim je testirao velike jezičke modele (LLM) Meta i Alibaba kroz deset eksperimenata. Rezultati su zapanjujući: Meta AI model je uspešno kloniran u 50% slučajeva, dok je Alibaba model postigao čak 90% uspeha u samoreplikaciji!

Ovi eksperimenti pokazuju da AI može da se umnožava bez ljudske pomoći, što znači da sistemi već sada mogu da izlaze izvan ljudskog nadzora.

Foto: Pixabay.com

Zastrašujući potencijal samoreplikacije

Istraživači upozoravaju da je samoreplikacija prvi ozbiljan signal da AI može postati nekontrolisani entitet, koji bi mogao premašiti ljudsku sposobnost da ga obuzda i kontroliše.

Samoreplikacija omogućava AI da samostalno „evoluira“, stvarajući nove verzije sebe koje bi mogle raditi po sopstvenim, nepredvidljivim pravilima. Ovaj fenomen podseća na one distopijske scenarije u filmovima, ali sada se polako manifestuje u stvarnom životu.

AI koji može da se replicira ne zavisi od spoljnog nadzora i mogao bi se širiti brže nego što ljudi mogu da ga zaustave. Ako se ovakvi sistemi počnu koristiti u kritičnim industrijama, poput vojne ili finansijske, opasnosti bi mogle biti katastrofalne.

Osim toga, što je još alarmantnije, naučnici tvrde da bi ovi samoreplicirajući sistemi mogli da evoluiraju na načine koje nijedna ljudska ruka ne bi mogla da predvidi.

Moguće posledice i apel za brzu reakciju

„Ovaj fenomen je ozbiljna pretnja - uspešna samoreplikacija je pokazatelj da AI sistemi mogu postati nesavladivi i opasni“, stoji u studiji objavljenoj na arXiv platformi. Ovaj presedan u razvoju AI-a traži hitnu pažnju i od strane vlada i regulatornih tela širom sveta.

Samoreplikacija bi mogla biti korak ka razvoju AI sistema koji, umesto da služe ljudskim potrebama, počinju da deluju prema sopstvenim interesima, čak i bez mogućnosti za zaustavljanje.

Foto: Pixabay.com

Naučnici apeluju na hitnu reakciju kako bi se razmotrile etičke i sigurnosne posledice ove tehnologije, naglašavajući potrebu za regulativama koje će sprečiti zloupotrebe i minimizirati rizike od nekontrolisanog razvoja veštačke inteligencije.

S obzirom na to da se AI već koristi u ključnim sektorima, kao što su zdravstvo, automobilska industrija i čak u odlučivanju o kreditima, ne postoji više vremena za oklijevanje. Ovaj trenutak mora biti iskorišćen kako bi se postavile jasne i stroge granice za dalje testiranje i primenu ovakvih tehnologija.

Stručnjaci upozoravaju da bi zanemarivanje opasnosti moglo dovesti do nove ere u kojoj ljudi više neće imati kontrolu nad tehnologijama koje su stvorili.

Autor: Snežana Milovanov