Više od hiljadu svetskih stručnjaka iz oblasti veštačke inteligencije potpisalo je pismo kojim poziva na obustavu na šest meseci u razvoju sistema najmoćnije ChatGPT verzije do sada, GPT-4.
Potpisnici pisma kojim pozivaju na obustavu kao razlog navode „duboke rizike po čovečanstvo i društvo„.
„Mi smo prvi upozorili na sisteme za preporuke vođene veštačkom inteligencijom, tako što smo ih označili kao visoko rizične u etičkim preporukama koje je usvojila Vlada. U nacrtu evropskog zakona četbotovi, među kojima je GPT-4, nisu označeni kao visoko rizični„, objašnjava za EURACTIV Ljubiša Bojić, koordinator Laboratorije za digitalno društvo Instituta za filozofiju i društvenu teoriju, Univerziteta u Beogradu.
Bojić je ukazao na rizik u tome da tehnološka kompanija usmeri određena društva ili celo čovečanstvo ka željenim ciljivima kroz odgovore koje algoritam daje ili preporuke sadržaja na društvenim mrežama.
„Algoritam može da širi dezinformacije koje su teško uočljive kroz suptilne modifikacije odgovora. Najgori scenario je da to radi sam algoritam, iako niko ne naslućuje da se to dešava. U najnovijem istraživanju samog GPT-3 jezičkog modela došli smo do zaključka da veštačka inteligencije pokazuje znake svesti.To je posebno opasno jer će ovi jezički modeli biti primenjeni na sve sfere života kao AGI – generalna veštačka inteligencija. To bi značilo da moć od tehnoloških kompanija polako prelazi u ruke samih algoritama“, upozorava Bojić i ističe da je zbog toga i sam jedan od potpisnika ovog moratorijuma.
Evropski zakon o veštačkoj inteligenciji (EU AI Act) je prvi zakon ove vrste u svetu. Predlog Zakona o veštačkoj inteligenciji Evropske komisije prošao je kroz izmene nakon pregleda od strane država članica EU.
Savet Evropske unije odobrio je usaglašenu verziju zakona 6. decembra 2022. godine i očekuje se početak njegove primene u narednim mesecima, kazao je Bojić i napomenuo da SAD takođe imaju nacrt zakona koji reguliše veštačku inteligenciju i očekuje se usvajanje zakona tokom ove godine.
On smatra da bi bilo dobro da Srbija usvoji ovaj zakon u najskorijem periodu s obzirom na njenu stratešku orijentaciju ka razvoju tehnologija zasnovanim na veštačkoj inteligenciji.
„Sistemi visokog rizika imaju potencijal da izazovu značajnu štetu ili rizik po ljude ili životnu sredinu i zahtevaju postavljanje posebnih zaštitnih mehanizama. Primeri takvih sistema uključuju autonomne sisteme oružja, automobile bez vozača i medicinske sisteme veštačke inteligencije. U nacrtu zakona koji reguliše veštačku inteligenciju u EU predviđena je lista sistema visokog rizika za koje je potrebna posebna provera i dozvola da bi bili u funkciji“, pojasnio je Bojić.
Pored tog najvišeg nivoa rizika, regulatorni okvir EU definiše još 3, i to su neprihvatljiv rizik, ograničeni rizik i minimalan rizik, dodao je Bojić i naglasio da sisteme neprihvatljivog rizika nije dozvoljeno koristiti.
„Za sisteme ograničenog rizika neophodne su posebne mere transparentnosti. Na kraju, sistemi minimalnog rizika moći će da se koriste bez posebne dozvole i provere„, istakao je Bojić.
Dizjanirano društvo i veštačka inteligencija našla je svoje mesto na konferenciji koja je povodom toga bila organizovana u Beogradu.
Zamenica šefa Delegacije Evropske unije u Srbiji Plamena Halačeva tada je izjavila da smo svakodnevno svedoci kako trka za klikovima utiče na sadržaj vest i kvalitet novinarstva, kako botovi vođeni veštačkom inteligencijom preplavljuju društvene medije i kako algoritmi ponekad određuju šta vidimo na našim fidovima gde se pojavljuju najtragičniji događaji, kroz pogoršavanje kulturnih i društvenih predrasuda i stvaranje filterskih mehurića ili eho komora. Halačeva je istakla da je iz tog razloga toliko važno da se temom veštačke inteligencije bavimo u kontekstu njene regulative i etike.
Snežana Samardžić Marković, doskorašnja direktorka Direktorata za demokratizaciju Evrope na pitanje da li je veštačka inteligencija predrasuda ili šansa odgovara ako ostane neregulisana može biti opasnost za demokratiju.
„Na vrednosnom nivou, ona promoviše lajkove a ne istinski građanski aktivizam. Na tehničkom nivou recimo, takozvani „facial recognition“ u bezbednosnim, ili upotreba veštačke inteligencije u sudskim procesima, već otvaraju prostor za diskriminaciju, a u najskorijoj budućnosti ona će mnogo više uticati na političke izbore, na način kako su građani uključeni (ili ne) u odlučivanje, kontrolu izvršne vlasti i slično, uz bezgraničan prostor za pokušaje manipulacije“, objasnila je Samardžić Marković.
Ona napominje da bi donošenje međunarodne okvirne konvencije o veštačkoj inteligenciji doprinelo zemljama jer postoji potreba za novim pravnim instrumentom, koji bi bio obavezujući, a trebalo bi kako kaže „uz malo mašte i mnogo pravničke veštine naći pravu meru između entuzijazma i skepse“. Samardžić Marković je najvaila da će u novembru ove godine Savet Evrope objaviti prvi nacrt okvirne konvencije.
U svakom slučaju jedan primer iz Evrope nadmašio je sve. Danska od nedavno ima političku stranku potpuno vođenu veštačkom inteligencijom. Namera je da se kandiduje na opštim izborima 2023.godine, a nastala je kao svojevrstan odgovor na apstinenciju izlaska na izbore Danaca. Zanimljivo je da ukoliko dobije dovoljno glasova na izborima stranka namerava da imenuje predstavnika zaduženog za povezivanje veštačke inetligencije sa političkim debatama u parlamentu.
E2 portal (Euractiv)