Povežite se sa nama

U SVJETU AI-A

Šta bi bilo da AI odlučuje o lansiranju nuklearnog oružja?

Objavljeno prije

na

Kroz analizu nekoliko slučajeva iz perioda Hladnog rata i rivalstva SAD-a i SSSR-a, možemo da zamislimo šta bi se moglo dogoditi da je tada postojala AI i imala glavnu riječ. AI sistem „treniran“ na tadašnjim doktrinama i uobičajenim stavovima mogao je da odluči da pritisne crveno dugme

 

 

Dok svjedočimo vrtoglavom usponu tehnologije, ali i globalnoj krizi koju neki već nazivaju predvorjem novog svjetskog rata, jedno pitanje se redovno čuje. Šta bi bilo da AI odlučuje o pritiskanje crvenih dugmića širom planete?

Majkl Edvard O’Henlon, američki politički analitičar koji trenutno radi kao direktor istraživanja i viši saradnik programa spoljne politike na Institutu Brukings, u jednom svom radu je dao dio odgovora na ovu kompleksnu temu.

Kroz analizu nekoliko slučajeva iz perioda Hladnog rata i rivalstva SAD-a i SSSR-a, možemo da zamislimo šta bi se moglo dogoditi da je tada postojala AI i da joj je bilo povjereno odlučivanje o lansiranju nuklearnog oružja ili preduzimanje preventivnog napada, te da je pri tom donijela pogrešnu odluku. Imajući u vidu tadašnje doktrine i uobičajene stavove, AI sistem „treniran“ na tim informacijama mogao je da odluči da lansira nuklearno oružje. Katastrofa bi bila nesaglediva.

U kriznim trenucima kakvi su kubanska raketna kriza iz 1962, kriza lažne uzbune u septembru 1983. i vojna vježba Able Archer iz oktobra 1983. ljudska bića su bolje sagledala uloge i pokazala više zdravog razuma nego što je to pokazivala tadašnja zvanična doktrina. Bilo bi nepromišljeno pretpostaviti da će ljudi uvijek pokazati uzdržanost u takvim situacijama. Ali bi nepromišljeno bilo pretpostaviti i da dobro obučeni AI sistemi mogu donijeti adekvatne odluke. Važna stvar koju su istakle analize Brukings Instituta je to što ljudi u tim teškim trenucima pokazuju nivo percepcije koji bi mašine teško mogle imati. O empatiji da ne pričamo.

U slučaju kubanske krize i sličnih situacija, AI sistem, obučen na tadašnjim doktrinama i logici, mogao je lako odlučiti da pokrene nuklearni napad. Primjera radi, tokom kubanske krize, dominantni stav bio je da ne smije biti sovjetskih nuklearnih kapaciteta na američkom pragu.

U krizi lažne uzbune iz septembra 1983, sovjetski oficir Stanislav Petrov vidio je signale da SAD lansiraju pet interkontinentalnih balističkih raketa. U stvarnosti, senzori su detektovali odsjaj Sunca na oblacima. Petrov je, suprotno proceduri, zaključio da je napad malo vjerovatan, jer bi pravi američki napad sigurno uključivao stotine projektila. Odlučio je da ne alarmira svoje nadređene. Njegova procjena spriječila je potencijalnu katastrofu. Malo je vjerovatno da bi tadašnji AI sistem donio istu odluku. Doktrine su nalagale hitan odgovor.

U novembru 1983., tokom NATO vježbe Able Archer, Sovjeti su pomislili da se priprema stvarni napad. Vježba je uključivala postavljanje lažnih bojevih glava na projektile, što Sovjeti nijesu mogli prepoznati kao simulaciju. Oni su odgovorili stavljanjem pravih bojevih glava u pripravnost. Američki general Leonard Peruts je prepoznao situaciju i predložio da se ne odgovori istom mjerom, što je najvjerovatnije spriječilo lančanu reakciju i dalju eskalaciju. AI, koji ne bi imao širu sliku o političkoj klimi i nivou straha s obje strane, mogao je preporučiti američko stavljanje bojevih glava u pripravnost.

Moguće je da će jednog dana veoma napredni AI sistemi znati da pokažu uzdržanost, možda i više nego neki ljudi. AI se svakako može koristiti za testiranje ljudskih odluka. Međutim, ovi primjeri pokazuju koliko bi bilo opasno prepustiti mašinama najvažniju odluku u istoriji čovječanstva.

Kina i SAD prepoznali su ovu opasnost. Predsjednici Ksi Đinping i Džo Bajden su se krajem 2024. godine složili da AI nikada ne bi smjela imati ovlašćenje da odluči o pokretanju nuklearnog rata. Osnova za ovu važnu političku odluku postavljena je tokom pet godina razgovora u okviru neformalnog Track II dijaloga između SAD-a i Kine o vještačkoj inteligenciji i nacionalnoj bezbjednosti, koji su zajednički organizovali Brukings institut i Centar za međunarodnu bezbjednost i strategiju Univerziteta Tsinghua. Oni su donijeli ispravnu odluku. Nadajmo se da će je i ostali lideri poštovati.

D.LUČIĆ

Komentari

U SVJETU AI-A

Budućnost obrazovanja ili prolazni trend

Objavljeno prije

na

Objavio:

U San Francisku je otvorena privatna škola Alpha u potpunosti bazirana na vještačkoj inteligenciji. Nastavnici su ekrani i AI, a ljudska komponenta svedena na „vodiče“ i „trenere“. Cijela priča u Alphi probudila je oprez kod istraživača obrazovanja i tehnologije

 

Priča o AI i obrazovnom sistemu odavno zaokuplja stručnjake, ali i školske kolektive i đake. Dok se AI nečujno šunja po domaćim zadacima u Crnoj Gori, neke svjetske adrese širom su prigrlile ovu tehnologiju. O jednoj od takvih škola se dosta pisalo posljednjih mjesec dana u svjetskoj štampi.

Privatna škola Alpha u San Francisku mijenja način na koji učenici uče, stavljajući vještačku inteligenciju u sam centar obrazovanja. Ustanova od ove školske godine koristi AI, ukida zvona, ocjene, pa čak i nastavnike. AI vodi nastavu, a odrasli se zovu „vodiči“ i „treneri“, koji su tu radi motivacione i emocionalne podrške.

Učenici provode samo dva sata dnevno učeći osnovne predmete putem AI aplikacija. Prema navodima škole, te aplikacije nemaju chat funkciju. Umjesto toga, AI koristi vizuelni model da prati ekran i daje savjete kako da se uči efikasnije. Softver se prilagođava tempu i stilu učenja svakog učenika. Iz Alphe tvrde da učenici za ova dva sata uče duplo brže nego njihovi vršnjaci u tradicionalnim školama.

Ostatak dana koristi se za praktične životne vještine i projekte koji razvijaju kreativne strane učenika. Mnogi stručnjaci kažu da se i u tradicionalnim školama, potroši približno isto vrijeme na efektivno učenje.

Škola je počela sa samo 15 učenika, ali naredne jeseni planira da upiše 75. Ona je dio mreže od 14 privatnih škola širom SAD-a.

Cijena – prava sitnica, kako bi rekao čuveni lopov iz stripa Alan Ford. Godina košta 75.000 dolara. Jedan komentator je rekao da je to više nego na mnogim univerzitetima Ajvi lige.

Alpha nije jedina koja eksperimentiše sa AI u učionici. Širom SAD-a škole isprobavaju vještačku inteligenciju kao alat koji može pomagati nastavnicima u razvoju kurikuluma, prepoznavanju obrazovnih trendova, pa čak i podizanju angažmana učenika.

U SAD-u se sprovode i drugi razni eksperimenti: distrikt Peninsula istražuje kako AI može učiniti učenje inkluzivnijim; u okrugu Orange angažovani su AI stručnjaci koji savjetuju škole; širom Kalifornije škole uvode AI pismenost u kurikulume kao dio obavezne digitalne medijske pismenosti.

Stručnjaci upozoravaju da neće svi jednako profitirati od ove AI revolucije u školama. Cijela priča oko ovolikog oslanjanja na AI u Alphi probudila je oprez kod istraživača obrazovanja i tehnologije. Oni naglašavaju da je pažljiva evaluacija ovakvih programa ključna.

Ima i onih stručnjaka koji postavljaju pitanje da li ova škola možda namjerno pretjeruje u predstavljanju AI komponente kao revolucionarne u učenju, radi  privlačenja onih roditelja koji strahuju da će njihova djeca propustiti AI revoluciju, i tako sjutra biti oslabljena na tržištu rada. Ovi stručnjaci kažu da Alpha koristi trenutnu popularnost upotrebe i mogućnosti AI radi brze zarade, bez mnogo razmišljanja o budućnosti.

Odavno je očigledno da su poboljšanja u školskim sistemima neophodna. AI će u nekim slučajevima biti dio rješenja. Izazov za sve je – prepoznati kakvu korist AI zaista donosi novim generacijama, a šta je samo marketing i trend.

D.LUČIĆ

Komentari

nastavi čitati

Izdvojeno

Tanka linija između regulacije i restrikcije

Objavljeno prije

na

Objavio:

Svijet ulazi u prelomnu fazu regulacije vještačke inteligencije. SAD, EU i Kina donose ključne zakone i odluke koje će odrediti kako će se AI razvijati – između podsticanja inovacija i potrebe za zaštitom građana

 

Pitanje koje stoji pred donosiocima odluka širom svijeta nije da li treba regulisati AI, već kako to učiniti, a da se ne uguši inovacija koja pokreće nezabilježen tehnološki napredak. Ulog je ogroman, a pogrešan balans može ili osloboditi opasne sisteme u nepripremljenom društvu ili prepustiti globalno vođstvo u oblasti AI državama spremnim na veće rizike.

U novembru 2025. svijet ulazi u prelomnu fazu regulacije vještačke inteligencije. SAD, EU i Kina donose ključne zakone i odluke koje će odrediti kako će se AI razvijati. Fokus je u tački koja leži negdje između podsticanja inovacija i potrebe za zaštitom građana.

U SAD ključne odredbe evropskog AI Acta počinju da stupaju na snagu. Situaciju dodatno komplikuje to što različite savezne države unutar SAD-a primjenjuju vrlo različite pristupe. Primjera radi, savezna vlada SAD-a, kroz AI Action Plan 2025, podstiče brže inovacije i smanjenje regulacije radi očuvanja američke tehnološke dominacije, a pojedine države daju prednost zaštiti potrošača, stvarajući rascjepkan sistem u kojem kompanije moraju da se snalaze među potpuno različitim pravilima.

U januaru ove godine Donald Tramp je ukinuo Bajdenovu Izvršnu naredbu o „Sigurnom, pouzdanom i odgovornom AI”. Na snazi je nova naredba koja njeguje uklanjanje prepreka američkom liderstvu na ovom polju. To je, smatraju stručnjaci, prelazak sa pristupa koji je stavljao fokus na ublažavanje rizika na onaj koji AI posmatra kao ključnu tačku nadmetanja sa Kinom.

U SAD je čak 38 država usvojilo oko 100 propisa povezanih sa AI. Kolorado, Kalifornija i Nju Jork prednjače sa zakonima koji daju stvarna prava potrošačima. Primjera radi Colorado AI Act od juna 2026. omogućiće građanima da se žale na odluke zasnovane na AI sistemima, poput odbijenog kredita, ponude za posao ili pristupa uslugama, ali i da zahtijevaju ljudsku reviziju. Kalifornija je otišla još dalje. Korisnici mogu direktno tužiti kompanije koje proizvode AI chatbotove u slučaju štete ili manipulacije, bez čekanja na državni nadzor, uz odštete do 1.000 dolara po prekršaju.

Sa druge strane EU AI Act predstavlja prvi sveobuhvatni zakon o AI na svijetu. Zasnovan na procjeni rizika, on klasifikuje AI sisteme i propisuje obaveze shodno njihovom riziku. Ovaj pristup ima globalni značaj, jer svaka kompanija koja želi da posluje sa evropskim korisnicima mora da poštuje ta pravila, čime EU standardi postaju de facto globalna osnova.

Ishod ovih odluka preoblikovaće čitavo ovo polje. Ako regulacija bude previše stroga, razvoj AI mogao bi se preseliti u zemlje sa blažim pravilima, prije svega u Kinu. Prema podacima kineskog Ministarstva industrije i informacionih tehnologija, do kraja 2025. preko 60 odsto velikih proizvođača u Kini koristiće neku formu integracije AI + proizvodnja. Tu su i hiljade fabrika koje već imaju sertifikat AI osnaženih. Ako se SAD i Evropa zapetljaju u previše regulacije dok Kina ubrzava primjenu, geopolitičke posljedice biće ogromne.

Ulazimo u opasnu zonu u kojoj treba voditi računa o svim detaljima. Ako regulacija bude previše labava, rizik je velik. Opet, strože mjere nose drugačije opasnosti.

D. LUČIĆ

Komentari

nastavi čitati

U SVJETU AI-A

Da budućnost ne bude algoritam

Objavljeno prije

na

Objavio:

Tehnologija ima ogroman potencijal, ali njome moraju upravljati ljudi — ne obrnuto. Budućnost neće pisati algoritmi, pisaće je ljudi, kao kolektivna snaga. Nalazimo se na raskrsnici. Odluke koje sada donosimo o tome ko gradi AI, ko od njega ima koristi, i čije vrijednosti ga oblikuju odrediće hoće li on pojačati ljudske potrebe ili ih potkopati

 

Koalicija filantropa najavila je petogodišnju inicijativu Humanity AI, vrijednu 500 miliona dolara. U okviru inicijative Humanity AI, deset najdinamičnijih američkih fondacija koje podržavaju umjetnost, rad i zapošljavanje, demokratiju, obrazovanje i bezbjednost, usmjeravaće nova ulaganja ka stvaranju budućnosti zasnovane na ljudima — budućnosti u kojoj AI služi čovječanstvu, jača zajednice i unapređuje ljudsku kreativnost.

Kako bi odgovorile na važna pitanja koja AI postavlja, Doris Duke Foundation, Ford Foundation, Lumina Foundation, Kapor Foundation, John D. and Catherine T. MacArthur Foundation, Mellon Foundation, Mozilla Foundation, Omidyar Network, David and Lucile Packard Foundation i Siegel Family Endowment udružuju svoje resurse da bi ljudima obezbijedile snažniji glas u zastupanju njihovih potreba i interesa. Kako smatraju oni su često izostavljeni iz rasprava o AI.

Kako AI postaje sve prisutniji u svakom segmentu društva i svakodnevnog života, ljudi počinju da postavljaju osnovna pitanja o svojoj ulozi i vrijednosti u budućnosti vođenoj vještačkom inteligencijom. Radnici se pitaju hoće li AI zamijeniti njih ili poboljšati njihov učinak; umjetnici se preispituju kako će se vrednovati njihov doprinos i da li će njihova intelektualna svojina biti zaštićena u svijetu u kojem postoji AI-generisana umjetnost; dok se mnogi brinu o rizicima koje AI može predstavljati po nacionalnu bezbjednost, kao i po njihovu digitalnu i fizičku sigurnost.

Cilj Humanity AI je promjena tog odnosa tako što će podržati tehnološke stručnjake, istraživače i zagovornike ujedinjene zajedničkom vizijom da AI postane sila dobra, koja stavlja ljude i planetu na prvo mjesto“.

Identifikovane su sljedeće prioritetne oblasti i planirana sredstva za njihove razvoje: demokratija, obrazovanje, humanistika i kultura, rad i ekonomija i bezbjednost.

Ova koalicija će se vremenom proširivati, uključujući i druge aktere koji se bave društvenim i kulturnim uticajem AI. Partneri Humanity AI inicijative počeće sa usklađenim dodjeljivanjem grantova već na jesen 2025. godine, usmjeravajući nova ulaganja kroz svoje programe i prioritetne oblasti Humanity AI.

„Poruka koju želim da odjekne svuda jeste ova: AI nije sudbina — on je dizajn,“ rekla je Michele L. Jawando, predsjednica Omidyar Networka. „Tehnologija ima ogroman potencijal, ali njome moraju upravljati ljudi — ne obrnuto. Budućnost neće pisati algoritmi, pisaće je ljudi, kao kolektivna snaga. Nalazimo se na raskrsnici. Odluke koje sada donosimo o tome ko gradi AI, ko od njega ima koristi, i čije vrijednosti ga oblikuju odrediće hoće li on pojačati ljudske potrebe ili ih potkopati. Ta budućnost je na nama da je osmislimo“.

Organizacije zainteresovane za Humanity AI mogu se prijaviti za ažuriranja, uključujući informacije o načinu prijave za grantove. Humanity AI poziva dodatne finansijere da se pridruže misiji i doprinesu izgradnji društva u kojem ljudi i zajednice imaju veću mogućnost i slobodu da oblikuju svoje živote, oblikujući i sam AI.

D. LUČIĆ

Komentari

nastavi čitati

Izdvajamo