hr

Nositelj: Politiscope
Podrška: European Digital Rights (EDRi)
Iznos: 7.500 EUR

S donošenjem EU Akta o umjetnoj inteligenciji, pred države dolazi pitanje: kako uspostaviti institucionalni okvir i provoditi nova pravila tako da ona zaista štite ljude, a ne samo formalno popunjavaju okvire? Projekt NERA AI (National Enforcement and a Rights-based Approach to Artificial Intelligence) nastao je s idejom da u Hrvatskoj otvori taj prostor za javnu raspravu – za civilno društvo i pripadnike medija.

Edukacijski seminar “AI – druga strana medalje” posvećen je praktičnim posljedicama AI Akta i rizicima koje tehnologija već sada donosi za prava i slobode. Rasprava je pokazala koliko je važno skrenuti pažnju s apstraktnih „Skynet scenarija“ na vrlo konkretne, već prisutne prijetnje: diskriminaciju, nadzor, nepravedne odluke algoritama. Govornici su bili Vanja Skorić (ECNL), Ella Jakubowska (EDRi), Jelle Klaas (PILP), Filip Milošević (SHARE Foundation), Nađa Marković (A11 Initiative), Marija Renić, Tamara Zavišić (ETIK.AI). 

Nakon što smo čuli izlaganja stručnjaka koji se ovim pitanjima bave u praksi, uslijedilo je kratko predstavljanje EU Akta o umjetnoj inteligenciji koje je održao Duje Prkut (Politiscope), a koje je poslužilo kao uvod u panel raspravu o nadolazećem hrvatskom zakonu o provedbi. U panel raspravi su sudjelovali Anamarija Mladinić (AZOP), Danilo Krivokapićem (SHARE), Maja Cimerman (Danes je nov dan) i Duje Kozomara (Politiscope).

Na jesen će biti objavljen online tekst-navigator AI Akta na hrvatskom jeziku, alat koji će domaćoj publici omogućiti jednostavniji uvid u ovaj kompleksan pravni tekst. 

Projekt ujedno podržava zagovaračke i lobističke aktivnosti usmjerene na otvaranje policy i legislativnih procesa vezanih uz umjetnu inteligenciju, iz kojih su trenutno potpuno isključene organizacije civilnog društva te  perspektiva zaštite temeljnihprava.  Politiscope će u procesu javnog savjetovanja dostaviti svoje analize i preporuke za uspostavu učinkovitog pravnog i institucionalnog okvira za zaštitu građana od štete koja može nastati neodgovornim i netransparentnim korištenjem umjetne inteligencije.