EU turbopojačava cenzuru konzervativaca regulacijom umjetne inteligencije
Novi standardi EU-ove “sigurnosti i zaštite” zahtijevat će od tehnoloških tvrtki da cenzuriraju i moderiraju sadržaj na modelima umjetne inteligencije opće namjene (AI) kako bi spriječile “mržnju” i “diskriminaciju”.
Kodeks prakse opće namjene umjetne inteligencije Europske komisije zahtijeva od programera umjetne inteligencije i tehnoloških tvrtki da osiguraju da su modeli umjetne inteligencije opće namjene “sigurni”, uključujući cenzuru sadržaja koji je “pun mržnje, radikalizirajući ili lažan”.
Nova uredba ima potencijal za turbo punjenje cenzure i društvene kontrole na svim glavnim tehnološkim platformama. Uz zloglasni Akt o digitalnim uslugama EU-a, očekuje se da će uredba dovesti do novih samonametnutih automatiziranih alata za cenzuru umjetne inteligencije na svim glavnim tehnološkim platformama.
Manipulacija od strane Europske unije
Dio novoobjavljenih standarda ističe “štetnu manipulaciju” kao specifičan veliki rizik i čini se da je definira pozivajući se na populističke političke narative protiv transrodnih politika EU i programa masovne imigracije.
“Štetna manipulacija” definirana je u uredbi kao “strateško iskrivljavanje ljudskog ponašanja ili uvjerenja ciljanjem velike populacije ili donositelja odluka s visokim ulozima putem uvjeravanja, obmane ili personaliziranog ciljanja”. To bi, objašnjava se u uredbi, “moglo potkopati demokratske procese i temeljna prava, uključujući iskorištavanje na temelju zaštićenih obilježja”. Zaštićena obilježja u kontekstu EU-a općenito se odnose na pitanja kao što su migracijski status ili seksualna orijentacija i rodni identitet.
Uredba zahtijeva od tehnoloških tvrtki da prvo identificiraju širok skup potencijalnih “sistemskih rizika” u kategorijama javnog zdravlja, sigurnosti, javne sigurnosti, temeljnih prava i društva u cjelini. Ostale specifične opasnosti utvrđene u uredbi uključuju “neusklađenost s ljudskim vrijednostima (npr. nepoštivanje temeljnih prava)” i “diskriminirajuću pristranost”. Nakon što se takvi rizici identificiraju, programeri umjetne inteligencije i tehnološke tvrtke moraju analizirati i ublažiti sve potencijalne sistemske rizike “praćenjem i filtriranjem ulaza i/ili izlaza modela”.
Standardi su “dobrovoljni alat” osmišljen kako bi se pokazalo da tehnološke tvrtke poštuju zakonodavstvo EU-a o umjetnoj inteligenciji, poznato kao Akt o umjetnoj inteligenciji. Iako su samo dobrovoljne, smatrat će se da tvrtke koje usvoje standarde poštuju Zakon o umjetnoj inteligenciji. “To će smanjiti njihovo administrativno opterećenje i dati im veću pravnu sigurnost nego da su dokazale usklađenost drugim metodama”, kaže Europska komisija.
Nova uredba je najobičnija cenzura
Standardi su pretežno prospektivni. Oni nisu toliko usmjereni na rješavanje postojećih problema u modelima umjetne inteligencije koliko na osiguravanje da budući modeli budu u skladu sa standardima po dizajnu kako bi izlaz modela umjetne inteligencije bio u skladu sa standardima.
Nova uredba dodatak je već iscrpljujućim mjerama cenzure koje tehnološke tvrtke moraju usvojiti prema Aktu o digitalnim uslugama EU-a. Europska komisija već je zahtijevala od velikih tehnoloških tvrtki da cenzuriraju putem Kodeksa ponašanja u suzbijanju dezinformacija. Kad je prvi put donesena 2018., bila je samo dobrovoljna uredba, ali sada je obvezujuća u skladu s Aktom EU-a o digitalnim uslugama iz 2025. donesenim ranije ove godine.
Aktom EU-a o digitalnim uslugama od velikih internetskih platformi zahtijeva se da cenzuriraju sadržaj u skladu s prioritetima Europske komisije. Uredba o dezinformacijama izričito zahtijeva od tehnoloških tvrtki da cenzuriraju i promiču službenu propagandu EU-a moderiranjem sadržaja, demonetizacijom, provjerom činjenica i protuinformacijama.
Američki potpredsjednik J. D. Vance kritizirao je pravila cenzure Zakona o digitalnim uslugama EU-a na samitu o umjetnoj inteligenciji u Parizu u veljači ove godine.
“Čvrsto vjerujemo da umjetna inteligencija mora ostati slobodna od ideoloških pristranosti”, rekao je, “i da američka umjetna inteligencija ne će biti kooptirana kao alat za autoritarnu cenzuru.” Također je upozorio na EU AI Act i njegov mogući učinak na inovacije.


