Dana 26. ožujka 2026. Europski parlament je izglasao tzv. Omnibus VII paket — najveće izmjene EU AI Acta od njegovog usvajanja u lipnju 2024. Ako koristite AI u svom poslovanju, ovo morate znati.
Promjene uključuju odgodu ključnih rokova za visokorizične AI sustave, novu zabranu nudifier AI alata i pojašnjenja oko primjene na mala i srednja poduzeća. U ovom članku razlažemo što se konkretno promijenilo, zašto i — najvažnije — što to znači za vas.
Stari vs novi rokovi — pregled
| Kategorija | Stari rok | Novi rok | Promjena |
|---|---|---|---|
| Zabranjene prakse (Art. 5) | Veljača 2025. | Nepromijenjeno | VEĆ AKTIVNO |
| AI literacy (Art. 4) | Veljača 2025. | Nepromijenjeno | VEĆ AKTIVNO |
| GPAI modeli | Kolovoz 2025. | Nepromijenjeno | VEĆ AKTIVNO |
| Transparency (Art. 50) | Kolovoz 2026. | Studeni 2026. | +3 mjeseca |
| High-risk standalone (Annex III) | Kolovoz 2026. | Prosinac 2027. | +16 mjeseci |
| High-risk embedded (Annex I) | Kolovoz 2026. | Kolovoz 2028. | +24 mjeseca |
Izvor: Europski parlament — priopćenje za medije
Zašto odgoda?
Kratki odgovor: harmonizirana tehnička pravila nisu gotova na vrijeme.
CEN i CENELEC — europska tijela za standardizaciju — trebali su pripremiti harmonizirane standarde za high-risk AI sustave do kolovoza 2025. To se nije dogodilo. Bez tih standarda, firme ne znaju točno kako dokazati sukladnost, a regulatori ne znaju što provjeravati.
Europska komisija je u veljači 2026. predložila "stop-the-clock" mehanizam — odgodu rokova dok standardi ne budu spremni. Vijeće EU je podržalo taj pristup, a Parlament je izglasao konačnu verziju 26. ožujka.
Proces nije bio bez kontroverzi. 127 organizacija civilnog društva upozorilo je da je odgoda rezultat lobiranja Big Tech kompanija. Kako je to sažeo jedan Reddit korisnik na r/BuyEU: "127 civil society groups say Big Tech lobbied for exactly this."
S druge strane, industrija je argumentirala da je nemoguće ispuniti obaveze bez jasnih tehničkih standarda — argument koji ima legitimnu osnovu. Istina je vjerojatno negdje u sredini: standardi doista kasne, ali to ne znači da firme ne mogu početi s pripremom.
Nova zabrana: nudifier AI alati
Omnibus VII uvodi novu zabranu u Članak 5 — AI sustavi za generiranje nekonsenzualnog seksualnog sadržaja. To uključuje:
- Nudifier alate — AI koji "skida" ljude na fotografijama
- Deepfake pornografiju — sintetički seksualni sadržaj s likovima stvarnih osoba
- CSAM materijal — bilo koji AI-generirani sadržaj seksualnog zlostavljanja djece
Jedina iznimka su sustavi s dokazano učinkovitim safety mjerama koji sprečavaju zloupotrebu (npr. forenzički alati za policiju).
Kazne za kršenje: do €35 milijuna ili 7% globalnog godišnjeg prometa — ista razina kao za ostale zabranjene prakse.
Kako je EU parlament istaknuo: ovo je direktan odgovor na val deepfake skandala koji su pogodili europske škole i javne osobe u 2025.
3 kategorije koje su VEĆ AKTIVNE
Ovo je dio koji većina firmi propušta. Fokusirajući se na odgodu rokova za high-risk sustave, mnogi previđaju da su tri kategorije obaveza već na snazi:
Zabranjene prakse (Članak 5) — od veljače 2025.
Social scoring zaposlenika, manipulativni AI koji iskorištava ranjivosti, masovno prikupljanje biometrijskih podataka sa interneta — sve ovo je već zabranjeno. Kazne: do €35M ili 7% globalnog prometa.
Većina firmi to ne radi namjerno, ali provjerite koriste li vaši AI alati prakse koje bi mogle upasti u ovu kategoriju. Na primjer, AI alat za "emotion recognition" na radnom mjestu je zabranjen.
AI literacy obveza (Članak 4) — od veljače 2025.
Svaka firma koja koristi AI sustave mora osigurati da njeni zaposlenici imaju dovoljnu razinu AI pismenosti. To ne znači PhD iz machine learninga — znači da ljudi koji koriste AI alate razumiju njihove mogućnosti, ograničenja i rizike.
Kazne za nepoštivanje: do €15 milijuna ili 3% globalnog prometa. Prema izvješću s r/FuturePrep, samo 8 od 27 država članica ima operativne kontaktne točke za provedbu — ali to ne znači da možete ignorirati obavezu.
GPAI modeli — od kolovoza 2025.
Provideri general-purpose AI modela (GPT, Claude, Gemini, Llama) moraju ispunjavati obaveze transparentnosti, uključujući dokumentaciju o trening podacima i copyright politikama. Ovo se primarno odnosi na providere, ne deployere, ali indirektno utječe i na vas — provjerite imaju li vaši AI provideri javnu dokumentaciju sukladnosti.
Što ovo znači za vaše poslovanje?
Koristite AI u svakodnevnom poslovanju?
Odmah provjerite jeste li usklađeni s Člankom 4 (AI literacy) i Člankom 5 (zabranjene prakse). Ove obaveze su već aktivne i kazne su značajne. Ne trebate složenu dokumentaciju — trebate osigurati da vaši zaposlenici razumiju AI alate koje koriste.
Imate high-risk AI sustave?
Dobili ste više vremena — ali ne odgađajte pripremu. Prosinac 2027. zvuči daleko, ali risk management sustav, tehnička dokumentacija i ljudski nadzor zahtijevaju mjesece pripreme. Kako navodi LegalNodes analiza: "The extended timeline should be seen as an opportunity to build robust compliance frameworks, not a reason to defer action."
Generirate AI sadržaj (tekst, slike, video)?
Vaš rok je studeni 2026. — samo 8 mjeseci od danas. Transparency obveze prema Članku 50 zahtijevaju označavanje AI-generiranog sadržaja u strojno čitljivom formatu. Počnite implementirati watermarking i content labeling sada.
Sljedeći koraci
Odgoda rokova za high-risk sustave ne znači da možete odgoditi pripremu. Tri kategorije obaveza su već aktivne, transparency rok je za 8 mjeseci, a standardi će jednom biti gotovi — i tada ćete morati biti spremni.
Provjerite koje obveze se primjenjuju na vaše poslovanje:
- Besplatni Quick Check → — saznajte kategoriju rizika vaših AI sustava u 2 minute
- Compliance upitnik → — kompletna procjena s compliance scoreom i dokumentacijom
Izvori: Europski parlament, Vijeće EU, LegalNodes, Kennedys Law, Reuters