A Budapesti Műszaki Egyetem, a QTICS és a NoBoVersum közös képzése:
AI Compliance Officer & AI Auditor – 6 hónapos hibrid képzés
A BME, a NoBoVersum és a QTICS közös tanúsítványával | 8 előadással & workshoppal | 18 digitális e-learning tananyaggal
Dátum: 2026. október 6-tól 2027. március 30-ig.
20% Super Early Bird kedvezmény 2026. máj. 22-ig.
A 8 képzési nap és a záróvizsga dátuma, illetve a részvételi díj a Részletes információk menüpontban található.
Az AI-megfelelés most már nem lehetőség, hanem kötelezettség!
Az Európai Unió új AI Act rendelete alapjaiban alakítja át a mesterséges intelligencia használatát Európában. A rendelet fokozatosan lép hatályba, és 2026-tól a magas kockázatú (high-risk) AI-rendszerek már csak szigorú megfelelőségi feltételek mellett működtethetők.
Időközben Magyarországon is megszületett a hazai AI-törvény, amely kijelölte azokat a hatóságokat, amelyek az AI-rendszerek megfelelőségét ellenőrzik és ellátják a piacfelügyeletet. Ez azt jelenti, hogy a magyar cégeknek és intézményeknek most már nemcsak az uniós AI Act-re, hanem a magyar szabályozásra is fel kell készülniük – a megfelelés tehát kettős szinten válik kötelezővé.
Ez nemcsak az AI-fejlesztőket érinti: a bankok, biztosítók, kórházak, oktatási intézmények, HR-rendszereket használó szervezetek és közigazgatási szereplők mind érintettek. Aki nem készül fel időben, komoly jogi, működési és reputációs kockázatot vállal – de aki időben lép, versenyelőnyt szerez.
A Budapesti Műszaki Egyetem szakértői, a QTICS és a NoBoVersum által kidolgozott 6 hónapos AI Compliance Officer & AI Auditor képzés segít abban, hogy a résztvevők:
✓ megértsék az AI Act követelményeit,
✓ kialakítsák a szervezeten belüli megfelelőségi rendszert,
✓ és felkészítsék vállalatukat az AI-auditokra.
A képzés elvégzése után a BME, a NoBoVersum és a QTICS által közösen kiadott tanúsítványt kapsz, amely hitelesen igazolja az AI Act szerinti szakmai kompetenciát.
Kiknek ajánljuk a képzést?
✔ Vállalati megfelelőségi szakembereknek (akár jogi végzettséggel, akár anélkül)
✔ Adatvédelmi tanácsadóknak és adatvédelmi tisztviselőknek (DPO)
✔ IT biztonsági tanácsadóknak
✔ AI-fejlesztésben részt vevő technológiai cégek vezetőinek
✔ AI-t használó vagy bevezetni tervező szervezetek egyéb belső felelőseinek
A képzés két kulcsszerepkörre is felkészít:
– Az AI Compliance Officer feladata a belső megfelelőségi rendszer kialakítása és működtetése.
– Az AI Auditor pedig a külső, független megfelelőségértékelést és auditálást végzi.
Részletes információk
A 6 hónapos, átfogó hibrid képzés a következő modulokból áll:
I. Gyakorlati modul
- 8 db (személyes vagy online) előadás és konzultáció
- Interaktív workshopok, gyakorlati feladatok közös megoldása
- Egyéni házi feladatok otthoni kidolgozása
II. E-learning modul
- A 18 digitális e-learning tananyag egy modern e-learning platformon keresztül érhető el
- A tananyagot a képzés résztvevői önállóan, a saját ritmusuk szerint tudják elsajátítani
- Az elméleti ismeretek megértését és elmélyítését online tesztek segítik
III. Záróvizsga:
- Dátuma: 2027. március 30.
- Helyszíne: a Budapesti Műszaki Egyetem kijelölt oktatóterme
- A záróvizsga sikeres teljesítése esetén a résztvevő az Egyetem, a NoBoVersum és a QTICS által közösen által kiállított tanúsítványt kap, amely hitelt érdemlően igazolja az új AI Act megfelelő szintű ismeretét és az AI Act szerinti megfelelőségben szerzett jártasságot
Képzési azonosító: 4001/02
A változtatás jogát fenntartjuk!
A gyakorlati modul (előadások & workshopok) időpontjai:
1. gyakorlati képzési alkalom: 2026. október 6., kedd (09:00 – 16:00) / Képzési forma: személyes
2. gyakorlati képzési alkalom: 2026. október 27., kedd (09:00 – 16:00) / Képzési forma: személyes
3. gyakorlati képzési alkalom: 2026. november 17., kedd (09:00 – 16:00) / Képzési forma: online
4. gyakorlati képzési alkalom: 2026. december 8., kedd (09:00 – 16:00) / Képzési forma: személyes
5. gyakorlati képzési alkalom: 2027. január 19., kedd (09:00 – 16:00) / Képzési forma: online
6. gyakorlati képzési alkalom: 2027. február 9., kedd (09:00 – 16:00) / Képzési forma: online
7. gyakorlati képzési alkalom: 2027. március 2., kedd (09:00 – 16:00) / Képzési forma: személyes
8. gyakorlati képzési alkalom: 2027. március 23., kedd (09:00 – 16:00) / Képzési forma: online
A záróvizsga dátuma: 2027. március 30., kedd (Helyszín: a BME kijelölt oktatóterme)
A változtatás jogát fenntartjuk!
Időszakos kedvezmények
20% Super Early Bird kedvezmény
Amennyiben a jelentkezésed 2026. május 22-ig beérkezik hozzánk, 20% kedvezményt biztosítunk.
Ebben az esetben a részvételi díj 1.100.000 Ft helyett 880.000 Ft/fő.
(A részvételi díj a felnőttképzési előírások értelmében tárgyi áfamentes.)
Egyéb kedvezmények
Mikrovállalkozási kedvezmény
Legfeljebb 10 főt foglalkoztató vállalkozások számára 20% kedvezményt biztosítunk a képzés listaárából.
Csoportos kedvezmény
Amennyiben egy cégtől többen jelentkeznek, az alábbi kedvezményeket biztosítjuk:
- 2 fő esetén: 5% kedvezmény
- 3 fő esetén: 10% kedvezmény
- 4 vagy több fő esetén: 15% kedvezmény
Alumni kedvezmény (magánszemélyek részére)
Amennyiben korábban részt vettél a NoBoVersum valamely képzésén, 20% Alumni kedvezményt biztosítunk a képzés listaárából.
Fontos tudnivalók
- Az időszakos és az egyéb kedvezmények nem vonhatók össze. Jelentkezéskor minden esetben a számodra legkedvezőbb (legmagasabb értékű) kedvezményt vesszük figyelembe.
- A fizetés módja: átutalás a Felnőttképző által kiállított számlán feltüntetett átutalási határidővel.
Dr. Badacsonyi Katalin Tegza (BME GTK egyetemi tanársegéd)
Dr. Grad-Gyenge Anikó (BME GTK habil. egyetemi docens, tanszékvezető)
Dr. Héder Mihály (BME GTK habil. egyetemi docens, tanszékvezető)
Dr. Molnár Ákos Ádám (TAM-Cert Kiberbiztonsági tanúsítóhely AI megfelelőségértékelési szakértő)
Dr. Molnár Enikő (ügyvéd, az Europrivacy GDPR jogi szakértője, a TAMCert Kft. hivatalos partnere)
Dr. Strausz György (BME VIK egyetemi docens)
Dr. Tomasovszky Edit (BME GTK egyetemi adjunktus)
A képzés felépítése
(8 előadás & workshop)
1. képzési nap: Indítás – Etika, transzparencia, emberi felügyelet, ESG és az AI Act születése
Dátum: 2026. október 6., kedd (09:00 – 16:00)
Képzési forma: személyes (Helyszín: a BME kijelölt oktatóterme)
Oktató: Dr. Héder Mihály
ELŐADÁS: Etika, kockázatok és transzparencia az AI-ban – az AI Act kialakulásának háttere
Cél: a résztvevők megértsék, milyen társadalmi, gazdasági és technológiai kockázatok vezettek az AI szabályozás kialakulásához, valamint képesek legyenek azonosítani az AI-rendszerekhez kapcsolódó etikai, fairness és transzparencia kérdéseket, mint a megfelelés és auditálhatóság alapjait.
WORKSHOP: AI kockázatok és etikai dilemmák elemzése – döntési helyzetek gyakorlati megközelítése
Cél: a résztvevők valós esettanulmányokon keresztül gyakorolják az AI-rendszerek kockázatainak felismerését, az érintetti hatások elemzését, valamint a lehetséges döntési alternatívák és következmények értékelését.
HÁZI FELADAT: AI-rendszer etikai és transzparencia elemzése (IEEE P7001, ALTAI alapján)
2. képzési nap: Indítás, AI act alapok, szerepértelmezés
Dátum: 2026. október 27., kedd (09:00 – 16:00)
Képzési forma: személyes (Helyszín: a BME kijelölt oktatóterme)
Oktató: Dr. Tomasovszky Edit
ELŐADÁS: AI Act alapozó: Szerepek, kötelezettségek, kockázatalapú megközelítés és felelősségi lánc
Cél: a résztvevők megértsék az AI Act logikáját, azonosítani tudják az egyes szereplők (pl. szolgáltató, alkalmazó) kötelezettségeit, valamint értelmezni tudják a kockázatalapú szabályozás gyakorlati működését.
WORKSHOP: AI governance és szerepkörszimuláció – AI Officer és AI Auditor együttműködésben
Cél: a résztvevők gyakorlati szituációkon keresztül megtapasztalják, hogyan működik az AI Officer és az AI Auditor szerepe, hogyan történik a kockázatok azonosítása, a kontrollok meghatározása és a felelősségi körök kijelölése szervezeti környezetben.
HÁZI FELADAT: Egy AI-rendszer bemutatása, kockázati besorolása és a szervezeti szerepek értelmezése az AI Act szerint
3. képzési nap: A nagy kockázatú MI-rendszerek követelményei
Dátum: 2026. november 17., kedd (09:00 – 16:00)
Képzési forma: online (MS Teams)
Oktató: Dr. Badacsonyi Tegza
ELŐADÁS: Nagy kockázat, nagy felelősség – Kötelezettségek és megfelelés a high-risk AI rendszerekre
Cél: a résztvevők képesek legyenek azonosítani és értelmezni a nagy kockázatú rendszerekre vonatkozó előírásokat.
WORKSHOP: Nagy kockázatú MI-rendszer alkalmazói tájékoztatójának elemzése
Cél: a résztvevők egy valósághű példán keresztül gyakorolják, hogy miként elemezhető egy nagy kockázatú mesterséges intelligencia rendszer dokumentációja az AI Act alapján, milyen megfelelőségi követelmények vonatkoznak rá, és hogyan azonosíthatók a hiányosságok, valamint hogyan készíthető el egy átfogó megfelelőségi térkép (compliance roadmap).
HÁZI FELADAT: Egy AI-rendszer minősítése az AI Act szerinti kockázati kategóriák alapján
4. képzési nap: Kockázatértékelés, kockázatkezelés. Generatív AI
Dátum: 2026. december 8., kedd (09:00 – 16:00)
Képzési forma: személyes (Helyszín: a BME kijelölt oktatóterme)
Oktató: Dr. Grad-Gyenge Anikó
ELŐADÁS: Kockázatkezelés és AI – szabványok, sablonok és auditkészség és a generatív AI sajátosságai
Cél: a résztvevők képesek legyenek AI-alapú rendszerek kockázatainak strukturált azonosítására és kezelésére, valamint megértsék a generatív AI rendszerekhez kapcsolódó speciális kockázatokat, jogi követelményeket és felelősségi viszonyokat az AI Act alapján.
WORKSHOP: Kockázatprofil kidolgozása egy nagy kockázatú (generatív) AI-rendszerre
Cél: a résztvevők megtanulják, hogyan kell kockázatértékelést készíteni egy konkrét – generatív AI elemeket is tartalmazó – mesterséges intelligencián alapuló rendszerre az AI Act követelményei szerint.
HÁZI FELADAT: Kockázatértékelési jegyzőkönyv készítése
5. képzési nap: Adatvédelem és AI: GDPR vs AI Act
Dátum: 2027. január 19., kedd (09:00 – 16:00)
Képzési forma: online (MS Teams)
Oktató: Dr. Puskás Tamás és dr. Molnár Enikő
ELŐADÁS: GDPR és AI Act összhangban – adatvédelem és kockázatelemzés AI rendszerekben
Cél: a résztvevők képesek legyenek értelmezni és összehangolni a GDPR és az AI Act követelményeit, és DPIA-t végezni AI rendszerekre.
WORKSHOP: AI-rendszer adatvédelmi hatásvizsgálata (DPIA light)
Cél: a résztvevők megismerjék, hogyan kell adatvédelmi szempontból előzetesen értékelni egy AI-rendszer működését, különösen a személyes adatok kezelése, a célhoz kötöttség és a jogalap szempontjából.
HÁZI FELADAT: A GDPR és az AI Act alapján alkalmazandó követelmények összevetése
6. képzési nap: Fejlesztési életciklus és MLOps megfelelés
Dátum: 2027. február 9., kedd (09:00 – 16:00)
Képzési forma: online (MS Teams)
Oktató: Dr. Strausz György
ELŐADÁS: AI Lifecycle és MLOps megfelelőség – Hatékony irányítás és audit az AI fejlesztésben
Cél: a résztvevők képesek legyenek megfelelőségi elvek mentén kialakítani és auditálni az AI lifecycle folyamatokat.
WORKSHOP: AI fejlesztési folyamat térképezése – megfelelőségi kontrollpontok beazonosítása
Cél: a résztvevők megértsék, hogyan néz ki egy AI-rendszer fejlesztési életciklusa, és hol szükséges megfelelőségi, minőségbiztosítási vagy etikai kontrollpontokat beilleszteni (pl. adatgyűjtés, annotálás, modelltréning, monitoring).
HÁZI FELADAT: Fejlesztési életciklus-áttekintés készítése
7. képzési nap: AI governance, belső AI megfelelőségi rendszer, AI audit
Dátum: 2027. március 2., kedd (09:00 – 16:00)
Képzési forma: személyes (Helyszín: a BME kijelölt oktatóterme)
Oktató: Dr. Tomasovszky Edit, Dr. Grad-Gyenge Anikó és TAM Cert
ELŐADÁS: AI Governance és Compliance – Belső rendszerek kiépítése és auditokra való felkészülés
Cél: a résztvevők képesek legyenek kialakítani és működtetni egy AI governance rendszert, és megfelelőségi feladatokat ellátni (belső megfelelőségi rendszer kialakítása, felkészülés a külső auditokra).
WORKSHOP: AI compliance keretrendszer tervezése egy képzeletbeli szervezet számára
Cél: a résztvevők közösen kidolgozzák egy belső AI governance struktúra fő elemeit egy fiktív szervezet számára.
HÁZI FELADAT: Javaslat egy belső AI megfelelőségi rendszer (AI governance keretrendszer) kialakítására
8. képzési nap: Záró workshop, komplex esettanulmány és vizsgafelkészítés
Dátum: 2027. március 23., kedd (09:00 – 16:00)
Képzési forma: online (MS Teams)
BESZÉLGETÉS: Visszatekintés a korábbi workshopokra és függő kérdések megválaszolása
Cél: a résztvevők áttekintik a korábbi alkalmak során végzett közös munkát és feladatokat, megvitatják a felmerült kérdéseket és kihívásokat. Az oktató részletes visszajelzést ad a beadott feladatokra, valamint megválaszolja a még nyitott kérdéseket.
WORKSHOP: Komplex AI compliance esettanulmány feldolgozása
Cél: a résztvevők egy valószerű, többdimenziós esettanulmányon keresztül alkalmazzák az eddig tanultakat. A csoportmunka során az AI governance, kockázatkezelés, adatvédelem, emberi felügyelet és etikai megfelelés szempontjai alapján dolgoznak ki megoldási javaslatokat egy fiktív szervezet számára.
ELŐADÁS: Vizsgára való felkészülés és értékelési szempontok ismertetése
Cél: az oktató bemutatja a vizsga felépítését, a sikeres teljesítés követelményeit, valamint a tanúsítvány megszerzésének feltételeit. A résztvevők kérdéseket tehetnek fel a vizsgával és a tanúsítás folyamatával kapcsolatban.
TAKE AWAY: A résztvevők átfogó képet kapnak arról, hogyan kapcsolhatók össze a korábbi workshopokon megszerzett ismeretek egy integrált megfelelőségi szemléletben. Megértik, miként alkalmazhatók az AI governance és compliance eszközei valós szervezeti környezetben. A nap végére magabiztosan készülhetnek fel a záróvizsgára, valamint a megfelelőségi feladatok gyakorlati ellátására a saját szakmai környezetükben.
A változtatás jogát fenntartjuk!
Az e-learning anyagokat a képzés vége után még 4 hónapig, 2027. július végéig éred el.
1. Szabályozási és etikai bevezető
- Az AI technológiák szabályozásának Európai története – út az AI Act-ig
- AI etika motiváló esettanulmányai
- AI etika analitikus elméletei
2. Bevezetés az AI Act-be
- A szabályozás előzményei (AI White Paper, OECD elvek)
- Az AI Act célrendszere
- Az AI Act fogalmi alapjai és alkalmazási köre
- Fogalommagyarázat
- Kockázatalapú kategóriák alapjainak bemutatása
- Jogszabályi szerkezet és jogi hierarchia
3. A korlátozott kockázatú és az általános célú AI-rendszerekre vonatkozó követelmények
- Korlátozott kockázatú AI-rendszerek
- Általános célú AI-modellek
4. A nagy kockázatú AI rendszerek kötelezettségei
- Szolgáltató (Provider), Alkalmazó (Deployer), Forgalmazó (Distributor) szerepkörök
- AI rendszer nagy kockázatúként való besorolása
- A nagy kockázatú AI-rendszerekre vonatkozó követelmények
- A szolgáltatók, alkalmazók, valamint más felek kötelezettségei
- Bejelentő hatóságok és bejelentett szervezetek
- Szabványok, megfelelőségértékelés, tanúsítványok, regisztráció
5. Horizontális rendelkezések, végrehajtás és soft law eszközök
- Az innovációt támogató intézkedések
- Magatartási kódexek és iránymutatások
6. Műszaki dokumentáció és egyéb dokumentumok, nyilvántartások
- Műszaki dokumentáció
- Műveleti naplók és változáskövetés
- Dokumentációs sablonok
7. Adatkezelés és adatminőség AI környezetben
- Adatképzés és annotáció jogi-erkölcsi vetületei
- Torzításmentesség és fairness
- A GDPR és az AI Act viszonya
- Az adatvédelmi hatásvizsgálat (DPIA) és AI risk assessment (AI kockázatértékelés) kapcsolata
8. AI-specifikus kockázatok és azok értékelése, kezelése
- AI-specifikus kockázatok és a kapcsolódó kockázatértékelési és -kezelési módszerek
- Belső, kockázatalapú megfelelőségi értékelés (pre-assessment)
- Belső megfelelőségi audit rendszere
- Harmadik fél általi ellenőrzés és belső felkészülés összehangolása
9. Transzparencia és felhasználói tájékoztatás
- Megmagyarázhatóság (explainability), a megértés támogatása
- Felhasználói jogok, figyelmeztetések
- Generatív tartalmak jelölése
- Felhasználói élmény (UX) szempontú kommunikációs jó gyakorlatok
10. Generatív AI és általános célú AI rendszerek (GPAI)
- Alapmodell fogalom és jelentőség
- Fejlesztői kötelezettségek
- Tartalomszűrés, előítéletkezelés
- ChatGPT, Midjourney típusú esettanulmányok
11. Felügyelet, szankciók, jogorvoslat és végrehajtás az AI Act szerint
- Irányítás és felügyelet
- Szankciók
- Jogorvoslat
- Végrehajtás
- Kapcsolódás más szabályozókhoz
12. Az AI Compliance Officer szerepe és felelősségi köre
- Az AI Compliance Officer szerepének bevezetése
- Összehasonlítás más szerepkörökkel
- Etikai, jogi és szervezeti elvárások
- AI governance és belső kontroll
- AI Office mint team – felépítés, kompetenciák
13. Belső eljárások és megfelelőségi rendszer kialakítása
- AI compliance policy és program
- Szabványos működési eljárások (SOP-ok) és belső szabályzatok
- AI literacy és tudatosságnövelés a munkavállalók körében
- Dokumentációs rendszer kialakítása
14. Gyakorlati példák, esettanulmányok
- Horizontális esettanulmány – Egészségügyi AI-rendszer
- Audit szimuláció példák
- Az AI rendszer teljes életciklusának modellezése
15. Jövőbeli trendek és kapcsolódó szabályozások
- Az AI Act és szabványok lehetséges módosításai
- Az AI Liability Directive (AILD), a Digital Services Act (DSA), a Digital Markets Act (DMA) és a Data Act közti összefüggések
- Etikai keretrendszerek
- Geopolitikai szabályozási különbségek
16. Mesterséges intelligencia rendszerek áttekintése
- Az AI manapság
- AI rendszerek fejlesztési folyamata
- AI rendszerek I. esettanulmány: Nagy nyelvi modelleken alapuló rendszerek
- AI rendszerek II. esettanulmány: Orvosi diagnosztikai rendszerek
- AI rendszerek III. esettanulmány: Adminisztrációs, államigazgatási és jogi rendszerek
17. Az AI Auditor szerepe és felelősségi köre
- Az AI Auditor szerepe azz AI Act rendszerében
- Jogszabályi háttér és felelősségi körök
- A függetlenség és összeférhetetlenség elvei
- Az AI Auditor által vizsgált fő területek
18. A magyar jogszabályi rendelkezések az AI területén
- A magyar AI-törvény (2025. évi LXXV törvény)
- Magyarország Mesterséges Intelligencia Stratégiája (2020–2030)
- Az AI-hoz kapcsolódó ágazati jogszabályok
A változtatás jogát fenntartjuk!
Záróvizsga időpontja: 2027. március 30. (kedd)
Helyszín: Budapesti Műszaki és Gazdaságtudományi Egyetem (kijelölt oktatóterem)
A záróvizsga célja & felépítése
A vizsga célja: A záróvizsga nem csupán számonkérés, hanem a gyakorlati kompetencia bemutatása: annak igazolása, hogy a résztvevő képes az AI Act szerinti megfelelőségi rendszert értelmezni, alkalmazni és dokumentálni egy valós szervezeti környezetben.
A záróvizsga két részből áll: egy gyakorlati feladat megoldásából és egy szóbeli védésből.
- Gyakorlati feladat (írásbeli rész):
A résztvevőknek a kiosztott segédanyagok alapján, előre meghatározott időtartamon belül, egy gyakorlati megfelelőségi feladatot kell megoldaniuk laptopon. A feladat célja, hogy a hallgatók bemutassák, hogyan tudják alkalmazni az AI Act követelményeit egy valósághű szervezeti vagy technológiai helyzetre.
Fontos: a résztvevőknek a vizsgára saját laptopot kell hozniuk.
- Szóbeli védés a vizsgabizottság előtt:
A gyakorlati feladatot minden hallgató röviden bemutatja és megvédi a vizsgabizottság előtt. A bizottság kérdései kiterjedhetnek az e-learning tananyag elméleti elemeire is – például a kockázatkezelés, adatvédelem vagy AI governance témaköreire.
Tanúsítvány
A tanúsítvány minősítésének összetevői
A végső minősítés három teljesítményelem súlyozott eredményéből áll össze:
- Online elméleti tesztek
– az e-learning platformon elérhető tananyaghoz kapcsolódó, egyéni online feladatok eredményei. - Egyéni házi feladatok
– az egyes modulokhoz kapcsolódó önálló feladatok minősítése. - Záróvizsga
– a képzést záró gyakorlati feladat egyéni megoldása és szóbeli megvédése.
A vizsga célja: A záróvizsga nem csupán számonkérés, hanem a gyakorlati kompetencia bemutatása: annak igazolása, hogy a résztvevő képes az AI Act szerinti megfelelőségi rendszert értelmezni, alkalmazni és dokumentálni egy valós szervezeti környezetben.
A fenti teljesítményelemek sikeres teljesítése után a résztvevő a Budapesti Műszaki és Gazdaságtudományi Egyetem, a NoBoVersum és a QTICS által közösen kiállított tanúsítványt kap, amely hitelesen igazolja az AI Act-nek megfelelő szakmai felkészültséget és az AI Compliance Officer, illetve az AI Auditor szerepkör gyakorlásához szükséges ismereteket.
A változtatás jogát fenntartjuk!
Gyakori kérdések
A „high-risk” kategória (magyar fordításban: „nagy kockázatú”) azokat a mesterséges intelligencia rendszereket jelöli, amelyek jelentős hatást gyakorolhatnak az emberek életére, egészségére vagy az alapvető jogaikra. Ilyenek például az egészségügyi, pénzügyi, oktatási, HR vagy kritikus infrastruktúrákban használt MI-megoldások. Ezeket a rendszereket szigorú megfelelőségi követelmények, auditálási és dokumentációs előírások terhelik – tehát ha egy szervezet ezen területek valamelyikén működik, automatikusan „high-risk” kategóriába tartozónak minősül, és köteles az AI Act szerint eljárni.
Egyáltalán nem. Az AI Act nem a fejlesztőkre vonatkozik – hanem mindazokra, akik mesterséges intelligenciát használnak a működésükben. Ha a szervezet bármilyen AI-alapú eszközt, szoftvert vagy döntéstámogató rendszert alkalmaz – legyen az pénzügyi előminősítő rendszer, orvosi diagnosztikai megoldás, HR-szűrő algoritmus vagy akár chatbot –, máris érintett a rendeletben.
A törvény logikája egyszerű: nem az számít, ki fejlesztette az AI-t, hanem az, ki felel a működéséért és a hatásaiért. Ezért a felhasználó, az üzemeltető és a döntéshozó szervezetek is kötelesek biztosítani, hogy az általuk használt AI megfeleljen az uniós elvárásoknak.
Vagyis, ha egy szervezet AI-t használ az üzleti döntéseiben, ügyfélkiszolgálásban, kockázatelemzésben vagy toborzásban, akkor már most el kell kezdenie a felkészülést. A megfelelés nemcsak jogi kötelezettség, hanem biztonsági, etikai és reputációs kérdés is – ami hosszú távon bizalmat és versenyelőnyt teremt.
Az AI Act szigorú pénzügyi szankciókat ír elő, amelyek a jogsértés típusától függenek. A bírságok mértéke a szervezet éves globális árbevételéhez igazodik – hasonlóan a GDPR-hoz –, és elérheti a több milliárd forintot is.
- Tiltott (unacceptable risk) AI-rendszerek használata esetén: legfeljebb 35 millió euró vagy a globális árbevétel 7 %-a.
- High-risk rendszerek kötelezettségeinek megszegése (pl. hiányos kockázatértékelés, adatminőség, átláthatóság): legfeljebb 15 millió euró vagy 3 % árbevétel.
- Hamis vagy félrevezető információ megadása a hatóságoknak: legfeljebb 7,5 millió euró vagy 1 % árbevétel.
- Kisebb megfelelési vagy adminisztratív hibák (pl. dokumentációs hiányosságok) esetén: az arányos, de érzékelhető pénzbírság szintén alkalmazható.
A pénzbírság mellett a legnagyobb kockázat a bizalomvesztés és az üzleti reputáció sérülése.
A megfelelés ezért nemcsak jogi kötelezettség, hanem stratégiai üzleti előny is.
Az AI Act nem explicit módon írja elő az „AI Compliance Officer” pozíciót, de – tekintettel arra, hogy megköveteli a szervezett megfelelőségi rendszerek kialakítását és a belső felelősségi körök kijelölését – a gyakorlatban a vállalatok ezt úgy oldják meg, hogy kijelölnek egy dedikált szakembert vagy csapatot – az AI Compliance Officert –, aki összefogja az AI-rendszerek megfelelőségi folyamatait, biztosítja a jogi, technológiai és etikai követelmények összehangolását, felügyeli a dokumentációt, a kockázatértékelést és az auditokra való felkészülést, valamint kapcsolatot tart a hatóságokkal és a belső szereplőkkel (pl. DPO, CISO, fejlesztői és üzleti területek).
Az AI Act minden EU-tagállamban közvetlenül alkalmazandó rendelet, amely az AI-t fejlesztő, forgalmazó és használó szervezetekre egyaránt vonatkozik. A rendelet 2024. augusztus 1-jén lépett hatályba, de fokozatosan válik alkalmazandóvá:
- 2025 februárjától tilosak a „nem megengedett kockázatú” (unacceptable risk) AI-rendszerek,
- 2025 augusztusától érvénybe léptek az általános célú (GPAI) rendszerekre és a felügyeleti hatóságokra vonatkozó szabályok,
- 2026. augusztus 2-től pedig teljeskörűen kötelező lesz az AI Act, különösen a high-risk kategóriába tartozó rendszerekre.
Érdemes tehát már most megkezdeni a felkészülést, mert a megfelelés több lépcsőben, szervezeti szinten építhető ki.
Mert a megfelelés nem valósítható meg egyik napról a másikra: dokumentációt, kockázatelemzést, folyamatokat, és gyakran szervezeti kultúraváltást is igényel. Azok a szervezetek, amelyek időben megkezdik a felkészülést, elkerülhetik a jogsértéseket, és piaci bizalmat nyerhetnek.
A DPO (Data Protection Officer) az adatvédelmi megfelelésért felel, míg az AI Compliance Officer az AI rendszerek megfelelőségét biztosítja a teljes életciklus során – a fejlesztéstől a használatig.
A két szerepkörben tevékenykedők szorosan együttműködnek egymással, de az AI Officer a technológiai, etikai és jogi aspektusokat is integrálja, így egy új, interdiszciplináris kompetenciát képvisel.
Ez gyakori probléma. Az AI Act előírja, hogy minden szervezetnek kockázatalapú önértékelést kell végeznie. Ha egy rendszer a „high-risk” kategóriába esik, tanúsítási és auditálási kötelezettségek vonatkoznak rá. A képzésünk egyik kiemelt célja, hogy a résztvevők megtanulják, hogyan lehet helyesen azonosítani és besorolni az AI-rendszereket.