A Budapesti Műszaki Egyetem, a QTICS és a NoBoVersum közös képzése:
AI Compliance Officer – 5 hónapos gyakorlatorientált képzés
Egyetemi tanúsítvány | 8 előadás és gyakorlati workshop | 16 digitális e-learning tananyag | BME-szakértői tanácsadás
Dátum:
2026. február 3-tól 2026. június 23-ig.
A 8 képzési nap és a záróvizsga dátuma a Részletes információk menüpontban található.
A részvételi díjat lásd a Részletes információk menüpontban.
20% Super Early Bird kedvezmény november 5-ig.
A Budapesti Műszaki Egyetem, a QTICS és a NoBoVersum közös képzése:
AI Compliance Officer – 5 hónapos gyakorlatorientált képzés
Egyetemi tanúsítvány | 8 előadás és gyakorlati workshop |
16 digitális e-learning tananyag | BME-szakértői tanácsadás
Dátum: 2026. február 3-tól 2026. június 23-ig.
A 8 képzési nap és a záróvizsga dátuma a Részletes információk menüpontban található.
A részvételi díjat lásd a Részletes információk menüpontban.
20% Super Early Bird kedvezmény november 5-ig.
2026-tól az AI-megfelelés nem lehetőség – hanem kötelezettség
Az Európai Unió új AI Act rendelete alapjaiban alakítja át a mesterséges intelligencia használatát Európában. 2026. augusztus 2-tól minden high-risk kategóriába tartozó AI-rendszert csak szigorú megfelelőségi feltételek mellett lehet üzemeltetni.
Ez nemcsak az AI-fejlesztőket érinti: a bankok, biztosítók, kórházak, oktatási intézmények, HR-rendszereket használó szervezetek és közigazgatási szereplők mind érintettek.
Aki nem készül fel időben, komoly jogi, működési és reputációs kockázatot vállal – de aki időben lép, versenyelőnyt szerez.
A Budapesti Műszaki Egyetem szakértői, a QTICS és a NoBoVersum által kidolgozott 5 hónapos AI Compliance Officer képzés segít abban, hogy a résztvevők:
✓ megértsék az AI Act követelményeit,
✓ kialakítsák a szervezeten belüli megfelelőségi rendszert,
✓ és felkészítsék vállalatukat az AI-auditokra.
A képzés elvégzése után egyetemi tanúsítványt kapsz, amely hitelesen igazolja az AI Act szerinti szakmai kompetenciát.
A megfelelés nem csupán jogi kötelesség – hanem a bizalom, a versenyelőny és a jövőbeni siker kulcsa.
A te céged/szervezeted felkészült már?
Kiknek ajánljuk a képzést?
✔ Vállalati megfelelőségi szakembereknek (akár jogi végzettséggel, akár anélkül)
✔ Adatvédelmi tanácsadóknak és adatvédelmi tisztviselőknek (DPO)
✔ IT biztonsági tanácsadóknak
✔ AI-fejlesztésben részt vevő technológiai cégek vezetőinek
✔ AI-t használó vagy bevezetni tervező szervezetek egyéb belső felelőseinek
Részletes információk
Az 5 hónapos, átfogó hibrid képzés a következő modulokból áll:
I. Gyakorlati modul
- 8 db (személyes vagy online) előadás és konzultáció
- Interaktív workshopok, gyakorlati feladatok közös megoldása
- Egyéni projektfeladatok otthoni kidolgozása
II. E-learning modul
- A 16 digitális e-learning tananyag egy modern e-learning platformon keresztül érhető el
- A tananyagot a képzés résztvevői önállóan, a saját ritmusuk szerint tudják elsajátítani
- Az elméleti ismeretek megértését és elmélyítését online tesztek segítik
III. Záróvizsga:
- Dátuma: 2026. június 23.
- Helyszíne: a Budapesti Műszaki Egyetem kijelölt oktatóterme
- A záróvizsga sikeres teljesítése esetén a résztvevő az Egyetem által kiállított tanúsítványt kap, amely hitelt érdemlően igazolja az új AI Act megfelelő szintű ismeretét és az AI Act szerinti megfelelőségben szerzett jártasságot
Képzési azonosító: 4001
A változtatás jogát fenntartjuk!
A gyakorlati modul (előadások & workshopok) időpontjai:
- gyakorlati képzési alkalom: 2026. február 3., kedd (09:00 – 16:00)
- gyakorlati képzési alkalom: 2026. február 17., kedd (09:00 – 16:00)
- gyakorlati képzési alkalom: 2026. március 10., kedd (09:00 – 16:00)
- gyakorlati képzési alkalom: 2026. március 31., kedd (09:00 – 16:00)
- gyakorlati képzési alkalom: 2026. április 21., kedd (09:00 – 16:00)
- gyakorlati képzési alkalom: 2026. május 12., kedd (09:00 – 16:00)
- gyakorlati képzési alkalom: 2026. május 26., kedd (09:00 – 16:00)
- gyakorlati képzési alkalom: 2026. június 9., kedd (09:00 – 16:00)
A záróvizsga dátuma: 2026. június 23., kedd
A változtatás jogát fenntartjuk!
Listaár: 890 000 Ft + ÁFA/fő
Az előjelentkezők számára 20% Super Early Bird kedvezményt biztosítunk, így 2025. november 5-ig, 890 000 Ft + ÁFA/fő helyett 712 000 Ft + ÁFA/fő áron lehet jelentkezni.
Csoportos kedvezmény: Amennyiben egy cégtől többen jelentkeztek, további kedvezményeket biztosítunk:
- 2 fő esetén: +5% kedvezmény (kód: Csop2)
- 3 fő esetén: +10% kedvezmény (kód: Csop3)
- 4 vagy több fő esetén: +15% kedvezmény (kód: Csop4)
A csoportos kedvezmény igénybevételéhez kérjük, a jelentkezéskor a „Megjegyzés” rovatba írd be a megfelelő kódot (Csop2, Csop3, Csop4).
A részvételi díjat a Résztvevő – a Felnőttképző számlája ellenében – a Felnőttképző Raiffeisen Banknál vezetett, HU39 12012204-02050390-00100000 számú bankszámlaszámára utalja át, a Felnőttképző által kiállított számlán feltüntetett átutalási határidővel.
A változtatás jogát fenntartjuk!
Dr. Strausz György (BME VIK egyetemi docens)
Dr. Héder Mihály (BME GTK habil. egyetemi docens, tanszékvezető)
Dr. Grad-Gyenge Anikó (BME GTK habil. egyetemi docens, tanszékvezető)
Dr. Tomasovszky Edit (BME GTK egyetemi adjunktus)
A képzés felépítése
(8 előadás & workshop)
1. képzési nap: Indítás – Etika, transzparencia, emberi felügyelet, ESG és az AI Act születése
Dátum: 2026. február 3. (09:00 – 16:00)
Helyszín: a BME kijelölt oktatóterme
ELŐADÁS: Etika és ESG az AI-ban: Etika, ESG és az AI Act születése – Miért van szükség AI Compliance Officerre?
Cél: A résztvevők megértsék, milyen társadalmi, gazdasági és technológiai tényezők vezettek az EU AI Act megalkotásához, és miért vált szükségessé egy új, felelős mesterséges intelligencia-szabályozási keret. Cél továbbá, hogy a résztvevők elmélyüljenek az etikai és társadalmi felelősségvállalási szempontokban, amely a reputációs megfelelés és az ESG megfelelés alapja.
WORKSHOP: Etikai dilemmák, szabályozási kérdések, tanulságos esetek
Cél: A résztvevők képessé váljanak felismerni és elemezni az etikai és átláthatósági kockázatokat AI-rendszerek esetében, valamint megértsék, hogyan kommunikálhatók ezek a felhasználók és döntéshozók felé.
HÁZI FELADAT: Esetazonosítás és etikai kockázatelemzés
Egy választott AI-rendszer rövid bemutatása, három lehetséges etikai vagy társadalmi kockázat azonosítása, és az AI Compliance Officer szerepének rövid leírása az adott esetben.
2. képzési nap: Indítás, AI act alapok, szerepértelmezés
Dátum: 2026. február 17. (09:00 – 16:00)
ELŐADÁS: AI Act alapozó: Szerepek, kötelezettségek, a kockázatalapú megközelítés logikája
Cél: a résztvevők megismerjék az európai technológiaszabályozás történetét, és elmélyüljenek az etikai és társadalmi felelősségvállalási szempontokban, amely a reputációs megfelelés és az ESG megfelelés alapja
WORKSHOP: AI Officer onboarding és együttműködés DPO-val, CISO-val – gyakorlati szerepkörszimuláció
Cél: a résztvevők a gyakorlatban is megtapasztalják, hogyan épül be az AI Officer szerepköre a szervezeti működésbe, és milyen együttműködési pontok vannak más kulcsfunkciókkal (pl. adatvédelem, IT-biztonság, compliance)
HÁZI FELADAT: Egy AI-rendszer bemutatása, a szervezet szerepének értelmezése az AI Act szerint
3. képzési nap: A nagy kockázatú MI-rendszerek követelményei
Dátum: 2026. március 10. (09:00 – 16:00)
ELŐADÁS: Nagy kockázat, nagy felelősség – Kötelezettségek és megfelelés a high-risk AI rendszerekre
Cél: a résztvevők képesek legyenek azonosítani és értelmezni a nagy kockázatú rendszerekre vonatkozó előírásokat
WORKSHOP: Nagy kockázatú MI-rendszer felismerése és előzetes megfelelőségi térkép készítése
Cél: a résztvevők egy valósághű példán keresztül gyakorolják, hogy miképpen azonosítható egy nagy kockázatú mesterséges intelligencia rendszer az AI Act alapján, milyen megfelelőségi követelmények vonatkoznak rá, és hogy hogyan készíthető el egy átfogó megfelelőségi térkép (compliance roadmap) az adott AI-rendszerre
HÁZI FELADAT: Egy AI-rendszer minősítése az AI Act szerinti kockázati kategóriák alapján
4. képzési nap: Kockázatértékelés és kockázatkezelés
Dátum: 2026. március 31. (09:00 – 16:00)
ELŐADÁS: Kockázatkezelés és AI – szabványok, sablonok és auditkészség
Cél: a résztvevők képesek legyenek kockázatértékelési eljárás kialakítására és belső sablonok használatára
WORKSHOP: Kockázatprofil kidolgozása egy AI-rendszerre
Cél: a résztvevők megtanulják, hogyan kell kockázatértékelést készíteni egy konkrét mesterséges intelligencián alapuló rendszerre az AI Act követelményei szerint
HÁZI FELADAT: Kockázatértékelési jegyzőkönyv készítése
5. képzési nap: Adatvédelem és AI: GDPR vs AI Act
Dátum: 2026. április 21. (09:00 – 16:00)
ELŐADÁS: GDPR és AI Act összhangban – adatvédelem és kockázatelemzés AI rendszerekben
Cél: a résztvevők képesek legyenek értelmezni és összehangolni a GDPR és az AI Act követelményeit, és DPIA-t végezni AI rendszerekre
WORKSHOP: AI-rendszer adatvédelmi hatásvizsgálata (DPIA light)
Cél: a résztvevők megismerjék, hogyan kell adatvédelmi szempontból előzetesen értékelni egy AI-rendszer működését, különösen a személyes adatok kezelése, a célhoz kötöttség és a jogalap szempontjából
HÁZI FELADAT: A GDPR és az AI Act alapján alkalmazandó követelmények összevetése
6. képzési nap: Fejlesztési életciklus és MLOps megfelelés
Dátum: 2026. május 12. (09:00 – 16:00)
ELŐADÁS: AI Lifecycle és MLOps megfelelőség – Hatékony irányítás és audit az AI fejlesztésben
Cél: a résztvevők képesek legyenek megfelelőségi elvek mentén kialakítani és auditálni az AI lifecycle folyamatokat
WORKSHOP: AI fejlesztési folyamat térképezése – megfelelőségi kontrollpontok beazonosítása
Cél: a résztvevők megértsék, hogyan néz ki egy AI-rendszer fejlesztési életciklusa, és hol szükséges megfelelőségi, minőségbiztosítási vagy etikai kontrollpontokat beilleszteni (pl. adatgyűjtés, annotálás, modelltréning, monitoring)
HÁZI FELADAT: Fejlesztési életciklus-áttekintés készítése
7. képzési nap: AI governance, belső AI megfelelőségi rendszer, AI audit
Dátum: május 26. (09:00 – 16:00)
ELŐADÁS: AI Governance és Compliance – Belső rendszerek kiépítése és auditokra való felkészülés
Cél: a résztvevők képesek legyenek kialakítani és működtetni egy AI governance rendszert, és megfelelőségi feladatokat ellátni (belső megfelelőségi rendszer kialakítása, felkészülés a külső auditokra)
WORKSHOP: AI compliance keretrendszer tervezése egy képzeletbeli szervezet számára
Cél: a résztvevők közösen kidolgozzák egy belső AI governance struktúra fő elemeit egy fiktív szervezet számára
HÁZI FELADAT: Javaslat egy belső AI megfelelőségi rendszer (AI governance keretrendszer) kialakítására
8. képzési nap: Záró workshop, komplex esettanulmány és vizsgafelkészítés
Dátum: június 9. (09:00 – 16:00)
Képzési forma: online
BESZÉLGETÉS: Visszatekintés a korábbi workshopokra és függő kérdések megválaszolása
Cél: a résztvevők áttekintik a korábbi alkalmak során végzett közös munkát és feladatokat, megvitatják a felmerült kérdéseket és kihívásokat. Az oktató részletes visszajelzést ad a beadott feladatokra, valamint megválaszolja a még nyitott kérdéseket.
WORKSHOP: Komplex AI compliance esettanulmány feldolgozása
Cél: a résztvevők egy valószerű, többdimenziós esettanulmányon keresztül alkalmazzák az eddig tanultakat. A csoportmunka során az AI governance, kockázatkezelés, adatvédelem, emberi felügyelet és etikai megfelelés szempontjai alapján dolgoznak ki megoldási javaslatokat egy fiktív szervezet számára.
ELŐADÁS: Vizsgára való felkészülés és értékelési szempontok ismertetése
Cél: az oktató bemutatja a vizsga felépítését, a sikeres teljesítés követelményeit, valamint a tanúsítvány megszerzésének feltételeit. A résztvevők kérdéseket tehetnek fel a vizsgával és a tanúsítás folyamatával kapcsolatban.
TAKE AWAY: A résztvevők átfogó képet kapnak arról, hogyan kapcsolhatók össze a korábbi workshopokon megszerzett ismeretek egy integrált megfelelőségi szemléletben. Megértik, miként alkalmazhatók az AI governance és compliance eszközei valós szervezeti környezetben. A nap végére magabiztosan készülhetnek fel a záróvizsgára, valamint a megfelelőségi feladatok gyakorlati ellátására a saját szakmai környezetükben.
A változtatás jogát fenntartjuk!
Az e-learning anyagokat a képzés vége után még 4 hónapig, 2026. októberéig elérheted.
1. Technológiai és etikai bevezető
- A technológiák szabályozásának Európai története – út az AI Act-ig
- Az MI etika motiváló esettanulmányai
- Az MI Etika analitikus elméletei
2. Bevezetés az AI Act-be
- A szabályozás előzményei (AI White Paper, OECD elvek)
- Az AI Act célrendszere
- Alkalmazási kör, személyi és tárgyi hatály
- Fogalommagyarázat
- Kockázatalapú kategóriák rövid bemutatása, besorolási szabályok
- Jogszabályi szerkezet és jogi hierarchia
3. Az AI Compliance Officer szerepe és felelősségi köre
- Az AI Compliance Officer szerepének bevezetése
- Összehasonlítás más szerepkörökkel (pl. DPO)
- Etikai, jogi és szervezeti elvárások
- AI governance és belső kontroll
- AI Office mint team – felépítés, kompetenciák
4. A korlátozott kockázatú és az általános célú MI-rendszerekre vonatkozó követelmények
- Korlátozott kockázatú MI-rendszerek
- Általános célú MI-modellek
5. A nagy kockázatú AI rendszerekre vonatkozó követelmények
- Szolgáltató (Provider), Alkalmazó (Deployer), Forgalmazó (Distributor) szerepkörök
- A nagy kockázatú MI-rendszerekre vonatkozó követelmények
- A szolgáltatóik, alkalmazóik, valamint más felek kötelezettségei
- Bejelentő hatóságok és bejelentett szervezetek
- Szabványok, megfelelőségértékelés, CE-jelölés és tanúsítás
6. Horizontális rendelkezések, végrehajtás és soft law eszközök
- Az innováció támogató intézkedések
- Magatartási kódexek és iránymutatások
7. Műszaki dokumentáció és egyéb dokumentumok, nyilvántartások
- Műszaki dokumentáció
- Műveleti naplók és változáskövetés
- Dokumentációs sablonok
8. Adatkezelés és adatminőség AI környezetben
- Adatképzés és annotáció jogi-erkölcsi vetületei
- Torzításmentesség és fairness
- A GDPR és az AI Act viszonya
- Az adatvédelmi hatásvizsgálat (DPIA) és AI risk assessment (AI kockázatértékelés) kapcsolata
9. AI-specifikus kockázatok és azok értékelése, kezelése
- AI-specifikus kockázatok. Kapcsolódó kockázatértékelési és -kezelési módszerek
- Belső, kockázatalapú megfelelőségi értékelés (pre-assessment)
- Belső megfelelőségi audit rendszere
- Harmadik fél általi ellenőrzés és belső felkészülés összehangolása
10. Transzparencia és felhasználói tájékoztatás
- Explainability és megértés támogatása
- Felhasználói jogok, figyelmeztetések
- Generatív tartalmak jelölése
- UX szempontú kommunikációs jó gyakorlatok
11. Generatív AI és általános célú AI rendszerek (GPAI)
- Foundation model fogalom és jelentőség
- Fejlesztői kötelezettségek
- Tartalomszűrés, előítéletkezelés
- ChatGPT, Midjourney típusú esettanulmányok
12. Felügyelet, szankciók, jogorvoslat és végrehajtás az AI Act szerint
- Irányítás és felügyelet
- Szankciók
- Jogorvoslat
- Végrehajtás
- Kapcsolódás más szabályozókhoz (pl. adatvédelem)
13. Belső eljárások és megfelelőségi rendszer kialakítása
- AI compliance policy és program
- Szabványos működési eljárások (SOP-ok) és belső szabályzatok
- AI literacy és tudatosságnövelés a munkavállalók körében
- Dokumentációs rendszer kialakítása
14. Gyakorlati példák, esettanulmányok
- Horizontális esettanulmányok (egészségügy)
- Audit-szimuláció példák
- AI rendszer teljes életciklusának modellezése
15. Jövőbeli trendek és kapcsolódó szabályozások
- Az AI Act lehetséges módosításai
- Az AI Liability Directive, a Digital Services Act (DSA), a Digital Markets Act (DMA) és a Data Act közti összefüggések
- Etikai keretrendszerek (OECD AI Principles, UNESCO Ajánlása)
- Geopolitikai szabályozási különbségek
16. Mesterséges intelligencia rendszerek áttekintése
- MI manapság
- MI rendszerek fejlesztési folyamata
- MI rendszerek I. esettanulmány: Nagy nyelvi modelleken alapuló rendszerek
- MI rendszerek II. esettanulmány: Orvosi diagnosztikai rendszerek
- MI rendszerek III. esettanulmány: Adminisztrációs, államigazgatási és jogi rendszerek
A változtatás jogát fenntartjuk!
Záróvizsga időpontja: 2026. június 23. (kedd)
Helyszín: Budapesti Műszaki és Gazdaságtudományi Egyetem (kijelölt oktatóterem)
A vizsga felépítése
A vizsga két részből áll: egy gyakorlati feladat megoldásából és egy szóbeli védésből.
1. Gyakorlati feladat (írásbeli rész):
A résztvevőknek a kiosztott segédanyagok alapján, előre meghatározott időtartamon belül, egy gyakorlati megfelelőségi feladatot kell megoldaniuk laptopon.
A feladat célja, hogy a hallgatók bemutassák, hogyan tudják alkalmazni az AI Act követelményeit egy valósághű szervezeti vagy technológiai helyzetre.
Fontos: a résztvevőknek a vizsgára saját laptopot kell hozniuk.
2. Szóbeli védés a vizsgabizottság előtt:
A gyakorlati feladatot minden hallgató röviden bemutatja és megvédi a vizsgabizottság előtt.
A bizottság kérdései kiterjedhetnek az e-learning tananyag elméleti elemeire is – például a kockázatkezelés, adatvédelem vagy AI governance témaköreire.
A tanúsítvány minősítésének összetevői
A végső minősítés három teljesítményelem súlyozott eredményéből áll össze:
1. Online elméleti tesztek
– az e-learning platformon elérhető tananyaghoz kapcsolódó, egyéni online feladatok eredményei.
2. Workshop-feladatok
– a gyakorlati képzési napok során megoldott, csoportos (workshop) feladatok százalékos eredménye.
3. Egyéni házi feladatok
– az egyes modulokhoz kapcsolódó önálló feladatok minősítése.
A vizsga célja: A záróvizsga nem csupán számonkérés, hanem a gyakorlati kompetencia bemutatása: annak igazolása, hogy a résztvevő képes az AI Act szerinti megfelelőségi rendszert értelmezni, alkalmazni és dokumentálni egy valós szervezeti környezetben.
Egyetemi tanúsítvány
A sikeres vizsga után a résztvevők a Budapesti Műszaki és Gazdaságtudományi Egyetem által kiállított tanúsítványt kapnak, amely hitelesen igazolja az AI Act-nek megfelelő szakmai felkészültséget és az AI Compliance Officer szerep gyakorlásához szükséges ismereteket.
A változtatás jogát fenntartjuk!
A képzés felépítése
(8 előadás & workshop)
1. képzési nap: Indítás – Etika, transzparencia, emberi felügyelet, ESG és az AI Act születése
Dátum: 2026. február 3. (09:00 – 16:00)
Helyszín: a BME kijelölt oktatóterme
ELŐADÁS: Etika és ESG az AI-ban: Etika, ESG és az AI Act születése – Miért van szükség AI Compliance Officerre?
Cél: A résztvevők megértsék, milyen társadalmi, gazdasági és technológiai tényezők vezettek az EU AI Act megalkotásához, és miért vált szükségessé egy új, felelős mesterséges intelligencia-szabályozási keret. Cél továbbá, hogy a résztvevők elmélyüljenek az etikai és társadalmi felelősségvállalási szempontokban, amely a reputációs megfelelés és az ESG megfelelés alapja.
WORKSHOP: Etikai dilemmák, szabályozási kérdések, tanulságos esetek
Cél: A résztvevők képessé váljanak felismerni és elemezni az etikai és átláthatósági kockázatokat AI-rendszerek esetében, valamint megértsék, hogyan kommunikálhatók ezek a felhasználók és döntéshozók felé.
HÁZI FELADAT: Esetazonosítás és etikai kockázatelemzés
Egy választott AI-rendszer rövid bemutatása, három lehetséges etikai vagy társadalmi kockázat azonosítása, és az AI Compliance Officer szerepének rövid leírása az adott esetben.
2. képzési nap: Indítás, AI act alapok, szerepértelmezés
Dátum: 2026. február 17. (09:00 – 16:00)
ELŐADÁS: AI Act alapozó: Szerepek, kötelezettségek, a kockázatalapú megközelítés logikája
Cél: a résztvevők megismerjék az európai technológiaszabályozás történetét, és elmélyüljenek az etikai és társadalmi felelősségvállalási szempontokban, amely a reputációs megfelelés és az ESG megfelelés alapja
WORKSHOP: AI Officer onboarding és együttműködés DPO-val, CISO-val – gyakorlati szerepkörszimuláció
Cél: a résztvevők a gyakorlatban is megtapasztalják, hogyan épül be az AI Officer szerepköre a szervezeti működésbe, és milyen együttműködési pontok vannak más kulcsfunkciókkal (pl. adatvédelem, IT-biztonság, compliance)
HÁZI FELADAT: Egy AI-rendszer bemutatása, a szervezet szerepének értelmezése az AI Act szerint
3. képzési nap: A nagy kockázatú MI-rendszerek követelményei
Dátum: 2026. március 10. (09:00 – 16:00)
ELŐADÁS: Nagy kockázat, nagy felelősség – Kötelezettségek és megfelelés a high-risk AI rendszerekre
Cél: a résztvevők képesek legyenek azonosítani és értelmezni a nagy kockázatú rendszerekre vonatkozó előírásokat
WORKSHOP: Nagy kockázatú MI-rendszer felismerése és előzetes megfelelőségi térkép készítése
Cél: a résztvevők egy valósághű példán keresztül gyakorolják, hogy miképpen azonosítható egy nagy kockázatú mesterséges intelligencia rendszer az AI Act alapján, milyen megfelelőségi követelmények vonatkoznak rá, és hogy hogyan készíthető el egy átfogó megfelelőségi térkép (compliance roadmap) az adott AI-rendszerre
HÁZI FELADAT: Egy AI-rendszer minősítése az AI Act szerinti kockázati kategóriák alapján
4. képzési nap: Kockázatértékelés és kockázatkezelés
Dátum: 2026. március 31. (09:00 – 16:00)
ELŐADÁS: Kockázatkezelés és AI – szabványok, sablonok és auditkészség
Cél: a résztvevők képesek legyenek kockázatértékelési eljárás kialakítására és belső sablonok használatára
WORKSHOP: Kockázatprofil kidolgozása egy AI-rendszerre
Cél: a résztvevők megtanulják, hogyan kell kockázatértékelést készíteni egy konkrét mesterséges intelligencián alapuló rendszerre az AI Act követelményei szerint
HÁZI FELADAT: Kockázatértékelési jegyzőkönyv készítése
5. képzési nap: Adatvédelem és AI: GDPR vs AI Act
Dátum: 2026. április 21. (09:00 – 16:00)
ELŐADÁS: GDPR és AI Act összhangban – adatvédelem és kockázatelemzés AI rendszerekben
Cél: a résztvevők képesek legyenek értelmezni és összehangolni a GDPR és az AI Act követelményeit, és DPIA-t végezni AI rendszerekre
WORKSHOP: AI-rendszer adatvédelmi hatásvizsgálata (DPIA light)
Cél: a résztvevők megismerjék, hogyan kell adatvédelmi szempontból előzetesen értékelni egy AI-rendszer működését, különösen a személyes adatok kezelése, a célhoz kötöttség és a jogalap szempontjából
HÁZI FELADAT: A GDPR és az AI Act alapján alkalmazandó követelmények összevetése
6. képzési nap: Fejlesztési életciklus és MLOps megfelelés
Dátum: 2026. május 12. (09:00 – 16:00)
ELŐADÁS: AI Lifecycle és MLOps megfelelőség – Hatékony irányítás és audit az AI fejlesztésben
Cél: a résztvevők képesek legyenek megfelelőségi elvek mentén kialakítani és auditálni az AI lifecycle folyamatokat
WORKSHOP: AI fejlesztési folyamat térképezése – megfelelőségi kontrollpontok beazonosítása
Cél: a résztvevők megértsék, hogyan néz ki egy AI-rendszer fejlesztési életciklusa, és hol szükséges megfelelőségi, minőségbiztosítási vagy etikai kontrollpontokat beilleszteni (pl. adatgyűjtés, annotálás, modelltréning, monitoring)
HÁZI FELADAT: Fejlesztési életciklus-áttekintés készítése
7. képzési nap: AI governance, belső AI megfelelőségi rendszer, AI audit
Dátum: május 26. (09:00 – 16:00)
ELŐADÁS: AI Governance és Compliance – Belső rendszerek kiépítése és auditokra való felkészülés
Cél: a résztvevők képesek legyenek kialakítani és működtetni egy AI governance rendszert, és megfelelőségi feladatokat ellátni (belső megfelelőségi rendszer kialakítása, felkészülés a külső auditokra)
WORKSHOP: AI compliance keretrendszer tervezése egy képzeletbeli szervezet számára
Cél: a résztvevők közösen kidolgozzák egy belső AI governance struktúra fő elemeit egy fiktív szervezet számára
HÁZI FELADAT: Javaslat egy belső AI megfelelőségi rendszer (AI governance keretrendszer) kialakítására
8. képzési nap: Záró workshop, komplex esettanulmány és vizsgafelkészítés
Dátum: június 9. (09:00 – 16:00)
Képzési forma: online
BESZÉLGETÉS: Visszatekintés a korábbi workshopokra és függő kérdések megválaszolása
Cél: a résztvevők áttekintik a korábbi alkalmak során végzett közös munkát és feladatokat, megvitatják a felmerült kérdéseket és kihívásokat. Az oktató részletes visszajelzést ad a beadott feladatokra, valamint megválaszolja a még nyitott kérdéseket.
WORKSHOP: Komplex AI compliance esettanulmány feldolgozása
Cél: a résztvevők egy valószerű, többdimenziós esettanulmányon keresztül alkalmazzák az eddig tanultakat. A csoportmunka során az AI governance, kockázatkezelés, adatvédelem, emberi felügyelet és etikai megfelelés szempontjai alapján dolgoznak ki megoldási javaslatokat egy fiktív szervezet számára.
ELŐADÁS: Vizsgára való felkészülés és értékelési szempontok ismertetése
Cél: az oktató bemutatja a vizsga felépítését, a sikeres teljesítés követelményeit, valamint a tanúsítvány megszerzésének feltételeit. A résztvevők kérdéseket tehetnek fel a vizsgával és a tanúsítás folyamatával kapcsolatban.
TAKE AWAY: A résztvevők átfogó képet kapnak arról, hogyan kapcsolhatók össze a korábbi workshopokon megszerzett ismeretek egy integrált megfelelőségi szemléletben. Megértik, miként alkalmazhatók az AI governance és compliance eszközei valós szervezeti környezetben. A nap végére magabiztosan készülhetnek fel a záróvizsgára, valamint a megfelelőségi feladatok gyakorlati ellátására a saját szakmai környezetükben.
A változtatás jogát fenntartjuk!
Az e-learning anyagokat a képzés vége után még 4 hónapig, 2026. októberéig elérheted.
1. Technológiai és etikai bevezető
- A technológiák szabályozásának Európai története – út az AI Act-ig
- Az MI etika motiváló esettanulmányai
- Az MI Etika analitikus elméletei
2. Bevezetés az AI Act-be
- A szabályozás előzményei (AI White Paper, OECD elvek)
- Az AI Act célrendszere
- Alkalmazási kör, személyi és tárgyi hatály
- Fogalommagyarázat
- Kockázatalapú kategóriák rövid bemutatása, besorolási szabályok
- Jogszabályi szerkezet és jogi hierarchia
3. Az AI Compliance Officer szerepe és felelősségi köre
- Az AI Compliance Officer szerepének bevezetése
- Összehasonlítás más szerepkörökkel (pl. DPO)
- Etikai, jogi és szervezeti elvárások
- AI governance és belső kontroll
- AI Office mint team – felépítés, kompetenciák
4. A korlátozott kockázatú és az általános célú MI-rendszerekre vonatkozó követelmények
- Korlátozott kockázatú MI-rendszerek
- Általános célú MI-modellek
5. A nagy kockázatú AI rendszerekre vonatkozó követelmények
- Szolgáltató (Provider), Alkalmazó (Deployer), Forgalmazó (Distributor) szerepkörök
- A nagy kockázatú MI-rendszerekre vonatkozó követelmények
- A szolgáltatóik, alkalmazóik, valamint más felek kötelezettségei
- Bejelentő hatóságok és bejelentett szervezetek
- Szabványok, megfelelőségértékelés, CE-jelölés és tanúsítás
6. Horizontális rendelkezések, végrehajtás és soft law eszközök
- Az innováció támogató intézkedések
- Magatartási kódexek és iránymutatások
7. Műszaki dokumentáció és egyéb dokumentumok, nyilvántartások
- Műszaki dokumentáció
- Műveleti naplók és változáskövetés
- Dokumentációs sablonok
8. Adatkezelés és adatminőség AI környezetben
- Adatképzés és annotáció jogi-erkölcsi vetületei
- Torzításmentesség és fairness
- A GDPR és az AI Act viszonya
- Az adatvédelmi hatásvizsgálat (DPIA) és AI risk assessment (AI kockázatértékelés) kapcsolata
9. AI-specifikus kockázatok és azok értékelése, kezelése
- AI-specifikus kockázatok. Kapcsolódó kockázatértékelési és -kezelési módszerek
- Belső, kockázatalapú megfelelőségi értékelés (pre-assessment)
- Belső megfelelőségi audit rendszere
- Harmadik fél általi ellenőrzés és belső felkészülés összehangolása
10. Transzparencia és felhasználói tájékoztatás
- Explainability és megértés támogatása
- Felhasználói jogok, figyelmeztetések
- Generatív tartalmak jelölése
- UX szempontú kommunikációs jó gyakorlatok
11. Generatív AI és általános célú AI rendszerek (GPAI)
- Foundation model fogalom és jelentőség
- Fejlesztői kötelezettségek
- Tartalomszűrés, előítéletkezelés
- ChatGPT, Midjourney típusú esettanulmányok
12. Felügyelet, szankciók, jogorvoslat és végrehajtás az AI Act szerint
- Irányítás és felügyelet
- Szankciók
- Jogorvoslat
- Végrehajtás
- Kapcsolódás más szabályozókhoz (pl. adatvédelem)
13. Belső eljárások és megfelelőségi rendszer kialakítása
- AI compliance policy és program
- Szabványos működési eljárások (SOP-ok) és belső szabályzatok
- AI literacy és tudatosságnövelés a munkavállalók körében
- Dokumentációs rendszer kialakítása
14. Gyakorlati példák, esettanulmányok
- Horizontális esettanulmányok (egészségügy)
- Audit-szimuláció példák
- AI rendszer teljes életciklusának modellezése
15. Jövőbeli trendek és kapcsolódó szabályozások
- Az AI Act lehetséges módosításai
- Az AI Liability Directive, a Digital Services Act (DSA), a Digital Markets Act (DMA) és a Data Act közti összefüggések
- Etikai keretrendszerek (OECD AI Principles, UNESCO Ajánlása)
- Geopolitikai szabályozási különbségek
16. Mesterséges intelligencia rendszerek áttekintése
- MI manapság
- MI rendszerek fejlesztési folyamata
- MI rendszerek I. esettanulmány: Nagy nyelvi modelleken alapuló rendszerek
- MI rendszerek II. esettanulmány: Orvosi diagnosztikai rendszerek
- MI rendszerek III. esettanulmány: Adminisztrációs, államigazgatási és jogi rendszerek
A változtatás jogát fenntartjuk!
Záróvizsga időpontja: 2026. június 23. (kedd)
Helyszín: Budapesti Műszaki és Gazdaságtudományi Egyetem (kijelölt oktatóterem)
A vizsga felépítése
A vizsga két részből áll: egy gyakorlati feladat megoldásából és egy szóbeli védésből.
1. Gyakorlati feladat (írásbeli rész):
A résztvevőknek a kiosztott segédanyagok alapján, előre meghatározott időtartamon belül, egy gyakorlati megfelelőségi feladatot kell megoldaniuk laptopon.
A feladat célja, hogy a hallgatók bemutassák, hogyan tudják alkalmazni az AI Act követelményeit egy valósághű szervezeti vagy technológiai helyzetre.
Fontos: a résztvevőknek a vizsgára saját laptopot kell hozniuk.
2. Szóbeli védés a vizsgabizottság előtt:
A gyakorlati feladatot minden hallgató röviden bemutatja és megvédi a vizsgabizottság előtt.
A bizottság kérdései kiterjedhetnek az e-learning tananyag elméleti elemeire is – például a kockázatkezelés, adatvédelem vagy AI governance témaköreire.
A tanúsítvány minősítésének összetevői
A végső minősítés három teljesítményelem súlyozott eredményéből áll össze:
1. Online elméleti tesztek
– az e-learning platformon elérhető tananyaghoz kapcsolódó, egyéni online feladatok eredményei.
2. Workshop-feladatok
– a gyakorlati képzési napok során megoldott, csoportos (workshop) feladatok százalékos eredménye.
3. Egyéni házi feladatok
– az egyes modulokhoz kapcsolódó önálló feladatok minősítése.
A vizsga célja: A záróvizsga nem csupán számonkérés, hanem a gyakorlati kompetencia bemutatása: annak igazolása, hogy a résztvevő képes az AI Act szerinti megfelelőségi rendszert értelmezni, alkalmazni és dokumentálni egy valós szervezeti környezetben.
Egyetemi tanúsítvány
A sikeres vizsga után a résztvevők a Budapesti Műszaki és Gazdaságtudományi Egyetem által kiállított tanúsítványt kapnak, amely hitelesen igazolja az AI Act-nek megfelelő szakmai felkészültséget és az AI Compliance Officer szerep gyakorlásához szükséges ismereteket.
A változtatás jogát fenntartjuk!
Gyakori kérdések
A „high-risk” kategória (magyar fordításban: „nagy kockázatú”) azokat a mesterséges intelligencia rendszereket jelöli, amelyek jelentős hatást gyakorolhatnak az emberek életére, egészségére vagy az alapvető jogaikra. Ilyenek például az egészségügyi, pénzügyi, oktatási, HR vagy kritikus infrastruktúrákban használt MI-megoldások. Ezeket a rendszereket szigorú megfelelőségi követelmények, auditálási és dokumentációs előírások terhelik – tehát ha egy szervezet ezen területek valamelyikén működik, automatikusan „high-risk” kategóriába tartozónak minősül, és köteles az AI Act szerint eljárni.
Egyáltalán nem. Az AI Act nem a fejlesztőkre vonatkozik – hanem mindazokra, akik mesterséges intelligenciát használnak a működésükben. Ha a szervezet bármilyen AI-alapú eszközt, szoftvert vagy döntéstámogató rendszert alkalmaz – legyen az pénzügyi előminősítő rendszer, orvosi diagnosztikai megoldás, HR-szűrő algoritmus vagy akár chatbot –, máris érintett a rendeletben.
A törvény logikája egyszerű: nem az számít, ki fejlesztette az AI-t, hanem az, ki felel a működéséért és a hatásaiért. Ezért a felhasználó, az üzemeltető és a döntéshozó szervezetek is kötelesek biztosítani, hogy az általuk használt AI megfeleljen az uniós elvárásoknak.
Vagyis, ha egy szervezet AI-t használ az üzleti döntéseiben, ügyfélkiszolgálásban, kockázatelemzésben vagy toborzásban, akkor már most el kell kezdenie a felkészülést. A megfelelés nemcsak jogi kötelezettség, hanem biztonsági, etikai és reputációs kérdés is – ami hosszú távon bizalmat és versenyelőnyt teremt.
Az AI Act szigorú pénzügyi szankciókat ír elő, amelyek a jogsértés típusától függenek. A bírságok mértéke a szervezet éves globális árbevételéhez igazodik – hasonlóan a GDPR-hoz –, és elérheti a több milliárd forintot is.
- Tiltott (unacceptable risk) AI-rendszerek használata esetén: legfeljebb 35 millió euró vagy a globális árbevétel 7 %-a.
- High-risk rendszerek kötelezettségeinek megszegése (pl. hiányos kockázatértékelés, adatminőség, átláthatóság): legfeljebb 15 millió euró vagy 3 % árbevétel.
- Hamis vagy félrevezető információ megadása a hatóságoknak: legfeljebb 7,5 millió euró vagy 1 % árbevétel.
- Kisebb megfelelési vagy adminisztratív hibák (pl. dokumentációs hiányosságok) esetén: az arányos, de érzékelhető pénzbírság szintén alkalmazható.
A pénzbírság mellett a legnagyobb kockázat a bizalomvesztés és az üzleti reputáció sérülése.
A megfelelés ezért nemcsak jogi kötelezettség, hanem stratégiai üzleti előny is.
Az AI Act nem explicit módon írja elő az „AI Compliance Officer” pozíciót, de – tekintettel arra, hogy megköveteli a szervezett megfelelőségi rendszerek kialakítását és a belső felelősségi körök kijelölését – a gyakorlatban a vállalatok ezt úgy oldják meg, hogy kijelölnek egy dedikált szakembert vagy csapatot – az AI Compliance Officert –, aki összefogja az AI-rendszerek megfelelőségi folyamatait, biztosítja a jogi, technológiai és etikai követelmények összehangolását, felügyeli a dokumentációt, a kockázatértékelést és az auditokra való felkészülést, valamint kapcsolatot tart a hatóságokkal és a belső szereplőkkel (pl. DPO, CISO, fejlesztői és üzleti területek).
Az AI Act minden EU-tagállamban közvetlenül alkalmazandó rendelet, amely az AI-t fejlesztő, forgalmazó és használó szervezetekre egyaránt vonatkozik. A rendelet 2024. augusztus 1-jén lépett hatályba, de fokozatosan válik alkalmazandóvá:
- 2025 februárjától tilosak a „nem megengedett kockázatú” (unacceptable risk) AI-rendszerek,
- 2025 augusztusától érvénybe lépnek az általános célú (GPAI) rendszerekre és a felügyeleti hatóságokra vonatkozó szabályok,
- 2026. augusztus 2-től pedig teljeskörűen kötelező lesz az AI Act, különösen a high-risk kategóriába tartozó rendszerekre.
Érdemes tehát már most megkezdeni a felkészülést, mert a megfelelés több lépcsőben, szervezeti szinten építhető ki.
Mert a megfelelés nem valósítható meg egyik napról a másikra: dokumentációt, kockázatelemzést, folyamatokat, és gyakran szervezeti kultúraváltást is igényel. Azok a szervezetek, amelyek időben megkezdik a felkészülést, elkerülhetik a jogsértéseket, és piaci bizalmat nyerhetnek.
A DPO (Data Protection Officer) az adatvédelmi megfelelésért felel, míg az AI Compliance Officer az AI rendszerek megfelelőségét biztosítja a teljes életciklus során – a fejlesztéstől a használatig.
A két szerepkörben tevékenykedők szorosan együttműködnek egymással, de az AI Officer a technológiai, etikai és jogi aspektusokat is integrálja, így egy új, interdiszciplináris kompetenciát képvisel.
Ez gyakori probléma. Az AI Act előírja, hogy minden szervezetnek kockázatalapú önértékelést kell végeznie. Ha egy rendszer a „high-risk” kategóriába esik, tanúsítási és auditálási kötelezettségek vonatkoznak rá. A képzésünk egyik kiemelt célja, hogy a résztvevők megtanulják, hogyan lehet helyesen azonosítani és besorolni az AI-rendszereket.