Az AI-rendelet gyakorlati alkalmazása nemcsak a tiltott AI-gyakorlatok és kötelezettségek ismeretét igényli, hanem azt is, hogy az érintett szereplők átlássák a végrehajtás hazai intézményi kereteit, valamint a mesterséges intelligenciához kapcsolódó jogterületek kockázatait. Jelen cikk a magyarországi végrehajtási struktúrát, majd a mesterséges intelligencia és az adatvédelem, munkajog, szellemi tulajdon, üzleti titok, versenyjog és fogyasztóvédelem közötti kapcsolatot tekinti át.
Mesterséges intelligencia intézményi keretei Magyarországon
Magyarország a 2025. évi LXXV. törvénnyel és az azt végrehajtó 344/2025. (X. 31.) Kormányrendelettel fekteti le a nemzeti végrehajtás intézményi és eljárásrendi alapjait. E jogszabályok nem csupán a mesterséges intelligencia hatóság felállításának, mint az AI-rendelet által a tagállamokra rótt kötelezettségnek a teljesítését célozzák, hanem a hazai mesterséges intelligencia ökoszisztéma fejlesztését, a jogalkalmazás egységesítését, valamint az alapvető jogok és az emberi autonómia tiszteletben tartását is. Magyarországon a fenti jogszabályokkal ugyan az AI-piacfelügyeleti hatóság kijelölésre került, ugyanakkor még a piacfelügyeletért felelős hatósági szervezet nem került felállításra, ezért a jövőben várhatóak újabb jogszabályok vagy jogszabálymódosítások a mesterséges intelligencia felügyeletét ellátó hatóságot illetően.
Az AI-rendelet megköveteli a tagállami bejelentő és piacfelügyeleti hatóságok kijelölését az AI-rendszerek előzetes megfelelőség-ellenőrzésére és utólagos piacfelügyeletére. A Kormány e feladatok ellátására az alábbi szervezeteket jelölte ki:
Mesterséges intelligencia bejelentő hatóság (MI bejelentő hatóság)
A Nemzeti Akkreditáló Hatóság látja el ezen feladatokat. Fő feladata a nagy kockázatú AI-rendszerek megfelelőségét ellenőrző szervezetek értékelése, kijelölése, bejelentése és nyomon követése, akkreditált státusz alapján.
Mesterséges intelligencia piacfelügyeleti hatóság (MI piacfelügyeleti hatóság)
A vállalkozásfejlesztésért felelős miniszter került kijelölésre, mint általános hatáskörű piacfelügyeleti hatóság, valamint az egyedüli kapcsolattartó pont működtetője. A piacfelügyeleti hatóság kizárólagos hatáskörébe tartozik az AI-rendszerek vizsgálata, ha az ügyfél nem minősül fogyasztónak. Azonban a felügyelet nem terjed ki azokra a nagy kockázatú AI-rendszerekre, amelyeket a Magyar Nemzeti Bankról szóló törvény hatálya alá tartozó szervezetek hoznak forgalomba, helyeznek üzembe, vagy használnak a pénzügyi szolgáltatások nyújtásához kapcsolódóan; e rendszerek felügyeletét a Magyar Nemzeti Bank (MNB) látja el.
Hazai eljárási sajátosságok
A hazai szabályozási keret speciális rendelkezéseket állapít meg a mesterséges intelligenciával kapcsolatos eljárásokra:
A mesterséges intelligencia piacfelügyeleti hatóság hivatalból jár el az AI-rendelet szerinti piacfelügyeleti ügyekben. Az eljárás során a hatóság közigazgatási bírságot alkalmazhat, megállapíthatja az AI-rendszer jogellenes alkalmazását, és felhívhatja az érintett személyt a jogellenes magatartás megszüntetésére.
A bírság maximális összege az AI-rendeletben meghatározott euróban kifejezett összegeknek megfelelő, rögzített forintösszeg lehet. Tiltott AI-gyakorlatok be nem tartása esetén a bírság maximális összege 13,3 milliárd forint lehet. Amennyiben az AI-rendszer olyan ágazatban kerül forgalomba vagy üzembe, amelynek a felügyeletéért más ágazati piacfelügyeleti hatóság is felelős, az ágazati hatóság (például a Nemzeti Média- és Hírközlési Hatóság (NMHH) a fogyasztóvédelmi/piacfelügyeleti eljárásában, vagy a Nemzeti Adatvédelmi és Információszabadság Hatóság (NAIH) az adatvédelmi eljárásában) szakhatóságként közreműködik a mesterséges intelligencia piacfelügyeleti eljárásban. Más esetekben, ha egy ágazati hatóság eljárásában az AI-rendszer megfelelőségét kell vizsgálni, a mesterséges intelligencia piacfelügyeleti hatóság szakhatósági állásfoglalását kell az ágazati hatóságnak beszereznie.
Mind a mesterséges intelligencia bejelentő, mind a mesterséges intelligencia piacfelügyeleti hatóság eljárásában kizárt a sommás eljárás, vagyis az eljárás gyorsított lefolytatása nem lehetséges abban az esetben sem, ha a döntés meghozatalához szükséges valamennyi információ, bizonyíték rendelkezésre áll és nincs bizonyítási eljárás lefolytatására szükség.
A fentebb felsorolt mesterséges intelligencia bejelentő, valamint piacfelügyeleti hatóságon túl a jogalkalmazás egységességének biztosítása, a nemzeti mesterséges intelligencia stratégia és -politika kialakítása, valamint a hazai mesterséges intelligencia ökoszisztéma szereplői közötti párbeszéd elmélyítése érdekében létrehozták a Magyar Mesterséges Intelligencia Tanácsot (a továbbiakban: Tanács).
A Tanács testületként működő, ügydöntő jogkörrel nem rendelkező szerv. Támogatja a Kormányt a nemzeti mesterséges intelligencia stratégia és -politika kialakításában és végrehajtásában. További feladatai közé tartozik a kutatási, fejlesztési és innovációs tevékenységek koordinálása, a közszféra AI-alkalmazásainak nyomon követése, valamint a nemzeti mesterséges intelligencia jártasság megteremtése és növelése.
A Tanács tagjai a kulcsfontosságú állami szervek (pl. Magyar Nemzeti Bank, Nemzeti Média- és Hírközlési Hatóság, Gazdasági Versenyhivatal, Nemzeti Adó- és Vámhivatal, Nemzeti Adatvédelmi és Információszabadság Hatóság), a miniszterek, valamint a tudományos és gazdasági szféra képviselői (pl. Magyar Tudományos Akadémia, Magyar Kereskedelmi és Iparkamara) által kijelölt személyek. A Tanács elnökét a miniszterelnök nevezi ki 5 éves időtartamra, a vállalkozásfejlesztésért felelős miniszter és az informatikáért felelős miniszter javaslatára. A Tanács elnöki tisztségét a törvény hatálybalépésekor fennálló kinevezésének időtartamáig a mesterséges intelligenciáért felelős kormánybiztos tölti be.
E jogszabályi keret megteremtésével Magyarország készen áll az AI-rendelet végrehajtásának úttörő feladatára, amely a technológia gyors fejlődése és a jogalkalmazási tapasztalatok hiánya miatt folyamatos kihívás elé állítja a szereplőket.
Kitekintés a mesterséges intelligenciához kapcsolódó egyéb jogterületekre és ahhoz kapcsolódó kockázatokra
A mesterséges intelligencia fejlesztése, üzembe helyezése, használata, bevezetése során a társaságoknak az AI-rendelet vonatkozó rendelkezésein túl számos más egyéb jogszabálynak is meg kell felelniük, valamint az addig kialakított compliance folyamataikba, pl. adatvédelmi folyamataikba be kell építeniük a mesterséges intelligencia-rendszer működését is.
Adatkezelés jogalapja és adatminimalizálás
A mesterséges intelligencia-rendszerhez talán a legközelebb álló és egyik legfontosabbnak mondható kapcsolódó terület az adatvédelem, hiszen a mesterséges intelligencia rendszerek betanításához, működéséhez adatokat, adathalmazokat használnak fel, amelyek legtöbb esetben személyes adatokat is tartalmaznak. A mesterséges intelligencia-rendszer fejlesztéséhez átadott, használt személyes adatok kapcsán érdemes figyelmet fordítani arra, hogy a betanításhoz használt személyes adatok kezelése jogszerű-e, az a GDPR-ban rögzített valamely jogalapon történik-e (pl. hozzájárulás, jogos érdek, szerződés teljesítése stb.).
Ha az adatkezelés jogalapja jogos érdek, érdekmérlegelési teszt elvégzése is kötelező, amelynek célja az adatkezelő jogos érdeke és az érintettek alapvető jogai közötti egyensúly megtalálása, valamint dokumentálása. Amennyiben olyan személyes adattal kerül betanításra az AI-rendszer, amit jogalap nélkül kezelnek, akkor az adatvédelmi szabálysértést valósít meg, amely adatvédelmi hatósági eljárás megindítását teszi lehetővé, valamint a GDPR alapján szankcionálandó. Továbbá a GDPR előírja az adatminimalizálás elvét, azaz azt, hogy csak olyan mértékben kezelhető személyes adat, ami a személyes adatok gyűjtésének céljához szükséges, így az adatkezelés elveire figyelemmel kell lennie és a személyes adatok kezelésének célján túlmutató személyes adatokat érdemes anonimizálni és akként használni az AI-rendszer betanításához.
Amennyiben jogellenesen kezelt adatok kerültek betanításra az AI-rendszerbe, akkor problémát okozhat ezen adatoknak az AI-modellből való törlése, esetlegesen a rendszer átfejlesztése válhat szükségessé a jogszerű működés helyreállítása érdekében.
Automatizált döntéshozatal és adatvédelmi hatásvizsgálat
Az adatvédelem terén szintén jelentős kockázat az automatizált döntéshozatal kérdésköre. A GDPR vonatkozó rendelkezése előírja, hogy az érintettnek joga van ahhoz, hogy főszabály szerint ne terjedjen ki rá olyan döntés, amely rá nézve joghatással jár vagy őt jelentős mértékben érintené és kizárólag automatikus döntéshozatalon alapul. AI-rendszerek esetében előfordulhat ilyen, ha a kritikus, fontos döntéseket emberi felülvizsgálat nélkül kizárólag az adott AI-rendszer hoz meg, pl. önéletrajz szűrő szoftver döntést hoz arról, hogy melyik állásjelentkezőt vegye fel az érintett társaság döntéshozója vagy munkavállalója nem végzi el az AI-rendszer által adott javaslat ellenőrzését, emberi felülvizsgálatát, ilyen eljárás több esetben is jogellenes lehet.
Több esetben, különösen az AI-rendelet alapján magas kockázatúnak minősülő rendszerek esetében adatvédelmi hatásvizsgálat elvégzése is kötelező a GDPR, valamint a Nemzeti Adatvédelmi és Információszabadság Hatóság iránymutatása szerint. Például kötelező az adatvédelmi hatásvizsgálat elvégzése, ha az AI-rendszer működése munkavállalók megfigyelésére, teljesítményének értékelésére irányul. Az adatvédelmi hatásvizsgálat NAIH által közzétett kötelező esetein kívül minden olyan esetben szükséges lehet a GDPR alapján adatvédelmi hatásvizsgálat, ha az AI-rendszer magas kockázattal jár a természetes személyek jogaira és szabadságaira nézve.
Munkajogi kötelezettségek és munkavállalói ellenőrzés
Számos munkajogi kötelezettség is társul a mesterséges intelligencia bevezetéséhez és szoros összefüggésben áll a fent említett adatvédelmi kötelezettségekkel. Amennyiben a munkáltató AI-alapú beléptetőrendszert, azonosítást alkalmaz vizsgálni kell, hogy a biometrikus azonosítás feltételei fennállnak-e, mert az csak korlátozottan megengedett a magyar munkajogi szabályok alapján. Biometrikus azonosítás csak akkor alkalmazható, ha az valamely dologhoz vagy adathoz történő olyan jogosulatlan hozzáférés megakadályozásához szükséges, amely a munkavállaló vagy mások élete, testi épsége vagy egészsége, vagy törvényben védett jelentős érdek súlyos vagy tömeges, visszafordíthatatlan sérelmének a veszélyével járna. Biometrikus azonosítás esetén az ehhez kapcsolódó adatvédelmi dokumentációt is el kell készíteni, ki kell egészíteni.
Arra az esetre, amikor a munkáltató valamilyen AI-eszköz segítségével kívánja ellenőrzi a munkavállalók munkaviszonnyal összefüggő magatartását, úgy ennek tényéről előzetesen tájékoztatni szükséges a munkavállalókat, valamint amennyiben üzemi tanács is működik az adott munkáltatónál, úgy a munkavállalók AI-rendszerrel történő ellenőrzésének megkezdése előtt a munkáltatónak legalább 15 nappal ki kell kérnie az üzemi tanács véleményét. Tekintettel arra, hogy az AI-rendszerrel, annak segítségével a munkavállalók ellenőrzése általában a munkavállalók személyes adatainak kezelésével is jár, ennek megfelelően a munkáltatónak a munkavállalóknak szóló adatkezelési tájékoztatót, egyéb dokumentumokat is felül kell vizsgálni és az AI-rendszer által történő adatkezeléshez kapcsolódó rendelkezéseket beépíteni. A foglalkoztatás terén bevezetett AI megoldások vonatkozásában mind a munkajogi, mind az adatvédelmi szabályokat be kell tartani.
Szerzői jog, védjegyek és az AI által létrehozott eredmények
Szintén kérdéseket vethet fel a szerzői jog és a mesterséges intelligencia kapcsolata, hiszen ahogy fentebb is említettük a betanításhoz használt adatok szerzői jogi védelem alatt álló művek is lehetnek. Az AI-rendszer működéséből és fekete doboz jellegéből fakadóan, betanító adatoktól is függően a mesterséges intelligencia által létrehozott, azzal generált védjegyek amennyiben azok már létező más védjegyekhez hasonlítanak, azzal összetéveszthetőek, akár védjegybitorlást is megvalósíthatnak. Szintén figyelmet érdemel az a kérdés, hogy a mesterséges intelligencia által létrehozott eredmény szerzői jogi védelem alá eső műnek tekinthető-e. Jelenleg több szerzői jogi tárgyú bírósági eljárás van folyamatban külföldön, amelyekben hozott ítéletek nagy valószínűséggel hatással lesznek majd ezen kérdés megítélésére.
Üzleti titok és belső szabályozás
Társaságok számára kiemelten fontos az üzleti titok védelme, valamint a mesterséges intelligencia használatának egy adott szervezeten belüli szabályozása, hiszen amennyiben a mesterséges intelligencia használatának keretei, korlátai nincsenek lefektetve, úgy előfordulhat, hogy ellenőrzés és korlátozás nélkül az adott társaság üzleti titkai, know-how-ja kikerül egy olyan AI szoftverbe, amely a beletáplált adatokkal továbbfejleszti magát, ezáltal súlyos károkat, veszteséget okozhat az adott társaság számára.
Versenyjog
A versenyjog területén az utóbbi időben különösen megnőtt az adat jelentősége és annak a fontossága, hogy ezeket az adatokat ki birtokolja, ki hogyan, milyen hatékonyan, módszeresen tudja gyűjteni, rendszerezni, feldolgozni, felhasználni, amelyben az AI-technológiáknak kiemelkedő és egyre növekvő szerepe van. Mesterséges intelligencia elsősorban az árazás területén és az algoritmusokon, direkt marketingen keresztül jelenik meg. Az adatok birtoklása, felhasználása megváltoztathatja a piaci pozíciókat, szerepeket, a piacok szerkezetét, a verseny intenzitását, létrehozhat vagy megerősíthet erőfölényes piaci pozíciókat, kihat az akvizíciókra, az árképzési gyakorlatokra, a piaci magatartások, stratégiák kialakítására is, valamint elősegítheti a jogellenes összejátszásokat is.
Fogyasztóvédelem
Mesterséges intelligencia a fogyasztóvédelem területén is többletkötelezettségeket róhat a társaságokra. Gyakran előfordul, hogy különböző online felületek, weboldalak, webshopok chatbotokat alkalmaznak, amelyek során a fogyasztók mesterséges intelligenciával működő, virtuális asszisztenssel beszélhetnek chatablakon vagy telefonon keresztül. Ebben az esetben szükséges tájékoztatni a fogyasztókat arról, hogy nem emberrel lépnek kapcsolatba, valamint azt is, hogy a virtuális asszisztens milyen kérdésekben tud segítséget nyújtani, milyen korlátai vannak a virtuális asszisztens működésének.
Jól látható, hogy az AI-rendeletnek való megfelelés a hazai intézményi végrehajtás megértését és több kapcsolódó jogterület követelményeinek együttes kezelését igényli. A cikksorozat következő részében a megfelelés gyakorlati lépései kerülnek fókuszba.
A cikk szerzője dr. Putnoki Poppea, a CLM Bitai & Partners Ügyvédi Iroda együttműködő ügyvédje.
ESG törvény az első év után – hatósági, tanúsítói és vállalati tapasztalatok
Az ESG törvény szerinti első beszámolási év lezárultával egyre tisztábban kirajzolódnak a gyakorlati kihívások. A megfelelés kérdése ma már nem elsősorban az elvárások értelmezésén, hanem a végrehajtás minőségén múlik: beszállítói adatszolgáltatás, adatminőség, belső folyamatok dokumentáltsága és auditálhatósága áll a középpontban.
A denxpert szervezésében február 18-án megrendezésre kerülő szakmai webinárium célja, hogy egy asztalhoz ültesse a hatósági, tanúsítói és vállalati nézőpontot, és közösen értelmezze az első év tanulságait, valamint a 2026-os felkészülés legfontosabb lépéseit.
Az eseményen a hatósági oldalról az Szabályozott Tevékenységek Felügyeleti Hatósága (SZTFH) képviselője osztja meg tapasztalatait a tipikus hiányosságokról és fókuszterületekről, míg a vállalati működés gyakorlati aspektusait a Richter Gedeon Nyrt. ESG-szakértői mutatják be. A tanúsítási logika és az auditálhatóság kérdéseit a tanúsítói oldal szemszögéből járják körbe a meghívott szakértők.
A rendezvényen a Grant Thorntont Dr. Balásfalvi-Kiss András, ESG- és fenntarthatósági partner képviseli, aki a tanúsítás gyakorlati jelentőségéről, a vizsgálati mélységről, valamint az elvárt folyamat- és dokumentációs struktúráról osztja meg tapasztalatait.
Miről lesz szó?
- SZTFH nézőpont: mire figyel a hatóság, hol csúsznak el a cégek, mik a tipikus hibák
- Tanúsítói nézőpont: mi lesz később vitatható, és mit érdemes már most bizonyíthatóra építeni
- Gyakorlati megközelítés: audit során visszakereshető folyamatok és adatkezelés a mindennapi működésben
- Nagyvállalati best practice-ek: hogyan épül fel egy működő, ellenőrizhető ESG rendszer a Richter Gedeon tapasztalatai alapján.
Az esemény azoknak a vállalati döntéshozóknak és szakértőknek szól, akik 2026-ra működésbe épített, ellenőrizhető ESG rendszert kívánnak kialakítani, és szeretnék elkerülni a későbbi megfelelési kockázatokat.
A részletes program és a regisztráció az esemény hivatalos oldalán érhető el.
ESG-törvény az első év után: Regisztrálok az eseményreA mesterséges intelligencia egyre szélesebb körű alkalmazása nemcsak technológiai, hanem jogi szempontból is új kérdéseket vet fel. Az Európai Unió válasza erre a fejlődésre a mesterséges intelligencia szabályozására vonatkozó 2024/1689 EU rendelet (a továbbiakban: AI-rendelet) elfogadása volt, amely egységes keretet kíván adni az AI-rendszerek fejlesztésére és használatára. Az alábbiakban a szabályozás alapvető elemeit, valamint azokat a gyakorlatokat mutatjuk be, amelyeket az AI-rendelet kifejezetten tilt.
A legtöbb ember valószínűleg már találkozott valamilyen mesterséges intelligencia-rendszerrel, amelynek használata világszerte egyre nagyobb népszerűségnek örvend. Az egyéni felhasználás mellett számos társaság alkalmazza ezeket a mesterséges intelligencia-rendszereket különféle célokra, vagy tervezi bevezetésüket. A technológia gyors ütemű fejlődése és az AI-rendszerek növekvő jelentősége egyértelművé teszi, hogy szükség van az alkalmazásuk szabályozására ezen rendszerek etikus, biztonságos és átlátható módon való működése érdekében.
Az AI-rendeletet 2024. június 13. napján fogadta el az Európai Parlament, amelynek célja, hogy az Európai Unió területén egységes jogi keretet állapítson meg a mesterséges intelligencia-rendszerekre vonatkozóan.
Az AI-rendelet személyi hatálya
Az AI-rendelet hatálya kiterjed valamennyi olyan személyre vagy szervezetre, aki vagy amely AI-rendszert az Európai Unió területén fejleszt, üzembe helyez, forgalomba hoz vagy ilyen AI-rendszert alkalmaz, használ. Ide tartoznak azon személyek, szervezetek is, akiknek letelepedési vagy tartózkodási helye az Európai Unió területén kívül van, azonban az AI-rendszer által előállított eredmény használatára az Európai Unió területén kerül sor. Erre tekintettel bárki, aki a mesterséges intelligencia-rendszerhez kapcsolódó szakmai tevékenységet végez, annak az AI-rendelet szabályainak megfelelően kell eljárnia.
Hatálybalépés
Az AI-rendelet egyes rendelkezései több szakaszban lépnek hatályba, így az érintett személyeknek és szervezeteknek több lépésben kell eljutniuk az AI-rendeletnek való teljes megfelelésig. Az úgynevezett AI-tudatosság biztosítására, valamint a tiltott AI-gyakorlatokra vonatkozó rendelkezések már 2025. február 2. napjától alkalmazandók és hatályban vannak, ezért ezen rendelkezéseknek való megfelelést már biztosítani kell. Amennyiben egy társaság még eziránt nem tett lépéseket, úgy javasolt azokat haladéktalanul megtenni.
A már hatályba lépett rendelkezéseknek való megfelelés ellenőrzése mellett közel van 2026. augusztus 2. napja, amely az AI-rendelet általános hatálybalépésének időpontja, ezért további compliance lépésekre is fel kell készülniük az érintett személyeknek és társaságoknak.
Kapcsolódó jogterületek jelentősége
Az AI-rendeletnek való megfelelés mellett az érintett személyeknek és társaságoknak számos további jogszabálynak is meg kell felelniük, további szempontokra is tekintettel kell lenniük a mesterséges intelligencia-rendszerek fejlesztése, üzembe helyezése, forgalomba hozatala, alkalmazása és használata során. Ilyenek például a
- szellemi tulajdonjoggal,
- munkajoggal,
- személyes adatok védelmével,
- a fogyasztókkal szembeni tisztességtelen kereskedelmi gyakorlatok tilalmával,
- az üzletfelek megtévesztésének tilalmával vagy a versenyjogi szabályok betartásával kapcsolatos előírások.
Az AI-rendeletre való felkészülés, valamint az egyéb kapcsolódó területekhez tartozó compliance lépések különösen fontosak, hiszen a társaságok az AI-rendeletnek való meg nem felelés esetén jelentős szankciókkal, akár az éves globális árbevételük 7%-ának megfelelő bírsággal is szembenézhetnek, továbbá egy szabálytalanul működtetett mesterséges intelligencia-rendszer vagy az általa okozott bármely incidens reputációs kockázatot is jelenthet.
Tiltott AI-gyakorlatok
Ahogy arra fentebb utaltunk, a tiltott AI-gyakorlatokra vonatkozó rendelkezések már alkalmazandók, ezért valamennyi mesterséges intelligencia-rendszert alkalmazó vagy fejlesztő társaságnak és személynek felül kell vizsgálnia az általa használt vagy fejlesztett AI-rendszereket abból a szempontból, hogy azok nem ütköznek-e az AI-rendelet valamely tiltott AI-gyakorlatába. Amennyiben megállapításra kerül, hogy az adott AI-rendszer a tiltott AI-gyakorlatok bármelyikét megvalósítja, úgy ezen AI-rendszerek működését haladéktalanul meg kell szüntetni.
A tiltott AI-gyakorlatok vonatkozásában fontos rögzíteni, hogy a rendelet a tiltott AI-gyakorlat fejlesztését, forgalomba hozatalát, üzembe helyezését és használatát egyaránt tiltja.. Ez alól kivételt képeznek a valós idejű, távoli biometrikus azonosításra használt AI-rendszerek, amelyek esetében kizárólag a használat tiltott.
Továbbá fontos tisztázni, hogy nemcsak az minősül tiltott AI-gyakorlatnak, amelyet kifejezetten az AI-rendeletben meghatározott tiltott célra fejlesztettek vagy használnak, hanem az is, ha a rendszer jogszerű céllal kerül kifejlesztésre vagy használatra, ugyanakkor működése során mégis képes tiltott AI-gyakorlat megvalósítására.
Az alábbiakban az AI-rendelet által tiltott AI-gyakorlatokat mutatjuk be, az Európai Unió által kiadott iránymutatások figyelembevételével.
Manipulatív vagy megtévesztő technikákat alkalmazó rendszerek
A tilalom hatálya alá esnek egyrészt azon rendszerek, amelyek olyan szubliminális, azaz tudat alatti elemeket, ingereket (hang, kép, videó) használnak (például felvillanó ablakok vagy feliratok), amelyeket az emberek nem képesek tudatosan észlelni, azonban jelentősen befolyásolják, gyengítik az egyén megalapozott döntéshozatalra való képességét, anélkül, hogy az érintett személy ennek tudatában lenne.
Az egyéneket tudat alatt befolyásoló rendszereken túl, tiltottnak minősülnek a manipulatív, megtévesztő technikákat alkalmazó rendszerek is, amelyek olyan céllal vagy hatással működnek, hogy az egyének magatartását érdemben torzítják. A torzításnak oly mértékűnek kell lennie, hogy az észrevehetően rontsa az érintettek képességét az informált, megalapozott döntéshozatalra, és ezáltal olyan döntéshez vezessen, amit az adott személy vagy csoport egyébként nem hozott volna meg.
A tilalmazott gyakorlat megvalósulásának további feltétele, hogy a tiltott AI-gyakorlat az adott személynek vagy személyek egy meghatározott csoportjának jelentős kárt okozzon, vagy ilyen kár bekövetkezése ésszerű valószínűséggel várható legyen.
A megalapozott döntéshozatali képesség gyengítését elősegítheti a virtuális valóság, mivel az nagyobb fokú ellenőrzést tesz lehetővé afelett, hogy milyen ingerek kerüljenek megjelenítésre. Ilyen technikáról beszélhetünk például, amikor online felületeken korlátozott ideig elérhető ajánlatokra felugró ablakokkal vagy figyelemfelkeltő üzenetekkel hívják fel a figyelmet, amelyek sürgetik és nyomás alá helyezik a vásárlót, hogy mielőbb hozzon döntést a vásárlásról, különben lemarad a kedvező feltételekről.
Sebezhetőséget kihasználó AI-rendszerek
Ezen kategóriába olyan technikák tartoznak, amelyek az adott személy vagy személyek egy meghatározott csoportjának életkorát, fogyatékosságát, szociális vagy pénzügyi helyzetét, ezen helyzetéből adódó sebezhetőségét kihasználva ezen személyek magatartását torzítják. A rendelkezés célja, hogy sebezhető csoportokat megvédje a diszkriminációtól, manipulatív technikáktól.
Ilyen technikába ütköző rendszer lehet, ha például a teljesítmény értékelésére vagy a munkavállalók toborzására, az önéletrajzok válogatására mesterséges intelligenciát alkalmaz az érintett társaság, azonban az AI-rendszer nem objektív szempontok szerint értékeli a munkavállalókat vagy válogatja az önéletrajzokat, hanem döntését az álláspályázó fenti valamely tulajdonságára, sebezhetőségére is alapítja, és ezáltal a döntés diszkriminálja például az időseket, a nőket, vagy a szegénységben élőket. Ilyen lehet továbbá, ha az adott rendszer például a modern technológiát átfogóan nem ismerő időseket káros befektetésre sarkallja.
Társadalmi osztályozásra használt rendszerek
Ez esetben olyan rendszerekről beszélhetünk, amelyek egyének különböző körülmények között tanúsított magatartásához, illetve ismert, kikövetkeztetett személyes tulajdonságához vagy személyiségjegyeihez társított adatok alapján értékelik, vagy osztályozzák az egyéneket bizonyos időszakokon keresztül, és ezen értékeléseket olyan kontextusban használják fel, amely túlmutat azon, amelyben eredetileg gyűjtötték őket.
Ebben az esetben a mesterséges intelligencia-rendszer célja, illetve alkalmazásának módja olyan értékelési vagy osztályozási folyamatot valósít meg, amely során természetes személyek vagy személycsoportok egy meghatározott időszakon keresztül kerülnek értékelésre, különösen társadalmi viselkedésük, valamint ismert, feltételezett vagy levezetett személyiségük, illetve személyiségjegyeik alapján.
A fentiek más szóval azt jelentik, hogy egyének magatartásából vagy személyiségéből olyan következtetéseket vonnak le, amelyek nincsenek összefüggésben az osztályozott személyiségjeggyel vagy magatartással, azaz például vallási csoporthoz tartozásból vagy politikai nézetből kiindulva egyéb következtetéseket vonnak le a hitelminősítésre vagy a foglalkoztatásra vonatkozóan, amelyek hátrányos vagy kedvezőtlen bánásmódhoz vezethetnek, sérthetik a méltósághoz való jogot és a megkülönböztetés tilalmát.
Bűncselekmények valószínűségének értékelésére szánt rendszerek
Az AI-rendelet tiltja olyan AI-rendszerek alkalmazását, amelyek az adott egyénről alkotott profil, tulajdonságok, személyiségjegyek (például állampolgárság, gépjármű típusa, adósság mértéke) alapján, ezek értékelésével bűnelkövetésre általában vagy bizonyos bűncselekmények elkövetésére vonatkozó valószínűséget meghatározza, felméri vagy megjósolja.
A tilalom nem vonatkozik olyan AI-rendszerekre, amelyek nem egyének profiljának, személyiségjegyeinek, tulajdonságainak értékelésén alapulnak, hanem ettől eltérő szempontok alapján végeznek kockázatelemzést, például a vállalkozások általi pénzügyi csalás kockázatának gyanús tranzakciók alapján, és nem azzal a céllal történik az értékelés, hogy megjósolja, elkövet-e valaki egy konkrét bűncselekményt.
Bizonyos arcfelismerő adatbázisok létrehozása
Ezen tilalom olyan arcfelismerő adatbázis létrehozását vagy bővítését tiltja, amelyet az úgynevezett „web scraping” útján az internetről vagy zártláncú kamerarendszer felvételeiből hoznak létre. A „web scraping” általában automatizált szoftver használatát jelenti, amely konkrét cél nélkül az internetről információk gyűjtésére, onnan információk kinyerésére, másolására szolgál azok későbbi felhasználása céljából. Ilyen lehet például, ha egy szoftver automatikusan, konkrét cél nélkül begyűjt képeket közösségi médiáról (pl. Facebook, Twitter), arcfelismerés céljából, és ezekből adatbázist épít.
Általánosságban arcfelismerő adatbázis létrehozása nem tiltott az AI-rendelet alapján, annak a fentiekben meghatározott módon és célból történő létrehozását említi tiltott gyakorlatként az AI-rendelet.
Érzelemfelismerő rendszerek használata munkahelyen vagy oktatásban
Ilyen rendszer célja, hogy személyek biometrikus adata alapján, így mimikájából, arckifejezéséből, reakcióiból, gesztusaiból, mozdulataiból, vagy akár hangjából az adott egyén érzelmeire, hangulatára, szándékaira vonatkozó következtetéseket vonjon le vagy azokat azonosítsa.
Biometrikus adatnak egy természetes személy testi, fiziológiai vagy viselkedési jellemzőire vonatkozó minden olyan, sajátos technikai eljárásokkal nyert személyes adat minősül, amely lehetővé teszi vagy megerősíti a természetes személy egyedi azonosítását, ilyen például az arckép, ujjlenyomat.
Az AI-rendelet nem általános tilalmat fogalmaz meg az ilyen rendszerek vonatkozásában, hanem kifejezetten a munkahelyeken vagy oktatási intézményekben való használatot tiltja. Érzelemfelismerő rendszer például, ha egy rendszer egy munkavállaló hangjából, arckifejezéséből szomorúságot vagy dühöt következtet, vagy egy állásinterjú során az álláspályázó érzelmeit elemzi.
Nem tartozik a tilalom hatálya alá a fizikai állapotot, így például fáradtságot észlelő rendszer, amelyet pilóták esetében alkalmazhatnak balesetek elkerülése érdekében.
Személyek biometrikus kategorizálására használt rendszerek
A tiltott AI-gyakorlatokat felsoroló AI-rendelet ezen pontja azon rendszerek létrehozását tiltja, amelyek egyéneket biometrikus adataik alapján kategorizálják annak érdekében, hogy következtetéseket vonjanak le az egyén faji hovatartozására, politikai véleményére, vallási vagy világnézeti meggyőződésére, szexuális életére vagy irányultságára vonatkozóan. Ilyen rendszer lehet például, amely arc- vagy tetoválás alapján vallási hovatartozást próbál meghatározni, vagy amely eltérő hirdetéseket jelenít meg nem vagy bőrszín alapján.
Ez a tilalom nem terjed ki az uniós vagy nemzeti joggal összhangban beszerzett biometrikus adatkészletek, biometrikus adatok jogszerű szűrésére vagy kategorizálására, például képek hajszín vagy szemszín szerinti válogatására, ami felhasználható például a bűnüldözés területén.
Valós idejű, távoli biometrikus azonosításra használt AI-rendszerek nyilvános helyeken bűnüldözési célból
A távoli biometrikus azonosító rendszerek lényege, hogy az egyént annak aktív közreműködése nélkül, távolról biometrikus adatainak valamely adatbázis adataival összevetve azonosítja. A valós idejűség azt jelenti, hogy a biometrikus adatok összehasonlítása, azonosítása a biometrikus adatok rögzítésével egyidejűleg vagy kisebb, nem jelenős késleltetéssel történik meg.
Az AI-rendelet ezen része a biometrikus azonosításra használt valós idejű AI-rendszert tiltja abban az esetben, ha azt bűnüldözési célból használják nyilvánosság számára hozzáférhető helyen, és diszkriminatív hatásokat, torzított eredményt hoz létre.
Az AI-rendelet több olyan kivételt határoz meg, mint például eltűnt személyek, emberrablás, emberkereskedelem vagy szexuális kizsákmányolás áldozatainak célzott felkutatása, amely cél érdekében valós idejű, biometrikus azonosításra használt AI-rendszerek használata megengedett.
Összegzés és megfelelési szempontok
Összességében elmondható, hogy érdemes valamennyi feltételt részletesen értékelni, mérlegelni, az adott rendszer sajátosságait, műszaki jellemzőit, a rendszer létrehozásának célját, annak hatását megvizsgálni annak érdekében, hogy olyan rendszer ne kerüljön kifejlesztésre, forgalomba hozatalra vagy használatba, amely tiltott AI-gyakorlatokat használ.
Annak érdekében, hogy az érintett társaság biztosítsa az AI-rendeletnek való megfelelést, érdemes már az AI-rendszer használata vagy – amennyiben az AI-rendszer specifikusan egy adott társaság igényeinek megfelelően kerül kifejlesztésre – már a fejlesztési folyamat elején bevonni jogi és információbiztonsági szakembereket, hogy a kezdeti fázistól kezdve biztosítva legyen az AI-rendeletnek való megfelelés, ezzel időt, energiát és anyagi ráfordítást kímélve.
A tiltott AI-gyakorlatokra vonatkozó rendelkezések be nem tartása esetén komoly szankciókra számíthatnak az érintettek, a kiszabható bírság maximális mértéke 35.000.000 Euró (nagyjából 14 milliárd forint) vagy az érintett szervezet teljes globális előző évi árbevétele 7%-ának megfelelő mértékű bírsággal sújtható. Ezen túl az érintett személyek, szervezetek más jogszabályok, például az általános adatvédelmi rendelet (2016/679 EU rendelet, a továbbiakban: GDPR) vagy a Munka Törvénykönyvének be nem tartása miatt további jogkövetkezményekkel, bírságokkal nézhetnek szembe.

Az elmúlt öt részben a bértranszparencia különböző dimenzióit jártuk körbe: az uniós jogi kereteket és a magyar implementáció várható irányait, a közös bérértékelés és a riportálás gyakorlati kérdéseit, a HR-rendszerek felkészítését, az adatvezérelt elemzések szerepét, valamint a kötelező tájékoztatás és a munkavállalói kommunikáció működési kockázatait. Ezek együtt adják azt a szakmai és szervezeti alapot, amelyre a bértranszparencia a mindennapi működésben épülhet.
Vezetői kommunikáció éles helyzetekben – kérdések és válaszok a szervezet mindennapjaiban
A cikksorozat záró része a bértranszparencia egyik legérzékenyebb területére fókuszál: arra, hogyan jelenik meg mindez a mindennapi vezetői beszélgetésekben. Az uniós irányelv, a készülő magyar szabályozás, valamint a vállalati bérstruktúrák csak akkor működnek fenntarthatóan, ha a vezetők képesek azokat hitelesen, következetesen és érthetően képviselni. Ebben a részben olyan tipikus kérdéseket és válaszkereteket mutatunk be, amelyek a gyakorlatban is segítséget nyújtanak.
Kérdések a rendszer céljáról és működéséről
„Miért van erre az egészre szükség?”
Válaszkeret:
Azért, hogy a bérezés kiszámítható, érthető és következetes legyen. Ugyanarra a munkakörre ugyanazok az elvek vonatkozzanak, és ne egyéni alkuk vagy véletlenek határozzák meg a béreket.
„Ez azt jelenti, hogy alul vagyok fizetve?”
Válaszkeret:
A rendszer célja az átláthatóság. A munkakör értékét és a hozzá tartozó sávot mutatja meg. Ha szeretnéd, közösen át tudjuk nézni, hogyan kapcsolódik a jelenlegi besorolásod a kompetenciákhoz és a felelősségi szintedhez.
„Miért változik időről időre a rendszer?”
Válaszkeret:
A piaci környezet és a szervezet igényei is változnak. Ahhoz, hogy a rendszer igazságos maradjon, időről időre frissíteni kell a bérsávokat és az alapjául szolgáló adatokat.
Kérdések a besorolásról, bérsávokról és csapatok közötti különbségekről
„Miért nem vagyok magasabb sávban?”
Válaszkeret:
A sáv a munkakör értékét mutatja. A sávon belüli elhelyezkedést a tapasztalat, a kompetenciák és a felelősségi szint határozza meg. Ha szeretnéd, végig tudjuk nézni, milyen fejlődési lépések vezetnek a következő szinthez.
„Miért nem kerül mindenki a sáv tetejére?”
Válaszkeret:
A sáv teteje egy célállapot, amely tartósan kiemelkedő kompetenciát és felelősséget feltételez. Nem alapértelmezett pozíció, hanem teljesítményhez kötött.
„Miért vannak különbségek csapatok között?”
Válaszkeret:
A munkakörök piaci értéke, komplexitása és üzleti jelentősége eltérő. Ezeket a különbségeket tükrözik a bérsávok is.
„A piacon máshol többet fizetnek – miért nem emelünk?”
Válaszkeret:
A piaci adatokat rendszeresen figyeljük és beépítjük a bérsávok felülvizsgálatába. Amikor tartós eltérést látunk, módosítunk, de a döntéseknél a fenntartható működést is mérlegeljük.
Érzelmileg terhelt helyzetek kezelése
„X azt mondta, hogy ennyit keres – igaz ez?”
Válaszkeret:
Más kollégák béréről nem tudunk beszélni, mert az személyes adat. A saját helyzetedről, a sávodról és a fejlődési lehetőségeidről viszont szívesen egyeztetünk.
Helyzet: valaki sérelmezi, hogy más többet keres
Ajánlott lépések:
Elismerés: „Értem, hogy ez bizonytalanságot okozhat.”
Keret: „Konkrét bérekről nem beszélünk, de a munkakörről és a sávokról igen.”
Cselekvés: „Nézzük meg együtt, mi szükséges a következő szinthez.”
„Ez most azonnali béremelést jelent?”
Válaszkeret:
A rendszer célja a következetesség. Ahol indokolatlan eltérést látunk, ott idővel történik korrekció, de ez nem automatikus és nem mindenkit érint egyszerre.
Kommunikációs iránytű vezetőknek
Kerülendő:
- közvetlen összehasonlítás munkatársak között,
- biztos béremelés ígérete döntés nélkül,
- pletykaszintű bérinformációk megerősítése.
Ajánlott:
- világos keretek adása (milyen elvek mentén születnek döntések),
- objektív szempontok használata (kompetencia, felelősség, teljesítmény),
- következetes narratíva alkalmazása (kiszámíthatóság, igazságosság, következetesség),
- nyitottság a további kérdésekre.
A vezetői kommunikáció szerepe a bértranszparencia egészében
A bértranszparencia a sorozat végére vezetői szinten is kezelhető gyakorlattá válik. A nehéz kérdések nem elkerülendő helyzetek, hanem lehetőségek arra, hogy a szervezet következetességet mutasson és bizalmat építsen. A jól felkészített vezetői kommunikáció köti össze a jogszabályi elvárásokat a mindennapi működéssel.
A bértranszparencia bevezetése nemcsak megfelelési kérdés, hanem hosszú távú vezetői döntés is. Amennyiben szeretné áttekinteni, hol tart szervezete a felkészülésben, és milyen lépések segíthetik a tudatos, kiszámítható működést, szakértőink szívesen segítenek a következő lépések meghatározásában.
A Grant Thornton tanácsadói összeszedték azokat a legfontosabb munkáltatói feladatokat, amelyeket minden Magyarországon működő vállalkozás vezetőinek hasznos áttekintenie. Az alábbiakban csokorba szedtük a 2026-os év indítására vonatkozó teendők listáját.
Mik a teendők 2026. január 31-ig?
A 2026-os adóév indulásával a januári hónap a legnagyobb terhelés a munkaügyi adminisztráción, hiszen ilyenkor kell beállítani azokat a jogosultsági, adózási dolgokat, melyek az egész éves munkaügyi teendőket, bérszámfejtést meghatározzák.
Adókedvezmény-nyilatkozatok
2026-ban is élnek tovább azok az adókedvezmények, melyet a munkavállalók a jövedelmük SZJA-terheinek csökkentésére havonta igénybe vehetnek, azonban új adóévről lévén szó, új nyilatkoztatásra van ismét szükség.
Az adókedvezmények 2026-ban az alábbiak lehetnek:
- 30 év alatti anyák kedvezménye
- A négy vagy több gyermeket nevelő anyák kedvezménye, a három gyermeket nevelő anyák kedvezménye vagy a két gyermeket nevelő anyák kedvezménye
- 25 év alattiak kedvezménye
- Személyi kedvezmény
- Első házasok adókedvezmény
- Családi adókedvezmény
Az adókedvezmény-nyilatkozatokat a Munkavállalónak és a Munkáltatónak is ellen kell jegyezni, valamint egy esetleges ellenőrzés esetén bármely félnek eredeti aláírású nyilatkozattal kell rendelkeznie, tehát 2-2 eredeti példány kell készüljön ezekből. Az aláírással, átadással járó adminisztrációt érdemes emiatt már január elején megtenni.
Az ANYÁCSKA (Anyakedvezmények) a NAV által 2026 januárjától bevezetett, összevont online adóelőleg-nyilatkozat, amellyel a fiatal (30 év alatti) és a kétgyermekes anyák kedvezményei, valamint a családi adó- és járulékkedvezmény egyszerre érvényesíthetők. A 30 év alatti anyák jövedelme 2026-tól korlátlanul szja-mentes, míg a kétgyermekeseké lépcsőzetesen, 40 év alatt már 2026-tól mentessé válik.
A hivatalos, NAV által közzétett nyilatkozatok már 2025. december végétől elérhetőek – a NAV honlapján, illetőleg az Ügyfélkapuval rendelkező munkavállalók elektronikusan is nyilatkozhatnak majd a 2026-os adóévről az Online Nyomtatványkitöltő Alkalmazásban (ONYA).
A szabadságnyilatkozatokat is meg kell tenni
Minden naptári év elején újra nyilatkozni kell a pótszabadságra való jogosultságokról. Ez vonatkozhat többek között:
- A munkavállaló saját háztartásban nevelt gyermekére/gyermekeire
- Megváltozott munkaképességű dolgozókra
Adó- és járuléklevonáshoz kapcsolódó nyilatkozatok
Egyes jogviszonyokban külön szükség lehet további adómegállapítási nyilatkozatra, ilyen lehet:
- Magánszemély bérbeadó SZJA-nyilatkozata
- Szociális hozzájárulási adó maximumának elérésére vonatkozó nyilatkozat (külön adózó jövedelmekre, pl. osztalék)
- Egyszerűsített közteherviselési hozzájárulás (EKHO) nyilatkozata
M30-as adatlapok és járulékigazolások kiadása
2026. február 2-ig minden, a személyi jövedelemadó levonását érintő jövedelemről ki kell adni az előző adóévre vonatkozó M30-as adatlapokat, járulékigazolásokat az érintett magánszemélyeknek.
Ezeket a jelenlegi szabályok szerint eredeti aláírással és pecséttel kell ellátni, ezzel igazolva, hogy a Munkaadó kiadta, a Munkavállaló pedig átvette az adatlapot és a dokumentumot.
Tapasztalatunk alapján mind az M30-as igazolások, mind az adókedvezmény-nyilatkozatok digitális ellenjegyzésének megítélése továbbra is ellentmondásos a napi munkaügyi gyakorlatban, a NAV ellenőrzési gyakorlatban és a bírósági gyakorlatban egyaránt. Így ezen digitális ellenjegyzések alkalmazását nagyfokú körültekintéssel javasoljuk!
Az adminisztratív teendők elvégzéséhez, megszervezéséhez nemcsak rutint, de erőforrást is biztosítunk Human Capital szolgáltatásainkkal.
Bérszámfejtési folyamatok felkészítése a 2026-os évre
Bérszámfejtési tapasztalatok átgondolása, programváltás
Érdemes ellenőrizni a tavalyi tapasztalatokat és ha kell,, felülvizsgálni, hogy jól működnek-e a bérszámfejtési funkciók, feladatok. Mindemellett lehetőség nyílik megszervezni egy esetleges bérszámfejtés-kiszervezési folyamatot is, vagy ha szükséges, előkészíteni egy programváltást.
Egy jó bérprogram és egy jól megszervezett outsourcing hatalmas terhet tud levenni a belső erőforrásokról, a naprakész szakmai támogatás pedig folyamatos költséghatékony segítséget tud nyújtani a személyi jellegű költségek tervezésekor.
A cikksorozat eddigi részei a bértranszparencia jogi kereteitől a gyakorlati megvalósításig vezették végig az olvasót: szó volt a magyar implementáció várható irányairól, a jelentési kötelezettségekről és a közös bérértékelésről, a szervezeti felkészültség méréséről, valamint az adatvezérelt béregyenlőségi elemzések döntéstámogató szerepéről.
Ezek a lépések azonban csak akkor működnek fenntarthatóan, ha a hozzájuk kapcsolódó információk megfelelő módon jutnak el az érintettekhez. Az ötödik rész ezért a bértranszparencia-irányelv kommunikációs követelményeire fókuszál: arra, hogyan kell a hatóságok, a munkavállalók és az egyéni érintettek felé történő tájékoztatást megszervezni, és miként támogathatja ezt egy tudatos, HR által irányított kommunikációs gyakorlat.
Külső, belső és egyéni szintű kommunikáció
A kötelező információszolgáltatás három, egymástól jól elkülöníthető kommunikációs szinten jelenik meg.
Külső kommunikáció
A munkáltatóknak a nemek közötti bérkülönbségről készített jelentéseket, valamint az ezekhez kapcsolódó intézkedéseket a jogszabályi előírások szerint elérhetővé kell tenniük a hatóságok és felügyeleti szervek számára. Egyes esetekben a szabályozás nyilvános közzétételt is előírhat.
A külső kommunikáció elsődleges célja az átláthatóság és az elszámoltathatóság biztosítása, ezért kiemelten fontos az adatok pontossága, következetes értelmezése és kontextusba helyezése.
Belső kommunikáció
A munkavállalókat rendszeresen – várhatóan legalább évente – tájékoztatni kell az irányelv szerinti jogaikról, a vállalat béregyenlőségi helyzetéről, valamint az elindított vagy tervezett intézkedésekről.
A belső kommunikáció célja az, hogy a munkavállalók értsék a bértranszparencia működését, és ne elszigetelt számokként találkozzanak az eredményekkel, hanem egy átfogóbb vállalati törekvés részeként.
Egyéni szintű kommunikáció
Az irányelv alapján az egyes munkavállalók jogosultak írásbeli tájékoztatást kérni saját bérszintjükről, valamint az azonos vagy egyenlő értékű munkát végző, ellenkező nemű kollégák átlagos béréről. A munkáltatónak ezt az információt előírt, „ésszerű” határidőn belül kell biztosítania.
Ez a szint igényli a legnagyobb körültekintést, mivel egyszerre érint adatvédelmi, jogi és bizalmi kérdéseket
Munkavállalói jogok a tájékoztatásra
Az irányelv megerősíti a munkavállalók információhoz való jogát. A dolgozók kérhetik, hogy a munkáltató:
- írásban adjon tájékoztatást az egyéni bérszintről,
- ismertesse az összehasonlítható munkavállalói kategóriák átlagos férfi–női kompenzációját.
A tagállami szabályozás várhatóan automatikus, rendszeres (éves) tájékoztatást is előír majd, amely összefoglaló képet ad a vállalat béregyenlőségi helyzetéről és az alkalmazott intézkedésekről.
A munkavállalók képviselőiken keresztül további információkhoz is hozzáférhetnek, például:
- a bérértékelési módszertanról,
- az alkalmazott kategorizálásról,
- a panaszkezelési és igényérvényesítési csatornákról.
Ez indokolttá teszi a strukturált párbeszéd kialakítását a szakszervezetekkel, üzemi tanáccsal vagy munkavállalói delegáltakkal.
Kommunikációs kockázatok: amikor a rendszer „felrobban”
Nemzetközi tapasztalatok alapján a bértranszparenciához kapcsolódó kommunikációs kockázatok gyakran akkor válnak kezelhetetlenné, amikor a szervezet kizárólag külső nyomás hatására reagál. Több nagyvállalati eset mutatja, hogy a felkészületlen adatközlés reputációs kárral, jogvitákkal és elhúzódó szervezeti átalakításokkal járt.
Ezzel szemben azok a szervezetek, amelyek a kötelező szabályozás előtt belső auditot végeztek, transzparens bérsávokat alakítottak ki, és következetesen kommunikálták a pay equity eredményeiket, kezelhetőbb jogi kockázattal és erősebb munkáltatói bizalommal rendelkeznek.
A kommunikációs kockázat így nem elsősorban a számokban, hanem azok értelmezésében és időzítésében rejlik.
HR-kommunikációs stratégia és gyakorlati lépések
A HR szerepe kulcsfontosságú abban, hogy a bértranszparencia ne kizárólag megfelelési kötelezettségként jelenjen meg, hanem szervezeti szintű, bizalomra építő folyamatként.
A gyakorlatban ez az alábbi elemekre épülhet:
- világos vezetői üzenetek arról, miért fontos a béregyenlőség, és hogyan kapcsolódik a vállalati értékekhez,
- közérthető, vizuális tartalmak (infografikák, Q&A anyagok, intranetes oldalak),
- dedikált csatornák és felelősök a bérekkel kapcsolatos kérdések és panaszok kezelésére,
- szükség esetén anonim jelzési lehetőség biztosítása.
A sikeres kommunikáció egyik feltétele, hogy a bértranszparencia ne „bérproblémaként”, hanem igazságosságra és következetességre épülő szervezeti fejlesztési programként jelenjen meg.
A kommunikáció szerepe a fenntartható megfelelésben
A bértranszparencia hosszú távon akkor működik stabilan, ha a kötelező tájékoztatás beépül a vállalat mindennapi kommunikációs gyakorlatába. A következetes, érthető és előrelátó kommunikáció csökkenti a félreértések esélyét, támogatja a vezetői döntések elfogadottságát, és hozzájárul a munkavállalói bizalom fenntartásához egy változó szabályozási környezetben.



