Ugrás a tartalomra
Abstract

Az automatizálási és digitalizálási technológiák, beleértve a mesterséges intelligenciát is, gyorsan fejlődnek, egyre hatékonyabbá és elterjedtebbé válnak. A munkahelyekre gyakorolt hatásaik teljes köre még nem érzékelhető. Fontos azonban, hogy ne csak a kialakulásban lévő digitális technológiák etikai következményeit és a munkafeltételekre gyakorolt hatásait vizsgáljuk meg, hanem fel kell készülnünk azokra a nem szándékolt hatásokra is, amelyek új etikai kihívásokat vetnek fel. Ez a jelentés különböző kutatási módszerek felhasználásával és a digitális munkahelyekről szóló korábbi kutatásokra építve vizsgálja a digitális technológiák számos következményét a munkahelyen, megvizsgálva a leginkább veszélyeztetett alapvető jogokat és etikai elveket, valamint a munkakörülmények azon területeit, amelyeket a leginkább érinthetnek a változások.

Key findings

o    Annak ellenére, hogy a szakpolitikai érdekeltek körében egyre inkább tudatosulnak a digitális technológiáknak a munkára és a foglalkoztatásra gyakorolt etikai hatásai, az etikával és a digitalizációval kapcsolatos legtöbb szakpolitikai kezdeményezés továbbra is tágan értelmezett, és nem foglalkozik kellőképpen a munkahelyi dimenzióval. Nagyobb figyelmet kell fordítani a digitális technológiák munkára gyakorolt káros hatásaira, amelyek etikai és jogi következményekkel egyaránt járnak.
o    Annak ellenére, hogy a digitalizációval kapcsolatos kérdésekre – különösen az adatetikára, az algoritmikus irányításra, a munkavállalók felügyeletére és általában a mesterséges intelligencia irányítására – szisztematikus módon nem terjednek ki a kollektív tárgyalások, bizonyos innovatív ágazati és vállalati szintű kollektív szerződések már vannak érvényben. Ezek a fejlemények bizonyítják a szociális párbeszéd hozzáadott értékét a munka digitalizációjának kezelése terén is.
o    Az új megállapítások rámutatnak arra, hogy általában véve nincsenek olyan szakpolitikák, amelyek irányítanák a technológia etikus alkalmazását és használatát a munkahelyeken. Annak biztosítása érdekében, hogy a technológiákat ne társadalmi ellenőrzésre vagy kizárólag profitszerzésre, hanem jó célokra tervezzék, fejlesszék és használják, kritikus jelentőségű az etikai megfontolások beépítése a technológia teljes életciklusa során.
o    A megkérdezett munkavállalók által leggyakrabban megfogalmazott etikai aggályok a jövőbeli munkahely elvesztésétől való félelem, valamint a munkájuk vélt értékcsökkenése és a megszerzett készségek esetleges elvesztése miatti aggodalom körében tartoznak. Ez a félelem – amely ellenőrzés nélkül káros lehet a munkavállalók jólétére – az új munkahelyi szerepek támogatására irányuló megfelelő képzéssel és a technológiai változás részvételen alapuló megközelítésével enyhíthető.
o    Az eredmények azt mutatják, hogy a technológiákba vetett bizalom kérdése jelentős aggodalomra ad okot a politikai érdekeltek és a vállalatok számára. Az etikus munkahelyi digitalizációra összpontosító szakpolitikai kezdeményezések beépítése a nemzeti digitalizációs és mesterséges intelligencia stratégiákba megteremtheti ezt a szükséges bizalmat. Az ilyen kezdeményezések közé tartozhatnak az etikus technológiatervezés és -használat előnyeivel kapcsolatos figyelemfelhívó kampányok, az etika oktatási és képzési tantervekbe való beépítésére irányuló erőfeszítések, vagy gyakorlati iránymutatás a vállalatok számára a technológiatervezés és -használat etikus és emberközpontú megközelítésének alkalmazásáról.

The report contains the following lists of tables and figures.

List of tables

  • Table 1: Definitions of vectors of change and examples of associated technologies
  • Table 2: Number of stakeholder interviews, by country and type
  • Table 3: Overview of exploratory case studies
  • Table 4: Fundamental rights most at risk when using AI, advanced robotics and IoT in the workplace
  • Table 5: Ethical principles relevant to the use of AI and proposed statements (on which expert consensus was reached)
  • Table 6: Ethical principles relevant to the design and use of machine learning applications and proposed statements (on which expert consensus was reached)
  • Table 7: Ethical principles relevant to the use of IoT and proposed statements (on which expert consensus was reached)
  • Table 8: Areas of concern reported by policy stakeholders consulted in the selected EU Member States
  • Table 9: Examples of national legislation on employee representatives’ rights to information and consultation in relation to the impact of digitalisation
  • Table 10: Share of employees reporting concerns with regard to the future of their workplace in the seven surveyed EU Member States (%)
  • Table 11: Share of employees with concerns about specific workplace dangers of AI (%)

List of figures

  • Figure 1: Conceptualisation of the ethical implications of automation and digitisation technologies in the workplace
  • Figure 2: Share of enterprises using at least one AI technology in the EU, by establishment size (%)
  • Figure 3: Share of enterprises using at least one AI technology in the EU, by sector of activity and purpose (%)
  • Figure 4: Share of enterprises using at least one AI technology in the EU, by size of enterprise and purpose (%)
  • Figure 5: Share of industry employment exposed to automation by AI in the euro area (%)
Number of pages
68
Reference nº
EF22018
ISBN
978-92-897-2347-3
Catalogue nº
TJ-07-23-333-EN-N
DOI
10.2806/235924
Permalink

To be notified of this publication and other publications in this area please visit the subscription management centre to update your contact details and subscription preferences.

Cite this publication

Disclaimer

When freely submitting your request, you are consenting Eurofound in handling your personal data to reply to you. Your request will be handled in accordance with the provisions of Regulation (EU) 2018/1725 of the European Parliament and of the Council of 23 October 2018 on the protection of natural persons with regard to the processing of personal data by the Union institutions, bodies, offices and agencies and on the free movement of such data. More information, please read the Data Protection Notice.