← Επιστροφή στην κατηγορία AIΔιάγραμμα των 4 κατηγοριών κινδύνου του EU AI Act με παραδείγματα συστημάτων AI
⚖️ Τεχνητή Νοημοσύνη: Νομοθεσία

EU AI Act: Ο Πρώτος Ολοκληρωμένος Νόμος για την Τεχνητή Νοημοσύνη στον Κόσμο

📅 19 Φεβρουαρίου 2026 ⏱️ 9 λεπτά ανάγνωσης

📖 Διαβάστε ακόμα: SpaceX & xAI: Η Συγχώνευση που Αλλάζει την AI

Τι Είναι ο EU AI Act

Στις 1 Αυγούστου 2024, ο Κανονισμός (ΕΕ) 2024/1689 — γνωστός ως EU AI Act — τέθηκε επίσημα σε ισχύ, καθιστώντας την Ευρωπαϊκή Ένωση την πρώτη μεγάλη δικαιοδοσία παγκοσμίως που υιοθέτησε ολοκληρωμένο νομοθετικό πλαίσιο για την τεχνητή νοημοσύνη. Πρόκειται για τον πιο φιλόδοξο κανονισμό τεχνολογίας μετά τον GDPR — και πολλοί αναλυτές τον θεωρούν εξίσου καθοριστικό.

Ο νόμος καλύπτει σχεδόν κάθε σύστημα AI που λειτουργεί στην ΕΕ, ανεξαρτήτως χώρας προέλευσης. Όπως ακριβώς ο GDPR υποχρέωσε τεχνολογικούς κολοσσούς να αλλάξουν πρακτικές παγκοσμίως, έτσι και ο AI Act αναμένεται να δημιουργήσει ένα "Brussels Effect" — μια ντε φάκτο παγκόσμια ρύθμιση μέσω της δύναμης της ευρωπαϊκής αγοράς.

Χρονολόγιο του EU AI Act

  • Φεβρουάριος 2020: Λευκή Βίβλος AI — Ευρωπαϊκή Επιτροπή
  • 21 Απριλίου 2021: Επίσημη πρόταση κανονισμού
  • 9 Δεκεμβρίου 2023: “Μαραθώνιες” τριμερείς διαπραγματεύσεις — πολιτική συμφωνία
  • 13 Μαρτίου 2024: Ψήφιση Ευρωπαϊκού Κοινοβουλίου (523 υπέρ, 46 κατά, 49 αποχές)
  • 21 Μαΐου 2024: Ομόφωνη έγκριση από το Συμβούλιο
  • 12 Ιουλίου 2024: Δημοσίευση στην Επίσημη Εφημερίδα
  • 1 Αυγούστου 2024: Έναρξη ισχύος
  • 10 Ιουλίου 2025: Δημοσίευση Κώδικα Πρακτικής GPAI

Οι 4+1 Κατηγορίες Κινδύνου

Ο πυρήνας του AI Act βασίζεται σε ένα σύστημα ταξινόμησης κατά επίπεδο κινδύνου, εμπνευσμένο από τα πρότυπα ασφάλειας προϊόντων. Κάθε σύστημα AI κατατάσσεται σε μία από τέσσερις βασικές κατηγορίες, συν μία ειδική για τα μοντέλα γενικού σκοπού:

🚫 Μη Αποδεκτός Κίνδυνος

Πλήρης απαγόρευση — Κοινωνική βαθμολόγηση (social scoring), βιομετρική αναγνώριση σε πραγματικό χρόνο σε δημόσιους χώρους, AI χειραγώγησης συμπεριφοράς

⚠️ Υψηλός Κίνδυνος

Αυστηρές υποχρεώσεις — Υγεία, εκπαίδευση, πρόσληψη, κρίσιμες υποδομές, αστυνόμευση, δικαιοσύνη. Απαιτούν Εκτίμηση Επιπτώσεων Θεμελιωδών Δικαιωμάτων (FRIA)

ℹ️ Περιορισμένος Κίνδυνος

Υποχρεώσεις διαφάνειας — Deepfakes, chatbots: ο χρήστης πρέπει να γνωρίζει ότι αλληλεπιδρά με AI

Ελάχιστος Κίνδυνος

Χωρίς ρύθμιση — Φίλτρα spam, AI videogames, chatbots χωρίς κίνδυνο. Η πλειονότητα των εφαρμογών AI

Τι Απαγορεύεται Τελείως

Οι απαγορεύσεις του Άρθρου 5 αποτελούν τις πρώτες διατάξεις που τέθηκαν σε εφαρμογή — μόλις 6 μήνες μετά την ισχύ, δηλαδή από τον Φεβρουάριο 2025. Περιλαμβάνουν:

  • Κοινωνική βαθμολόγηση (Social Scoring): Απαγορεύεται η κατάταξη πολιτών βάσει προσωπικών χαρακτηριστικών ή κοινωνικοοικονομικής κατάστασης — σύστημα εμπνευσμένο από το κινεζικό Social Credit System
  • Βιομετρική αναγνώριση σε πραγματικό χρόνο: Ζωντανή αναγνώριση προσώπου σε δημόσιους χώρους, εκτός από στοχευμένες εξαιρέσεις (τρομοκρατία, εξαφανισμένα πρόσωπα)
  • Χειραγώγηση: AI συστήματα που εκμεταλλεύονται ευάλωτες ομάδες ή χρησιμοποιούν υποσυνείδητες τεχνικές
  • Συλλογή εικόνων προσώπου: Μαζική συλλογή από internet/κάμερες για βάσεις δεδομένων αναγνώρισης
  • Συναισθηματική αναγνώριση: Στον χώρο εργασίας και στα εκπαιδευτικά ιδρύματα

Η La Quadrature du Net σημείωσε ότι υπάρχουν σημαντικά κενά στις εξαιρέσεις — για παράδειγμα, η τομεακή κοινωνική βαθμολόγηση (όπως τα συστήματα αξιολόγησης δικαιούχων επιδομάτων στη Γαλλία) ενδέχεται να εξακολουθεί να επιτρέπεται.

Υψηλού Κινδύνου AI: Οι Αυστηρές Απαιτήσεις

Τα συστήματα AI υψηλού κινδύνου αποτελούν τον πυρήνα της ρύθμισης. Αφορούν κρίσιμους τομείς όπου η AI μπορεί να επηρεάσει ουσιαστικά τη ζωή των πολιτών:

Τομείς Υψηλού Κινδύνου

  • Υγεία: Διαγνωστικά εργαλεία, ιατρικές συσκευές με AI
  • Εκπαίδευση: Βαθμολόγηση, αξιολόγηση φοιτητών, πρόσβαση σε ιδρύματα
  • Εργασία: Αυτόματη αξιολόγηση βιογραφικών, πρόσληψη, απόλυση
  • Κρίσιμες υποδομές: Ενέργεια, μεταφορές, ύδρευση
  • Αστυνόμευση: Predictive policing, αξιολόγηση ενδείξεων
  • Μετανάστευση: Αξιολόγηση αιτήσεων ασύλου, σύνορα
  • Δικαιοσύνη: AI βοηθοί δικαστών, ανάλυση αποδεικτικών στοιχείων

Για κάθε σύστημα υψηλού κινδύνου απαιτείται:

  • Αξιολόγηση Συμμόρφωσης πριν την κυκλοφορία στην αγορά
  • Εκτίμηση Επιπτώσεων Θεμελιωδών Δικαιωμάτων (FRIA) — υποχρεωτική ex ante ανάλυση
  • Ανθρώπινη εποπτεία — πάντα πρέπει να υπάρχει δυνατότητα ανθρώπινης παρέμβασης
  • Τεχνική τεκμηρίωση — πλήρης καταγραφή δεδομένων εκπαίδευσης, αλγορίθμων, περιορισμών
  • Συνεχής παρακολούθηση καθ' όλη τη διάρκεια ζωής του συστήματος
  • Δικαίωμα επεξήγησης — οι πολίτες μπορούν να ζητούν εξηγήσεις αποφάσεων που τους αφορούν

Σημαντική κριτική: η πλειονότητα των high-risk συστημάτων υπόκεινται σε αυτοαξιολόγηση από τους ίδιους τους παρόχους, αντί εξωτερικού ελέγχου τρίτων — κάτι που αρκετοί νομικοί μελετητές θεωρούν ανεπαρκές.

Μοντέλα Γενικού Σκοπού (GPAI)

Ένα από τα πιο σημαντικά νέα στοιχεία, που προστέθηκε το 2023 μετά την εκρηκτική δημοτικότητα του ChatGPT, είναι η ρύθμιση των μοντέλων γενικού σκοπού (General-Purpose AI). Αυτά τα μοντέλα — όπως τα GPT-4, Claude, Gemini, LLaMA — δεν χωρούσαν στο αρχικό πλαίσιο κινδύνου.

Δύο Επίπεδα Ρύθμισης GPAI

Βασικές υποχρεώσεις (όλα τα GPAI):

  • Δημοσίευση περίληψης δεδομένων εκπαίδευσης
  • Πολιτική συμμόρφωσης με πνευματικά δικαιώματα
  • Τεχνική τεκμηρίωση σε downstream παρόχους

Ενισχυμένες υποχρεώσεις (συστημικός κίνδυνος >10²⁵ FLOPS):

  • Αξιολογήσεις μοντέλων και adversarial testing
  • Εκτίμηση και μετριασμός κινδύνων (bias, ασφάλεια)
  • Αναφορά σοβαρών περιστατικών
  • Επαρκές επίπεδο κυβερνοασφάλειας

Τα ανοιχτού κώδικα μοντέλα απολαμβάνουν μειωμένες υποχρεώσεις — αρκεί να δημοσιεύουν περίληψη δεδομένων εκπαίδευσης και πολιτική πνευματικών δικαιωμάτων. Τα κλειστού κώδικα πρέπει να πληρούν ευρύτερες απαιτήσεις διαφάνειας.

Ο Κώδικας Πρακτικής GPAI, που δημοσιεύθηκε στις 10 Ιουλίου 2025, περιλαμβάνει τρία κεφάλαια: διαφάνεια, πνευματικά δικαιώματα, και ασφάλεια. Η συμμετοχή είναι εθελοντική, αλλά αποτελεί τον πιο πρακτικό τρόπο για τους παρόχους να αποδείξουν συμμόρφωση.

📖 Διαβάστε ακόμα: AI στα Smartphones 2026: Επανάσταση στην Τεχνολογία

Πρόστιμα: Ο Μεγαλύτερος Μοχλός Πίεσης

Ο AI Act θέτει τριπλή κλίμακα κυρώσεων που ανταγωνίζεται τα πρόστιμα του GDPR:

€35 εκ. ή 7% παγκόσμιου τζίρου

Για παραβίαση απαγορεύσεων (Άρθρο 5) — κοινωνική βαθμολόγηση, βιομετρική αναγνώριση, χειραγώγηση

€15 εκ. ή 3% παγκόσμιου τζίρου

Για μη συμμόρφωση με υποχρεώσεις παρόχων και χρηστών AI — high-risk, GPAI

€7,5 εκ. ή 1% παγκόσμιου τζίρου

Για παροχή ανακριβών, ελλιπών ή παραπλανητικών πληροφοριών στις αρχές

Για ΜΜΕ και startups, εφαρμόζεται το χαμηλότερο ποσό μεταξύ ποσοστού και σταθερού κατώτατου ορίου — μια πρόβλεψη που αποσκοπεί στο να μην τσακίσει τη νεοφυή επιχειρηματικότητα.

Νέοι Θεσμοί Διακυβέρνησης

Ο AI Act δημιουργεί τέσσερις νέους φορείς σε ευρωπαϊκό επίπεδο:

  • AI Office: Το “κεντρικό διοικητήριο” — συντονίζει την εφαρμογή σε όλα τα κράτη μέλη, εποπτεύει τους παρόχους GPAI, μπορεί να ζητήσει πληροφορίες ή να ανοίξει έρευνες
  • European Artificial Intelligence Board: Ένας εκπρόσωπος ανά κράτος μέλος — συμβουλεύει την Επιτροπή, εξασφαλίζει συνεπή εφαρμογή
  • Advisory Forum: Εκπρόσωποι βιομηχανίας, startups, ΜΜΕ, κοινωνίας των πολιτών, ακαδημαϊκής κοινότητας — παρέχει τεχνογνωσία
  • Scientific Panel: Ανεξάρτητοι εμπειρογνώμονες — τεχνική αξιολόγηση, ειδοποιήσεις κινδύνων, σύνδεση κανονισμού με επιστημονικά ευρήματα

Παράλληλα, κάθε κράτος μέλος πρέπει να ορίσει εθνικές αρμόδιες αρχές για τον έλεγχο της αγοράς και τη διεκπεραίωση καταγγελιών. Μαζί, αυτοί οι φορείς συνθέτουν ένα πολυεπίπεδο σύστημα εποπτείας.

Χρονοδιάγραμμα Εφαρμογής

Ο AI Act δεν εφαρμόζεται ταυτόχρονα — ακολουθεί μια σταδιακή εισαγωγή ανάλογα με τον τύπο κανόνα:

Φάσεις Εφαρμογής

  • +6 μήνες (Φεβ. 2025): Απαγορεύσεις “μη αποδεκτού κινδύνου” — ΗΔΗ ΣΕ ΙΣΧΥ
  • +9 μήνες (Μάιος 2025): Κώδικες πρακτικής
  • +12 μήνες (Αύγ. 2025): Κανόνες γενικού σκοπού AI (GPAI)
  • +24 μήνες (Αύγ. 2026): Γενικοί κανόνες — η πλειονότητα των υποχρεώσεων
  • +36 μήνες (Αύγ. 2027): Ορισμένες υποχρεώσεις υψηλού κινδύνου AI

Στη στιγμή που γράφεται αυτό το άρθρο (Φεβρουάριος 2026), οι απαγορεύσεις είναι ήδη σε ισχύ, οι κανόνες GPAI μόλις ενεργοποιήθηκαν, και μέσα στους επόμενους 6 μήνες θα τεθεί σε πλήρη εφαρμογή η πλειονότητα του κανονισμού.

Εξωεδαφική Εφαρμογή: Το “Brussels Effect”

Όπως ακριβώς ο GDPR, ο AI Act εφαρμόζεται εξωεδαφικά. Αυτό σημαίνει ότι κάθε εταιρεία — αμερικανική, κινεζική, ή από οποιαδήποτε χώρα — που προσφέρει υπηρεσίες AI σε χρήστες εντός της ΕΕ υποχρεούται να συμμορφωθεί.

Η καθηγήτρια Anu Bradford από το Columbia University αποκαλεί αυτό το φαινόμενο "Brussels Effect": οι ευρωπαϊκοί κανόνες γίνονται ντε φάκτο παγκόσμιο πρότυπο, καθώς οι εταιρείες προτιμούν ένα ενιαίο σύνολο κανόνων αντί να δημιουργούν ξεχωριστές εκδόσεις για κάθε αγορά. Αυτό ισχύει ήδη: η OpenAI, η Google, η Meta και η Anthropic προετοιμάζονται εντατικά για πλήρη συμμόρφωση με τον AI Act.

Νομικοί αναλυτές σημειώνουν ότι ο AI Act θα αποτελέσει σημείο αναφοράς για κυβερνήσεις και ρυθμιστικές αρχές εκτός ΕΕ που σχεδιάζουν τα δικά τους πλαίσια — από την Βραζιλία ως τον Καναδά, από την Ινδία ως τη Νότια Κορέα.

📖 Διαβάστε ακόμα: Elon Musk vs OpenAI: Αγωγή $134 Δισ. που Σοκάρει την AI

Regulatory Sandboxes: Χώρος για Καινοτομία

Ο AI Act δεν αποτελεί μόνο “βιβλίο κανόνων”. Περιλαμβάνει πρόβλεψη για ρυθμιστικά sandboxes — ελεγχόμενα περιβάλλοντα δοκιμών όπου οι developers μπορούν να αναπτύξουν και να δοκιμάσουν AI συστήματα υπό εποπτεία πριν τα διαθέσουν στην αγορά.

Τα κράτη μέλη ενθαρρύνονται να δημιουργήσουν sandboxes, με προτεραιότητα σε ΜΜΕ και startups. Η ιδέα είναι να υπάρχει ισορροπία μεταξύ ρυθμιστικής ασφάλειας και τεχνολογικής καινοτομίας — ένας ζωτικός παράγοντας αν η Ευρώπη θέλει να παραμείνει ανταγωνιστική απέναντι σε ΗΠΑ και Κίνα.

Κριτική και Αντιδράσεις

Ο AI Act δέχθηκε κριτική από κάθε πλευρά:

Από την κοινωνία των πολιτών: Η Amnesty International δήλωσε ότι ο νόμος αποτυγχάνει να λάβει υπόψη βασικές αρχές δικαιωμάτων, αφήνοντας ανεπαρκή προστασία για μετανάστες, πρόσφυγες και αιτούντες άσυλο. Η Quadrature du Net τον χαρακτήρισε “ραμμένο στα μέτρα” της tech βιομηχανίας και των αστυνομιών. Μια ευρεία συμμαχία 80+ οργανώσεων (EDRi) κατέληξε ότι αφήνει σημαντικά κενά στην προστασία ιδιωτικότητας και μη-διακρίσεων.

Από τις startups: Ενώ ορισμένες χαιρέτισαν τη σαφήνεια, πολλές ευρωπαϊκές startups υποστηρίζουν ότι η πρόσθετη ρύθμιση τις καθιστά λιγότερο ανταγωνιστικές σε σχέση με αμερικανικές και κινεζικές εταιρείες. Η ακαδημαϊκή κοινότητα και οι αναλυτές ανησυχούν για το κόστος συμμόρφωσης, ειδικά για μικρές εταιρείες.

Από τους δημιουργούς: Τον Αύγουστο 2025, 38 παγκόσμιοι οργανισμοί δημιουργών (σε άρθρο της Le Monde) καταδίκασαν ότι ο Κώδικας Πρακτικής και οι κατευθυντήριες γραμμές για GPAI δεν προστατεύουν επαρκώς τα πνευματικά δικαιώματα. Χαρακτήρισαν το αποτέλεσμα “προδοσία” των δηλωμένων στόχων της Ευρώπης.

Από την ακαδημαϊκή κοινότητα: Νομικοί μελετητές περιγράφουν τον AI Act ως “μωσαϊκό” πλαισίων ασφάλειας προϊόντων και θεμελιωδών δικαιωμάτων, επισημαίνοντας ότι η βαριά στήριξη στην αυτοαξιολόγηση αφήνει κενά στην υλοποίηση. Μια πρόσφατη ανάλυση (Φεβρουάριος 2026) εισήγαγε τον όρο "Synthetic Outlaw" — συστήματα που πληρούν τους τυπικούς κανόνες ενώ παράγουν απαγορευμένα αποτελέσματα.

Εξαιρέσεις: Τι Δεν Καλύπτει

  • Στρατιωτικά / Εθνική Ασφάλεια: Πλήρης εξαίρεση — τα AI συστήματα για αμυντικούς σκοπούς δεν ρυθμίζονται
  • Έρευνα: Τα συστήματα που χρησιμοποιούνται αποκλειστικά για επιστημονική R&D εξαιρούνται
  • Μη-επαγγελματική χρήση: Προσωπικά projects AI δεν εμπίπτουν
  • Ελάχιστου κινδύνου: Λόγω maximum harmonisation, τα κράτη μέλη δεν μπορούν να επιβάλουν αυστηρότερους κανόνες

Αυτές οι εξαιρέσεις, ειδικά για στρατιωτική χρήση, αμφισβητούνται ιδιαίτερα — ειδικά καθώς η AI χρησιμοποιείται ολοένα και περισσότερο σε αυτόνομα οπλικά συστήματα.

Τι Σημαίνει για την Ελλάδα

Η Ελλάδα, ως κράτος μέλος, υποχρεούται να ορίσει εθνικές αρμόδιες αρχές για τον AI Act. Αυτό σημαίνει:

  • Δημιουργία ή ανάθεση σε υπάρχοντα φορέα (π.χ. ΑΠΔΠΧ ή νέα αρχή) για τον έλεγχο εφαρμογής
  • Ελληνικές εταιρείες που αναπτύσσουν AI για υγεία, εκπαίδευση, ή δημόσια διοίκηση πρέπει να εφαρμόσουν FRIA και τεχνική τεκμηρίωση
  • Τα ελληνικά sandboxes μπορούν να βοηθήσουν startups να πειραματιστούν χωρίς τον φόβο προστίμων
  • Η Εθνική Στρατηγική AI της Ελλάδας θα χρειαστεί ευθυγράμμιση με τις απαιτήσεις του AI Act
  • Ευκαιρία: εταιρείες που συμμορφωθούν νωρίς αποκτούν ανταγωνιστικό πλεονέκτημα στην ευρωπαϊκή αγορά

Τι Ακολουθεί

Ο AI Act δεν είναι τέλος. Είναι αρχή. Τα επόμενα βήματα περιλαμβάνουν:

  • Αύγουστος 2026: Πλήρης εφαρμογή γενικών κανόνων — η μεγαλύτερη δοκιμασία συμμόρφωσης ξεκινά
  • Αύγουστος 2027: Εφαρμογή κανόνων υψηλού κινδύνου — αναμένονται τα πρώτα σημαντικά πρόστιμα
  • CEN/CENELEC JTC 21: Ανάπτυξη εναρμονισμένων τεχνικών προτύπων — κρίσιμα για τις αξιολογήσεις συμμόρφωσης
  • Επέκταση λίστας υψηλού κινδύνου: Η Επιτροπή μπορεί να προσθέσει νέες εφαρμογές χωρίς τροποποίηση του κανονισμού
  • Αλληλεπίδραση με GDPR / DSA / DMA: Πώς θα συνεργαστούν οι πολλαπλοί κανονισμοί της ΕΕ
  • Παγκόσμια επίδραση: Βραζιλία, Καναδάς, Ινδία, Νότια Κορέα σχεδιάζουν δικά τους AI πλαίσια εμπνευσμένα από τον AI Act

Η δημοκρατική νομιμοποίηση, η πρακτική εφαρμογή και η ικανότητα προσαρμογής στη ραγδαία εξέλιξη της AI θα κρίνουν αν ο EU AI Act γίνει "χρυσό πρότυπο" ρύθμισης ή ένα γραφειοκρατικό εμπόδιο. Μέχρι στιγμής, αποτελεί το πιο θεσμοθετημένο πλαίσιο AI στον κόσμο — και ο κόσμος παρακολουθεί.

EU AI Act νομοθεσία AI ρύθμιση AI κανονισμός Ευρώπη τεχνητή νοημοσύνη GDPR AI πρόστιμα AI Brussels Effect