από την αυτοματοποίηση στη λογοδοσία

Ημερομηνία: 27-03-2026


Της Βασιλικής Φ. Νικολοπούλου, νομικής συμβούλου, δικηγόρου Αγγλίας & Ουαλίας,
πιστοποιημένης ειδικού Κανονιστικής Συμμόρφωσης & AI Governance

Η ΤΕΧΝΗΤΗ νοημοσύνη επηρεάζει ήδη αποφάσεις με άμεσο αντίκτυπο στη ζωή πολιτών και επιχειρήσεων, από την ιατρική διάγνωση και την εκπαίδευση έως οικονομικές επιλογές όπως η πρόσβαση σε δάνεια, ασφάλειες ή κοινωνικές παροχές.

Όταν οι αποφάσεις αυτές βασίζονται σε αλγορίθμους, διαμορφώνονται δικαιώματα, ευκαιρίες και όροι συμμετοχής στην κοινωνική και οικονομική ζωή.

Κρίνεται, λοιπόν, απαραίτητο να διασφαλιστεί ότι η μετάβαση από την απλή αυτοματοποίηση στη θεσμική λογοδοσία θα πραγματοποιηθεί με τρόπο που δεν αντιμετωπίζει το ζήτημα μόνο ως τεχνική πρόκληση, αλλά πρωτίστως ως θέμα προστασίας θεμελιωδών δικαιωμάτων, διαφάνειας και ισότητας.

ΑΚΟΜΗ και όταν μια διαδικασία παρουσιάζεται ως φαινομενικά αμερόληπτη, όπως η αξιολόγηση δανείων, οι αλγόριθμοι δεν λειτουργούν ανεξάρτητα από την κοινωνική πραγματικότητα.

Σχεδιάζονται και εκπαιδεύονται από ανθρώπους, με βάση ιστορικά δεδομένα που αποτυπώνουν προηγούμενες οικονομικές συμπεριφορές και αποφάσεις.

Αν τα δεδομένα αυτά περιλαμβάνουν ανισότητες -για παράδειγμα, περιορισμένη πρόσβαση ορισμένων κοινωνικών ομάδων σε χρηματοδότηση-, το σύστημα μπορεί να αναπαράγει τα ίδια μοτίβα, αποδίδοντας υψηλότερο κίνδυνο ή λιγότερο ευνοϊκούς όρους.

Έτσι, μια διαδικασία που εμφανίζεται τεχνικά αντικειμενική ενδέχεται να διαιωνίζει προϋπάρχουσες ανισότητες, εάν δεν συνοδεύεται από ουσιαστικό έλεγχο και διαφάνεια.

ΤΟ ΦΑΙΝΟΜΕΝΟ αυτό δεν περιορίζεται στον χρηματοπιστωτικό τομέα. Ενδεικτικό είναι το παράδειγμα του συστήματος προσλήψεων της Amazon, το οποίο εγκαταλείφθηκε όταν διαπιστώθηκε ότι, βασιζόμενο σε ιστορικά δεδομένα, υποβάθμιζε συστηματικά βιογραφικά γυναικών, αναπαράγοντας υφιστάμενες έμφυλες ανισότητες.

Αντίστοιχα, το σύστημα COMPAS στις ΗΠΑ, που χρησιμοποιείται για την εκτίμηση του κινδύνου υποτροπής, δέχθηκε έντονη κριτική επειδή φάνηκε να αποδίδει υψηλότερο βαθμό κινδύνου σε ορισμένες κοινωνικές ομάδες, επηρεάζοντας αποφάσεις για εγγύηση ή ποινή.

Τα παραδείγματα αυτά δείχνουν ότι η τεχνολογική ουδετερότητα είναι συχνά επίφαση και ο καταλογισμός ευθύνης παραμένει ανθρώπινος.

Βασιλική Νικολοπούλου

ΣΕ ΕΥΡΩΠΑΪΚΟ επίπεδο, το ρυθμιστικό πλαίσιο επιχειρεί να απαντήσει σε αυτές τις προκλήσεις.

Ο Γενικός Κανονισμός Προστασίας Δεδομένων (GDPR) θέτει περιορισμούς στην
αποκλειστικά αυτοματοποιημένη λήψη αποφάσεων που παράγει έννομα αποτελέσματα, κατοχυρώνοντας το δικαίωμα ανθρώπινης παρέμβασης και αιτιολόγησης.

Παράλληλα, ο AI Act, ο πρώτος ολοκληρωμένος νόμος στον κόσμο για την τεχνητή νοημοσύνη, που ψηφίστηκε από την Ευρωπαϊκή Ένωση, εισάγει σύστημα εποπτείας για συστήματα υψηλού κινδύνου, δηλαδή αυτά που μπορούν να επηρεάσουν σημαντικά τη ζωή, τα δικαιώματα ή τις ευκαιρίες των ανθρώπων, για τα οποία απαιτούνται αυξημένες εγγυήσεις όπως αξιολόγηση κινδύνου πριν από τη χρήση, έλεγχος ποιότητας δεδομένων, διαφάνεια, ουσιαστική ανθρώπινη εποπτεία και δυνατότητα επιβολής κυρώσεων σε περίπτωση παραβίασης.

Όσο μεγαλύτερη είναι η πιθανότητα ένα σύστημα να επηρεάσει ουσιωδώς τα δικαιώματα, τις ευκαιρίες ή την ασφάλεια των πολιτών, τόσο αυστηρότερες είναι οι υποχρεώσεις που το συνοδεύουν.

ΩΣΤΟΣΟ, η ανθρώπινη εποπτεία δεν μπορεί να είναι απλώς τυπική. Το κρίσιμο ερώτημα είναι αν ο εποπτεύων διαθέτει την τεχνική κατανόηση και την αρμοδιότητα να αμφισβητήσει ή να ανατρέψει μια αλγοριθμική απόφαση.

Σε σύνθετα συστήματα μηχανικής μάθησης, δηλαδή σε αλγορίθμους που μαθαίνουν και παίρνουν αποφάσεις βάσει μεγάλων συνόλων δεδομένων, η εποπτεία από ανθρώπους συχνά περιορίζεται σε έλεγχο διαδικασιών, δηλαδή αν ακολουθήθηκαν οι κανόνες, και όχι σε ουσιαστική αξιολόγηση της ακρίβειας ή της δικαιοσύνης των αποτελεσμάτων.

Χωρίς επαρκή κατάρτιση, θεσμική ανεξαρτησία και σαφείς μηχανισμούς επανεξέτασης, η ανθρώπινη παρέμβαση κινδυνεύει να χαρακτηριστεί διαδικαστική και όχι να λειτουργεί ως πραγματικός μηχανισμός ελέγχου.

ΣΤΟΝ ΟΙΚΟΝΟΜΙΚΟ τομέα, η τεχνητή νοημοσύνη αυξάνει μεν την παραγωγικότητα, αλλά συγκεντρώνει ισχύ σε φορείς που διαθέτουν δεδομένα και υποδομές, επηρεάζοντας τον ανταγωνισμό και την προστασία των καταναλωτών.

Παράλληλα, μετασχηματίζει την αγορά εργασίας, απαιτώντας νέες δεξιότητες και διαρκή εκπαίδευση.

Η ορθή ενσωμάτωσή της δεν μπορεί να αφήνεται αποκλειστικά στις εταιρείες, απαιτεί προσεκτικό σχεδιασμό και σαφές ρυθμιστικό πλαίσιο, με εποπτεία από το κράτος και τους αρμόδιους θεσμούς.

ΣΤΗΝ ΕΛΛΑΔΑ, η εφαρμογή του AI Act βρίσκεται σε μεταβατικό στάδιο προετοιμασίας, καθώς η συγκρότηση ενός πλήρως λειτουργικού εθνικού μηχανισμού εποπτείας δεν έχει ολοκληρωθεί.

Η αποτελεσματική εφαρμογή του νέου κανονιστικού πλαισίου προϋποθέτει τη δημιουργία εξειδικευμένης διοικητικής δομής με επαρκή τεχνική και νομική εξειδίκευση, τη διασύνδεση με την ευρωπαϊκή βάση δεδομένων συστημάτων υψηλού κινδύνου και τη θέσπιση σαφών διαδικασιών ελέγχου και επανεξέτασης.

Παράλληλα, είναι αναγκαίο να διασφαλιστεί ότι οι πολίτες γνωρίζουν και μπορούν να ασκούν αποτελεσματικά το δικαίωμά τους για αιτιολόγηση και αμφισβήτηση αποφάσεων που λαμβάνονται με τη χρήση συστημάτων τεχνητής νοημοσύνης.

ΣΥΝΟΛΙΚΑ, η τεχνητή νοημοσύνη δεν συνιστά αυτόνομο φορέα εξουσίας, αλλά εργαλείο που λειτουργεί εντός ενός συγκεκριμένου θεσμικού και οικονομικού πλαισίου.

Η πραγματική πρόκληση δεν είναι απλώς η τεχνολογική υπεροχή ή η ταχύτερη ανάπτυξη αλγορίθμων, αλλά η διαμόρφωση ενός πλαισίου διαφάνειας, τεχνικής επάρκειας και αποτελεσματικής εποπτείας που θα διασφαλίζει τη δημοκρατική λογοδοσία.

Σε μια οικονομία που μετασχηματίζεται ραγδαία, η βιώσιμη καινοτομία προϋποθέτει ότι ο άνθρωπος παραμένει στο επίκεντρο της λήψης αποφάσεων και διατηρεί τον ουσιαστικό έλεγχο.

Μόνο έτσι η τεχνολογία μπορεί να λειτουργήσει ως μοχλός ανάπτυξης και εμπιστοσύνης, και όχι ως μηχανισμός αδιαφανούς ή απρόσωπης εξουσίας.

Κατασκευή ιστοσελίδων Πύργος