Η ταχύτατη εξέλιξη της τεχνητής νοημοσύνης (AI) έχει προκαλέσει ένα νέο κύμα προβληματισμού σχετικά με τη θέση της στην κοινωνία. Πέρα από τα τεχνικά και οικονομικά της οφέλη, τίθεται το κρίσιμο ερώτημα: «πώς μπορεί να ρυθμιστεί ώστε να προλαμβάνει τις παθογένειες και την κακή χρήση της;»
Το ζητούμενο δεν είναι απλώς να περιοριστεί η τεχνολογία, αλλά να διαμορφωθεί ένα πλαίσιο που θα επιτρέπει την πρόοδο, ενώ ταυτόχρονα θα διασφαλίζει τα ανθρώπινα δικαιώματα και τη διαφάνεια.
- Ένα αποτελεσματικό ρυθμιστικό πλαίσιο πρέπει να εγγυάται ότι:
- Τα συστήματα τεχνητής νοημοσύνης λειτουργούν με θετικό έλεγχο, πληρότητα, επίβλεψη και με υπευθυνότητα (των διαχειριστών) και οπωσδήποτε με διαφάνεια.
- Οι λειτουργίες τους σέβονται τα ανθρώπινα δικαιώματα,
- Υπόκεινται σε έλεγχο και για τις αποφάσεις τους να μπορούν να παρέχονται διεξοδικές εξηγήσεις
2) Ο σκοπός είναι να αποφευχθεί η μετατροπή τους σε “μαύρα κουτιά” που λαμβάνουν αποφάσεις χωρίς έλεγχο και ανθρώπινη επίβλεψη, υπευθυνότητα και λογοδοσία των διαχειριστών.
ΤΡΕΙΣ ΔΙΑΦΟΡΕΤΙΚΕΣ ΠΡΟΣΕΓΓΙΣΕΙΣ
Σήμερα, τρεις κύριες προσεγγίσεις καθορίζουν την παγκόσμια συζήτηση για τη ρύθμιση της AI: η Ευρωπαϊκή, η Αμερικανική και η Κινεζική.
1) Η Ευρωπαϊκή Ένωση έχει υιοθετήσει μια ανθρωποκεντρική και προληπτική στάση, μέσω του “AI Act”, του πρώτου ολοκληρωμένου κανονισμού παγκοσμίως για την τεχνητή νοημοσύνη. Ο κανονισμός χωρίζει τα συστήματα AI σε τέσσερις κατηγορίες κινδύνου:
- Απαγορευμένα, (Unacceptable Risk): Όλα τα συστήματα AI που θεωρούνται σαφής απειλή για την ασφάλεια, τα μέσα διαβίωσης και τα δικαιώματα των ανθρώπων, π.χ. κοινωνική βαθμολόγηση τύπου Κίνας, ή χρήση σε μαζική παρακολούθηση πολιτών.
- Υψηλού ρίσκου (High Risk): περιπτώσεις χρήσης τεχνητής νοημοσύνης που μπορούν να θέσουν σε σοβαρούς κινδύνους την υγεία, την ασφάλεια ή τα θεμελιώδη δικαιώματα (π.χ. προσλήψεις, δάνεια, υγεία). Πρέπει να είναι διαφανή, ελεγχόμενα και πιστοποιημένα.
- Περιορισμένου ρίσκου (Limited Risk): Οι πάροχοι δημιουργικής ΑΙ πρέπει να διασφαλίζουν ότι το περιεχόμενο που δημιουργείται από συστήματα ΑΙ είναι αναγνωρίσιμο και να επισημαίνεται με σαφήνεια και ευκρίνεια. (π.χ. Διοικητικές εφαρμογές, δημιουργικά και εκπαιδευτικά εργαλεία κλπ.).
- Χαμηλού ρίσκου (Minimal Risk): π.χ. chatbots ψυχαγωγίας, δημιουργικά εργαλεία κλπ.
Το πλεονέκτημα αυτής της προσέγγισης είναι ότι προστατεύει αποτελεσματικά τα δικαιώματα των πολιτών και προλαμβάνει τις καταχρήσεις πριν συμβούν. Ωστόσο, το μειονέκτημά της είναι ότι ενδέχεται να επιβραδύνει την καινοτομία, ιδίως για μικρότερες επιχειρήσεις.
2) Οι ΗΠΑ ακολουθούν μια πιο φιλελεύθερη και αυτορρυθμιζόμενη προσέγγιση. Μέσα από το πλαίσιο “AI Bill of Rights”, δίνουν έμφαση σε αρχές όπως:
- Ισότητα στην πρόσβαση,
- Η AI πρέπει να είναι ασφαλής, αξιόπιστη και δοκιμασμένη πριν χρησιμοποιηθεί.
- Προστασία των πολιτών από αλγοριθμικές προκαταλήψεις.
- Προστασία Δεδομένων και Ιδιωτικότητας
- Ενημέρωση και εξήγηση των πολιτών για την λήψη αποφάσεων από ΑΙ
- Δυνατότητα ανθρώπινης παρέμβασης σε αποφάσεις που λαμβάνει ένα σύστημα AI
- Η διασφάλιση της δυνατότητας αποτελεσματικής ανθρώπινης επίβλεψης.
Αν και αυτό το μοντέλο ευνοεί την ταχεία ανάπτυξη και ευελιξία της αγοράς, συχνά αφήνει κενά προστασίας, με αποτέλεσμα οι εταιρείες να αντιμετωπίζουν τα προβλήματα μόνο εκ των υστέρων, όταν δηλαδή έχουν ήδη προκληθεί κοινωνικές ή ηθικές συνέπειες.
3) Η Κίνα, τέλος, προσεγγίζει την τεχνητή νοημοσύνη με κρατικοκεντρικό τρόπο. Η AI εκεί λειτουργεί υπό τρεις βασικούς άξονες:
- Πλήρη κρατικό έλεγχο των δεδομένων και της τεχνολογίας,
- Συμβατότητα με “σοσιαλιστικές αξίες” — δηλαδή ιδεολογική ευθυγράμμιση με την πολιτική γραμμή,
- Μαζική επιτήρηση για λόγους “δημόσιας ασφάλειας” (π.χ. facial recognition, ανάλυση συμπεριφοράς πολιτών).
Το αποτέλεσμα είναι μια πολύ οργανωμένη, αλλά ελάχιστα ελεύθερη ψηφιακή κοινωνία. Το κράτος διατηρεί τον πλήρη έλεγχο στη χρήση και διάδοση της τεχνολογίας. Η AI δεν προστατεύει τον πολίτη από το κράτος, αλλά το κράτος από τον πολίτη.
ΣΥΝΔΥΑΣΜΟΣ ΤΩΝ ΤΡΙΩΝ ΠΡΟΣΕΓΓΙΣΕΩΝ – ΚΑΝΟΝΙΣΤΙΚΟΣ ΔΕΚΑΛΟΓΟΣ
- Από τη σύγκριση αυτών των τριών προσεγγίσεων προκύπτει ότι η καταλληλότερη λύση δεν βρίσκεται σε ένα μόνο μοντέλο, αλλά σε συνδυασμό των θετικών στοιχείων τους.
- Από την Ευρώπη μπορούμε να υιοθετήσουμε τη διαφάνεια και την πρόληψη κινδύνων.
- Από τις ΗΠΑ την ευελιξία και τη δυνατότητα καινοτομίας.
- Από την Κίνα τον δημόσιο έλεγχο σε κρίσιμες εφαρμογές που επηρεάζουν άμεσα το κοινωνικό σύνολο.
- Θα πρέπει το κανονιστικό πλαίσιο να περιέχει πολύ ισχυρές δικλίδες ασφαλείας, θεσμικές, νομικές και τεχνικές. ‘Ε να σύνολο προϋποθέσεων και περιορισμών που θα μπορούσαν να κάνουν ένα τέτοιο σύστημα συμβατό με τις αξίες μιας φιλελεύθερης δημοκρατίας:
- Ένα τέτοιο ισορροπημένο πλαίσιο θα μπορούσε να εξασφαλίσει τόσο την ηθική χρήση όσο και τη βιώσιμη ανάπτυξη της AI, εφόσον περιλαμβάνει συγκεκριμένα μέτρα:

- Υποχρεωτική διαφάνεια και Ιχνηλασιμότητα της προέλευσης περιεχομένου (AI watermarking), ώστε να δηλώνεται πάντοτε ότι πρόκειται για AI.
- Ανεξάρτητη εποπτική αρχή, με διακομματική σύνθεση, κοινωνική εκπροσώπηση και δημοκρατική λογοδοσία. Ο έλεγχος των συστημάτων AI και ιδίως αυτών που συλλέγουν δεδομένα πολιτών δεν μπορεί να ανήκει αποκλειστικά στο κράτος. Τα δεδομένα πολιτών δεν πρέπει να χρησιμοποιούνται για ιδεολογική “βαθμολόγηση” ή κοινωνικό αποκλεισμό.
- Η χρήση AI σε επιτήρηση (π.χ. αναγνώριση προσώπων, ανάλυση κινήσεων) πρέπει να είναι απαγορευμένη, εκτός εάν συντρέχουν εξαιρετικοί λόγοι δημοσίου συμφέροντος (τρομοκρατία, εγκληματικότητα) και υπάρχει δικαστική εντολή.
- Δυνατότητα άμεσου ανθρώπινου ελέγχου κι επιβεβαίωσης σε αποφάσεις υψηλού ρίσκου, που επηρεάζουν ζωές (π.χ. απολύσεις, δάνεια, ιατρικές γνωματεύσεις κλπ).
- “Αναστρέψιμη” τεχνολογία. Ο αλγόριθμος που λαμβάνει αποφάσεις (π.χ. ποινικές, διοικητικές, κοινωνικές) να είναι ελέγξιμος και αξιολογήσιμος από άνθρωπο.
- Δικαίωμα γνώσης και εξήγησης (Explainability). Οι πολίτες να έχουν δικαίωμα πρόσβασης στις αρχές λειτουργίας κάθε συστήματος AI που τους επηρεάζει. Να μπορούν να ζητούν εξήγηση σε κατανοητή γλώσσα.
- Πρόσβαση της εκτελεστικής εξουσίας, της επιστημονικής και ακαδημαϊκής κοινότητας σε εργαλεία ελέγχου και αξιολόγησης (με σκοπό να ελέγχεται η ηθική κοινωνική επίδρασή).
- Εθνική κυριαρχία στα δεδομένα, και με διεθνή συμφωνημένα πρότυπα. Κάθε κράτος να θέλει ψηφιακή κυριαρχία στα δεδομένα του. Όμως, η χρήση τους πρέπει να διέπεται από διεθνή πρότυπα, όπως αυτά που προωθούν ΕΕ, ΟΟΣΑ, UNESCO.
- Νομοθετημένη ευθύνη και κυρώσεις. Κάθε φορέας (κρατικός ή ιδιωτικός) που αναπτύσσει ή χρησιμοποιεί AI πρέπει να έχει νομική ευθύνη για την λειτουργία και τις αποφάσεις του συστήματος.
- Παράλληλα, είναι απαραίτητο να ενισχυθεί η ευρεία εκπαίδευση των πολιτών στην χρήση συστημάτων τεχνητής νοημοσύνης. Χωρίς ευρύ κοινωνικό “AI γραμματισμό” (ΑΙ Literacy), καμία ρύθμιση δεν είναι πλήρως αποτελεσματική.

ΚΑΤΑΛΗΓΟΝΤΑΣ
- ο καταλληλότερο ρυθμιστικό πλαίσιο για την τεχνητή νοημοσύνη είναι εκείνο που συνδυάζει την ανθρώπινη προστασία με την τεχνολογική πρόοδο. Ένα πλαίσιο διαφανές όπως το Ευρωπαϊκό, ευέλικτο όπως το Αμερικανικό και με δημόσιο έλεγχο όπως το Κινεζικό (υπό τις αυστηρές προϋποθέσεις που ετέθησαν), πάντοτε όμως, με τον άνθρωπο ως κοινωνικό ον στο επίκεντρο. Η πρόκληση δεν είναι να φρενάρουμε την εξέλιξη, αλλά να τη διαμορφώσουμε έτσι ώστε η τεχνητή νοημοσύνη να υπηρετεί την κοινωνία, όχι να την υποκαθιστά.
- Όλα τα μέτρα που προτείνονται, χρήζουν ιδιαίτερης μελέτης και κοινωνικού-κοινοβουλευτικού- ελέγχου για την εφαρμογή τους.
- Αν η τεχνολογία βρίσκεται μόνο στα χέρια της εξουσίας, μετατρέπεται σε εργαλείο ελέγχου. Αν ελέγχεται δημοκρατικά, γίνεται εργαλείο διαφάνειας και κοινωνικής προστασίας.



































