Διεθνή

EE: Φέρνει την πρώτη νομοθεσία για την Τεχνητή Νοημοσύνη και τους κινδύνους της – Έξι Έλληνες ειδικοί αναλύουν

Λίγο μετά την ψήφιση, με ευρύτατη πλειοψηφία από το Ευρωκοινοβούλιο, του Κανονισμού για την Τεχνητή Νοημοσύνη (AI Act), της πρώτης ολοκληρωμένης νομοθεσίας παγκοσμίως γι’ αυτήν τη ραγδαία αναπτυσσόμενη τεχνολογία, και καθώς η Ευρωπαϊκή Ένωση προχωρά ένα βήμα πιο κοντά στην εφαρμογή του Κανονισμού, έξι Έλληνες ειδικοί της τεχνητής νοημοσύνης, οι Πέτρος Κουμουτσάκος, Λίλιαν Μήτρου, Γιώργος Παγουλάτος, Φερενίκη Παναγοπούλου, Γιώργος Παππάς και Ιωάννης Πήτας, αναδεικνύουν, μιλώντας στο ΑΠΕ-ΜΠΕ, τα θετικά, αλλά και τις προκλήσεις που επιφέρει αυτή η νομοθετική πρωτοβουλία-ορόσημο.

Στόχος της νέας νομοθεσίας, σύμφωνα και με το δελτίο Τύπου που εξέδωσε το Ευρωκοινοβούλιο, είναι να προστατέψει τα θεμελιώδη δικαιώματα, τη δημοκρατία, το κράτος δικαίου και την περιβαλλοντική βιωσιμότητα από τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, αλλά και να ενισχύσει παράλληλα την καινοτομία και να αναδείξει την Ευρώπη ως πρωτοπόρο δύναμη στον τομέα αυτόν. Γι’ αυτό τον σκοπό, ο Κανονισμός ορίζει διαφορετικές υποχρεώσεις για τα συστήματα τεχνητής νοημοσύνης, ανάλογα με τους πιθανούς κινδύνους και τις επιπτώσεις που ενέχει η χρήση τους.

«Ο Κανονισμός είναι αναμφίβολα το σημαντικότερο, πιο ολοκληρωμένο και πιο επιδραστικό ρυθμιστικό βήμα που έγινε σε διεθνές επίπεδο», επισημαίνει στο ΑΠΕ-ΜΠΕ η Λίλιαν Μήτρου, καθηγήτρια Δικαίου Προστασίας Προσωπικών Δεδομένων και Δικαίου της Πληροφορίας/Διαδικτύου στο Πανεπιστήμιο Αιγαίου. Για «ιστορικό βήμα προώθησης της διεθνούς ανταγωνιστικότητας και της προστασίας των ανθρωπίνων δικαιωμάτων, δύο στόχων που δεν συμβαδίζουν εύκολα» κάνει λόγο ο Γιώργος Παγουλάτος, μόνιμος αντιπρόσωπος της Ελλάδας στον ΟΟΣΑ και μέλος της Εθνικής Επιτροπής για την Τεχνητή Νοημοσύνη. Από την πλευρά της, η Φερενίκη Παναγοπούλου, επίκουρη καθηγήτρια Συνταγματικού Δικαίου, Δικαίου Προστασίας Δεδομένων και Βιοηθικής στο Πάντειο Πανεπιστήμιο, μέλος και εκείνη της Εθνικής Επιτροπής για την Τεχνητή Νοημοσύνη, υπογραμμίζει ότι «ο Κανονισμός αποσκοπεί σε μια ρύθμιση που προωθεί την αγορά σεβόμενη ταυτόχρονα τα θεμελιώδη δικαιώματα και την ασφάλεια».

Θετική είναι και η αποτίμηση τριών κορυφαίων ερευνητών της τεχνητής νοημοσύνης. «Η νομοθεσία αυτή είναι σημαντική και η Ευρώπη πρωτοπορεί», τονίζει ο Πέτρος Κουμουτσάκος, πρόεδρος του Τμήματος Εφαρμοσμένων Μαθηματικών του Χάρβαρντ, ενώ ο Γιώργος Παππάς, καθηγητής στο Τμήμα Ηλεκτρολόγων Μηχανικών του Πανεπιστημίου της Πενσιλβάνια κάνει λόγο για ένα «εξαιρετικό επίτευγμα, που θα προστατέψει τους Ευρωπαίους από τα νέα ρίσκα της τεχνητής νοημοσύνης». Ο Ιωάννης Πήτας, καθηγητής του Τμήματος Πληροφορικής του ΑΠΘ, πρόεδρος της Διεθνούς Ακαδημίας Διδακτορικών Σπουδών στην Τεχνητή Νοημοσύνη (AIDA) και μέλος της Εθνικής Επιτροπής για την Τεχνητή Νοημοσύνη, τονίζει ότι «η νομοθετική ρύθμιση της χρήσης συστημάτων τεχνητής νοημοσύνης είναι επιτακτική ανάγκη και η Ευρωπαϊκή Ένωση πρωτοπόρησε στον τομέα αυτό».

Τι προβλέπεται

Μετά την ψήφισή του στο Ευρωπαϊκό Συμβούλιο τους επόμενους μήνες, ο Κανονισμός θα γίνει νόμος της Ευρωπαϊκής Ένωσης και η πλήρης εφαρμογή του αναμένεται σε 24-36 μήνες μετά την έναρξη ισχύος του. Ο Κανονισμός ορίζει διαφορετικές υποχρεώσεις για τα συστήματα τεχνητής νοημοσύνης, ανάλογα με τους πιθανούς κινδύνους και τις επιπτώσεις που ενέχει η χρήση τους.

Μεταξύ άλλων, οι νέοι κανόνες απαγορεύουν ορισμένες εφαρμογές τεχνητής νοημοσύνης που απειλούν τα δικαιώματα των πολιτών, όπως είναι τα συστήματα βιομετρικής κατηγοριοποίησης που βασίζονται σε ευαίσθητα χαρακτηριστικά και η μη στοχοθετημένη συλλογή εικόνων προσώπων από το διαδίκτυο ή βίντεο από κάμερες κλειστού κυκλώματος παρακολούθησης, με στόχο τη δημιουργία βάσεων δεδομένων για την αναγνώριση προσώπων. Θα απαγορεύονται, επίσης, η αναγνώριση συναισθημάτων στον χώρο εργασίας και τα σχολεία, η κοινωνική βαθμολόγηση, η προληπτική αστυνόμευση (όταν βασίζεται αποκλειστικά στη δημιουργία προφίλ ενός ατόμου ή στην αξιολόγηση των χαρακτηριστικών του) και η τεχνητή νοημοσύνη που χειραγωγεί την ανθρώπινη συμπεριφορά ή εκμεταλλεύεται τα τρωτά σημεία των ανθρώπων. Επιπλέον, θεσπίζονται σαφείς υποχρεώσεις για συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, λόγω της σημαντικής δυνητικής βλάβης που μπορεί να προκαλέσουν.

Ο Κανονισμός θέτει ορισμένες εξαιρέσεις για τις Αρχές επιβολής του νόμου. Για παράδειγμα, απαγορεύει, κατ’ αρχήν, τη χρήση βιομετρικών συστημάτων ταυτοποίησης προσώπου από τις Αρχές επιβολής του νόμου, ωστόσο, κατ’ εξαίρεση, επιτρέπεται η χρήση αυτών των συστημάτων «σε εξαντλητικά απαριθμούμενες και στενά καθορισμένες περιστάσεις», όπως εξηγεί στο ΑΠΕ-ΜΠΕ η επίκουρη καθηγήτρια του Παντείου, Φερενίκη Παναγοπούλου. «Ο Κανονισμός κατηγοριοποιεί τα συστήματα με βάση τον κίνδυνο, διαβαθμίζοντας το επίπεδο ρύθμισης σε συνάρτηση με το επίπεδο κινδύνου που ενέχουν τα διάφορα συστήματα τεχνητής νοημοσύνης. Στόχος είναι να αποφύγει τόσο την υπορύθμιση (που αποτυγχάνει να προστατεύσει τα δικαιώματα και τις άλλες αξίες), όσο και την υπερρύθμιση (που περιστέλλει την καινοτομία και την αποτελεσματική λειτουργία της ενιαίας αγοράς)», εξηγεί.

Ωστόσο, η κ. Παναγοπούλου θέτει τον προβληματισμό ότι «η προσέγγιση βάσει καταλόγου και όχι βάσει αρχών για τον καθορισμό τού κατά πόσον ένα σύστημα χαρακτηρίζεται ως υψηλού κινδύνου δεν είναι απροβλημάτιστη. Είναι εξαιρετικά δύσκολο να απαριθμηθούν, εκ των προτέρων, οι εφαρμογές των συστημάτων που απειλούν με σοβαρές παραβιάσεις δικαιωμάτων. Κατά συνέπεια, τα συστήματα που αυτήν τη στιγμή χαρακτηρίζονται ως χαμηλού κινδύνου ενδεχομένως να μην υπόκεινται σε ρύθμιση που επαρκεί για την αποτροπή παραβιάσεων δικαιωμάτων. Το ελάττωμα αυτό ενισχύεται από τις ανησυχίες ότι οι διατάξεις του νόμου ενδέχεται να εκτοπίσουν πιο απαιτητικές προστασίες δικαιωμάτων που παρέχονται από άλλους νόμους της ΕΕ, και τις πιο απαιτητικές προστασίες δικαιωμάτων που έχουν θεσπιστεί σε εθνικό επίπεδο από τα κράτη μέλη».

Η καθηγήτρια στο Πανεπιστήμιο Αιγαίου, Λίλιαν Μήτρου, διευκρινίζει από την πλευρά της στο ΑΠΕ-ΜΠΕ ότι ο Κανονισμός δεν θα εφαρμόζεται στα ερευνητικά προγράμματα για να μην σταματήσει η έρευνα. Την ίδια ώρα όμως, «όταν θέλεις να βγάλεις κάτι μετά στην αγορά, αυτό πρέπει να είναι σύμφωνο με τους κανόνες. Άρα, μπορεί στην έρευνα να μην είσαι υποχρεωμένος να το ακολουθήσεις, αλλά αυτό που θα προκύψει μετά ως αποτέλεσμα, για να εφαρμοστεί ως σύστημα τεχνητής νοημοσύνης, θα πρέπει να είναι σύμφωνο με τον Κανονισμό».

Δημοφιλέστερα

To Top