14
Πολίτης του Σήμερα

Από την Ευρωπαϊκή Ένωση έρχεται η πρώτη νομοθεσία για AI

Από την Ευρωπαϊκή Ένωση έρχεται η πρώτη νομοθεσία για AI
Το Artificial Intelligence Act βάζει όριο στην αλόγιστη χρήση της τεχνητής νοημοσύνης για πρώτη φορά!

Ολόκληρη η ανθρωπότητα, τα τελευταία 1-2 χρόνια, χορεύει στους ρυθμούς της Τεχνητής Νοημοσύνης. Κάθε τόσο έχουμε και μια νέα εφαρμογή, ενώ πρακτικά όλες οι εταιρείες έχουν ανακοινώσει κάτι σχετικό με AI. Όσο κι αν οι προσδοκίες είναι μεγάλες, όμως, υπάρχουν και πολλοί ειδικοί που ανησυχούν για τις πιθανές επιπτώσεις και τους κινδύνους που ελλοχεύουν πίσω από τα συστήματα αυτά. Η κατάσταση γίνεται δυνητικά επικίνδυνη, όμως, από τα τεράστια κενά στη νομοθεσία όλων των χωρών, καθώς η τεχνολογία, για μια ακόμη φορά, κινείται πολύ πιο γρήγορα από τους νομοθέτες. Για πρώτη φορά, η Ευρωπαϊκή Ένωση ψήφισε ένα νέο νομοθετικό πλαίσιο, το Artificial Intelligence Act (AIA), το οποίο βάζει περιορισμούς στη χρήση της Τεχνητής Νοημοσύνης.

Το μυαλό όλων μας, όταν ακούμε για “κινδύνους” σε σχέση με συστήματα AI, πηγαίνουν σχεδόν αυτόματα σε καταστάσεις τύπου “terminator” και οπλισμένα ρομπότ που θέλουν να αφανίσουν την ανθρωπότητα. Οι πραγματικοί κίνδυνοι, όμως, είναι μάλλον διαφορετικοί. Το Artificial Intelligence Act προβλέπει τέσσερα επίπεδα επικινδυνότητας: μη αποδεκτού ρίσκου, υψηλού ρίσκου, περιορισμένου ρίσκου, και ελάχιστου ή μηδενικού ρίσκου. Τα συστήματα AI υψηλού ρίσκου θα υπόκεινται σε αυστηρές προδιαγραφές προτού βγουν στην αγορά. Οι προδιαγραφές θα περιλαμβάνουν επαρκείς αναλύσεις κινδύνου και συστήματα αντιμετώπισης, εκτενή καταγραφή της δραστηριότητάς τους για την διασφάλιση της ανίχνευσης, επαρκείς δικλείδες ανθρώπινης εποπτείας για την ελαχιστοποίηση των κινδύνων, μεταξύ άλλων.

Όπως αναφέρει η ανακοίνωση του Ευρωπαϊκού Κοινοβουλίου, “Οι νέοι κανόνες απαγορεύουν συγκεκριμένες εφαρμογές AI οι οποίες απειλούν δικαιώματα των πολιτών, μεταξύ αυτών συστήματα βιομετρικής κατηγοριοποίησης βασισμένα σε ευαίσθητα χαρακτηριστικά και μαζική χρήση εικόνων προσώπων από το Internet ή υλικό καμερών κλειστού κυκλώματος, με στόχο την δημιουργία βάσεων δεδομένων για αναγνώριση προσώπου. Η αναγνώριση συναισθημάτων σε εργασιακούς χώρους και σχολεία, η κοινωνική βαθμολόγηση, η προγνωστική αστυνόμευση (όταν βασίζεται αποκλειστικά στην κατάρτιση προφίλ ή στην αξιολόγηση των χαρακτηριστικών των πολιτών), και η AI που χειραγωγεί την ανθρώπινη συμπεριφορά ή εκμεταλλεύεται τις αδυναμίες των ανθρώπων, επίσης θα απαγορεύονται.”

Πολλές φορές έχουμε δει ποινές που, λόγω του μεγέθους των πολυεθνικών κολοσσών, δεν είναι παρά “χάδι”. Οι ποινές που προβλέπονται από το AIA, όμως, μπορεί να είναι πραγματικά κολοσσιαίες, καθώς μπορούν να φτάσουν τα 35 εκατομμύρια ευρώ ή το 7% του ετήσιου παγκόσμιου τζίρου για το προηγούμενο οικονομικό έτος, όποιο από τα δύο είναι υψηλότερο!

Στην περίληψη της Κομισιόν διαβάζουμε:

Όλα τα συστήματα απομακρυσμένης βιομετρικής ταυτοποίησης θεωρούνται υψηλού ρίσκου και υπόκεινται σε αυστηρές προδιαγραφές. Η χρήση απομακρυσμένης βιομετρικής ταυτοποίησης σε δημόσιους χώρους για σκοπούς αστυνόμευσης, επί της αρχής, απαγορεύονται.

Μικρές εξαιρέσεις είναι αυστηρά καθορισμένες και ελεγχόμενες, όπως όταν είναι απαραίτητο να γίνει έρευνα για ένα παιδί που χάθηκε, για την αποτροπή συγκεκριμένου και άμεσου κινδύνου τρομοκρατίας, ή την ανίχνευση, τον εντοπισμό, την ταυτοποίηση, ή την σύλληψη κακοποιού ή υπόπτου για σοβαρή εγκληματική ενέργεια.

Παραδείγματα AI υψηλού κινδύνου περιλαμβάνουν AI σε ρομποτικά υποβοηθούμενη χειρουργική, συστήματα πιστοληπτικής βαθμολόγησης με δυνατότητα άρνησης δανεισμού, αστυνόμευση που παρεμβαίνει σε βασικά δικαιώματα, όπως η αξιολόγηση της αξιοπιστίας αποδεικτικών στοιχείων, και αυτοματοποιημένη εξέταση αιτήσεων για βίζα.

Η κατηγορία περιορισμένου ρίσκου περιλαμβάνει εφαρμογές που δεν είναι διαφανείς όσον αφορά τη χρήση AI. Για παράδειγμα, στη χρήση chatbots είναι σημαντική η διευκρίνιση ώστε οι πολίτες να γνωρίζουν πως συνομιλούν με “μηχανή”, ενώ και οι πάροχοι τέτοιων συστημάτων θα πρέπει να διασφαλίζουν πως όλο το υλικό που έχει παραχθεί από AI είναι αναγνωρίσιμο. Κείμενο προϊόν AI το οποίο δημοσιεύεται με σκοπό την ενημέρωση του κοινού σε θέματα δημόσιου ενδιαφέροντος θα πρέπει να φέρει σήμανση πως είναι τεχνητά παραγμένο, και αυτή η απαίτηση επεκτείνεται και για ηχητικό και οπτικό υλικό (deep fakes).

Τέλος, ελάχιστου ή μηδενικού ρίσκου αναφέρονται εφαρμογές όπως παιχνίδια (video games) με AI, ή φίλτρα ανεπιθύμητης αλληλογραφίας. Η πλειοψηφία των συστημάτων AI που βρίσκονται ήδη σε χρήση εντός της ΕΕ αυτή τη στιγμή εμπίπτουν σε αυτή την κατηγορία, και δεν υπόκεινται σε περιορισμούς.

Η ΕΕ θα συστήσει ειδικό “γραφείο Τεχνητής Νοημοσύνης”, ώστε να βοηθήσει τις εταιρείες να συμμορφώνονται με τη νομοθεσία, προτού βγάλουν τα συστήματά τους στην αγορά.

Όπως σε κάθε νέα νομοθεσία, υπάρχουν και αντιδράσεις από τις εταιρείες τεχνολογίας. Αναφέρουν πως το AIA “θα μπορούσε να επιβραδύνει την ανάπτυξη της καινοτομίας στην Ευρώπη“, αλλά και πως “κάποια συστήματα AI χαμηλού ρίσκου θα υπόκεινται σε αυστηρές προδιαγραφές χωρίς άλλη αιτιολόγηση, ενώ άλλα θα απαγορεύονται εντελώς“.

Σε κάθε περίπτωση, η νομοθεσία της ΕΕ είναι πραγματικά πρωτοποριακή και κυρίως περιστρέφεται γύρω από τα δικαιώματα των Ευρωπαίων πολιτών, ρυθμίζοντας και οριοθετώντας τη χρήση AI για την παρακολούθηση – εντός ή εκτός εισαγωγικών – των πολιτών, κυρίως από εταιρείες ή άλλους οργανισμούς. Κι αυτό είναι μόνο καλό, για όλους μας!