Η Ευρώπη θέτει πρώτη κανόνες για την Τεχνητή Νοημοσύνη

Η Ευρώπη θέτει πρώτη κανόνες για την Τεχνητή Νοημοσύνη

Συντάκτης: Φανούρης Δρακάκης @ 14.06.2023

Ως ένα ιστορικό εγχείρημα χαρακτηρίζεται από το σύνολο του Ευρωπαϊκού Κοινοβουλίου η συμφωνία και ψήφιση του προσχεδίου νόμου για την τεχνητή νοημοσύνη.

Η διαπραγματευτική θέση του Ευρωπαϊκού Κοινοβουλίου σχετικά με τη νέα νομοθεσία της ΕΕ για την τεχνητή νοημοσύνη εγκρίθηκε πριν από λίγο με 499 ψήφους υπέρ, 28 κατά και 93 αποχές. Επόμενα βήματα πλέον είναι ο τριμερής διάλογος μεταξύ Ευρωπαϊκού Κοινοβουλίου, Επιτροπής και Συμβουλίου, με σκοπό να καταλήξουν αυτά τα τρία όργανα σε συμφωνία για την τελική μορφή που θα λάβει η νομοθεσία. Στόχος είναι να έχει ολοκληρωθεί όλη η παραπάνω διαδικασία πριν τις επόμενες ευρωεκλογές, έτσι ώστε να μην υπάρξει περαιτέρω καθυστέρηση από μια πιθανή νέα σύσταση των τριών οργάνων της ΕΕ.

Οι κανόνες, όπως σημειώνει η επίσημη ανακοίνωση του Ευρωκοινοβουλίου, θα διασφαλίζουν ότι η τεχνολογία της τεχνητής νοημοσύνης θα αναπτύσσεται και θα χρησιμοποιείται στην Ευρώπη με απόλυτο σεβασμό προς τα δικαιώματα και τις αξίες της ΕΕ, όπως η ανθρώπινη εποπτεία και η ασφάλεια, ο σεβασμός της ιδιωτικής ζωής, η διαφάνεια, η απαγόρευση των διακρίσεων και η μέριμνα για τα κοινωνικά και περιβαλλοντικά θέματα. Ταυτόχρονα, προβάλλεται ιδιαίτερα έντονα το γεγονός ότι η Ευρωπαϊκή Ένωση είναι η πρώτη που τολμά να θέσει κανόνες πάνω στο ΑΙ, με τη φιλοδοξία να ακολουθήσουν τα υπόλοιπα κράτη, τουλάχιστον του λεγόμενου δυτικού κόσμου.

 

Απαγόρευση πρακτικών

Οι νέοι κανόνες θα χωρίζουν τα συστήματα τεχνητής νοημοσύνης σε κατηγορίες ανάλογα με το επίπεδο κινδύνου που αντιπροσωπεύουν και θα θεσπίζουν υποχρεώσεις, για τους παρόχους αλλά και για όσους τα διαθέτουν, για καθεμία από αυτές τις κατηγορίες. Σύμφωνα με το προσχέδιο της νομοθεσίας, τα συστήματα τεχνητής νοημοσύνης που κατατάσσονται στο επίπεδο υπερβολικά υψηλού κινδύνου για την ανθρώπινη ασφάλεια θα απαγορεύονται πλήρως, όπως σε περιπτώσεις «κοινωνικής βαθμολόγησης». Οι ευρωβουλευτές διεύρυναν την συγκεκριμένη κατηγορία, συμπεριλαμβάνοντας επίσης τις χρήσεις της τεχνολογίας αυτής που αποτελούν παραβιάσεις της ιδιωτικής ζωής ή οδηγούν σε διακρίσεις, όπως οι εξής:

·  Εξ αποστάσεως βιομετρική αναγνώριση προσώπων σε πραγματικό χρόνο ή εκ των υστέρων, σε δημόσιους χώρους

·  Βιομετρική κατηγοριοποίηση ατόμων με βάση προσωπικά δεδομένα ευαίσθητου χαρακτήρα (π.χ. φύλο, φυλή, εθνοτική καταγωγή, υπηκοότητα, θρησκεία, πολιτικός προσανατολισμός)

·  Προληπτική αστυνόμευση (με βάση τη δημιουργία προφίλ, την τοποθεσία ή προηγούμενη εγκληματική συμπεριφορά ατόμων)

·  Αναγνώριση συναισθημάτων για λόγους αστυνόμευσης, για τον έλεγχο των συνόρων, στον χώρο εργασίας και στα εκπαιδευτικά ιδρύματα

·  Μη στοχοθετημένη συλλογή εικόνων προσώπων από το διαδίκτυο ή από κάμερες κλειστού κυκλώματος παρακολούθησης, με στόχο τη δημιουργία βάσεων δεδομένων για την αναγνώριση προσώπων (κατά παράβαση των ανθρωπίνων δικαιωμάτων και του δικαιώματος στην ιδιωτική ζωή).

 

Τεχνητή νοημοσύνη υψηλού κινδύνου

Οι ευρωβουλευτές εξασφάλισαν, επίσης, ότι ο κατάλογος με τις χρήσεις υψηλού κινδύνου θα περιλαμβάνει τα συστήματα τεχνητής νοημοσύνης που προκαλούν σημαντική βλάβη στην υγεία, την ασφάλεια και τα θεμελιώδη δικαιώματα των ανθρώπων ή στο περιβάλλον. Στον ίδιο κατάλογο συμπεριλήφθηκαν ακόμα τα συστήματα που χρησιμοποιούνται για να επηρεάσουν τους ψηφοφόρους και συνεπώς τα αποτελέσματα των εκλογών, καθώς και οι συστάσεις περιεχομένου που κάνουν οι πλατφόρμες κοινωνικής δικτύωσης στους πάνω από 45 εκατομμύρια χρήστες τους, με βάση αλγόριθμους.

 

Υποχρεώσεις για τις γενικής χρήσης εφαρμογές τεχνητής νοημοσύνης

Οι εταιρείες προγραμματισμού που δημιουργούν νέου τύπου εφαρμογές τεχνητής νοημοσύνης (τα λεγόμενα «foundation models») θα πρέπει να αξιολογούν και να μετριάζουν τους πιθανούς κινδύνους (για την υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, την δημοκρατία και το κράτος δικαίου) και να εγγράφουν τις εφαρμογές αυτές στη βάση δεδομένων της ΕΕ, πριν τις διαθέσουν στην ευρωπαϊκή αγορά. Θα πρέπει να μεριμνούν ώστε όλες οι εφαρμογές παραγωγικής τεχνητής νοημοσύνης που στηρίζονται σε τέτοια μοντέλα, όπως το ChatGPT, να συμμορφώνονται με τις απαιτήσεις διαφάνειας της ΕΕ (γνωστοποιώντας στο κοινό ότι έχουν χρησιμοποιηθεί για την δημιουργία ενός προϊόντος τεχνητής νοημοσύνης, βοηθώντας επίσης στον διαχωρισμό των παραποιημένων εικόνων « , ενώ θα πρέπει, επίσης, να λαμβάνουν κατάλληλα μέτρα, ώστε να διασφαλίζεται ότι δεν παράγουν παράνομο περιεχόμενο. Θα έχουν, τέλος, την υποχρέωση να διαθέτουν στο κοινό λεπτομερή καταγραφή του υλικού που προστατεύεται από δικαιώματα πνευματικής ιδιοκτησίας και χρησιμοποιήθηκε για την «εκπαίδευση» των συστημάτων τους.

 

Στήριξη της καινοτομίας και προστασία των δικαιωμάτων των πολιτών

Προκειμένου να ενθαρρύνουν την καινοτομία και να στηρίξουν τις μικρομεσαίες επιχειρήσεις, οι ευρωβουλευτές προτείνουν να εξαιρούνται από αυτές τις υποχρεώσεις οι ερευνητικές δραστηριότητες και τα λογισμικά τεχνητής νοημοσύνης που παρέχονται βάσει αδειών ανοικτού κώδικα. Η νέα νομοθεσία καλεί να δημιουργηθούν επίσης ορισμένα «ρυθμιστικά δοκιμαστήρια», όπως αποκαλούνται, τα οποία θα θεσπίζονται από τις δημόσιες αρχές της κάθε χώρας για να δοκιμάζονται σε πραγματικές συνθήκες όλες οι εφαρμογές τεχνητής νοημοσύνης, πριν διατεθούν προς χρήση του κοινού.

Τέλος, οι ευρωβουλευτές επιθυμούν να ενισχύσουν το δικαίωμα των πολιτών να υποβάλλουν καταγγελίες σχετικά με συστήματα τεχνητής νοημοσύνης, καθώς και το δικαίωμά τους να δέχονται εξηγήσεις για τυχόν αποφάσεις που έχουν ληφθεί με βάση συστήματα υψηλού κινδύνου και επηρεάζουν σε σημαντικό βαθμό τα θεμελιώδη δικαιώματά τους. Οι ευρωβουλευτές αναμόρφωσαν επίσης τον ρόλο που θα έχει το Γραφείο τεχνητής νοημοσύνης της ΕΕ, το οποίο θα παρακολουθεί την εφαρμογή του εγχειριδίου κανόνων για την τεχνητή νοημοσύνη.