6 Μαΐου 2024

    Tο Ευρωπαϊκό Κοινοβούλιο ενέκρινε τον νέο κανονισμό – ορόσημο για την τεχνητή νοημοσύνη

    Νέα κανονιστικά μέτρα για την τεχνητή νοημοσύνη ενέκρινε το Ευρωπαϊκό Κοινοβούλιο και αποτελούν σημαντική εξέλιξη για την ασφάλεια των χρηστών και την ενίσχυση των θεμελιωδών δικαιωμάτων, ενώ παράλληλα προάγουν την καινοτομία. Το κείμενο είχε ήδη συμφωνηθεί με τα κράτη μέλη τον Δεκέμβριο του 2023 και εγκρίθηκε από τους ευρωβουλευτές με 523 ψήφους υπέρ, 46 ψήφους κατά και 49 αποχές.

    Ο νέος κανονισμός έχει ως στόχο να προστατεύσει τα θεμελιώδη δικαιώματα, τη δημοκρατία, το κράτος δικαίου και την περιβαλλοντική βιωσιμότητα από τη χρήση επικίνδυνων συστημάτων τεχνητής νοημοσύνης, ενώ ταυτόχρονα προάγει την καινοτομία και επισημαίνει την Ευρώπη ως ηγετική δύναμη στον τομέα αυτό. Ο κανονισμός περιέχει διαφορετικές υποχρεώσεις για τα συστήματα τεχνητής νοημοσύνης, ανάλογα με τους κινδύνους και τις επιπτώσεις που μπορεί να επιφέρουν.

    Ο νέος κανονισμός περιλαμβάνει απαγορεύσεις για ορισμένες πρακτικές της τεχνητής νοημοσύνης που απειλούν τα δικαιώματα των πολιτών. Απαγορεύεται η χρήση συστημάτων βιομετρικής κατηγοριοποίησης που βασίζονται σε ευαίσθητα χαρακτηριστικά, καθώς και η συλλογή εικόνων προσώπων από το διαδίκτυο ή κάμερες παρακολούθησης για τη δημιουργία βάσεων δεδομένων προσώπων. Επίσης, απαγορεύεται η αναγνώριση συναισθημάτων στον χώρο εργασίας και στο σχολείο, η κοινωνική βαθμολόγηση, η προληπτική αστυνόμευση και η χρήση τεχνητής νοημοσύνης που εκμεταλλεύεται τα τρωτά σημεία των ανθρώπων.

    Ο κανονισμός θεσπίζει εξαιρέσεις για τις αρχές επιβολής του νόμου, επιτρέποντας τη χρήση συστημάτων βιομετρικής ταυτοποίησης μόνο υπό αυστηρές προϋποθέσεις και με άδεια από τις αρχές. Συγκεκριμένα, η βιομετρική ταυτοποίηση “σε πραγματικό χρόνο” επιτρέπεται μόνο για περιορισμένο χρόνο και γεωγραφική έκταση και σε περιπτώσεις όπως η αναζήτηση αγνοουμένων προσώπων ή η πρόληψη τρομοκρατικών επιθέσεων. Η χρήση συστημάτων βιομετρικής ταυτοποίησης “σε ύστερο χρόνο” θεωρείται υψηλού κινδύνου και απαιτεί δικαστική έγκριση.

    Ο κανονισμός θεσπίζει επίσης υποχρεώσεις για τα συστήματα υψηλού κινδύνου, τα οποία έχουν σημαντικές επιπτώσεις στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, τη δημοκρατία και το κράτος δικαίου. Τα συστήματα αυτά πρέπει να αξιολογούν και να ελαχιστοποιούν τους κινδύνους, να τηρούν αρχεία καταγραφής της χρήσης τους, να είναι διαφανή και ακριβή και να εποπτεύονται από ανθρώπους. Τα πολίτες θα έχουν το δικαίωμα να υποβάλλουν καταγγελίες για τα συστήματα τεχνητής νοημοσύνης και να λαμβάνουν εξηγήσεις για τις αποφάσεις που τους αφορούν.

    Οι συστηματικές απαιτήσεις για διαφάνεια αφορούν τα συστήματα τεχνητής νοημοσύνης γενικής χρήσης και τα μοντέλα που βασίζονται σε αυτά. Αναγνωρίζεται η ανάγκη συμμόρφωσης με τη νομοθεσία περί πνευματικής ιδιοκτησίας και δημοσιοποίησης του περιεχομένου που χρησιμοποιείται για την εκπαίδευση των μοντέλων. Για τα ισχυρότερα μοντέλα που μπορεί να προκαλέσουν συστημικούς κινδύνους, θα ισχύουν επιπλέον απαιτήσεις, όπως η αξιολόγηση, η εκτίμηση και ο περιορισμός των κινδύνων και η υποχρέωση υποβολής εκθέσεων για περιστατικά και δυσλειτουργίες. Επιπλέον, απαιτείται η σαφής σήμανση του οπτικοακουστικού υλικού που είναι τεχνητό ή παραποιημένο (“deepfakes”).

    Τέλος, ο νέος κανονισμός προβλέπει μέτρα για την υποστήριξη της καινοτομίας και των μικρών και μεσαίων επιχειρήσεων. Τα εθνικά κράτη θα πρέπει να δημιουργήσουν δοκιμαστήρια για τη δοκιμή συστημάτων τεχνητής νοημοσύνης σε πραγματικές συνθήκες, προσβάσιμα σε μικρές και μεσαίες επιχειρήσεις και νεοφυείς επιχειρήσεις, προκειμένου να μπορούν να αναπτύσσουν και να εκπαιδεύουν καινοτόμα μοντέλα τεχνητής νοημοσύνης προτού τα κυκλοφορήσουν στην αγορά.
    Πηγή

    Share:

    Σχετικά Άρθρα