Σύνταξη: tourismtoday.gr

Σε ισχύ είναι από χθες ο ευρωπαϊκός νόμος περί τεχνητής νοημοσύνης (AI), ο πρώτος ολοκληρωμένος στον κόσμο.

Ο νόμος διασφαλίζει ότι η τεχνητή νοημοσύνη που αναπτύχθηκε και χρησιμοποιείται στην Ευρωπαϊκή Ένωση (ΕΕ) είναι αξιόπιστη, με εγγυήσεις για την προστασία των θεμελιωδών δικαιωμάτων των ανθρώπων.
Αποσκοπεί στη δημιουργία μιας εναρμονισμένης εσωτερικής αγοράς για την τεχνητή νοημοσύνη στην ΕΕ, ενθαρρύνοντας την υιοθέτηση αυτής της τεχνολογίας και δημιουργώντας ένα υποστηρικτικό περιβάλλον για την καινοτομία και τις επενδύσεις.

Εισάγει έναν μακροπρόθεσμο ορισμό της τεχνητής νοημοσύνης, με βάση μια προσέγγιση που βασίζεται στην ασφάλεια των προϊόντων και στον κίνδυνο στην ΕΕ:

  • Ελάχιστος κίνδυνος: Τα περισσότερα συστήματα τεχνητής νοημοσύνης, όπως τα συστήματα συστάσεων με δυνατότητα τεχνητής νοημοσύνης και τα φίλτρα ανεπιθύμητης αλληλογραφίας, εμπίπτουν σε αυτήν την κατηγορία.
    Αυτά τα συστήματα δεν αντιμετωπίζουν υποχρεώσεις βάσει του νόμου περί τεχνητής νοημοσύνης λόγω του ελάχιστου κινδύνου για τα δικαιώματα και την ασφάλεια των πολιτών. Οι εταιρείες μπορούν να υιοθετήσουν εθελοντικά πρόσθετους κώδικες δεοντολογίας,
  • Ειδικός κίνδυνος διαφάνειας: Τα συστήματα τεχνητής νοημοσύνης όπως τα chatbots πρέπει να αποκαλύπτουν ξεκάθαρα στους χρήστες ότι αλληλεπιδρούν με ένα μηχάνημα . Ορισμένο περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη, συμπεριλαμβανομένων των απομιμήσεων σε βάθος, πρέπει να επισημαίνεται ως τέτοιο και οι χρήστες πρέπει να ενημερώνονται όταν χρησιμοποιούνται συστήματα βιομετρικής κατηγοριοποίησης ή αναγνώρισης συναισθημάτων.
    Επιπλέον, οι πάροχοι θα πρέπει να σχεδιάσουν συστήματα με τρόπο ώστε το περιεχόμενο συνθετικού ήχου, βίντεο, κειμένου και εικόνων να επισημαίνεται σε μορφή αναγνώσιμη από μηχανή και να ανιχνεύεται ως τεχνητά δημιουργημένο ή χειραγωγημένο.
  • Υψηλός κίνδυνος: Τα συστήματα τεχνητής νοημοσύνης που προσδιορίζονται ως υψηλού κινδύνου θα πρέπει να συμμορφώνονται με αυστηρές απαιτήσεις , συμπεριλαμβανομένων συστημάτων μετριασμού κινδύνου, υψηλής ποιότητας συνόλων δεδομένων, καταγραφής δραστηριότητας, λεπτομερούς τεκμηρίωσης, σαφείς πληροφορίες χρήστη, ανθρώπινη επίβλεψη και υψηλό επίπεδο ευρωστία, ακρίβεια και ασφάλεια στον κυβερνοχώρο. Τα ρυθμιστικά sandbox θα διευκολύνουν την υπεύθυνη καινοτομία και την ανάπτυξη συμβατών συστημάτων AI.
    Τέτοια συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου περιλαμβάνουν, για παράδειγμα, συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται για στρατολόγηση ή για να αξιολογηθεί εάν κάποιος δικαιούται να λάβει δάνειο ή να λειτουργεί αυτόνομα ρομπότ.
  • Απαράδεκτος κίνδυνος: Τα συστήματα τεχνητής νοημοσύνης που θεωρούνται σαφής απειλή για τα θεμελιώδη δικαιώματα των ανθρώπων θα απαγορευθούν. Αυτό περιλαμβάνει συστήματα ή εφαρμογές τεχνητής νοημοσύνης που χειραγωγούν την ανθρώπινη συμπεριφορά για να παρακάμψουν την ελεύθερη βούληση των χρηστών, όπως παιχνίδια που χρησιμοποιούν φωνητική βοήθεια που ενθαρρύνουν την επικίνδυνη συμπεριφορά ανηλίκων, συστήματα που επιτρέπουν «κοινωνική βαθμολόγηση» από κυβερνήσεις ή εταιρείες και ορισμένες εφαρμογές προγνωστικής αστυνόμευσης.
    Επιπλέον, ορισμένες χρήσεις βιομετρικών συστημάτων θα απαγορευθούν, για παράδειγμα συστήματα αναγνώρισης συναισθημάτων που χρησιμοποιούνται στο χώρο εργασίας και ορισμένα συστήματα για την κατηγοριοποίηση ατόμων ή απομακρυσμένη βιομετρική ταυτοποίηση σε πραγματικό χρόνο για σκοπούς επιβολής του νόμου σε δημόσια προσβάσιμους χώρους (με στενές εξαιρέσεις).

Για να συμπληρώσει αυτό το σύστημα, ο νόμος για την τεχνητή νοημοσύνη εισάγει επίσης κανόνες για τα λεγόμενα μοντέλα τεχνητής νοημοσύνης γενικής χρήσης , τα οποία είναι μοντέλα τεχνητής νοημοσύνης υψηλής ικανότητας που έχουν σχεδιαστεί για να εκτελούν μια μεγάλη ποικιλία εργασιών, όπως η δημιουργία κειμένου που μοιάζει με άνθρωπο.

Τα μοντέλα τεχνητής νοημοσύνης γενικής χρήσης χρησιμοποιούνται όλο και περισσότερο ως στοιχεία εφαρμογών τεχνητής νοημοσύνης. Ο νόμος για την τεχνητή νοημοσύνη θα διασφαλίσει τη διαφάνεια κατά μήκος της αλυσίδας αξίας και θα αντιμετωπίσει πιθανούς συστημικούς κινδύνους των πιο ικανών μοντέλων.

Εφαρμογή και επιβολή των κανόνων AI

Τα κράτη μέλη έχουν προθεσμία έως τις 2 Αυγούστου 2025 για να ορίσουν εθνικές αρμόδιες αρχές, οι οποίες θα επιβλέπουν την εφαρμογή των κανόνων για τα συστήματα τεχνητής νοημοσύνης και θα διεξάγουν δραστηριότητες εποπτείας της αγοράς.

Το Γραφείο τεχνητής νοημοσύνης της Επιτροπής θα είναι ο βασικός φορέας εφαρμογής του νόμου για την τεχνητή νοημοσύνη σε επίπεδο ΕΕ, καθώς και ο επιβολής των κανόνων για τα μοντέλα τεχνητής νοημοσύνης γενικής χρήσης.

Τρία συμβουλευτικά όργανα θα υποστηρίξουν την εφαρμογή των κανόνων. Το Ευρωπαϊκό Συμβούλιο Τεχνητής Νοημοσύνης θα διασφαλίσει την ομοιόμορφη εφαρμογή του νόμου για την τεχνητή νοημοσύνη σε όλα τα κράτη μέλη της ΕΕ και θα λειτουργεί ως ο κύριος φορέας συνεργασίας μεταξύ της Επιτροπής και των κρατών μελών.
Μια επιστημονική ομάδα ανεξάρτητων εμπειρογνωμόνων θα προσφέρει τεχνικές συμβουλές και στοιχεία σχετικά με την επιβολή.

Συγκεκριμένα, αυτό το πάνελ μπορεί να εκδίδει ειδοποιήσεις στο Γραφείο AI σχετικά με κινδύνους που σχετίζονται με μοντέλα τεχνητής νοημοσύνης γενικής χρήσης. Το Γραφείο Τεχνητής Νοημοσύνης μπορεί επίσης να λάβει καθοδήγηση από ένα συμβουλευτικό φόρουμ , που αποτελείται από ποικίλα ενδιαφερόμενα μέρη.

Οι εταιρείες που δεν συμμορφώνονται με τους κανόνες θα τιμωρούνται. Τα πρόστιμα θα μπορούσαν να ανέλθουν έως και το 7% του παγκόσμιου ετήσιου κύκλου εργασιών για παραβιάσεις απαγορευμένων εφαρμογών τεχνητής νοημοσύνης, έως και 3% για παραβάσεις άλλων υποχρεώσεων και έως και 1,5% για την παροχή εσφαλμένων πληροφοριών.

Η πλειοψηφία των κανόνων του νόμου για την τεχνητή νοημοσύνη θα αρχίσει να εφαρμόζεται στις 2 Αυγούστου 2026.

Ωστόσο, οι απαγορεύσεις συστημάτων τεχνητής νοημοσύνης που θεωρείται ότι παρουσιάζουν απαράδεκτο κίνδυνο θα ισχύουν ήδη μετά από έξι μήνες, ενώ οι κανόνες για τα λεγόμενα μοντέλα τεχνητής νοημοσύνης γενικού σκοπού θα ισχύουν μετά 12 μήνες.

Για να γεφυρωθεί η μεταβατική περίοδος πριν από την πλήρη εφαρμογή, η Επιτροπή δρομολόγησε το Σύμφωνο AI.
Αυτή η πρωτοβουλία καλεί τους προγραμματιστές τεχνητής νοημοσύνης να υιοθετήσουν οικειοθελώς βασικές υποχρεώσεις του νόμου περί τεχνητής νοημοσύνης πριν από τις νόμιμες προθεσμίες.

Η Επιτροπή αναπτύσσει επίσης κατευθυντήριες γραμμές για τον καθορισμό και τη λεπτομέρεια του τρόπου εφαρμογής του νόμου περί τεχνητής νοημοσύνης και διευκολύνοντας τα συνρυθμιστικά μέσα όπως πρότυπα και κώδικες πρακτικής.

Παράλληλα, άνοιξε πρόσκληση εκδήλωσης ενδιαφέροντος για συμμετοχή στην εκπόνηση του πρώτου Κώδικα Πρακτικής ΤΝ γενικής χρήσης, καθώς και μια διαβούλευση πολλών ενδιαφερομένων που δίνει την ευκαιρία σε όλους τους ενδιαφερόμενους να πουν τη γνώμη τους για τον πρώτο Κώδικα Πρακτικής σύμφωνα με ο νόμος AI.