Ο Λευκός Οίκος αποκάλυψε το λεγόμενο «AI Bill of Rights», το οποίο στοχεύει στη θέσπιση αρχών γύρω από τους τρόπους με τους οποίους θα πρέπει να αναπτύσσονται οι αλγόριθμοι τεχνητής νοημοσύνης και τα σχετικά προστατευτικά «κιγκλιδώματα».
Σε πέντε βασικά σημεία -που έχουν αναπτυχθεί με σχόλια από το κοινό, εταιρείες όπως η Microsoft και η Palantir και ομάδες για τα ανθρώπινα δικαιώματα και την τεχνητή νοημοσύνη- το έγγραφο καθορίζει τις αρχές ασφάλειας, διαφάνειας και απορρήτου που το αμερικανικό Γραφείο Πολιτικής Επιστήμης και Τεχνολογίας (OSTP) υποστηρίζει ότι θα οδηγήσουν σε καλύτερα αποτελέσματα, μετριάζοντας τις επιβλαβείς συνέπειες του AI στην πραγματική ζωή.
Το «AI Bill of Rights» επιβάλλει στα συστήματα τεχνητής νοημοσύνης να αποδεικνύονται ασφαλή και αποτελεσματικά μέσω δοκιμών και διαβουλεύσεων με τα ενδιαφερόμενα μέρη, εκτός από τη συνεχή παρακολούθηση τους όταν εντάσσονται σε διαδικασίες παραγωγής. Παράλληλα, ανακαλεί ρητά την αλγοριθμική διάκριση, λέγοντας ότι τα συστήματα θα πρέπει να σχεδιάζονται για να προστατεύουν τόσο τις κοινότητες όσο και τα άτομα από τη μεροληπτική λήψη αποφάσεων. Προτείνει, επίσης, ότι οι χρήστες θα πρέπει να μπορούν να εξαιρεθούν από τις αλληλεπιδράσεις μαζί τους, εάν το επιλέξουν.
Πέρα από αυτά, το προτεινόμενο σχέδιο του Λευκού Οίκου υποστηρίζει ότι οι χρήστες θα πρέπει να έχουν τον έλεγχο του τρόπου χρήσης των δεδομένων τους -τόσο στη λήψη αποφάσεων όσο και στην ανάπτυξη ενός συστήματος τεχνητής νοημοσύνης- και να ενημερώνονται σε απλή γλώσσα για το πότε χρησιμοποιείται ένα αυτοματοποιημένο σύστημα.
Σημειώνεται πως η υιοθέτηση της διακήρυξης είναι εντελώς εθελοντική. Ενώ ο Λευκός Οίκος επιδιώκει να «ηγηθεί με το παράδειγμα του» και να ευθυγραμμιστούν οι ομοσπονδιακές υπηρεσίες, οι ιδιωτικές εταιρείες δεν είναι αναγκασμένες να την υιοθετήσουν.
Παράλληλα με την έκδοση της Διακήρυξης των Δικαιωμάτων του AI, ο Λευκός Οίκος γνωστοποίησε ότι ορισμένες υπηρεσίες, συμπεριλαμβανομένου του Υπουργείου Υγείας και του Υπουργείου Παιδείας, θα δημοσιεύσουν οδηγίες τους επόμενους μήνες, για να περιορίσουν τη χρήση επιβλαβών ή επικίνδυνων αλγοριθμικών τεχνολογιών.
Νέοι κανόνες περί ευθύνης του AI και στην Ευρώπη
Υπενθυμίζεται πως, στα τέλη Σεπτεμβρίου, η Ευρωπαϊκή Επιτροπή ενέκρινε δύο προτάσεις με τις οποίες προσαρμόζονται οι κανόνες περί ευθύνης στην ψηφιακή εποχή, την κυκλική οικονομία και στον αντίκτυπο των παγκόσμιων αξιακών αλυσίδων. Μεταξύ άλλων, η Επιτροπή προτείνει για πρώτη φορά στοχευμένη εναρμόνιση των εθνικών κανόνων περί ευθύνης για την τεχνητή νοημοσύνη (ΤΝ), ώστε να διευκολυνθεί η αποζημίωση των θυμάτων ζημιών που σχετίζονται με την ΤΝ.
Σύμφωνα με τους στόχους της Λευκής Βίβλου για την ΤΝ και με την πρόταση που υπέβαλε η Επιτροπή το 2021 για μια νομοθετική πράξη για την τεχνητή νοημοσύνη, όπου καθορίζεται ένα πλαίσιο για την αριστεία και την εμπιστοσύνη στην ΤΝ, οι νέοι κανόνες θα διασφαλίζουν ότι τα θύματα ωφελούνται από τα ίδια πρότυπα προστασίας όταν ζημιώνονται από προϊόντα ή υπηρεσίες τεχνητής νοημοσύνης, με εκείνα που ισχύουν όταν η ζημία προκαλείται υπό οποιεσδήποτε άλλες περιστάσεις.
Σκοπός της οδηγίας περί ευθύνης για την ΤΝ είναι να ορίσει ενιαίους κανόνες για την πρόσβαση σε πληροφορίες και για τη μείωση του βάρους της απόδειξης σε σχέση με ζημίες που προκαλούνται από συστήματα τεχνητής νοημοσύνης, ώστε να καθιερωθεί η ευρύτερη προστασία για τα θύματα (είτε πρόκειται για άτομα είτε για επιχειρήσεις) και να ενισχυθεί ο τομέας της ΤΝ χάρη στις αυξημένες εγγυήσεις. Η οδηγία θα εναρμονίσει ορισμένους κανόνες για αξιώσεις που δεν εμπίπτουν στο πεδίο εφαρμογής της οδηγίας για την ευθύνη λόγω ελαττωματικών προϊόντων, σε περιπτώσεις στις οποίες η ζημία προκαλείται από παράπτωμα. Αυτό καλύπτει π.χ. παραβιάσεις της ιδιωτικής ζωής ή ζημίες που προκαλούνται από ελλείψεις στον τομέα της ασφάλειας. Οι νέοι κανόνες θα διευκολύνουν την αποζημίωση στην περίπτωση που κάποιος υπέστη διακρίσεις σε διαδικασία πρόσληψης που γίνεται με τη χρήση τεχνολογίας ΤΝ.
Η οδηγία απλουστεύει τη νομική διαδικασία για τα θύματα όταν πρέπει να αποδείξουν ότι το πταίσμα κάποιου επέφερε ζημία/βλάβη, καθώς καθιερώνει δύο κύρια στοιχεία: πρώτον, σε περιπτώσεις όπου έχει διαπιστωθεί σχετικό πταίσμα και η αιτιώδης συνάφεια με τις επιδόσεις της τεχνητής νοημοσύνης φαίνεται ευλόγως πιθανή, το λεγόμενο «τεκμήριο αιτιώδους συνάφειας» θα καλύψει τις δυσκολίες που αντιμετωπίζουν τα θύματα όταν πρέπει να εξηγήσουν λεπτομερώς τον τρόπο με τον οποίο προκλήθηκε η ζημία από συγκεκριμένο σφάλμα ή παράλειψη, πράγμα το οποίο μπορεί να είναι ιδιαίτερα δύσκολο όταν πρόκειται για την κατανόηση και τη διερεύνηση περίπλοκων συστημάτων ΤΝ· δεύτερον, τα θύματα θα έχουν στη διάθεσή τους περισσότερα εργαλεία για να επιδιώξουν ένδικη προσφυγή, καθώς καθιερώνεται το δικαίωμα πρόσβασης σε αποδεικτικά στοιχεία που κατέχουν οι εταιρείες και οι προμηθευτές, σε περιπτώσεις όπου εμπλέκεται τεχνητή νοημοσύνη υψηλού κινδύνου.