Η ταχεία πρόοδος στην τεχνητή νοημοσύνη, αν δεν ελεγχθεί, θα μπορούσε σύντομα να οδηγήσει σε κακόβουλες νέες μορφές ψευδών ειδήσεων, επιθέσεων στον κυβερνοχώρο και επιθέσεων στη φυσική υποδομή του πλανήτη, προειδοποίησε μια ομάδα εμπειρογνωμόνων.
Ωστόσο, ενώ επισήμανε τον κίνδυνο επικείμενων απειλών, η ομάδα, αποτελούμενη από ερευνητές του AI και ομάδες πολιτικών ελευθεριών, δεν πρότεινε δύσκολες προτάσεις για το πώς να αποτραπεί η κακή χρήση μιας από τις πιο ισχυρές νέες τεχνολογίες στον κόσμο.
Σε μια νέα έκθεση που ονομάζεται «Η κακόβουλη χρήση της τεχνητής νοημοσύνης», οι συγγραφείς προειδοποιούν ότι αν οι εξελίξεις στο AI συνεχίσουν με τον πρόσφατο ρυθμό τους, η τεχνολογία σύντομα θα γίνει τόσο ισχυρή ώστε θα μπορούσε να ξεπεράσει πολλούς αμυντικούς μηχανισμούς που ενσωματώνονται στα σημερινά ψηφιακά και φυσικά συστήματα .
«Αυτό που μας εντυπωσίασε πολλούς από εμάς ήταν η ποσότητα όσων συνέβησαν τα τελευταία πέντε χρόνια – αν αυτό συνεχιστεί, βλέπουμε την πιθανότητα δημιουργίας πολύ επικίνδυνων πραγμάτων», δήλωσε ο Τζακ Κλαρκ, επικεφαλής της πολιτικής στο OpenAI, εταιρεία τεχνητής νοημοσύνης με έδρα στο Σαν Φρανσίσκο, υποστηρικτές της οποίας περιλαμβάνουν τον Έλον Μασκ και τον Πίτερ Θιλ.
Το AI θα διευκολύνει τους επιτιθέμενους μειώνοντας το κόστος κατασκευής νέων όπλων στον κυβερνοχώρο και καθιστώντας δυνατή τη δημιουργία ακριβέστερων στοχευμένων επιθέσεων, προειδοποιούν οι ειδικοί. Στον τομέα των όπλων του κυβερνοχώρου, αυτό μπορεί να οδηγήσει σε πολύ πιο αποτελεσματικές επιθέσεις «phishing», με εξατομικευμένες επιθέσεις για κάθε στόχο.
Η έκθεση προειδοποιεί επίσης ότι τα αεροσκάφη και τα μηχανοκίνητα οχήματα θα μπορούσαν να τεθούν υπό έλεγχο και να χρησιμοποιηθούν ως όπλα και ότι το κακόβουλο AI θα μπορούσε να χρησιμοποιηθεί για να οργανώσει σμήνη drones. Εν τω μεταξύ, τα πολιτικά συστήματα θα μπορούσαν να χακαριστούν χρησιμοποιώντας εργαλεία που αναπτύχθηκαν για διαδικτυακή διαφήμιση και εμπόριο για να χειραγωγούν τους ψηφοφόρους, εκμεταλλευόμενοι την «βελτιωμένη ικανότητα ανάλυσης των ανθρώπινων συμπεριφορών, διαθέσεων και πεποιθήσεων με βάση τα διαθέσιμα δεδομένα».
Η ομάδα, η οποία περιλαμβάνει ερευνητές από το Πανεπιστήμιο της Οξφόρδης και το Ίδρυμα Electronic Frontier Foundation, καλείται να ζητήσει ευρύτερο δημόσιο διάλογο σχετικά με τις απειλές του AI από τις πρώτες συζητήσεις γύρω από την τεχνολογία επεξεργασίας γονιδίων Crispr, είπε ο κ. Κλαρκ. Ωστόσο, παρότι παροτρύνουν τους ερευνητές να σκεφτούν για τη δυνητική «διπλής χρήσης» φύση των τεχνολογιών πάνω στις οποίες εργάζονται – και καλούν σε περισσότερες συζητήσεις με τις κυβερνήσεις σχετικά με τα θέματα – δεν προσφέρουν συγκεκριμένες συστάσεις για δράση.
Σε ένα παράδειγμα για το πώς οι ερευνητές θα μπορούσαν να αρχίσουν να περιορίζουν το έργο τους για να λάβουν υπόψη τους πιθανούς κινδύνους, το OpenAI πέρυσι περιόρισε την κυκλοφορία ενός αισθητήριου νευρώνα χωρίς επίβλεψη – ενός αλγόριθμου που εκπαιδεύτηκε για να κατανοήσει το συναίσθημα διαβάζοντας σχόλια στο Amazon. Η ομάδα αποφάσισε να διατηρήσει απόρρητο το γλωσσικό μοντέλο που είχε αναπτύξει για σύστημα, για να αποτρέψει την κακή χρήση του αλγορίθμου με τη δημιουργία ενός κατακλυσμού ψεύτικων αξιολογήσεων.