Image default
NEWS

Η Facebook πιστεύει ότι η τεχνητή νοημοσύνη θα «καθαρίσει» την πλατφόρμα της – Οι μηχανικοί της αμφιβάλλουν

Στελέχη της Facebook Inc. υποστήριζαν εδώ και καιρό ότι η τεχνητή νοημοσύνη θα «θεράπευε» χρόνια προβλήματα, κρατώντας μακριά από την πλατφόρμα ό,τι προωθεί τη ρητορική μίσους, την υπερβολική βία, καθώς και τους ανήλικους χρήστες.

Κάτι τέτοιο, όμως, αποδεικνύεται αρκετά πιο δύσκολο από όσο νομίζουν, όπως προκύπτει από έγγραφα της εταιρείας που εξέτασε η Wall Street Journal. Η τεχνητή νοημοσύνη της Facebook δεν μπορεί να εντοπίσει με επιτυχία βιντεοπαιχνίδια με πυροβολισμούς, ρατσιστικά αστεία και ακόμη, όπως φάνηκε και από ένα συμβάν που προβλημάτιζε για εβδομάδες την εταιρεία, τη διαφορά μεταξύ κοκορομαχίας και τροχαίων ατυχημάτων.

Όσον αφορά τη ρητορική μίσους, όπως δείχνουν τα έγγραφα, οι εργαζόμενοι στη Facebook εκτίμησαν ότι η εταιρεία αφαιρεί μόνο ένα μονοψήφιο ποσοστό των δημοσιεύσεων που παραβιάζουν τους κανόνες της. Όταν, όμως, οι αλγόριθμοι του Facebook δεν είναι αποδοτικοί στο να εντοπίζουν το εν λόγω περιεχόμενο, οι δημοσιεύσεις αυτές δεν εμφανίζονται τόσο συχνά στους χρήστες και οι λογαριασμοί που τις δημοσίευσαν παραμένουν ατιμώρητοι.

Τα έγγραφα που εξετάστηκαν από τη Journal δείχνουν, επίσης, ότι η Facebook, πριν από δύο χρόνια, μείωσε τον αριθμό των αναφορών που μπορούν να κάνουν οι χρήστες για δημοσιεύσεις που παραβίαζαν τους κανόνες της , καθώς και τον χρόνο που θα έπρεπε να αφιερώνουν οι υπάλληλοί της στο να ελέγχουν τις εν λόγω αναφορές. Συνεπώς, η εταιρεία ξεκίνησε να εξαρτάται περισσότερο από τη τεχνητή νοημοσύνη.

Ωστόσο, όσοι ασχολούνται με την αφαίρεση του προσβλητικού και επικίνδυνου περιεχομένου από το Facebook, αναγνωρίζουν ότι η εταιρεία δεν μπορεί να το εντοπίσει με μεγάλη αξιοπιστία.

«Το πρόβλημα είναι ότι δεν έχουμε και, πιθανότατα, δεν θα έχουμε ποτέ ένα μοντέλο που να εντοπίζει την πλειονότητα των δημοσιεύσεων αυτών», έγραψε ανώτερος μηχανικός και ερευνητής σε έγγραφο, στα μέσα του 2019.

Εκτίμησε, ακόμη, ότι τα αυτοματοποιημένα συστήματα της εταιρείας αφαίρεσαν δημοσιεύσεις ρητορικής μίσους με μόνο 2% προβολές. «Πρόσφατες εκτιμήσεις υποδηλώνουν ότι, εάν δεν υπάρξει κάποια σημαντική αλλαγή στη στρατηγική της εταιρείας, θα είναι πολύ δύσκολο να βελτιωθεί αυτή η κατάσταση περισσότερο από 10-20%, σε βραχυμεσοπρόθεσμο πλάνο», έγραψε ίδιος.

Αυτόν τον Μάρτιο, ομάδα εργαζομένων στη Facebook ανακοίνωσε ότι τα συστήματα αφαιρούσαν δημοσιεύσεις που αποτελούσαν το 3% με 5% των δημοσιεύσεων ρητορικής μίσους και το 0,6% των συνολικών δημοσιεύσεων που παραβίαζαν τις πολιτικές της εταιρείας σχετικά με τη βία και την υποδαύλιση.

Ο εκπρόσωπος Τύπου της Facebook, Άντι Στόουν, είπε ότι αυτά τα ποσοστά αφορούσαν αποκλειστικά τις δημοσιεύσεις που αφαιρέθηκαν μέσω χρήσης της τεχνητής νοημοσύνης και όχι τις ενέργειες που προέβη η ίδια η εταιρεία, για να αντιμετωπίσει το πρόβλημα (π.χ. εμφάνιση των δημοσιεύσεων χαμηλότερα στο χρονολόγιο). Η Facebook εκτιμά ότι η χρήση της τεχνητής νοημοσύνης έχει μειώσει αισθητά τη συχνότητα εμφάνισης περιεχομένου που παραβιάζει τις πολιτικές της.

Τα στατιστικά στοιχεία, ωστόσο, έρχονται σε πλήρη αντίθεση με την εμπιστοσύνη που δείχνουν στην τεχνητή νοημοσύνη τα κορυφαία στελέχη της Facebook. Ένα από τα στελέχη αυτά είναι ο CEO της εταιρείας, Μαρκ Ζάκερμπεργκ, ο οποίος, δήλωσε ότι το Facebook θα χρησιμοποιούσε την τεχνητή νοημοσύνη για να εντοπίσει «τη συντριπτική πλειοψηφία προβληματικού περιεχομένου», μέχρι το τέλος του 2019.

Η εταιρεία, συχνά, υποστηρίζει ότι σχεδόν όλες οι δημοσιεύσεις ρητορικής μίσους στο Facebook εντοπίστηκαν μέσω της χρήσης της τεχνητής νοημοσύνης. Ονομάζει αυτό το ποσοστό προληπτικό ποσοστό ανίχνευσης, το οποίο είχε φτάσει το 98%, νωρίτερα, τη φετινή χρονιά.

Οι ομάδες πολιτικών δικαιωμάτων και οι ακαδημαϊκοί διατηρούν, εδώ και καιρό, τις επιφυλάξεις τους σχετικά με την πρόοδο και την αποτελεσματικότητα της χρήσης τεχνητής νοημοσύνης, υποστηρίζοντας ότι έρχεται συχνά σε αντίθεση με όσα δηλώνουν οι χρήστες ή με τις δικές τους μελέτες.

Σε συνέντευξή του, ο υπεύθυνος πιστότητας της Facebook, Γκάι Ρόζεν, δήλωσε ότι ήταν περισσότερο σημαντικό να εξετασθούν κι άλλα στοιχεία, τα οποία θα αποδεικνύουν ότι οι δημοσιεύσεις ρητορικής μίσους στην πλατφόρμα αποτελούν ένα μόνο μικρό ποσοστό των συνολικών δημοσιεύσεων. Το Facebook εκτιμά ότι μόνο οι πέντε από κάθε 10.000 δημοσιεύσεις περιείχαν ρητορική μίσους, σημειώνοντας, έτσι, βελτίωση από τις περίπου 10 στις 10.000, στα μέσα του 2020, σύμφωνα με την τελευταία δημόσια έκθεση για τον τρόπο με τον οποίο εφαρμόζει τις πολιτικές της η εταιρεία, για το δεύτερο τρίμηνο του τρέχοντος έτους.

Ο Στόουν, εκπρόσωπος Tύπου της Facebook, ανέφερε ότι τα στελέχη της εταιρείας έχουν τονίσει τη σημασία που έχει η συχνότητα με την οποία εμφανίζονται οι δημοσιεύσεις αυτές, με τη τεχνητή νοημοσύνη να παίζει καθοριστικό ρόλο σε αυτό.

Ο Ρόζεν προσέθεσε, ακόμη, ότι παρόλο που τα έγγραφα που εξετάστηκαν από τη Journal ήταν παλιά, αποδείκνυαν την ιδεολογία της εταιρείας για τη χρήση της τεχνητής νοημοσύνης στον έλεγχο του περιεχομένου.

Τον περασμένο μήνα, η εταιρεία εκτίμησε ότι τα συστήματα τεχνητής νοημοσύνης βελτιώνονταν στην «αφαίρεση προληπτικού περιεχομένου που παραβιάζει τους κανόνες μας για τη ρητορική μίσους» και ανακοίνωσε ότι αφαιρεί κατά 15 φορές περισσότερο το περιεχόμενο σήμερα σε σχέση με το 2017.

Η σειρά της Journal, βασισμένη σε έγγραφα και σε συνεντεύξεις από νυν και πρώην υπαλλήλους, περιγράφει πώς οι κανόνες της εταιρείας ευνοούν τις ελίτ και πώς οι αλγόριθμοί της προάγουν τη διχόνοια. Αναφέρει, ακόμη, ότι η εταιρεία γνωρίζει για τα καρτέλ ναρκωτικών και το ότι όσοι ασχολούνται με την εμπορία ανθρώπων χρησιμοποιούν τις υπηρεσίες της ανοιχτά, ενώ, παράλληλα, στα εν λόγω έγγραφα αναφέρεται, μεταξύ άλλων, και ο τρόπος που χρησιμοποιείται το Facebook από ακτιβιστές κατά των εμβολίων. Άρθρο σχετικά με τις επιπτώσεις του Instagram στην ψυχική υγεία των εφήβων κοριτσιών κινητοποίησε, στα τέλη Σεπτεμβρίου, διαδικασίες ακρόασης από τη Γερουσία.

Σύμφωνα με τα έγγραφα, δημοσιεύσεις που η τεχνητή νοημοσύνη θα έπρεπε να έχει εντοπίσει, αλλά δεν το κατάφερε, αφορούν βίντεο που δείχνουν σε κοντινό πλάνο κάποιον να πυροβολεί και βίντεο από τροχαία ατυχήματα με «διαμελισμό και ορατά εσωτερικά μέρη του σώματος». Άλλες παραβιάσεις των πολιτικών της Facebook, που δεν εντοπίσθηκαν από τη τεχνητή νοημοσύνη, αφορούσαν απειλές εναντίον παιδιών που είναι τρανς.

Η Facebook εκτιμά ότι, από το 2016, έχει δαπανήσει περίπου 13 δισεκατομμύρια δολάρια για «την ασφάλεια και την προστασία», ή περίπου το 4% των εσόδων της, εκείνη την εποχή. Ο Ρόζεν προσέθεσε ότι, το 2016, το σύστημα εποπτείας περιεχομένου της Facebook βασιζόταν σε μεγάλο βαθμό στα παράπονα των χρηστών και ότι η εταιρεία έκτοτε έχει δημιουργήσει εργαλεία τεχνητής νοημοσύνης, ώστε να μπορεί να εντοπίζει το ανάρμοστο περιεχόμενο.

Το 2018, ο Ζακερμπεργκ είπε στην επιτροπή της Γερουσίας ότι, σε πέντε με δέκα χρόνια από τότε, το Facebook θα χρησιμοποιούσε εργαλεία τεχνητής νοημοσύνης για τον προληπτικό εντοπισμό των περισσότερων δημοσιεύσεων ρητορικής μίσους. «Μακροπρόθεσμα, η δημιουργία εργαλείων τεχνητής νοημοσύνης θα αποτελεί έναν τρόπο για τον εντοπισμό και την αφαίρεση του μεγαλύτερου μέρους αυτού του περιεχομένου», προσέθεσε τότε.

Τον Ιούλιο του 2020, είπε στο Κογκρέσο: «Έχουμε δημιουργήσει αρκετά εξελιγμένα συστήματα για την καταπολέμηση της ρητορικής μίσους».

Στέλεχος της Facebook κατέθεσε σε ακρόαση της Γερουσίας, στα τέλη Σεπτεμβρίου, ότι η εταιρεία χρησιμοποιεί τεχνητή νοημοσύνη για να απομακρύνει τα παιδιά κάτω των 13 ετών από το Instagram.

«Αρκετά αφελείς»

Τα συστήματα τεχνητής νοημοσύνης της Facebook εξετάζουν δισεκατομμύρια δημοσιεύσεις, ψάχνοντας στοιχεία που ορίζονται από την εταιρεία ως περιεχόμενο που παραβιάζει τους κανόνες της. Οι αλγόριθμοι διαλογής, που ονομάζονται ταξινομητές, αποτελούν το θεμέλιο για τον εντοπισμό του εν λόγω περιεχομένου.

Η δημιουργία αυτών των ταξινομητών είναι μία διαδικασία περίπλοκη, για την οποία απαιτείται σκληρή δουλειά και κατά την οποία καθίσταται αναγκαία η ενασχόληση πολλών ατόμων που θα εντοπίζουν τις δημοσιεύσεις που παραβιάζουν τους κανόνες. Στη συνέχεια, οι μηχανικοί θα παίρνουν όσες δημοσιεύσεις έχουν εντοπιστεί και θα εκπαιδεύουν τα συστήματά τους, ώστε να εντοπίζουν, μελλοντικά, παρόμοιες δημοσιεύσεις.

Οι αλγόριθμοι της Facebook μπορούν να αφαιρέσουν αυτόματα δημοσιεύσεις ρητορικής μίσους, όταν καταλάβουν ότι η ανάρτηση παραβιάζει τις πολιτικές της εταιρείας, ή μπορούν να κατατάξουν χαμηλότερα στο χρονολόγιο τις πιο αμφισβητήσιμες δημοσιεύσεις, ώστε να περιορίσουν τη διάδοσή τους.

Σε ορισμένους τομείς, όπως π.χ. με τα ανεπιθύμητα μηνύματα, οι ταξινομητές της Facebook είναι σχετικά αποτελεσματικοί. Στους πιο ευαίσθητους και αμφιλεγόμενους τομείς, όμως, ειδικά όταν οι κανόνες της Facebook είναι περίπλοκοι ή αφορούν πολιτισμικό περιεχόμενο, η μέθοδος αυτή δεν φέρει τα επιθυμητά αποτελέσματα, σύμφωνα με έγγραφα και όσους ασχολούνται με το θέμα.

«Οι ταξινομητές είναι σαν μαθητές δημοτικού και χρειάζονται δασκάλους (αναθεωρητές), ώστε να εξελιχθούν σε κατόχους διδακτορικού», έγραψε ένας μηχανικός στη Facebook σε συζήτηση σχετικά με το κόστος της ρητορικής μίσους στην εσωτερική πλατφόρμα των εργαζομένων του Facebook, τον Αύγουστο του 2019. Σε σχέση με την επιτυχία των εν λόγω ταξινομητών, ο μηχανικός έγραψε, «είναι ακόμα αρκετά αφελείς».

Για παράδειγμα, σύμφωνα με τα έγγραφα, τα συστήματα τεχνητής νοημοσύνης χαρακτήρισαν ένα βίντεο πλυσίματος αυτοκινήτου ως βίντεο με πυροβολισμούς, ενώ, σε μία άλλη περίπτωση, μπέρδεψαν ένα βίντεο με πυροβολισμούς για τροχαίο ατύχημα.

Το 2019, σύμφωνα με έγγραφα που εξετάστηκαν από τη Journal, η Facebook εισήγαγε «ελέγχους στις δαπάνες με σκοπό τον περιορισμό των δημοσιεύσεων ρητορικής μίσους», ώστε να εξοικονομήσει χρήματα που δίνει στο ανθρώπινο δυναμικό της για τον έλεγχο των δημοσιεύσεων αυτών. Ο έλεγχος δημοσιεύσεων ρητορικής μίσους από το ανθρώπινο προσωπικό κόστιζε 2 εκατομμύρια δολάρια την εβδομάδα ή 104 εκατομμύρια δολάρια ετησίως, σύμφωνα με ένα εσωτερικό έγγραφο, που αναφέρεται στον προγραμματισμό για το πρώτο εξάμηνο του έτους.

«Σε ό,τι αφορά τον συνολικό μας προϋπολογισμό, η ρητορική μίσους αποτελεί, σαφώς, το πιο ακριβό πρόβλημα», έγραψε διευθυντής σε ξεχωριστό έγγραφο, δηλώνοντας ότι τα έξοδα της εταιρείας για τον περιορισμό των προσβολών και η δυσφήμιση των μειονοτικών ομάδων, που απαγορεύονται από τους κανόνες της Facebook, «αποτελούν σημαντικά έξοδα».

Ο Στόουν προσέθεσε ότι τα κεφάλαια μετατοπίσθηκαν, ώστε να προσλάβουν περισσότερα άτομα, για να εκπαιδεύσουν τους αλγόριθμους της Facebook και ότι ο συνολικός προϋπολογισμός παρέμεινε σταθερός.

Περίπου το 75% από τα έξοδα προήλθε από την πρόσληψη ατόμων, για να εξετάζουν τις αναφορές στις οποίες έχουν προβεί χρήστες του Facebook, η πλειοψηφία των οποίων θεωρήθηκε, μετά από έλεγχο, ότι δεν αφορούσαν δημοσιεύσεις ρητορικής μίσους. Το 2019, πέραν από τη μείωση του χρόνου για τον έλεγχο των δημοσιεύσεων, η εταιρεία άρχισε να χρησιμοποιεί έναν αλγόριθμο, ο οποίος παράβλεπε αρκετές αναφορές από χρήστες, καθώς το σύστημα θεώρησε απίθανο οι αναφορές αυτές να αφορούν παραβιάσεις.

Αυτές οι κινήσεις της Facebook συνέβαλαν στην ενίσχυση του ποσοστού προληπτικής ανίχνευσης της εταιρείας, πράγμα που σημαίνει ότι μεγάλο ποσοστό του περιεχομένου που αφαιρέθηκε είχε εντοπιστεί από τα συστήματα τεχνητής νοημοσύνης – ποσοστό που τώρα ανέρχεται σε σχεδόν 98%. Τον Δεκέμβριο του 2017, το 24% της ρητορικής μίσους που αφαιρέθηκε από την πλατφόρμα εντοπίστηκε από συστήματα τεχνητής νοημοσύνης, και το υπόλοιπο από αναφορές χρηστών του Facebook, σύμφωνα με την τριμηνιαία δημόσια έκθεση της Facebook σχετικά με τον τρόπο με τον οποίο εφαρμόζει τις πολιτικές της.

Η απόδοση των αυτοματοποιημένων συστημάτων της Facebook δείχνει πόσο δύσκολο είναι και για την ίδια αλλά και για άλλες εταιρείες τεχνολογίας να δημιουργήσουν συστήματα που ανιχνεύουν αξιόπιστα το περιεχόμενο που παραβιάζει τους κανόνες τους.

«Αυτό είναι ένα από τα πιο δύσκολα προβλήματα στην νοημοσύνη των μηχανών», δήλωσε ο Τζ. Νάθαν Ματίας, επίκουρος καθηγητής στο Πανεπιστήμιο Κορνέλ.  «Αποτελεί, ακόμη, έναν τομέα που τόσες πολλές εταιρείες και υπεύθυνοι χάραξης πολιτικής αποφάσισαν ότι θα αποτελούσε τη λύση – χωρίς, όμως, να έχουν κατανοήσει το πρόβλημα».

Εμπειρία χρήστη

Η ασυμφωνία, όμως, που υπάρχει μεταξύ των όσων ισχυρίζεται η Facebook για την αποτελεσματικότητα της τεχνητής νοημοσύνης και τα όσα δηλώνουν οι ίδιοι οι χρήστες έχει προβληματίσει εδώ και καιρό τους ερευνητές, καθώς και άλλους σημαντικούς χρήστες της πλατφόρμας.

Το 2016, η ποπ σταρ, Σελίνα Γκόμεζ, πήγε στα κεντρικά γραφεία της Facebook, στο Μένλο Παρκ, για να φωτογραφηθεί με τον Ζάκερμπεργκ και τη γενική διευθύντρια της Facebook, Σέριλ Σάντμπεργκ, ώστε να γιορτάσουν το γεγονός ότι ο λογαριασμός της στο Instagram είναι αυτός με τους περισσότερους ακολούθους. Λίγο αργότερα, εξεπλάγην όταν διάβασε ένα σχόλιο σε μία από τις αναρτήσεις της στο Instagram που έγραφε: «Άντε πνίξου», σύμφωνα με τον εκπρόσωπό της.

Ανησυχούσε όλο και περισσότερο για τη διάδοση της ρητορικής μίσους μέσω των εν λόγω μέσων κοινωνικής δικτύωσης. Έτσι, τον Σεπτέμβριο του 2020, έστειλε ένα μήνυμα μέσω Instagram στον Ζάκερμπεργκ και τη Σάντμπεργκ, το οποίο αργότερα δημοσίευσε και στον λογαριασμό της, και στο οποίο ανέφερε ότι η εταιρεία αντιμετώπιζε «σοβαρό πρόβλημα» με θέματα μίσους, παραπληροφόρησης, ρατσισμού και φανατισμού.

Η Γκόμεζ, έπειτα, ρώτησε μέσω email γιατί το Facebook επέτρεψε σε ομάδες μίσους να ευδοκιμήσουν στον ιστότοπό του. Η Σάντμπεργκ απάντησε ότι τα συστήματα τεχνητής νοημοσύνης της Facebook εντόπισαν το 91% των 1,5 εκατομμυρίων αναρτήσεων που αφαιρέθηκαν επειδή παραβίαζαν τους κανόνες σχετικά με τη χρήση συμβόλων ή φράσεων από ομάδες μίσους.

Η Γκόμεζ έγραψε ότι η Σάντμπεργκ δεν είχε αντιμετωπίσει το ζήτημα, στέλνοντας στιγμιότυπα οθόνης από ομάδες του Facebook που προωθούσαν βίαιες ιδεολογίες.

«Αρνείστε να αναφέρετε, πόσω μάλλον να αντιμετωπίσετε, το πρόβλημα που έχει το Facebook με τους ρατσιστές και τους φανατικούς», έγραψε η Γκόμεζ σε email της, στις 10 Οκτωβρίου του 2020, προς τη Σάντμπεργκ και άλλα στελέχη, προσθέτοντας ότι υπάρχουν πολλές ομάδες στο Facebook «γεμάτες μίσος και ψέματα που μπορεί να βλάψουν ανθρώπους ή, ακόμη χειρότερα, και να τους οδηγήσουν στον θάνατο».

Η Γκόμεζ δεν προέβη σε περαιτέρω σχόλια.

Ο Στόουν ανέφερε ότι η Σάντμπεργκ, φέτος, ανέδειξε δημοσίως τα στοιχεία που αφορούσαν την επικράτηση της ρητορικής μίσους στο Facebook.

Ο Φάντι Κουράν, ερευνητής στην ομάδα ανθρωπίνων δικαιωμάτων της Avaaz, που υποστηρίζει τη δράση των πολιτών σε τομείς όπως η κλιματική αλλαγή και η φτώχεια, είπε ότι έχει ρωτήσει επανειλημμένα τους υπαλλήλους της Facebook αν καταλαβαίνουν σε τι βαθμό εμφανίζεται η ρητορική μίσους στην πλατφόρμα τους και πόση δράση αναλαμβάνουν οι ίδιοι επί του ζητήματος.

«Κρύβοντας το πρόβλημα και δίνοντας την αντίθετη εντύπωση – ότι το ζήτημα είναι υπό έλεγχο – γίνονται, στην πραγματικότητα, συνένοχοι στο να επιτρέπουν να συνεχίζονται αυτές οι παραβιάσεις, χωρίς την παραμικρή ανάληψη ευθυνών», συνέχισε ο ίδιος.

Ο Στόουν είπε ότι η Facebook παρείχε στον Κουράν στοιχεία που αφορούσαν τη συχνότητα εμφάνισης τέτοιας ρητορικής και άλλες μετρήσεις.

Στις τριμηνιαίες δημόσιες εκθέσεις της σχετικά με τον τρόπο με τον οποίο εφαρμόζει τις πολιτικές της, η Facebook μετρά την επικράτηση ορισμένων τύπων περιεχομένου, όπως η ρητορική μίσους, με βάση τον αριθμό των προβολών. Στελέχη της εταιρείας υποστηρίζουν ότι με τον τρόπο αυτό εντοπίζεται με περισσότερη ακρίβεια μέρος του περιεχομένου που παραβιάζει τις πολιτικές της. Με άλλα λόγια, κάποια δημοσίευση ρητορικής μίσους που προβλήθηκε ένα εκατομμύριο φορές αποτελεί μεγαλύτερο πρόβλημα από δημοσίευση ρητορικής μίσους που προβλήθηκε μόνο μία φορά.

Η εταιρεία δεν ανακοινώνει δημοσίως το ποσοστό προβολών ρητορικής μίσους που αφαιρεί. Στο εσωτερικό της, η εταιρεία υπολογίζει αυτό το ποσοστό εφαρμόζοντας τους ταξινομητές ρητορικής μίσους σε ένα δείγμα δημοσιεύσεων και, έπειτα, ζητώντας από τους χρήστες να ελέγξουν τις ίδιες δημοσιεύσεις για να εντοπίσουν όσα δεν βρήκαν οι ταξινομητές, όπως ανέφερε άτομο με άμεση γνώση των εκτιμήσεων. Ο αριθμός χρησιμοποιείται, στη συνέχεια, ως εκτίμηση για τον αριθμό των προβολών ρητορικής μίσους που αφαιρέθηκαν σε ολόκληρη την πλατφόρμα.

Αγώνες κοκορομαχιών, τροχαία ατυχήματα

Στα μέσα του 2018, ένας μηχανικός παρατήρησε μια ανησυχητική τάση: «πολλές προβολές από δημοσιεύσεις με ατυχήματα αυτοκινήτων και κοκορομαχίες», έγραψε σε έκθεση για την εταιρεία το 2019. Οι χρήστες του Facebook έβλεπαν συχνά στα χρονολόγιά τους βίντεο με τροχαία ατυχήματα και κοκορομαχίες, κάτι που κανονικά θα παραβίαζε τους κανόνες της εταιρείας.

Οι μηχανικοί της Facebook εκπαίδευσαν ένα σύστημα τεχνητής νοημοσύνης, ώστε να εντοπίζει βίντεο από κοκορομαχίες και τροχαία ατυχήματα και να τα αφαιρεί. «Ωστόσο», έγραψαν οι μηχανικοί σε ένα σημείωμα, «το πρόβλημα δεν λύθηκε πραγματικά».

H Facebook έθεσε, επίσης, κανόνες για τα βίντεο με κοκορομαχίες που η τεχνητή νοημοσύνη δεν αντιλαμβανόταν. Οι «ήπιες κοκορομαχίες» θεωρήθηκαν αποδεκτές, αλλά αυτές στις οποίες τα πτηνά τραυματίστηκαν σοβαρά, απαγορεύτηκαν. Ωστόσο, το μοντέλο που χρησιμοποιούσε ο υπολογιστής δεν μπορούσε να διακρίνει τα πτηνά που μάχονται από όσα που δεν πολεμούν.

Για να εκπαιδεύσουν τα συστήματα της εταιρείας, οι μηχανικοί χρησιμοποίησαν εξελιγμένα προγράμματα μηχανικής εκμάθησης, όπως το “Deep Vision”, και τα τροφοδοτούσαν, για ώρες, με βίντεο με κοκορομαχίες. Η διδασκαλία της τεχνητής νοημοσύνης να εντοπίζει ένα σοβαρά τραυματισμένο πουλί και να αγνοεί ένα λιγότερο τραυματισμένο αποδείχθηκε δύσκολη.

«Δεν είναι εύκολο να το καταφέρουμε», έγραψαν οι μηχανικοί.

Σε δύο περιπτώσεις, όμως, που οι μηχανικοί χρησιμοποίησαν τη τεχνητή νοημοσύνη για να δουν εάν πρόκειται για κοκορομαχία, εντόπισαν ένα ακόμη πρόβλημα: ότι τα βίντεο με κοκορομαχίες χαρακτηρίστηκαν ως τροχαία ατυχήματα, σύμφωνα με τους ερευνητές.

Σε ορισμένες περιπτώσεις, η τεχνητή νοημοσύνη δεν αναγνώριζε βίντεο με πυροβολισμούς, ενώ σε άλλες χαρακτήρισε λανθασμένα ορισμένα «άκακα» βίντεο, όπως παιχνίδια paintball ή βίντεο για πλύσιμο αυτοκινήτων, έγραψαν οι ερευνητές.

Οι ξένες γλώσσες αγνοούνται

Σύμφωνα με ένα σημείωμα του Δεκεμβρίου 2020, οι υπάλληλοι της Facebook συζήτησαν το ενδεχόμενο δημιουργίας ενός ταξινομητή για τον εντοπισμό των δημοσιεύσεων ρητορικής μίσους στις αραβικές διαλέκτους. Ωστόσο, η έλλειψη δεδομένων – όπως, π.χ. δείγματα από αυτές τις διαλέκτους – αποτέλεσε σημαντικό πρόβλημα, ειδικά εφόσον αντιμετώπιζαν, ήδη, προβλήματα με τη βασική αραβική γλώσσα.

Τον Ιανουάριο, υπάλληλος της Facebook ανέφερε ότι η ρητορική μίσους ήταν ένα από τα σημαντικότερα προβλήματα στο Αφγανιστάν, αλλά η εταιρεία ανέλαβε δράση εναντίον μόλις του 0,23% των εκτιμώμενων δημοσιεύσεων ρητορικής μίσους στη χώρα. «Όπως φαίνεται, δεν έχουν αρκετό υλικό, ώστε να εκπαιδεύσουν και να διατηρήσουν τους ταξινομητές στην Αραβική- πόσω μάλλον αν λάβουμε υπόψη και τις τεχνικές δυσκολίες», έγραψε υπάλληλος σε έγγραφό του.

Ο υπάλληλος είπε ότι οι εξαιρετικά λίγες αναφορές στις γλώσσες που μιλούνται στο Αφγανιστάν, δείχνει ότι πιθανότατα να μην έχουν εντοπιστεί πολλές από τις δημοσιεύσεις που παραβιάζουν τους κανόνες της εταιρείας.

Τον Μάρτιο, οι εργαζόμενοι που ετοιμάζονται για τις περιφερειακές εκλογές στην Ινδία δήλωσαν ότι η ρητορική μίσους αποτελούσε σημαντικό κίνδυνο στο Άσαμ, όπου η βία κατά των μουσουλμάνων και άλλων εθνοτικών ομάδων αυξάνεται σημαντικά. «Το Άσαμ μάς ανησυχεί ιδιαίτερα, καθώς δεν υπάρχει κάποιος ταξινομητής ρητορικής μίσους», όπως αναφέρεται σε έγγραφο.

Η έρευνα δείχνει ότι οι χρήστες του Facebook, παγκοσμίως, ανησυχούν περισσότερο για τη μη συμμόρφωση. Τον Μάρτιο του 2020, το Facebook διαπίστωσε ότι οι χρήστες, κατά μέσο όρο, βαθμολόγησαν την παραβίαση περιεχομένου, όπως τη ρητορική μίσους, ως πιο σημαντική από το να αφαιρεθεί από την πλατφόρμα κάποια δημοσίευσή τους, σύμφωνα με τα έγγραφα.

Σε παγκόσμιο επίπεδο, οι χρήστες θεώρησαν ιδιαίτερα σημαντικά προβλήματα τη ρητορική μίσους και τη βία, κατατάσσοντάς τα στην κορυφή της λίστας, ενώ έδωσαν ελάχιστη σημασία στις αφαιρέσεις των δημοσιεύσεων χωρίς να υπάρχει κάποιο σημαντικό κριτήριο. Στην Αμερική, ωστόσο, οι χρήστες ανησυχούσαν περισσότερο για τις αφαιρέσεις των δημοσιεύσεών τους, αλλά εξακολουθούσαν να αξιολογούν το πρόβλημα αυτό ως λιγότερο σημαντικό σε σχέση με τη ρητορική μίσους και τη βία, όπως δείχνει και η έρευνα.

Σε σημείωση στα τέλη του 2020, απερχόμενος επιστήμονας δεδομένων σημείωσε ότι η Facebook προειδοποιεί μέχρι και 5 φόρες έναν χρήστη ότι θα του επιβληθούν κυρώσεις εξαιτίας ρητορικής μίσους, πριν αφαιρεθούν οι εν λόγω δημοσιεύσεις από την πλατφόρμα. Επειδή τα συστήματα της Facebook δεν μπορούν να εντοπίσουν εύκολα δημοσιεύσεις ρητορική μίσους, οι χρήστες είναι πιθανό να την γλυτώσουν αρκετές φορές, πριν γίνει αντιληπτό ότι έχουν προβεί σε κάποια παραβίαση, όπως ανέφερε και ο επιστήμονας δεδομένων.

Ο απερχόμενος επιστήμονας δεδομένων σημείωσε, ακόμη, ότι, παρά τις μεγάλες επενδύσεις της Facebook, το ποσοστό επιτυχίας της εταιρείας στην αφαίρεση του απαγορευμένου περιεχομένου δεν είναι ιδιαίτερα ικανοποιητικό. «Κάθε εξάμηνο σημειώνουμε σταδιακή πρόοδο στον όγκο του περιεχομένου που μπορούμε να εντοπίσουμε προληπτικά», έγραψε ο ίδιος. «Ωστόσο, ο αριθμός αυτός εξακολουθεί να παραμένει σε χαμηλά επίπεδα, καθώς η πρόοδος είναι αργή».

«Ίσως να είμαστε οι καλύτεροι στον κόσμο», έγραψε, «αλλά οι καλύτεροι στον κόσμο δεν είναι αρκετά καλοί ώστε να εντοπίσουν μέρος του προβλήματος».

Μεταφράστηκε στα Ελληνικά από τον Οικονομικό Ταχυδρόμο

Related posts

Η Έρις Κύργια αντικαταστάτρια του Δημήτρη Λιγνάδη- Η ανακοίνωση του υπ. Πολιτισμού

fiber

Ευρωπαϊκή Επιτροπή – Κάτω από τη βάση η Ελλάδα στην ενσωμάτωση της ψηφιακής τεχνολογίας

fiber

Microsoft: Τα Windows 10 θα αποσυρθούν το 2025

fiber

Μεγάλη απάτη με τους κωδικούς e-banking – Τι είναι το sim swapping

fiber

Η Viber προτιμά την ελληνική αγορά για να λανσάρει νέες υπηρεσίες της

fiber

Έξυπνα ρολόγια για παιδιά – Τι προσφέρουν και πόσο ασφαλή είναι; 

fiber