Η Facebook πιστεύει ότι η τεχνητή νοημοσύνη θα «καθαρίσει» την πλατφόρμα της – Οι μηχανικοί της αμφιβάλλουν

Related

Η OpenSky και η Canon Ελλάδας γιόρτασαν την επίσημη έναρξη της συνεργασίας τους με μία όμορφη βραδιά στο Μουσείο Γουλανδρή Φυσικής Ιστορίας

Η Canon Ελλάδας χαιρετίζει με χαρά την έναρξη της συνεργασίας της με την εταιρεία OpenSky MPS S.A., μια φρέσκια, δυναμική παρουσία στον κλάδο της τεχνολογίας και της εκτύπωσης. Η Canon, ένας από τους κορυφαίους κατασκευαστές εκτυπωτικών λύσεων στον κόσμο, και η OpenSky ένωσαν τις δυνάμεις τους με σκοπό να προσφέρουν κορυφαίες υπηρεσίες εκτύπωσης, διαχείρισης εγγράφων…

Μία δεκαετία τώρα η COSMOTE συμβάλλει στη διάδοση και ανάπτυξη της Εκπαιδευτικής Ρομποτικής στην Ελλάδα

Για τους Boomers, τους Generation X ακόμα και τους Millennials όταν μαθαίνουν περί εκπαιδευτικής ρομποτικής και σχετικών διαγωνισμών ήδη από το Δημοτικό, αποτελεί μία μεγάλη ευχάριστη έκπληξη. Λογικό αν σκεφτεί κανείς ότι στα δικά τους χρόνια δεν υπήρχαν –τουλάχιστον για τις πρώτες δύο ηλικιακές κατηγορίες- ούτε καν κινητά, παρά παιχνίδι στις αλάνες και τα πρώτα…

Champions League: Super Ενισχυμένες, Missions & ΤΡΙΠΛΟ ΔΩΡΟ* στη Stoiximan με Cosmote TV!

Ο πρώτος ημιτελικός του Champions League βγαίνει το βράδυ της Τρίτης και το προϊόν της Stoiximan είναι συναρπαστικό! Σε ευρωπαϊκούς ποδοσφαιρικούς ρυθμούς η Stoiximan και με μία Προσφορά* Γνωριμίας που δεν χάνεται με ΤΡΙΠΛΟ ΔΩΡΟ*: 1 μήνα Cosmote TV  Δώρο* χωρίς κατάθεση Πολλές Εκπλήξεις* Τώρα η Stoiximan σε υποδέχεται με μία εκπληκτική ΤΡΙΠΛΗ ΠΡΟΣΦΟΡΑ* Γνωριμίας!…

Champions League: Super Ενισχυμένες, Missions & ΤΡΙΠΛΟ ΔΩΡΟ* στη Stoiximan με Cosmote TV! (16/4)

Ο πρώτος ημιτελικός του Champions League βγαίνει το βράδυ της Τρίτης και το προϊόν της Stoiximan είναι συναρπαστικό! Σε ευρωπαϊκούς ποδοσφαιρικούς ρυθμούς η Stoiximan και με μία Προσφορά* Γνωριμίας που δεν χάνεται με ΤΡΙΠΛΟ ΔΩΡΟ*: 1 μήνα Cosmote TV Δώρο* χωρίς κατάθεση Πολλές Εκπλήξεις* ΕΕΕΠ | 21+ | ΠΑΙΞΕ ΥΠΕΥΘΥΝΑ Με Cosmote TV λοιπόν για…

Πασχαλινές προσφορές σε προϊόντα τεχνολογίας από τη Vodafone

Οι πασχαλινές προσφορές ξεκινούν στη Vodafone με χαμηλότερες τιμές σε μοναδικά προϊόντα τεχνολογίας όπως τα πιο καινοτόμα smartphones, tablets, wearables αλλά και αξεσουάρ ήχου, με ευκολίες πληρωμή σε έως 24 άτοκες δόσεις μέσω του Vodafone Flex ώστε όλοι να χαρίσουν τα πιο σύγχρονα δώρα στα αγαπημένα τους πρόσωπα. Αναλυτικότερα, μερικές από τις κορυφαίες συσκευές που…

Η Motorola παρουσιάζει μια νέα γενιά συσκευών edge βασισμένη στην τεχνολογία moto AI

Σηματοδοτώντας μια νέα εποχή για τις κορυφαίες προτάσεις της, η Motorola παρουσιάζει την πλέον εντυπωσιακή και ισορροπημένη σειρά συσκευών edge: τις motorola edge 50 ultra, motorola edge 50 pro και motorola edge 50 fusion. Μεταφέροντας τη συζήτηση στο τι είναι πραγματικά ουσιώδες σε ένα κορυφαίο smartphone, οι συσκευές αυτές προσφέρουν έναν εξυπνότερο συνδυασμό ιδανικών στοιχείων,…

Με Μπαρτσελόνα – Παρί και Ντόρτμουντ – Ατλέτικο Μαδρίτης για το Champions League οι αθλητικές μεταδόσεις της ημέρας (16/4)

Τα παιχνίδια Μπαρτσελόνα – Παρί και Ντόρτμουντ – Ατλέτικο Μαδρίτης για τα προημιτελικά του Champions League ξεχωρίζουν από τις αθλητικές μεταδόσεις της ημέρας (16/4).Το πρόγραμμα των αθλητικών μεταδόσεων περιλαμβάνει ακόμα τα πλέι της Euroleague, από τα οποία θα προκύψει ο αντίπαλος του Παναθηναϊκού στα πλέι οφ.Αναλυτικά:12:00 COSMOTE SPORT 6 HD ATP 500 2024 Βαρκελώνη14:00 COSMOTE SPORT 6…

Τριπλή προσφορά γνωριμίας, με 1 μήνα δωρεάν Cosmote TV*!

Η αθλητική σεζόν βρίσκεται σε σημείο κορύφωσης και η Stoiximan φέρνει για σένα μια εκπληκτική τριπλή προσφορά*! Το μεγάλο φινάλε της Stoiximan Super League, η πορεία των ευρωπαϊκών διοργανώσεων με τη συμμετοχή Ολυμπιακού και ΠΑΟΚ σε αυτές, το αμείωτο ενδιαφέρον στο Champions League, τα Play-Offs του ΝΒΑ και πολλά άλλα αθλητικά γεγονότα έρχονται στην οθόνη…

Οι αθλητικές μεταδόσεις της ημέρας (16-04-2024)

Oι αγώνες ρεβάνς στα ζευγάρια Μπαρτσελόνα – Παρί Σεν Ζερμέν και Ντόρτμουντ – Ατλέτικο Μαδρίτης για την προημιτελική φάση του Champions League, το κρίσιμο ματς του Περιστερίου με τη Βόννη και τα παιχνίδια για τα play in της Euroleague ξεχωρίζoυν στο πρόγραμμα με τις αθλητικές μεταδόσεις της ημέρας. Αναλυτικά όλες οι αθλητικές μεταδόσεις: 12:00 COSMOTE…

Ανακοινώθηκαν οι πρώτοι ομιλητές των διεθνών συνεδρίων της ECDM Expo SE Europe 2024

Η οργανωτική επιτροπή τής eCommerce & Digital Marketing Expo Southeastern Europe 2024, ανακοίνωσε τους πρώτους ομιλητές οι οποίοι θα συμμετέχουν στα διεθνή διήμερα Συνέδρια της έκθεσης. Το γεγονός τής χρονιάς για το Ηλεκτρονικό Εμπόριο και το Ψηφιακό Μάρκετινγκ στη Νοτιοανατολική Ευρώπη, θα πραγματοποιηθεί από την Παρασκευή 24 έως την Κυριακή 26 Μαΐου 2024, στο Ζάππειο…

Αλέξανδρος Εξάρχου: Καθοριστική η επόμενη πενταετία για το μέλλον της Ελλάδας

H επόμενη πενταετία θα είναι καθοριστική για το μέλλον της Ελλάδας, η οποία πρέπει να μετασχηματιστεί σε μία ισχυρή οικονομία, αλλάζοντας την παραγωγική της δομή. Αυτό δήλωσε ο Αντιπρόεδρος του Δ.Σ. και Διευθύνων Σύμβουλος του Ομίλου Intrakat, κ. Αλέξανδρος Εξάρχου, μιλώντας στο 9ο Οικονομικό Φόρουμ των Δελφών, κατά τη διάρκεια συζήτησης για τις επενδύσεις και…

Στη BEYOND η μεγαλύτερη συνάντηση ψηφιακής τεχνολογίας και καινοτομίας στην Ελλάδα | 25-27.04.2024

Με τη συμμετοχή των παγκόσμιων ηγετών στο χώρο της τεχνολογίας και της καινοτομίας, το μεγαλύτερο συνέδριο για την τεχνητή νοημοσύνη στην Ελλάδα, πλήθος επιχειρηματικών συναντήσεων, ημέρες καριέρας και ένα πλούσιο πρόγραμμα συνεδρίων, ημερίδων και workshops, η BEYOND 2024 αποτελεί την μεγαλύτερη συνάντηση για τον ψηφιακό μετασχηματισμό, την τεχνολογία και την καινοτομία στην Ελλάδα. Κορυφαίες εταιρείες…

Κύπελλο Ελλάδας: Η ΕΠΟ ενημέρωσε την Cosmote TV ότι ο τελικός θα γίνει στο Πανθεσσαλικό

Μετά από ένα μεγάλο χρονικό διάστημα κατά το οποίο η έδρα του τελικού του Κυπέλλου Ελλάδας Betsson ήταν συζητήσιμη, με τους δύο φιναλίστ, Άρη και Παναθηναϊκό, να μην καταφέρνουν να έρθουν σε συμφωνία για τον τόπο διεξαγωγής του, όλα δείχνουν πως οι δύο ομάδες θα διεκδικήσουν το βαρύτιμο τρόπαιο στο Πανθεσσαλικό Στάδιο. Όπως ενημέρωσε το…

100.000 BOX NOW θυρίδες, ακόμα περισσότερα χαμόγελα!!

Τα πράσινα lockers της BOX NOW επεκτείνονται σε περισσότερα σημεία… και γιορτάζουν! 100.000 θυρίδες BOX NOW είναι διαθέσιμες, για να μετατρέψουν τη διαδικασία αποστολής και παραλαβής δεμάτων σε μια ξεχωριστή εμπειρία προσφέροντας ευκολία, αμεσότητα και πολλά δώρα! Στα 3 χρόνια παρουσίας της η BOX NOW επεκτάθηκε, τοποθετώντας θυρίδες σε όλη την Ελλάδα, προωθώντας ένα φιλικό…

UEFA Champions League: Τα εισιτήρια για τα ημιτελικά «σφραγίζονται» στην COSMOTE TV

Onsports Team 15 Απριλίου 2024, 19:47 Στα κανάλια COSMOTE SPORT οι αγώνες Μπαρτσελόνα-Παρί Σεν Ζερμέν, Ντόρτμουντ-Ατλέτικο Μαδρίτης, Μάντσεστερ Σίτι-Ρεάλ Μαδρίτης και Μπάγερν Μονάχου-Άρσεναλ Μετά τη «βροχή» των γκολ στην 1η αγωνιστική της προημιτελικής φάσης, το UEFA Champions League επιστρέφει με τους δεύτερους αγώνες το διήμερο 16-17/4, έχοντας ως απόλυτο προορισμό την COSMOTE TV. Πετυχαίνοντας τη…

Share

Στελέχη της Facebook Inc. υποστήριζαν εδώ και καιρό ότι η τεχνητή νοημοσύνη θα «θεράπευε» χρόνια προβλήματα, κρατώντας μακριά από την πλατφόρμα ό,τι προωθεί τη ρητορική μίσους, την υπερβολική βία, καθώς και τους ανήλικους χρήστες.

Κάτι τέτοιο, όμως, αποδεικνύεται αρκετά πιο δύσκολο από όσο νομίζουν, όπως προκύπτει από έγγραφα της εταιρείας που εξέτασε η Wall Street Journal. Η τεχνητή νοημοσύνη της Facebook δεν μπορεί να εντοπίσει με επιτυχία βιντεοπαιχνίδια με πυροβολισμούς, ρατσιστικά αστεία και ακόμη, όπως φάνηκε και από ένα συμβάν που προβλημάτιζε για εβδομάδες την εταιρεία, τη διαφορά μεταξύ κοκορομαχίας και τροχαίων ατυχημάτων.

Όσον αφορά τη ρητορική μίσους, όπως δείχνουν τα έγγραφα, οι εργαζόμενοι στη Facebook εκτίμησαν ότι η εταιρεία αφαιρεί μόνο ένα μονοψήφιο ποσοστό των δημοσιεύσεων που παραβιάζουν τους κανόνες της. Όταν, όμως, οι αλγόριθμοι του Facebook δεν είναι αποδοτικοί στο να εντοπίζουν το εν λόγω περιεχόμενο, οι δημοσιεύσεις αυτές δεν εμφανίζονται τόσο συχνά στους χρήστες και οι λογαριασμοί που τις δημοσίευσαν παραμένουν ατιμώρητοι.

Τα έγγραφα που εξετάστηκαν από τη Journal δείχνουν, επίσης, ότι η Facebook, πριν από δύο χρόνια, μείωσε τον αριθμό των αναφορών που μπορούν να κάνουν οι χρήστες για δημοσιεύσεις που παραβίαζαν τους κανόνες της , καθώς και τον χρόνο που θα έπρεπε να αφιερώνουν οι υπάλληλοί της στο να ελέγχουν τις εν λόγω αναφορές. Συνεπώς, η εταιρεία ξεκίνησε να εξαρτάται περισσότερο από τη τεχνητή νοημοσύνη.

Ωστόσο, όσοι ασχολούνται με την αφαίρεση του προσβλητικού και επικίνδυνου περιεχομένου από το Facebook, αναγνωρίζουν ότι η εταιρεία δεν μπορεί να το εντοπίσει με μεγάλη αξιοπιστία.

«Το πρόβλημα είναι ότι δεν έχουμε και, πιθανότατα, δεν θα έχουμε ποτέ ένα μοντέλο που να εντοπίζει την πλειονότητα των δημοσιεύσεων αυτών», έγραψε ανώτερος μηχανικός και ερευνητής σε έγγραφο, στα μέσα του 2019.

Εκτίμησε, ακόμη, ότι τα αυτοματοποιημένα συστήματα της εταιρείας αφαίρεσαν δημοσιεύσεις ρητορικής μίσους με μόνο 2% προβολές. «Πρόσφατες εκτιμήσεις υποδηλώνουν ότι, εάν δεν υπάρξει κάποια σημαντική αλλαγή στη στρατηγική της εταιρείας, θα είναι πολύ δύσκολο να βελτιωθεί αυτή η κατάσταση περισσότερο από 10-20%, σε βραχυμεσοπρόθεσμο πλάνο», έγραψε ίδιος.

Αυτόν τον Μάρτιο, ομάδα εργαζομένων στη Facebook ανακοίνωσε ότι τα συστήματα αφαιρούσαν δημοσιεύσεις που αποτελούσαν το 3% με 5% των δημοσιεύσεων ρητορικής μίσους και το 0,6% των συνολικών δημοσιεύσεων που παραβίαζαν τις πολιτικές της εταιρείας σχετικά με τη βία και την υποδαύλιση.

Ο εκπρόσωπος Τύπου της Facebook, Άντι Στόουν, είπε ότι αυτά τα ποσοστά αφορούσαν αποκλειστικά τις δημοσιεύσεις που αφαιρέθηκαν μέσω χρήσης της τεχνητής νοημοσύνης και όχι τις ενέργειες που προέβη η ίδια η εταιρεία, για να αντιμετωπίσει το πρόβλημα (π.χ. εμφάνιση των δημοσιεύσεων χαμηλότερα στο χρονολόγιο). Η Facebook εκτιμά ότι η χρήση της τεχνητής νοημοσύνης έχει μειώσει αισθητά τη συχνότητα εμφάνισης περιεχομένου που παραβιάζει τις πολιτικές της.

Τα στατιστικά στοιχεία, ωστόσο, έρχονται σε πλήρη αντίθεση με την εμπιστοσύνη που δείχνουν στην τεχνητή νοημοσύνη τα κορυφαία στελέχη της Facebook. Ένα από τα στελέχη αυτά είναι ο CEO της εταιρείας, Μαρκ Ζάκερμπεργκ, ο οποίος, δήλωσε ότι το Facebook θα χρησιμοποιούσε την τεχνητή νοημοσύνη για να εντοπίσει «τη συντριπτική πλειοψηφία προβληματικού περιεχομένου», μέχρι το τέλος του 2019.

Η εταιρεία, συχνά, υποστηρίζει ότι σχεδόν όλες οι δημοσιεύσεις ρητορικής μίσους στο Facebook εντοπίστηκαν μέσω της χρήσης της τεχνητής νοημοσύνης. Ονομάζει αυτό το ποσοστό προληπτικό ποσοστό ανίχνευσης, το οποίο είχε φτάσει το 98%, νωρίτερα, τη φετινή χρονιά.

Οι ομάδες πολιτικών δικαιωμάτων και οι ακαδημαϊκοί διατηρούν, εδώ και καιρό, τις επιφυλάξεις τους σχετικά με την πρόοδο και την αποτελεσματικότητα της χρήσης τεχνητής νοημοσύνης, υποστηρίζοντας ότι έρχεται συχνά σε αντίθεση με όσα δηλώνουν οι χρήστες ή με τις δικές τους μελέτες.

Σε συνέντευξή του, ο υπεύθυνος πιστότητας της Facebook, Γκάι Ρόζεν, δήλωσε ότι ήταν περισσότερο σημαντικό να εξετασθούν κι άλλα στοιχεία, τα οποία θα αποδεικνύουν ότι οι δημοσιεύσεις ρητορικής μίσους στην πλατφόρμα αποτελούν ένα μόνο μικρό ποσοστό των συνολικών δημοσιεύσεων. Το Facebook εκτιμά ότι μόνο οι πέντε από κάθε 10.000 δημοσιεύσεις περιείχαν ρητορική μίσους, σημειώνοντας, έτσι, βελτίωση από τις περίπου 10 στις 10.000, στα μέσα του 2020, σύμφωνα με την τελευταία δημόσια έκθεση για τον τρόπο με τον οποίο εφαρμόζει τις πολιτικές της η εταιρεία, για το δεύτερο τρίμηνο του τρέχοντος έτους.

Ο Στόουν, εκπρόσωπος Tύπου της Facebook, ανέφερε ότι τα στελέχη της εταιρείας έχουν τονίσει τη σημασία που έχει η συχνότητα με την οποία εμφανίζονται οι δημοσιεύσεις αυτές, με τη τεχνητή νοημοσύνη να παίζει καθοριστικό ρόλο σε αυτό.

Ο Ρόζεν προσέθεσε, ακόμη, ότι παρόλο που τα έγγραφα που εξετάστηκαν από τη Journal ήταν παλιά, αποδείκνυαν την ιδεολογία της εταιρείας για τη χρήση της τεχνητής νοημοσύνης στον έλεγχο του περιεχομένου.

Τον περασμένο μήνα, η εταιρεία εκτίμησε ότι τα συστήματα τεχνητής νοημοσύνης βελτιώνονταν στην «αφαίρεση προληπτικού περιεχομένου που παραβιάζει τους κανόνες μας για τη ρητορική μίσους» και ανακοίνωσε ότι αφαιρεί κατά 15 φορές περισσότερο το περιεχόμενο σήμερα σε σχέση με το 2017.

Η σειρά της Journal, βασισμένη σε έγγραφα και σε συνεντεύξεις από νυν και πρώην υπαλλήλους, περιγράφει πώς οι κανόνες της εταιρείας ευνοούν τις ελίτ και πώς οι αλγόριθμοί της προάγουν τη διχόνοια. Αναφέρει, ακόμη, ότι η εταιρεία γνωρίζει για τα καρτέλ ναρκωτικών και το ότι όσοι ασχολούνται με την εμπορία ανθρώπων χρησιμοποιούν τις υπηρεσίες της ανοιχτά, ενώ, παράλληλα, στα εν λόγω έγγραφα αναφέρεται, μεταξύ άλλων, και ο τρόπος που χρησιμοποιείται το Facebook από ακτιβιστές κατά των εμβολίων. Άρθρο σχετικά με τις επιπτώσεις του Instagram στην ψυχική υγεία των εφήβων κοριτσιών κινητοποίησε, στα τέλη Σεπτεμβρίου, διαδικασίες ακρόασης από τη Γερουσία.

Σύμφωνα με τα έγγραφα, δημοσιεύσεις που η τεχνητή νοημοσύνη θα έπρεπε να έχει εντοπίσει, αλλά δεν το κατάφερε, αφορούν βίντεο που δείχνουν σε κοντινό πλάνο κάποιον να πυροβολεί και βίντεο από τροχαία ατυχήματα με «διαμελισμό και ορατά εσωτερικά μέρη του σώματος». Άλλες παραβιάσεις των πολιτικών της Facebook, που δεν εντοπίσθηκαν από τη τεχνητή νοημοσύνη, αφορούσαν απειλές εναντίον παιδιών που είναι τρανς.

Η Facebook εκτιμά ότι, από το 2016, έχει δαπανήσει περίπου 13 δισεκατομμύρια δολάρια για «την ασφάλεια και την προστασία», ή περίπου το 4% των εσόδων της, εκείνη την εποχή. Ο Ρόζεν προσέθεσε ότι, το 2016, το σύστημα εποπτείας περιεχομένου της Facebook βασιζόταν σε μεγάλο βαθμό στα παράπονα των χρηστών και ότι η εταιρεία έκτοτε έχει δημιουργήσει εργαλεία τεχνητής νοημοσύνης, ώστε να μπορεί να εντοπίζει το ανάρμοστο περιεχόμενο.

Το 2018, ο Ζακερμπεργκ είπε στην επιτροπή της Γερουσίας ότι, σε πέντε με δέκα χρόνια από τότε, το Facebook θα χρησιμοποιούσε εργαλεία τεχνητής νοημοσύνης για τον προληπτικό εντοπισμό των περισσότερων δημοσιεύσεων ρητορικής μίσους. «Μακροπρόθεσμα, η δημιουργία εργαλείων τεχνητής νοημοσύνης θα αποτελεί έναν τρόπο για τον εντοπισμό και την αφαίρεση του μεγαλύτερου μέρους αυτού του περιεχομένου», προσέθεσε τότε.

Τον Ιούλιο του 2020, είπε στο Κογκρέσο: «Έχουμε δημιουργήσει αρκετά εξελιγμένα συστήματα για την καταπολέμηση της ρητορικής μίσους».

Στέλεχος της Facebook κατέθεσε σε ακρόαση της Γερουσίας, στα τέλη Σεπτεμβρίου, ότι η εταιρεία χρησιμοποιεί τεχνητή νοημοσύνη για να απομακρύνει τα παιδιά κάτω των 13 ετών από το Instagram.

«Αρκετά αφελείς»

Τα συστήματα τεχνητής νοημοσύνης της Facebook εξετάζουν δισεκατομμύρια δημοσιεύσεις, ψάχνοντας στοιχεία που ορίζονται από την εταιρεία ως περιεχόμενο που παραβιάζει τους κανόνες της. Οι αλγόριθμοι διαλογής, που ονομάζονται ταξινομητές, αποτελούν το θεμέλιο για τον εντοπισμό του εν λόγω περιεχομένου.

Η δημιουργία αυτών των ταξινομητών είναι μία διαδικασία περίπλοκη, για την οποία απαιτείται σκληρή δουλειά και κατά την οποία καθίσταται αναγκαία η ενασχόληση πολλών ατόμων που θα εντοπίζουν τις δημοσιεύσεις που παραβιάζουν τους κανόνες. Στη συνέχεια, οι μηχανικοί θα παίρνουν όσες δημοσιεύσεις έχουν εντοπιστεί και θα εκπαιδεύουν τα συστήματά τους, ώστε να εντοπίζουν, μελλοντικά, παρόμοιες δημοσιεύσεις.

Οι αλγόριθμοι της Facebook μπορούν να αφαιρέσουν αυτόματα δημοσιεύσεις ρητορικής μίσους, όταν καταλάβουν ότι η ανάρτηση παραβιάζει τις πολιτικές της εταιρείας, ή μπορούν να κατατάξουν χαμηλότερα στο χρονολόγιο τις πιο αμφισβητήσιμες δημοσιεύσεις, ώστε να περιορίσουν τη διάδοσή τους.

Σε ορισμένους τομείς, όπως π.χ. με τα ανεπιθύμητα μηνύματα, οι ταξινομητές της Facebook είναι σχετικά αποτελεσματικοί. Στους πιο ευαίσθητους και αμφιλεγόμενους τομείς, όμως, ειδικά όταν οι κανόνες της Facebook είναι περίπλοκοι ή αφορούν πολιτισμικό περιεχόμενο, η μέθοδος αυτή δεν φέρει τα επιθυμητά αποτελέσματα, σύμφωνα με έγγραφα και όσους ασχολούνται με το θέμα.

«Οι ταξινομητές είναι σαν μαθητές δημοτικού και χρειάζονται δασκάλους (αναθεωρητές), ώστε να εξελιχθούν σε κατόχους διδακτορικού», έγραψε ένας μηχανικός στη Facebook σε συζήτηση σχετικά με το κόστος της ρητορικής μίσους στην εσωτερική πλατφόρμα των εργαζομένων του Facebook, τον Αύγουστο του 2019. Σε σχέση με την επιτυχία των εν λόγω ταξινομητών, ο μηχανικός έγραψε, «είναι ακόμα αρκετά αφελείς».

Για παράδειγμα, σύμφωνα με τα έγγραφα, τα συστήματα τεχνητής νοημοσύνης χαρακτήρισαν ένα βίντεο πλυσίματος αυτοκινήτου ως βίντεο με πυροβολισμούς, ενώ, σε μία άλλη περίπτωση, μπέρδεψαν ένα βίντεο με πυροβολισμούς για τροχαίο ατύχημα.

Το 2019, σύμφωνα με έγγραφα που εξετάστηκαν από τη Journal, η Facebook εισήγαγε «ελέγχους στις δαπάνες με σκοπό τον περιορισμό των δημοσιεύσεων ρητορικής μίσους», ώστε να εξοικονομήσει χρήματα που δίνει στο ανθρώπινο δυναμικό της για τον έλεγχο των δημοσιεύσεων αυτών. Ο έλεγχος δημοσιεύσεων ρητορικής μίσους από το ανθρώπινο προσωπικό κόστιζε 2 εκατομμύρια δολάρια την εβδομάδα ή 104 εκατομμύρια δολάρια ετησίως, σύμφωνα με ένα εσωτερικό έγγραφο, που αναφέρεται στον προγραμματισμό για το πρώτο εξάμηνο του έτους.

«Σε ό,τι αφορά τον συνολικό μας προϋπολογισμό, η ρητορική μίσους αποτελεί, σαφώς, το πιο ακριβό πρόβλημα», έγραψε διευθυντής σε ξεχωριστό έγγραφο, δηλώνοντας ότι τα έξοδα της εταιρείας για τον περιορισμό των προσβολών και η δυσφήμιση των μειονοτικών ομάδων, που απαγορεύονται από τους κανόνες της Facebook, «αποτελούν σημαντικά έξοδα».

Ο Στόουν προσέθεσε ότι τα κεφάλαια μετατοπίσθηκαν, ώστε να προσλάβουν περισσότερα άτομα, για να εκπαιδεύσουν τους αλγόριθμους της Facebook και ότι ο συνολικός προϋπολογισμός παρέμεινε σταθερός.

Περίπου το 75% από τα έξοδα προήλθε από την πρόσληψη ατόμων, για να εξετάζουν τις αναφορές στις οποίες έχουν προβεί χρήστες του Facebook, η πλειοψηφία των οποίων θεωρήθηκε, μετά από έλεγχο, ότι δεν αφορούσαν δημοσιεύσεις ρητορικής μίσους. Το 2019, πέραν από τη μείωση του χρόνου για τον έλεγχο των δημοσιεύσεων, η εταιρεία άρχισε να χρησιμοποιεί έναν αλγόριθμο, ο οποίος παράβλεπε αρκετές αναφορές από χρήστες, καθώς το σύστημα θεώρησε απίθανο οι αναφορές αυτές να αφορούν παραβιάσεις.

Αυτές οι κινήσεις της Facebook συνέβαλαν στην ενίσχυση του ποσοστού προληπτικής ανίχνευσης της εταιρείας, πράγμα που σημαίνει ότι μεγάλο ποσοστό του περιεχομένου που αφαιρέθηκε είχε εντοπιστεί από τα συστήματα τεχνητής νοημοσύνης – ποσοστό που τώρα ανέρχεται σε σχεδόν 98%. Τον Δεκέμβριο του 2017, το 24% της ρητορικής μίσους που αφαιρέθηκε από την πλατφόρμα εντοπίστηκε από συστήματα τεχνητής νοημοσύνης, και το υπόλοιπο από αναφορές χρηστών του Facebook, σύμφωνα με την τριμηνιαία δημόσια έκθεση της Facebook σχετικά με τον τρόπο με τον οποίο εφαρμόζει τις πολιτικές της.

Η απόδοση των αυτοματοποιημένων συστημάτων της Facebook δείχνει πόσο δύσκολο είναι και για την ίδια αλλά και για άλλες εταιρείες τεχνολογίας να δημιουργήσουν συστήματα που ανιχνεύουν αξιόπιστα το περιεχόμενο που παραβιάζει τους κανόνες τους.

«Αυτό είναι ένα από τα πιο δύσκολα προβλήματα στην νοημοσύνη των μηχανών», δήλωσε ο Τζ. Νάθαν Ματίας, επίκουρος καθηγητής στο Πανεπιστήμιο Κορνέλ.  «Αποτελεί, ακόμη, έναν τομέα που τόσες πολλές εταιρείες και υπεύθυνοι χάραξης πολιτικής αποφάσισαν ότι θα αποτελούσε τη λύση – χωρίς, όμως, να έχουν κατανοήσει το πρόβλημα».

Εμπειρία χρήστη

Η ασυμφωνία, όμως, που υπάρχει μεταξύ των όσων ισχυρίζεται η Facebook για την αποτελεσματικότητα της τεχνητής νοημοσύνης και τα όσα δηλώνουν οι ίδιοι οι χρήστες έχει προβληματίσει εδώ και καιρό τους ερευνητές, καθώς και άλλους σημαντικούς χρήστες της πλατφόρμας.

Το 2016, η ποπ σταρ, Σελίνα Γκόμεζ, πήγε στα κεντρικά γραφεία της Facebook, στο Μένλο Παρκ, για να φωτογραφηθεί με τον Ζάκερμπεργκ και τη γενική διευθύντρια της Facebook, Σέριλ Σάντμπεργκ, ώστε να γιορτάσουν το γεγονός ότι ο λογαριασμός της στο Instagram είναι αυτός με τους περισσότερους ακολούθους. Λίγο αργότερα, εξεπλάγην όταν διάβασε ένα σχόλιο σε μία από τις αναρτήσεις της στο Instagram που έγραφε: «Άντε πνίξου», σύμφωνα με τον εκπρόσωπό της.

Ανησυχούσε όλο και περισσότερο για τη διάδοση της ρητορικής μίσους μέσω των εν λόγω μέσων κοινωνικής δικτύωσης. Έτσι, τον Σεπτέμβριο του 2020, έστειλε ένα μήνυμα μέσω Instagram στον Ζάκερμπεργκ και τη Σάντμπεργκ, το οποίο αργότερα δημοσίευσε και στον λογαριασμό της, και στο οποίο ανέφερε ότι η εταιρεία αντιμετώπιζε «σοβαρό πρόβλημα» με θέματα μίσους, παραπληροφόρησης, ρατσισμού και φανατισμού.

Η Γκόμεζ, έπειτα, ρώτησε μέσω email γιατί το Facebook επέτρεψε σε ομάδες μίσους να ευδοκιμήσουν στον ιστότοπό του. Η Σάντμπεργκ απάντησε ότι τα συστήματα τεχνητής νοημοσύνης της Facebook εντόπισαν το 91% των 1,5 εκατομμυρίων αναρτήσεων που αφαιρέθηκαν επειδή παραβίαζαν τους κανόνες σχετικά με τη χρήση συμβόλων ή φράσεων από ομάδες μίσους.

Η Γκόμεζ έγραψε ότι η Σάντμπεργκ δεν είχε αντιμετωπίσει το ζήτημα, στέλνοντας στιγμιότυπα οθόνης από ομάδες του Facebook που προωθούσαν βίαιες ιδεολογίες.

«Αρνείστε να αναφέρετε, πόσω μάλλον να αντιμετωπίσετε, το πρόβλημα που έχει το Facebook με τους ρατσιστές και τους φανατικούς», έγραψε η Γκόμεζ σε email της, στις 10 Οκτωβρίου του 2020, προς τη Σάντμπεργκ και άλλα στελέχη, προσθέτοντας ότι υπάρχουν πολλές ομάδες στο Facebook «γεμάτες μίσος και ψέματα που μπορεί να βλάψουν ανθρώπους ή, ακόμη χειρότερα, και να τους οδηγήσουν στον θάνατο».

Η Γκόμεζ δεν προέβη σε περαιτέρω σχόλια.

Ο Στόουν ανέφερε ότι η Σάντμπεργκ, φέτος, ανέδειξε δημοσίως τα στοιχεία που αφορούσαν την επικράτηση της ρητορικής μίσους στο Facebook.

Ο Φάντι Κουράν, ερευνητής στην ομάδα ανθρωπίνων δικαιωμάτων της Avaaz, που υποστηρίζει τη δράση των πολιτών σε τομείς όπως η κλιματική αλλαγή και η φτώχεια, είπε ότι έχει ρωτήσει επανειλημμένα τους υπαλλήλους της Facebook αν καταλαβαίνουν σε τι βαθμό εμφανίζεται η ρητορική μίσους στην πλατφόρμα τους και πόση δράση αναλαμβάνουν οι ίδιοι επί του ζητήματος.

«Κρύβοντας το πρόβλημα και δίνοντας την αντίθετη εντύπωση – ότι το ζήτημα είναι υπό έλεγχο – γίνονται, στην πραγματικότητα, συνένοχοι στο να επιτρέπουν να συνεχίζονται αυτές οι παραβιάσεις, χωρίς την παραμικρή ανάληψη ευθυνών», συνέχισε ο ίδιος.

Ο Στόουν είπε ότι η Facebook παρείχε στον Κουράν στοιχεία που αφορούσαν τη συχνότητα εμφάνισης τέτοιας ρητορικής και άλλες μετρήσεις.

Στις τριμηνιαίες δημόσιες εκθέσεις της σχετικά με τον τρόπο με τον οποίο εφαρμόζει τις πολιτικές της, η Facebook μετρά την επικράτηση ορισμένων τύπων περιεχομένου, όπως η ρητορική μίσους, με βάση τον αριθμό των προβολών. Στελέχη της εταιρείας υποστηρίζουν ότι με τον τρόπο αυτό εντοπίζεται με περισσότερη ακρίβεια μέρος του περιεχομένου που παραβιάζει τις πολιτικές της. Με άλλα λόγια, κάποια δημοσίευση ρητορικής μίσους που προβλήθηκε ένα εκατομμύριο φορές αποτελεί μεγαλύτερο πρόβλημα από δημοσίευση ρητορικής μίσους που προβλήθηκε μόνο μία φορά.

Η εταιρεία δεν ανακοινώνει δημοσίως το ποσοστό προβολών ρητορικής μίσους που αφαιρεί. Στο εσωτερικό της, η εταιρεία υπολογίζει αυτό το ποσοστό εφαρμόζοντας τους ταξινομητές ρητορικής μίσους σε ένα δείγμα δημοσιεύσεων και, έπειτα, ζητώντας από τους χρήστες να ελέγξουν τις ίδιες δημοσιεύσεις για να εντοπίσουν όσα δεν βρήκαν οι ταξινομητές, όπως ανέφερε άτομο με άμεση γνώση των εκτιμήσεων. Ο αριθμός χρησιμοποιείται, στη συνέχεια, ως εκτίμηση για τον αριθμό των προβολών ρητορικής μίσους που αφαιρέθηκαν σε ολόκληρη την πλατφόρμα.

Αγώνες κοκορομαχιών, τροχαία ατυχήματα

Στα μέσα του 2018, ένας μηχανικός παρατήρησε μια ανησυχητική τάση: «πολλές προβολές από δημοσιεύσεις με ατυχήματα αυτοκινήτων και κοκορομαχίες», έγραψε σε έκθεση για την εταιρεία το 2019. Οι χρήστες του Facebook έβλεπαν συχνά στα χρονολόγιά τους βίντεο με τροχαία ατυχήματα και κοκορομαχίες, κάτι που κανονικά θα παραβίαζε τους κανόνες της εταιρείας.

Οι μηχανικοί της Facebook εκπαίδευσαν ένα σύστημα τεχνητής νοημοσύνης, ώστε να εντοπίζει βίντεο από κοκορομαχίες και τροχαία ατυχήματα και να τα αφαιρεί. «Ωστόσο», έγραψαν οι μηχανικοί σε ένα σημείωμα, «το πρόβλημα δεν λύθηκε πραγματικά».

H Facebook έθεσε, επίσης, κανόνες για τα βίντεο με κοκορομαχίες που η τεχνητή νοημοσύνη δεν αντιλαμβανόταν. Οι «ήπιες κοκορομαχίες» θεωρήθηκαν αποδεκτές, αλλά αυτές στις οποίες τα πτηνά τραυματίστηκαν σοβαρά, απαγορεύτηκαν. Ωστόσο, το μοντέλο που χρησιμοποιούσε ο υπολογιστής δεν μπορούσε να διακρίνει τα πτηνά που μάχονται από όσα που δεν πολεμούν.

Για να εκπαιδεύσουν τα συστήματα της εταιρείας, οι μηχανικοί χρησιμοποίησαν εξελιγμένα προγράμματα μηχανικής εκμάθησης, όπως το “Deep Vision”, και τα τροφοδοτούσαν, για ώρες, με βίντεο με κοκορομαχίες. Η διδασκαλία της τεχνητής νοημοσύνης να εντοπίζει ένα σοβαρά τραυματισμένο πουλί και να αγνοεί ένα λιγότερο τραυματισμένο αποδείχθηκε δύσκολη.

«Δεν είναι εύκολο να το καταφέρουμε», έγραψαν οι μηχανικοί.

Σε δύο περιπτώσεις, όμως, που οι μηχανικοί χρησιμοποίησαν τη τεχνητή νοημοσύνη για να δουν εάν πρόκειται για κοκορομαχία, εντόπισαν ένα ακόμη πρόβλημα: ότι τα βίντεο με κοκορομαχίες χαρακτηρίστηκαν ως τροχαία ατυχήματα, σύμφωνα με τους ερευνητές.

Σε ορισμένες περιπτώσεις, η τεχνητή νοημοσύνη δεν αναγνώριζε βίντεο με πυροβολισμούς, ενώ σε άλλες χαρακτήρισε λανθασμένα ορισμένα «άκακα» βίντεο, όπως παιχνίδια paintball ή βίντεο για πλύσιμο αυτοκινήτων, έγραψαν οι ερευνητές.

Οι ξένες γλώσσες αγνοούνται

Σύμφωνα με ένα σημείωμα του Δεκεμβρίου 2020, οι υπάλληλοι της Facebook συζήτησαν το ενδεχόμενο δημιουργίας ενός ταξινομητή για τον εντοπισμό των δημοσιεύσεων ρητορικής μίσους στις αραβικές διαλέκτους. Ωστόσο, η έλλειψη δεδομένων – όπως, π.χ. δείγματα από αυτές τις διαλέκτους – αποτέλεσε σημαντικό πρόβλημα, ειδικά εφόσον αντιμετώπιζαν, ήδη, προβλήματα με τη βασική αραβική γλώσσα.

Τον Ιανουάριο, υπάλληλος της Facebook ανέφερε ότι η ρητορική μίσους ήταν ένα από τα σημαντικότερα προβλήματα στο Αφγανιστάν, αλλά η εταιρεία ανέλαβε δράση εναντίον μόλις του 0,23% των εκτιμώμενων δημοσιεύσεων ρητορικής μίσους στη χώρα. «Όπως φαίνεται, δεν έχουν αρκετό υλικό, ώστε να εκπαιδεύσουν και να διατηρήσουν τους ταξινομητές στην Αραβική- πόσω μάλλον αν λάβουμε υπόψη και τις τεχνικές δυσκολίες», έγραψε υπάλληλος σε έγγραφό του.

Ο υπάλληλος είπε ότι οι εξαιρετικά λίγες αναφορές στις γλώσσες που μιλούνται στο Αφγανιστάν, δείχνει ότι πιθανότατα να μην έχουν εντοπιστεί πολλές από τις δημοσιεύσεις που παραβιάζουν τους κανόνες της εταιρείας.

Τον Μάρτιο, οι εργαζόμενοι που ετοιμάζονται για τις περιφερειακές εκλογές στην Ινδία δήλωσαν ότι η ρητορική μίσους αποτελούσε σημαντικό κίνδυνο στο Άσαμ, όπου η βία κατά των μουσουλμάνων και άλλων εθνοτικών ομάδων αυξάνεται σημαντικά. «Το Άσαμ μάς ανησυχεί ιδιαίτερα, καθώς δεν υπάρχει κάποιος ταξινομητής ρητορικής μίσους», όπως αναφέρεται σε έγγραφο.

Η έρευνα δείχνει ότι οι χρήστες του Facebook, παγκοσμίως, ανησυχούν περισσότερο για τη μη συμμόρφωση. Τον Μάρτιο του 2020, το Facebook διαπίστωσε ότι οι χρήστες, κατά μέσο όρο, βαθμολόγησαν την παραβίαση περιεχομένου, όπως τη ρητορική μίσους, ως πιο σημαντική από το να αφαιρεθεί από την πλατφόρμα κάποια δημοσίευσή τους, σύμφωνα με τα έγγραφα.

Σε παγκόσμιο επίπεδο, οι χρήστες θεώρησαν ιδιαίτερα σημαντικά προβλήματα τη ρητορική μίσους και τη βία, κατατάσσοντάς τα στην κορυφή της λίστας, ενώ έδωσαν ελάχιστη σημασία στις αφαιρέσεις των δημοσιεύσεων χωρίς να υπάρχει κάποιο σημαντικό κριτήριο. Στην Αμερική, ωστόσο, οι χρήστες ανησυχούσαν περισσότερο για τις αφαιρέσεις των δημοσιεύσεών τους, αλλά εξακολουθούσαν να αξιολογούν το πρόβλημα αυτό ως λιγότερο σημαντικό σε σχέση με τη ρητορική μίσους και τη βία, όπως δείχνει και η έρευνα.

Σε σημείωση στα τέλη του 2020, απερχόμενος επιστήμονας δεδομένων σημείωσε ότι η Facebook προειδοποιεί μέχρι και 5 φόρες έναν χρήστη ότι θα του επιβληθούν κυρώσεις εξαιτίας ρητορικής μίσους, πριν αφαιρεθούν οι εν λόγω δημοσιεύσεις από την πλατφόρμα. Επειδή τα συστήματα της Facebook δεν μπορούν να εντοπίσουν εύκολα δημοσιεύσεις ρητορική μίσους, οι χρήστες είναι πιθανό να την γλυτώσουν αρκετές φορές, πριν γίνει αντιληπτό ότι έχουν προβεί σε κάποια παραβίαση, όπως ανέφερε και ο επιστήμονας δεδομένων.

Ο απερχόμενος επιστήμονας δεδομένων σημείωσε, ακόμη, ότι, παρά τις μεγάλες επενδύσεις της Facebook, το ποσοστό επιτυχίας της εταιρείας στην αφαίρεση του απαγορευμένου περιεχομένου δεν είναι ιδιαίτερα ικανοποιητικό. «Κάθε εξάμηνο σημειώνουμε σταδιακή πρόοδο στον όγκο του περιεχομένου που μπορούμε να εντοπίσουμε προληπτικά», έγραψε ο ίδιος. «Ωστόσο, ο αριθμός αυτός εξακολουθεί να παραμένει σε χαμηλά επίπεδα, καθώς η πρόοδος είναι αργή».

«Ίσως να είμαστε οι καλύτεροι στον κόσμο», έγραψε, «αλλά οι καλύτεροι στον κόσμο δεν είναι αρκετά καλοί ώστε να εντοπίσουν μέρος του προβλήματος».

Μεταφράστηκε στα Ελληνικά από τον Οικονομικό Ταχυδρόμο