Facebook για κατέβασμα φωτογραφιών φωτορεπόρτερ: Δεν είμαστε και τέλειοι
"Περιστασιακά ενδέχεται να συμβούν λάθη και περιεχόμενο που δεν παραβιάζει τις πολιτικές του Facebook να αφαιρεθεί"
Δημοσίευση 3/3/2021 | 21:48
Απάντησή έδωσε εκρόσωπος του ελληνικού τμήματος του Facebook προς σε όσους κατηγόρησαν την εφαρμογή για λογοκρισία στην Ελλάδα με αφορμή την απαγόρευση ανάρτησης φωτογραφιών απο την πορεία στήριξης στην απεργία πείνας του Δημήτρη Κουφοντίνα.
Η απάντηση:
«Οι τρομοκράτες, οι βίαιες εξτρεμιστικές ομάδες και οι οργανώσεις μίσους δεν έχουν θέση στο Facebook και το Instagram. Σύμφωνα με την πολιτική μας για τα Επικίνδυνα Άτομα και Οργανώσεις, απαγορεύουμε σε μέλη τρομοκρατικών οργανώσεων, όπως ο κ. Κουφοντίνας, να χρησιμοποιούν τις πλατφόρμες μας, καθώς επίσης, αποκλείουμε δημοσιεύσεις που επιδοκιμάζουν ή υποστηρίζουν αυτά τα άτομα και τις ενέργειές τους κάθε φορά που λαμβάνουμε σχετική γνώση. Ωστόσο, επιτρέπουμε στους χρήστες μας να συζητούν ουδέτερα για αυτά τα άτομα και να δημοσιεύουν ειδήσεις σχετικές με τις ενέργειές τους.
Παρόλο που σημειώνεται μεγάλη πρόοδος στα συστήματά μας, αυτά δεν παύουν να μην είναι τέλεια, με αποτέλεσμα κατά περιπτώσεις να γίνονται λάθη, όπως συνέβη στην προκειμένη. Το περιεχόμενο που αφαιρέθηκε κατά λάθος επαναφέρθηκε, όταν αυτό διαπιστώθηκε».
Ο ορισμός της τρομοκρατίας είναι ιδεολογικά αγνωστικός και μέχρι σήμερα, έχει εντοπιστεί ένα ευρύ φάσμα ομάδων ως τρομοκρατικές οργανώσεις, με βάση τη συμπεριφορά τους.
Το Facebook χρησιμοποιεί έναν συνδυασμό αναφορών χρηστών και τεχνολογίας για τον εντοπισμό περιεχομένου που παραβιάζει τις πολιτικές του. Οι εξελίξεις στην τεχνητή νοημοσύνη (AI) έχουν ως αποτέλεσμα να εντοπίζεται ακατάλληλο περιεχόμενο σε ένα μεγάλο εύρος θεμάτων, πριν ακόμη οι χρήστες χρειαστεί να κάνουν κάποια σχετική αναφορά. Συχνά η ακρίβεια των συστημάτων του Facebook είναι μεγαλύτερη από αυτή των αναφορών που λαμβάνει από τους χρήστες.
Δε λαμβάνονται μέτρα εναντίον περιεχομένου βασιζόμενο σε μαζικές αναφορές. Ακόμη και μία μοναδική αναφορά είναι αρκετή για να αποκλειστεί μέρος περιεχομένου, εφόσον επιβεβαιωθεί ότι παραβιάζει τις πολιτικές του.
Το Facebook, επίσης, κάνει χρήση ενός συνδυασμού τεχνολογίας και ανθρώπινου δυναμικού για να εξεταστεί το περιεχόμενο που αναγνωρίζεται ως παραβίαση των πολιτικών του. Παρόλο που η τεχνολογία έχει προχωρήσει αρκετά, εξακολουθούν να υπάρχουν τομείς στους οποίους είναι ζωτικής σημασίας να ελέγχεται το περιεχόμενο από ανθρώπινο παράγοντα. Σε αυτές τις περιπτώσεις, απαιτείται ανθρώπινη τεχνογνωσία για να προσδιοριστεί εάν το περιεχόμενο προβαίνει σε παραβιάσεις – όπως, για παράδειγμα, σε περιστατικά που η λήψη αποφάσεων είναι περίπλοκη και το ευρύτερο πλαίσιο κοινοποίησής του είναι μέγιστης σημασίας ή όταν η λήψη της απόφασης κρίνεται οριακά.
Το Facebook απασχολεί 15.000 επιμελητές περιεχομένου που εδρεύουν σε περιοχές σε όλο τον κόσμο. Συνολικά, εργάζονται 24 ώρες την ημέρα / 7 ημέρες την εβδομάδα, έτσι ώστε να μπορούν να ελεγχθούν γρήγορα οι αναφορές, σε περισσότερες από 50 γλώσσες συμπεριλαμβανομένων και των ελληνικών. Για περισσότερες πληροφορίες σχετικά με τον τρόπο λειτουργίας αυτής της διαδικασίας ακολουθήστε τον παρακάτω σύνδεσμο: https://about.fb.com/news/2020/08/how-we-review-content/
Δεδομένου ότι πρόκειται για συστήματα, περιστασιακά ενδέχεται να συμβούν λάθη και περιεχόμενο που δεν παραβιάζει τις πολιτικές του Facebook να αφαιρεθεί, όπως συνέβη σε κάποιες περιπτώσεις στην προκειμένη. Για αυτόν τον λόγο, έχει δημιουργηθεί μία διαδικασία προσφυγής, έτσι ώστε οι χρήστες να μπορούν να απευθυνθούν στο Facebook, όταν πιστεύουν ότι έχει γίνει κάποιο λάθος, έτσι ώστε το περιεχόμενο να επανεξεταστεί.
Το Facebook ανά τρίμηνο κοινοποιεί δημοσίως το σύνολο του περιεχομένου που αφαιρέθηκε, τον αριθμό του περιεχομένου για το οποίο έχουν υποβληθεί ενστάσεις και το ποσοστό των ενστάσεων που είναι επιτυχείς στον παρακάτω σύνδεσμο: Αναφορά Εφαρμογής των Προτύπων Κοινότητας».
Εκπρόσωπος της εταιρείας Facebook