Εμποδίζει το Facebook -χάρη στους "έξυπνους" αλγόριθμούς του- τους πολυπληθείς χρήστες του να εκτεθούν στις γνώμες τελείως διαφορετικών πολιτικών πεποιθήσεων ή αντίθετα ενθαρρύνει την ιδεολογική και πολιτική απομόνωση και πόλωση;
Μια νέα επιστημονική έρευνα, που για πρώτη φορά επιχειρεί να απαντήσει το ερώτημα, δίνει μια μάλλον μεσοβέζικη απάντηση: το Facebook μάλλον συντηρεί τα διαχωριστικά φράγματα, αλλά η πολωτική επίδραση των αλγορίθμων του δεν είναι μεγάλη και σίγουρα είναι μικρότερη από τις αποφάσεις των ίδιων των χρηστών για το ποιές ειδήσεις θα διαβάσουν και θα ανταλλάξουν στο κοινωνικό δίκτυο.
Η έρευνα, που πραγματοποιήθηκε από τους ίδιους τους ερευνητές του Facebook και του Πανεπιστημίου του Μίσιγκαν με επικεφαλής τον δρα Σόλομον Μέσινγκ και δημοσιεύθηκε στο κορυφαίο επιστημονικό περιοδικό "Science", σύμφωνα με το BBC και το Γαλλικό Πρακτορείο, ανέλυσε στοιχεία για 10,1 εκατομμύρια χρήστες του δικτύου, οι οποίοι είχαν δηλώσει τις πολιτικές προτιμήσεις στο "προφίλ" τους (π.χ. προοδευτικός/φιλελεύθερος ή συντηρητικός).
Οι ερευνητές βρήκαν 226.000 ειδήσεις που είχαν μοιρασθεί από τουλάχιστον 20 χρήστες και χαρακτήρισαν καθε είδηση με μια βαθμολογία πολιτικής απόχρωσης, ανάλογα με τη δεδηλωμένη πολιτική ιδεολογία των περισσότερων χρηστών που την είχαν μοιρασθεί. Στη συνέχεια, ερεύνησαν πόσες ειδήσεις αντίθετης πολιτικής απόχρωσης ήσαν διαθέσιμες σε κάθε χρήστη.
Σύμφωνα με την μελέτη, περίπου το 80% των φίλων ενός μέσου χρήστη στο Facebook έχουν παρεμφερείς πολιτικές πεποιθήσεις, ενώ το 20% ανήκουν στο άλλο "στρατόπεδο". Οι φίλοι αυτοί ανταλλάσσουν ειδήσεις μέσω του δικτύου και οι ειδήσεις αυτές τείνουν να έχουν πάρει αυτό τον τρόπο, μόνο το 29,5% των ειδήσεων που βλέπει ένας χρήστης, περιέχει αντίθετες πολιτικές απόψεις.
Μετά από αυτό το πρώτο σημαντικό "φίλτρο" των φίλων, το ίδιο το Facebook "φιλτράρει" ποιές ειδήσεις βλέπει κάθε χρήστης, επειδή παρεμβαίνουν οι πολύπλοκοι, εμπιστευτικοί και επίμαχοι "κοινωνικοί" αλγόριθμοί του, που επιλέγουν μόνοι τους τι νομίζουν ότι θα ήθελε να δει ο χρήστης. Αυτοί οι αλγόριθμοι μειώνουν μεν αλλά ελαφρά (στο 28,9%) -και σίγουρα πολύ λιγότερο από το φίλτρο των φίλων- το ποσοστό των πολιτικών ειδήσεων διαφορετικής πολιτικής ιδεολογίας που μπορεί να δει ένας χρήστης. Τελικά, όταν ο μέσος χρήστης κάνει "κλικ" για να διαβάσει ειδήσεις, μόνο το ένα τέταρτο από αυτές (24,9%) υπερβαίνουν την πολιτικο-ιδεολογική σφαίρα του.
Το αρχικό συμπέρασμα - αλλά χρειάζεται περαιτέρω διερεύνηση- είναι ότι τα κοινωνικά δίκτυα, όπως το Facebook, συμβάλλουν με τους "κοινωνικούς" αλγόριθμούς τους, αλλά λίγο, στο να απομονωθεί ένας άνθρωπος από την άποψη του "άλλου". Πιο σημαντικό είναι όμως ότι δημιουργούν κοινότητες ατόμων με παρόμοιες αντιλήψεις και έτσι τους "προστατεύουν" (με ό,τι θετικό ή αρνητικό έχει αυτό) από τις αντίθετες απόψεις.
Όπως δήλωσε ο Μέσινγκ, οι προσωπικές επιλογές του κάθε χρήστη μετρούν πολύ περισσότερο από τις επιλογές του αλγόριθμου. Αυτό που "κάνει τη διαφορά", είναι η επιλογή των online φίλων. To ίδιο το Facebook, σχολιάζοντας την έρευνα, ανέφερε πως δείχνει ότι οι χρήστες του εκτίθενται σε μια ποικιλία απόψεων. "Βρήκαμε πως οι περισσότεροι άνθρωποι έχουν φίλους με αντίθετη πολιτική ιδεολογία και αυτό αντανακλάται στις ειδήσεις που ανταλλάσσουν", επεσήμανε το δίκτυο.
Το μεγάλο ερώτημα πάντως, σύμφωνα με πολλούς αναλυτές, είναι αν είναι καλύτερο για τη δημοκρατία να ενημερώνεται κανείς για το τι συμβαίνει στον κόσμο, μέσω του Facebook ή απευθείας μέσω των ποικίλων μέσων ενημέρωσης.
Υπενθυμίζεται ότι, όπως έχουν δείξει άλλες μελέτες, γενικότερα οι άνθρωποι τείνουν να διαβάζουν ειδήσεις από πηγές με τις οποίες συμφωνούν πολιτικά, ανατροφοδοτώντας έτσι τις πεποιθήσεις τους. Το ζήτημα είναι πως το Facebook φαίνεται να ενισχύει περαιτέρω αυτή τη διαδικασία, κυρίως μέσω του φίλτρου της επιλογής φίλων και λιγότερο μέσω του φίλτρου των αλγόριθμών του.