Facebook маніпулює людьми. Блог американського вченого

20 листопада 2016, 23:37
І яку роль відіграє соціальна мережа в поширенні неправдивої інформації

Після несподіваної перемоги Дональда Трампа виникло чимало запитань щодо того, яку роль зіграв Facebook у поширенні некоректної та упередженої інформації під час виборчої кампанії і чи вплинуло це на результат виборів.

Відео дня

Деякі применшували значимість Facebook – зокрема, його CEO Марк Цукерберг, який заявив, що фейкові новини навряд чи вплинули на вибори. Але питання політичної значущості соцмереж заслуговує уваги.

Чи пояснюють алгоритми фільтрів Facebook, чому так багато лібералів отримали помилкову впевненість у перемозі Клінтон? (Як і прихильники Ромні у 2012?) І чи не через фальшиві новини прихильники Трампа нормально поставилися до брехливих заяв свого кандидата?

Популярне переконання, що «бульбашки фільтрів» є причиною процвітання фальшивих новин на Facebook майже напевно помилково. Якщо мережа підштовхує людей до того, щоб вірити неправді – а це ще не доведено – то, найімовірніше, проблема полягає в тому, як платформа взаємодіє з базовими людськими соціальними тенденціями.

Чи пояснюють алгоритми фільтрів Facebook, чому так багато лібералів отримали помилкову впевненість у перемозі Клінтон?

Дезінформоване суспільство

Роль Facebook у поширенні політичних новин очевидна. У травні 2016 року 44% американців сказали, що дізнаються новини саме із цієї соцмережі. Кількість дезінформації, поширюваної через Facebook, також заперечувати не можна.

Цим можна пояснити те, чому в такої кількості американців склалися помилкові уявлення про політичну ситуацію.

Я почав вивчати роль інтернету в просуванні помилкових переконань під час виборів 2008 року, а увагу на роль соціальних медіа переніс у 2012 році. Під час цього дослідження я майже не знайшов доказів того, що послідовне використання соціальних мереж сприяло прийняттю помилкових відомостей про кандидатів, незважаючи на поширеність дезінформації. Соціальні медіа не надавали помітного впливу на переконання людей.

Але припустімо, що у 2016 році все було інакше (ці вибори були і в інших відносинах унікальні).

Якщо Facebook просуває платформу, через яку людям складніше відрізнити правду від брехні, це серйозна загроза американської демократії. Але озвучити проблему недостатньо – щоб впоратися з потоком брехливої інформації, потрібно зрозуміти, в чому причина ситуації, що склалася.

Справа не в «бульбашках фільтрів»

Facebook хоче, щоб його користувачі реагували на контент, а не були завалені ним, тому використовує програмне забезпечення, яке фільтрує новинні стрічки користувачів і визначає, який контент ті побачать. Ризик у тому, яким чином здійснюється ця підгонка.

Є достатньо доказів того, що люди віддають перевагу новинам, які підтверджують їхню політичну точку зору. Програмне забезпечення Facebook орієнтується за минулим дій користувачів; воно намагається вгадати, на які пости вони, ймовірно, клікнуть або якими новинами вирішать поділитися. Доведений до крайності, цей алгоритм створює бульбашку фільтрів, у якій користувачі бачать тільки те, що відповідає їхнім поглядам.

Здавалося б, усе просто. Прибрати персоналізовані бульбашки, і все буде добре. Але насправді це не так. Більшість людей стикаються у своїх новинних стрічках з інформацією, що ставить під питання їхні погляди – вони просто не вірять цій інформації.

Facebook = злісні й упереджені люди?

Якщо ізоляція від правди дійсно є головним джерелом неточної інформації, вихід простий: зробити правду більш видимою.

На жаль, відповідь не така проста. І це повертає нас до питання Facebook: чи є в цієї соціальної мережі інші аспекти, що впливають на переконання користувачів?

Ми знаємо про Facebook дві речі, які здатні допомогти поширенню неправдивої інформації. Перша – емоції заразні, і вони можуть поширюватися через Facebook. Не дивно, що в опитуваннях майже половина всіх користувачів описують політичну дискусію як «злісну». Друга – Facebook, схоже, зміцнює політичну ідентичність людей, сприяючи ще більшому розколу поглядів.

Саме ці два фактори – те, як гнів поширюється через Facebook і за його межі, і як соціальні мережі можуть зробити політичну приналежність користувача більш значущою для нього – пояснюють помилкові переконання користувачів краще, ніж «бульбашки фільтрів».

Якщо це правда, то нас чекає серйозний виклик. Facebook може опинитися змушений попрацювати над своїми алгоритмами, щоб поширювати більш точну інформацію. Google вже цим займається.

Але це ніяк не вирішує головну проблему, яка і сприяє в першу чергу поширенню неправдивої інформації: емоції і люди, які оточують вас у соціальних мережах. І нам доведеться подумати про те, як впоратися із цією проблемою.

The Conversation

Переклад НВ

Вперше опубліковано на The Conversation. Републікування повної версії тексту заборонено

Більше точок зору тут

Приєднуйтесь до нас у соцмережах Facebook, Telegram та Instagram.

poster
Підписатись на щоденну email-розсилку
матеріалів розділу Life
Залишайтесь в курсі подій з життя зірок, нових рецептів, краси та моди
Щосереди
Показати ще новини
Радіо НВ
X