- Категория
- Общество
- Дата публикации
Защищая правду: Как отличить реальную новость от фейковой
Поддельные новости могут повлиять на выборы, экономику и посеять раздор в повседневной жизни. Исследователь данных Синан Арал, основываясь на одном из крупнейших исследований дезинформации, определил пять стратегий, которые помогут нам распутать запутанную сеть между истинным и ложным.
23 апреля 2013 года Associated Press разместила в Твиттере пост, который выглядел так: "Последние новости: два взрыва в Белом доме и Барак Обам был ранен". Этот твит ретвитнули 4000 раз менее чем за пять минут, и после этого он стал вирусным.
Эта информация не была настоящей новостью, опубликованной Associated Press. Фактически это была ложь, или поддельные новости, которые распространялись сирийскими хакерами, проникшими в дескриптор Associated Press в Twitter. Их целью было разрушить общество, но они разрушили гораздо больше. Потому что алгоритмы автоматической торговли сразу же ухватились за настроения в этом твите и начали торговать, основываясь на том, что президент Соединенных Штатов был ранен или убит в результате этого взрыва. Это обрушило фондовый рынок, уничтожив $140 млрд за один день.
Подписывайтесь на Youtube-канал delo.uaИсследование Оксфордского университета показало, что на выборах в Швеции треть всей распространяемой в социальных сетях информации о выборах была поддельной или дезинформирующей.
Кроме того, подобные кампании дезинформации в социальных сетях могут распространять то, что называется "пропагандой геноцида", например, против этнической группы рохинджа в Бирме, что привело к убийствам многих людей в Индии.
Синан Арал с группой коллег изучали фальшивые новости еще до того, как они получили глобальное распространение. В 2018 году они опубликовали крупнейшее в истории исследование распространения фальшивых новостей в Интернете. В исследовании изучались все проверенные правдивые и ложные новости, которые когда-либо распространялись в Твиттере, с момента его создания в 2006 году до 2017 года. Для изучения использовались правдивые новости, которые прошли проверку в шести независимых организациях, проверяющих факты. Группа могла измерить скорость их распространения, глубину и ширину их распространения, сколько людей участвовало в этом информационном каскаде и так далее. После этого было проведено сравнение распространения правдивых и ложных новостей. И вот что удалось найти исследователям.
Ложные новости распространяются дальше, быстрее, глубже и шире, чем правдивые в каждой категории информации, которая была изучена. Иногда данные отличались на порядок. Причем, ложные политические новости были самыми вирусными. Они распространялось дальше, быстрее, глубже и шире, чем любой другой тип ложных новостей.
Почему это так? Первой гипотезой исследователей было то, что у людей, которые распространяют ложные новости, больше подписчиков, или же они чаще пишут в Твиттере, или, может быть, у них более высокий уровень доверия. Каждая версия проверялась по очереди. Результат оказался с точностью до наоборот.
Распространители ложных новостей имели меньше последователей, были подписаны на меньшее количество людей, были менее активными, и пользовались Твиттером недолго. Тем не менее, ложные новости распространялись на 70% вероятнее, чем правдивые, с учетом всех этих и многих других факторов.
Исследователи начали искать другие объяснения и разработали "гипотезу новизны". Хорошо известно, что когда люди читают какую-то литературу, их внимание привлекает что-то новое, чем они могут поделиться с другими, повысив свой статус. Основываясь на этом, исследователи измерили новизну поступающего истинного или ложного твита по сравнению с тем, что человек видел за 60 дней до этого в социальной сети.
Кроме этого, исследователи анализировали информацию и чувства, содержащиеся в ответах на истинные и ложные твиты. Было обнаружено, что реакция на ложные новости содержала большой процент удивления и отвращения, а правдивые новости вызывали в людях больше предвкушения, радости и доверия. Этот результат подтвердил гипотезу — люди с большей вероятностью делятся тем, что для них ново и удивительно.
Чтобы анализ был более полным, группа провела эксперимент с ботами и обнаружила, что боты с одинаковой скоростью ускоряют распространение как ложных, так и правдивых новостей. Это означает, что боты не несут ответственности за различие в распространении правды и лжи в сети. Ответственны за это люди. По мнению Синана Арала ситуация будет усугубляться с развитием технологий в области синтетических медиа и искусственного интеллекта.
Как изменить ситуацию
Маркировка. Когда мы покупаем продукты, мы можем прочитать их состав, количество калорий и другую информацию. Но, когда мы ее читаем, у нас нет никаких маркеров. Что содержится в этой информации? Достоверен ли источник? Откуда эта информация? Введение маркировки — это потенциальная возможность, но она сопряжена с определенными проблемами. Например, кто в обществе решает, что является правдой, а что ложью? Это правительства? Это социальные сети? Это независимый консорциум, проверяющий факты? А как эти факты проверяются?
Стимулы. Во время президентских выборов в США была волна дезинформации, пришедшая из Македонии, которая не имела каких-либо политических мотивов, но имела большие экономические мотивы. Благодаря тому, что ложные новости распространяются быстрее, глубже и дальше, на них зарабатываются рекламные доллары. Если мы сможем подавить распространение этой информации, возможно, пропадет интерес к производству ложных новостей с экономическим стимулом.
Регулирование. Сегодня в некоторых странах активно изучается вопрос о том, что будет, если социальные сети начнут регулировать. Возможно, определенная степень регулирования и должна рассматриваться, она также несет определенную опасность. Например, в Малайзии могут приговорить к шести годам заключения за распространение дезинформации. В авторитарных режимах такой подход может использоваться для подавления мнений меньшинств и продолжения репрессий.
Прозрачность. С одной стороны правительства хотят знать, как работают алгоритмы социальных сетей, и в частности, Facebook. С другой стороны Facebook просят заблокировать все доступы, чтобы сохранить безопасность данных.
Таким образом социальные сети сталкиваются с неким парадоксом прозрачности. Их просят быть открытыми и прозрачными и, в тоже время, безопасными. Это очень сложная ситуация, которая все же должна быть решена.
Алгоритмы и машинное обучение. Технологии предназначены для того, чтобы определять ложные новости и стараться ослабить их поток. Однако нужно помнить, что в основе любого технологического процесса или подхода лежит фундаментальный этический и философский вопрос о том, как мы определяем истину и ложь, кому мы даем силу это определять, что является законным, что должно быть разрешено, а что нет. Технология не может принимать такие решения. Это только этика и философия.
Почти каждая теория принятия решений человеком, человеческое сотрудничество и координации в своей основе имеет некоторые представления об истине. Но с появлением фальшивых новостей, ростом количества фальшивых видео и аудио, мы находимся на грани конца реальности, в которое можем отличить правдивое от лживого. И это несет потенциально невероятную опасность.
Мы должны быть бдительными и защищать правду. Технологии, политика и, главное, решения, поведения и действия каждого человека должны быть направлены на эту защиту.
Читайте также: Технические тренды 2020: О чем говорят женщины-руководители