preloader
search-icon

повний конспект

«Антибот–2»: як викривати інформаційні маніпуляції? Конспект тренінгу

18–20 листопада 2019 року у Києві відбувся триденний тренінг «Антибот: як викривати інформаційні маніпуляції». Він був присвячений методам протистояння ботам, фейкам та інформаційним «вкидам» (зокрема, кремлівського походження) на основі досвіду іноземних та українських експертів.

Захід проведено в рамках проєкту «Розповсюдження українського досвіду протистояння гібридним загрозам», який втілює ГО «Інтерньюз-Україна» за підтримки Центру інформації та документації НАТО в Україні. Подія також відбувається під егідою ініціативи «Інтерньюз-Україна» UkraineWorld. Конспект попереднього тренінгу (січень 2019 р.) можна переглянути за посиланням.

Тренери:

  • Якуб Каленський, старший науковий співробітник The Atlantic Council — проєкт Disinfo Portal, колишній редактор проєкту ЄС EUvsDisinfo.
  • Роберт ван дер Ноордаа, нідерландський журналіст, один із авторів дослідження про роботу російської «Фабрики тролів».
  • Вікторія Романюк, заступниця головного редактора StopFake.
  • Анатолій Бондаренко, експерт Texty.org.ua, керівник напряму інфографіки та журналістики даних сайту, один із авторів дослідження «У нас погані новини», присвяченого аналізу маніпулятивних інформаційних джерел в інтернеті.
  • Максим Скубенко, лідер проєкту VoxCheck від VoxUkraine.
  • Павло Бєлоусов, експерт з питань цифрової безпеки DSS380/ГО «Інтерньюз-Україна».
  • Андрій Кусий, спеціаліст з аналізу даних SoftServe.
  • Володимир Єрмоленко, директор з аналітики ГО «Інтерньюз-Україна», головний редактор проєкту UkraineWorld.
  • Оксана Ілюк, аналітикиня ГО «Інтерньюз-Україна» та проєкту UkraineWorld.

У заході взяли участь журналісти регіональних ЗМІ, викладачі журналістики а також аналітики , які займаються темами інформаційних протистоянь.

Щоб поділитися знаннями тренінгу з широкою аудиторією, ми публікуємо цей короткий конспект. Конспект складається з 2-х частин: 1 частина – це стислий конспект виступів тренерів, 2 частина – список конкретних інструментів та навчальних матеріалів.

Ми законспектували слова спікерів, але варто пам'ятати, що це лише стислий конспект слів тренерів, а не текст, написаний самими тренерами. Тому можливі неточності.

NATO проти дезінформації

Барбора Маронкова, керівниця Центру інформації і документації НАТО в Україні

Не тільки Україна, а й НАТО є ціллю пропаганди. За 70 років свого існування у НАТО добре зрозуміли, що це означає. Північноатлантичний Альянс протистояв пропаганді з боку СРСР та країн Варшавського блоку 40 років. Після завершення «холодної війни» члени Альянсу протягом 10-15 думали, що протистояння вже немає і тому потрібно розповідати про НАТО у країнах колишнього соціалістичного табору. З 2014 року питання пропаганди повернулось до порядку денного.

Рецепт протидії дезінформації від НАТО:

  • усвідомити та зрозуміти проблему;
  • зрозуміти ситуацію та контекст. Щодня роблять моніторинг медіа, зокрема ій російських. Перевіряють, що було сказано, і звідки ця інформація надходить;
  • активно комунікувати та передбачати загрози. Прагнуть бути першими, хто доносить важливі меседжі;
  • спростування. НАТО звертається до авторів, редакторів, які випадково опублікували фейки. Зазвичай вони виправляють неправдиву інфомацію;
  • співпраця та координація з іншими гравцями — журналістами, аналітичними центрами та аналітиками. Також працювати з іншими країнами, що не є членами НАТО;
  • спільна контратака. Важливо протистояти власними наративами, що є правдивими.

Новітні маніпуляції

Анатолій Бондаренко, експерт Texty.org.ua, керівник напрямку інфографіки та журналістики даних сайту, один із авторів дослідження «У нас погані новини», присвяченого аналізу маніпулятивних інформаційних джерел в інтернеті.

Стенфордська інтернет-обсерваторія опублікувала результати дослідження операцій розвідки Росії в інтернеті, проведеного на основі даних, наданих Фесбуком — White Paper "Potemkin Pages and Personas".

Експерти вивчили тактики, які агенти російської розвідки з "Главного управления Генерального штаба Вооружённых сил Российской Федерации", використовували в інтернеті за останні роки, щоб формувати вигідне для Росії інтернет-середовище.

Дослідники вивчали мережу сторінок, пов'язаних з такими онлайн-групами як Кібер-беркут, "Комітет солдатських матерів України" та "Виїхати з України".

У своїй агресивній кампанії дезінформації проти України (з 2014 року) російський уряд часто використовує суперечливі повідомлення, які, тим не менше, переслідують одну загальну мету: послабити Україну та залишити її під контролем Росії.

Серед багатьох часто протилежних векторів операцій розвідки Росії в Україні, дослідники виділили дезінформацію, спрямовану на зменшення легітимності влади у Києві; зниження рівня довіри до ЗСУ (з використанням для цього частини громадських організацій); для переконання українських громадян у тому, що у їхньої батьківщини "немає майбутнього" і тому необхідно емігрувати (в першу чергу, в Польщу)

Хоча сторінки, які були проаналізовані, мали різні напрямки діяльності, загальною метою було знищення рівня підтримки влади та підсилення суперечок між східною та західною частинами країни.

Сучасна російська пропаганда взяла за основу радянську методику, але змінила інструменти, використовує технології і соціальні мережі. Росія користується теорією реверсивного контролю: коли за допомогою фейків та маніпуляцій Україну змушують прийняти рішення, яке буде на користь Росії.

СРСР намагався переконати, що соціалізм кращий за капіталізм (зробити це було справді важко). Зараз Росія пішла іншим шляхом: посіяти зневіру, невпевненість у своїх силах та демократії, довести до паралічу рішень.

Як ефективно протидіяти дезінформації, не запроваджуючи цензуру: досвід Тайваню

На відміну від інших владних режимів у Азії, Тайвань вирішив боротися з пошестю дезінформації, не вдаючись до цензури чи обмежень. Він намагається зберегти чесність та демократичність ЗМІ на противагу своєму значно більшому опоненту Китаю, який жорстко контролює власні медіа й має змогу посіяти хаос у відкритій медійній системі Тайваню.

Ще до масового поширення пропагандистської чи дезінформаційної кампанії можна спостерігати появу відправної точки, де здійснюють певне тестування або перевірку різних варіантів – ще до того, поки вони стануть справді популярними. Тестуються меми, різні їх версії, щоб побачити, чи отримають вони «вірусне» поширення.

Вищі урядовці мають відреагувати на появу ворожого вкиду в інформпростір протягом години. У разі виявлення дезінформаційної кампанії, коли вона ще не сягнула мас, протягом 60 хвилин виготовити таке саме або навіть більш переконливе повідомлення. Якщо не запустити контрповідомлення, не приготувати відеоролики, фільми чи хоча б картинки через шість годин, протидія безнадійна.

Сендвіч правди

Якщо людина повірила у брехню, то казати їй правду часто немає сенсу — інколи це навіть підсилює віру в брехню. Сендвіч правди — один зі способів спростування фейків. Спочатку потрібно написати, що насправді відбулося, без прив'язки до маніпулятивної новини. Потім — коротко згадати факти дезіфнормації, але при цьому ще раз розповісти правду. В результаті фейк виявляється ізольований правдою.

“Сміттєві сайти”

Інформація в Інтернеті поширюється не лише за допомогою великих онлайнових ЗМІ та соцмереж. Існує велика та розгалужена екосистема «помийних» сайтів. «Новини» з цих видань часто дуже низької якості або навіть повністю вигадані. При цьому вони збирають понад 50 мільйонів візитів на місяць. Для порівняння, «Українська правда» збирає 15 мільйонів. Щодня новинне сміття читають сотні тисяч людей. За допомогою машинних алгоритмів Texty.org.ua дослідили близько мільйона текстів, що були опубліковані на подібних сайтах протягом року. Тексти дослідили цей феномен у матеріалі “У нас погані новини”.

Навчальна гра

Як створюють маніпулятивні матеріали ви можете побачити, створивши найгірше ЗМІ і ставши популярним у грі "Маніпулятор". Її Тексти створили разом із Інститутом масової інформації (ІМІ).

Історична пропаганда

Володимир Єрмоленко, директор з аналітики ГО «Інтерньюз-Україна», головний редактор проєкту UkraineWorld Оксана Ілюк, аналітикиня ГО «Інтерньюз-Україна» та проєкту UkraineWorld.

Посилання на дослідження: Ре-візія історії: російська історична пропаганда та Україна.

Історія опинилася в центрі найновішої агресії Росії проти України. Щоб надати цій агресії сенс, щоб зробити її «зрозумілою» для певного кола людей, Кремль розповідає цим людям історії про історію. Так мертві стали керувати живими, а минуле – майбутнім.

Для аналізу російських наративів ми дібрали понад 850 тисяч постів з ВК та 16 тисяч постів з фейсбуку (період: з 1 січня 2016 до 1 квітня 2019 включно). З них «цільовими» (вони містять ключові слова, які нас цікавили) виявилися 248 тисяч постів у ВК та 2,5 тисячі постів у фейсбуку. З цього масиву інформації ми вибрали найпопулярніші пости і теми, які проаналізували і завдяки цьому вийшли на ключові наративи:

  1. «Україна — це невдала тінь Росії».
  2. «Україна — це штучний проєкт Заходу».
  3. «Крим, Донбас і південний схід України — це Росія».
  4. «СРСР – потужна імперія, Сталін — герой».
  5. «Усі українські націоналісти були фашистами».
  6. «Україна забула про перемогу над нацизмом».

Основні характеристики російської історичної пропаганди в Україні:

  • історія як виправдання сучасної агресії РФ;
  • розмиття хронології, змішування історичних постатей, періодів та подій;
  • привабливість у соціальних мережах, адже російська історична пропаганда використовує меми, жарти, пісні та відео. також присутня мова ворожнечі;
  • абсурдність, яка підкріплена “фактами”, що ускладнює аргументовану відповідь та спростування.

Чому пропаганда, а не дезінформація?

Тому що наратив може бути правдивим, але ця правда подана під кутом, вигідним Росії. Російська історична пропаганда – це не завжди тільки «дезінформація» та «фейкові новини». Все значно складніше. Вона використовує суміш фактів і вигадок, знань і маніпуляцій. У новому її вигляді це спроба утвердити свій наратив і знецінити наратив опонента за допомогою спрощених і однозначних тез, часто підкріплених сильними емоціями

Також наративи не лише нівелюють “систему координат”, що притаманно європейському інформаційному просторі, а продовжують насаджувати конкретні ідеї. Скажімо, “в 12 столітті територія нинішньої України називалась “Русь”, що правда. Також був період, коли назви “Русь” та “Україна” використовувались одночасно. Росія стверджує, що вона є наступницею Русі. Важливо показати, чому Русь — не Росія.

Це дослідження не відповідає на пропаганду пропагандою, а дає відповідь професійних істориків, які розбирають і пояснюють, де була маніпуляція, що є правдою. До прикладу, український історик Сергій Громенко вдповідає на наратив про те, що “Крим завжди був російським” фактами: лише 5,6 відсотків своєї історії Крим був російським. Інфографіка за посиланням. Також він аналізує кількість росіян, які проживали в Криму та порівнює цю кількість з кримськими татарами. Інфографіка за посиланням.

Не можна відповісти однією мітологією на іншу. Це дослідження не дає український «контрнаратив» і українську «контрпропаганду» у відповідь на російську пропаганду. Дослідження показує, що все складно. Бо істина – складна. І вона часто складається з багатьох чинників, в нею вливаються багато різних річок.

Дезінформаційна екосистема

Якуб Каленський, експерт проєкту Disinfo Portal, колишній редактор EUvsDisinfo

Масована кампанія кремлівської дезінформації у світі почалась водночас із російським вторгненням в Україну. Раніше були проведені дезінформаційні кампанії, орієнтовані на аудиторію всередині Росії, і мали місце поодинокі випадки дезінформації, націлені за межі Росії. Водночас, масовий експорт дезінформації Кремля за межі Росії, десятками мов, використовуючи сотні та тисячі каналів, є новим з 2014 року. Відтоді гібридна інформаційна війна триває щодня. Таким чином, початковий бліцкриг перетворився на постійну кампанію тривалої агресії.

Мета цієї кампанії дуже проста: послабити і дестабілізувати Захід на всіх рівнях. Ці рівні — це міжурядові організації, такі як НАТО та ЄС, окремі держави, регіональні адміністрації, керівні коаліції, політичні партії, і аж до груп у суспільстві. Владімір Путін не може зробити Росію більш конкурентоспроможною на світовій арені, тому послаблення противників Росії — єдиний спосіб, коли Кремль може посилити свій вплив.

Є чотири лінії оборони, які можуть бути задіяні урядами, політиками, громадськими організаціями, аналітичними центрами, медіа та підприємцями:

1. Зафіксувати загрози. За це має відповідати держава. Також на цьому етапі можуть підключатись громадські організації та аналітичні центри. Це необхідний перший крок, без якого неможливо зробити подальші кроки належним чином.

Ідеальний результат цієї діяльності полягає в тому, щоб дізнатися, якими каналами поширюють дезінформацію, скільки повідомлень на день поширюють, на яку аудиторію ціляться і скільки людей переконують. Для цього нам потрібно мати надзвичайно надійну структуру моніторингу як для традиційних, так і для нових медіа. Також потрібно буде регулярно проводити опитування, які б оцінили ефективність дезінформаційних вкидів.

2. Інформувати про загрози. Складно протистояти дезінформації самостійно. Через це потрібна підтримка та розуміння від різних стейкхолдерів. Важливо адаптувати повідомлення для різних аудиторій, адже пересічні громадяни не читають аналітичні праці.

Потрібно мати дуже високий рівень обізнаності населення, а також ефективний моніторинг інформаційного простору в реальному часі та експертні знання про потенційні претензії на дезінформацію. Все це не збудувати за одну ніч. Треба пам’ятати, що зусиль уряду недостатньо. Важливо також взаємодіяти з іншими аудиторіями, які мають вирішальне значення у боротьбі з дезінформацією — політиками, журналістами та науковцями.

3. Працювати зі слабкостями, які використовує агресор. Потрібно відкрито говорити про суспільні проблеми (конфлікти на національному чи расовому підґрунті тощо), запускати програми з медіаграмотності, забезпечувати прозорість баз даних, перевіряти покупців реклами в соцмережах.

Кремлівська дезінформація рідко прагне створити нові точки розбрату в суспільстві; натомість вона експлуатує ті слабкі місця, які вже існують. Намагання пом'якшити ці слабкі місця — один із способів зробити наше суспільство менш вразливим у інформаційній війні.

4. Реагувати на дії агресора. Необхідно називати та нагадувати суспільству про тих, хто допоміг у розповсюдженні неправдивої інформації. Також потрібно впроваджувати санкції проти осіб чи компаній, які розповсюджують дезінформацію.

Західні країни та політики повинні обмежувати доступ до «медіа», що поширюють дезінформації. Потрібно не давати їм змоги діяти: не видавати акредитацій на заходи та пресконференції, не публікувати через них жодних заяв для них та не відповідати на їх запитання. Ці обмеження дозволять суспільству зрозуміти, що ці «медіа» не є засобами масової інформації, якими вони хочуть здаватись, а зброєю в інформаційній війні.

Країни Заходу мають усі необхідні інструменти для того, аби виграти інформаційну війну; ми їх просто не використовуємо. Наразі Росія краща за нас лише завдяки її нещадній рішучості і цілковитій відсутності моралі. Росіяни діють, тоді як ми ведемо, здавалося б, нескінченні дискусії про те, чи слід діяти, і якщо так, то як саме. Це не повинно бути так. Якщо ми вирішимо, що хочемо виграти цю війну, ми її виграємо. Це лише питання політичної волі, а не знань чи можливостей.

Мережі тролів

Роберт ван дер Ноордаа, нідерландський журналіст, один із авторів дослідження про роботу російської «Фабрики тролів».

Що таке «троль» та «мережа тролів»

Троль — це обліковий запис, який поширює інформацію, пропаганду, або ж активно сіє сумніви, недовіру у інших користувачів.

Росія має принаймні 7 відомих ферм тролів. Найвідоміша із них — Агенція інтернет-досліджень (IRA) в Санкт-Петербурзі. Ця ферма брала активну участь у виборах США і для цього використувала Twitter, Facebook та Instagram.

Часто дуже важко довести, хто стоїть за анонімним акаунтом в соцмережах, адже соцмережі неохоче діляться даними про користувачів.

Twitter спочатку заперечував, що російські тролі втручалися в вибори. Однак, коли проблема набула розголосу у ЗМІ, а у Конгресі США почались слухання у справі Facebook та Cambridge Analytica, компанія надала Конгресу список із 200 облікових записів, що були тролями. Пізніше Twitter оприлюднив ще 1800 даних облікових записів. Зрештою, у червні 2018 року опублікували дані ще 2800 облікових записів. Усі вони були частиною мережі IRA.

Усі акаунти тролів із опублікованих списків були видалені, тому агентство негайно почало створювати нову армію. Цей факт може стати у пригоді: майже у всіх нових акаунтів у цій мережі дата створення — після червня 2018 року. Восени 2019 року Twitter провів ще одну чистку, але менш масову. IRA намагається поповнити ряди, тому багато ботів, які зареєстровані у вересні-жовтні 2019.

Ось кілька прикладів пропагандистських меседжів, що розповсюджуються російськими тролями:

  • українці — неонацисти;
  • малайзійський рейс МH17 був збитий Україною;
  • українці спровокували інцидент біля Керченської протоки.

Російські тролі особливо активні у дискусіях навколо чутливих та нагальних тем. Приклади: black lives matter (про права афроамерканців), жовті жилети у Франції, крайні праві політичні партії і рухи тощо. Тролі також активно підтримують сепаратизм. Водночас, до сепаратизму вдома Росія ставиться вкрай негативно і всіляк його придушує.

Активність тролів з 2013 року до середи 2018 року

У активності тролів та ботів спостерігаємо сплески, коли мережу задіюють для реагування на гарячі події. Серед таких випадків — збиття малазійського рейсу MH-17 (рекордна активність), терористичі атаки в Брюсселі 2016 року, злиття документів щодо Клінтон у WikiLeaks.

Чому важливо відстежувати тролів:

  • Дезінформація та пропаганда можуть помітно впливати на суспільну думку щодо різних тем (вакцинація, MH17, Brexit та чимало інших);
  • Пропаганда є серйозною загрозою для демократії, адже може культивувати зневіру та допомагати популістам.

Facebook, Twitter та Instagram поки що програють у боротьбі з тролями. Щодня Роберт бачить нових тролів. У ЄС бракує законодавчої бази для боротьби проти пропаганди та контролю ботів. Окрім того, бракує співпраці між урядами, організаціями громадянського суспільства та соціальними медіа, такими як Twitter та Facebook.

Як розпізнати тролів

Всі акаунти у мережі тролів споріднюють кілька характерних рис:

  • вони мають величезну кількість фоловерів (переважно боти), навіть якщо обліковий запис є відносно новим;
  • акаунти часто є анонімними або ж ім'я не схоже на справжнє чи придумане;
  • серед їх фоловерів — такі ж анонімні акаунти із придуманими іменами.

Лайфхаки, що дозволяють визначати ботів та тролів:

  • боти в мережі зазвичай фоловлять та ретвітять одне одного. Вони можуть бути навіть з різних країн, але говорити однією мовою (англійською, голандською тощо);
  • Локацію акаунтів можна визначити за допомогою додатку GeoCreepy (https://www.geocreepy.com/);
  • Перевірте, чи акаунти із таким іменем є в інших соцмережах — Facebook, Instagram;
  • Ви можете отримати частину електронної адреси, на яку зареєстрований акаунт. Для цього скористайтесь опцією “Відновити пароль” і введіть ім’я акаунту, який вам цікавий;
  • стежте за годинами активності акаунтів. Якщо вони зареєстровані у США, але твітять вдень за московським часом — це вже підозріло.

Роберт провів інтерв'ю з Людмилою Савчук — журналісткою, що кілька місяців працювала у IRA. Ось що йому вдалось дізнатись:

  • у агенції працюють 400 працівників, близько 75% оперують російською мовою, а решта оперує англійською чи іншими іноземними мовами. У профілях тролів переважно вказані США чи Італія як країна проживання;
  • Тролі починають роботу близько 9 ранку за часовим поясом GMT+3. О 12 годині вони мають перерву на обід, і в цей час вся активність троль-акаунтів припиняється.

На практиці діяльність тролів виглядає таким чином. 22 березня 2016 року у Брюссельському аеропорту Завентем (Брюссель) стався теракт, організований Ісламською державою (ISIS). 75% твітів у мережі IRA того для були присвячені саме цій темі. Тролі масово використовували хештег #islamkills і змогли вивести його у тренди. Того дня, 99% твітів із цим хештегом належали акаунтам IRA.

Твіти несли у собі крайні праві меседжі: мовляв, потрібно вбивати біженців, адже усі вони співпрацюють із Ісламською державою. Аналіз часу публікації твітів показує, що всі вони почалися з 9 ранку (GMT+3) і припинялись з 12 до 14 години — що співпадає із графіком IRA.

З якими даними можна працювати

Клемсонський університет у співпраці з Twitter опублікував 3 мільйони твітів із 1800 акаунтів IRA. Ці дані можна знайти на GitHub. Там вони у сирому вигляді, і їх потрібно опрацьовувати за допомогою програм. Є також зручна база даних онлайн — Russia Tweets.

У 2018 році Twitter опублікував понад 9 мільйонів твітів, що також були надіслані із акаунтів IRA — їх також можна завантажити і працювати.

Саме це і зробив Роберт. Він завантажив обидві бази даних та вивчав зміст твітів за ключовими словами. В цьому йому у нагоді стала програма, написана мовою Python з використанням оригінальних файлів CSV. Він також використовував сайт Twitter для того, аби отримати детальну інформацію про акаунти.

Вплив фейків на інформаційний простір

Вікторія Романюк, заступниця головного редактора StopFake

Найважче працювати із абсурдними фейками на кшталт відомого матеріалу про снігурів. Вони мають великий вплив на суспільство, але їх же найбільш проблематично спростовувати, бо аудиторія, на яку вони розраховані, не надто сприймає раціональні аргументи.

Основною рисою пропаганди є мова ворожнечі — приниження гідності особи або цілої спільноти через посилання до її приналежності до певного етносу, професійної групи тощо. Так, Росія намагається спростувати саму ідею української державності та подати Україну як "failed state" в інформаційному просторі.

Інформацією можна маніпулювати у багато різних способів:

  • спотворити за допомогою неповної, односторонньої подачі;
  • сфабрикувати, видавши неправдиву інформацію за реальну;
  • відредагувати, додавши власні домисли та коментарі;
  • інтерпретувати у вигідному для маніпулятора світлі;
  • просто приховати;
  • вибірково навести факти в залежності від позиції автора та/чи ЗМІ;
  • супроводити матеріал заголовком,невідповідним до змісту;
  • опублікувати правдиву інформацію тоді, коли вона втратила свою актуальність;
  • подати неточну цитату, вириваючи її із контексту, внаслідок чого вона змінює свій зміст.

Фейк може мати кілька завдань одразу:

  • створення помилкового уявлення про події та явища;
  • маніпулювання (створення емоційних і інформаційних пасток, які впливають на прийняття рішень, вибір певної позиції тощо);
  • формування певного емоційного фону у аудиторії (паніка, страх, нагнітання, байдужість тощо);
  • провокування ворожнечі та агресії (міжнаціональної, расової, релігійної тощо).

Процес фактчекінгового дослідження

Фактчекінг і верифікація по суті є науковим дослідженням. Саме тому схема зберігається:

Об'єкт → сутність питання → доказова база → висновки.

Під час фактчекінгу потрібно звертати увагу на такі кроки:

  • відповідність між інформаційним повідомленням і дійсністю;
  • походження інформаційного повідомлення: чи дійсно це оригінальний фрагмент контенту;
  • джерело: хто завантажив матеріал;
  • автора: хто його створив;
  • дата: коли контент був створений;
  • місце: де контент був створений.

Під час фактчекінгу важливо відключати емоції і суб'єктивні погляди. Коли вмикається емоція, раціо відключається. Необхідно застосовувати критичний підхід — ставити питання до предмету аналізу та шукати відповіді. Також важливо не шкодувати час та використовувати всі засоби й інструменти для перевірки одного факту.

Шляхи розповсюдження:

  • віральні сайти;
  • соціальні мережі;
  • політичні сайти та сторінки;
  • іноземний вплив.

З іноземним впливом стикається не лише Україна. Така проблема і у Сполучених Штатах, Британії, ЄС.

Основні наративи російської пропаганди:

  • Україна, яка не відбулася;
  • Незаконне захоплення влади в Україні;
  • Україна - фашистська держава;
  • Росія не є окупантом, а захищає своїх;
  • Переселенці і біженці в Росію;
  • Територіальний розпад Росії і територіальні претензії сусідніх держав;
  • Ослаблення світової підтримки України;
  • Критика українського уряду;
  • Дискредитація української армії.

Штучний інтелект та deep fakes

Андрій Кусий, Lead Data Scientist у Soft Serve

Соціальні мережі набирають популярності, адже кожен може створювати контент. 67% американців отримують новини з Facebook.

Троль — звичайна дійова особа, яка надає кольорового забарвлення новинам. Вони оперують великими групами і подають новину з різних ракурсів. Бот поширює новину, але майже нічого не змінює. Троль — креативний, бот — механічний.

Що впливає на те, що користувач бачить в мережах? Мають значення перші 15 хвилин. Якщо пост набирає популярності в цей часовий проміжок, то алгоритм показуватиме його постійно.

Проблема зі спамовими мейлами вирішена, але проблема фейків — ні. Ось чому:

  • маніпуляція фактами;
  • зміна акцентів та емоційного забарвлення;
  • великі потоки даних;
  • складність категоризації та пріоритизації;
  • обмежені людські ресурси.

Як наслідок: на фейки недостатньо оперативно реагують, вони встигають поширитись і досягнути своєї мети.

Для вирішення проблеми фейкових новин необхідно більше даних. У довгостроковій перспективі маркування фейкових новин за аналогом маркування спамових мейлів буде вирішенням проблеми фейків.

Але є й практичні рішення, які можуть допомогти тут і зараз:

  • виявлення маніпулятивних тем та наративів на ранніх стадіях;
  • аналіз аномалій;
  • аналітика: ідентифікація тролів та їх мереж, часових інтервалів
  • реагування: негайне створення контрнаративу і його розповсюдження, маркування фейків через штучний інтелект.

Дедалі актуальнішою стає проблема Deep Fakes — відео, на яких реальна людина говорить чи робить те, чого насправді не було. Ось на що треба звертати увагу для перевірки оригінальності відео:

  • синхронізація звуку та відео;
  • “мигання” зображення в області лиця;
  • розмиття губ, зубів та інших рис обличчя;
  • спотворення зображення при поворотах та рухах;
  • низька якість відео;
  • розмиття та різка зміна обрисів.

Для чого потрібні боти

Павло Бєлоусов, експерт з питань інформаційної безпеки DSS380/Інтерньюз Україна.

Бот — це спеціальна програма, що виконує автоматично і за заданим розкладом які-небудь дії через ті ж інтерфейси, що й звичайний користувач.

Боти потрібні в першу чергу для бізнесу: вони дозволяють наростити ефективність маркетингових інструментів, залучити аудиторію. Але також використовуються у політиці, адже дають змогу посилити вплив у інформаційному середовищі.

В сучасному середовищі дедалі більше застосовується комбінований підхід: застосування бота та людини водночас. Ботоферми — humanware — це групи людей, що фізично працюють з великою кількістю ботів. Через спеціальні інтерфейси люди лайкають, коментять і шерять з багатьох акаунтів і за це отримують невелику платню. Така взаємодія потрібна, аби обходити капчі — запобіжні заходи, що мають на меті відрізнити бота від справжньої людини.

Ботнети користуються свободою, яку соцмережі дають користувачам. Наприклад, неможливо ввести обмеження на лайки, що б значно зменшило вплив мереж ботів.

Як опираються соцмережі

Боти є однією із головних проблем для соцмереж, адже зменшують довіру користувачів до інформаційного середовища. Саме тому Facebook, Twitter та Youtube регулярно влаштовують «чистки» бот-акаунтів.

У травні 2018 року Twitter видаляв 10 мільйонів акаунтів в тиждень. Масштаби «чисток» у Facebook та Youtube невідомі, адже компанії не оприлюднюють цифри. Однак, вони можуть бути доволі значними. Так, 14 грудня 2018 року з Youtube каналу Юлії Тимошенко після масового видалення ботів зникло 44,3% підписників.

Можливі ознаки бот-акаунта

  • відсутність аватару/розмита фотографія на аватарі/абстракція замість фото;
  • відсутність декількох фотографій однієї й тої ж людини в різних ракурсах, а натомість — абстракція або групові фотографії з великою кількістю людей;
  • відсутність власного контенту/публікацій, замість цього — регулярні репости;
  • відсутність або мала кількість лайків під власними публікаціями;
  • недостовірна або зовсім не заповнена інформація в профілі («про себе», «місце роботи» тощо);
  • публікація одного і того ж коментаря;
  • велика кількість зовнішніх посилань в коментарях на сторонні сайти (боти в середньому використовують посилання в три рази частіше за людей);
  • немає юзернейму;
  • неспівставні дата реєстрації і кількість публікацій (наприклад, місяць як зареєстрований, а вже кілька сотень публікацій);
  • частота публікацій (наприклад, пост чи коментар кожні кілька хвилин);
  • використовує проксі/TOR/VPN.

Як працювати з даними

Максим Скубенко, редактор VoxCheck

Правда має кілька прошарків, тому задача фактчекера — ставити питання, які будуть відкривати ці прошарки. Можна почати із перевірки фактів.

Джерела надійних даних:

  1. Держстат
  2. Органи влади (НБУ, Мінфін, ВРУ)
  3. Міжнародні організації (Світовий Банк, ВООЗ, МВФ, ООН)
  4. Міжнародні рейтинги (Doing Business, Global Competitiveness Report, Corruption Perceptions Index)
  5. Соціологічні опитування (КМІС, Дем. Ініціативи, Центр Разумкова, «Рейтинг»)
  6. Євростат
  7. Звіти або аналітика світових компаній (British Petrolium)
  8. Дані органів влади та статистичних служб інших країн

Як робити фактчек? Схема проста: думаємо-шукаємо-аналізуємо

Коли дивитесь на рейтинги та соціологічні дослідження, завжди потрібно уважно дослідити методологію. Завжди перевіряйте контекст, адже він змінює сприйняття сказаного.

Інструменти

Перевірка сайту

  • WhoIs – дозволяє визначити власника та термін існування домену сайту.

Верифікація зображень та відео

  • ImgOps – комплекс інструментів для перевірки зображень. Тут є лінки на інші ресурси для перевірки та редагування зображень.
  • FotoForensics – показує метадані зображення.
  • exif – показує метадані зображення.
  • WolframAlpha – показує історичні дані про погоду.
  • WikiMapia – дозволяє отримати додаткову інформацію про місця та споруди.
  • InVID Verification Plugin – дозволяє отримувати контекстуальную інформацію про відеоролики, розбиває його на кадри для подальшого зворотного пошуку.
  • TinEye – зворотний пошук зображень визначає, де це зображення з’являлось в інтернеті.
  • TerraServer – супутникові знімки.
  • DigitalGlobe – супутникові знімки.

Виявлення ботів у Twitter

Інструменти для аналізу інших соцмереж

  • Hoaxy – показує мережу поширення хештегу Twitter.
  • Facebook Graph – дозволяє відстежувати діяльність акаунтів у Facebook.
  • Stalkscan.com – аналіз акаунтів у Facebook.
  • Geocreepy.com – збір геоданих через соцмережі.
  • Socialblade.com – статистика в Youtube.
  • vkjust.com – розкрутка сторінок у ВКонтакте.
  • ytuber.ru – для накрутки підписників та переглядів в Youtube.
  • subscribercounter.com – статистична інформація по каналам в Youtube.
  • Toolkit For FB – плагін для аналізу Facebook.
  • Russia Tweets – архів твітів російських тролів у зручній формі для пошуку за ключовими словами.
  • Metabot – відображення кремлівських ботів на YouTube.
  • dislikemeter.com – сервіс зі сбору статистики про накрутки в YouTube.
  • Hamilton 68 – відслідковує російську дезінформацію у реальному часі.

Візуалізація даних

  • Gephi – візуалізація мережевих зв’язків

Навчальні матеріали

Схожі події та новини

Подія
Як соцмережі впливають на політику? Офлайн-чат аналітиків та політичних гравців

28 листопада ГО «Інтерньюз-Україна» проведе офлайн дискусію та презентує дослідження «Мемократія: як соцмережі впливають на політику в Україні».

Подія
Представництво ЄС їде у Луцьк та Рожищі

11 – 12 листопада 2019 року делегація Представництва Європейського Союзу в Україні відвідає Луцьк та Рожище з офіційним візитом. У рамках візиту відбудеться низка інформаційних заходів.

Медіа лайф-хак
Як висвітлювати насильство, дотримуючись журналістських стандартів?

Насильство — розповсюджена соціальна проблема. Її не можна замовчувати, адже від насилля у світі щороку помирають 1,4 мільйона людей. Ми зібрали основні поради для журналістів про те, як правильно вісвітлювати цю тему.