preloader
search-icon

Медіалайфхак

Як розкривати мережі тролів? Штучний інтелект та deep fakes

Троль — це обліковий запис, який поширює інформацію, пропаганду, або ж активно сіє сумніви, недовіру у інших користувачів.

Росія має принаймні 7 відомих ферм тролів. Найвідоміша із них — Агенція інтернет-досліджень (IRA) в Санкт-Петербурзі. Ця ферма брала активну участь у виборах США і для цього використувала Twitter, Facebook та Instagram.

Часто дуже важко довести, хто стоїть за анонімним акаунтом в соцмережах, адже соцмережі неохоче діляться даними про користувачів. Якщо знищити всі підозрілі акаунти, які можуть бути тролями або ботами, соцмережі можуть втратити до 70% облікових записів – а це одразу відобразиться на їхніх фінансах.

Twitter спочатку заперечував, що російські тролі втручалися в вибори. Однак, коли проблема набула розголосу у ЗМІ, а у Конгресі США почались слухання у справі Facebook та Cambridge Analytica, компанія надала Конгресу список із 200 облікових записів, що були тролями. Пізніше Twitter оприлюднив ще 1800 даних облікових записів. Зрештою, у червні 2018 року опублікували дані ще 2800 облікових записів. Усі вони були частиною мережі IRA. Усі акаунти тролів із опублікованих списків були видалені, тому агентство негайно почало створювати нову армію. Цей факт може стати у пригоді: майже у всіх нових акаунтів у цій мережі дата створення — після червня 2018 року. Восени 2019 року Twitter провів ще одну чистку, але менш масову. IRA намагається поповнити ряди, тому багато ботів, які зареєстровані у вересні-жовтні 2019.

Ось кілька прикладів пропагандистських меседжів, що розповсюджуються російськими тролями:

  • українці — неонацисти;
  • малайзійський рейс МH17 був збитий Україною;
  • українці спровокували інцидент біля Керченської протоки.

АКТИВНІСТЬ ТРОЛІВ З 2013 РОКУ ДО СЕРЕДИНИ 2018 РОКУ

У активності тролів та ботів спостерігаємо сплески, коли мережу задіюють для реагування на гарячі події. Серед таких випадків — збиття малайзійського рейсу MH17 (рекордна активність), терористичні атаки в Брюсселі 2016 року, злиття документів щодо Клінтон у WikiLeaks.

ЩО РОБЛЯТЬ ТРОЛІ?

  • Прославляють тих, на кого працюють.
  • Здійснюють атаки на тих, кого їм сказали ненавидіти.
  • Працюють як «ракетоносій» для розкачки постів чи хештегів. Завдяки великій активності тролів пости чи хештеги входять у топи чи тренди соцмереж, де вони виходять на масову аудиторію.
  • Беруть участь у фейкових опитуваннях, конкурсах і тд.
  • Працюють з інформацією у відкритих джерелах – наприклад, редагують статті у Wikipedia для просування тих чи інших меседжів.

Чому важливо відстежувати тролів:

  • Дезінформація та пропаганда можуть помітно впливати на суспільну думку щодо різних тем (вакцинація, MH17, Brexit та чимало інших);
  • Пропаганда є серйозною загрозою для демократії, адже може культивувати зневіру та допомагати популістам.
  • Facebook, Twitter та Instagram поки що програють у боротьбі з тролями. У ЄС бракує законодавчої бази для боротьби проти пропаганди та контролю ботів. Окрім того, бракує співпраці між урядами, організаціями громадянського суспільства та соціальними медіа, такими як Twitter та Facebook.

Як має працювати аналітик активності тролів

  • мати багато терпіння: часто це чимало повторюваної рутинної роботи;
  • слідкувати за інфоприводами, які тролі використовують для інформаційних атак. Завжди можна побачити сплески їхньої активності.

ЯК РОЗПІЗНАТИ ТРОЛІВ

Всі акаунти у мережі тролів споріднюють кілька характерних рис:

  • вони мають величезну кількість фоловерів (переважно боти), навіть якщо обліковий запис є відносно новим;
  • акаунти часто є анонімними або ж ім'я не схоже на справжнє чи придумане;
  • серед їх фоловерів — такі ж анонімні акаунти із придуманими іменами.

Як працює «тролеферма» в Санкт-Петербурзі

  • У агенції працюють 400 працівників, близько 75% оперують російською мовою, а решта оперує англійською чи іншими іноземними мовами. У профілях тролів переважно вказані США чи Італія як країна проживання;
  • Тролі починають роботу близько 9 ранку за часовим поясом GMT+3. О 12 годині вони мають перерву на обід, і в цей час вся активність троль-акаунтів припиняється.

На практиці діяльність тролів виглядає таким чином. 22 березня 2016 року у Брюссельському аеропорту Завентем (Брюссель) стався теракт, організований Ісламською державою (ISIS). 75% твітів у мережі IRA того для були присвячені саме цій темі. Тролі масово використовували хештег #islamkills і змогли вивести його у тренди. Того дня, 99% твітів із цим хештегом належали акаунтам IRA. Твіти несли у собі крайні праві меседжі: мовляв, потрібно вбивати біженців, адже усі вони співпрацюють із Ісламською державою. Аналіз часу публікації твітів показує, що всі вони почалися з 9 ранку (GMT+3) і припинялись з 12 до 14 години — що співпадає із графіком IRA.

З ЯКИМИ ДАНИМИ МОЖНА ПРАЦЮВАТИ

Клемсонський університет у співпраці з Twitter опублікував 3 мільйони твітів із 1800 акаунтів IRA. Ці дані можна знайти на GitHub. Там вони у сирому вигляді, і їх потрібно опрацьовувати за допомогою програм. Є також зручна база даних онлайн — Russia Tweets.

У 2018 році Twitter опублікував понад 9 мільйонів твітів, що також були надіслані із акаунтів IRA — їх також можна завантажити і працювати.

ШТУЧНИЙ ІНТЕЛЕКТ ТА DEEP FAKES

Штучний інтелект починався із експертних систем. Наприклад, є група експертів, які розуміються на покупці авто. Програмісти намагались дізнатись всі можливі питання, які ставлять собі експерти, і навчити штучний інтелект працювати із цими ж питаннями.

Основна проблема під час роботи з deep learning — навчити алгоритм розпізнавати об’єкти. Це долається асоціаціями — що більше інформації опрацьовує штучний інтелект, то все точніше він виконує своє завдання.

Будь яка вузькоспеціалізована система штучного інтелекту може перевершити людину в конкретній задачі, але немає універсальних систем, які б робили добре багато різних задач одразу. Дані, які ми можемо надати системі для вивчення фейків, дуже обмежені.

Соціальні мережі набирають популярності, адже кожен може створювати контент. 67% американців отримують новини з Facebook.

Троль — звичайна дійова особа, яка надає кольорового забарвлення новинам. Вони оперують великими групами і подають новину з різних ракурсів. Боти далі вже поширюють «забарвлені» новини, але майже нічого не змінюють. Троль — креативний, бот — механічний.

Алгоритм поширення дезінформації виглядає так:

Що впливає на те, що користувач бачить в мережах? Мають значення перші 15 хвилин. Якщо пост набирає популярності в цей часовий проміжок, то алгоритм показуватиме його постійно.

Штучний інтелект, як-от Grover AI, може писати статті на задані теми. У такий спосіб створюють «одноденні» сайти з великою кількістю контенту, через що вони виглядають більш надійними.

Проблема зі спамовими мейлами вирішена, але проблема фейків — ні. Ось чому:

  • маніпуляція фактами;
  • зміна акцентів та емоційного забарвлення;
  • великі потоки даних;
  • складність категоризації та пріоритизації;
  • обмежені людські ресурси.

Як наслідок: на фейки недостатньо оперативно реагують, вони встигають поширитись і досягнути своєї мети.

Для вирішення проблеми фейкових новин необхідно більше даних. У довгостроковій перспективі маркування фейкових новин за аналогом маркування спамових мейлів буде вирішенням проблеми фейків.

Дедалі актуальнішою стає проблема Deep Fakes — відео, на яких реальна людина говорить чи робить те, чого насправді не було.

Ось на що треба звертати увагу для перевірки оригінальності відео:

  • синхронізація звуку та відео;
  • “мигання” зображення в області лиця;
  • розмиття губ, зубів та інших рис обличчя;
  • спотворення зображення при поворотах та рухах;
  • низька якість відео;
  • розмиття та різка зміна обрисів.

Матеріал підготовлено за результатами тренінгу «Антибот: як викривати інформаційні маніпуляції». Дивіться відеозапис усіх 6-ти модулів тренінгу за участю українських та міжнародних експертів.

Схожі події та новини

Медіа лайф-хак
Як визначити ботів у соцмережах?

15–20 червня 2020 року відбувся онлайн-тренінг «Антибот: як викривати інформаційні маніпуляції». Він був присвячений методам протистояння ботам, фейкам та інформаційним «вкидам» (зокрема, кремлівського походження) на основі досвіду іноземних та українських експертів. Ділимося конспектом тренінгу з корисними порадами.

Медіа лайф-хак
10 інструментів для відстеження інформаційних впливів онлайн

22–27 червня 2020 року відбувся поглиблений онлайн-тренінг «Антибот: як викривати інформаційні маніпуляції». Він був присвячений методам протистояння ботам, фейкам та інформаційним «вкидам» (зокрема, кремлівського походження) на основі досвіду іноземних та українських експертів.

Медіа лайф-хак
Як працювати з даними та не вестися на емоції

Правда має кілька прошарків, тому задача фактчекера — ставити питання, які будуть відкривати ці прошарки. Можна почати із перевірки фактів.

Медіа лайф-хак
«Антибот»: як викривати інформаційні маніпуляції

Тренінг проведено в рамках проєкту «Розповсюдження українського досвіду протистояння гібридним загрозам», який втілює ГО «Інтерньюз-Україна» за підтримки Центру інформації та документації НАТО в Україні.

Медіа лайф-хак
Як Росія здійснює інформаційну агресію проти Європи?

У світі гібридних загроз протистояння загрозі (resilience) починається тоді, коли відчуєш загрозу на власному досвіді. Тож деякі європейські країни, які відчули на собі шкідливі зовнішні впливи, починають «прокидатися».

Медіа лайф-хак
Що таке фейки та як їх викривати?

Як ефективно протистояти ботам, фейкам та інформаційним «вкидам»?