preloader
search-icon

боти, фейки, інфовкиди

Антибот: як протидіяти інформаційним маніпуляціям [конспект тренінгу]

15–17 січня 2019 р. у Києві відбувся триденний тренінг «Антибот: як викривати інформаційні маніпуляції». Він був присвячений методам протистояння ботам, фейкам та інформаційним «вкидам» (зокрема, кремлівського походження) на основі досвіду іноземних та українських експертів.

Захід проведено в рамках проекту «Викриття зловмисних інформаційних впливів в Україні», що його здійснює ГО «Інтерньюз-Україна» за підтримки Центру інформації та документації НАТО в Україні. Подія відбулась під егідою ініціативи «Інтерньюз-Україна» UkraineWorld.

Тренери

  • Ґідріус Сакалаускас , директор Res Publica (центру громадянського спротиву, Литва), представник ініціативи «Литовські ельфи», націленої на протистояння російським «тролям»
  • Роберт ван дер Ноордаа , нідерландський журналіст, один із авторів дослідження про роботу російської «Фабрики тролів»
  • Вікторія Романюк , заступниця головного редактора StopFake
  • Анатолій Бондаренко , експерт Texty.org.ua, керівник напрямку інфографіки та журналістики даних сайту, один із авторів дослідження «У нас погані новини», присвяченого аналізу маніпулятивних інформаційних джерел в інтернеті
  • Олександр Надельнюк , експерт VoxUkraine, аналітик, автор дослідження про російську «Фабрику тролів» у Twitter
  • Павло Бєлоусов , експерт з питань інформаційної безпеки DSS380

У заході взяли участь журналісти національних та регіональних ЗМІ , а також аналітики , які займаються темами інформаційних протистоянь.

Щоб поділитися знаннями тренінгу з широкою аудиторією, ми публікуємо цей короткий конспект. Конспект складається з 2-х частин: 1 частина – це стислий конспект виступів тренерів, 2 частина – список конкретних інструментів та навчальних матеріалів.

Ми законспектували слова спікерів, але варто пам'ятати, що це лише стислий конспект слів тренерів, а не текст, написаний самими тренерами. Тому можливі неточності.

Аналіз маніпулятивних інформаційних джерел в інтернеті

Вікторія Романюк, заступниця головного редактора StopFake, заступниця директора Могилянської школи журналістики.

Про проект StopFake

Вебсайт Stopfake.org був першим із найвідоміших нині українських проектів, що протидіють кремлівським інформаційним атакам. Його створили 2 березня 2014 року студенти, випускники й викладачі Могилянської школи журналістики. Своєю головною метою вони визначили розвінчання фейків і маніпуляцій, які стосувалися України. Пізніше до цього додали спростування неправди, що стосується деяких європейських країн.

Принцип роботи журналістів Stopfake.org стандартний: вони моніторять російські, українські та європейські медіа, шукаючи там потенційно неправдиву інформацію. В основі робочого процесу лежить фактчекінг — пошук і аналіз інформації з відкритих джерел, перевірка фото й відео на достовірність. 3 2014 року спростували близько 3000 фейкових історій.

Проект не представляє жодні партії, політичні організації, чи уряд. Наразі існує 13 мовних служб.

Про вплив фейків на інформаційний простір

Найважче працювати із абсурдними фейками на кшталт відомого матеріалу про снігурів. Вони мають великий вплив на суспільство, але їх же найбільш проблематично спростовувати, бо аудиторія, на яку вони розраховані, не надто сприймає раціональні аргументи.

Основною рисою пропаганди є мова ворожнечі — приниження гідності особи або цілої спільноти через посилання до її приналежності до певного етносу, професійної групи тощо. Так, Росія намагається спростувати саму ідею української державності та подати Україну як "failed state" в інформаційному просторі.

Інформацією можна маніпулювати у багато різних способів:

  • спотворити за допомогою неповної, односторонньої подачі;
  • сфабрикувати, видавши неправдиву інформацію за реальну;
  • відредагувати, додавши власні домисли та коментарі;
  • інтерпретувати у вигідному для маніпулятора світлі;
  • просто приховати;
  • вибірково навести факти в залежності від позиції автора та/чи ЗМІ;
  • супроводити матеріал заголовком,невідповідним до змісту;
  • опублікувати правдиву інформацію тоді, коли вона втратила свою актуальність;
  • подати неточну цитату, вириваючи її із контексту, внаслідок чого вона змінює свій зміст.

Фейк може мати кілька завдань одразу:

  • створення помилкового уявлення про події та явища;
  • маніпулювання (створення емоційних і інформаційних пасток, які впливають на прийняття рішень, вибір певної позиції тощо);
  • формування певного емоційного фону у аудиторії (паніка, страх, нагнітання, байдужість тощо);
  • провокування ворожнечі та агресії (міжнаціональної, расової, релігійної тощо).

Процес фактчекінгового дослідження

Фактчекінг і верифікація по суті є науковим дослідженням. Саме тому схема зберігається:

Об'єкт → сутністьпитання → доказова база → висновки.

Під час фактчекінгу потрібно звертати увагу на такі кроки:

  • відповідність між інформаційним повідомленням і дійсністю;
  • походження інформаційного повідомлення: чи дійсно це оригінальний фрагмент контенту;
  • джерело: хто завантажив матеріал;
  • автора: хто його створив;
  • дата: коли контент був створений;
  • місце: де контент був створений.

Під час фактчекінгу важливо відключати емоції і суб'єктивні погляди. Необхідно застосовувати критичний підхід — ставити питання до предмету аналізу та шукати відповіді. Також важливо не шкодувати час та використовувати всі засоби й інструменти для перевірки одного факту.


Анатолій Бондаренко, експерт Texty.org.ua, керівник напрямку інфографіки та журналістики даних сайту, один із авторів дослідження «У нас погані новини», присвяченого аналізу маніпулятивних інформаційних джерел в інтернеті.

Інформація в Інтернеті поширюється не лише за допомогою великих онлайнових ЗМІ та соцмереж. Існує велика та розгалужена екосистема «помийних» сайтів. «Новини» з цих видань часто дуже низької якості або навіть повністю вигадані. При цьому вони збирають понад 50 мільйонів візитів на місяць. Для порівняння, «Українська правда» збирає 15 мільйонів. Щодня новинне сміття читають сотні тисяч людей. За допомогою машинних алгоритмів Texty.org.ua дослідили близько мільйона текстів, що були опубліковані на подібних сайтах протягом року.

Ось посилання на дослідження.

Texty.org.ua досліджували такі маніпуляції:

Емоційні маніпуляції

Матеріали, які містять образи, надлишок засобів виразності або нецензурну лексику. Такі «новини» не інформують, а викликають у читача емоції.

Маніпулювання аргументами

Логічні помилки в аргументах, безпідставні твердження, апеляції до загальновідомого, очевидно однобоке висвітлення теми або підміна аргументів спекуляціями сумнівних експертів.

Сайти, які ми вивчали, часто беруть новини в авторитетних українських ЗМІ. Вони або просто передруковують, щоб наповнити стрічку, або додають до них крикливі заголовки й переписують так, щоб зробити їх більш клікабельними.

Окремий кластер квазіантикорупційних сайтів посилається на відомих журналістів-розслідувачів. Знову ж таки, щоб наповнити сайт або для аргументів у своїх «викривальних» статтях, які жертва може зняти за гроші.

Сайти, які наповнюються з окупованих територій, посилаються лише на російські ЗМІ або українські провідні проросійські видання: Страна, Вєсті, 112, НьюсВан. Останні удають, що дотримуються журналістських стандартів. Сайти терористів беруть їхні тенденційні новини, і ще більше емоційно нагнітають для своєї аудиторії.

Російська пропаганда

22 сайти з нашої вибірки — це новинні ресурси ОРДЛО або російські «трешові» пропагандистські ЗМІ з акцентом на Україну. Від 37 до 75% усіх новин про Україну на цих сайтах маніпулюють емоціями чи аргументами. Вони в Україні мають 22,5 млн візитів на місяць.

Аудиторія роспропаганди на низькоякісних малих сайтах велика, як у кількох ЗМІ всеукраїнського масштабу. Наприклад, «Русская вєсна» демонструє 11,8 млн візитів з України. Для порівняння, «Українська правда» — 16, сайт «Нового врємєні» — 10,25 млн. Щоправда, цілком імовірно те, що ці «роспропагандос» купують трафік, за прикладом їхніх балтійських колег. Ми цього аспекту не вивчали.

Ось декілька з них: «Політнавігатор», «Русская вєсна», «Комітет визволення України», «Украіна.ру», «Насправді.інфо». Те, про що вони пишуть, — це паралельна реальність. Місія цих сайтів — стимулювати максимально лояльних прибічників, всіляко оберігаючи їх від деструктивної реальності. «Чума расчеловечивания кусок за куском пожирает Украину», — починає одну зі своїх статей «Політнавігатор».

Ми припускаємо, що бізнес-модель маніпулятивних новин існує завдяки феномену, який можна назвати «прочитав в Інтернеті». Він полягає в тому, що значна частина читачів сприймає весь Інтернет у цілому як одне велике ЗМІ і не розрізняє, що «в Інтернеті» можуть паралельно існувати майданчики з різною репутацією та принципами роботи.

Про що вони пишуть

Найбільша кількість контенту (більш ніж половина від усіх повідомлень з цієї вибірки) присвячена Україні як такій. Головною темою є улюблені пісні російської пропаганди: «країна-невдаха», «країна, що не існує», «країна, що не вдалася» (failed state).

«На Украінє» все дуже погано, катастрофи і провали, що сталися або от-от стануться, негаразди всередині і ззовні тощо. Практично будь-який інформпривід використовується для створення «новин» із потрібним месиджем. Це важливий елемент інформаційної війни: такі новини потрібні Росії, щоб викликати в нас апатію, нездатність приймати рішення та діяти.

Серед політиків найбільше повідомлень, головним чином негативу, стосується Петра Порошенка. Якщо вірити цим заголовкам, Порошенко — це дуже, дуже, дуже погана людина і політик: «алкоголік», «крадій», «нахабний боягуз» і тому подібне. Загалом як російські, так і українські «трешові» сайти ллють постійний потік лайна на українського президента.

Також багато контенту, піару та пропаганди було інвестовано в Міхеіла Саакашвілі. Хоча інформприводи щодо нього були лише протягом частини часу, коли ми збирали новини, він на другому місці за згадками серед всіх політиків. Є негативні повідомлення, але головним чином вони нейтральні або позитивні (часто в контексті боротьби з Порошенком).

Це лише кілька прикладів. Щоб дізнатися більше про зміст «новин», роздивляйтесь карту.

Методологія

Ми скачали близько 7 тисяч новин зі «зливних бачків» та великих сайтів із гарною репутацією. Потім позначили кожну новину — або як «нормальну», або як таку, що відповідає певному типу маніпуляції.

Далі на базі відкласифікованих новин натренували алгоритм глибокого навчання визначати типи маніпуляції у новинах. У процесі роботи ми встановили, що найбільш поширеними маніпуляціями є «емоційна упередженість» та «хибна аргументація». Саме їх і вчився «ловити» алгоритм.

Ми взяли весь потік новин із обраних нами сайтів, починаючи з грудня 2017 по жовтень 2018 року, та визначили відсоток маніпулятивних новин на кожному з них.

Комп'ютерний код розміщено на ресурсі GitHub.

Навчальна гра

Як створюють маніпулятивні матеріали ви можете побачити, створивши найгірше ЗМІ і ставши популярним у гру "Маніпулятор".

Як виявити ботів, або сплановані інформаційні вкиди у соціальних мережах на прикладі Твіттеру

Роберт ван дер Ноордаа , нідерландський журналіст, один із авторів дослідження про роботу російської «Фабрики тролів»

Що таке «троль» та «мережа тролів»

Троль — це обліковий запис, який поширює інформацію, пропаганду, або ж активно сіє сумніви, недовіру у інших користувачів.

Росія має принаймні 7 відомих ферм тролів. Найвідоміша із них — Агенція інтернет-досліджень (IRA) в Санкт-Петербурзі. Ця ферма брала активну участь у виборах США і для цього використувала Twitter, Facebook та Instagram.

Часто дуже важко довести, хто стоїть за анонімним акаунтом в соцмережах, адже соцмережі неохоче діляться даними про користувачів.

Twitter спочатку заперечував, що російські тролі втручалися в вибори. Однак, коли проблема набула розголосу у ЗМІ, а у Конгресі США почались слухання у справі Facebook та Cambridge Analytica, компанія надала Конгресу список із 200 облікових записів, що були тролями. Пізніше Twitter оприлюднив ще 1800 даних облікових записів. Зрештою, у червні 2018 року опублікували дані ще 2800 облікових записів. Усі вони були частиною мережі IRA.

Усі акаунти тролів із опублікованих списків були видалені, тому агентство негайно почало створювати нову армію. Цей факт може стати у пригоді: майже у всіх нових акаунтів у цій мережі дата створення — після червня 2018 року.

Ось кілька прикладів пропагандистських меседжів, що розповсюджуються російськими тролями:

  • українці — неонацисти;
  • малайзійський рейс МH17 був збитий Україною;
  • українці спровокували інцидент біля Керченської протоки;

Російські тролі особливо активні у дискусіях навколо чутливих та нагальних тем. Приклади: black lives matter (про права афроамерканців), жовті жилети у Франції, крайні праві політичні партії і рухи тощо. Тролі також активно підтримують сепаратизм. Водночас, до сепаратизму вдома Росія ставиться вкрай негативно і всіляк його придушує.

Як розпізнати тролів

Всі акаунти у мережі тролів споріднюють кілька характерних рис:

  • Вони мають величезну кількість фоловерів (переважно боти), навіть якщо обліковий запис є відносно новим;
  • Акаунти часто є анонімними або ж ім'я не схоже на справжнє чи придумане;
  • Можна визначати акаунти за тим, як вони фоловлять одне одного.

Роберт провів інтерв'ю з Людмилою Савчук — журналісткою, що кілька місяців працювала у IRA. Ось що йому вдалось дізнатись:

  • у агенції працюють 400 працівників, близько 75% оперують російською мовою, а решта оперує англійською чи іншими іноземними мовами. У профілях тролів переважно вказані США чи Італія як країна проживання;
  • Тролі починають роботу близько 9 ранку за часовим поясом GMT+3. О 12 годині вони мають перерву на обід, і в цей час вся активність троль-акаунтів припиняється.

На практиці діяльність тролів виглядає таким чином. 22 березня 2016 року у Брюссельському аеропорту Завентем (Брюссель) стався теракт, організований Ісламською державою (ISIS). 75% твітів у мережі IRA того для були присвячені саме цій темі. Тролі масово використовували хештег #islamkills і змогли вивести його у тренди. Того дня, 99% твітів із цим хештегом належали акаунтам IRA.

Твіти несли у собі крайні праві меседжі: мовляв, потрібно вбивати біженців, адже усі вони співпрацюють із Ісламською державою. Аналіз часу публікації твітів показує, що всі вони почалися з 9 ранку (GMT+3) і припинялись з 12 до 14 години — що співпадає із графіком IRA.

З якими даними можна працювати

Клемсонський університет у співпраці з Twitter опублікував 3 мільйони твітів із 1800 акаунтів IRA. Ці дані можна знайти на GitHub. Там вони у сирому вигляді, і їх потрібно опрацьовувати за допомогою програм. Є також зручна база даних онлайн — Russia Tweets.

У 2018 році Twitter опублікував понад 9 мільйонів твітів, що також були надіслані із акаунтів IRA — їх також можна завантажити і працювати.

Саме це і зробив Роберт. Він завантажив обидві бази даних та вивчав зміст твітів за ключовими словами. В цьому йому у нагоді стала програма, написана мовою Python з використанням оригінальних файлів CSV. Він також використовував сайт Twitter для того, аби отримати детальну інформацію про акаунти.


Олександр Надельнюк , експерт VoxUkraine, аналітик, автор дослідження про російську «Фабрику тролів» у Twitter

Посилання на дослідження Олександра "755 000 твітів, або Як російська «Фабрика тролів» намагалась впливати на порядок денний в Україні".

Висновки дослідження

За трохи більше 8 років у датасеті з «Фабрики тролів» є 774 957 твітів про Україну, які згенерували 1369 акаунтів. До анексії Криму твіттер-боти майже не проявляли активність: максимальна кількість публікацій за 2010-2013 роках була у день виборів до Верховної Ради 2012-го (90 твітів). Більш масово акаунти з вибірки почали твітити вже в кінці травня 2014-го: перед президентськими виборами (23 травня) було опубліковано 263 твіти. Наступні півроку кількість твітів не падала менше 115 на день.

Справжній «твіттер-шторм» відбувся 18 липня 2014 — наступний день після катастрофи літака MH-17. В той день акаунти «натвітили» понад 44 000 повідомлень, а в наступний — понад 25 000. Тоді 297 акаунтів просували інформацію про нібито винуватість України у збитті Боїнгу за допомогою хештегів #ПровокацияКиева (22,3 тис згадок), #КиевСбилБоинг (22,1 тис) та #КиевСкажиПравду (21,9 тис).

Понад 200 акаунтами керували централізовано. Крім того, що сам Твіттер пов'язує усі акаунти з датасету з «Агентством Інтернет-досліджень», ми знайшли два підтвердження одного власника кількох акаунтів. Протягом липня спостерігається дивна активність кількох клієнт-сервісів для роботи з Твіттером. Наприклад, за допомогою програми, яка має маркування «twisofter», твітили лише протягом 16-19 липня 2014 року. Найбільше публікацій було зроблено 18 та 19 липня — 19,3 та 11,2 тис твітів (або 43% та 40% від загальної кількості у відповідний день). Така ж історія з сервісом з маркуванням «token_app». Жодної згадки про ці сервіси у пошукових системах не знайдено, відповідно, існує ймовірність, що ці клієнт-сервіси були створені лише під конкретне завдання.

Друге підтвердження — контентне. 18 з 19 акаунтів, які ретвітнули найбільш поширюваний за вісім років пост «РИА Новости» зробили це одночасно — о 16:25 28 вересня 2015 року. Така ж ситуація у «Федерального агентства новостей». Найбільш популярний за ретвітати їх пост (80 RT) публікувався 45 різними акаунтами о 16:34 17 липня 2014 і 35 іншими акаунтами о 16:43 того ж дня.

Методологія

В середині жовтня компанія «Twitter, Inc» опублікувала архів даних з понад 9 мільйонами твітів, які за версією соціальної мережі причетні до російського «Агентства Інтернет-досліджень».

У датасеті 55% твітів російською мовою, 37% — англійською, а 8% — інші. VoxUkraine вирішив проаналізувати, скільки повідомлень безпосередньо стосувались України. Для цього ми відфільтрували 9 млн твітів по ключових словах, що з великою вірогідністю маркують допис, як той що має відношення до України. Пошук по ключовим словам виявив майже 775 000 твітів.

Період пошуку: січень 2010 - травень 2018.

Комп'ютерний код із детальним його поясненням - за цим посиланням.


Ґідріус Сакалаускас , директор Res Publica (центру громадянського спротиву, Литва), представник ініціативи «Литовські ельфи», націленої на протистояння російським тролям.

Як протистояти негативу позитивом

Ініціатива «Литовські ельфи» була започаткована групою друзів, що намагались боротись із негативом російських тролів — залишали позитивні коментарі під постами у Facebook та Twitter. Згодом діяльність розширилась, і група друзів перетворилась на волонтерську мережу.

«Литовські ельфи» координують свої дії через Facebook або Skype, аби викривати підроблені акаунти. В середньому ельфи можуть відправити 10-20 запитів на видалення ботів та тролів щодня. Координовані запити — ключ до блокування акаунтів.

Команда також розвінчує фейки. інструменти — гугл-таблиця, де записують адреси тролів та сайтів, що поширюють фейки, а також сайт fakedetector.org — але для доступу потрібно отримати запрошення від когось із ельфів.

Литовці часто стають мішенями фейків. У квітні 2018 року балтійська інформагенція BNS (Baltic News Service) стала жертвою хакерського нападу. Хакери поширили повідомлення про те, що американських солдатів у Латвії начебто отруїли гірчичним газом. У вересні 2017 року в литовських медіа поширювалось неправдиве повідомлення про те, що литовських військових інструкторів буцімто побили українські солдати в Луганській області.

Російські дезінформаційні кампанії є вкрай небезпечними, оскільки вони націлені на найбідніші та найменш захищені прошарки суспільства країн Балтії.

Згуртованість ельфів дозволяє їм проводити успішні інформаційні кампанії. Однією із них є #stopadidas.

Компанія Adidas запустила серію спортивного одягу із логотипом "СССР" напередодні чемпіонату світу з футболу–2018 у Росіїі. Однак, радянська символіка є забороненою у Литві. Литовські користувачі соцмереж масово поширювали хештег #Stopadidas — як на офіційній сторінці виробника, так і на власних сторінках. До них приєднались також користувачі з України та Грузії. Про кампанію почали писати медіа по обидві сторони Атлантичного океану, і в травні 2018 року Adidas зняли цю лінійку з продажу.

У вересні подібний скандал стався із Walmart, найбільшим рітейлером США. Цього разу до інформаційної кампанії проти Walmart долучились і посадовці країн Балтії, а також група депутатів, які представляють у Європарламенті Латвію, Литву й Естонію. Вони закликали найбільшу Walmart припинити продаж футболок із символікою "тоталітарного режиму, який убив мільйони людей". Як наслідок, 18 вересня футболки зникли з вітрин магазинів Walmart.

Аналіз ринку послуг з маніпуляції соціальними медіа

Павло Бєлоусов, експерт з питань інформаційної безпеки DSS380

Що таке боти і для чого вони потрібні

Бот — це спеціальна програма, що виконує автоматично і за заданим розкладом які-небудь дії через ті ж інтерфейси, що й звичайний користувач.

Боти потрібні в першу чергу для бізнесу: вони дозволяють наростити ефективність маркетингових інструментів, залучити аудиторію. Але також використовуються у політиці, адже дають змогу посилити вплив у інформаційному середовищі.

В сучасному середовищі дедалі більше застосовується комбінований підхід: застосування бота та людини водночас. Ботоферми — humanware — це групи людей, що фізично працюють з великою кількістю ботів. Через спеціальні інтерфейси люди лайкають, коментять і шерять з багатьох акаунтів і за це отримують невелику платню. Така взаємодія потрібна, аби обходити капчі — запобіжні заходи, що мають на меті відрізнити бота від справжньої людини.

Ботнети користуються свободою, яку соцмережі дають користувачам. Наприклад, неможливо ввести обмеження на лайки, що б значно зменшило вплив мереж ботів.

Як опираються соцмережі

Боти є однією із головних проблем для соцмереж, адже зменшують довіру користувачів до інформаційного середовища. Саме тому Facebook, Twitter та Youtube регулярно влаштовують «чистки» бот-акаунтів.

У травні 2018 року Twitter видаляв 10 мільйонів акаунтів в тиждень. Масштаби «чисток» у Facebook та Youtube невідомі, адже компанії не оприлюднюють цифри. Однак, вони можуть бути доволі значними. Так, 14 грудня 2018 року з Youtube каналу Юлії Тимошенко після масового видалення ботів зникло 44,3% підписників.

Можливі ознаки бот-акаунта

  • відсутність аватару/розмита фотографія на аватарі/абстракція замість фото;
  • відсутність декількох фотографій однієї й тої ж людини в різних ракурсах, а натомість — абстракція або групові фотографії з великою кількістю людей;
  • відсутність власного контенту/публікацій, замість цього — регулярні репости;
  • відсутність або мала кількість лайків під власними публікаціями;
  • недостовірна або зовсім не заповнена інформація в профілі («про себе», «місце роботи» тощо);
  • публікація одного і того ж коментаря;
  • велика кількість зовнішніх посилань в коментарях на сторонні сайти (боти в середньому використовують посилання в три рази частіше за людей);
  • немає юзернейму;
  • неспівставні дата реєстрації і кількість публікацій (наприклад, місяць як зареєстрований, а вже кілька сотень публікацій);
  • частота публікацій (наприклад, пост чи коментар кожні кілька хвилин);
  • використовує проксі/TOR/VPN.

Євген Мусієнко, директор аналітичної компанії Singularex, керував дослідженням російської активності у соціальних мережах країн Балтії.

Є цілий ринок продавців та покупців послуг для маніпуляції соціальними мережами. Хтось прагне отримати більше лайків під фото, хтось - отримати більший прибуток, а хтось - впливати на результати виборів. Якою би не була ціль, інструменти одні й ті ж самі.

На ринку можна купити послуги із розробки та управління програмним забезпеченням для маніпуляції метриками (лайками, коментарями, репостами, переглядами та відгуками).

Цей ринок відкритий. Ви можете знайти рекламу послуг із маніпуляції в YouTube у його власника Google.

На ринку домінують російські провайдери.

Типи акаунтів, які створюють для діяльності в соцмережах:

  • Акаунти, які зареєстровали автоматично
  • Акаунти, які зареєстровали вручну
  • Акаунти скомпрометовані [т.зв. Брути]

Має значення:

  • Верифікація [по email, по телефону]
  • Контент
  • Вік аккаунта

Мова йде не про одиноких хакерів, а про цілу індустрію, яка забезпечує акаунтами, проксі, сім-картами, програмним забезпеченням.

Технічні характеристики такого програмного забезпечення:

  • Реєстрація акаунтів
  • Збір даних з соціальних мереж
  • Оцінка зібраних даних на основі метаданих і пошукових запитів
  • Виконання масових підписок, лайків - (з метою отримати підписку або лайк у відповідь, іноді - з метою здійснення цільового дії, наприклад, придбання)
  • Публікація коментарів та повідомлень. Вимагає великої кількості облікових записів і тривалих затримок між ними, щоб уникнути виявлення соціальними мережами.

Супутня інфраструктура:

  • магазини акаунтів
  • Мобільні 4G proxy
  • Хостинги без обмежень
  • SMS верифікації

Ціни на ці послуги дуже відрізняються:

Три сегменти:

  • 3 категорія: найнижчий сегмент. Тут продукти найдешевші, але й найменшої якості. Наприклад, автоматично зареєстровані, але неверифікові акаунти. Більшість їхніх підписників - боти. У профайлі немає картинки та контенту. Ці акаунти найлегше визначити та заблокувати.
  • 2 категорія: середній сегмент. Більшість акаунтів зареєстровано автоматично. Проте вони верифіковані та містять мінімальну інформацію, щоб їх не розкрили. Більшість завдань вони виконують автоматично, але ними управляють люди. Продавців цього ринку важче знайти.
  • 1 категорія: найвищий сегмент. Ці акаунти мають реальних друзів та підписників, контент та унікальні фото у профайлі. Вони верифіковані за допомогою мобільного чи емейлу й існують менше року. Це реальні акаунти, яких хакнули або зареєстрували вручну. Їх підписники є реальними. Знайти продавців акаунтів цього сегменту важко, лише через особисті знайомства та рекомендації.

Інструменти

Перевірка сайту

  • WhoIs – дозволяє визначити власника та термін існування домену сайту.

Верифікація зображень та відео

  • ImgOps – комплекс інструментів для перевірки зображень. Тут є лінки на інші ресурси для перевірки та редагування зображень.
  • FotoForensics – показує метадані зображення.
  • exif – показує метадані зображення.
  • WolframAlpha – показує історичні дані про погоду.
  • WikiMapia – дозволяє отримати додаткову інформацію про місця та споруди.
  • InVID Verification Plugin – дозволяє отримувати контекстуальную інформацію про відеоролики, розбиває його на кадри для подальшого зворотного пошуку.
  • TinEye – зворотний пошук зображень визначає, де це зображення з’являлось в інтернеті.
  • TerraServer – супутникові знімки.
  • DigitalGlobe – супутникові знімки.

Виявлення ботів у Twitter

Інструменти для аналізу інших соцмереж

  • Hoaxy – показує мережу поширення хештегу Twitter.
  • Facebook Graph – дозволяє відстежувати діяльність акаунтів у Facebook.
  • Stalkscan.com – аналіз акаунтів у Facebook.
  • Geocreepy.com – збір геоданих через соцмережі.
  • Socialblade.com – статистика в Youtube.
  • vkjust.com – розкрутка сторінок у ВКонтакте.
  • ytuber.ru – для накрутки підписників та переглядів в Youtube.
  • subscribercounter.com – статистична інформація по каналам в Youtube.
  • Toolkit For FB – плагін для аналізу Facebook.
  • Russia Tweets – архів твітів російських тролів у зручній формі для пошуку за ключовими словами.
  • Metabot – відображення кремлівських ботів на YouTube.
  • dislikemeter.com – сервіс зі сбору статистики про накрутки в YouTube.
  • Hamilton 68 – відслідковує російську дезінформацію у реальному часі.

Візуалізація даних

  • Gephi – візуалізація мережевих зв’язків

Навчальні матеріали

Схожі події та новини

Медіа лайф-хак
5 порад для зростання аудиторії та прибутку

Як знайти аудиторію і зрозуміти, що її цікавить? Як перетворити медіа в прибутковий бізнес? Як залучити рекламодавців і партнерів?

Медіа лайф-хак
Сервіси для створення мультимедійних історій

Як зі звичайного тексту зробити мультимедійний лонгрід? Швидко. Безкоштовно. Креативно.

Медіа лайф-хак
Програми для ведення проектів

Як ефективно планувати роботу організації чи редакції? Як налагодити внутрішні комунікації? Тримайте добірку сервісів.

Медіа лайф-хак
5 мобільних додатків для роботи з відео

З цими сервісами ви зможете швидко та якісно змонтувати відео в себе на телефоні.

Медіа лайф-хак
Записуй та не скорочуй

Мобільні додатки-блокноти значно спрощують життя журналістам.

Медіа лайф-хак
Як вистежувати ботів та викривати маніпуляції?

Зібрали для вас практичні поради, які допоможуть не стати жертвами тролів, ботів та інформаційних вкидів в інтернеті.