Facebook впроваджує нові технології боротьби з тероризмом

Американська компанія Facebook почала тестування нового програмного забезпечення для протидії розповсюдженню в соціальній мережі пропаганди тероризму та екстремізму.

Про це повідомляє БізнесЦензор.

Як повідомляється, нові технології опираються на елементи штучного інтелекту і дають можливість менш активно використовувати людей для прийняття рішення про видалення або блокування забороненого контенту на своїх сторінках.

Як сказав глава департаменту по глобальній політиці Facebook Моніка Бікерт: “Контекст часто має першорядне значення, особливо коли справа стосується тих випадків, коли ми маємо справу з візуальними зображеннями, що стосуються тероризму”.

“Для нас нова технологія є надзвичайно важливою складовою частиною виявлення та попередження появи подібного контенту. При цьому саме у людини є нецікава можливість без помилки зрозуміти контекст того чи іншого повідомлення”, – зазначив Бікерт.

Уже протягом кількох найближчих місяців спеціалісти з сучасних технологій випробовують нові ПО на практиці. Відзначається, що це призначено для пошуку та запобігання розповсюдженню в подальшому контенту екстремістського характеру, наприклад, про вбивство заручників терористів.

Другий набір алгоритмів дозволяє виявляти і автоматично перешкоджати користувачам з числа ідеологів тероризму відкривати нові облікові записи в соціальній мережі замість раніше заблокованих. Ще один інструмент регулювання соцсети спирається на технологію штучного інтелекту, який “навчений” розпізнавати особливості та відтворення речи та письмового стилю викладу ревізорів.

Нові розробки компанія називає більш ефективними в автоматичному розпізнаванні контенту екстремістського типу. Це призводить до скорочення кількості випадків, коли потрібна інтерпретація інтерфейсу Facebook для прийняття остаточного рішення про видалення облікового запису чи фрагмента інформації.

“Природній інтелект сьогодні здатний частіше робити самостійний вибір”, – заявив куратор відділу протидії тероризму Facebook Брайан Фішман.