На початку січня 2023 року на сайті Wall Street Journal вийшла колонка за авторством президента США Джо Байдена. Матеріал отримав назву «Республіканці та демократи, об’єднуємося проти зловживань з боку BigTech». У ній глава держави пояснив ризики, які несуть техногіганти пересічним американцям, та деталізував їх негативний вплив на кожну людину та молодь і підлітків, зокрема. Байден писав про надмірне використання персональних даних, кіберпереслідування, проблеми з конкуренцією на ІТ-ринку та монопольне становище техногігантів.

Окрему увагу Байден приділив алгоритмам: «Нам потрібно, щоб великі технологічні компанії взяли на себе відповідальність за контент, який вони поширюють, і алгоритми, які вони використовують… Нам також потрібно набагато більше прозорості щодо алгоритмів, які Big Tech використовує, щоб зупинити можливу дискримінацію, демонстрацію дітям забороненого контенту та матеріалів, які загрожують психічному здоров’ю та безпеці».

Ідеї Байдена не нові. Про необхідність регулювати BigTech американські законотворці говорять не перший рік. Що стосується необхідності регулювання роботи алгоритмів – ці пропозиції порівняно нові. Хоча Євросоюз, який традиційно випереджає США в сфері регулювання технологій, уже включив відповідні положення у нові акти – закон про цифрові послуги (Digital Services Act, DSA) та закон про цифрові ринки (Digital Markets Act, DMA). Їх схвалили цього літа.

Світ давно хоче розуміти, як працюють алгоритми відбору та рекомендацій контенту. Почасти звучать ідеї відмови від алгоритмів і повернення до «чистого вебу» без рекомендацій. На жаль, в сучасному інтернеті такий підхід уже нездійснений.

Алгоритмічні недолугості

Болгарський ІТ-фахівець Христо Георгієв (Hristo Georgiev) влітку 2021 року дізнався, що при пошуку власного прізвища Google називає його серійним убивцею. Пошук по запиту Hristo Georgiev на той момент відображав фото програміста з поміткою, що він є серійним убивцею, а також фрагмент статті з Вікіпедії про нього. Насправді людина з таким прізвищем дійсно жила, але цього злочинця розстріляли ще у 1980 році. Вивчивши детальніше видачу Google, Георієв побачив, що у статті з Вікіпедії фото злочинця немає, тож алгоритми Google дивним чином пов’язали його фотографію та факт існування вбивці і представили це в пошуковій видачі. Спочатку Христо сприйняв це непорозуміння як кумедну ситуацію, проте потім зрозумів серйозність проблеми: мільйони людей користуються пошуковою системою, яка може відображати подібні дурниці.

«Бурхливе поширення фейкових новин та культура відміни (cancel culture) зробили вразливими всіх, хто не є анонімним. Ми повинні подбати про своє “представництво в Інтернеті”. Невелика помилка в системі може призвести до чого завгодно – від незначних незручностей до катастрофи, яка за лічені дні може знищити кар’єру та репутацію людей», – пише у своєму блозі Христо.

Історія з дивною роботою алгоритмів відбору (курування) контенту, яку розповів болгарський фахівець – лише одна з сотень та тисяч інших. І наслідки дивної роботи алгоритмів часто бувають набагато серйозніші, ніж історія з Георгієвим.

До прикладу, журналісти The Guardian виявили, що Google показує британцям некоректні рекомендації до правил самоізоляції у Великобританії, які протирічать правилам Національної служби здоров’я (NHS).

Поняття бульбашки фільтрів, до якої людей заганяють онлайн-сервіси, було описано більше десяти років тому. Проте влив цієї бульбашки щороку стає все сильнішим. Аспіранти та вчені Масачусетського технологічного інституту (MIT) створили проект Search Atlas, доступний поки у вигляді приватної бета-версії, який візуалізує роботу бульбашки фільтрів. Його мета – побачити, як Google демонструє різну пошукову видачу у різних версіях своєї пошукової системи, доступної в різних країнах світу. Часом ця відмінність є суто культурною – на головній сторінці сервісу можна побачити видачу по запиту «бог» для різних регіонів, хоча цю відмінність можна пояснити бажанням слідувати особливостям країни. Проте така різниця може стосуватись і деяких політичних проблем, до прикладу, журналісти Wired змогли проаналізувати роботу сервісу і побачити різницю у видачі по запиту «площа Тяньаньмень».

Дослідники з Mozilla Foundation виявили, що рекомендаційні алгоритми YouTube часто пропонують глядачам не просто суперечливі відео, але й ті, що можуть порушувати правила самої платформи. Близько 70% рекомендованих відеороликів містять фейки – і політичні, і кліматичні, і ті, що пов’язані з Covid-19, частина з них містила секс-контент чи матеріали з мовою ненависті. Більше того, алгоритми YouTube не реагують, навіть коли користувачі вказують, що їм не подобаються якісь відео навіть явно, за допомогою кнопок «Не подобається», «Не цікавить», «припинити рекомендувати канал».

Що стосується соціальних мереж, то тут історія ще серйозніша. Фахівці компанії Revealing Reality побачили, що як тільки підлітки-користувачі соцмережі Instagram проявлять цікавість до контенту, пов’язаного з фітнесом чи дієтами, відразу платформа починає рекомендувати їм матеріали, що стосуються схуднення. Для свого експерименту дослідники створили профайли 14-16-річних підлітків та змоделювали їх поведінку стосовно інтересу до теми схуднення. Так само працюють алгоритми TikTok. Дослідження аналітиків з групи NewsGuard від 2022 року показало, що майже 20% TikTok-відео, автоматично запропонованих (рекомендованих) платформою, містять дезінформацію.

Найбільш скандальні звинувачення стосовно проблемних алгоритмів Instagram були опубліковані на початку жовтня 2021-го. Колишня співробітниця компанії Френсіс Гоґен (Frances Haugen) розповіла про негативний вплив Instagram на ментальне здоров’я підлітків. При цьому, за словами Гоґен, у материнській компанії Facebook знали цю проблему, проте свідомо уникали її вирішення. Те саме стосується маніпулятивного контенту політичного спрямування.

Френсіс Гоґен заявила, що компанія концентрується на «отриманні астрономічного прибутку», усвідомлюючи, що алгоритми відбору контенту можуть нашкодити дітям чи дестабілізувати обстановку в різних країнах світу.

Ці викриття доповнило дослідження, проведене компанією Twitter. У сервісі мікроблозів вирішили зрозуміти, як працюють його власні алгоритми рекомендації контенту. Виявилось, що алгоритми Twitter активно рекомендують контент правих політиків. Ця закономірність мала місце у шести з семи проаналізованих країн (в Канаді, Франції, Японії, Іспанії, Великій Британії та США, але не в Німеччині). Чому платформа просуває правий політичний контент, у Twitter не можуть відповісти. Хоча можна припустити, що представники правих політичних течій різкіші у своїх заявах та послуговуються клікбейтовими заголовками, що збільшує поширення такого контенту.

Чорна алгоритмічна скринька

Проблема алгоритмічних стрічок соцмереж та налаштування під користувача видачі пошукової системи Google напряму пов’язана з бізнес-моделлю цих платформ. Соціальні мережі зацікавлені в тому, щоб користувачі проводили якомога більше часу у їхніх додатках чи сервісах і тому алгоритми можуть штучно підвищувати увагу до цікавого контенту. Так алгоритми можуть привертати увагу до вмісту, цікавого для людей, що живуть в певному місті чи мають інші спільні характеристики. Окрім того, знання величезних об’ємів даних про користувачів соціальних платформ (та й пошукових систем) дозволяє цим сервісам пропонувати контент, який напевне їх зацікавить – від піцерії поруч до марафонів екстремального схуднення чи новин про шкоду вакцинації.

Більше того – соціальні платформи зацікавлені в тому, щоб демонструвати контент, до якого користувачі не будуть байдужими. Адже тоді вони відкоментують або поділяться цим контентом, тобто вступлять в дискусію стосовно його, або підпишуться на сторінку. Все це збільшить час, проведений людиною на платформі і дозволить показати їй більше реклами. Саме так працює економіка уваги – концепція, що описує перетворення часу, який користувачі проводять за використанням digital-продукту, в гроші, які заробляють власники продукту. Що стосується пошукових систем, то тут працює схожа схема: мета пошукової системи, з одного боку, дати відповідь на запит користувача, але й водночас показати рекламу.

І соціальні платформи, і пошукові системи використовують надскладні алгоритми для відбору контенту, який показують користувачу. Вони послуговуються сотнями критеріїв та можуть посилювати чи послаблювати інтерес суспільства до певної теми. Коментуючи власне дослідження, в компанії Twitter пояснюють: «Робота алгоритмів для відбору контенту є проблемою, якщо серед користувачів виникають вподобання. Нам важливо розуміти, як алгоритм реагує на взаємодію людей з контентом. Тому ми будемо досліджувати, як алгоритми можуть зменшувати негативні впливи контенту, а не посилювати їх».

З алгоритмами соціальних платформ працюють і вчені. Однак проводити коректні дослідження без участі самих платформ практично неможливо, а техгіганти не особливо зацікавлені у співпраці. Влітку 2021 року Facebook заблокувала дослідників компанії Ad Observatory, що вивчали алгоритми демонстрації політичної реклами та поширення дезінформації у Facebook. Для інших дослідників фейків у Facebook значно обмежили доступ до даних, через що їх аналіз не міг вважатися релевантним.

Приборкати алгоритми

На проблеми алгоритмів соціальних платформ звернули увагу уряди та законотворці різних країн світу, причому перші реальні кроки з регулювання зробили авторитарні режими.

Китай першим став регулювати рекомендаційні алгоритми – минулого року було представлено конкретні рекомендації стосовно їх роботи. Серед них – можливість редагування ключових слів, за якими працює алгоритм для конкретної людини, заборона цінової дискримінації, впливу на національну безпеку, економічний та соціальний порядок в країні і, що дуже важливо – у цих правилах містилась вимога розкриття основних принципів їх роботи.

Єврокомісія встановила «стандарт прозорості алгоритмічного ранжування», який означає, що компанії повинні за запитом влади розкривати алгоритми відбору контенту. Норми нових законів, прийнятих наприкінці року, містять вимогу прозорості рекомендаційних алгоритмів. Проте революційною нормою закону є право людини відмовитися від таких алгоритмів. Повноцінно нові європейські закони почнуть діяти лише у 2024 році. До того часу техногігантам доведеться запропонувати механізм відмови від алгоритмічного відбору у соціальних сервісах та пошукових системах. Правда, складно сказати, наскільки користувачам сподобається мати на екранах «цифрові звалища» контенту, не впорядкованого ніяким чином.

Восени 2021 року у Конгресі США було представлено документ, спрямований на приборкання «шкідливих алгоритмів» – законопроект про правосуддя проти шкідливих алгоритмів (Justice Against Malicious Algorithms Act – JAMA), який передбачає посилення відповідальності онлайн-платформ за контент, який розміщують користувачі. Проте його документ спричинив критику – представники експертної спільноти підкреслюють, що в такому вигляді платформи просто будуть жорстокіше модерувати контент та показувати «більш очищену» його версію.

Зараз ідеться лише про перші спроби приборкати алгоритми регуляторними методами але спроби, швидше за все, будуть продовжуватися. Натомість платформи будуть люто опиратися, адже алгоритмічний відбір контенту лежить в основі їхньої бізнес-моделі. Можна передбачити, що соціальні платформи підуть на певний компроміс, розуміючи, що занадто жорстокі обмеження негативно позначаться на доходах. Головне, щоб наслідки протистояння не обмежилися вимогою повідомити користувачів про те, що вони бачать контент, відібраний алгоритмами – такою собі новою версією правил щодо cookies, які більшість приймає не замислюючись.

Джерело