Алгоритми TikTok та YouTube «нахабно» рекомендують дітям небезпечні відео− дослідження

Нове дослідження показує, що алгоритми TikTok, YouTube та Instagram «нахабно» рекомендують дітям відео, що заохочують небезпечну і навіть смертельно небезпечну поведінку.
Джерело: christianheadlines.com

Звіт некомерційної організації Fairplay виявив, що всі три платформи порушили власну політику, рекомендуючи відео, що заохочують до небезпечної поведінки, коли користувач-підліток шукає відео з ризикованою поведінкою.

Учасники дослідження створили облікові записи на трьох платформах, видаючи себе за 14-річного хлопця. Потім вони шукали відео із зображенням «автомобільного серфінгу» і «залізничного серфінгу» − небезпечних трюків, в яких люди їдуть або стоять на даху (або тримаються за бік) автомобілів і поїздів, що рухаються.

У доповіді зазначається, що 80 відсотків відеороликів про «кар-серфінг» на TikTok зображують людей, які займаються серфінгом на дахах автомобілів після пошуку за фразою «кар-серфінг», тоді як 60 відсотків відеороликів на TikTok зображують людей, які займаються «серфінгом на поїздах» після пошуку за цією фразою.

На YouTube 60 відсотків відеороликів, знайдених за цією фразою, були відеороликами про «автомобільний серфінг». Пошук за фразою «серфінг на поїзді» привів на сторінку, де 90 відсотків відео були відеороликами, що зображують цю небезпечну поведінку.

Для Instagram цей показник склав 28 % (серфінг на машині) та 84 % (серфінг на поїзді).

Від лютого 2022 року в Україні зникли близько 9 000 цивільних осіб
3 Жовтня, 2022, 22:37
«Алгоритми на цих платформах нахабно рекомендують безліч відео, які вихваляють ризиковані дії, − сказав Фейрплей. − З кожним рекомендованим відео всі три платформи порушують свій власний кодекс поведінки, який зобов’язує позначати або видаляти контент і відключати облікові записи, які вихваляють небезпечні дії. Гірше того, діти та підлітки були серйозно поранені та вбиті, намагаючись повторити ці випробування».

У доповіді наводяться слова матері Джоан Богард, чий 15-річний син загинув у 2019 році, беручи участь в онлайн-змаганні, так званій «грі в удушення».

«Жодна дитина не повинна постраждати через те, що алгоритм підштовхнув її до небезпечних і шкідливих відео», − сказала Богард.

Fairplay закликає Конгрес ухвалити законопроект «Про безпеку дітей в Інтернеті» (S. 3663), який би краще захищав неповнолітніх. На думку Fairplay, закон вимагатиме від платформ «діяти в найкращих інтересах дітей» та «зменшувати шкоду, що виникає внаслідок заохочення до самоушкодження та інших справах, які становлять фізичну загрозу для неповнолітніх», а також «полегшувати уникнення небезпечних викликів, дозволяючи неповнолітнім відмовлятися від алгоритмів, які їх рекомендують».

Олеся Горгота

Джерело

TikTok показав неповнолітнім сотні відвертих відеороликів із вмістом сексуального характеру та наркотиками

Згідно з дослідженням The Wall Street Journal, платформа TikTok показує неповнолітнім незліченну кількість відеороликів, які демонструють вміст для дорослих зі статевими актами та вживанням наркотиків за допомогою алгоритмів пошуку.

У звіті під назвою «Як TikTok подає відео про секс та наркотики неповнолітнім», опублікованому в середу, журналісти відзначили, що газета створила облікові записи ботів, замасковані під користувачів у віці від 13 до 15 років, щоб оцінити, якому контенту піддаються діти на платформі.

Ці облікові записи ботів швидко виявили, що їх скеровують оглядати сотні відеороликів із вмістом для дорослих, включаючи вживання наркотиків та сексуальну рольову гру.

«TikTok надав одному обліковому запису, зареєстрованому як 13-річний, щонайменше 569 відеороликів про вживання наркотиків, згадки про кокаїнову та метамфетамінову залежність та рекламні відеоролики для онлайн-продажу наркотичних засобів та атрибутики. Сотні подібних відеороликів з’явилися у стрічках інших другорядних акаунтів», – йдеться у статті.

«TikTok також показав підліткам-журналістам понад 100 відеороликів з облікових записів, що рекомендують платні порнографічні сайти та секс-магазини. Тисячі інших були від творців, які позначили свій вміст, як “лише для дорослих”».

Journal поділилася з TikTok 974 відео, повідомляючи компанію, що ці відеоролики «були перенаправлені до другорядних облікових записів – у тому числі сотні, показані в окремих облікових записах дуже швидко».

З цих 974 відео 169 було видалено з сайту, перш ніж Journal поділився ними з TikTok. Невідомо, чи ці відео були видалені їхніми авторами або адміністраторами TikTok.

Алгоритми TikTok та YouTube «нахабно» рекомендують дітям небезпечні відео − дослідження
4 Жовтня, 2022, 10:58
Близько 255 відео були видалені після того, як вони були опубліковані TikTok, з них більше десятка зображували дорослих як «опікунів», які вступають у стосунки з дорослими, що видають себе за дітей.

Багато відео були подані неповнолітнім за допомогою алгоритму, навіть якщо облікові записи, які їх створили, визначили їх вміст як для дорослої аудиторії.

«У попередньому відеорозслідуванні Journal було виявлено, що TikTok потребує лише одного важливого фрагменту інформації, щоб зрозуміти, чого хоче користувач: кількість часу, коли ви затримуєтесь над контентом. Кожну секунду, коли ви вагаєтесь або передивляєтесь, додаток відстежує вас», – йдеться у звіті.

«Завдяки цьому єдиному потужному сигналу TikTok може дізнатися ваші найпотаємніші інтереси та емоції та загнати користувачів будь-якого віку глибоко у кролячі нори вмісту у каналах, в яких значною мірою переважають відео на певну тему. Це досвід, який інші компанії соціальних медіа, такі як YouTube, з усіх сил намагалися зупинити».


Джерело

Be the first to comment on "Алгоритми TikTok та YouTube «нахабно» рекомендують дітям небезпечні відео− дослідження"

Напишіть відгук