Компанія Teleperformance модерує контент для TikTok. /Олександра Карасьова
Категорія
Інновації
Дата

Насильство над дітьми як навчальний матеріал. Особливості підготовки модераторів для TikTok – розслідування Forbes

11 хв читання

Компанія Teleperformance модерує контент для TikTok. Фото Олександра Карасьова

Проблеми з фільтруванням матеріалів, що містять сексуальне насильство над дітьми, є в усіх платформ соціальних мереж. Але в підрядника, якого наймає TikTok для модерації свого контенту, особливий підхід до підготовки людей, які щодня працюють над тим, щоб неприйнятні матеріали не поширювалися цією платформою.

Amazon інвестує мільярди доларів у ШІ, роботів та машинне навчання. Якими принципами й правилами керується компанія?

Дізнайтеся вже 22 листопада на Forbes Tech 2024. Купуйте квиток за посиланням!

Нессер очікував, що йому доведеться переглянути неприємні графічні матеріали під час навчання на посаду модератора контенту для TikTok. Але він аж ніяк не міг подумати, що йому й іншим майбутнім модераторам покажуть зображення сексуального характеру без цензури за участю дітей.

Нессер працював на компанію Teleperformance, яка модерує контент для TikTok, і йому доручили особливий проєкт: навчити ШІ TikTok впізнавати найгірше з найгіршого, що постять у популярній соцмережі.

За кілька днів після початку роботи йому і його колегам показали відео та зображення сексуальних сцен за участю дітей. Усі ці графічні матеріали у певний час були вилучені з TikTok.

«У мене є донька, і я не думаю, що це нормально, коли купка незнайомців дивиться на таке, – сказав Нессер, який пішов із Teleperformance у 2020-му, у розмові з Forbes. – Не думаю, що варто використовувати щось таке для навчання». (Його прізвище та прізвища кількох інших людей у цій історії прибрали з огляду на конфіденційність.)

Вітні Тернер, яка працювала в Teleperformance у програмі TikTok в Ель-Пасо понад рік і пішла у 2021-му, також пригадує, що і її групі під час підготовки показували відверті фото й відео за участю дітей. Вітні мала доступ до спільної таблиці, в якій зібрані матеріали, що суперечать правилам TikTok.

Вона та інші колишні співробітники підрядника TikTok розповіли Forbes, що там були сотні графічних матеріалів, на яких діти були оголені або зазнавали насильства.

Колишні модератори розказали, що цей документ під назвою «Обовʼязково читати щодня» (ОЧЩ) ще цього літа був широко доступний співробітникам Teleperformance і TikTok. Хоча деякі модератори, які виконують інші функції, не можуть переглядати цих матеріалів, а проте власні джерела розповіли Forbes, що сотні людей в обох компаніях мають вільний доступ до документа.

«ОЧЩ» та інші навчальні матеріали зберігалися в Lark, програмі для внутрішнього користування співробітників, яку розробила ByteDance, материнська компанія TikTok.

Вітні була настільки приголомшена тим, як ставляться до таких чутливих матеріалів у компанії, що написала заяву до ФБР, а в червні зустрілася з агентом. ФБР не відповіло на низку запитів розповісти про те, чи буде розслідування цієї справи.

Батьки тих дітей не знають, що в нас є ці зображення, відео, що ми зберігаємо докази травм цих дітей, злочинів проти них. Якби батьки це знали, упевнена, вони спалили б TikTok до цурки.

Вітні Тернер, колишня модераторка TikTok

«Я виконувала завдання і думала: це ж чийсь син. Це чиясь донька. Батьки цих дітей не знають, що в нас є ці зображення, відео, що ми зберігаємо докази травм цих дітей, злочинів проти них, – бідкається Вітні. – Якби батьки це знали, упевнена, вони спалили б TikTok до цурки».

Міжнародний президент з довіри і безпеки у Teleperformance Акаш Пугаліа сказав Forbes, що компанія не використовує матеріалів, які містять сексуальне насильство над дітьми, під час навчання співробітників. Крім того, за його словами, вони не зберігають таких матеріалів у своїх «калібраційних інструментах», але відмовився пояснити, що то за інструменти і для чого вони.

Він також відмовився відповідати на детальний перелік запитань про те, скільки людей має доступ до матеріалів, що зображають сексуальне насильство над дітьми, і як Teleperformance охороняє такі матеріали.

Не лише TikTok має проблеми із тим, щоб очистити свою мережу від графічних матеріалів із сексуальним насильством над дітьми. Найбільш потужні платформи соцмедіа давно застосовують машинне навчання та наймають підрядників для людської модерації, щоб знаходити і видаляти такий контент до того, як він розійдеться мережею. Багато компаній співпрацює з Національним центром розшуку та запобігання експлуатації дітей (НЦРЗЕД), щоб повідомляти правоохоронців про такий неприйнятний контент.

Незвично те, як TikTok і його підрядники поводяться з такими матеріалами. Експерти вважають такий підхід щонайменше незграбним і необережним, а щонайбільше – шкідливим та емоційно травматичним для жертв. А зберігати такі матеріали в широкодоступному документі – це безвідповідально й необовʼязково.

Представниця TikTok Джеймі Фавацца сказала, що в компанії діє «суворий контроль за навчальними матеріалами, і до цих матеріалів не входять зображення сексуального насильства над дітьми». Проте вона визнала, що TikTok працює з підрядниками, у яких можуть бути власні процеси підготовки працівників.

TikTok відмовився відповідати на запитання про те, скільки людей має доступ до документа «ОЧЩ» і де він зберігається. У ByteDance, материнській компанії TikTok, яка створила платформу Lark, теж не відповіли на жоден із багатьох запитів прокоментувати ситуацію.

Getty Images

Американська родина, що створила TikTok про своє життя під час пандемії, і за два роки зросли до того, що залишили свою повсякденну роботу. Фото Getty Images

Вільний доступ тут не варіант

Зображення експлуатації та насильства над дітьми незаконні, й існують суворі правила поводження з такими матеріалами, коли компанія їх фіксує. Їх треба негайно прибрати й повідомити на гарячу лінію CyberTipline НЦРЗЕД. Там співробітники аналізують отримані файли й намагаються відстежити їх походження, щоб можна було звернутися до відповідних правоохоронних органів.

Щойно компанія повідомила НЦРЗЕД про такі матеріали, правила дозволяють їй зберігати їх до 90 днів, щоб допомогти правоохоронцям. Але федеральний закон чітко вимагає від компаній «мінімізувати кількість співробітників із доступом» до такого контенту, «зберігати такі файли в захищеному місці» й «забезпечити повне їх знищення за запитом правоохоронних органів».

Провідні експерти з питань прав і безпеки в мережі сказали, що широкий доступ співробітників Teleperformance і TikTok до контенту з експлуатацією і насильством над дітьми, а також низький рівень безпеки таких файлів суперечать цим правилам. Проблеми з безпекою і конфіденційністю можуть перерости у злочин.

«Коли йдеться про такі матеріали, мають бути дуже жорсткі правила зберігання, перегляду й доступу. Їх не можна просто зберігати на компʼютері чи у файлі для навчання співробітників», – сказала генеральна радниця НЦРЗЕД Їота Саурас.

На запитання, що треба, щоб поводження з такими матеріалами вважалося злочином, Саурас сказала, що треба брати до уваги багато чинників. Усе залежить від способу зберігання й захисту таких файлів, того, хто має до них доступ, як їх поширюють, завантажують та відтворюють (у документі, наприклад).

«Наскільки вони захищені? – сказала Саурас. – Вільний і відкритий доступ тут не варіант».

Фавацца сказала: «Ми прагнемо мінімізувати контакт модераторів [з матеріалами, що зображають насильство над дітьми] відповідно до найкращих практик індустрії». На запитання про те, чи TikTok надав Teleperformance правила поводження з матеріалами, що зображають насильство над дітьми, підрядник популярної серед підлітків платформи не відповів. Пугаліа, вищезгаданий директор в Teleperformance, повідомив лише, що компанія дотримується всіх відповідних законів.

Використовувати приклади з реального життя і показувати ці приклади новим поколінням співробітників – це, як на мене, безвідповідально.

Девід Владек, колишній директор Бюро захисту споживачів при ФТК

Девід Владек, директор Центру з питань конфіденційності й технологій при Центрі права Джорджтаунського університету, додав, що співробітників і підрядників, безперечно, потрібно вчити розпізнавати неприйнятні пости. Але, зауважує він, для цього не треба використовувати контент, що вже прибрали з платформи.

«Не так і важко розробити інструменти для навчання, що допоможуть співробітникам розрізняти прийнятне й неприйнятне, – сказав Владек, який був директором Бюро захисту споживачів при Федеральній торговій комісії. – Використовувати приклади з реального життя і показувати ці приклади новим поколінням співробітників – це, як на мене, безвідповідально».

«Вартові інтернету»

Teleperformance – це міжнародний титан послуг для клієнтів, який працює з 1970-х. Минулого року компанія показала рекордне зростання, заробивши понад $8 млрд. Вона може похвалитися близько 1000 клієнтами з майже кожного сектору – від охорони здоровʼя і туризму до ритейлу і телекомунікацій. Із соціальними мережами Teleperformance працює віднедавна.

Свій підрозділ «Довіри й безпеки» компанія відкрила у 2019-му. За словами колишніх модераторів, які почали працювати в цей період, програма модерації для TikTok, яку втілюють у техаському місті Ель-Пасо, запрацювала наприкінці 2019-го. (Жодна компанія не захотіла сказати, коли вони почали офіційну співпрацю.)

Це партнерство стало можливістю для Teleperformance показати, що компанія йде в ногу з часом. Під час останнього річного звіту компанія похвалилася співпрацею з «відеоплатформою, що має найшвидше у світі зростання», і сказала, що багато співробітників тепер вважає себе «вартовими інтернету».

Shutterstock

Минулого року компанія Teleperformance показала рекордне зростання, заробивши понад $8 млрд. Фото Shutterstock

Teleperformance сказала Forbes, що в компанії існує комплексний процес відбору модераторів контенту і що вона дбає про їхній добробут. Та розмови з колишніми співробітниками показують, що модератори не дістають належного навчання і потерпають від надмірного навантаження.

Річард – колишній модератор і супервайзер у підрозділі Teleperformance в Ель-Пасо, який пішов із компанії у липні після трьох років роботи на Teleperformance. Він розповів, що від TikTok почало надходити дедалі більше й більше запитів на модерацію, коли платформа почала швидко розвиватися, а обсяг контенту стрімко збільшувався. Виникла потреба у збільшенні кількості модераторів.

За його словами, відділ навчання модераторів був неорганізований, у них були проблеми з комунікацією між собою і висока плинність кадрів, через яку молоді чи недосвідчені співробітники очолювали підготовку новачків.

TikTok «майже ніяк не контролює процесу підготовки зараз», сказав Річард. А Teleperformance «наразі не здатна організувати відповідну підготовку… Там усі перевантажені».

Енджел, який працював у Ель-Пасо з лютого 2020-го по грудень 2021-го спершу модератором контенту, а потім менеджером, розповів те саме, додавши, що підрозділ модерації Teleperformance просто не зміг впоратися з вибуховим зростанням TikTok.

«Компанію просто завалили роботою, принаймні відділ навчання й підготовки», – сказав він. За словами Енджела, коли завдань від TikTok побільшало і зʼявилася потреба у збільшенні кількості модераторів, підготовка новачків випала супервайзерам і керівникам, які самі не мали відповідного навчання. Він пояснив, що на тренерів з підготовки новачків «тиснуло керівництво, щоб ті швидше допускали нових людей до роботи», навіть із поганою підготовкою.

Вітні додала, що вона питала у своїх керівників, «чому ми просто не можемо відверто сказати TikTok, що нам треба більше часу на підготовку нових людей». За її словами, їй неодноразово казали, що «ми підписали контракт і маємо виконувати його умови, інакше нас замінять на тих, хто із цим впорається».

«Обовʼязково читати щодня»

Так звана таблиця «ОЧЩ» – це один із кількох файлів, які модератори контенту TikTok використовують як ресурс для своєї роботи. (Ані TikTok, ані Teleperformance не підтвердили використання цього файлу натепер, але три колишні модератори, які пішли з компанії у травні, червні й липні, сказали, що цією таблицею користувалися на момент їхнього звільнення.)

Енджел та інші колишні співробітники описали «ОЧЩ» як таблицю, де зібрані приклади неприйнятного контенту, який уже прибрали з TikTok. Модератори сказали, що вони мали звертатися до неї для підказок про те, як «тегати» правила, які порушує певний матеріал. У таблиці є різні розділи під різні види контенту: один під тероризм, інший під оголені зображення й так далі. Був свій розділ і в насильства над дітьми, розповів Енджел.

За оцінкою Вітні, фото, відео й описи насильства над дітьми складали близько чверті таблиці, у якій були тисячі прикладів неприйнятних матеріалів. На її думку, матеріали в «ОЧЩ» датуються початком роботи TikTok із Teleperformance. Марджорі Діллоу, яка до травня працювала модераторкою в іншому підрозділі Teleperformance, вважає так само. «Вони нічого не видаляють з ОЧЩ», – сказала вона.

Коли TikTok дістав усю цю інформацію, компанія сказала Forbes , що тут недостатньо деталей, які підтверджували б існування «ОЧЩ», і не відповіла на перелік запитань щодо таблиці. Teleperformance також відмовилася відповідати на запитання щодо цього документа.

Жодна з компаній не сказала, скільки працівників має доступ до таблиці (а проте вона зберігається в програмі від ByteDance, а ця компанія в минулому мала доступ до даних американського TikTok) чи яка компанія контролює доступ до неї.

Також вони не розповіли про те, якої давності матеріали з насильством над дітьми, що входять до ОЧЩ, та чи є процес для видалення таких файлів за 90 днів після повідомлення правоохоронців, як того вимагає закон.

Лідер Tech Coalition, групи, яка бореться із сексуальним насильством над дітьми в мережі і до якої входить TikTok, каже, що немає поки єдиного найкращого набору практик для поводження з такими матеріалами. Проте є основа.

«Є певні закони, на які треба орієнтуватися. Приміром, видаляти такі файли після 90 днів, видаляти із загального доступу, щойно стає про них відомо, одразу повідомляти НЦРЗЕД. Зрештою, зберігання таких файлів – це злочин, – пояснив Шон Літтон, виконавчий директор Tech Coalition. – Проте кожна компанія запроваджує власні процеси».

Верховний суд США та інші визнали: щоразу, коли хтось переглядає такий контент, жертві завдається повторна психологічна травма, тому до нього не можна ставитися легковажно.

Мері Гров Лірі, колишня федеральна прокурорка

Колишня федеральна прокурорка Мері Гров Лірі, експертка з дитячої порнографії та експлуатації, яка колись очолювала юридичний відділ НЦРЗЕД, упевнена, що до матеріалів із сексуальним насильством над дітьми треба ставитися, як до «контрабанди», на зразок зброї чи наркотиків.

«Якщо ви знайшли наркотики на робочому місці чи у школі, то не розмахуватимете ними на наступних зборах колективу зі словами «Ось такий на вигляд кокаїн», – наводить вона приклад. – Так само і з зображеннями насильства над дітьми. Верховний суд США та інші визнали: щоразу, коли хтось переглядає такий контент, жертві завдається повторна психологічна травма, тому до нього не можна ставитися легковажно».

У колишніх співробітників Teleperformance запитали, скільки приблизно людей має доступ до таблиці «ОЧЩ». Енджел сказав, що сотні людей лише в офісі в Ель-Пасо, потенційно всі ті, хто працює з контентом TikTok в інших офісах Teleperformance, та співробітники TikTok могли її переглядати.

Енджел також розповів, що в Ель-Пасо дотримуються політики «без паперів» і правила «автоматичне звільнення модератора за користування мобільним телефоном». Проте під час дистанційної роботи через пандемію контролювати дотримання таких заходів безпеки й конфіденційності значно важче.

Згідно з останнім річним звітом компанії, 70% із 420 000 співробітників Teleperformance працювали з дому у 2021-му.

Нессер також сказав, що на дистанційці співробітники мали доступ до цієї таблиці з дому. «Якби хтось захотів, то легко міг би витягти телефон і записати те, що бачить, – сказав він. – Вони могли розіслати це друзям, приятелям чи ще комусь. Не думаю, що в Teleperformance могли б це якось відстежити».

Колишня модераторка Анна-Софія Лерма розповіла Forbes, що, попри те, що під час навчання їй показували відео сексуального насильства над дітьми, у роботі вона ніколи не натрапляла на такий контент. Вона не розуміє, чому їй взагалі треба було це дивитися.

Getty Images

Французькі підлітки-інфлюенсери знімають відео для TikTok. Фото Getty Images

«Не думаю, що це взагалі потрібно, – каже Лерма, яка працювала в Teleperformance у 2020-му. – Якщо хтось це завантажує на платформу, то треба одразу прибирати й видаляти з кінцями… Я не раз запитувала себе, навіщо вони зберігають такі відео»

«Серйозно, – додає вона. – Після перегляду мені треба було провітритися кілька хвилин».

Вітні розповіла, що радо пристала на пропозицію заробляти $18,50 на годину в Teleperformance, адже доти вона отримувала $16 у компанії, яка ремонтує і оновлює магазини Walmart. Рекрутер сказав Вітні, що вона буде, як «коп для TikTok», а можливість захищати людей стала додатковою перевагою.

Але за рік роботи в Teleperformance їй було несила «працювати як належить», розповіла Вітні. Вона часто збивалася з думки, її без видимих причин охоплював гнів, і зʼявлялися суїцидальні настрої.

Нессеру, ветерану з ПТСР, теж було важко в Teleperformance. Він розповів, що служба в армії іноді була легшою, ніж деякі аспекти роботи в компанії. «Самого лише обговорення теми й ознак сексуального насильства над дітьми було б достатньо», – вважає він. Тому йому незрозуміло, навіщо його змушували переглядати такі відверті відео.

«Те, що ми бачили, – це паскудство, – сказав він Forbes. – Ми не мали на це дивитися».

 

Матеріали по темі

Ви знайшли помилку чи неточність?

Залиште відгук для редакції. Ми врахуємо ваші зауваження якнайшвидше.

Попередній слайд
Наступний слайд