2023-12-22 14:52:04 JPM redakcja1 K

Z dziennika moderatora TikToka: „To my jesteśmy ludźmi, którzy sprzątają cały ten bałagan”

Od „intensywnych” szkoleń i testów, nadawania na żywo do odpowiadania na „idle” – i niektóre rodzaje otrzymywanych filmików. TikTok podaje, że ma ponad 40 000 specjalistów, których celem jest utrzymanie bezpieczeństwa na tej platformie. Moderatorzy pracują wraz ze zautomatyzowanymi systemami moderacji, sprawdzając treści w ponad 70 językach.

Projekt Guardian/Getty Images

W tym roku TikTok zaprosił dziennikarzy do swojego nowego centrum „przejrzystości i odpowiedzialności”, co miało być sygnałem pokazującym, że firma dąży do większej transparentności. TikTok twierdzi, że moderatorzy otrzymują szczegółowe szkolenia, które są pod systematyczną kontrolą. Jednak, w rzeczywistości niewiele wiadomo na temat codziennego życia tychże zespołów. Jeden z moderatorów, chcący pozostać anonimowym, opowiedział The Guardian jak trudna może być ta praca. Powiedział, że są oni oceniani pod kątem szybkości moderacji i liczby popełnianych błędów, a premie i podwyżki zależą od osiągnięcia określonych celów. Są oni również monitorowani. Jak przyznał zapytany moderator, gdy są oni nieaktywni przez pięć minut ich komputer blokuje się, a po 15 minutach nieaktywności są oni wezwani na rozmowę z liderem zespołu. „Nasza prędkość i dokładność są stale analizowane i porównywane z wynikami współpracowników”, mówił. „To dość przytłaczające. Czujemy się jak ludzie w klubie nocnym, sprzątający bałagan po nocnym szaleństwie”.

Oto relacja z pierwszej ręki od moderatora TikToka:

Szkolenia: „Wszyscy uznali je za przytłaczające”

Gdy dołączyliśmy, otrzymaliśmy miesiąc intensywnego szkolenia, które było tak przepełnione treścią, że było niemożliwe do przyswojenia. Spędzaliśmy sześć do siedmiu godzin dziennie na omawianiu zasad - reguł określających czy wideo powinno zostać oflagowane czy nie - oraz na oglądaniu przykładowych filmików. Wszyscy uznali to za przytłaczające. Na koniec miesiąca odbył się test, przez który przeprowadził nas trener, aby upewnić się, że wszyscy zdamy. To samo miało miejsce po okresie próbnym w przypadku innych obowiązkowych szkoleń. Następnie zostaliśmy poddani dwóm miesiącom próby, podczas których moderowaliśmy ćwiczeniowe kolejki, które składały się z już wcześniej moderowanych filmów. Zasady, które zastosowaliśmy do tych filmów próbnych, były potem porównywane z tymi wcześniej nałożonymi na nie przez innych, bardziej doświadczonych moderatorów. Robiono to po to, by znaleźć obszary, w których musieliśmy się poprawić. Wszyscy przeszli przez okres próbny.

Jednym z trendów, szczególnie znienawidzonych przez moderatorów są „recapy”. Składają się one z 15- do 60-sekundowej fali obrazów, czasem są ich setki, pokazywanych jako bardzo szybki pokaz slajdów, często z 3-4 obrazami na sekundę. Musimy obejrzeć każde z tych zdjęć, w poszukiwaniu naruszeń. Jeśli wideo trwa 60 sekund, system przydzieli nam około 48 sekund na zrobienie tego. Do naszych obowiązków należy też sprawdzenie opisu filmu, bio użytkownika i hashtagi. 
Pod koniec roku szkolnego czy w okolicy Sylwestra, kiedy tego typu filmiki są bardzo popularne, staje się to niesamowicie męczące i wpływa na nasze statystyki. 

Nadawanie na żywo: „Część szkolenia była już przestarzała” 

Po przejściu okresu próbnego, zostaliśmy przeniesieni do pracy nad ‘prawdziwymi’ kolejkami filmów. Szybko zorientowaliśmy się, że część szkolenia które przeszliśmy, już stała się przestarzała, z powodu ciągłych aktualizacji zasad. 

Jednymi z kolejek, są kolejki „live”, które składają się z transmisji na żywo użytkowników, które musieliśmy moderować. Jest to najprostszy typ moderacji z mniejszą ilością zasad… Jednak to właśnie podczas moderowania takich transmisji najczęściej napotykamy najgorsze rzeczy, z którymi często niewiele możemy zrobić, poza zakończeniem takiej transmisji i nałożeniem na użytkownika ograniczeń związanych z możliwością przesyłania czy nadawania na żywo. 

Innymi kolejkami są takie, w których znajdują się „przesłane” filmiki. Ich długość może różnić się od kilku sekund do godziny. W jednej kolejce przedstawiane jest maksymalnie 6 filmików z konta danego użytkownika, a my musimy zdecydować czy ma on 13 lat czy mniej. W innych kolejkach przedstawiane są pojedyncze filmy, a my musimy zastosować odpowiednie zasady i regulacje dotyczące ewentualnych naruszeń, które zauważymy. W kolejnych kolejkach moderujemy komentarze. Jeżeli mamy jakiekolwiek wątpliwości co do zasad, jakie powinniśmy zastosować – co jest powszechnym problemem ze względu na praktycznie ciągłe dostosowania, dodatki do wytycznych zasad, a nawet ich usuwanie – mamy zespół doradców. Są to moderatorzy, którzy zostali awansowani, przeszli dodatkowe szkolenia z zakresu zasad i są informowani na bieżąco o nadchodzących zmianach w regulaminie. Robią świetną robotę, ale mamy tylko kilka sekund by zastosować się do tych zasad, a czekanie na odpowiedź od doradców może potrwać kilka minut, godzin czy nawet dni, szczególnie jeżeli chodzi o aktualnie rozwijające się wydarzenia takie jak wojna czy katastrofa.

Wszystko co robimy jest śledzone przez nasze laptopy, które blokują się po pięciu minutach bez wprowadzania danych. Moderujemy filmy trwające nawet do godziny, więc w takich przypadkach musimy ruszać myszką co kilka minut by temu zapobiec. Jeżeli system moderujący, którego używamy wykryje bezczynność przez 15 minut, nasz status automatycznie zmienia się na „bezczynny”. Zdarza się to gdy np. stracisz łączność z Internetem, albo zapomnisz zmienić status na „spotkanie/lunch”. Wszystkie takie „bezczynności” są rejestrowane, badane i wpływają na twoją ocenę wydajności. Musisz wyjaśnić okoliczności swojej bezczynności liderowi zespołu, a także opisać to w oknie dialogowym w systemie.

Zostaliśmy zatrudnieni by moderować w języku angielskim i musieliśmy udowodnić naszą biegłość w trakcie procesu rekrutacji. Jednak ogromna część tego co podlega naszej moderacji, nie jest w języku angielskim. Jeśli tak się zdarza, jesteśmy instruowani by po prostu moderować to co widzimy. 

„Nie masz kontroli nad tym co otrzymujesz” 

W kolejce wideo nie masz kontroli nad tym, co otrzymujesz. Dostajesz 10 filmów do moderacji przed przesłaniem ich wszystkich. Typowy zestaw filmów, które otrzymujemy, wyglądałby tak:

- Filmy phishingowe i oszustwa w różnych językach obcych, obiecujące gwarantowane, dobrze płatne prace w renomowanych firmach i zawierające instrukcje wysyłania CV na konto Telegram.

- Pracownicy seksualni próbujący skierować cię na swoje konto OnlyFans itp., jednocześnie nie będąc w stanie wspomnieć o OnlyFans. Używają różnych żargonów i emotikonów, aby wskazać, że mają konto na OnlyFans, oraz podają instrukcje "sprawdzenia ich Instagrama po więcej", co oznacza, że, chociaż bezpośrednie linki do OnlyFans nie są dozwolone na TikToku, korzystając z funkcji w aplikacji, która pozwala otworzyć profil użytkownika na Instagramie, link nigdy nie znajduje się dalej niż kilka kliknięć.

- Wideo "get ready with me" trwające od 10 do 60 minut, przesłane przez nieletniego użytkownika, przedstawiające ich przygotowywanie i ubieranie się do szkoły. 

- Wideo „recap” zawierające setki zdjęć i klipów z całego roku szkolnego przesłane przez kogoś, kto właśnie zakończył egzaminy na koniec roku.

- Materiał z kontrowersyjnymi momentami dobrze znanych YouTuberów i streamerów, a także popularnych programów telewizyjnych, takich jak South Park czy Family Guy, w górnej części wideo, a w dolnej części Subway Surfers/Grand Theft Auto.

- Czterominutowe wideo o charakterze jednoznacznie seksualnym, z hardcore'ową pornografią.

- Filmy z potencjalnie ekstremistycznymi bojownikami islamistycznymi, ale z małym lub zerowym kontekstem, ponieważ żaden z tekstów i języków mówionych nie jest tym, do którego moderacji zostałeś zatrudniony lub który rozumiesz.

- Nagranie pierwszej ręki przedstawiające młodych mężczyzn/nastolatków używających narzędzi do kradzieży różnych motocykli/skuterów/samochodów, po których widać klipy, na których jeżdżą pojazdami w sposób niebezpieczny, niszczą pojazdy lub oferują je na sprzedaż.

- Nagranie transmisji na żywo, która miała miejsce na TikToku i została ponownie opublikowana, prawdopodobnie dlatego, że zawiera kontrowersyjne komentarze lub zachowania.

- Lista imienia, adresu, miejsca pracy i innych informacji osobistych, poprzedzona nękającymi groźbami popełnienia przemocy przeciwko tej osobie.

Moderujesz te filmy, przesyłasz je, a następnie natychmiast otrzymujesz kolejne 10. Robisz to przez cały dzień. Po lunchu przechodzisz do kolejki komentarzy, ponieważ pojawił się zaległości. Spędzasz resztę popołudnia sortując groźby, nękania, rasizm i insynuacje.

  • Tik Tok odmówił skomentowania tej sprawy na piśmie. Niemniej jednak, firma zarzeka się, że systemy moderatorów nie wyłączają się po pięciu minutach. Twierdzą również, że nie rozpoznają terminu „recaps”.  W odpowiedzi na pozostałe historie na temat tego jak aplikacja jest regulowana, mówią: „Te zarzuty co do zasad TikToka są nieprawidłowe i bazują na nieporozumieniach, podczas gdy Guardian nie potrafi dostarczyć wystarczająco informacji na temat innych pretensji, by można było je zbadać”. 

Dział: Technologia

Udostępnij
Nie ma jeszcze żadnych komentarzy.
Wymagane zalogowanie

Musisz być zalogowany, aby wstawić komentarz

Zaloguj się

INNE WIADOMOŚCI


NAJCZĘŚCIEJ CZYTANE