Trauma

O TikTok por si só é um oceano de coliformes infinito. UMA única vez vi a timeline disso e já me fez vomitar um pouquinho. E claro que crianças e adolescentes são vítimas mais do que costumazes desse tipo de esgoto, pois muitas vezes existem os “conteúdos perigosos” como pr0n ou conteúdo violento extremo que deveria só aparecer em grupos de WhatsApp.

Obviamente a plataforma toma algum tipo de atitude nesses casos, então limita a visualização ou remove o conteúdo nocivoalgo aceitável visto que o público destes poderia tentar imitar a execução das cagadas. Mas tudo isso demanda mão-de-obra, e dois de seus revisores exigem compensação pela falta de suporte psicológico por causa de seu trabalho.

Imaginem se o conteúdo original do TikTok já é uma porcaria gigantesca, o que não passa pelo filtro deve ser abissal demais para um humano manter a sanidade. Os revisores em questão trabalham para a plataforma via uma empresa terceirizada que exige que uma quantidade incomensurável de conteúdo seja revisada para bater metas e que assinem um NDA (Non-Disclosure Agreement – contrato para não revelar conteúdo/informações).

Porém o conteúdo que mais traumatizou o par não foi assassinato, suicídio, estupro, abuso, bestialidade ou tortura, mas as teorias da conspiração e discursos de ódioalgo razoável visto que o nível destes hoje em dia parece realmente pior do que violência pura e simples, visto os absurdismos atuais – tudo filtrado pelas suas 12 horas de trabalhos diários.

Em 2018 um acordo desses foi fechado por funcionários do Faceboo… META™ para acompanhamento psicológico e suporte pros traumas causados pelo trabalho.

Ao meu ver, é melhor fechar as portas do que criar hordas de gente doente, dos dois lados.

Fonte: TechCrunch

Author: Eric Mac Fadden