Майк Шрепфер, технический директор Facebook*, раскрыл эту цифру в своем блоге, добавив, что год назад она составляла 80,5% и всего 24% в 2017 году. Эта цифра также была опубликована в последнем отчете Facebook о соблюдении стандартов сообщества. Ранее такие социальные сети, как Facebook, Twitter и TikTok, подвергались критике за то, что они не скрывали ненавистнические высказывания на расовой и религиозной почве на своих платформах.
Компании нанимают тысячи модераторов контента по всему миру, чтобы следить за публикациями, фотографиями и видео, которые публикуются на их платформах. Но одних людей недостаточно, и технологические гиганты все больше полагаются на область искусственного интеллекта, известную как машинное обучение, благодаря которой алгоритмы автоматически улучшаются за счет постоянного получения опыта. «Поскольку нашими платформами пользуются миллиарды людей, мы полагаемся на ИИ, чтобы масштабировать нашу работу по проверке контента и автоматизировать процессы, когда это возможно», - заявил Шрепфер. «Наша цель - быстро и точно выявлять разжигающие ненависть высказывания, дезинформацию и другие формы контента, нарушающего правила».
Переведено редакцией электронной газеты «Век»