Social Media Marketing, Facebook, Facebook: вопросы бизнеса, Facebook: правовые, Facebook: маркетинг, Facebook: лента новостей, Facebook: страницы, маркетинг в социальных сетях, После проникновения плохих участников, преследующих платформу во время выборов в 2016 году, Facebook уделяет приоритетное внимание процессу обзора контента.

На прошлой неделе Facebook объявила, что удалила 32 страницы и учетные записи со своей платформы и Instagram для «скоординированного недостоверного поведения» - термин, используемый Facebook для определения усилий сети учетных записей, направленных на распространение вредоносного контента. Плохие участники кампаний по дезинформации включали восемь Facebook-страниц, 17 учетных записей Facebook и семь учетных записей Instagram.

«Такое поведение не допускается на Facebook, потому что мы не хотим, чтобы люди или организации, создающие сети учетных записей, вводили в заблуждение других о том, кто они или что они делают», - написал Facebook в своем объявлении от 31 июля, учетные записи были сняты.

Через неделю Facebook снял еще четыре страницы, которые принадлежали теоретику заговора и основателю Infowars Алексу Джонсу за неоднократную публикацию контента, нарушающего принципы стандартов сообщества компании. (Spotify, Apple, YouTube и другие также ограничили или удаляли контент Jones на своих платформах.)

Решения Facebook о снятии контента и связанных с ним учетных записей являются прямым следствием последствий, когда компания не смогла выявить всплеск кампаний дезинформации, преследующих платформу в течение избирательного цикла США в 2016 году. Поскольку допускать это недостаточно, чтобы полиция вредоносного контента и плохих игроков, Facebook обязался уделять приоритетное внимание процессу обзора контента.

Как эти усилия влияют на маркетологов? В то время как действия Facebook направлены на людей и организации с злонамеренными намерениями, маркетологи, которые хотят создавать и продвигать бренды на Facebook, должны знать правила Facebook о контенте - тем более, что политики и системы обзора контента применяются к политикам объявлений Facebook. Мы собрали краткое изложение процесса просмотра контента Facebook, вовлеченных команд и того, как он работает до сих пор.

Удаление содержимого и ограничение распространения

В апреле Facebook опубликовал свои первые рекомендации по стандартам сообщества - книгу правил, в которой описываются политики контента компании, разделенные на шесть различных категорий: насилие и преступное поведение, безопасность, нежелательный контент, целостность и подлинность, уважение интеллектуальной собственности и контента связанных запросов. В то время, Facebook сказал, что он использует комбинацию искусственного интеллекта и отчетов от людей, которые идентифицировали должности для потенциального злоупотребления. Сообщения, о которых сообщается для нарушения правил контента, проверяются оперативной группой, состоящей из более чем 7500 рецензентов контента.

«Вот как мы об этом думаем: если вы являетесь тем, кем вы говорите, и вы не нарушаете наши стандарты сообщества, мы не считаем, что мы должны помешать вам публиковать на Facebook».

Что касается процесса обзора, Facebook говорит, что членам своей группы по обзору контента назначается очередь сообщенных сообщений для оценки по одному. Facebook говорит, что рецензенты не обязаны оценивать какое-либо заданное количество сообщений - нет никакой квоты, с которой они должны встретиться, когда дело касается количества просматриваемого контента.

В 24 июля Q & A по честности выборов менеджер новостей Facebook News News Тесса Лионс сказал, что компания удаляет любой контент, который нарушает его стандарты стандартов сообщества, но что он только уменьшает распространение проблемного контента, который может быть ложным, но делает не нарушать Стандарты Сообщества. По словам Лиона, Facebook покажет истории, оцененные фальшивыми фактами, и покажет их ниже в новостной ленте, поэтому их значительно меньше. (Согласно данным Facebook, истории, которые были ранжированы ниже в ленте новостей, привели к тому, что будущие взгляды были сокращены более чем на 80 процентов.)

Лионцы критиковали политику Facebook, чтобы ограничить распространение контента, идентифицированного как ложное, и устранять его, объясняя, что политика Facebook не подвергает цензуре контент, который не нарушает их правил.

«Вот как мы об этом думаем: если вы являетесь тем, кем вы говорите, и вы не нарушаете наши стандарты сообщества, мы не считаем, что мы должны помешать вам опубликовать на Facebook. Этот подход означает, что на Facebook будет опубликована информация, которая является ложной, и что многие люди, включая меня, считают оскорбительными », - сказал Лион.

Совсем недавно Facebook предложил более глубокое погружение в причины, почему он удаляет страницу.

"Если содержание страниц страницы нарушает наши Стандарты Сообщества, страница и страница, ответственные за публикацию контента, получают забастовку. Когда страница превосходит определенный порог ударов, вся страница не публикуется. "

Facebook говорит, что последствия забастовки варьируются в зависимости от серьезности нарушения контента и что он не дает конкретных чисел с точки зрения того, сколько ударов может получить страница перед удалением.

«Мы не хотим, чтобы люди играли в систему, поэтому мы не разделяем определенное количество ударов, которые приводят к временному блокированию или постоянной приостановке». Facebook говорит, что множественное нарушение контента приведет к временной блокировке учетной записи или Страница не опубликована. Если апелляция не направлена ​​на восстановление страницы - или если апелляция была сделана, но она была отклонена, страница будет удалена.

Объявлено в апреле, процесс апелляции является новым дополнением к системе обзора контента Facebook.

Команды и технологии обзора контента Facebook

В последние месяцы Facebook неоднократно заявлял, что в течение этого года нанимает 20 000 сотрудников по вопросам безопасности и охраны. По состоянию на 24 июля компания подтвердила, что наняла 15 000 из 20 000 сотрудников, которые она планирует нанять.

Группы по обзору контента включают в себя сочетание штатных сотрудников, подрядчиков и компаний-партнеров, расположенных по всему миру, а также 27 независимых партнеров по проверке фактов в 17 странах. В дополнение к отзывам людей, Facebook использует технологию ИИ и машинного обучения для определения вредного контента.

«Мы также активно инвестируем в новые технологии, чтобы более эффективно справляться с проблемным контентом на Facebook. Например, мы теперь используем технологии для оказания помощи в отправке отчетов рецензентам с надлежащими экспертными знаниями, выделению дублирующих отчетов и оказанию помощи в выявлении и удалении террористической пропаганды и изображений сексуального насилия над детьми до того, как они даже сообщаются », - написал вице-президент Facebook 17 июля. Моника Бикерт.

Сотрудники по просмотру контента Facebook проходят предварительную подготовку, практическое обучение и постоянный коучинг во время их работы. Компания утверждает, что у нее также есть четыре клинических психолога, работающих в трех регионах, для разработки и оценки программ отказоустойчивости для сотрудников, которым поручено анализировать графический и нежелательный контент.

Что мы знаем о недавно удаленном контенте

Что касается 32 страниц и аккаунтов, удаленных на прошлой неделе, Facebook сказал, что не может определить ответственную группу (или группы), но более 290 000 учетных записей Facebook следовали по крайней мере одной из страниц. В общей сложности удаленные страницы и учетные записи опубликовали более 9500 органических сообщений на Facebook, один фрагмент контента на Instagram, занял около 150 объявлений (стоимостью 11 000 долларов США) и создал около 30 мероприятий, относящихся к май 2017 года - крупнейшему из в котором было 4700 человек, заинтересованных в посещении, и 1400 пользователей, которые заявили, что будут присутствовать.

Страницы Alex Jones были сняты, потому что они нарушали графическое насилие Facebook и политику ненависти. Перед удалением Facebook удалил видео, размещенное на страницах, за нарушение правил ненависти и издевательств. Администратор страницы, Алекс Джонс, также был помещен в 30-дневный блок для публикации нарушающего контента. В течение недели Facebook принял решение удалить все страницы после получения большего количества сообщений о нарушениях контента.

За пределами этих двух конкретных действий Facebook говорит, что в настоящее время он останавливается более миллиона учетных записей в день в момент создания с использованием технологии машинного обучения. Первый отчет о прозрачности компании, опубликованный в мае, показал, что Facebook предпринял меры против 1,4 миллиарда штук нарушения контента, включая 837 миллионов счетчиков спама и 583 миллиона поддельных счетов. Исключая нарушения, связанные с нарушением ненависти, Facebook говорит, что более 90 процентов контента было удалено без уведомления почти по всем категориям, включая спам, наготу и сексуальную активность, графическое насилие и террористическую пропаганду.

В вопросах Q & A по вопросам честности выборов Facebook сказал, что на прошлых президентских выборах в Мексике набрал десятки тысяч поддельных подписчиков на страницах мексиканских кандидатов, а также поддельные страницы, группы и аккаунты, которые нарушали политику и выдавали себя за политиков, работающих на должность , (В преддверии ноябрьских промежуточных выборов в США Facebook запустил процесс проверки для любого лица или группы, желающих запустить политическую рекламу, и поисковый архив политического рекламного контента, который возвращается семь лет, в котором перечислены креатив объявления, бюджет и количество пользователей которые его рассматривали.)

Но работает ли он?

В то время, как отчет о прозрачности в Facebook представил понимание того, сколько сообщений о спаме, поддельных учетных записях и других вредоносных данных, которые компания идентифицировала с октября прошлого года, еще предстоит сделать.

В прошлом месяце рекламодатели обнаружили, что объявления в Facebook с такими словами, как «Буш» и «Клинтон», были удалены после того, как рекламодатели, которые не были проверены, были помечены как рекламные объявления. Было снято рекламное объявление барбекю, в котором указано расположение предприятий на «President Clinton Avenue» и рекламное объявление Walmart для выпеченных бобов «Буш». Скорее всего, результат автоматических систем Facebook неправильно идентифицирует рекламу как политическую рекламу.

Подробнее о том, что в отчете из 4-й версии канала BBC «Dispatches» была опубликована компания, занимающаяся обзором контента в Дублине, заключенная с Facebook, не смогла действовать по многочисленным подсчетам контента, нарушающим стандарты сообщества приложения. В докладе также обвинили Facebook в том, что он практикует процесс «экранированного обзора», позволяя Странам, которые неоднократно публиковали нарушение контента, оставаться в стороне из-за большого количества следящих сторон.

Facebook ответил на обвинение, подтвердив, что он выполнял обзоры «Cross Check» (его определение для экранированных обзоров), но что это было частью процесса, чтобы дать некоторым Странам или Профилям «второй уровень» обзора, чтобы убедиться политики были применены правильно.

"Чтобы быть понятным, Cross Checking something на Facebook не защищает профиль, страницу или контент от удаления. Это просто делается для того, чтобы наше решение было правильным », - написал Бикерт в ответ на отчет Channel 4.

С тех пор, как признание Facebook было медленным, чтобы идентифицировать вмешательство России на платформе во время выборов 2016 года, генеральный директор Марк Цукерберг снова и снова говорил, что безопасность не является проблемой, которая может быть полностью решена. Менеджер новостей News News News рассказал о сложном пересечении безопасности и цензуры на платформе во время вопросов и ответов компании о честности выборов: «Мы считаем, что мы работаем над достижением баланса между выражением и безопасностью нашего сообщества. И мы думаем, что это сложный баланс, и это область, над которой мы продолжаем работать и получать обратную связь, - и увеличить нашу прозрачность ».

Из отчета прозрачности Q1 до последних действий, удаляющих вредоносный контент, Facebook продолжает доказывать, что пытается избавить свою платформу от плохих игроков. Реальная проверка того, добилась ли компания каких-либо успехов с 2016 года, вполне может быть промежуточными выборами в этом году в ноябре. Поскольку Facebook уделяет больше внимания контенту и его процессу обзора, маркетологам и рекламодателям необходимо понять, как эти системы могут повлиять на их видимость на платформе.

Share To:

celcumplit

Post A Comment:

0 comments so far,add yours