НЬЮ-ЙОРК (ИА Реалист). Популярная видеоплатформа TikTok удалила аккаунты, связанные с российскими медиагруппами, за участие в так называемых «тайных операциях по оказанию влияния» в преддверии выборов в США 2024 года.
В частности, было объявлено об удалении аккаунтов Russia Today (RT) и ТВ-новости за нарушение правил сообщества.
«Выборы — важные моменты общественного диалога. В это время мы продолжаем инвестировать в обеспечение безопасности людей и защиту целостности платформы TikTok для более чем 170 млн членов нашего сообщества в США. Мы предоставляем оперативную информацию о текущей работе, которую мы проводим для защиты TikTok во время выборов. За последнюю неделю наша работа по защите TikTok во время выборов в США включала в себя удаление аккаунтов, связанных с «Россией сегодня» и «ТВ-Новости», за участие в тайных операциях по влиянию на TikTok, что нарушает наши Правила сообщества. Ранее эти аккаунты были ограничены в ЕС и Великобритании. В глобальном масштабе, в соответствии с нашей политикой в отношении государственных СМИ, их контент также не подпадал под действие ленты For You, чтобы ограничить попытки повлиять на иностранную аудиторию по темам глобальных событий и дел, а их аккаунты были помечены как контролируемые государством СМИ, чтобы предоставить важный контекст об источнике контента», — говорится в заявлении, опубликованном Центром прозрачности TikTok.
В заявлении компании также указывается, что в августе было удалено 5 сетей, а также 7792 учетных записей, связанных с ними, оказывающих влияние на электорат США.
В этом объявлении не указывается подробно, какие именно аккаунты были удалены, однако NBC News сообщил, что российские государственные СМИ RT и Sputnik теперь заблокированы навсегда.
К слову, это далеко не первые обвинения в адрес RT. Так, в начале месяца Госдепартамент США заявил, что RT проводит тайные компании влияния по всему миру и ввел санкции в отношении его материнской компании за работу в интересах российского правительства.
Тем временем, Американская разведка также выступила с обвинениями в адрес России в том, что она создала больше ИИ-контента, чем любая другая страна в мире, для того, чтобы поддержать на предстоящих президентских выборах США кандидата от республиканской партии Дональда Трампа.
Как сообщает Reuters, с таким заявлением на брифинге для СМИ выступил сотрудник Управления директора национальной разведки (ODNI), пожелавший сохранить анонимность.
По его словам, контент на основе искусственного интеллекта, создаваемый Москвой, «соответствует более масштабным усилиям России по продвижению кандидатуры Дональда Трампа и очернению вице-президента Камалы Харрис и Демократической партии, в том числе с помощью теорий заговора».
Представитель ODNI также отметил, что Россия — гораздо более искушенный игрок, который лучше понимает, как работают выборы в США, и какие цели следует выбирать.
На вопрос о том, каким образом Россия распространяет контент, созданный с использованием искусственного интеллекта, чиновник указал на заявление Министерства юстиции от 9 июля о пресечении предполагаемой операции, поддерживаемой Москвой, которая использовала аккаунты в социальных сетях с усовершенствованными функциями искусственного интеллекта для распространения прокремлевских сообщений в США и других странах.
Сотрудник американской разведки заявил, что «российские влиятельные лица» срежиссировали широко разрекламированное видео, в котором женщина утверждает, что стала жертвой автомобильной аварии, в которой Харрис скрылась с места преступления. Однако видео, по его словам, было срежиссировано, а не создано с помощью ИИ.
Microsoft на прошлой неделе заявил, что видео является результатом тайной российской операции по дезинформации.
По словам представитель ODNI, помимо России, контент, сгенерированный с помощью искусственного интеллекта, используют также Китай и Иран.
Однако Китай использует его для того, чтобы повысить свою популярность во всем мире, а Иран — для изменения мнений американских избирателей «по всему политическому спектру по поляризующим вопросам», таким как Израиль и конфликт в секторе Газа.