Платим блогерам
Блоги
amv212
Бывший руководитель отдела продуктов Facebook Фрэнсис Хауген 5 октября 2021 года дала показания в Сенате США о том, что социальные медиа-платформы компании "вредят детям, разжигают рознь, расшатывают устои общества и ослабляют демократию".

реклама

Бывший руководитель отдела продуктов Facebook Фрэнсис Хауген 5 октября 2021 года дала показания в Сенате США о том, что социальные медиа-платформы компании "вредят детям, разжигают рознь и ослабляют демократию".

Хауген была основным источником информации для разоблачительного материала Wall Street Journal о компании. Она назвала алгоритмы Facebook опасными, заявила, что руководители Facebook осознавали риск, но ставили доходы выше интересов людей, и призвала Конгресс управлять компанией.

Бывший руководитель отдела продуктов Facebook Фрэнсис Хауген

реклама

 

При разработке контента, который вы видите, платформы социальных сетей в своей работе опираются на привычки людей. Если говорить прямо, то они ожидают контент, на который люди реагируют или "вовлекаются", ставят лайки, комментируют или делятся им. Фабрики троллей, организации по распространению материалов провокационного содержания, злоупотребляют этим, занимаясь копированием материалов с наиболее активным участием и публикуя их в качестве своих собственных, что способствует привлечению большого числа подписчиков.

От львов в саванне до лайков на Facebook

Идея "знания толпы" предполагает, что использование индикаторов действий, мнений и предпочтений других людей в качестве информации приведет к обоснованному выбору. Например, коллективные прогнозы обычно более верны, чем индивидуальные. Коллективный разум используется для предсказания финансовых рынков, спортивных событий, выборов и даже вспышек заболеваний.

На протяжении десятков миллионов лет эволюции эти идеи были закодированы в человеческом мозге в виде когнитивных предубеждений, которые включают такие названия, как знакомство, простое воздействие и эффект Бандвагона. Если все работают, то и вам нужно приступить к работе; вероятно, что кто-то обнаружил "приближение львов", и работа может сохранить вашу жизнь. Конечно, вы вряд ли узнаете причину, но несомненно мудрее задавать вопросы позже.

Данные исследования, в котором приняли участие 8 500 человек, прокомментировавшие ответивших на 120 000 статей. Источник: Диаграмма: The Conversation CC-BY-ND

 

Ваш мозг улавливает подсказки из обстановки - вместе с вашими друзьями - и использует простые правила, чтобы быстро преобразовать эти индикаторы в выбор: Пойти с победителем, следовать большинству, копировать своего соседа. Эти правила замечательно работают в типичных условиях, потому что они основаны в основном на здравых предположениях. Например, они предполагают, что люди обычно действуют рационально, маловероятно, что многие ошибаются, прошлое предсказывает будущее и так далее.

Технологии позволяют людям получать показатели от гораздо большего числа других людей, о большинстве из которых они не имеют ни малейшего представления. Цели искусственного интеллекта активно используют эти показатели распознавания или "вовлеченности", от принятия решений по результатам поисковых систем до рекомендации музыки и фильмов, от предложения ассоциаций до оценки постов в информационных лентах.

Не все вирусное действительно является таковым

Проведенный анализ показывает, что почти все сетевые технологические платформы, такие как социальные сети и информационные советы, имеют мощный уклон в сторону популярности. Когда цели подталкиваются такими признаками, как заинтересованность, а не экспресс-запросы в поисковых системах, предвзятость в плане распознавания может привести к опасным непреднамеренным последствиям.

Социальные сети, такие как Facebook, Instagram, Twitter, YouTube и TikTok, тесно полагаются на алгоритмы искусственного интеллекта для ранжирования и продвижения контента. Эти алгоритмы учитывают то, что вам нравится, что вы трогаете и чем делитесь - другими словами, контент, с которым вы взаимодействуете. Цель алгоритмов - максимизировать вовлеченность, выясняя, что нравится людям, и помещая это на первые места в их лентах.

На первый взгляд, это вполне оправданно. Если людям нравится достоверная информация, обоснованные мнения и приятные фильмы, то алгоритмы должны создавать такой высококачественный контент. Но знание толпы делает ключевое предположение: что рекомендация того, что в моде, поможет высококачественному контенту "всплыть".

Учебник по алгоритму Facebook

Это утверждение было проверено путем изучения алгоритма, который оценивает рейтинг объектов, используя сочетание показателей качества и распознавания. Выяснилось, что в целом предвзятое отношение к распознаванию с высокой долей вероятности снижает качество контента в целом. Это связано с тем, что узнаваемость не является надежным показателем высокого качества, если с материалом было ознакомлено очень незначительное количество людей. В таких ситуациях показатели активности генерируют тревожный сигнал, и алгоритм, вероятнее всего, просто усилит этот шумовой эффект. Когда уровень известности низкокачественного продукта становится достаточно высоким, он по-прежнему должен продолжать усиливаться.

Алгоритмы - не единственный фактор, на который влияет предвзятость оценки вовлеченности - она может влиять и на людей. Факты показывают, что информация передается посредством "сложного заражения", то есть чем чаще люди знакомятся с какой-либо концепцией в сети, тем больше вероятность того, что они примут ее и повторно распространят. Когда социальные сети сообщают людям, что товар стал вирусным, их когнитивные предубеждения включаются и превращаются в непреодолимое желание сосредоточиться на нем и поделиться им.

Не слишком благоразумная аудитория

Не так давно был проведен эксперимент с использованием приложения для обучения новостной грамотности под названием Fakey. Это программа, которая имитирует информационную ленту, подобную Facebook и Twitter. Участники видят смесь статей из настоящей и лживой информации, лженауки, ангажированных и предвзятых источников, а также из  авторитетных источников. Они получают бонусы за то, что делятся или ставят лайк информации из надежных источников, а также за то, что отмечают статьи с низкой достоверностью для проверки фактов.

Выяснилось, что геймеры охотнее делятся информацией и реже отмечают статьи из источников с низкой степенью достоверности, когда видят, что многие клиенты обратились к этим статьям. Таким образом, демонстрация показателей взаимодействия создает уязвимость.

Исследование с привлечением аудитории не работает, так как оно построено на ложной предпосылке, что аудитория состоит из различных, непредвзятых источников. Причин, по которым это не так, может быть несколько.

Во-первых, из-за того, что люди склонны объединяться с единомышленниками, их онлайновое окружение не слишком разнообразно. Легкость, с которой пользователи социальных сетей могут удалять из друзей тех, с кем они не согласны, толкает людей в однородные сообщества, иногда называемые эхо-камерами.

Во-вторых, поскольку многие люди являются единомышленниками друг друга, они влияют друг на друга. Известный эксперимент показал, что выяснение того, какая музыка нравится вашим близким, влияет на ваши индивидуальные признанные предпочтения. Ваше социальное желание приспособиться искажает ваши непредвзятые суждения.

В-третьих, показатели распознавания можно подтасовать. За многие годы поисковые системы, такие как google, разработали тонкие методы борьбы с так называемыми "фермами ссылок" и другими схемами манипулирования поисковыми алгоритмами. Платформы социальных сетей, с другой стороны, только начинают узнавать о своих собственных уязвимостях.

Лица, стремящиеся манипулировать информационным рынком, создают поддельные аккаунты, например, троллей и социальных ботов, и организуют фальшивые сети. Они наводнили сеть, чтобы создать видимость того, что теория заговора или политический кандидат в тренде, обманывая алгоритмы платформ и непосредственно когнитивные предубеждения людей. Они даже изменили структуру социальных сетей, чтобы создать иллюзию мнения большинства.

Снижение вовлеченности

Что делать? В настоящее время технологические платформы находятся в состоянии обороны. Во время выборов они становятся более агрессивными в борьбе с фальшивыми аккаунтами и вредной дезинформацией. Но эти усилия могут быть сродни игре в жмурки.

Можно применить отдельную, предупреждающую тактику - добавить дополнительное давление. Иначе говоря, замедлить распространение информации. Например, такие виды поведения, как автоматическое проставление лайков или обмен мнениями, могут сдерживаться путем использования CAPTCHA, для ответа на которые требуется участие человека, или взимания дополнительной платы. Это не только уменьшит возможности для манипуляций, но и позволит людям уделять больше внимания тому, что они видят. Это даст гораздо меньше возможностей для предвзятого отношения, которое может повлиять на выбор людей.

Кроме того, было бы полезно, если бы корпорации социальных сетей скорректировали свои алгоритмы, чтобы при выборе контента они в меньшей степени полагались на показатели вовлеченности и в большей степени на показатели качества. Возможно, разоблачения разоблачителей дадут необходимый импульс.

Источник: thehackposts.com
14
Показать комментарии (14)

Популярные новости

Сейчас обсуждают