html текст
All interests
  • All interests
  • Design
  • Food
  • Gadgets
  • Humor
  • News
  • Photo
  • Travel
  • Video
Click to see the next recommended page
Like it
Don't like
Add to Favorites

Люди плохо разбираются в фейковых новостях. Могут ли компьютеры делать это лучше?

080418_fakenews_feat.jpg
Прокрутка ленты новостей часто напоминает игру «Две истины и одна ложь». Некоторые ложные сообщения легко обнаружить: например, новости о том, что первая леди Мелания Трамп хотела, чтобы экзорцист очистил Белый дом от демонов Обамы, или что директор школы в Огайо был арестован за дефекацию перед студентами. В других случаях вымысел слишком хорошо сочетается с фактами: Федеральная комиссия по связи обвинила CNN? Полицейские обнаружили лабораторию метамфетамина в алабамском Walmart? Конечно же нет. Но любой, кто прокручивает множество новостей в ленте, может быть легко одурачен.

Мы живем в золотой век дезинформации. На Твиттере ложь распространяется дальше и быстрее правды. Согласно исследованию BuzzFeed News, в преддверии президентских выборов в 2016 году в США самые популярные фейковые статьи получили больше лайков, репостов и комментариев на Facebook, чем настоящие новости.

До появления Интернета «вы не могли сидеть на своем чердаке и создавать теории заговора в мировом масштабе», — говорит Лука де Альфаро, компьютерный специалист из Калифорнийского университета в Санта-Крузе. Но в сегодняшних социальных сетях слишком легко торговать ложью — будь то фейки от таких компаний, как Disinfomedia, владеющей несколькими ложными новостными сайтами, или «стартап» подростков из Македонии, которые просто гребли деньги лопатой, публикуя поддельные новости во время выборов в США в 2016 году.

Большинство интернет-пользователей, вероятно, не преднамеренно распространяют такие желтые новости. Информационная перегрузка и средняя продолжительность концентрации внимания веб-серферов совсем не способствуют бдительности при проверке фактов. Сюда же следует отнести и предвзятость. «Когда вы имеете дело с нефильтрованной информацией, вполне вероятно, что вы выберите то, что соответствует вашему собственному мышлению, даже если эта информация неверна», — говорит Фабиана Золло, компьютерный специалист из Университета Ка'Фоскари в Венеции, которая изучает то, как информация распространяется в социальных сетях.

Преднамеренно или нет, обмен дезинформации может иметь серьезные последствия. Фейковые новости не просто угрожают честности выборов и подрывают доверие общественности к настоящим новостям. Они — угроза жизни. Ложные слухи, которые распространялись через WhatsApp, например, подстрекали людей к линчеванию в Индии в этом году, в результате чего погибло более десятка человек.

Автоматизация поиска фейков — не выход?

Чтобы помочь отделить фальшивые новости от правды, программисты создают автоматизированные системы, которые судят о правдивости онлайн-историй. Компьютерная программа может учитывать определенные характеристики статьи или то, как статья воспринимается в социальных сетях. Компьютеры, которые распознают определенные маркеры, могут предупредить людей, проверяющих новости, которые и вынесут окончательный вердикт.

Автоматические инструменты поиска лжи «все еще находятся в зачаточном состоянии», — говорит компьютерный специалист Джованни Лука Чампалья из Университета Индианы. Исследователи изучают, какие факторы наиболее надежно охарактеризовывают поддельные новости. К сожалению, у них нет согласованного набора истинных и ложных историй для тестирования своей тактики. Некоторые программисты полагаются на авторитетные СМИ или государственные агентства печати, чтобы определить, какие истории верны, а какие нет, в то время как другие черпают информацию из списков фейковых новостей в социальных сетях.

Но команды по всему миру продвигаются вперед, потому что интернет — это пожарный шланг информации, и просить людей следить за фактами — это тоже самое, что направить всю воду из шланга через домашний фильтр для воды. «Это ошеломляюще, — говорит Алекс Каспрак, научный автор со Snopes, старейшего и самого крупного сайта для проверки фактов, — просто удивляет весь объем дрянной информации в интернете».

Посетители реальных новостных веб-сайтов в основном добираются до них напрямую или из результатов поисковой выдачи. Поддельные новостные сайты привлекают гораздо более высокую долю своего входящего веб-трафика через переходы из социальных сетей:

1.PNG

Когда дело доходит до проверки содержания новостей напрямую, есть два основных способа узнать, подходит ли материал под законопроект о мошенничестве: что говорит автор и как он говорит об этом.

Чампалья и ее коллеги автоматизировали эту утомительную задачу с помощью программы, которая проверяет, насколько тесно связаны предмет и объект заявления. Для этого программа использует обширную сеть существительных, построенную из фактов, найденных в инфобоксах в правой части каждой страницы Википедии.

В этой сети два существительных связаны друг с другом, если одно из них появлялось в инфобоксах другого. Чем меньше степень разделения между субъектом и объектом в этой сети, и чем более точными являются промежуточные слова, связывающие субъект и объект, тем более вероятно, что компьютерная программа пометит утверждение как истинное.

Сложно? Давайте разберем на простом примере. Возьмем ложное утверждение: «Барак Обама — мусульманин». В существительной сети получается семь звеньев между «Обамой» и «исламом», в том числе очень общие существительные, такие как «Канада», которые связаны со многими другими словами. Учитывая этот длинный извилистый маршрут, автоматическая проверка фактов, описанная в 2015 году в PLOS ONE, считает, что Обама вряд ли станет мусульманином:

2.png

Но оценка достоверности утверждений на основе такого разделения субъект-объект имеет свои пределы. Например, система считает, что бывший президент Джордж Буш-младший женат на Лоре Буш. Что ж, отлично. Но при этом она также решила, что Джордж Буш, вероятно, женат на Барбаре Буш, своей матери. Уже не так хорошо, правда? Чампалья с коллегами работают над тем, чтобы дать своей программе более тонкое представление о взаимоотношениях между существительными в сети.

Проверка каждого утверждения в статье — это не единственный способ понять, проходит ли статья проверку на истинность. Стиль письма автора может стать подарком проверяющему. Бенджамин Хорн и Сибель Адали, компьютерные ученые из Политехнического института Ренсселаера в Трое, проанализировали 75 настоящих статей из СМИ, которые, по мнению Business Insider, заслуживают наибольшего доверия, а также 75 ложных историй с сайтов из черного списка. По сравнению с настоящими новостями, фейки, как правило, были короче и использовали больше повторяющихся наречий и эпитетов. У поддельных историй также было меньше цитат, технических слов и существительных.

Основываясь на этих результатах, исследователи создали компьютерную программу, которая использовала четыре самых сильных отличительных фактора поддельных новостей — количество существительных, кавычек, избыточность и количество слов — чтобы судить о достоверности статьи. Программа, представленная на прошлогодней Международной конференции по веб-сетям и социальным медиа в Монреале, определила фальшивые новости в 71% случаев (программа, которая сортировала фальшивые новости от истинных наугад, показала бы примерно 50-процентную точность). Результат неплохой, но не идеальный, поэтому Хорн и Адали ищут дополнительные функции для повышения точности.

Вероника Перес-Розалес, компьютерный специалист из Мичиганского университета в Анн-Арборе, и ее коллеги сравнили 240 подлинных и 240 вымышленных статей. Как и Хорн и Адали, команда Вероники нашла больше наречий в поддельных новостных статьях, чем в реальных. Поддельные новости в этом анализе, представленном на arXiv.org 23 августа 2017 года, также имели тенденцию использовать более позитивный язык и выражать большую уверенность:

3.PNG

Компьютеры не обязательно нуждаются в людях, чтобы говорить нам о том, какие аспекты выдают фейковые новости. Компьютерный ученый и инженер Вагелис Папалексакис из Калифорнийского университета и его коллеги создали фальшивый детектор новостей, который начал с сортировки статей на группы, основываясь на том, насколько они схожи. Исследователи при этом не предоставили никаких четких инструкций о том, как оценивать сходство. Как только программа сгруппировала статьи по подобию, ученые пометили 5% всех статей как истинные или ложные. Из этой информации алгоритм, описанный 24 апреля на arXiv.org, промаркировал остальные статьи. Команда Вагелиса проверила эту систему на почти 32 000 реальных и 32 000 фейковых статьях, которые были опубликованы в Twitter. «Скормив» алгоритму это маленькое зернышко правды (всего 5% от общего количества статей), программа правильно определила истинность или ложность для 69% других материалов.

70% недостаточно, чтобы доверять программам оценку новостей самостоятельно. Но поддельные детекторы новостей могут выводить предупреждение, когда пользователь открывает подозрительную новость в веб-браузере, подобно предупреждению, которое появляется, когда вы собираетесь посетить сайт без сертификата безопасности.

В начале, такие программы в социальных сетях могут использоваться как своеобразные дезинформационные сторожевые псы, рыскающие по новостным лентам для поиска сомнительных историй, чтобы затем отправлять их на проверку людям. Сегодня Facebook принимает обратную связь от пользователей — например, информацию о тех, кто публикует фейковые комментарии или статьи. Затем компания отправляет эту информацию профессиональным скептикам на FactCheck.org, PolitiFact или Snopes для проверки. Но Facebook открыт для использования других сигналов для более эффективного поиска фальсификаций, говорит пресс-секретарь Facebook Лорен Свенссон.

Независимо от того, насколько хорошо компьютеры находят поддельные новости, эти системы не должны полностью заменять человеческие проверки, говорит Хорн. Последнее слово о том, является ли история ложной, может потребовать более тонкого понимания, чем может обеспечить компьютер.

«Существует огромная «серая шкала» дезинформации», — говорит Хулио Амадор Диас Лопес, компьютерный специалист и экономист из Имперского колледжа в Лондоне. Этот спектр, который включает в себя истину, вырванную из контекста, пропаганду и заявления, которые практически невозможно проверить — например, религиозные убеждения — может быть трудным для работы компьютерных программ по поиску фейковой информации.

Каспрак, один из авторов с Snopes, предполагает, что в будущем проверка фактов будет напоминать перевод с помощью компьютера. Автоматическая система сможет предоставить лишь черновой перевод, и человеку по-прежнему приходится пересматривать этот текст для поиска пропущенных деталей, таких как ошибки орфографии и пунктуации, или слов, в переводе которых программа просто ошиблась. Точно так же компьютеры могут собирать списки подозрительных статей для проверки людьми, говорит Каспрак, подчеркивая, что именно за людьми остается решение, называть эту статью правдивой или фейковой.

Даже когда алгоритмы станут более проницательными в том, чтобы отмечать поддельные статьи, нет никакой гарантии, что создатели фейковых новостей не переведут свою игру на более высокий уровень, чтобы ускользнуть от обнаружения. Если компьютерные программы призваны скептически относиться к материалам, которые чрезмерно позитивны или выражают определенную уверенность, то авторы таких статей могут соответствующим образом усовершенствовать свои стили письма.

«Поддельные новости, как вирусы, могут развиваться и обновляться», — говорит Дацин Ли, компьютерный сетевой инженер из Университета Бейхан в Пекине, который изучал поддельные новости в Twitter. К счастью, о новостях в интернете можно судить по большей части по их заголовкам и сюжету, чем по содержимому. Другими контрольными признаками ложных новостей гораздо сложнее манипулировать — а именно, видами привлечения аудитории, которая читает эти статьи в соцсетях.

Большинство пользователей Twitter, которые обсуждали ложные слухи о двух катастрофах, просто ретвитили эти сообщения, тем самым способствуя распространению этих материалов. Только небольшая часть аудитории занималась поиском правды или сомневалась в написанном:

4.PNG

Хуан Цао, компьютерный специалист из Института вычислительной техники при Китайской академии наук в Пекине, обнаружил, что в китайской версии Twitter, Sina Weibo, конкретные твиты о некоторых новостях являются хорошими показателями того, является ли конкретная история правдой. Команда Цао построила систему, которая могла бы объединять твиты, обсуждающие конкретное новостное событие, а затем сортировать эти сообщения по двум группам: те, которые выражают поддержку истории, и те, кто против нее. Система учитывает несколько факторов для оценки доверия к этим постам. Если, например, история была сосредоточена на локальном событии, к которому пользователь был географически близок, то его пост считался более достоверным, чем сообщения тех, кто был дальше от места события. Если пользователь долгое время ничего не писал, и вдруг начал комментировать какую-то новость, это ненормальное поведение снижает к нему доверие. Посредством взвешивания твитов «за» и «против» программа решала, может ли конкретная история быть фальшивкой.

Группа Cao проверила эту технику на 73 реальных и 73 фейковых статьях, помеченных таковыми Информационным агентством Синьхуа в Китае. Алгоритм рассмотрел около 50 000 твитов об этих историях на Sina Weibo и правильно распознал фальшивые новости примерно в 84 процентах случаев. Команда Цао предоставила результаты в 2016 году в Финиксе на конференции по ассоциации развития искусственного интеллекта. Альфаро и его коллеги из Университета Санта-Круз также сообщали в Македонии на прошлогодней Европейской конференции по компьютерному обучению и принципам обнаружения знаний в базах данных, что мистификации можно отличить от настоящих новостей, распространяющихся на Facebook, на основе того, как пользователи реагируют на эти истории.

Вместо того, чтобы смотреть, кто как реагирует на статью, компьютер может посмотреть, как она распространяется в социальных сетях. Ли и его коллеги изучали сети репостов, которые расходились от новостей в соцсетях. Исследователи проанализировали сети репостов около 1700 поддельных и 500 настоящих новостных материалов на Weibo, а также около 30 поддельных и 30 настоящих новостей в Twitter. В обеих случаях команда Ли обнаружила, что большинство людей склонны пересказывать настоящие новости из первоисточника, в то время как поддельные новости, как правило, распространяются больше через репосты от других людей.

Типичная сеть репостов настоящих новостей «больше похожа на звезду, но от фейковых новостей больше похожа на дерево», — говорит Ли:

5.PNG

Это подтверждалось, даже когда команда Ли игнорировала новости, изначально опубликованные известными официальными источниками, например, крупными новостными порталами. Эти данные, представленные 9 марта на arXiv.org, показывают, что компьютеры могут использовать соцсети как лакмусовые бумажки для проверки на правдивость, даже не исследуя отдельные записи «под микроскопом».

Как избавиться от фейковых новостей

Когда дезинформация попадает в социальные сети, вопрос о том, как лучше всего справиться с ней, остается открытым. Простая чистка новостных лент от фиктивных статей, вероятно, не выход. Платформы для социальных сетей, обеспечивающие такой уровень контроля над тем, что посетители может видеть, «будут похожи на тоталитарные государства», — говорит Мерфи Чой, аналитик данных из SSON Analytics в Сингапуре. «Это будет очень неудобно для всех вовлеченных сторон».

Платформы могут помещать предупреждающие знаки на дезинформацию. Но маркировка историй, которые были проверены как ложные, может вызвать неудачный «подразумеваемый эффект правды». Люди будут больше доверять любым историям, которые не помечены как явно ложные, независимо от того, были ли они проверены или нет, согласно исследованию, опубликованному в сентябре прошлого года в Исследовательской сети социальных наук учеными по поведению человека Гордоном Пенникуком из Университета Регины в Канаде и Дэвидом Рэнд из Йельского университета.

Вместо того, чтобы удалять истории, Facebook показывает найденные фэйковые истории ниже в новостных лентах пользователей — это может сократить просмотры таких материалов на 80%, говорит представитель компании Свенссон. Facebook также отображает статьи, которые развенчивают ложные истории, когда пользователи сталкиваются ними — хотя этот метод может иметь неприятные последствия. При исследовании пользователей Facebook, которые любят и обмениваются новостями о заговорах, Золло и его коллега Уолтер Кватроциокки обнаружили, что после того, как «заговорщики» взаимодействовали с развенчивающими статьями, эти пользователи фактически увеличили свою активность на страницах о заговорах на Facebook.

Еще многое предстоит сделать в обучении компьютеров и людей распознавать фальшивые новости. Как гласит старая поговорка: ложь обойдет полсвета прежде, чем правда успеет надеть башмаки. Но зоркие компьютерные алгоритмы могут, по крайней мере, замедлить распространение фейковых историй, что уже хорошо.
Читать дальше
Twitter
Одноклассники
Мой Мир

материал с iguides.ru

1

      Add

      You can create thematic collections and keep, for instance, all recipes in one place so you will never lose them.

      No images found
      Previous Next 0 / 0
      500
      • Advertisement
      • Animals
      • Architecture
      • Art
      • Auto
      • Aviation
      • Books
      • Cartoons
      • Celebrities
      • Children
      • Culture
      • Design
      • Economics
      • Education
      • Entertainment
      • Fashion
      • Fitness
      • Food
      • Gadgets
      • Games
      • Health
      • History
      • Hobby
      • Humor
      • Interior
      • Moto
      • Movies
      • Music
      • Nature
      • News
      • Photo
      • Pictures
      • Politics
      • Psychology
      • Science
      • Society
      • Sport
      • Technology
      • Travel
      • Video
      • Weapons
      • Web
      • Work
        Submit
        Valid formats are JPG, PNG, GIF.
        Not more than 5 Мb, please.
        30
        surfingbird.ru/site/
        RSS format guidelines
        500
        • Advertisement
        • Animals
        • Architecture
        • Art
        • Auto
        • Aviation
        • Books
        • Cartoons
        • Celebrities
        • Children
        • Culture
        • Design
        • Economics
        • Education
        • Entertainment
        • Fashion
        • Fitness
        • Food
        • Gadgets
        • Games
        • Health
        • History
        • Hobby
        • Humor
        • Interior
        • Moto
        • Movies
        • Music
        • Nature
        • News
        • Photo
        • Pictures
        • Politics
        • Psychology
        • Science
        • Society
        • Sport
        • Technology
        • Travel
        • Video
        • Weapons
        • Web
        • Work

          Submit

          Thank you! Wait for moderation.

          Тебе это не нравится?

          You can block the domain, tag, user or channel, and we'll stop recommend it to you. You can always unblock them in your settings.

          • iguides
          • браузер
          • домен iguides.ru

          Get a link

          Спасибо, твоя жалоба принята.

          Log on to Surfingbird

          Recover
          Sign up

          or

          Welcome to Surfingbird.com!

          You'll find thousands of interesting pages, photos, and videos inside.
          Join!

          • Personal
            recommendations

          • Stash
            interesting and useful stuff

          • Anywhere,
            anytime

          Do we already know you? Login or restore the password.

          Close

          Add to collection

             

            Facebook

            Ваш профиль на рассмотрении, обновите страницу через несколько секунд

            Facebook

            К сожалению, вы не попадаете под условия акции