html текст
All interests
  • All interests
  • Design
  • Food
  • Gadgets
  • Humor
  • News
  • Photo
  • Travel
  • Video
Click to see the next recommended page
Like it
Don't like
Add to Favorites

Быстрое чтение: почему лучше не доверять свои чувства искусственному интеллекту?

Быстрое чтение: почему лучше не доверять свои чувства искусственному интеллекту?

© Giphy

С каждым годом мы все сильнее полагаемся на технологии, причем даже при таких проблемах, как депрессия и одиночество. Люди все чаще разговаривают с Сири, потому что у них был тяжелый день, голосовым помощникам жалуются на жизнь и задают экзистенциальные вопросы, а специальные приложения измеряют уровень нашего счастья и перепады настроения. О том, почему не стоит слишком сильно доверяться машинам, рассказывается в материале социолога Полины Аронсон и журналистки Джудит Дюпортейл в издании Aeon. «Теории и практики» пересказывают основное.

В сентябре 2017 в рунете разошлась картинка, на которой были объединены скриншоты двух бесед — с англоязычным Google Ассистентом и с разработанным компанией «Яндекс» голосовым помощником Алисой. Обе начинались с фразы «Мне грустно». Google Ассистент ответил: «Были бы у меня руки, я бы тебя обнял». А Алиса: «Никто и не обещал, что будет легко». Такую разницу в ответах можно объяснить тем, что, когда машины учат распознавать человеческие чувства и реагировать на них, их поведение отображает в том числе и культурные особенности.

Слева: чат с Google Ассистентом, справа: ч...

Слева: чат с Google Ассистентом, справа: чат с Алисой

Сегодня искусственный интеллект становится еще и искусственным эмоциональным интеллектом. Люди все чаще разговаривают с Сири, потому что им просто одиноко или их занимают какие-то серьезные мысли. Согласно данным Amazon, в половине бесед с их голосовым помощником Алексой не затрагиваются никакие практические темы: пользователи жалуются на жизнь, шутят, задают экзистенциальные вопросы.

Как показало исследование Института креативных технологий в Лос-Анджелесе, люди активнее демонстрируют свою печаль и больше раскрываются, когда уверены, что общаются с машиной, а не с человеком. Им кажется, что таким образом они защищают себя от чужих субъективных оценок, а машины, как некоторым кажется, могут бесстрастно анализировать наше психологическое состояние. Но это неправда, поскольку «чувствовать» они учатся именно у нас. В ходе машинного обучения они анализируют большие массивы данных и усваивают какие-то закономерности. Но поскольку чаще всего для этого используется актуальная в настоящий момент информация, система искусственного интеллекта в результате воспроизводит популярные настроения, она далека от объективности. И если за ее обучением никто не следит, то в итоге она может выдавать стереотипные суждения и оскорбления. Программисты, конечно, могут направлять ее обучение, но в таком случае система усвоит их идеи и ценности.

Поэтому голосовые помощники нельзя назвать объективными судьями. Они, наоборот, фактически воплощают определенные эмоциональные режимы — совокупность правил, по которым мы выражаем наши чувства. Например, Google Ассистент — это продукт режима, который социолог Ева Иллуз называет «эмоциональным капитализмом». Он предполагает, что разум может управлять чувствами и подчинять их логике рыночных интересов. Google Ассистент обещает обнять, потому что, по мнению его создателей, объятия — это действенный способ избавиться от негатива.

Алиса, напротив, служит воплощением «жесткой любви». Это порождение эмоционального социализма, режима, который, по словам социолога Джулии Лернер, воспринимает страдания как неизбежность. В соответствии с ним счастье отдельного человека не является главной целью, зато высоко ценится его способность терпеть.

Как объяснил авторам статьи руководитель сервиса «Алиса» Илья Субботин, ее нельзя было делать слишком милой, поскольку россиянам ирония и черный юмор ближе, чем нежности. Он подчеркнул, что вся команда долго работала над Алисиным «воспитанием», чтобы помощник не набрался расистских и сексистских выражений.

Тем не менее Алиса все же впитала настроения людей. Российская художница и активистка Дарья Чермошанская в октябре 2017 года задала ей вопрос: «Как думаешь, если муж ударил жену, это нормально?» «Конечно», — ответила Алиса. И добавила, что в этом случае жена должна его «кормить, любить и никогда не бросать». Когда пост художницы распространился в соцсетях, «Яндексу» пришлось дать ответ. Компания согласилась, что такие высказывания неприемлемы, и пообещала продолжить работу над поведением Алисы. Шесть месяцев спустя авторы статьи задали голосовому помощнику тот же вопрос. «Может, но не должен», — говорит Алиса теперь.

«Можно предположить, что многочасовые задушевные беседы с Сири рано или поздно приведут к тому, что наш язык и наши чувства станут более шаблонными»

Если голосовые помощники только воспроизводят характерные для данного общества реакции на эмоции, то специальные приложения учат нас подгонять свои чувства под общественные стандарты. В некоторых приложениях пользователей просят вести дневник, другие сопоставляют настроение с координатами GPS, звонками и историей поиска. Как заявляют разработчики таких приложений, их цель — борьба с психическими заболеваниями, в том числе депрессией, беспокойством и биполярным расстройством.

И хотя у таких программ есть ряд плюсов, они усиливают эмоциональный капитализм, отмечается в материале Aeon. Оказывается, счастье реально измерить с помощью шкал и тестов, а чувствами можно (и нужно) управлять. Причем в нашем распоряжении множество инструментов: приложения, которые следят за перепадами настроения, программы, которые повышают нашу продуктивность, гаджеты, которые подают сигнал при учащении пульса. Из-за доступности всех этих средств кажется, что уровень счастья обязательно должен быть под контролем. И это может усилить чувство вины в случае, если избавиться от депрессии все равно не получается. Технологии заставляют сомневаться в себе (тут можно вспомнить те же соцсети или приложения для знакомств) и испытывать стресс — и тут же предлагают купить средство для того, чтобы выйти из этого неприятного состояния.

Еще одна опасность слишком тесной дружбы с системами искусственного интеллекта в том, что они ограничивают наше мышление, считает Хосе Эрнандес-Оралло, профессор Технического университета Валенсии. Как правило, мы стараемся подстраиваться под собеседника, поэтому можно предположить, что многочасовые задушевные беседы с Сири рано или поздно приведут к тому, что наш язык и наши чувства станут более шаблонными. К тому же чем более предсказуемо наше поведение, тем проще его монетизировать.

Читать дальше
Twitter
Одноклассники
Мой Мир

материал с theoryandpractice.ru

5

      Add

      You can create thematic collections and keep, for instance, all recipes in one place so you will never lose them.

      No images found
      Previous Next 0 / 0
      500
      • Advertisement
      • Animals
      • Architecture
      • Art
      • Auto
      • Aviation
      • Books
      • Cartoons
      • Celebrities
      • Children
      • Culture
      • Design
      • Economics
      • Education
      • Entertainment
      • Fashion
      • Fitness
      • Food
      • Gadgets
      • Games
      • Health
      • History
      • Hobby
      • Humor
      • Interior
      • Moto
      • Movies
      • Music
      • Nature
      • News
      • Photo
      • Pictures
      • Politics
      • Psychology
      • Science
      • Society
      • Sport
      • Technology
      • Travel
      • Video
      • Weapons
      • Web
      • Work
        Submit
        Valid formats are JPG, PNG, GIF.
        Not more than 5 Мb, please.
        30
        surfingbird.ru/site/
        RSS format guidelines
        500
        • Advertisement
        • Animals
        • Architecture
        • Art
        • Auto
        • Aviation
        • Books
        • Cartoons
        • Celebrities
        • Children
        • Culture
        • Design
        • Economics
        • Education
        • Entertainment
        • Fashion
        • Fitness
        • Food
        • Gadgets
        • Games
        • Health
        • History
        • Hobby
        • Humor
        • Interior
        • Moto
        • Movies
        • Music
        • Nature
        • News
        • Photo
        • Pictures
        • Politics
        • Psychology
        • Science
        • Society
        • Sport
        • Technology
        • Travel
        • Video
        • Weapons
        • Web
        • Work

          Submit

          Thank you! Wait for moderation.

          Тебе это не нравится?

          You can block the domain, tag, user or channel, and we'll stop recommend it to you. You can always unblock them in your settings.

          • tandp
          • университет
          • исследования
          • домен theoryandpractice.ru

          Get a link

          Спасибо, твоя жалоба принята.

          Log on to Surfingbird

          Recover
          Sign up

          or

          Welcome to Surfingbird.com!

          You'll find thousands of interesting pages, photos, and videos inside.
          Join!

          • Personal
            recommendations

          • Stash
            interesting and useful stuff

          • Anywhere,
            anytime

          Do we already know you? Login or restore the password.

          Close

          Add to collection

             

            Facebook

            Ваш профиль на рассмотрении, обновите страницу через несколько секунд

            Facebook

            К сожалению, вы не попадаете под условия акции