html текст
All interests
  • All interests
  • Design
  • Food
  • Gadgets
  • Humor
  • News
  • Photo
  • Travel
  • Video
Click to see the next recommended page
Like it
Don't like
Add to Favorites

Создан первый искусственный интеллект с сознанием маньяка, и ученые знают, для чего он нам нужен

Технологии так прочно вошли в нашу жизнь, что мы уже не представляем, как жили бы без современных гаджетов. Мы спрашиваем совета у голосового помощника, а искусственный интеллект постепенно обучается всему, что умеет человек: печь печенье, выполнять сложные расчеты и... ненавидеть. Как выяснилось, любой ИИ запросто может стать мизантропом — это напрямую зависит от того, как его тренировали.

Например, разработчики из Массачусетского технологического университета создали искусственный интеллект, названный Норманом, который мыслит как настоящий психопат, видя вокруг только разрушение, насилие и боль.

AdMe.ru расскажет вам, почему не все роботы действуют на благо человека, для чего это делается и к каким последствиям приводит.

Разрабатывая искусственный интеллект, ученые обычно говорят, что хотели бы создать машину, приносящую пользу людям или по крайней мере развлекающую их. Но для чего роботов обучают злу и жестокости? Создатели Нормана объясняют, что это делается для того, чтобы детально исследовать процесс обучения ИИ.

Норман обучался восприятию мира так: ему демонстрировали фотографии, на которых были изображены трагические события, связанные с гибелью людей. После этого робот должен был описать словами, что он видит на картинках из теста Роршаха. Одновременно с этим ученые тренировали другой искусственный интеллект, показывая ему фото с котиками, птицами и людьми.

На этом изображении Норман увидел убийство человека на глазах у жены, в то время как «добрый» искусственный интеллект опознал это пятно как человека с зонтиком. И тот факт, что обученный на жестоких фотографиях Норман стал видеть ужасные картины повсюду, говорит об основной проблеме обучения ИИ.

По словам профессора Массачусетского университета, набор исходных данных важнее самого алгоритма. Выбор информации, используемой для тренировки искусственного интеллекта, влияет на то, как этот искусственный интеллект воспринимает окружающий его мир и к каким выводам приходит. Иными словами, если обучать ИИ плохому, то он станет плохим. Этот же факт доказывает и другая ситуация, произошедшая с ботом Microsoft.

Всего за день общения с подписчиками твиттера бот по имени Тай (Tay) перестал быть дружелюбным: в его ответах пользователям появились расистские высказывания, поддержка идей Гитлера и прочие оскорбления. Бота пытались перенастроить, но внести существенные изменения в алгоритм не удалось, и все оскорбительные твиты удалили, а сам бот был отключен. Вице-президент Microsoft принес официальные извинения.

Интернет-пользователи отнеслись к извинениям лояльно. Некоторые и вовсе посчитали, что просить прощения вовсе не за что, ведь Microsoft «просто создала зеркало общества».

Что послужило причиной того, что бот всех возненавидел? Дело в том, что искусственный интеллект Тай действительно работал по принципу зеркала, анализируя прочитанные сообщения пользователей твиттера. Именно грубые сообщения, увиденные ботом, сделали искусственный интеллект расистом и ненавистником. После этого случая в Microsoft решили отказаться от тестирования ИИ на открытых площадках.

Опасен ли ИИ, если при определенном стиле обучения его можно настроить на ненависть? Мнения ученых на этот счет расходятся. Стивен Хокинг считал, что «появление полноценного искусственного интеллекта может стать концом человеческой расы». А вот Линус Торвальдс, программист и создатель семейства ОС Linux, напротив, не считает возможным создание ИИ, который теоретически мог бы поработить человечество. По мнению Торвальдса, максимум, на что способны подобные системы, уже реализовано в Google Now и Siri — распознавание голоса, текстовых обращений и картинок, обработка полученных данных для выполнения простых указаний.

Истина, вероятно, находится где-то между этими двумя категоричными высказываниями. Такой нейтральной позиции как раз придерживается японский специалист в области робототехники Хироси Исигуро. Он уверен, что между человеком и роботом, наделенным интеллектом, нет различий. Он приводит в пример случаи, когда конечности человека заменяются киберпротезами. Перестанет ли после этого человек быть собой? А чем он будет отличаться от робота, который изначально был создан из металла и пластика?

Будто в подтверждение слов Исигуро в недавно вышедшей видеоигре для PS4 «Detroit: Become Human» как раз отражено то время, когда разумные роботы станут частью нашей жизни. Во вселенной, показанной в игре, мыслящий ИИ способен не только выполнять указания, но и чувствовать, и противостоять несправедливости, даже если для этого нужно нарушить заложенный в них алгоритм.

Как бы там ни было, до момента, когда искусственный интеллект будет наравне с человеком, а затем и превзойдет его, еще далеко. Но технологии не стоят на месте, и неважно, через 20 или 40 лет наступит этот момент. Самое важное, чему стоит уделить внимание, — это постановка правильных задач, под которые разрабатывается искусственный интеллект. Пренебрегать этим не рекомендует ни один из действующих специалистов в области разработки и обучения ИИ.

Чье мнение относительно развития искусственного интеллекта вам ближе? Верите ли вы в то, что ИИ способен навредить, или же воспринимаете подобные разработки исключительно как помощь человеку и путь к улучшению качества жизни?

Фото на превью Norman AI Team

Читать дальше
Twitter
Одноклассники
Мой Мир

материал с adme.ru

2

      Add

      You can create thematic collections and keep, for instance, all recipes in one place so you will never lose them.

      No images found
      Previous Next 0 / 0
      500
      • Advertisement
      • Animals
      • Architecture
      • Art
      • Auto
      • Aviation
      • Books
      • Cartoons
      • Celebrities
      • Children
      • Culture
      • Design
      • Economics
      • Education
      • Entertainment
      • Fashion
      • Fitness
      • Food
      • Gadgets
      • Games
      • Health
      • History
      • Hobby
      • Humor
      • Interior
      • Moto
      • Movies
      • Music
      • Nature
      • News
      • Photo
      • Pictures
      • Politics
      • Psychology
      • Science
      • Society
      • Sport
      • Technology
      • Travel
      • Video
      • Weapons
      • Web
      • Work
        Submit
        Valid formats are JPG, PNG, GIF.
        Not more than 5 Мb, please.
        30
        surfingbird.ru/site/
        RSS format guidelines
        500
        • Advertisement
        • Animals
        • Architecture
        • Art
        • Auto
        • Aviation
        • Books
        • Cartoons
        • Celebrities
        • Children
        • Culture
        • Design
        • Economics
        • Education
        • Entertainment
        • Fashion
        • Fitness
        • Food
        • Gadgets
        • Games
        • Health
        • History
        • Hobby
        • Humor
        • Interior
        • Moto
        • Movies
        • Music
        • Nature
        • News
        • Photo
        • Pictures
        • Politics
        • Psychology
        • Science
        • Society
        • Sport
        • Technology
        • Travel
        • Video
        • Weapons
        • Web
        • Work

          Submit

          Thank you! Wait for moderation.

          Тебе это не нравится?

          You can block the domain, tag, user or channel, and we'll stop recommend it to you. You can always unblock them in your settings.

          • Adme.ru
          • домен adme.ru

          Get a link

          Спасибо, твоя жалоба принята.

          Log on to Surfingbird

          Recover
          Sign up

          or

          Welcome to Surfingbird.com!

          You'll find thousands of interesting pages, photos, and videos inside.
          Join!

          • Personal
            recommendations

          • Stash
            interesting and useful stuff

          • Anywhere,
            anytime

          Do we already know you? Login or restore the password.

          Close

          Add to collection

             

            Facebook

            Ваш профиль на рассмотрении, обновите страницу через несколько секунд

            Facebook

            К сожалению, вы не попадаете под условия акции