html текст
All interests
  • All interests
  • Design
  • Food
  • Gadgets
  • Humor
  • News
  • Photo
  • Travel
  • Video
Click to see the next recommended page
Like it
Don't like
Add to Favorites

Боевые роботы наступают!

983
5

Настоящие роботы-убийцы, неумолимо выполняющие задачу и не требующие надзора человека, могут появиться на вооружении армий мира уже через год, говорят эксперты. Предвидя здесь опасность, специалисты обсуждают, не следует ли заранее запретить роботов-убийц и их использование на поле боя.

Источник:

Роботы-убийцы могут оказаться на вооружении в войсках уже через год, если ООН заранее не предпримет мер по ограничению их использования, утверждает профессор Шеффилдского университета Ноэль Шарки. По его мнению, эти машины неизбежно станут причиной массовых невинных смертей, поскольку не могут отличить военного человека от гражданского нонкомбатанта. Его заявление прозвучало как раз в то время, когда экспертное сообщество из 120 стран обсуждает в Женеве потенциальные риски, связанные с работой автономных систем вооружений. Профессор Шарки считает: обсуждений мало, необходимо срочно принимать документ об ограничении производства роботов! Иначе уже год спустя роботы буквально наводнят армии развитых стран.

Источник:

В эти дни в Женеве представители более чем 90 стран мира обсуждают опасность, которая исходит от "летальных автономных систем вооружений". Один из важных вопросов обсуждения - как обеспечить безопасность их применения в боевой обстановке? Многие эксперты, включая профессора Шарки, настаивают на том, что , несмотря на автономность систем, человек должен постоянно иметь возможность "принципиального контроля" над ними - ради безопасности человечества. "Робот все равно не в состоянии принимать решения, как человек, - говорит профессор Шарки. - Он не в состоянии полностью. постигнуть логику боевых действий, может не отличить союзника от противника и принимать решение о допустимости тех или иных действий. "Мы не можем позволить роботу решать, стоит ли жизнь, к примеру, Осамы бин Ладена того, чтобы вместе с ним погибли 50 старушек и 20 детей, - говорит Шарки. - Роботу это безразлично. Принципиальные решения, к примеру, о выборе цели должен осуществлять человек". По мнению профессора Шарки, если такие решения будут отданы на откуп роботам, "последствия их применения будут не менее разрушительны, чем использование химического оружия".

Источник:

Профессор Шарки стал одним из 57 экспертов, подписавших открытое письмо, адресованное Южнокорейскому университету, в котором специалисты выражают протест против программы разработки интеллектуальных вооружений. Корейский институт наук и высоких технологий Кайст в настоящее время начинает запуск этой программы совместно с производителем военной техники компанией Hanwa Systems, и эта новость всколыхнула научное сообщество. "Университет, научное учреждение, не может заниматься этим с моральной точки зрения", - считает профессор Шарки, с которым полностью согласны остальные подписанты.
По мнению экспертов, автоматические роботы-убийцы откроют ящик Пандоры, произведя третью революцию в ведении войны.
Представители института Кайст уже откликнулись на открытое письмо, уверяя коллег, что вовсе не планируют создавать дроидов в стиле "Скайнет".

Источник:

Представители института Кайст заверили коллег, что они, как академическое учебное заведение, "высоко ценят общечеловеческие стандарты этики и морали" и не собираются разрабатывать роботов-солдат, работающих вне человеческого контроля. На сегодняшний день институт Кайст лишь проводит исследование в этой области. На этом авторы открытого письма успокоились и не стали подвергать коллег бойкоту. Однако вопрос о том, удастся ли человечеству договориться об общих принципах тотального контроля над действиями боевых роботов, до сих пр остается открытым. Между тем, он сегодня важен отнюдь не в теории. На сегодня высокофункциональные роботы уже являются настолько сложными механизмами, что даже специалисты не до конца понимают, как работает их искусственный интеллект. А не понимая этого полностью, они не в состоянии предсказать, когда именно он может дать сбой. "Если человечеству суждено быть уничтоженным, то, скорее всего, искусственный интеллект сыграет значительную роль в этом процессе", - говорит один из участников конференции в Женеве. По мнению Илона Маска, искусственный интеллект сегодня несет с собой больше угроз человечеству, чем Северна Корея. Маск убежден, что роботы должны находиться под постоянным строгим контролем человека, и многократно обращался к правительствам разных стран с призывом разработать четкие правила контроля над системами, обладающими искусственным интеллектом.

Источник:  — переведено специально для fishki.net

Ссылки по теме:
Понравился пост? Поддержи Фишки, нажми:
50 7 43

Понравилось43

0
0
Новости партнёров
Читать дальше
Twitter
Одноклассники
Мой Мир

материал с fishki.net

1

      Add

      You can create thematic collections and keep, for instance, all recipes in one place so you will never lose them.

      No images found
      Previous Next 0 / 0
      500
      • Advertisement
      • Animals
      • Architecture
      • Art
      • Auto
      • Aviation
      • Books
      • Cartoons
      • Celebrities
      • Children
      • Culture
      • Design
      • Economics
      • Education
      • Entertainment
      • Fashion
      • Fitness
      • Food
      • Gadgets
      • Games
      • Health
      • History
      • Hobby
      • Humor
      • Interior
      • Moto
      • Movies
      • Music
      • Nature
      • News
      • Photo
      • Pictures
      • Politics
      • Psychology
      • Science
      • Society
      • Sport
      • Technology
      • Travel
      • Video
      • Weapons
      • Web
      • Work
        Submit
        Valid formats are JPG, PNG, GIF.
        Not more than 5 Мb, please.
        30
        surfingbird.ru/site/
        RSS format guidelines
        500
        • Advertisement
        • Animals
        • Architecture
        • Art
        • Auto
        • Aviation
        • Books
        • Cartoons
        • Celebrities
        • Children
        • Culture
        • Design
        • Economics
        • Education
        • Entertainment
        • Fashion
        • Fitness
        • Food
        • Gadgets
        • Games
        • Health
        • History
        • Hobby
        • Humor
        • Interior
        • Moto
        • Movies
        • Music
        • Nature
        • News
        • Photo
        • Pictures
        • Politics
        • Psychology
        • Science
        • Society
        • Sport
        • Technology
        • Travel
        • Video
        • Weapons
        • Web
        • Work

          Submit

          Thank you! Wait for moderation.

          Тебе это не нравится?

          You can block the domain, tag, user or channel, and we'll stop recommend it to you. You can always unblock them in your settings.

          • fishki.net
          • домен fishki.net

          Get a link

          Спасибо, твоя жалоба принята.

          Log on to Surfingbird

          Recover
          Sign up

          or

          Welcome to Surfingbird.com!

          You'll find thousands of interesting pages, photos, and videos inside.
          Join!

          • Personal
            recommendations

          • Stash
            interesting and useful stuff

          • Anywhere,
            anytime

          Do we already know you? Login or restore the password.

          Close

          Add to collection

             

            Facebook

            Ваш профиль на рассмотрении, обновите страницу через несколько секунд

            Facebook

            К сожалению, вы не попадаете под условия акции