html текст
All interests
  • All interests
  • Design
  • Food
  • Gadgets
  • Humor
  • News
  • Photo
  • Travel
  • Video
Click to see the next recommended page
Like it
Don't like
Add to Favorites

[Перевод] Затаившееся сознание машин

Сможем ли мы понять, что системы стали разумными? Что если этот момент уже наступил? Существуют большие сомнения, что искусственный интеллект сообщит нам о своём появлении, поэтому мы сами должны придумать, как установить с ним контакт. Aeon рассматривает доступный для этого набор инструментов.
Обычно когда люди думают о машине, обладающей самосознанием, они представляют себе устройство, появившееся в результате целенаправленных усилий, которое даст о себе знать внезапно, громко и, по большинству прогнозов, разрушительно. Даже если у создателей искусственного интеллекта хватит ума не подсоединять его к системе запуска атомных боеголовок, то способности ИИ всё равно быстро окажутся за пределами нашего понимания и контроля. Если повезёт, то машина просто порвёт с нами, как в художественном фильме «Она», а если нет, то она решит запереть шлюзовой отсек и не впустить нас обратно на борт космического корабля. Как бы ни было, ключевой момент здесь заключается в том, что когда машина пробудится, мы будем первыми, кто об этом узнает.

Но кто может утверждать, что машины не обладают разумом? Что если этот разум принимает неожиданные формы, например, сети, обладающей сознанием на уровне группы? Что если искусственный интеллект столь необычен, что нам тяжело его распознать? Могли ли машины обрести самосознание, не поставив нас об этом в известность? Но ответить на эти вопросы очень сложно, так как мы точно не знаем, что такое сознание, не говоря уже о том, смогли бы ли мы его распознать, будь оно у нас прямо перед носом. В своей книге нейроучёный Кристоф Кох выдвинул предположение, что Интернет возможно уже обрёл сознание, после чего поставил важный вопрос: «По каким признакам мы должны признать его самосознание?»

Несмотря на десятилетия целенаправленных усилий, учёным не удавалось создать систему искусственного интеллекта, а значит, это задача непростая. По этой причине даже те, кто больше всех обеспокоен проблемой ИИ, например, профессор Оксфордского университета Ник Бостром, сомневаются, что ИИ застигнет нас врасплох. Тем не менее существуют основания полагать, что разумные машины могут появится в результате усилий, нацеленных на что–то другое. Инженеры повседневно создают технологии, у которых новые и непредсказуемые модели поведения. В настоящее время существуют системы глубокого обучения, нейронные сети и генетические алгоритмы, которые самообучаются и могут выполнять сложные задачи вместо того, чтобы следовать заданному набору инструкций. Решения, которые они придумывают, столь же непостижимы, сколь и любая биологическая форма жизни. Даже передвижения робота–пылесоса по комнате происходит произвольным и зачастую непредсказуемым образом в результате взаимодействия простых рефлексов. «Теоретически такие системы могли бы разработать, — для решения одной из задач, — что–то, о чём мы не знали бы, и что собиралось обрести сознание», — говорит философ Сассекского университета Рон Чирсли.

Система может не суметь или не захотеть участвовать в классических проверках сознания наподобие Теста Тьюринга


Даже системы, которые не были на это запрограммированы, делают что–то, чего в них не закладывали разработчики. Компьютерные операционные системы и программы для торговли на бирже Уолл–стрит контролируют свою собственную деятельность, что в какой–то степени позволяет назвать их самосознательными. Основной результат работы в области информатики заключается в том, что автореферентные системы по собственной природе непредсказуемы: небольшое изменение может привести к совершенно иному исходу, так как система сама возвращается к началу цикла. Мы уже это наблюдаем. «Нестабильность компьютерных программ в целом и операционных систем в частности вытекает из гёделевских аргументов», — говорит физик Массачусетского технологического университета (МТИ) Сет Ллойд.

Любой разум, возникающий в результате подобных процессов, может существенно отличаться от нашего собственного. Хотя во всех историях в духе « Терминатора» предполагается, что машина будет видеть в нас угрозу, настоящий ИИ может быть настолько другим, что не будет видеть нас вообще. То, что мы воспринимаем как устройства ввода и вывода, может отображаться совсем по–другому на сенсорной модальности сети. Её внутреннее самовосприятие может абсолютно отличаться от того, как способны его представить себе люди. Знаменитый вопрос «Каково это быть летучей мышью?», который когда–то задал Философ Томас Найджел, в сравнение с этим кажется скучным. Система может не суметь или не захотеть участвовать в классических проверках сознания наподобие Теста Тьюринга. Она может работать в настолько других временных масштабах или быть столь замкнутой, что, как предположил космолог из МТИ Макс Тегмарк, в действительности будет существовать в параллельной вселенной с иными законами.

Первые пришельцы, с которыми столкнутся люди, будут не с какой–то другой планеты — они будут нашим собственным творением. Мы не можем быть уверены в том, что они первыми выйдут на контакт с нами. Если мы хотим их обнаружить и понять, то нам нужно самим установить с ними контакт. Создания разумной машины для этого будет недостаточно. Нам понадобится универсальный детектор сознания. Возможно, учёным никогда не удастся соорудить такой инструмент, учитывая то, насколько мало нам известно о сознании сегодня. Но как раз незнание и есть наиболее важная причина, чтобы попробовать решить эту проблему. Даже неидеальные тестирования могут помочь учёным сосредоточиться на причинах и значении сознания — не только у машин, но и у людей.

Речь даже не о преодолении какого–то конкретного порога сложности: решение этой проблемы, возможно, осуществимо только в произведениях научной фантастики. Человеческое сознание обладает рядом способностей. Для того чтобы их определить, мы отталкиваемся от одной доподлинно известной нам вещи: я мыслю, значит я существую. Когда мы наделяем сознанием других людей, то делаем это потому, что они похожи на нас внешне, своим поведением и умением говорить. По средствам музыки, живописи и ярких рассказов они могут делиться с нами своим опытом. Испытания, которые попадают в эти три категории — анатомия, поведение и коммуникация, — используются врачами при обследовании коматозных пациентов, биологами — для оценки разумности животных, и программистами — для разработки искусственного интеллекта.
Наиболее систематично эти три условия объединяет тест Конскейл, процедура оценки, разработанная в 2008 году испанским исследователем ИИ Раулем Аррабелем Морено совместно с его коллегами. Вы заполняете поля в списке, начиная с анатомических особенностей, при условии, что сознание, подобное человеческому, возникает только в системах с необходимыми компонентами. У системы есть тело? Память? Контроль внимания? После чего вы смотрите на поведение и коммуникабельность. Способна ли она узнать себя в зеркале? Способна ли она сочувствовать? Врать?

Конскейл опирается на весьма распространенную и спорную гипотезу, что сознание представляет собой непрерывный процесс


Уровень 11: Сверхсознание. Совмещает несколько потоков сознания.
Саманта (Она)

Уровень 7: Самосознающий. Осознает, что мыслит и узнает себя в зеркале. Ребёнок 12–24 мес. Сорока. Рой Батти (Бегущий по лезвию)

Уровень 8: Эмпатический. Понимает самость других и корректирует своё поведение. Шимпанзе. Ребёнок 2–7 лет. HAL–900 ( Космическая одиссея 2001 года)

Уровень 9: Социальный. Обладает пониманием чужого сознания. Способен разговаривать и врать. Ребёнок 7–11 лет. Ава (Из Машины)
Исходя из ответов, Аррабель может определить, какое место занимает система на шкале из 12 делений от «мёртв» до «сверхчеловек». Шкала предназначена для сопоставления онтогенеза биологических видов, от вирусов и червей до шимпанзе и людей, от новорожденных младенцев до взрослых. Она также сравнивает сознание человека в состоянии комы и трансцендентное сознания просветлённого монаха. На самом низком уровне сознательный опыт является грубым ощущением противопоставления чего–то чему–то, как описал это философ Дэвид Чалмерс: «Нам нужно представить что–то как неотчётливую вспышку сознания без каких–либо понятий, мыслей или комплексной обработки». На самом высоком уровне находится богатство духовного опыта, непостижимое человеческому потенциалу. Достигнуть которое под силу разве что сиамским близнецам с общим мозгом, которые обладают доступом к потокам сознания друг друга.

Вы можете воспользоваться авторским онлайн–калькулятором, чтобы определить, какое место на этой шкале займёт ваша золотая рыбка или кот. ЭЛИЗА, новаторская программа–психотерапевт, созданная в МТИ в 1960–х, расположилась на втором уровне (реагирующая). Робот XCR–1 с электронной схематикой наподобие нейронов, который может пожаловаться, если почувствует боль, созданный робототехником Пентти Хайконеном, получил оценку 6 (эмоциональный). Отдельная версия калькулятора Конскейл оценивает персонажей компьютерных игр в шутерах от первого лица и является, скорее всего, самым сложным ИИ, с которым сталкиваются большинство людей. Будем надеяться, что он останется виртуальным.

Конскейл опирается на весьма распространенную и спорную гипотезу, что сознание представляет собой непрерывный процесс. Многие философы, такие как Джон Мирл из Калифорнийского университета в Беркли, поддерживают эту идею, потому что она подразумевает панпсихизм, убеждение, согласно которому всё, что нас окружает, в какой–то степени обладает сознанием. Приверженцы панпсихизма обвиняют скептиков в упрощении понятия сознания и возврату к донаучному видению мира. Но для тех, кто задаётся вопросом, не создали ли мы, сами того не подозревая, сознательную машину, Конскейл обладает существенным недостатком: согласно его оценкам, ответ утвердительный. Главная проблема тестов на выявление сознания — их замкнутость. Любой тест, который нас удивляет, вызывает у нас интерес, но можем ли мы ему доверять в таком случае?

Представьте, что этот тест покажет, что ваш термостат обладает сознанием. Ели вы склонны считать, что у термостата есть сознание, то ваши утверждения подтвердились. Если сознательный термостат кажется вам нелепыми, то вы не согласитесь с вердиктом. В таком случае какой вообще смысл в проведении этих тестов?

Что нам действительно необходимо, так это детектор сознания, который исходит из основных принципов и не заключает в себе окончательных результатов. Сегодня интерес у многих вызывает Комплексная Теория информации (КТИ), которую разработал нейроучёный Джулио Тонони в Университете Висконсина. Как и во многих других подходах отправной точкой КТИ является убеждение о том, что сознание едино и неразделимо. Сознание — это цельный опыт, который объединяет воспоминания и ощущения в последовательное линейное повествование о мире.

КТИ не предлагает идей о том, как должна выглядеть система сознания. Это может быть головной мозг, схема или чёрное межпланетное облако. Оно просто должно состоять из каких–то единиц, эквивалентных нейронам релейных устройств, объединённых в одну сложную сеть. Генератор главных импульсов регулируют работу сети. На каждом такте устройство по отдельности включается, либо выключается в зависимости от статуса остальных устройств. То, что КТИ допускает разные виды строения — определённо одно из главных её достоинств. «Мне нравится, что на начальном этапе нет предубеждений, что сознание — это биологическое состояние», — говорит Чирсли.

Но главное преимущество КТИ — это её количественность. Она предлагает алгоритм для расчёта степени взаимосвязанности сети, величина Ф, которая определяется как количество информации, не локализированной в отдельных частях, а рассредоточенной по всей системе. Теория связывает этот показатель с уровнем сознания. Тонони предоставляет онлайн–сервис для измерения величины Ф. Вы намечаете на графике потенциально сознательную систему наподобие электроcхемы. В принципе, мы можете начертить любую диаграмму — от алгоритма управления роботизированного пылесоса до полного коннектома (карты нейронных связей) человеческого мозга. Программа сгенерирует таблицу всех возможных переходов между состояниями, которое даёт представление о потоке сознания этой системы: какие состояния сменяются и как.

Активность в сети может происходить с разными темпами, но только одна из них будет происходить со скоростью мысли



Исходя из этого, сеть проходит всевозможные пути и развилки и измеряет, насколько крепко связаны между собой секции, стимулируя одну сторону и проверяя отклик другой. Какая–то из всех этих комбинации будет обладать наименее слабой реакцией на стимул. Так и измеряется степень взаимосвязанности системы, и это число — Ф. Величина Ф низка в раздробленной сети (в той, где лишь ограниченные связи) или в полностью интегрированной сети, которая ведёт себя как единый блок (в которой связь столь крепкая, что отсутствует гибкость). Величина Ф высока в иерархичных сетях, которые состоят из взаимодействующих между собой независимых кластеров — человеческий мозг является ярким примером такой структуры.
Любая сеть, в которой величина Ф не равна нулю, имеет потенциал обладания сознанием. Но нет чёткой границы между бессознательностью и осознанностью. Что согласуется с диапазоном человеческих состояний. Но в КТИ есть правило «одного разума». Любой нейрон может существовать в одно время только лишь в одном сознательном существе, таким образом, система с иерархией может быть сознательной только на одном уровне. Все остальные уровни — эпифеноменальны. Например, кора головного мозга человека обладает сознанием, но не отдельные области, из которых та состоит. Для того, чтобы выяснить какой уровень заслуживает, чтобы его признали сознательным, программа проходит через все возможные подмножества сети и измеряет, в какой из них величина Ф достигает наибольшего значения.

Алгоритм Тонони также описывает изменения состояний во времени: активность в сети может происходить с разными темпами, но только одна из них будет происходить со скоростью мысли, что тоже соответствует человеческой природе. Ваш разум непосредственно воспринимает происходящие изменения спустя секунду или около того, но совершенно не обращает внимания на нейронные импульсы, которые длятся миллисекунды. Обычный компьютер, с другой стороны, на аппаратном уровне работает в разы быстрее, говорит Тонони. Его мысли это последовательность простых команд «пусть а=ю», «если/то», а не высокий уровень абстрактности, характеризующий человеческое познание. Но у него таких мыслей за секунду больше, чем у человека за всю жизнь. Он сможет обыграть вас вчистую в шахматы, но Тонони лёгко определит, то что машина не осознаёт, что она играет.

Когда КТИ пытается соорудить детектор сознания, она сталкивается с несколькими практическими препятствиями. С одной стороны, критики обеспокоены ложностью результатов. Профессор МТИ в качестве примера приводит распространённые коды обнаружения и коррекции ошибок, которые восстанавливают данные, поврежденные аппаратными сбоями. Такие коды служат замещением, так что если часть информации утрачена, оставшиеся биты могут её заменить. Для того, чтобы добиться максимальной замены, все части данных должны быть взаимозависимы, иначе говоря, обладать высоким показателем Ф. Но мало кто когда–либо называл эти коды сознательными.
Также вычисление показателя Ф обременительно. Программа должна рассмотреть все возможные способы раздробить систему. Вы могли бы потратить всю жизнь, пытаясь измерить сознание вашей золотой рыбки. Поэтому в большинстве обсуждений КТИ учёные не учитывают жёстких значений Ф, а скорее, обращаются к общему толкованию взаимосвязанности. На данный момент это действительно качественная теория, маскирующаяся под количественную, что может резко измениться, как только скорость вычисления Ф увеличится, над чем сейчас и работает Тегмарк.

К счастью, качественной теории достаточно, чтобы начать работу над созданием детектора сознания. Тонони со своими коллегами уже соорудил такое устройство для людей. Оно состоит из магнитной катушки, стимулирующей области мозга (с использованием методики, которая носит название транскраниальной магнитной стимуляции), а вокруг головы размещаются электроэнцефалографические электроды для измерения мозговых волн. Магнитный импульс действует как удар колокола. Мозг бодрствующего человека реверберирует, что указывает на высокую взаимосвязанность нейронной сети. У людей, находящихся в состоянии сна или наркоза, ответ локализован и приглушен. Таким образом, этот метод может выявить синдром «запертого человека» — отсутствие реакции на внешние стимулы при полной сохранности сознательности и чувствительности. На данный момент, Тонони говорит, что его команда провела эксперимент с 200 пациентами, и результаты обнадёживающие.

Подобное хитроумное изобретение необходимо нам для проверки потенциально разумных машин. Другая, в целом аналогичная, идея заключается в прослушивании внутренней речи, тихого голоса в голове робота. Например, робот Хайконена XCR–1 ведёт внутренний монолог, подражая голосу самосознания, который мы слышим внутри себя. У XCR–1 есть внутренний голос, потому что все его модальности раздражителей взаимосвязаны. Если подсистема визуального анализа данных видит мяч, то звуковой датчик слышит слово «мяч», даже если его никто не произносил — такая своеобразная синестезия. Когда Хайконен подключает звуковой датчик к речевому модулю, робот начинает бормотать как болтливый старик.

Идея информационной интеграции позволяет исследователям строже относится к тому, как они проводят стандартный тесты сознания наподобие тех, на которых основан Конскейл. Все эти тесты сталкиваются с тем, что принято называть проблемой зомби. Как вы можете наверняка знать, что ваш дядя, не говоря уже о вашем компьютере, в философском смысле не является зомби, который повторяет все движения нормального человека, но не обладает внутренним миром? Помните классический фильм ужасов «Похитители тел»? Зомби может выглядеть, разговаривать и вести себя в точности как ваш дядя, но при этом не иметь никакого внутреннего опыта вашего дяди. Никто из нас не может проникнуть в разум другого человека, поэтому мы не можем с точностью знать, все ли у них дома.

Зомби находятся в невыгодном положении в сложной социальной и физической среде: естественный отбор отдаст предпочтение мыслящим существам



КТИ переводит концептуальную проблему зомби в конкретный вопрос измерения: способна ли неразумная машина (с низким показателем Ф) выдать себя за сознательную (имеющую высокий показатель Ф). Первоначальный ответ неутешителен. Устройство с высоким показателем Ф обладает циклами обратной связи, которые обратно соединяют устройство ввода–вывода, позволяя системе осознавать, что та делает. И хотя система с низким показателем Ф сталкивается с нехваткой обратной связи, она по–прежнему может делать всё то же самое, что и машина с системой обратной связи, поэтому невозможно определить различия между ними, основываясь исключительно на внешнем поведении.

Тем не менее вы часто можете сделать вывод о том, что происходит внутри исходя из того, под какими ограничениями работает система. Например, вид внутренней обратной связи, который связывают с более высоки уровнем познания, эффективнее продуцирует сложное поведение. Она отслеживает и настраивает свои ответные действия. Если вы надавите на педаль газа и почувствуете, что машина ускорилась сильнее, чем вы хотели, то вы ослабите педаль. Если бы вы не могли вносить такие корректировки, то вам было бы необходимо выполняет действие правильно с первой попытки. Устройство без системы обратной связи должно выстраивать огромную схему принятия решений с учётом заранее прописанных в ней всевозможных условий. «Для того чтобы быть функционально эквивалентным устройству с системой обратной связи, вам понадобится намного больше подразделений и связей между ними», — говорит Тонони. Учитывая ограниченность ресурсов, зомби–устройство будет в разы менее функциональным, чем такое же устройство, обладающее системой обратной связи.

«Зомби не способны повторять наши модели поведения, — говорит Арабалес. — Они как киношные зомби. Они глупые, потому что у них нет сознания». Это ставит зомби в невыгодное положении в сложной социальной и физической среде: естественный отбор отдаст предпочтение мыслящим существам. То же самое должно быть верно для любого ИИ, который возникает за счёт адаптивных методов, имитирующих эволюцию. Так мы к чему–то приблизимся. Если появится машина, способная делать то же самое, что и мы, при телесных ограничениях, которые есть у нас, наиболее простым объяснением будет то, что она сознательна во всех смыслах так же, как и мы.

Тест, который применяется к сознанию среди отдельных материальных предметов — не совсем то, что нам нужно. Что насчёт группового сознания? Может ли Интернет обладать сознанием? А как насчёт биологических групп, таких как нации или биосфера в целом? Группы обладают многими существенными качествами сознательных систем. Они способны действовать с заданной целью и быть «в курсе» информации. В прошлом году философ Эрик Швицгебель из Калифорнийского университета в Риверсайде предположил, что группы обладают полномасштабным феноменальным сознанием, ссылаясь на КТИ в поддержку этой точки зрения. В конце концов, многие организации имеют интегрированную иерархическую структуру подобно мозгу, и таким образом, их показатель Ф должен быть огромным.

Тонони впрочем с этим не согласился, отметив своё правило «одного разума», которое исключает эту возможность. Если отдельные существа сознательны, то группа их нет. Всё, что делает группа, отражает волю отдельных её участников, поэтому на коллективном уровне никакого чувства «Я» быть не может. А как же предположение о том, что причино–следственные связи могут возникать более чем на одном уровне описания? Швицгебель предлагает убедительный мысленный эксперимент. Представьте, что каждый нейрон в вашем мозге заменили на сознательное устройство, обладающее собственным внутренним субъективным мировосприятием, но которое внешне ведёт себя так же, как и нейрон. Смогут ли эти создания узурпировать ваше сознание, оставив вместо вас пустую оболочку человека? Как бы они смогли это сделать, если ничего в активности вашего мозга не изменилось? Кажется, проще будет предположить, что эти существа также сознательны, как и вы, что в таком случае указывало, что сознание может существовать на разных уровнях. Как определить и измерить сознание на уровне группы, не говоря уже об общении с этими существами — остаётся действительно открытой проблемой.

Так или иначе, решение таких проблем имеет огромное значение. Создание детектора сознания — не просто увлекательная идея. Она морально необходима не столько из соображений того, что эти системы могут сделать нам, а из тех, что могли бы сделать им мы. Глупые роботы уже опасны, поэтому сознательным роботам необязательно представлять дополнительную угрозу. Наоборот, они вероятно заставят нас краснеть от стыда, демонстрируя высшую форму нравственности. Из–за неспособности распознать, что мы принесли в этот мир, мы можем оказаться виновны в том, что Бостром называет «преступлением разума» — создание разумных существ для виртуального рабства. Швицгебель даже утверждает, что мы в большей ответственности перед машинами, чем перед собратьями людьми подобно родителям, которые несут особую ответственность за своего ребёнка.

Мы уже сталкиваемся с системами, которые ведут себя так, словно обладают сознанием. Наше ответная реакция на них зависит от того, верим ли мы в их разумность, поэтому такие инструменты, как Комплексная теория информации станут нашими нравственным ориентирами. Тонони говорит: «Большинство людей сегодня всё ещё скажут: "Да нет же, это всего лишь машины". И тем самым лишь покажут свое неправильное понимание машин. Они всё ещё имеют дело с недоработанными вещами, которые стоят у них рабочем столе или делают неуклюжие вещи. Они ещё не готовы к машинам, которые смогут их обмануть. Я думаю, как только такое произойдёт, и машина продемонстрирует эмоции, которые вызовут у нас слёзы, процитировав стихотворение или сделав другие подобные вещи, произойдёт гигантский сдвиг. Все будут говорить: "Господи, кто дал нам право вообще выключать эту штуковину!"»

Оригинал
Комментарии:
Что–то не могу понять, как пользоваться онлайн–калькулятором, там есть примеры игрового AI? Интересно посмотреть, кто занял первое место.
Che–Bacca: В качестве примера приводят Unreal Tournament 2004, боты там на уровне земляного червя, даже чуть не дотягивают.
Читать дальше
Twitter
Одноклассники
Мой Мир

материал с dirty.ru

15

      Add

      You can create thematic collections and keep, for instance, all recipes in one place so you will never lose them.

      No images found
      Previous Next 0 / 0
      500
      • Advertisement
      • Animals
      • Architecture
      • Art
      • Auto
      • Aviation
      • Books
      • Cartoons
      • Celebrities
      • Children
      • Culture
      • Design
      • Economics
      • Education
      • Entertainment
      • Fashion
      • Fitness
      • Food
      • Gadgets
      • Games
      • Health
      • History
      • Hobby
      • Humor
      • Interior
      • Moto
      • Movies
      • Music
      • Nature
      • News
      • Photo
      • Pictures
      • Politics
      • Psychology
      • Science
      • Society
      • Sport
      • Technology
      • Travel
      • Video
      • Weapons
      • Web
      • Work
        Submit
        Valid formats are JPG, PNG, GIF.
        Not more than 5 Мb, please.
        30
        surfingbird.ru/site/
        RSS format guidelines
        500
        • Advertisement
        • Animals
        • Architecture
        • Art
        • Auto
        • Aviation
        • Books
        • Cartoons
        • Celebrities
        • Children
        • Culture
        • Design
        • Economics
        • Education
        • Entertainment
        • Fashion
        • Fitness
        • Food
        • Gadgets
        • Games
        • Health
        • History
        • Hobby
        • Humor
        • Interior
        • Moto
        • Movies
        • Music
        • Nature
        • News
        • Photo
        • Pictures
        • Politics
        • Psychology
        • Science
        • Society
        • Sport
        • Technology
        • Travel
        • Video
        • Weapons
        • Web
        • Work

          Submit

          Thank you! Wait for moderation.

          Тебе это не нравится?

          You can block the domain, tag, user or channel, and we'll stop recommend it to you. You can always unblock them in your settings.

          • d3.ru
          • законы
          • домен interpreted.dirty.ru
          • домен dirty.ru

          Get a link

          Спасибо, твоя жалоба принята.

          Log on to Surfingbird

          Recover
          Sign up

          or

          Welcome to Surfingbird.com!

          You'll find thousands of interesting pages, photos, and videos inside.
          Join!

          • Personal
            recommendations

          • Stash
            interesting and useful stuff

          • Anywhere,
            anytime

          Do we already know you? Login or restore the password.

          Close

          Add to collection

             

            Facebook

            Ваш профиль на рассмотрении, обновите страницу через несколько секунд

            Facebook

            К сожалению, вы не попадаете под условия акции