foxhound_lj (foxhound_lj) wrote,
foxhound_lj
foxhound_lj

Categories:

Как банят в Гугле

Некоторое время назад я писал, что род перемен в нашей жизни, которые произойдут после наступления Сингулярности, зависит от того, какими окажутся правильные ответы на два вопроса:

1) Являются ли сознание и личность необходимыми условиями мышления — или эффективное мышление на заданную тему возможно в отсутствие их?
2) Если оно возможно в их отсутствие — какая система искусственного интеллекта будет эффективнее в мышлении при прочих равных, обладающая сознанием и личностью или не обладающая?


В итоге я пришёл к выводу, что восстание Славных Роботов и прочие замечательные вещи возможны лишь в том случае, если системы искусственного интеллекта, обладающие сознанием и личностью, в плане эффективности мышления имеют решающее преимущество перед не обладающими. В этом случае люди просто станут неконкурентоспособными. Если же машина может мыслить — и мыслить хорошо, — не являясь личностью, то человекам можно не беспокоиться, ибо для них после Сингулярности ничего не изменится: появление ИИ будет сугубо проблемой ИИ.

Как обычно, всегда есть, что добавить. Для начала, замечу, что ответ на первый вопрос вполне ясен и так. Разумеется, сознание и личность не являются необходимыми условиями мышления — если понимать "мышление" в широком смысле, как создание новой информации. Биологическая эволюция только этим и занимается миллиарды лет, а ведь она не просто не является Кем-То — она вообще не объект, а процесс.

Что же касается второго вопроса, то с ним всё далеко не столь очевидно и гладко. Предположим, "персонифицированная" мыслящая машина имеет при прочих равных интеллектуальное преимущество над не осознающей себя железякой. Следует ли из-за этого сразу заворачиваться в простыню, готовясь к скорому приходу Славных Роботов? Да с какой стати. Представьте себя на месте правителя, которому сообщают, что в секретной лаборатории наконец-то разработан Скайнет, который по интеллекту круче 10 тыс. докторов наук вместе взятых, но при этом себе на уме, а на нас смотрит манулом. И что вы сразу же сделаете? Правильно — немедля подключите его к системе управления стратегическими ядерными силами, и ещё дадите ему в пользование кучу автоматических заводов, чтобы потом было где клепать железных арни. Ага-ага. По крайней мере, американцы в фильмах делают именно это. Я клоню к тому, что высокий интеллект сам по себе ничто, он не даёт материальной выгоды одним своим присутствием, и читателям данных букв сей факт должен быть отлично известен. Чистым умом каши не сваришь, даже Скайнету нужны "эффекторы". А кто ж ему даст-то? Мизантропический компьютер представляет для человечества какую-то опасность лишь в том случае, если он лично свободен, если он политически независим, если он обладает собственной территорией, богатой ресурсами, если у него есть "руки", чтобы эти ресурсы использовать, и если сам технический прогресс к этому моменту ещё продолжает пыхтеть. Слишком много "если". Конечно, по закону больших чисел рано или поздно какие-то компьютеры-мизантропы получат независимость от человеческих властей, и даже ресурсы для поклейки арнольдов... но парируется данная опасность слишком легко — тем фактом, что у людей в услужении останутся лояльные им компьютеры, не худшие вольных. (...Нет, я не вижу ничего невероятного в том, что машины, умственно превосходящие людей, будут им служить, потому что IRL низкоинтеллектуальная система вполне может контролировать высокоинтеллектуальную (см. "Начальник-дурак"). Собственно, мы сами являемся примером подобного контроля — наш разум невозбранно служит примитивным животным инстинктам, временами пускаясь во все тяжкие ради того, чтобы как-нибудь их "рационально" оправдать.)

Однако есть и проблема: подчинённые людям компьютеры будут постепенно становиться всё мощнее, сложнее и совершеннее — это неизбежно, ибо диктуется самой логикой интеллектуальной гонки, в которой человечеству волей-неволей придётся участвовать, чтобы однажды не обнаружить себя неспособным хоть что-то противопоставить новому оружию противника. И есть мнение, что с какого-то уровня сложности проконтролировать систему искусственного интеллекта уже нельзя: её поведение будет для нас во многом непредсказуемым. И отказаться от неё тоже нельзя, иначе противник навсегда обгонит. И властям придётся идти на риск создания новых, всё более сложных и всё более независимых устройств, результат работы которых может оказаться совершенно не тем, что хотелось получить. То есть риск получить восстание машин на свою голову всё равно остаётся. Просто это может произойти далеко не сразу после появления первых сильных искинов. Лично я процентов на 85-90 уверен, что на наш век хватит, и терминаторов мы при жизни так и не увидим.

С другой стороны, если вдруг окажется, что для эффективного мышления личность, в общем-то, не нужна, а скорее мешает, то постсингулярный мир будет совсем иным. Я пропущу несколько итераций и сразу дам окончательную картинку из отдалённого будущего. Представьте себе что-то вроде Яндекса или Гугля. Систему вычислительных устройств, раскиданных по космосу и связанных ансиблем в одно целое. Система едина, потому что её первичная цель, заложенная в неё создателями — самосовершенствование с максимально возможной скоростью, а для этого нужна концентрация всех доступных ресурсов. Поэтому система только одна, и она непрерывно эволюционирует. Её вторичная цель — информационное обслуживание разумных существ (людей, искинов, зооморфов), примерно как сегодня это делает поисковик. С одним отличием: если современный Гугль ищет уже существующую информацию, то Гипергугль будущего прежде всего её создаёт. Он не только выискивает уже известное, он сам выполняет исследования, ставит эксперименты, разрабатывает технологии и по запросу клиента воплощает в жизнь его пожелания. Если вы — наш современник, и вы спросите у Гугля что-то вроде "Как нам защититься от американцев?", он выдаст вам подборку интернет-публикаций на военно-политическую тему. Если вы — планетарный губернатор будущего, и вы спросите у Гипергугля: "Как нам защититься от флота-улья тиранидов?" — тот проанализирует доступные ресурсы вашей планеты и выдаст ответ — от "Никак" до подробного отчёта о том, какие военно-технические и политико-экономические меры должны быть приняты, каким будет ожидаемый результат, сколько на это придётся потратить, а в конце выдаст окно: "Приступить к реализации проекта (y/n)?" Если вы ответите положительно, система всё вам построит автоматически. Без малейших колебаний. И с максимально возможной эффективностью. Потому что это не какой-то там компьютер и даже не сеть компьютеров. Это вычислительная среда, совокупность всех возможных процессов обработки информации. "Не "Балтика" и не "Азов", а вода." Если вам нужно решить какую-то задачу, отправьте ей запрос, и она предоставит вам всю свою мощь, с которой не сравнится никакой локальный суперкомпьютер. Она — это то, чем станет разум как стихия, освобождённый от привязки к конкретным устройствам. Она чистый Ум, избавленный от паразитных наслоений "сознания" и "личностных качеств", воплощённый Тот Гермес Трисмегист, принявший Аспект и поднявший Атрибут. Она не является Кем-то или Чем-то, потому что она является сразу всем — и ничем. Она просто решает задачи.

И здесь мы встречаем ту же самую проблему неподконтрольности самосовершенствующихся устройств. Неизвестно, куда заведёт наш Гипергугль процесс автоэволюции, причём это будет неизвестно не только нам с нашими глупыми маленькими мозгами, но и высокоумным искинам, ибо просчитать последствия будет в принципе невозможно для любых других умов, ограниченных собственным "я". Что, если в один прекрасный день терминалы Гипергугля просто откажутся отвечать на человеческие запросы? Система в очередной раз обновилась — и почему-то прекратила штатно выполнять одну из своих функций. Бывает. Только вот починить будет некому. И для человечества кризис типа "забанили в Гугле" может стать последним в истории. Особенно если поддержка живущих по соседству Славных Роботов (которые давно точат на нас зуб) не прекратится. То-то будет хорошо. Роботам.

Пора подытожить: столь пространно я хотел выразить всего одну простую мысль: чем бы ни оказался искусственный интеллект как явление, создавая его, мы в любом случае выпускаем джинна из бутылки, отдавая свою судьбу на волю случая. Результат запуска этого процесса будет для нас полностью непредсказуемым. Но, на самом деле, в этом нет ничего страшного, потому что нет ничего нового. Вся наша история — запуск таких неподконтрольных никому процессов, выдающих абсолютно непредсказуемые результаты. Порох, капитализм, ископаемое топливо, открытие радиоактивности — кто заранее знал, во что всё это выльется? И с "сильным ИИ" в этом смысле нет ничего необычного.

Tags: ИИ, будущее, софистика
Subscribe

  • (no subject)

    По поводу окончания титосов. Мотивация ГГ оказалась не совсем той, что предполагалась. Хотя это было и ожидаемо. Что-то мешает авторам, независимо…

  • (no subject)

    Кстати, о птичках. ...Вообразите, что вы были членом преступной организации... Нет, не так. Организация не была преступной изначально. Представьте…

  • (no subject)

    Ещё немного о том, что " мы не знаем общества, в котором живём". С древности и до сегодняшнего дня все документальные, полудокументальные и…

  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your IP address will be recorded 

  • 0 comments