В настоящее время все более активно развивается трансгуманизм – направление, прогнозирующее и разрабатывающее пути трансформации человека на основе развивающихся технологий в нечто совершенно новое и более совершенное в генетическом, физиологическом, интеллектуальном и других отношениях. Целостный философский анализ трансгуманизма как новой суперидеи конструирования человека дает Б.Г.Юдин в работе «Сотворение Трансчеловека» [Юдин, 2007]. Мы же здесь обратимся к более конкретной (в рамках трансгуманизма), но, тем не менее, фундаментальной проблеме. Трансгуманисты провозглашают возможность копирования содержания психики и сознания человека на искусственный носитель и многократной его перезаписи – это новый этап развития проблемы возможности искусственного интеллекта. По мнению сторонников трансгуманизма, совершенно реальные технические возможности для такого копирования будут созданы уже в ближайшие десятилетия, и это откроет возможности бесконечности существования личности (путем многократных перезаписей в меняющиеся телесные оболочки). Это часть так называемой сеттлеретики (науки о переселении личностей, от англ. settler – переселенец).
Готовьтесь к записи уже сейчас, и вам не страшны несчастные случаи, ведь заранее сохраненное содержание вашей психики просто запишут в новое тело – таков один из лозунгов трансгуманизма. Батальоны будущих Эйнштейнов (Эдисонов, Лобачевских, Толстых), скопированных и размноженных во множестве телесных оболочек в случае желания оригинала (а может, и без – при настоятельной общественной необходимости), смогут заняться самыми масштабными свершениями. И т.д.
Проблемы копирования психики: уровень физики
Но дела оказываются не так просты. М.Фаликман считает, что «бессмертие на флешке» вряд ли возможно потому, что для этого пришлось бы перевести в цифровые алгоритмы весь субъективный, ежесекундно накапливающийся, абсолютно уникальный опыт человека [Зубцов, 2013]. На это матерые материалисты-трансгуманисты, вероятно, дадут ответ, что этот уникальный прижизненный опыт с неизбежностью сохраняется у каждого в его нервной системе в совершенно материальной форме (молекул, электрических зарядов и т.д.) – иначе как бы он мог там работать? Ученым важно лишь научиться все это как можно полнее декодировать и потом перезаписывать. Но если прав Р.Пенроуз [2003], и сознание существует благодаря квантовым эффектам, то точное копирование сознания на другой носитель невозможно из-за принципа неопределенности Гейзенберга – мы не сможем создать точную «поатомную», «поквантовую» опись, потому что этого не позволяют фундаментальные ограничения нашего физического мира. Оппоненты возражают, что квантовыми эффектами можно пренебречь.
Однако если ими и пренебречь, то все равно «сканирование всех 4,75^1027 атомов нашего тела нельзя произвести с такой скоростью, чтобы ни один электрон не успел изменить положение, а это — непременное условие сохранения жизненных процессов. Даже если представить, что нам удалось мгновенно просканировать все атомы, … и состояние каждого атома кодировать одним байтом, на передачу данных обо всех атомах уйдет около 12 миллионов лет» - при современных скоростях передачи [Михайлов, 2014, с. 53]. Мозг содержит меньше атомов, чем тело целиком, а скорости передачи растут – пусть копирование продлится не 12 миллионов, а несколько тысяч лет, просто год. Годится?
Может ли запись психики существовать статично?
Обратимся к вопросу о копировании индивидуальной психики как сложной недизъюнктивной системы, развивающейся в деятельности, по А.В.Брушлинскому. Мы ставим следующий вопрос: может ли сделанная запись психики существовать статично (как запись файла на компьютере) или же сущность психики, ее структур и определяющих ее процессов такова, что для ее поддержания даже в записанном состоянии нужно, пусть слабое, но функционирование («спящий режим»)? Во втором случае нет нужды подробно объяснять, что даже спящая психика изменяется и развивается, и эта внутренняя динамика за вполне конечное время приведет к тому, что «спящая» копия будет отличаться от оригинала – потому что изменяется не только оригинал, но и исходная копия. Как часто тогда надо делать новые перезаписи, чтобы дистанция между изменяющимися копией и оригиналом не стала значимой? Сколь долго копия может спать («функционировать на холостых оборотах») без необратимых изменений в ней?
Этические проблемы
Допустим теперь, что ответы на эти фундаментальные вопросы получены, побайтное копирование психики оказалось возможным (несмотря на проблематичность этого допущения), и обратимся к возникающим этическим и социальным проблемам.
После создания самой последней («самой актуальной») копии что надо делать с предыдущими копиями, находящимися в спящем режиме и получившими индивидуальное своеобразие? Стирать их?! Записывать новую версию поверх? Оставлять навсегда в спящем режиме, пока кто-нибудь случайно или нарочно не «поцелует» этих субъектов? Возможны ли хакеры, взламывающие соответствующие базы записей и материализующие, забавы или выгоды ради, чужие копии в произвольно выбранных материальных оболочках (а хоть бы и в исходной) без желания и ведома оригинала? В случае санкционированной или несанкционированной материализации копии (нескольких копий) при жизни оригинала каковы будут гражданские, юридические, супружеские и прочие права и обязанности двух и более психически идентичных субъектов, обладающих тождественным сознанием? Это лишь часть вопросов, которые можно задать певцам технического бессмертия, гарантированного записью и воспроизведением психики.
Кроме того, следует обратиться к дилеммам, сформулированным С.Лемом в серии своих философских эссе, – вопросам «Скопированный человек – тот же или такой же?», практически интересные, правда, только копируемому («Это буду я сам или человек, ничем не отличающийся от меня?», остальные не заметят разницы. Тем не менее, С.Лем показывает важность этого вопроса для копируемого. Он сконструировал следующий пример, который в разных вариантах встречается в его разных работах; перескажу его в обобщенном виде.
Человек собирается отправиться на другую планету (или в город на другом конце Земли). Его полностью сканируют, составляя точную поатомную опись (физическая невозможность этого не обсуждается – интересны следствия). После сканирования запись отправляют в пункт назначения, где ее так же поатомно материализуют в продвинутом 3-D принтере, а оригинал ликвидируют. Но устройство ликвидации ломается, и человек выходит из кабинки с вопросом: «Не удалось?». На что оператор отвечает: «Да нет, удалось, посмотрите на мониторе – Вы уже там и с коллегами здороваетесь. Просто у нас устройство ликвидации дало сбой. Но мы его уже наладили. Просим Вас пройти обратно для ликвидации избыточной копии». Так ли быстро человек согласится, что именно он – избыточная копия, подлежащая ликвидации, согласно имеющимся на этот случай законам и инструкциям?
Разовьем рассуждение Лема, усугубив дилемму. Много ли людей, прочитав вышеприведенный пример, согласится отправить таким способом в путешествие собственного ребенка? А увидев его, вышедшего из кабинки, возьмется объяснять – тебе надо снова вернуться в устройство ликвидации избыточных копий, ты теперь – избыточная копия? И в случае несогласия начнет доброжелательно, но настойчиво подталкивать к ликвидатору? Ведь отправленный-то вон уже на мониторе руками нам машет и тоже просит поторопиться, а то его, пока все формальности не улажены, из зала прибытия не выпускают, а там столько всего интересного. Ответы оставшегося «А я чего-то расхотел лететь» не принимаются или рассматриваются в заранее оговоренном порядке?
Интересно, что с точки зрения одного из лидеров отечественного трансгуманизма Д.Медведева, такого рода вопросы будут совершенно неважны для копируемых: «Все спорные вопросы, будет ли копия вами, – это ерунда. В программном обеспечении копия – это копия, неотличимая от оригинала. В будущем люди будут легко раздваиваться для выполнения какой-то работы и легко уничтожать свои, уже ненужные копии после завершения работы, иногда инкорпорируя их части в основной процесс. Наши понятия человека/психики/индивидуальности должны будут приспособиться к будущему фрактальному миру. Там не будет ни вас единственного, ни вас нескольких. Вас будет не целое, а фрактальное число, постоянно изменяющееся от потребностей момента»1.
Можно видеть, что при таком подходе вопрос о детях и, шире, об ответственности за свои порождения, о любви к ним, защите, сохранении, развитии и т.д., естественным (противоестественным) образом снимается. Но даже если говорить о самом субъекте, то фраза трансгуманиста «люди будут легко раздваиваться для выполнения какой-то работы и легко уничтожать свои, уже ненужные копии» ставит сущностные вопросы. Философский и психологический уровень: что это за инстанция - «Я», которая уничтожает «свою ненужную копию»? На материальном уровне примерно такой процесс уничтожения (самоликвидации) копий можно наблюдать при взаимодействии клеток в организме – но и там возникают проблемы, когда копии не хотят уничтожаться, а напротив, размножаются. Ответ в духе «все спорные вопросы – это ерунда, давайте уже делать» вряд ли может быть принят.
Парадокс: рост искусственного интеллекта и падение его удельной разумности
В соответствии с идеями трансгуманизма и цифровое бессмертие, и другие потрясающие достижения станут возможны как результат развития искусственного интеллекта. Более того, если мы не начнем стремительно изменяться, то еще до середины 21-го века (при жизни нынешнего поколения) искусственный интеллект обгонит естественный (наступит момент так называемой технологической сингулярности). В оценке того, как дело пойдет дальше, люди, верящие в технологическую сингулярность, расходятся. То ли искусственный интеллект, переросший естественный, возьмет человечество под свою доброжелательную опеку, то ли избавится от него, если оно будет мешать, то ли займется своими суперинтеллектуальными делами, не интересуясь более человечеством. Поэтому, говорят приверженцы идеи технологической сингулярности, человечеству надо стремительно интеллектуализироваться с помощью новейших технологий.
По поводу технологической сингулярности следует подчеркнуть, что пока не удалось создать саморазвивающийся искусственный разум. Более того, развитие естественного разума и искусственного интеллекта по ряду принципиальных тенденций как раз расходятся. Причем искусственный интеллект идет по менее эффективной траектории, хотя и компенсируемой частично тем, что в компьютерных науках называют «brute force» («грубая сила») – ростом числа процессоров, скоростью работы и т.д. При этом, что крайне редко замечается, происходит стремительное падение «удельной разумности» систем искусственного интеллекта – разумности на один элемент, на единицу скорости обработки информации и т.д. Поясним это мысль.
В компьютерных технологиях уже несколько десятилетий работает закон Мура (точнее, семейство законов Мура), описывающих эмпирические наблюдения за прогрессом в этой области: каждые 18-24 месяца удваиваются количество транзисторов на кристалле, объемы памяти, стремительно растут тактовые частоты процессоров и т.д. Можно прикинуть, что за последние 20 лет соответствующие показатели выросли не менее, чем в 1000 раз (явно заниженная оценка). Но за этот же период качество, например, машинного перевода возросло, хорошо, если раз в 30 (очень оптимистичная оценка, но пусть) – при росте технических показателей компьютерных систем, как уже говорилось, в тысячи раз. В связи с этим В. Виндж пишет о «полуфантастическом контрапункте Мерфи к закону Мура»: «Максимально возможная эффективность программной системы растет пропорционально логарифму эффективности (то есть скорости, полосе пропускания, объему памяти) подлежащего программного обеспечения» [Виндж, 2004]. Отсюда следует, что эффективность решений искусственных интеллектуальных системы растет намного медленнее технических показателей «железа», причем разрыв постоянно нарастает. Это не замечается, поскольку за счет многократного роста технических показателей подрастает и эффективность решений – этот рост и преподносится как основное достижение, без учета того, как он достигается.
Приведем наглядный – в буквальном смысле – пример. Большинство из нас при работе в интернете сталкивалось с необходимостью прочитать на экране графически искаженные буквы и цифры и затем ввести их с клавиатуры для того, чтобы система пропустила нас дальше. Это CAPTCHA, тест по отсеиванию вредоносных компьютерных программ (например, предназначенных для рассылки спама по найденным адресам и т.п.), пытающихся проникнуть в систему. Дело в том, что компьютерная программа зачастую не может прочитать CAPTCHA - последовательность, пусть и составленную из заранее известных, стандартных элементов алфавита, но представленную в нестандартном внешнем виде. А человек читает ее легко (относительно легко). Эти искаженные буквенно-числовые последовательности все-таки взламываются спамерами. Для этого есть несколько способов. Один из них - «грубая сила» (быстрый компьютерный перебор огромного количества комбинаций), а другой (весьма забавный, учитывая веру в грядущую технологическую сингулярность) – это массовое привлечение живых людей для распознавания CAPTCHA. Люди это делают либо за определенную плату (своеобразная работа на дому – распознал картинку, получил деньги на счет), либо вообще не ведая, что выполняют «распознавательную» функцию. Например, на специально созданных спамерами порно-сайтах выкладываются CAPTCHA, взятые с других сайтов, нужных спамерам, и посетители вводят расшифровки этих CAPTCHA, не зная (или не беспокоясь) о том, что эти расшифровки будут тут же автоматически использованы для проникновения вредоносных программ-роботов на какие-то другие сайты (см. об этом https://ru.wikipedia.org/wiki/Капча).
Итак, про росте технических показателей компьютеров в тысячи раз (а с момента постановки проблемы технического распознавания образов в середине прошлого века – и в миллионы раз) качество распознавания выросло, но отнюдь не столь разительно. То же - с качеством машинного перевода и т.д. Это и означает, что «удельная разумность» технических систем (разумность на выбранную техническую единицу, какой бы она ни была) всё падает, причем стремительно – почти в темпе закона Мура, несмотря на рост мощности в абсолютном выражении.
Обратите внимание: в развитии же естественного интеллекта (например, при интеллектуальном развитии ребенка) имеет место противоположная тенденция. Число нейронов не растет, число нейронных связей растет, но имеет анатомически заданные пределы роста, скорость проведения нервного импульса по нерву существенно не изменяется. Но при этом растет интеллект, разумность субъекта и, соответственно, возрастает удельная разумность – разумность на нейрон, на единицу скорости проведения и т.д.
Таким образом, по одному из принципиально важных параметров искусственный интеллект движется в направлении, противоположном развитию естественного интеллекта. Причем «искусственное» направление пока выглядит не очень оптимистично – нужный путь пока даже не найден.
Примечание: поскольку эффективность систем искусственного интеллекта в абсолютном выражении все-таки подрастает (пусть и при снижении их удельной интеллектуальности), сторонникам идеи технологической сингулярности предоставляется возможность бояться дальше.
Будущее: искусственный и гибридный интеллект и парадокс копирования возникающей сложности
В сложной среде чистые стратегии проигрывают смешанным. Поэтому из реальных технологических перспектив нас ждет не триумф искусственного (или естественного) интеллекта, а всё более тесное, скажем мягко, прилегание искусственного к тому, что обыденному сознанию представляется естественным, натуральным – к рецепторам, эффекторам и структурам мозга. Насколько тесным будет этот контакт (сращивание, вращивание) искусственных и организменных структур, заранее сказать сложно или даже невозможно. И здесь интереснейшие перспективы открываются перед современными последователями Л.С.Выготского. Они могут на качественно новом уровне анализировать: создание ранее никогда не существовавших искусственных орудий и их культурную детерминацию; взаимодействие высших психических функций и субстрата, которые взаимно формируют друг друга; закономерности и особенности общения, взаимодействия (учебного, формального, неформального и пр.) субъектов, бытие и сознание которых мы сейчас вряд ли можем представить адекватно.
В контексте же обсуждаемой темы мы считаем необходимым высказать следующий аргумент принципиальной важности. Развитие технологий будет идти не в направлении копируемости развивающегося человеческого сознания, а в противоположном – в направлении нарастания невозможностей копирования всё усложняющегося разума (хотя тиражируемость элементарных устройств может увеличиваться экспоненциально – это не вопрос). Но сложность и новизна развивающейся системы растут быстрее возможностей их точного копирования. (Самый простой пример, если уж нам настойчиво предлагают компьютерную метафору копирования разума: даже файлы, сформированные в новой версии какой-либо программы, часто копируются с проблемами, отказываются копироваться или открываться, и чем больше новых, необычных, уникальных особенностей у копируемого файла или программы, тем выше вероятность неудачи копирования.) Отдельный вопрос, почему трансгуманисты не замечают или игнорируют даже это, вполне очевидное проявление фундаментальной закономерности, сформулированной выше.
Литература:
Виндж В. Технологическая сингулярность // Компьютерра. 6 сентября 2004.
Зубцов Ю. М. «Человека нельзя записать на флешку»: интервью с М.Фаликман // Psychologies. 01.11.2013.
Михайлов Г. По щучьему велению: телепортация длиной в 12 миллионов лет // Discovery. 2014. 9 (68). С. 52-54.
Пенроуз Р. Новый ум короля: о компьютерах, мышлении и законах физики. М., 2003.
Юдин Б.Г. Сотворение Трансчеловека // Вестник Российской Академии Наук. 2007. Том 77. № 6.
Medvedev D. An introduction to mind uploading. November 20, 2005.
Это расширенная и дополненная версия статьи: Поддьяков А.Н. Копируем ли разум: полемика с трансгуманизмом // Культурно-историческая психология. 2013. №4. C. 110-113.
1 Оригинал на английском: «By the way, all the "controversial" questions of is the copy still you are rubbish. The copy is a copy, which in case of software is indistinguishable from the original. These questions are nonsensical. People in the future would be happily forking themselves and happily destroy the copies, once they've done their job, sometimes incorporating parts of copies into the main process. Our notions of human/mind/individuality/etc will have to accomodate the future fractal world. There won't be neither only one you, nor several of you, there will be a non-integer quantity of you that is constantly changing depending on the needs of the moment» [].
Александр Николаевич Поддьяков — ведущий сотрудник лаборатории экспериментальной и поведенческой экономики НИУ Высшая школа экономики, профессор кафедры педагогической психологии и педагогики факультета психологии МГУ имени М.В. Ломоносова, главный научный сотрудник лаборатории психологии и психофизиологии творчества Института психологии РАН, кандидат в члены Большого Жюри Национального психологического конкурса «Золотая Психея» на период с 2015 по 2019 гг.
Комментариев пока нет – Вы можете оставить первый
, чтобы комментировать